WO2018128015A1 - 不審度推定モデル生成装置 - Google Patents

不審度推定モデル生成装置 Download PDF

Info

Publication number
WO2018128015A1
WO2018128015A1 PCT/JP2017/041538 JP2017041538W WO2018128015A1 WO 2018128015 A1 WO2018128015 A1 WO 2018128015A1 JP 2017041538 W JP2017041538 W JP 2017041538W WO 2018128015 A1 WO2018128015 A1 WO 2018128015A1
Authority
WO
WIPO (PCT)
Prior art keywords
suspiciousness
degree
face
suspicious
estimation model
Prior art date
Application number
PCT/JP2017/041538
Other languages
English (en)
French (fr)
Inventor
雅弘 西光
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2018560328A priority Critical patent/JP7103229B2/ja
Priority to US16/475,718 priority patent/US11023712B2/en
Publication of WO2018128015A1 publication Critical patent/WO2018128015A1/ja
Priority to US16/599,731 priority patent/US11023713B2/en
Priority to US16/599,774 priority patent/US11023714B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a suspiciousness degree estimation model generation device, a suspiciousness degree estimation model generation method, a suspiciousness degree estimation device, a suspiciousness degree estimation method, a program, a suspiciousness degree estimation system, and a camera.
  • the present invention relates to a suspicious degree estimation model generation apparatus, a suspicious degree estimation model generation method, a suspicious degree estimation apparatus, a suspicious degree estimation method, a program, a suspicious degree estimation system, and a camera.
  • a technique for processing a face image and estimating a person attribute of the face image is known.
  • Patent Document 1 describes a face image recognition device having a face area extraction unit, a feature amount extraction unit, a registration information holding unit, and a control unit.
  • the registration information holding unit holds a reference feature amount such as an eigenvector indicating the characteristics of each age group.
  • the control unit compares the feature amount extracted by the feature amount extraction unit with the reference feature amount, and determines the age group having the highest similarity as the age of the subject. According to Patent Document 1, with such a configuration, it is possible to perform control such as estimating the age as the subject's attribute based on the face image and allowing the operation when the age is over a predetermined age, for example. Become.
  • Patent Document 2 is a prior art in the field of commerce that is different from the present invention in the technical field.
  • Patent Document 2 specifies product information by collating image acquisition means, face image extraction means, a database in which group information associated with product information is stored, a user's feature value and group information.
  • An information providing system having a feature amount matching unit is described. According to Patent Document 2, product information with high entertainment can be provided to the user with the above configuration.
  • the feature amount extracted by the feature amount extraction unit is compared with the reference feature amount, and the age group having the highest similarity is determined as the age of the subject. .
  • each age to be compared with the feature amount of the face image It is necessary to hold reference feature quantities such as eigenvectors in advance.
  • reference feature quantities such as eigenvectors
  • an object of the present invention is to provide a suspiciousness degree estimation model generation device and a suspiciousness degree estimation model generation method that solve the problem that it is difficult to detect a suspicious person who is not registered as a person requiring attention based on a face image.
  • a suspicious degree estimating device, a suspicious degree estimating method, a program, a suspicious degree estimating system, and a camera are provided.
  • a suspiciousness degree estimation model generation device which is an embodiment of the present invention, Clustering means for clustering the face images based on feature amounts extracted from the input face images; Based on the clustering result by the clustering means and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustering result, the suspicious degree of the person to be estimated is calculated.
  • the suspiciousness degree estimation model generation method is as follows. Clustering the face image based on the feature amount extracted from the input face image, When estimating the suspicious degree of the person to be estimated based on the clustered result and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustered result The suspiciousness estimation model used for the above is generated.
  • the program which is the other form of this invention is: In the information processing device, Clustering means for clustering the face images based on feature amounts extracted from the input face images; Based on the clustering result by the clustering means and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustering result, the suspicious degree of the person to be estimated is calculated.
  • the suspiciousness degree estimation apparatus which is the other form of the present invention, Feature amount extraction means for extracting a feature amount from the face area of the person to be estimated; Based on the feature amount extracted by the feature amount extraction unit and a suspicious degree estimation model generated in advance, a suspicious degree estimation unit that estimates a suspicious degree of the person to be estimated;
  • the suspiciousness estimation model is a result of clustering the face image based on a feature amount extracted from a previously stored face image and the face image associated in advance with the face image included in the clustered result. And the suspiciousness level information indicating the suspiciousness level of the person indicated by.
  • the suspiciousness degree estimation method which is another aspect of the present invention includes: Extract features from the face area of the person being estimated, The face image previously associated with the face image included in the clustered result and the result of clustering the face image based on the extracted feature quantity and the feature quantity extracted from the face image stored in advance
  • the suspiciousness level estimation model generated in advance based on the suspiciousness level information indicating the suspiciousness level of the person indicated by is used to estimate the suspiciousness level of the estimation target person.
  • the program which is the other form of this invention is: In the information processing device, Feature amount extraction means for extracting a feature amount from the face area of the person to be estimated; Based on the feature amount extracted by the feature amount extraction unit and a suspicious degree estimation model generated in advance, a suspicious degree estimation unit that estimates a suspicious degree of the person to be estimated; Realized,
  • the suspiciousness estimation model is a result of clustering the face image based on a feature amount extracted from a previously stored face image and the face image associated in advance with the face image included in the clustered result. And the suspicious degree information indicating the suspicious degree of the person indicated by.
  • the suspiciousness degree estimation system which is the other form of the present invention, Clustering means for clustering the face images based on feature amounts extracted from the input face images; Based on the clustering result by the clustering means and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustering result, the suspicious degree of the person to be estimated is calculated.
  • a suspiciousness degree estimation model generation device having Feature amount extraction means for extracting a feature amount from the face area of the person to be estimated; Based on the feature amount extracted by the feature amount extraction unit and the suspicious degree estimation model generated by the suspiciousness degree estimation model generation device, the suspiciousness degree estimation unit estimates the suspicious degree of the person to be estimated.
  • a suspiciousness degree estimation device comprising: It has a configuration of having
  • the camera which is the other form of this invention is A camera having imaging means, Feature quantity extraction means for extracting a feature quantity from the face area of the person to be estimated imaged by the imaging means; Based on the feature amount extracted by the feature amount extraction unit and a suspicious degree estimation model generated in advance, a suspicious degree estimation unit that estimates a suspicious degree of the person to be estimated;
  • the suspiciousness estimation model is a result of clustering the face image based on a feature amount extracted from a previously stored face image and the face image associated in advance with the face image included in the clustered result. And the suspiciousness level information indicating the suspiciousness level of the person indicated by.
  • the present invention is configured as described above, so that it is difficult to detect a suspicious person who has not been registered as a person who needs attention in advance based on a face image. It is possible to provide an estimation model generation device, a suspicious degree estimation method, a suspicious degree estimation model generation method, a program, a suspicious degree estimation system, and a camera.
  • FIG. 1 It is a figure which shows an example of the whole structure of the suspiciousness degree estimation system which concerns on the 1st Embodiment of this invention. It is a block diagram which shows an example of a structure of the suspiciousness degree estimation model production
  • FIG. 1 is a diagram illustrating an example of the overall configuration of the suspiciousness degree estimation system 1.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the suspiciousness degree estimation model generation device 2.
  • FIG. 3 is a diagram illustrating an example of the face suspicious degree information 241.
  • FIG. 4 is a block diagram illustrating an example of the configuration of the camera 3.
  • FIG. 5 is a block diagram illustrating an example of the configuration of the suspiciousness degree estimation device 4.
  • FIG. 6 is a flowchart illustrating an example of processing when the suspiciousness degree estimation model generation device 2 generates the suspiciousness degree estimation model 242.
  • FIG. 7 is a flowchart illustrating an example of processing when the suspicious degree estimation device 4 estimates the suspicious degree of a person.
  • a suspicious degree estimation system 1 that estimates the suspicious degree of a person imaged by the camera 3 will be described.
  • the suspicious degree estimation system 1 has a suspicious degree estimation model 242 generated in advance.
  • the suspiciousness degree estimation system 1 calculates the suspicious degree of the person imaged by the camera 3 based on the feature amount extracted from the face area of the person in the image data captured by the camera 3 and the suspiciousness degree estimation model 242. to decide.
  • the suspiciousness degree estimation model 242 includes, for example, a result of clustering face images prepared in advance based on facial feature values extracted from the face image, and suspicious degree information associated with the face image. And is generated based on.
  • it is difficult to define a class by generating the suspiciousness estimation model 242 based on the result of clustering using only the facial feature amount without using the suspiciousness that is the attribute of the person. It is possible to estimate attributes such as the degree of suspiciousness.
  • FIG. 1 shows an example of the entire configuration of the suspiciousness degree estimation system 1.
  • the suspicious degree estimation system 1 includes a suspicious degree estimation model generation device 2, a camera 3, and a suspicious degree estimation device 4.
  • the camera 3 and the suspiciousness degree estimation device 4 are connected so as to communicate with each other.
  • the suspiciousness degree estimation device 4 and the suspiciousness degree estimation model generation device 2 are connected so as to communicate with each other.
  • the camera 3 and the suspiciousness degree estimation device 4, and the suspiciousness degree estimation device 4 and the suspiciousness degree estimation model generation device 2 may be connected via a network (not shown).
  • the suspiciousness degree estimation model generation device 2 is an information processing device.
  • the suspiciousness degree estimation model generation device 2 generates the suspiciousness degree estimation model 242 based on, for example, face suspiciousness degree information 241 stored in advance. Then, the suspiciousness degree estimation model generation device 2 transmits the generated suspiciousness degree estimation model 242 to the suspiciousness degree estimation device 4.
  • FIG. 2 is an example of a main configuration of the suspiciousness degree estimation model generation device 2.
  • the suspiciousness degree estimation model generation device 2 includes, as main components, for example, a communication I / F unit 21, an operation input unit 22, a screen display unit 23, a storage unit 24, and arithmetic processing. Part 25.
  • the communication I / F unit 21 includes a data communication circuit, and has a function of performing data communication with various devices connected via a communication line.
  • the suspiciousness degree estimation model generation device 2 can transmit / receive information to / from the suspiciousness degree estimation device 4 and an external device (not shown) via the communication I / F unit 21.
  • the operation input unit 22 is an operation input device such as a keyboard or a mouse.
  • the operation input unit 22 detects an operation on the operation input device by an operator who operates the suspiciousness degree estimation model generation device 2 and outputs the operation to the arithmetic processing unit 25.
  • a general configuration can be adopted as the configuration of the operation input unit 22.
  • the screen display unit 23 is a screen display device such as an LCD (Liquid Crystal Display, liquid crystal display).
  • the screen display unit 23 can display various information such as the face suspiciousness level information 241 and the suspiciousness level estimation model 242 in accordance with an instruction from the arithmetic processing unit 25.
  • the storage unit 24 is a storage device such as a hard disk or a memory.
  • the storage unit 24 stores processing information and programs 243 necessary for various processes in the arithmetic processing unit 25.
  • the program 243 is a program that realizes various processing units by being read and executed by the arithmetic processing unit 25.
  • the program 243 is read in advance from an external device (not shown) or a storage medium (not shown) via a data input / output function such as the communication I / F unit 21 and stored in the storage unit 24.
  • Main information stored in the storage unit 24 includes face suspicious degree information 241 and a suspicious degree estimation model 242.
  • the face suspicious degree information 241 is information in which a face image, which is image data including a person's face, is associated with suspicious degree information indicating the suspicious degree of the person in the face image.
  • the face suspicious degree information 241 is acquired in advance from an external database or the like via the communication I / F unit 21 or input in advance using the operation input unit 22, for example.
  • the face suspicious degree information 241 associates identification information, a face image, and suspicious degree information.
  • the first line in FIG. 3 associates the identification information “1”, the face image “A”, and the suspicious degree information “a”.
  • the first line in FIG. 3 indicates that the suspicious degree of the person whose face image is “A” is “a”.
  • the identification information in FIG. 3 is information assigned in advance for each face image, for example.
  • the identification information can be used to identify a face image or information that associates a face image with suspicious degree information.
  • the face image in FIG. 3 is image data obtained by imaging the face of the person and the periphery thereof, and is captured in advance by the camera 3 or another imaging device (not shown).
  • the suspicious degree information in FIG. 3 indicates, for example, whether or not the person indicated by the face image has been arrested, whether or not the person has been requested, and indicates whether or not the person in the face image is a person requiring attention. Yes.
  • Suspiciousness information may indicate only the presence or absence of suspiciousness (whether or not it is suspicious) as described above.
  • the suspiciousness information may be evaluated in multiple stages according to the risk level of a person such as past crimes. You may show a general evaluation.
  • the suspiciousness degree estimation model 242 is an estimation model generated by the estimation model generation means 253 based on a clustering result of face images, which will be described later, and suspiciousness level information associated with each face image included in the clustering result. is there.
  • the suspiciousness estimation model 242 is generated by, for example, associating each cluster or face image included in the clustering result with suspiciousness information.
  • the suspiciousness degree estimation model 242 is transmitted to the suspiciousness degree estimation device 4 via the communication I / F unit 21.
  • the suspiciousness degree estimation model 242 is used when the suspiciousness degree estimation device 4 estimates the suspiciousness degree of a face image obtained by the camera 3 and whose suspiciousness degree information is unknown.
  • the arithmetic processing unit 25 has a microprocessor such as MPU (Micro-Processing Unit) and its peripheral circuits.
  • the arithmetic processing unit 25 reads the program 243 from the storage unit 24 and executes it, thereby realizing the various processing units in cooperation with the hardware and the program 243.
  • main processing units realized by the arithmetic processing unit 25 for example, there are a face feature amount extraction unit 251, a clustering unit 252, and an estimation model generation unit 253 (suspiciousness estimation model generation unit).
  • the face feature quantity extraction means 251 extracts the feature quantity (face area) of the person's face indicated by the face image from each face image included in the face suspiciousness information 241. Then, the face feature quantity extraction unit 251 transmits information indicating the extracted feature quantity to the clustering unit 252.
  • the face feature quantity extraction unit 251 acquires a face image from the face suspiciousness degree information 241. Subsequently, the face feature quantity extraction unit 251 extracts a human face area from the acquired face image. Then, the face feature amount extraction unit 251 extracts feature amounts of feature points such as eyes, nose, and mouth included in the extracted face area. After that, the face feature amount extraction unit 251 calculates the feature vector by combining the extracted feature amounts into one.
  • the face feature amount extraction unit 251 calculates a feature vector which is a feature amount of the face image from the face image included in the face suspiciousness information 241. Thereafter, the face feature quantity extraction unit 251 transmits the calculated feature vector to the clustering unit 252 as the feature quantity of the face image.
  • a specific method for calculating a feature vector is not particularly limited.
  • the face feature quantity extraction unit 251 can calculate a feature vector using various known methods.
  • the clustering means 252 clusters each face image included in the face suspiciousness information 241 using the feature vector received from the face feature quantity extracting means 251. At this time, the clustering means 252 performs clustering without using the suspiciousness information included in the face suspiciousness information 241. As described above, the clustering unit 252 uses only the feature amount (feature vector) extracted from the face image without using the suspicious degree information, and clustering the face image included in the face suspicious degree information 241 based on the approximation degree of the feature amount. I do. In other words, the clustering means 252 generates a cluster based on the degree of approximation of the face feature amount using the feature amount extracted from the face image, and divides the face image included in the face suspiciousness information 241 into a plurality of clusters. Then, the clustering unit 252 transmits a clustering result that is a result of clustering to the estimated model generation unit 253.
  • the estimation model generation unit 253 generates the suspicious degree estimation model 242 based on the clustering result by the clustering unit 252 and the suspicious degree information previously associated with the face image included in the clustering result. Then, the estimation model generation unit 253 transmits the generated suspiciousness degree estimation model 242 to the suspiciousness degree estimation device 4 via the communication I / F unit 21. In addition, the estimated model generation unit 253 stores the generated suspicious degree estimation model 242 in the storage unit 24.
  • the estimation model generation unit 253 receives the clustering result from the clustering unit 252. Further, the estimated model generation unit 253 refers to the face suspicious degree information 241 and confirms the suspicious degree information associated with each face image included in the clustering result. And the estimation model production
  • the estimated model generation unit 253 refers to the face suspicious degree information 241, and associates each face image included in the clustering result with the suspicious degree information corresponding to the face image to associate the suspicious degree estimation model 242 with each other. Is generated.
  • the estimation model generation unit 253 generates the suspiciousness estimation model 242 based on the clustering result and the suspiciousness information. Thereafter, the estimated model generation unit 253 stores the generated suspiciousness degree estimation model 242 in the storage unit 24 and transmits the suspiciousness degree estimation model 242 to the suspiciousness degree estimation device 4 via the communication I / F unit 21. Note that the estimation model generation unit 253 may generate the suspiciousness estimation model 242 by combining any of the above-exemplified methods or a plurality of methods. Further, the estimation model generation unit 253 may generate the suspiciousness degree estimation model 242 based on the clustering result and the suspiciousness degree information by a method other than the method exemplified above.
  • the camera 3 is an imaging means such as a surveillance camera that acquires image data.
  • the camera 3 may be a network camera (IP camera) or an intelligent camera, for example.
  • IP camera network camera
  • the camera 3 is installed in an arbitrary place such as a public facility such as an airport, in a town, or in a store, for example, and acquires image data information 331 that is image data of the installed place. Then, the camera 3 transmits the acquired image data information 331 to the suspiciousness degree estimation device 4.
  • FIG. 4 is an example of a main configuration of the camera 3.
  • the camera 3 includes, for example, an imaging unit 31, a transmission / reception unit 32, and a storage device 33 as main components.
  • the imaging means 31 acquires image data of a location where the camera 3 is installed.
  • the image data acquired by the imaging means 31 includes image data of a person passing near the location where the camera 3 is installed.
  • the imaging unit 31 stores the acquired image data as image data information 331 in the storage device 33.
  • the transmission / reception means 32 transmits / receives information to / from the suspiciousness degree estimation device 4 and other external devices.
  • the camera 3 transmits the image data information 331 acquired by the imaging unit 31 to the suspiciousness degree estimation device 4 via the transmission / reception unit 32.
  • the storage device 33 is a storage device such as a memory.
  • the storage device 33 stores image data information 331 and the like.
  • the suspiciousness degree estimation device 4 is an information processing device.
  • the suspiciousness degree estimation device 4 is based on the suspiciousness degree estimation model 242 received from the suspiciousness degree estimation model generation device 2 and the image data information 331 received from the camera 3, and the suspiciousness degree of the person included in the image data information 331. Is estimated.
  • the suspicious degree estimation device 4 can display the estimated suspicious degree on the screen display unit 43 or transmit it to an external device via the communication I / F unit 41, for example.
  • FIG. 5 is an example of a main configuration of the suspiciousness degree estimation device 4.
  • the suspicious degree estimation device 4 includes, for example, a communication I / F unit 41, an operation input unit 42, a screen display unit 43, a storage unit 44, and an arithmetic processing unit 45 as main components. And have.
  • the communication I / F unit 41, the operation input unit 42, and the screen display unit 43 are the communication I / F unit 21, the operation input unit 22, and the screen that the suspiciousness degree estimation model generation device 2 described with reference to FIG.
  • the configuration is the same as that of the display unit 23. Therefore, descriptions of the communication I / F unit 41, the operation input unit 42, and the screen display unit 43 are omitted.
  • the storage unit 44 is a storage device such as a hard disk or a memory.
  • the storage unit 44 stores processing information and programs 442 necessary for various processes in the arithmetic processing unit 45.
  • the program 442 is a program that implements various processing units by being read and executed by the arithmetic processing unit 45.
  • the program 442 is read in advance from an external device (not shown) or a storage medium (not shown) via a data input / output function such as the communication I / F unit 41 and stored in the storage unit 44.
  • Examples of main information stored in the storage unit 44 include a suspicious degree estimation model 242, image data information 331, and estimation result information 441.
  • the suspiciousness degree estimation model 242 is an estimation model generated by the suspiciousness degree estimation model generation apparatus 2.
  • the suspiciousness degree estimation model 242 is transmitted from the suspiciousness degree estimation model generation device 2 via the communication I / F unit 41 and stored in the storage unit 44.
  • the image data information 331 is image data acquired by the camera 3.
  • the image data information 331 includes image data of a person passing near the place where the camera 3 is installed.
  • the image data information 331 is transmitted from the camera 3 via the communication I / F unit 41 and stored in the storage unit 44.
  • the estimation result information 441 is information indicating the suspicious degree of the person (estimation target person) included in the image data information 331 acquired by the camera 3 and estimated by the suspicious degree estimating means 452.
  • the estimation result information 441 has, for example, the same structure as the face suspicious degree information 241, information for identifying a person included in the image data information 331 (for example, image data including the person), suspicious information
  • the information which matched the estimation result estimated by the degree estimation means 452 is included.
  • the estimation result information 441 can be displayed on the screen display unit 43 or transmitted to an external device via the communication I / F unit 41.
  • the storage unit 44 of the suspiciousness degree estimation device 4 stores the suspiciousness degree estimation model 242 generated by the suspiciousness degree estimation model generation device 2 and the image data information 331 acquired by the camera 3.
  • the arithmetic processing unit 45 includes a microprocessor such as an MPU and its peripheral circuits.
  • the arithmetic processing unit 45 reads the program 442 from the storage unit 44 and executes it, thereby realizing the various processing units in cooperation with the hardware and the program 442.
  • main processing units realized by the arithmetic processing unit 45 for example, there are a face feature amount extraction unit 451 (feature amount extraction unit) and a suspiciousness degree estimation unit 452.
  • the face feature quantity extraction unit 451 extracts the face feature quantity of the person (person to be estimated) included in the image data information 331. Then, the face feature quantity extraction unit 451 transmits information indicating the extracted face feature quantity to the suspicious degree estimation unit 452.
  • the face feature amount extraction unit 451 refers to the image data information 331 and extracts a person included in the image data information 331. Subsequently, the face feature quantity extraction unit 451 extracts the extracted face area of the person. Then, the face feature quantity extraction unit 451 extracts feature quantities of feature points such as eyes, nose, and mouth included in the extracted face area. Thereafter, the face feature quantity extraction unit 451 calculates the feature vector by combining the extracted feature quantities into one.
  • the face feature quantity extraction unit 451 calculates a feature vector, which is a face feature quantity, from the face area of a person, as with the face feature quantity extraction unit 251 included in the suspiciousness degree estimation model generation device 2. After that, the face feature amount extraction unit 451 transmits the calculated feature vector to the suspiciousness degree estimation unit 452 as the extracted face feature amount of the person.
  • the face feature amount extraction unit 451 extracts a person from the image data information 331, when extracting a face region, when extracting feature amounts of feature points, when calculating a feature vector.
  • the specific method is not particularly limited.
  • the face feature quantity extraction unit 451 can calculate a feature vector using various known methods. However, it is desirable that the face feature quantity extraction unit 451 calculates a feature vector by the same method as the face feature quantity extraction unit 251.
  • the suspicious degree estimation unit 452 estimates the suspicious degree of the person from which the feature vector is extracted based on the feature vector received from the face feature amount extraction unit 451 and the suspicious degree estimation model 242 stored in the storage unit 44. . Then, the suspiciousness degree estimation unit 452 stores the estimation result as the estimation result information 441 in the storage unit 44. Further, the suspiciousness degree estimation unit 452 can display the estimation result on the screen display unit 43 or transmit the estimation result to the external device via the communication I / F unit 41.
  • the suspicious degree estimation unit 452 receives the feature vector from the face feature amount extraction unit 451.
  • the suspicious degree estimation unit 452 acquires the suspicious degree estimation model 242 from the storage unit 44.
  • the suspiciousness degree estimation unit 452 identifies a cluster or face image whose features are close to the received feature vector, and estimates the suspicious degree of the person from which the feature vector is extracted from the suspiciousness degree information associated with the cluster or face image. To do.
  • the suspiciousness degree estimation unit 452 calculates a distance between the received feature vector and each element (feature amount extracted from each face image) included in the suspiciousness degree estimation model 242. Then, the suspiciousness degree estimation means 452 indicates that the suspiciousness level information of the person with the most similar facial feature (for example, the face image with the shortest distance between feature quantities) is the suspiciousness level information of the person from which the feature vector is extracted. To do. Alternatively, the suspiciousness degree estimation unit 452 selects a plurality of persons with similar facial features, and assumes that the average of the suspiciousness information of the persons with similar characteristics is the suspiciousness information of the person from which the feature vector is extracted. .
  • the suspiciousness degree estimation unit 452 estimates the suspiciousness level information of the person from which the feature vector is extracted based on the suspiciousness level information associated with the face images of a plurality of feature quantities whose distances between the feature quantities are close.
  • the suspicious degree estimation means 452 may specify the suspicious degree information according to the ratio of the suspicious degree information among a plurality of persons having similar characteristics.
  • the suspiciousness degree estimation unit 452 identifies the cluster to which the feature vector belongs based on the distance between the received feature vector and each element included in the suspiciousness degree estimation model 242. Then, the suspicious degree estimation unit 452 assumes that the suspicious degree information associated with the identified cluster is the suspicious degree information of the person from which the feature vector is extracted.
  • the suspiciousness degree estimation means 452 estimates the suspiciousness degree of the person from which the feature vector is extracted based on the feature vector and the suspiciousness degree estimation model 242. Thereafter, the suspicious degree estimation unit 452 stores the estimated suspicious degree as the estimation result information 441 in the storage unit 44 or displays it on the screen display unit 43.
  • the suspiciousness degree estimation means 452 can be configured to estimate the suspiciousness degree of the person from which the feature vector is extracted by any one or combination of the methods exemplified above.
  • the suspiciousness degree estimation means 452 may include the suspicious degree information of the person who has the most similar facial feature or the average of the suspicious degree information of a plurality of people who have the similar facial feature and the suspicious degree associated with the cluster to which the feature vector belongs. Based on the degree information, the suspicious degree of the person who is the estimation target of the feature vector extraction source may be estimated.
  • the facial feature quantity extraction unit 251 of the suspiciousness degree estimation model generation device 2 extracts feature vectors that are facial feature quantities of the facial image from each facial image included in the facial suspiciousness degree information 241. (Step S101). Then, the face feature quantity extraction unit 251 transmits information indicating the extracted feature vector to the clustering unit 252.
  • the clustering unit 252 clusters each face image included in the face suspiciousness information 241 using the feature vector received from the face feature amount extracting unit 251 (step S102). At this time, the clustering means 252 performs clustering without using the suspiciousness information included in the face suspiciousness information 241. Thereafter, the clustering means 252 transmits the clustering result, which is the result of clustering, to the estimated model generation means 253 (step S102).
  • the estimation model generation unit 253 receives the clustering result from the clustering unit 252. Further, the estimated model generation unit 253 refers to the face suspicious degree information 241 and confirms the suspicious degree information associated with each face image included in the clustering result. And the estimation model production
  • the facial feature quantity extraction unit 451 of the suspiciousness degree estimation device 4 extracts a person (person to be estimated) included in the image data information 331 from the image data information 331 (step S201). Further, the face feature quantity extraction unit 451 extracts a feature vector that is a feature quantity of the extracted face area of the person (step S202). Then, the face feature quantity extraction unit 451 transmits information indicating the extracted feature vector to the suspiciousness degree estimation unit 452.
  • the suspiciousness degree estimation unit 452 receives the feature vector from the face feature amount extraction unit 451. In addition, the suspicious degree estimation unit 452 acquires the suspicious degree estimation model 242 from the storage unit 44. Then, the suspicious degree estimation unit 452 estimates the suspicious degree of the person of the face image indicated by the image data information 331 based on the feature vector and the suspicious degree estimation model 242 (step S203). Thereafter, the suspicious degree estimation unit 452 stores the estimated suspicious degree as the estimation result information 441 in the storage unit 44 or displays it on the screen display unit 43.
  • the above is an example of processing when the suspiciousness degree estimation device 4 estimates the suspicious degree of a person.
  • the suspiciousness degree estimation model generation device 2 includes the face feature amount extraction unit 251, the clustering unit 252, and the estimation model generation unit 253.
  • the clustering unit 252 can perform face image clustering using only the feature amounts extracted by the face feature amount extraction unit 251.
  • the estimated model generation unit 253 uses the suspiciousness degree estimation model 242 based on the clustering result performed using only the feature amount and the suspicious degree information previously associated with the face image included in the clustering result. Can be generated.
  • the suspicious degree estimation model generation device 2 can generate the suspicious degree estimation model 242 without defining the suspicious degree, and is used when estimating the suspicious degree that is difficult to define the class. It is possible to generate a suspiciousness estimation model 242 capable of
  • the suspiciousness degree estimation device 4 in the present embodiment includes a face feature quantity extraction unit 451 and a suspicious degree estimation unit 452, and is configured to receive the suspiciousness degree estimation model 242 from the suspiciousness degree estimation model generation device 2.
  • the suspicious degree estimation unit 452 extracts the facial feature quantity based on the feature quantity extracted by the feature quantity extraction unit 451 and the suspicious degree estimation model 242 received from the suspicious degree estimation model generation device 2. It becomes possible for the means 451 to estimate the suspicious degree of the person whose feature value is extracted. That is, according to the above configuration, it is possible to estimate a suspicious degree that is difficult to define a class.
  • the suspiciousness degree estimation system 1 includes the suspiciousness degree estimation model generation device 2, the camera 3, and the suspiciousness degree estimation device 4.
  • the configuration of the suspiciousness degree estimation system 1 is not limited to the case illustrated in the present embodiment.
  • the suspiciousness degree estimation model generation device 2 and the suspiciousness degree estimation device 4 may be integrally configured as one information processing device. That is, the suspicious degree estimation system 1 may be configured by an information processing apparatus having a function as the suspicious degree estimation model generation apparatus 2 and a function as the suspicious degree estimation apparatus 4, and the camera 3. Further, the camera 3 may be configured to have a function as the suspiciousness degree estimation device 4 or the suspiciousness degree estimation model generation device 2.
  • the suspicious degree estimation system 1 may be configured only by the camera 3 having the function as the suspicious degree estimation model generation device 2 and the function as the suspicious degree estimation device 4.
  • the camera 3 has only the functions of the suspiciousness degree estimation device 4 and the suspiciousness degree estimation model generation device 2 such as the function of the facial feature quantity extraction unit 451 among the functions of the suspiciousness degree estimation device 4 and the suspiciousness degree estimation model generation device 2. You may have only a part.
  • the suspiciousness degree estimation device 4 and the suspiciousness degree estimation model generation device 2 have the functions that the camera 3 has. You don't have to.
  • the face feature amount extraction unit 251 extracts feature amounts from each face image included in the face suspiciousness information 241.
  • the target from which the facial feature quantity extraction unit 251 extracts the feature quantity is not limited to the facial suspicious degree information 241.
  • the face feature amount extraction unit 251 may extract a feature amount from a person in image data acquired from the camera 3 or an external device via the communication I / F unit 21.
  • the clustering means 252 performs clustering of the face suspiciousness information 241 and the face image acquired from the external device.
  • FIG. 8 is a diagram illustrating an example of the overall configuration of the suspiciousness degree estimation system 5.
  • FIG. 9 is a block diagram illustrating an example of the configuration of the suspiciousness degree estimation model generation device 6.
  • FIG. 10 is a diagram illustrating an example of the face suspiciousness degree information 641 with additional information.
  • FIG. 11 is a block diagram illustrating an example of the configuration of the suspiciousness degree estimation device 7.
  • FIG. 12 is a flowchart illustrating an example of processing when the suspiciousness degree estimation model generation device 6 generates the suspiciousness degree estimation model 642.
  • FIG. 13 is a flowchart illustrating an example of processing when the suspicious degree estimation device 7 estimates the suspicious degree of a person.
  • the suspiciousness degree estimation system 5 that estimates the suspicious degree of a person imaged by the camera 3 will be described.
  • the suspiciousness degree estimation system 5 in the present embodiment is different from the first embodiment in that additional information is used when generating an estimation model or performing estimation.
  • FIG. 8 shows an example of the overall configuration of the suspiciousness degree estimation system 5.
  • the suspicious degree estimation system 5 includes a suspicious degree estimation model generation device 6, a camera 3, and a suspicious degree estimation device 7.
  • the suspiciousness degree estimation system 5 in this embodiment includes the suspiciousness degree estimation model generation device 6 and the suspiciousness degree estimation device 7, and the suspiciousness degree estimation system 1 described in the first embodiment. Is different. Therefore, the suspiciousness degree estimation model generation device 6 and the suspiciousness degree estimation device 7 will be described below.
  • the suspiciousness degree estimation model generation device 6 is an information processing device.
  • the suspiciousness degree estimation model generation device 6 generates the suspiciousness degree estimation model 642, for example, based on the pre-stored face suspiciousness degree information 641 with additional information. Then, the suspiciousness degree estimation model generation device 6 transmits the generated suspiciousness degree estimation model 642 to the suspiciousness degree estimation device 7.
  • FIG. 9 is an example of a main configuration of the suspiciousness degree estimation model generation device 6.
  • the suspicious degree estimation model generation device 6 includes, as main components, for example, a communication I / F unit 61, an operation input unit 62, a screen display unit 63, a storage unit 64, and an arithmetic process. Part 65.
  • the communication I / F unit 61, the operation input unit 62, and the screen display unit 63 are the communication I / F unit 21, the operation input unit 22, and the screen included in the suspiciousness degree estimation model generation device 2 described with reference to FIG.
  • the configuration is the same as that of the display unit 23. Therefore, descriptions of the communication I / F unit 61, the operation input unit 62, and the screen display unit 63 are omitted.
  • the storage unit 64 is a storage device such as a hard disk or a memory.
  • the storage unit 64 stores processing information and programs 643 necessary for various processes in the arithmetic processing unit 65.
  • the program 643 is a program that realizes various processing units by being read and executed by the arithmetic processing unit 65.
  • the program 643 is read in advance from an external device (not shown) or a storage medium (not shown) via a data input / output function such as the communication I / F unit 61 and stored in the storage unit 64.
  • Main information stored in the storage unit 64 includes face suspicious degree information 641 with additional information and a suspicious degree estimation model 642.
  • the face suspicious degree information 641 with additional information includes a face image that is image data including a person's face, suspicious degree information that indicates the suspicious degree of the person in the face image, and a face such as the age and gender of the person indicated by the face image.
  • This is information in which additional information indicating additional information is associated with an image.
  • the face suspiciousness information with additional information 641 is acquired in advance from an external database or the like via the communication I / F unit 61 or input in advance using the operation input unit 62.
  • the face suspicious degree information 641 with additional information associates identification information, a face image, suspicious degree information, and additional information.
  • the first line in FIG. 10 associates identification information “1”, face image “A”, suspicious degree information “a”, and load information “x”.
  • the first line in FIG. 3 indicates that the suspicious degree of the person whose face image is “A” is “a” and the additional information is “x”.
  • the additional information is information such as the age and sex of the person indicated by the face image, and is information associated with the face image.
  • the additional information may include information other than those exemplified above, but is desirably information that can be estimated based on the feature amount extracted from the face image. In other words, the additional information is not limited to the above example, but is desirably information that allows easy class definition.
  • the suspiciousness degree estimation model 642 is a model that is generated based on the clustering result of face images and the suspiciousness degree information associated with each face image included in the clustering result.
  • the suspiciousness degree estimation model 642 is transmitted to the suspiciousness degree estimation device 7 and used, for example, when estimating the suspiciousness degree of a face image obtained by the camera 3 and having suspicious degree information unknown.
  • the clustering unit 653 in this embodiment clusters the face images selected by the filtering unit 651. Therefore, the clustering unit 653 in this embodiment performs clustering on all or part of the face images included in the face information with additional information suspiciousness information 641. For this reason, the number of face images included in the suspiciousness degree estimation model 642 is equal to or less than the number of face images included in the face suspiciousness degree information 641 with additional information. Further, the suspiciousness degree estimation model 642 in the present embodiment can include information for identifying additional information used when selecting a face image included in the suspiciousness degree estimation model 642.
  • the filtering means 651 can be configured to perform multiple selections on the same face suspiciousness degree information 641 with additional information.
  • the estimation model generation unit 654 generates a plurality of estimation models in accordance with the selection by the filtering unit 651. Therefore, the suspiciousness degree estimation model 642 can include a plurality of types of estimation models with different face images generated from the same face suspiciousness degree information 641 with additional information.
  • the plurality of estimation models included in the suspiciousness estimation model 642 can be identified by referring to information for identifying additional information included in each estimation model, for example.
  • the arithmetic processing unit 65 has a microprocessor such as an MPU and its peripheral circuits.
  • the arithmetic processing unit 65 reads and executes the program 643 from the storage unit 64, thereby realizing various processing units by cooperating the hardware and the program 643.
  • main processing units realized by the arithmetic processing unit 65 for example, there are a filtering unit 651, a face feature amount extracting unit 652, a clustering unit 653, and an estimated model generating unit 654.
  • the filtering unit 651 uses the additional information included in the face suspiciousness information with additional information 641 to select a face image included in the face suspiciousness information with additional information 641. Then, the filtering unit 651 transmits information indicating the face image after selection to the face feature amount extracting unit 652. Further, the filtering unit 651 transmits information indicating information used for selection (information for identifying additional information) to the face feature amount extraction unit 652, the estimated model generation unit 654, and the like.
  • the filtering unit 651 selects only the face images whose additional information is “male” from the face images included in the face suspiciousness information with additional information 641.
  • the filtering unit 651 selects only the face images in which the additional information is “female” and the age is “20 to 40 years old” from the face images included in the face suspicious degree information 641 with additional information.
  • the filtering unit 651 uses the additional information included in the face suspiciousness information with additional information 641 to select the face image included in the face suspiciousness information with additional information 641. Then, the filtering unit 651 transmits information indicating the face image after selection to the face feature amount extracting unit 652.
  • the filtering unit 651 uses to select the face image included in the face suspiciousness degree information 641 with additional information can be arbitrarily set.
  • the filtering unit 651 can be configured to perform face image selection using additional information corresponding to a person image estimated to be a target for estimating a suspicious degree.
  • the filtering unit 651 may select the face image using only one additional information, or may select the face image using a plurality of additional information.
  • the filtering means 651 can be configured to perform multiple selections on the same face suspiciousness degree information 641 with additional information. For example, the filtering unit 651 transmits only the face image whose additional information is “male” to the face feature amount extraction unit 652, and then only the face image whose additional information is “female” for generating another estimation model. It can be configured to transmit to the extraction means 652. Note that the filtering unit 651 may perform selection so that the face images to be selected do not overlap when selecting a plurality of times, or may perform selection so as to allow overlap. Further, the filtering unit 651 may perform selection so as to cover all face images included in the suspiciousness estimation model 642 by multiple selection.
  • the face feature amount extraction unit 652 extracts a feature vector indicating the feature amount of the face image from each face image indicated by the information received from the filtering unit 651. Then, the face feature quantity extraction unit 251 transmits information indicating the extracted feature vector to the clustering unit 252.
  • the clustering unit 653 clusters the face images selected by the filtering unit 651 using the feature vector received from the face feature amount extraction unit 652.
  • the clustering unit 653 performs clustering without using suspiciousness information, similarly to the clustering unit 252 described in the first embodiment. Then, the clustering unit 653 transmits a clustering result that is a result of clustering to the estimated model generation unit 654.
  • the estimation model generation unit 654 generates a suspicious degree estimation model 642 based on the clustering result by the clustering unit 653 and the suspicious degree information previously associated with the face image included in the clustering result.
  • the estimation model generation means 654 may include information for identifying additional information used when selecting a face image included in the suspiciousness estimation model 642 in the suspiciousness estimation model 642 to be generated. I can do it.
  • the estimation model generation unit 654 transmits the generated suspiciousness degree estimation model 642 to the suspiciousness degree estimation device 7 via the communication I / F unit 61.
  • the estimated model generation unit 654 stores the generated suspicious degree estimation model 642 in the storage unit 64.
  • the estimation model generation unit 654 receives the clustering result from the clustering unit 653.
  • the estimated model generation unit 654 refers to the face suspicious degree information with additional information 641 and confirms the suspicious degree information associated with each face image included in the clustering result. Then, the estimated model generation unit 654 generates a suspicious degree estimation model 642 based on the clustering result and the suspicious degree information.
  • estimation model generation unit 654 generates the suspiciousness estimation model 642 by the same processing as the estimation model generation unit 253 described in the first embodiment. Therefore, details of specific processing by the estimated model generation unit 654 are omitted. Moreover, the estimation model generation means 654 in this embodiment generates the suspiciousness degree estimation model 642 according to the result of filtering by the filtering means 651. In other words, the estimation model generation unit 654 generates a plurality of suspiciousness estimation models 642 when the filtering unit 651 performs selection a plurality of times.
  • the suspiciousness degree estimation device 7 is an information processing device.
  • the suspiciousness degree estimation device 7 is based on the suspiciousness degree estimation model 642 received from the suspiciousness degree estimation model generation device 6 and the image data information 331 received from the camera 3, and includes a person (estimation target) included in the image data information 331.
  • the suspicious degree of the person) is estimated.
  • the suspicious degree estimation device 4 can display the estimation result information 441 including the estimated suspicious degree on the screen display unit 43 or transmit it to an external device via the communication I / F unit 41, for example.
  • FIG. 11 is an example of a main configuration of the suspiciousness degree estimation device 7.
  • the suspiciousness degree estimation device 7 includes, for example, a communication I / F unit 71, an operation input unit 72, a screen display unit 73, a storage unit 74, and an arithmetic processing unit 75 as main components. And have.
  • the communication I / F unit 71, the operation input unit 72, and the screen display unit 73 are the communication I / F unit 21, the operation input unit 22, and the screen that the suspiciousness degree estimation model generation device 2 described with reference to FIG.
  • the configuration is the same as that of the display unit 23. Therefore, descriptions of the communication I / F unit 71, the operation input unit 72, and the screen display unit 73 are omitted.
  • the storage unit 74 is a storage device such as a hard disk or a memory.
  • the storage unit 74 stores processing information and programs 743 necessary for various processes in the arithmetic processing unit 75.
  • the program 743 is a program that realizes various processing units by being read and executed by the arithmetic processing unit 75.
  • the program 743 is read in advance from an external device (not shown) or a storage medium (not shown) via a data input / output function such as the communication I / F unit 71 and stored in the storage unit 74.
  • the main information stored in the storage unit 74 includes, for example, a suspicious degree estimation model 642, image data information 331, reference information 741, and estimation result information 742.
  • the suspiciousness degree estimation model 642 is an estimation model generated by the suspiciousness degree estimation model generation device 6.
  • the suspicious degree estimation model 642 is transmitted from the suspicious degree estimation model generation device 6 via the communication I / F unit 71 and stored in the storage unit 74.
  • the image data information 331 is image data acquired by the camera 3.
  • the image data information 331 includes image data of a person passing near the place where the camera 3 is installed.
  • the image data information 331 is transmitted from the camera 3 via the communication I / F unit 71 and stored in the storage unit 74.
  • the reference information 741 is information serving as a reference when estimating additional information based on the extracted feature amount (feature vector).
  • the reference information 741 includes information corresponding to the additional information included in the face suspiciousness degree information 641 with additional information, for example.
  • the reference information 741 is a reference feature amount for each age group, or information serving as a reference for determining gender.
  • the reference information 741 is created in advance by an external device, for example, and is read in advance via the communication I / F unit 71.
  • the reference information 741 is used by the additional information estimation unit 752.
  • the estimation result information 742 is information indicating the suspicious degree of the person included in the image data information 331 acquired by the camera 3 estimated by the suspicious degree estimating means 754.
  • the configuration of the estimation result information 742 is the same as the estimation result information 441 described in the first embodiment. Therefore, explanation is omitted.
  • the arithmetic processing unit 75 has a microprocessor such as an MPU and its peripheral circuits.
  • the arithmetic processing unit 75 reads the program 743 from the storage unit 74 and executes it, thereby realizing the various processing units in cooperation with the hardware and the program 743.
  • the main processing units realized by the arithmetic processing unit 75 include, for example, a face feature amount extraction unit 751, an additional information estimation unit 752, a use model selection unit 753, and a suspiciousness level estimation unit 754.
  • the face feature quantity extraction unit 751 extracts a feature vector that is a face feature quantity of a person (person to be estimated) included in the image data information 331. Then, the facial feature quantity extraction unit 751 transmits information indicating the extracted feature vector to the additional information estimation unit 752 and to the suspicious degree estimation unit 754. Note that the processing when the facial feature quantity extraction unit 751 extracts the feature vector is the same as the facial feature quantity extraction unit 451 described in the first embodiment. Therefore, explanation is omitted.
  • the additional information estimation unit 752 estimates additional information of the person from which the feature vector is extracted based on the feature vector received from the face feature amount extraction unit 751. Then, the additional information estimation unit 752 transmits the estimated additional information to the use model selection unit 753.
  • the additional information estimation unit 752 receives a feature vector from the face feature amount extraction unit 751. Further, the additional information estimation unit 752 refers to the reference information 741. Then, the additional information estimation unit 752 estimates additional information of the person from which the feature vector is extracted based on the feature vector and the reference information 741. Specifically, for example, the additional information estimation unit 752 refers to the standard feature value for each age with reference to the standard information 741. Then, the additional information estimation unit 752 estimates the age of the reference feature amount that is closest to the received feature vector as the age of the person from whom the feature vector is extracted. Further, the additional information estimation unit 752 estimates the gender of the person from which the feature vector is extracted based on the feature vector and the reference information 741. As described above, the additional information estimation unit 752 estimates additional information of the person from which the feature vector is extracted based on the feature vector and the reference information 741. Thereafter, the additional information estimation unit 752 transmits the estimated additional information to the usage model selection unit 753.
  • the use model selection means 753 selects the suspiciousness degree estimation model 642 used when the suspiciousness degree estimation means 754 estimates the suspicious degree based on the additional information received from the additional information estimation means 752. Thereafter, the use model selection unit 753 transmits information indicating the selected suspiciousness degree estimation model 642 to the suspiciousness degree estimation means 754.
  • the usage model selection unit 753 receives additional information from the additional information estimation unit 752. Further, the use model selection unit 753 refers to the suspiciousness degree estimation model 642 and confirms information for identifying additional information included in the suspiciousness degree estimation model 642. Then, the usage model selection unit 753 selects the suspiciousness estimation model 642 corresponding to the additional information received from the additional information estimation unit 752. Specifically, for example, the use model selection unit 753 selects the suspiciousness estimation model 642 having information closest to the additional information received from the additional information estimation unit 752 or the suspiciousness estimation model 642 including the additional information. At this time, the use model selection unit 753 may be configured to select only one model, or may be configured to select a plurality of models. Thereafter, the use model selection unit 753 transmits information indicating the selected suspiciousness degree estimation model 642 to the suspiciousness degree estimation means 754.
  • the suspiciousness degree estimation means 754 is based on the feature vector received from the face feature quantity extraction means 751 and the suspiciousness degree estimation model 642 selected by the use model selection means 753, and the person who is the feature vector extraction source (the person to be estimated) ) Is estimated. Then, the suspiciousness degree estimation unit 754 stores the estimation result in the storage unit 74 as estimation result information 742. Further, the suspicious degree estimation means 754 can display the estimation result on the screen display unit 73 or transmit it to the external device via the communication I / F unit 71.
  • the suspiciousness degree estimation unit 754 receives a feature vector from the face feature amount extraction unit 751. Further, the suspiciousness degree estimation means 754 receives information indicating the suspiciousness degree estimation model 642 from the use model selection means 753. Then, the suspiciousness degree estimation unit 754 identifies a cluster or face image whose features are close to the received feature vector, and estimates the suspicious degree of the person from which the feature vector is extracted from the suspiciousness degree information associated with the cluster or face image. To do. Since a specific method is the same as that described in the first embodiment, a description thereof will be omitted.
  • the use model selection unit 753 may select a plurality of suspiciousness estimation models 642.
  • the suspicious degree estimation means 754 estimates the suspicious degree of the person using each of the plurality of suspicious degree estimation models 642.
  • the suspicious degree estimation means 754 can integrate the suspicious degrees estimated by various known methods to obtain a final suspicious degree estimate. For example, it is conceivable that the suspicious degree estimating means 754 adopts the highest suspicious degree among the estimated suspicious degree information. Further, the suspicious degree estimation unit 754 may calculate an average value of the estimated suspicious degrees. The suspicious degree estimation means 754 may calculate the final suspicious degree by a method other than that exemplified above.
  • the filtering unit 651 of the suspiciousness degree estimation model generation device 6 uses the additional information included in the face suspiciousness degree information 641 with additional information to generate a facial image used when generating the suspiciousness degree estimation model 642. Are selected from the face images included in the face suspicious degree information 641 with additional information (step S301). Then, the filtering unit 651 transmits information indicating the face image after selection to the face feature amount extracting unit 652.
  • the face feature amount extraction unit 652 extracts a feature vector indicating the feature amount of the face image from each face image indicated by the information received from the filtering unit 651 (step S302). Then, the face feature amount extraction unit 652 transmits information indicating the extracted feature vector to the clustering unit 653.
  • the clustering unit 653 clusters the face images selected by the filtering unit 651 based on the feature vector received from the face feature amount extracting unit 652 (step S303). Thereafter, the clustering unit 653 transmits a clustering result, which is a result of clustering, to the estimated model generation unit 654.
  • the estimation model generation unit 654 receives the clustering result from the clustering unit 653. In addition, the estimated model generation unit 654 refers to the face suspicious degree information with additional information 641 and confirms the suspicious degree information associated with each face image included in the clustering result. And the estimation model production
  • the facial feature quantity extraction means 751 of the suspiciousness degree estimation device 7 extracts a person (person to be estimated) included in the image data information 331 from the image data information 331 (step S401). Subsequently, the face feature quantity extraction unit 751 extracts a feature vector that is a feature quantity of the extracted face area of the person (step S402). Then, the face feature amount extraction unit 751 transmits information indicating the extracted feature vector to the additional information estimation unit 752 and the suspiciousness degree estimation unit 754.
  • the additional information estimation unit 752 estimates additional information of the person from which the feature vector is extracted based on the feature vector received from the face feature amount extraction unit 751 (step S403). Then, the additional information estimation unit 752 transmits the estimated additional information to the use model selection unit 753.
  • the use model selection unit 753 selects the suspiciousness degree estimation model 642 used when the suspiciousness degree estimation means 754 estimates the suspicious degree based on the additional information received from the additional information estimation means 752 (step S404). Thereafter, the use model selection unit 753 transmits information indicating the selected suspiciousness degree estimation model 642 to the suspiciousness degree estimation means 754.
  • the suspiciousness degree estimation unit 754 receives the feature vector from the face feature amount extraction unit 751. Further, the suspiciousness degree estimation means 754 receives information indicating the suspiciousness degree estimation model 642 from the use model selection means 753. Then, the suspicious degree estimating means 754 estimates the suspicious degree of the person to be estimated based on the received feature vector and the suspicious degree estimating model 642 selected by the use model selecting means 753 (step S405). Thereafter, the suspicious degree estimation means 754 stores the estimated suspicious degree as estimation result information 742 in the storage unit 74 or displays it on the screen display unit 73.
  • the above is an example of processing when the suspiciousness degree estimation device 7 estimates the suspicious degree of a person.
  • the suspiciousness degree estimation model generation device 6 in the present embodiment generates the suspiciousness degree estimation model 642 based on the face image after filtering using the additional information. Further, the suspicious degree estimation device 7 estimates the suspicious degree of the person based on the suspicious degree estimation model 642. With such a configuration, the suspiciousness degree estimation model generation device 6 can generate a suspiciousness degree estimation model 642 in which included face images are previously selected based on additional information. As a result, the suspiciousness degree estimation device 7, for example, includes a suspiciousness degree estimation model 642 including only a face image having additional information assumed as a suspicious person, and a feature amount extracted from the face area of the person included in the image data information 331. Based on the above, it is possible to estimate the suspicious degree of the person to be estimated. As a result, it is possible to narrow down in advance the data to be compared with the feature amount, and it is possible to speed up the processing when estimating the suspicious degree. In addition, the accuracy can be further improved.
  • the suspicious degree estimation system 5 in the present embodiment can include various modified examples, similarly to the suspicious degree estimation system 1 described in the first embodiment.
  • FIG. 14 is a schematic block diagram illustrating an example of the configuration of the suspiciousness degree estimation model generation device 8.
  • FIG. 15 is a schematic block diagram illustrating an example of the configuration of the suspiciousness degree estimation device 9.
  • an outline of the configuration of the suspiciousness degree estimation model generation device 8 that generates a suspiciousness degree estimation model will be described.
  • an outline of the configuration of the suspicious degree estimation device 9 that estimates the suspicious degree of a person using a suspicious degree estimation model generated by an external device such as the suspicious degree estimation model generation device 8 will be described.
  • the suspiciousness degree estimation model generation device 8 includes clustering means 81 and suspiciousness degree estimation model generation means 82.
  • the suspiciousness degree estimation model generation device 8 includes a storage device and an arithmetic device (not shown), and the arithmetic device executes the program stored in the storage device, thereby realizing each of the above means.
  • the feature amount extracted from the face image is input to the clustering means 81.
  • the clustering unit 81 clusters the face images based on the feature amount extracted from the input face image. Thereafter, the clustering unit 81 transmits the clustering result to the suspiciousness degree estimation model generation unit 82.
  • the suspiciousness degree estimation model generation unit 82 receives the clustering result from the clustering unit 81. Then, the suspiciousness degree estimation model generation unit 82 generates a suspiciousness degree estimation model based on the received clustering result and the suspiciousness degree information previously associated with the face image included in the clustering result.
  • the suspicious degree information refers to information indicating the suspicious degree of the person indicated by the face image.
  • the suspicious degree estimation model is used when estimating the suspicious degree of the person to be estimated.
  • the suspiciousness degree estimation model generation means 82 in this embodiment has the clustering means 81 and the suspiciousness degree estimation model generation means 82.
  • the clustering means 81 can cluster the face image based on the feature amount extracted from the face image.
  • the suspiciousness degree estimation model generation means 82 is based on the clustering result performed using the feature amount and the suspiciousness degree information previously associated with the face image included in the clustering result. Can be generated.
  • the suspicious degree estimation model generation device 8 can generate a suspicious degree estimation model without defining the suspicious degree, and can be used when estimating the suspicious degree that is difficult to define the class.
  • a possible suspiciousness estimation model can be generated.
  • the suspiciousness degree estimation model generation device 8 described above can be realized by incorporating a predetermined program into the suspiciousness degree estimation model generation device 8.
  • a program according to another embodiment of the present invention includes a clustering unit 81 for clustering face images based on a feature amount extracted from an input face image, and a clustering by the clustering unit 81. Based on the result and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustering result, the suspicious person used when estimating the suspicious degree of the person to be estimated This is a program for realizing suspiciousness degree estimation model generation means 82 for generating a degree estimation model.
  • the suspiciousness degree estimation model generation method executed by the above-described suspiciousness degree estimation model generation apparatus 8 clusters the face images based on the feature amount extracted from the input face image, and results of clustering,
  • the suspiciousness degree estimation used when estimating the suspicious degree degree of the person to be estimated based on the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustered result This is a method of generating a model.
  • the suspiciousness degree estimation device 9 includes a feature amount extraction unit 91 and a suspiciousness degree estimation unit 92.
  • the suspiciousness degree estimation device 9 includes a storage device and an arithmetic device (not shown), and the arithmetic device executes the program stored in the storage device, thereby realizing each of the above means.
  • Feature amount extraction means 91 extracts a feature amount from the face area of the person to be estimated.
  • the details of the processing when the feature amount extraction unit 91 extracts the feature amount of the human face area from the image data are not particularly limited in the present embodiment. Thereafter, the feature quantity extraction unit 91 transmits the extracted feature quantity to the suspiciousness degree estimation unit 92.
  • the suspiciousness degree estimation unit 92 receives the feature amount from the feature amount extraction unit 91. Then, the suspicious degree estimation means 92 estimates the suspicious degree of the person to be estimated based on the received feature amount and the suspicious degree estimation model generated in advance.
  • the suspiciousness degree estimation model is obtained by clustering the face image based on the feature amount extracted from the face image stored in advance and the face image previously associated with the face image included in the clustered result. It is generated based on the suspicious degree information indicating the suspicious degree of the person indicated by the image.
  • the suspiciousness degree estimation device 9 includes the feature amount extraction means 91 and the suspiciousness degree estimation means 92. Further, the suspiciousness degree estimation model used by the suspiciousness degree estimation unit 92 is generated in advance based on the result of clustering the face image based on the feature amount extracted from the face image. With this configuration, the suspiciousness degree estimation unit 92 is based on the feature amount extracted by the feature amount extraction unit 91 and the suspicious degree estimation model, and the suspicious degree of the person from which the feature amount extraction unit 91 has extracted the feature amount. The degree can be estimated. That is, according to the above configuration, it is possible to estimate a suspicious degree that is difficult to define a class.
  • a program according to another aspect of the present invention is a program that extracts, in an information processing apparatus, a feature amount extraction unit 91 that extracts a feature amount from a face area of a person to be estimated, and a feature extracted by the feature amount extraction unit 91.
  • This is a program that realizes the suspiciousness degree estimation means 92 that estimates the suspiciousness degree of the person to be estimated based on the amount and the suspiciousness degree estimation model generated in advance.
  • the suspiciousness degree estimation model is associated in advance with the result of clustering the face image based on the feature amount extracted from the face image stored in advance, and the face image included in the clustered result. It is generated based on the suspicious degree information indicating the suspicious degree of the person indicated by the face image.
  • the suspiciousness degree estimation method executed by the above-described suspiciousness degree estimation device 9 extracts a feature amount from the face area of the person to be estimated, and features extracted from the extracted feature amount and a face image stored in advance. Generated in advance based on the result of clustering the face image based on the amount and the suspicious degree information indicating the degree of suspiciousness of the person indicated by the face image, which is associated in advance with the face image included in the clustered result This is a method of estimating the suspicious degree of the person to be estimated based on the suspicious degree estimating model.
  • (Appendix 1) Clustering means for clustering the face images based on feature amounts extracted from the input face images; Based on the clustering result by the clustering means and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustering result, the suspicious degree of the person to be estimated is calculated.
  • a suspiciousness estimation model generating means for generating a suspiciousness estimation model to be used for estimation;
  • a suspiciousness degree estimation model generation device
  • (Appendix 2) The suspiciousness degree estimation model generation device according to attachment 1, wherein A face feature amount extracting unit that extracts a feature amount from the face image included in the face suspicious degree information including the face image and the suspicious degree information indicating the suspicious degree of the person of the face image; The suspiciousness degree estimation model generation device, wherein the clustering means clusters the face images included in the face suspiciousness degree information based on the feature quantity extracted by the face feature quantity extraction means.
  • (Appendix 3) The suspiciousness degree estimation model generation device according to attachment 2, wherein The suspiciousness degree estimation model generation device, wherein the clustering means clusters the face images included in the face suspiciousness degree information based on the approximation degree of the feature quantity extracted by the face feature quantity extraction means.
  • the suspiciousness degree estimation model generation device includes additional information incidental to the face information, Filtering means for selecting the face image included in the face suspicious degree information based on the additional information;
  • the face feature amount extraction unit extracts the feature amount of the face image selected by the filtering unit;
  • the suspiciousness degree estimation model generation device wherein the clustering means clusters the face images selected by the filtering means based on the feature quantity extracted by the face feature quantity extraction means.
  • the suspiciousness degree estimation model generation device according to any one of appendices 1 to 4, The suspicious degree estimation model generation means associates each cluster included in the clustering result with suspicious degree information based on the suspicious degree information associated with the face image included in the cluster, and A suspiciousness estimation model generation device that generates a degree estimation model.
  • (Appendix 6) Clustering the face image based on the feature amount extracted from the input face image, When estimating the suspicious degree of the person to be estimated based on the clustered result and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustered result A method for generating a suspiciousness estimation model for generating a suspiciousness estimation model to be used for a computer.
  • (Appendix 6-1) The suspiciousness degree estimation model generation method according to appendix 6, Extracting a feature amount from the face image included in the face suspicious degree information including the face image and suspicious degree information indicating the suspicious degree of the person of the face image; A suspiciousness degree estimation model generation method for clustering the face images included in the face suspiciousness degree information based on extracted feature amounts.
  • (Appendix 6-2) A method for generating a suspiciousness estimation model described in appendix 6-1, A suspiciousness degree estimation model generation method for clustering the face images included in the face suspiciousness degree information according to the degree of approximation of the extracted feature amount.
  • Clustering means for clustering the face images based on feature amounts extracted from the input face images; Based on the clustering result by the clustering means and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustering result, the suspicious degree of the person to be estimated is calculated.
  • a program to realize (Appendix 7-1)
  • the program according to appendix 7, Realizing a face feature amount extraction means for extracting a feature amount from a face image included in face suspicious degree information including a face image and suspicious degree information indicating the suspicious degree of a person of the face image;
  • the clustering means is a program for clustering the face images included in the face suspiciousness degree information based on the feature amount extracted by the face feature amount extraction means.
  • Appendix 7-2) A program according to appendix 7-1,
  • the clustering means is a program for clustering the face images included in the face suspiciousness degree information according to the degree of approximation of the feature quantity extracted by the face feature quantity extraction means.
  • (Appendix 8) Feature amount extraction means for extracting a feature amount from the face area of the person to be estimated; Based on the feature amount extracted by the feature amount extraction unit and a suspicious degree estimation model generated in advance, a suspicious degree estimation unit that estimates a suspicious degree of the person to be estimated; Have The suspiciousness estimation model is a result of clustering the face image based on a feature amount extracted from a previously stored face image and the face image associated in advance with the face image included in the clustered result. The suspiciousness degree estimation device generated based on the suspiciousness degree information indicating the suspicious degree of the person indicated by.
  • the suspiciousness degree estimation device (Appendix 9) The suspiciousness degree estimation device according to attachment 8, wherein The suspiciousness estimation model is a result of clustering the face image according to the approximation of the feature amount and a suspicious degree of a person indicated by the face image that is associated with a face image included in the clustered result in advance.
  • the suspiciousness degree estimation device that is generated based on the suspiciousness degree information that is indicated.
  • the suspicious degree estimation means estimates the suspicious degree associated with the face image of the feature quantity closest to the feature quantity extracted by the feature quantity extraction means as the suspicious degree of the person to be estimated. Suspiciousness estimation device.
  • the suspiciousness degree estimation device (Appendix 11) The suspiciousness degree estimation device according to attachment 8 or 9, wherein The suspicious degree estimation means is configured to determine the suspicious degree of the person to be estimated based on the suspicious degrees associated with face images of a plurality of feature quantities that are close in distance to the feature quantities extracted by the feature quantity extraction means.
  • Suspiciousness estimation device that estimates (Appendix 12) The suspiciousness degree estimation device according to attachment 8 or 9, wherein The suspicious degree estimation unit is configured to estimate a suspicious degree associated with a cluster to which the feature amount extracted by the feature amount extraction unit belongs as a suspicious degree of the estimation target person.
  • Appendix 14 Extract features from the face area of the person being estimated, The face image previously associated with the face image included in the clustered result and the result of clustering the face image based on the extracted feature quantity and the feature quantity extracted from the face image stored in advance
  • the suspiciousness estimation model is a result of clustering the face image according to the approximation of the feature amount and a suspicious degree of a person indicated by the face image that is associated with a face image included in the clustered result in advance.
  • the suspiciousness degree estimation method that is generated based on the suspiciousness degree information that is indicated.
  • Appendix 14-2 The suspicious degree estimation method according to appendix 14 or 14-1, Based on the extracted feature amount, the additional information of the estimation target person is estimated, Based on the estimated additional information, select the suspiciousness estimation model used when estimating the suspiciousness. Suspiciousness estimation method.
  • Feature amount extraction means for extracting a feature amount from the face area of the person to be estimated; Based on the feature amount extracted by the feature amount extraction unit and a suspicious degree estimation model generated in advance, a suspicious degree estimation unit that estimates a suspicious degree of the person to be estimated; Realized,
  • the suspiciousness estimation model is a result of clustering the face image based on a feature amount extracted from a previously stored face image and the face image associated in advance with the face image included in the clustered result.
  • the program generated based on the suspicious degree information indicating the suspicious degree of the person indicated by.
  • the suspiciousness estimation model is a result of clustering the face image according to the approximation of the feature amount and a suspicious degree of a person indicated by the face image that is associated with a face image included in the clustered result in advance.
  • Appendix 15-2 The program according to appendix 15 or 15-1, Based on the feature amount extracted by the feature amount extraction means, additional information estimation means for estimating additional information of the person to be estimated; Based on the additional information estimated by the additional information estimating unit, a use model selecting unit that selects the suspicious degree estimation model used when the suspicious degree estimating unit estimates the suspicious degree;
  • a program to realize (Appendix 16) Clustering means for clustering the face images based on feature amounts extracted from the input face images; Based on the clustering result by the clustering means and the suspicious degree information indicating the suspicious degree of the person indicated by the face image previously associated with the face image included in the clustering result, the suspicious degree of the person to be estimated is calculated.
  • a suspiciousness degree estimation model generation device having Feature amount extraction means for extracting a feature amount from the face area of the person to be estimated; Based on the feature amount extracted by the feature amount extraction unit and the suspicious degree estimation model generated by the suspiciousness degree estimation model generation device, the suspiciousness degree estimation unit estimates the suspicious degree of the person to be estimated.
  • a suspiciousness degree estimation device comprising: A suspiciousness estimation system.
  • the suspiciousness degree estimation model generation device includes: A face feature amount extracting unit that extracts a feature amount from the face image included in the face suspicious degree information including the face image and the suspicious degree information indicating the suspicious degree of the person of the face image; The suspiciousness degree estimation system in which the clustering means clusters the face images included in the face suspiciousness degree information based on the feature quantity extracted by the face feature quantity extraction means.
  • a camera having imaging means, Feature quantity extraction means for extracting a feature quantity from the face area of the person to be estimated imaged by the imaging means; Based on the feature amount extracted by the feature amount extraction unit and a suspicious degree estimation model generated in advance, a suspicious degree estimation unit that estimates a suspicious degree of the person to be estimated;
  • the suspiciousness estimation model is a result of clustering the face image based on a feature amount extracted from a previously stored face image and the face image associated in advance with the face image included in the clustered result. And a suspicious degree information indicating the suspicious degree of the person indicated by the camera.
  • the suspiciousness estimation model is a result of clustering the face image according to the approximation of the feature amount and a suspicious degree of a person indicated by the face image that is associated with a face image included in the clustered result in advance. Suspiciousness information to indicate, based on the camera being generated.
  • the camera according to appendix 17 or 17-1 Based on the feature amount extracted by the feature amount extraction means, additional information estimation means for estimating additional information of the person to be estimated; Based on the additional information estimated by the additional information estimating unit, a use model selecting unit that selects the suspicious degree estimation model used when the suspicious degree estimating unit estimates the suspicious degree; Having a camera.
  • the programs described in the above embodiments and supplementary notes are stored in a storage device or recorded on a computer-readable recording medium.
  • the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

入力される顔画像から抽出される特徴量に基づいて、顔画像をクラスタリングするクラスタリング手段と、クラスタリング手段によるクラスタリング結果と、クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、を有する。また、推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、特徴量抽出手段により抽出された特徴量と、不審度推定モデル生成装置が予め生成した不審度推定モデルと、に基づいて、推定対象の人物の不審度を推定する不審度推定手段と、を有する。

Description

不審度推定モデル生成装置
 本発明は、不審度推定モデル生成装置、不審度推定モデル生成方法、不審度推定装置、不審度推定方法、プログラム、不審度推定システム、カメラに関し、特に、顔画像から特徴量を抽出して所定の推定を行う不審度推定モデル生成装置、不審度推定モデル生成方法、不審度推定装置、不審度推定方法、プログラム、不審度推定システム、カメラに関する。
 顔画像を処理して当該顔画像の人物の属性を推定する技術が知られている。
 例えば、特許文献1には、顔領域抽出手段と、特徴量抽出手段と、登録情報保持手段と、制御手段と、を有する顔画像認識装置が記載されている。具体的には、登録情報保持手段は、各年齢層の特徴を示す固有ベクトル等である基準特徴量を保持している。そして、制御手段は、特徴量抽出手段により抽出された特徴量と基準特徴量とを比較して、最も類似度が高いとされた年齢層をその被験者の年齢と判定する。特許文献1によると、このような構成により、顔画像に基づいて被験者の属性である年齢を推定して、例えば、所定年齢以上の場合に操作を許可する、などの制御を行うことが可能となる。
 なお、本発明と技術分野が異なる、商取引分野の先行技術に、例えば、特許文献2がある。特許文献2には、画像取得手段と、顔画像抽出手段と、商品情報が関連付けられたグループ情報が記憶されたデータベースと、利用者の特徴量とグループ情報とを照合し、商品情報を特定する特徴量照合手段と、を有する情報提供システムが記載されている。特許文献2によると、上記構成により、利用者に娯楽性の高い商品情報を提供することが出来る。
特許第4521086号公報 特開2010-198199号公報
 特許文献1に記載されている技術の場合、特徴量抽出手段により抽出された特徴量と基準特徴量とを比較して、最も類似度が高いとされた年齢層をその被験者の年齢と判定する。このような処理を行うため、特許文献1に記載されている技術では、顔画像に基づいて顔画像の持ち主の属性である年齢を推定するためには、顔画像の特徴量と比較する各年齢の固有ベクトルなどの基準特徴量を予め保持していることが必要となる。換言すると、特許文献1に記載されている技術の場合、推定対象の属性である各年齢層の定義が予め行われていないと、顔画像の人物の属性を推定することが出来ない。従って、特許文献1に記載されている技術では、クラス定義が困難な属性を推定することが難しかった。
 このように、顔画像から抽出した特徴量に基づいて、クラス定義が困難な属性を推定することは難しかった。そのため、例えば、顔画像に基づいて人物の不審度などクラス定義が困難な属性を推定することは難しく、顔画像に基づいて予め要注意人物として登録されていない不審者を検知することが難しい、という問題が生じていた。
 そこで、本発明の目的は、顔画像に基づいて、予め要注意人物として登録されていない不審者を検知することが難しい、という問題を解決する不審度推定モデル生成装置、不審度推定モデル生成方法、不審度推定装置、不審度推定方法、プログラム、不審度推定システム、カメラを提供することにある。
 かかる目的を達成するため本発明の一形態である不審度推定モデル生成装置は、
 入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
 前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
 を有する
 という構成を採る。
 また、本発明の他の形態である不審度推定モデル生成方法は、
 入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングし、
 クラスタリングした結果と、クラスタリングした結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する
 という構成を採る。
 また、本発明の他の形態であるプログラムは、
 情報処理装置に、
 入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
 前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
 を実現させるためのプログラムである。
 また、本発明の他の形態である不審度推定装置は、
 推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
 前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
 を有し、
 前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 という構成を採る。
 また、本発明の他の形態である不審度推定方法は、
 推定対象の人物の顔領域から特徴量を抽出し、
 抽出された前記特徴量と、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報とに基づいて予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する
 という構成を採る。
 また、本発明の他の形態であるプログラムは、
 情報処理装置に、
 推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
 前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
 を実現させ、
 前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されているプログラムである。
 また、本発明の他の形態である不審度推定システムは、
 入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
 前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
 を有する不審度推定モデル生成装置と、
 推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
 前記特徴量抽出手段により抽出された前記特徴量と、前記不審度推定モデル生成装置が生成した前記不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、を有する不審度推定装置と、
 を有する
 という構成を採る。
 また、本発明の他の形態であるカメラは、
 撮像手段を有するカメラであって、
 前記撮像手段により撮像された推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
 前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
 を有し、
 前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 という構成を採る。
 本発明は、以上のように構成されることにより、顔画像に基づいて、予め要注意人物として登録されていない不審者を検知することが難しい、という問題を解決する不審度推定装置、不審度推定モデル生成装置、不審度推定方法、不審度推定モデル生成方法、プログラム、不審度推定システム、カメラを提供することが可能となる。
本発明の第1の実施形態に係る不審度推定システムの全体の構成の一例を示す図である。 図1で示す不審度推定モデル生成装置の構成の一例を示すブロック図である。 図2で示す顔不審度情報の一例を示す図である。 図1で示すカメラの構成の一例を示すブロック図である。 図1で示す不審度推定装置の構成の一例を示すブロック図である。 不審度推定モデル生成装置が不審度推定モデルを生成する際の処理の一例を示すフローチャートである。 不審度推定装置が人物の不審度を推定する際の処理の一例を示すフローチャートである。 本発明の第2の実施形態に係る不審度推定システムの全体の構成の一例を示す図である。 図8で示す不審度推定モデル生成装置の構成の一例を示すブロック図である。 図9で示す付加情報付顔不審度情報の一例を示す図である。 図8で示す不審度推定装置の構成の一例を示すブロック図である。 不審度推定モデル生成装置が不審度推定モデルを生成する際の処理の一例を示すフローチャートである。 不審度推定装置が人物の不審度を推定する際の処理の一例を示すフローチャートである。 本発明の第3の実施形態に係る不審度推定モデル生成装置の構成の一例を示す概略ブロック図である。 本発明の第3の実施形態に係る不審度推定装置の構成の一例を示す概略ブロック図である。
[第1の実施形態]
 本発明の第1の実施形態を図1乃至図7を参照して説明する。図1は、不審度推定システム1の全体の構成の一例を示す図である。図2は、不審度推定モデル生成装置2の構成の一例を示すブロック図である。図3は、顔不審度情報241の一例を示す図である。図4は、カメラ3の構成の一例を示すブロック図である。図5は、不審度推定装置4の構成の一例を示すブロック図である。図6は、不審度推定モデル生成装置2が不審度推定モデル242を生成する際の処理の一例を示すフローチャートである。図7は、不審度推定装置4が人物の不審度を推定する際の処理の一例を示すフローチャートである。
 第1の実施形態では、カメラ3で撮像した人物の不審度を推定する不審度推定システム1について説明する。後述するように、不審度推定システム1は、予め生成された不審度推定モデル242を有している。そして、不審度推定システム1は、カメラ3が撮像した画像データ中の人物の顔領域より抽出した特徴量と、不審度推定モデル242と、に基づいて、カメラ3が撮像した人物の不審度を判断する。本実施形態においては、不審度推定モデル242は、例えば、予め用意された顔画像を当該顔画像から抽出した顔の特徴量に基づいてクラスタリングした結果と、顔画像に対応付けられた不審度情報と、に基づいて生成されている。このように、人物の属性である不審度などを用いずに顔特徴量のみを用いてクラスタリングを行った結果に基づいて不審度推定モデル242を生成することで、クラス定義を行うことが困難な不審度などの属性の推定を行うことが可能となる。
 図1は、不審度推定システム1の全体の構成の一例を示している。図1を参照すると、不審度推定システム1は、不審度推定モデル生成装置2と、カメラ3と、不審度推定装置4と、を有している。図1で示すように、カメラ3と不審度推定装置4とは、互いに通信可能なよう接続されている。また、不審度推定装置4と不審度推定モデル生成装置2とは、互いに通信可能なよう接続されている。なお、カメラ3と不審度推定装置4、不審度推定装置4と不審度推定モデル生成装置2は、それぞれ、図示しないネットワークを介して接続されていても構わない。
 不審度推定モデル生成装置2は、情報処理装置である。不審度推定モデル生成装置2は、例えば、予め格納された顔不審度情報241に基づいて、不審度推定モデル242を生成する。そして、不審度推定モデル生成装置2は、生成した不審度推定モデル242を不審度推定装置4に送信する。
 図2は、不審度推定モデル生成装置2が有する主な構成の一例である。図2を参照すると、不審度推定モデル生成装置2は、主な構成要素として、例えば、通信I/F部21と、操作入力部22と、画面表示部23と、記憶部24と、演算処理部25と、を有している。
 通信I/F部21は、データ通信回路からなり、通信回線を介して接続された各種装置との間でデータ通信を行う機能を有している。不審度推定モデル生成装置2は、通信I/F部21を介して、不審度推定装置4や図示しない外部の装置と情報の送受信を行うことが出来る。
 操作入力部22は、キーボードやマウスなどの操作入力装置である。操作入力部22は、不審度推定モデル生成装置2を操作する操作者による操作入力装置に対する操作を検出して、演算処理部25に出力する。操作入力部22の構成は、一般的な構成を採用することが出来る。
 画面表示部23は、LCD(Liquid Crystal Display、液晶ディスプレイ)などの画面表示装置である。画面表示部23は、演算処理部25からの指示に応じて、顔不審度情報241や不審度推定モデル242などの各種情報を画面表示することが出来る。
 記憶部24は、ハードディスクやメモリなどの記憶装置である。記憶部24は、演算処理部25における各種処理に必要な処理情報やプログラム243を記憶している。プログラム243は、演算処理部25に読み込まれて実行されることにより各種処理部を実現するプログラムである。プログラム243は、通信I/F部21などのデータ入出力機能を介して外部装置(図示せず)や記憶媒体(図示せず)から予め読み込まれ、記憶部24に保存されている。記憶部24で記憶される主な情報としては、顔不審度情報241と、不審度推定モデル242と、がある。
 顔不審度情報241は、人物の顔を含む画像データである顔画像と当該顔画像の人物の不審度を示す不審度情報とを対応付けた情報である。顔不審度情報241は、例えば、通信I/F部21を介して外部のデータベースなどから予め取得されていたり、操作入力部22を用いて予め入力されていたりする。
 図3を参照すると、顔不審度情報241は、識別情報と、顔画像と、不審度情報と、を対応付けている。例えば、図3の1行目は、識別情報「1」と、顔画像「A」と、不審度情報「a」と、を対応付けている。換言すると、図3の1行目は、顔画像が「A」の人物の不審度が「a」であることを示している。
 ここで、図3中の識別情報とは、例えば、顔画像ごとに予め割り当てられた情報である。識別情報は、顔画像や顔画像と不審度情報とを対応づけた情報を識別するために用いることが出来る。また、図3中の顔画像は、人物の顔やその周辺を撮像した画像データであり、カメラ3や図示しない他の撮像装置などにより予め撮像されている。また、図3中の不審度情報は、例えば、顔画像が示す人物の逮捕歴の有無や指名手配の有無などを示しており、顔画像の人物が要注意人物であるか否かを示している。不審度情報は、上記のように不審度の有無(不審であるか否か)のみを示しても構わないし、例えば過去の罪状など人物の危険度等に応じて複数段階で評価するなど、段階的な評価を示しても構わない。
 不審度推定モデル242は、後述する顔画像のクラスタリング結果と、クラスタリング結果に含まれる各顔画像に対応付けられた不審度情報と、に基づいて、推定モデル生成手段253により生成される推定モデルである。不審度推定モデル242は、例えば、クラスタリング結果に含まれる各クラスタや顔画像などと、不審度情報と、を対応付けることで生成される。不審度推定モデル242は、通信I/F部21を介して不審度推定装置4に送信される。不審度推定モデル242は、不審度推定装置4において、カメラ3が取得した、不審度情報が不明である顔画像の人物の不審度を推定する際に用いられることになる。
 演算処理部25は、MPU(Micro-Processing Unit)などのマイクロプロセッサとその周辺回路を有する。演算処理部25は、記憶部24からプログラム243を読み込んで実行することにより、上記ハードウェアとプログラム243とを協働させて各種処理部を実現する。演算処理部25で実現される主な処理部としては、例えば、顔特徴量抽出手段251と、クラスタリング手段252と、推定モデル生成手段253(不審度推定モデル生成手段)と、がある。
 顔特徴量抽出手段251は、顔不審度情報241に含まれる各顔画像から当該顔画像が示す人物の顔の(顔領域の)特徴量をそれぞれ抽出する。そして、顔特徴量抽出手段251は、抽出した特徴量を示す情報をクラスタリング手段252に送信する。
 例えば、顔特徴量抽出手段251は、顔不審度情報241から、顔画像を取得する。続いて、顔特徴量抽出手段251は、取得した顔画像のうちの人物の顔領域を抽出する。そして、顔特徴量抽出手段251は、抽出した顔領域に含まれる目、鼻、口などの特徴点の特徴量を抽出する。その後、顔特徴量抽出手段251は、抽出した特徴量を1つにまとめて特徴ベクトルを算出する。
 このように、顔特徴量抽出手段251は、顔不審度情報241に含まれる顔画像から当該顔画像の特徴量である特徴ベクトルを算出する。その後、顔特徴量抽出手段251は、算出した特徴ベクトルを顔画像の特徴量としてクラスタリング手段252に送信する。なお、本実施形態においては、顔特徴量抽出手段251が顔領域を抽出する際や特徴点の特徴量を抽出する際、特徴ベクトルを算出する際の具体的な手法については特に限定しない。顔特徴量抽出手段251は、既知の様々な手法を用いて、特徴ベクトルを算出することが出来る。
 クラスタリング手段252は、顔特徴量抽出手段251から受信した特徴ベクトルを用いて、顔不審度情報241に含まれる各顔画像をクラスタリングする。この際、クラスタリング手段252は、顔不審度情報241に含まれる不審度情報を利用しないでクラスタリングを行う。このように、クラスタリング手段252は、不審度情報を用いずに顔画像より抽出した特徴量(特徴ベクトル)のみを用いて、特徴量の近似度により顔不審度情報241に含まれる顔画像のクラスタリングを行う。換言すると、クラスタリング手段252は、顔画像より抽出した特徴量を用いて顔特徴量の近似度に基づくクラスタを生成して、顔不審度情報241に含まれる顔画像を複数のクラスタに分割する。そして、クラスタリング手段252は、クラスタリングした結果であるクラスタリング結果を推定モデル生成手段253へ送信する。
 推定モデル生成手段253は、クラスタリング手段252によるクラスタリング結果と、クラスタリング結果に含まれる顔画像と予め対応付けられている不審度情報と、に基づいて、不審度推定モデル242を生成する。そして、推定モデル生成手段253は、生成した不審度推定モデル242を、通信I/F部21を介して不審度推定装置4へと送信する。また、推定モデル生成手段253は、生成した不審度推定モデル242を記憶部24に格納する。
 例えば、推定モデル生成手段253は、クラスタリング手段252からクラスタリング結果を受信する。また、推定モデル生成手段253は、顔不審度情報241を参照して、クラスタリング結果に含まれる各顔画像と対応付けられている不審度情報を確認する。そして、推定モデル生成手段253は、クラスタリング結果と、不審度情報と、に基づいて、不審度推定モデル242を生成する。
 例えば、推定モデル生成手段253は、クラスタリング結果に含まれる各クラスタと、当該クラスタに含まれる顔画像と対応付けられている不審度情報に基づく不審度情報とを対応付けて、不審度推定モデル242を生成する。具体的には、例えば、推定モデル生成手段253は、各クラスタと、クラスタに含まれる顔画像と対応付けられている不審度情報の平均とを対応付ける(例えば、不審である=1、不審でない=0とみなして平均を算出する)。又は、推定モデル生成手段253は、不審である旨の不審度情報が対応付けられた顔画像の数や割合に応じた不審度情報を各クラスタに対応付けて不審度推定モデル242を生成する。例えば、推定モデル生成手段253は、クラスタ内に所定割合以上の不審であると判定される不審度情報が含まれる場合に、当該クラスタの不審度情報に不審である旨の不審度情報を付与する。
 また、推定モデル生成手段253は、顔不審度情報241を参照して、クラスタリング結果に含まれる各顔画像のそれぞれと、顔画像に対応する不審度情報と、を対応付けて不審度推定モデル242を生成する。
 このように、推定モデル生成手段253は、クラスタリング結果と、不審度情報と、に基づいて、不審度推定モデル242を生成する。その後、推定モデル生成手段253は、生成した不審度推定モデル242を記憶部24に格納するとともに、通信I/F部21を介して不審度推定装置4へと送信する。なお、推定モデル生成手段253は、上記例示した方法のいずれか、又は複数を組み合わせて不審度推定モデル242を生成しても構わない。また、推定モデル生成手段253は、上記例示した方法以外の方法により、クラスタリング結果と不審度情報とに基づいて不審度推定モデル242を生成しても構わない。
 カメラ3は、画像データを取得する監視カメラなどの撮像手段である。カメラ3は、例えば、ネットワークカメラ(IPカメラ)やインテリジェントカメラなどであっても良い。カメラ3は、例えば空港などの公共施設や街中、店舗など任意の場所に設置され、設置された箇所の画像データである画像データ情報331を取得する。そして、カメラ3は、取得した画像データ情報331を不審度推定装置4に送信する。
 図4は、カメラ3が有する主な構成の一例である。図4を参照すると、カメラ3は、主な構成要素として、例えば、撮像手段31と、送受信手段32と、記憶装置33と、を有している。
 撮像手段31は、カメラ3が設置された箇所の画像データを取得する。撮像手段31が取得する画像データには、カメラ3の設置箇所付近を通過する人物の画像データなどが含まれている。撮像手段31は、取得した画像データを画像データ情報331として記憶装置33に格納する。送受信手段32は、不審度推定装置4や外部の他の装置と情報の送受信を行う。本実施形態において、カメラ3は、撮像手段31が取得した画像データ情報331を、送受信手段32を介して不審度推定装置4へと送信する。記憶装置33は、メモリなどの記憶装置である。記憶装置33には、画像データ情報331などが格納される。
 不審度推定装置4は、情報処理装置である。不審度推定装置4は、不審度推定モデル生成装置2から受信した不審度推定モデル242と、カメラ3から受信した画像データ情報331と、に基づいて、画像データ情報331に含まれる人物の不審度を推定する。不審度推定装置4は、推定した不審度を例えば、画面表示部43に表示したり通信I/F部41を介して外部の装置に送信したりすることが出来る。
 図5は、不審度推定装置4が有する主な構成の一例である。図5を参照すると、不審度推定装置4は、主な構成要素として、例えば、通信I/F部41と、操作入力部42と、画面表示部43と、記憶部44と、演算処理部45と、を有している。
 なお、通信I/F部41、操作入力部42、画面表示部43は、図2を参照して説明した不審度推定モデル生成装置2が有する通信I/F部21、操作入力部22、画面表示部23と同様の構成である。そのため、通信I/F部41、操作入力部42、画面表示部43の説明は省略する。
 記憶部44は、ハードディスクやメモリなどの記憶装置である。記憶部44は、演算処理部45における各種処理に必要な処理情報やプログラム442を記憶している。プログラム442は、演算処理部45に読み込まれて実行されることにより各種処理部を実現するプログラムである。プログラム442は、通信I/F部41などのデータ入出力機能を介して外部装置(図示せず)や記憶媒体(図示せず)から予め読み込まれ、記憶部44に保存されている。記憶部44で記憶される主な情報としては、例えば、不審度推定モデル242と、画像データ情報331と、推定結果情報441と、がある。
 不審度推定モデル242は、不審度推定モデル生成装置2において生成された推定モデルである。不審度推定モデル242は、通信I/F部41を介して、不審度推定モデル生成装置2から送信されて記憶部44内に格納されている。
 画像データ情報331は、カメラ3において取得された画像データである。画像データ情報331には、カメラ3が設置された箇所付近を通過する人物の画像データなどが含まれている。画像データ情報331は、通信I/F部41を介して、カメラ3から送信されて記憶部44内に格納されている。
 推定結果情報441は、不審度推定手段452により推定された、カメラ3が取得した画像データ情報331に含まれる人物(推定対象の人物)の不審度を示す情報である。推定結果情報441は、例えば、顔不審度情報241と同様の構造を有しており、画像データ情報331に含まれる人物を識別するための情報(例えば、当該人物を含む画像データ)と、不審度推定手段452により推定された推定結果と、を対応づけた情報を含んでいる。後述するように、推定結果情報441は、画面表示部43に表示したり、通信I/F部41を介して外部の装置へと送信したりすることが出来る。
 このように、不審度推定装置4が有する記憶部44には、不審度推定モデル生成装置2が生成した不審度推定モデル242とカメラ3が取得した画像データ情報331とが格納されている。
 演算処理部45は、MPUなどのマイクロプロセッサとその周辺回路を有する。演算処理部45は、記憶部44からプログラム442を読み込んで実行することにより、上記ハードウェアとプログラム442とを協働させて各種処理部を実現する。演算処理部45で実現される主な処理部としては、例えば、顔特徴量抽出手段451(特徴量抽出手段)と、不審度推定手段452と、がある。
 顔特徴量抽出手段451は、画像データ情報331に含まれる人物(推定対象の人物)の顔の特徴量を抽出する。そして、顔特徴量抽出手段451は、抽出した顔の特徴量を示す情報を不審度推定手段452に送信する。
 例えば、顔特徴量抽出手段451は、画像データ情報331を参照して、当該画像データ情報331に含まれる人物を抽出する。続いて、顔特徴量抽出手段451は、抽出した人物の顔領域を抽出する。そして、顔特徴量抽出手段451は、抽出した顔領域に含まれる目、鼻、口などの特徴点の特徴量を抽出する。その後、顔特徴量抽出手段451は、抽出した特徴量を1つにまとめて特徴ベクトルを算出する。
 このように、顔特徴量抽出手段451は、不審度推定モデル生成装置2が有する顔特徴量抽出手段251と同様に、人物の顔領域から顔の特徴量である特徴ベクトルを算出する。その後、顔特徴量抽出手段451は、算出した特徴ベクトルを抽出した人物の顔の特徴量として不審度推定手段452に送信する。なお、本実施形態においては、顔特徴量抽出手段451が画像データ情報331から人物を抽出する際や顔領域を抽出する際、特徴点の特徴量を抽出する際、特徴ベクトルを算出する際の具体的な手法については特に限定しない。顔特徴量抽出手段451は、既知の様々な手法を用いて、特徴ベクトルを算出することが出来る。ただし、顔特徴量抽出手段451は、顔特徴量抽出手段251と同様の手法により特徴ベクトルを算出することが望ましい。
 不審度推定手段452は、顔特徴量抽出手段451から受信した特徴ベクトルと、記憶部44に格納された不審度推定モデル242と、に基づいて、特徴ベクトル抽出元の人物の不審度を推定する。そして、不審度推定手段452は、推定結果を推定結果情報441として記憶部44に格納する。また、不審度推定手段452は、推定結果を画面表示部43に表示したり、通信I/F部41を介して外部装置に送信したりすることが出来る。
 例えば、不審度推定手段452は、顔特徴量抽出手段451から特徴ベクトルを受信する。また、不審度推定手段452は、記憶部44から不審度推定モデル242を取得する。そして、不審度推定手段452は、受信した特徴ベクトルと特徴が近いクラスタや顔画像を特定し、当該クラスタや顔画像に対応付けられた不審度情報から特徴ベクトル抽出元の人物の不審度を推定する。
 具体的には、例えば、不審度推定手段452は、受信した特徴ベクトルと不審度推定モデル242に含まれる各要素(各顔画像から抽出した特徴量)との間の距離を算出する。そして、不審度推定手段452は、顔特徴が最も似ている人物(例えば、特徴量間の距離が最も近い顔画像)の不審度情報を、特徴ベクトル抽出元の人物の不審度情報であるとする。又は、不審度推定手段452は、顔特徴が似ている複数人を選別し、特徴が似ている複数人の不審度情報の平均を、特徴ベクトル抽出元の人物の不審度情報であるとする。つまり、不審度推定手段452は、特徴量間の距離が近い複数の特徴量の顔画像に対応付けられている不審度情報に基づいて、特徴ベクトル抽出元の人物の不審度情報を推定する。不審度推定手段452は、特徴が似ている複数人の中の不審度情報の割合に応じて不審度情報を特定しても構わない。又は、不審度推定手段452は、受信した特徴ベクトルと不審度推定モデル242に含まれる各要素との間の距離に基づいて、特徴ベクトルが属するクラスタを特定する。そして、不審度推定手段452は、特定したクラスタに対応付けられている不審度情報を、特徴ベクトル抽出元の人物の不審度情報であるとする。
 このように、不審度推定手段452は、特徴ベクトルと不審度推定モデル242とに基づいて、特徴ベクトル抽出元の人物の不審度を推定する。その後、不審度推定手段452は、推定した不審度を推定結果情報441として、記憶部44に格納したり、画面表示部43に表示したりする。
 なお、不審度推定手段452は、上記例示した方法のいずれか、又は、組み合わせにより、特徴ベクトル抽出元の人物の不審度を推定するよう構成することが出来る。例えば、不審度推定手段452は、顔特徴が最も似ている人物の不審度情報又は顔特徴が似ている複数人の不審度情報の平均と、特徴ベクトルが属するクラスタに対応付けられている不審度情報と、に基づいて特徴ベクトル抽出元の推定対象の人物の不審度を推定するよう構成しても構わない。
 以上が、不審度推定システム1が有する各構成の一例についての説明である。続いて、図6、図7を参照して、不審度推定モデル生成装置2による処理と不審度推定装置4による処理の一例について説明する。
 まず、図6を参照して、不審度推定モデル生成装置2が不審度推定モデル242を生成する際の処理の一例について説明する。
 図6を参照すると、不審度推定モデル生成装置2の顔特徴量抽出手段251は、顔不審度情報241に含まれる各顔画像から当該顔画像の顔の特徴量である特徴ベクトルをそれぞれ抽出する(ステップS101)。そして、顔特徴量抽出手段251は、抽出した特徴ベクトルを示す情報をクラスタリング手段252に送信する。
 クラスタリング手段252は、顔特徴量抽出手段251から受信した特徴ベクトルを用いて、顔不審度情報241に含まれる各顔画像をクラスタリングする(ステップS102)。この際、クラスタリング手段252は、顔不審度情報241に含まれる不審度情報を利用しないでクラスタリングを行う。その後、クラスタリング手段252は、クラスタリングした結果であるクラスタリング結果を推定モデル生成手段253へ送信する(ステップS102)。
 推定モデル生成手段253は、クラスタリング手段252からクラスタリング結果を受信する。また、推定モデル生成手段253は、顔不審度情報241を参照して、クラスタリング結果に含まれる各顔画像と対応付けられている不審度情報を確認する。そして、推定モデル生成手段253は、クラスタリング結果と、不審度情報と、に基づいて、不審度推定モデル242を生成する(ステップS103)。その後、推定モデル生成手段253は、生成した不審度推定モデル242を記憶部24に格納したり、通信I/F部21を介して不審度推定装置4へ送信したりする。
 以上が、不審度推定モデル生成装置2が不審度推定モデル242を生成する際の処理の一例である。続いて、図7を参照して、不審度推定装置4が人物の不審度を推定する際の処理の一例について説明する。
 図7を参照すると、不審度推定装置4の顔特徴量抽出手段451は、画像データ情報331から当該画像データ情報331に含まれる人物(推定対象の人物)を抽出する(ステップS201)。また、顔特徴量抽出手段451は、抽出した人物の顔領域の特徴量である特徴ベクトルを抽出する(ステップS202)。そして、顔特徴量抽出手段451は、抽出した特徴ベクトルを示す情報を不審度推定手段452に送信する。
 不審度推定手段452は、顔特徴量抽出手段451から特徴ベクトルを受信する。また、不審度推定手段452は、記憶部44から不審度推定モデル242を取得する。そして、不審度推定手段452は、特徴ベクトルと不審度推定モデル242とに基づいて、画像データ情報331が示す顔画像の人物の不審度を推定する(ステップS203)。その後、不審度推定手段452は、推定した不審度を推定結果情報441として、記憶部44に格納したり、画面表示部43に表示したりする。
 以上が、不審度推定装置4が人物の不審度を推定する際の処理の一例である。
 このように、本実施形態における不審度推定モデル生成装置2は、顔特徴量抽出手段251とクラスタリング手段252と推定モデル生成手段253とを有している。このような構成により、クラスタリング手段252は、顔特徴量抽出手段251が抽出した特徴量のみを用いて顔画像のクラスタリングを行うことが出来る。また、推定モデル生成手段253は、特徴量のみを用いて行われたクラスタリング結果と、クラスタリング結果に含まれる顔画像と予め対応付けられている不審度情報と、に基づいて、不審度推定モデル242を生成することが出来る。その結果、不審度推定モデル生成装置2は、不審度の定義を行うことなく不審度推定モデル242を生成することが可能となり、クラス定義を行うことが困難な不審度を推定する際に用いることが可能な不審度推定モデル242を生成することが可能となる。
 また、本実施形態における不審度推定装置4は、顔特徴量抽出手段451と不審度推定手段452とを有しており、不審度推定モデル生成装置2から不審度推定モデル242を受信するよう構成されている。このような構成により、不審度推定手段452は、特徴量抽出手段451が抽出した特徴量と、不審度推定モデル生成装置2から受信した不審度推定モデル242と、に基づいて、顔特徴量抽出手段451が特徴量を抽出した人物の不審度を推定することが可能となる。つまり、上記構成によると、クラス定義を行うことが困難な不審度を推定することが可能となる。
 なお、本実施形態においては、不審度推定システム1は、不審度推定モデル生成装置2とカメラ3と不審度推定装置4とを有するとした。しかしながら、不審度推定システム1の構成は、本実施形態で例示した場合に限定されない。例えば、不審度推定モデル生成装置2と不審度推定装置4とは、一つの情報処理装置として一体的に構成されても構わない。つまり、不審度推定システム1は、不審度推定モデル生成装置2としての機能と不審度推定装置4としての機能とを有する情報処理装置と、カメラ3と、から構成されていても構わない。また、カメラ3が不審度推定装置4や不審度推定モデル生成装置2としての機能を有するよう構成しても構わない。換言すると、不審度推定システム1は、不審度推定モデル生成装置2としての機能や不審度推定装置4としての機能を有するカメラ3のみから構成されていても構わない。カメラ3は、不審度推定装置4や不審度推定モデル生成装置2の機能うち顔特徴量抽出手段451の機能のみを有するなど、不審度推定装置4や不審度推定モデル生成装置2の機能の一部のみを有していても構わない。また、カメラ3が不審度推定装置4や不審度推定モデル生成装置2としての機能の一部を有する場合、不審度推定装置4や不審度推定モデル生成装置2は、カメラ3が有する機能を有していなくても構わない。
 また、本実施形態においては、顔特徴量抽出手段251は、顔不審度情報241に含まれる各顔画像から特徴量をそれぞれ抽出するとした。しかしながら、顔特徴量抽出手段251が特徴量を抽出する対象は、顔不審度情報241に限定されない。顔特徴量抽出手段251は、例えば、通信I/F部21を介してカメラ3や外部装置から取得する画像データ中の人物から特徴量を抽出しても構わない。この場合、クラスタリング手段252は、顔不審度情報241や外部装置から取得した顔画像のクラスタリングを行うことになる。
[第2の実施形態]
 続いて、本発明の第2の実施形態を図8乃至図13を参照して説明する。図8は、不審度推定システム5の全体の構成の一例を示す図である。図9は、不審度推定モデル生成装置6の構成の一例を示すブロック図である。図10は、付加情報付顔不審度情報641の一例を示す図である。図11は、不審度推定装置7の構成の一例を示すブロック図である。図12は、不審度推定モデル生成装置6が不審度推定モデル642を生成する際の処理の一例を示すフローチャートである。図13は、不審度推定装置7が人物の不審度を推定する際の処理の一例を示すフローチャートである。
 第2の実施形態では、第1の実施形態と同様に、カメラ3で撮像した人物の不審度を推定する不審度推定システム5について説明する。後述するように、本実施形態における不審度推定システム5は、推定モデルを生成する際や推定を行う際に付加情報を用いる点で第1の実施形態と差異を有している。
 図8は、不審度推定システム5の全体の構成の一例を示している。図8を参照すると、不審度推定システム5は、不審度推定モデル生成装置6と、カメラ3と、不審度推定装置7と、を有している。このように、本実施形態における不審度推定システム5は、不審度推定モデル生成装置6と不審度推定装置7とを有している点で第1の実施形態で説明した不審度推定システム1と異なっている。そのため、以下においては、不審度推定モデル生成装置6と不審度推定装置7について説明する。
 不審度推定モデル生成装置6は、情報処理装置である。不審度推定モデル生成装置6は、例えば、予め格納された付加情報付顔不審度情報641に基づいて、不審度推定モデル642を生成する。そして、不審度推定モデル生成装置6は、生成した不審度推定モデル642を不審度推定装置7に送信する。
 図9は、不審度推定モデル生成装置6が有する主な構成の一例である。図9を参照すると、不審度推定モデル生成装置6は、主な構成要素として、例えば、通信I/F部61と、操作入力部62と、画面表示部63と、記憶部64と、演算処理部65と、を有している。
 なお、通信I/F部61、操作入力部62、画面表示部63は、図2を参照して説明した不審度推定モデル生成装置2が有する通信I/F部21、操作入力部22、画面表示部23と同様の構成である。そのため、通信I/F部61、操作入力部62、画面表示部63の説明は省略する。
 記憶部64は、ハードディスクやメモリなどの記憶装置である。記憶部64は、演算処理部65における各種処理に必要な処理情報やプログラム643を記憶している。プログラム643は、演算処理部65に読み込まれて実行されることにより各種処理部を実現するプログラムである。プログラム643は、通信I/F部61などのデータ入出力機能を介して外部装置(図示せず)や記憶媒体(図示せず)から予め読み込まれ、記憶部64に保存されている。記憶部64で記憶される主な情報としては、付加情報付顔不審度情報641と、不審度推定モデル642と、がある。
 付加情報付顔不審度情報641は、人物の顔を含む画像データである顔画像と、当該顔画像の人物の不審度を示す不審度情報と、顔画像が示す人物の年齢や性別などの顔画像に付加的な情報を示す付加情報と、を対応付けた情報である。付加情報付顔不審度情報641は、例えば、通信I/F部61を介して外部のデータベースなどから予め取得されていたり、操作入力部62を用いて予め入力されていたりする。
 図10を参照すると、付加情報付顔不審度情報641は、識別情報と、顔画像と、不審度情報と、付加情報と、を対応付けている。例えば、図10の1行目は、識別情報「1」と、顔画像「A」と、不審度情報「a」と、負荷情報「x」と、を対応付けている。換言すると、図3の1行目は、顔画像が「A」の人物の不審度が「a」であり、付加情報が「x」であることを示している。
 ここで、図10中の識別情報、顔画像、不審度情報は、第1の実施形態において図3を参照して説明した顔不審度情報241と同様の情報である。そのため、説明を省略する。付加情報は、顔画像が示す人物の年齢や性別などの情報であり、顔画像に附随する情報である。付加情報は、上記例示した以外の情報を含んでも構わないが、顔画像から抽出する特徴量に基づいて推定可能な情報であることが望ましい。換言すると、付加情報は、上記例示した場合に限定されないが、クラス定義が容易な情報であることが望ましい。
 不審度推定モデル642は、顔画像のクラスタリング結果と、クラスタリング結果に含まれる各顔画像に対応付けられた不審度情報と、に基づいて生成されるモデルである。不審度推定モデル642は、例えば、不審度推定装置7に送信され、カメラ3が取得した、不審度情報が不明である顔画像の人物の不審度を推定する際に用いられる。
 なお、後述するように、本実施形態におけるクラスタリング手段653は、フィルタリング手段651による選別後の顔画像をクラスタリングする。従って、本実施形態におけるクラスタリング手段653がクラスタリングする対象は、付加情報付顔不審度情報641に含まれる顔画像の全部又はその一部となる。そのため、不審度推定モデル642に含まれる顔画像の数は、付加情報付顔不審度情報641に含まれる顔画像の数以下となる。また、本実施形態における不審度推定モデル642には、不審度推定モデル642に含まれる顔画像を選別する際に用いられた付加情報を識別するための情報を含むことが出来る。
 また、後述するように、フィルタリング手段651は、同一の付加情報付顔不審度情報641に対して複数回の選別を行うよう構成することが出来る。その結果、推定モデル生成手段654は、フィルタリング手段651による選別に応じて、複数の推定モデルを生成する。そのため、不審度推定モデル642には、同一の付加情報付顔不審度情報641から生成された、含まれる顔画像が異なる複数種類の推定モデルを含むことが出来る。なお、不審度推定モデル642に含まれる複数の推定モデルは、例えば、各推定モデルに含まれる付加情報を識別するための情報を参照することで識別可能である。
 演算処理部65は、MPUなどのマイクロプロセッサとその周辺回路を有する。演算処理部65は、記憶部64からプログラム643を読み込んで実行することにより、上記ハードウェアとプログラム643とを協働させて各種処理部を実現する。演算処理部65で実現される主な処理部としては、例えば、フィルタリング手段651と、顔特徴量抽出手段652と、クラスタリング手段653と、推定モデル生成手段654と、がある。
 フィルタリング手段651は、付加情報付顔不審度情報641に含まれる付加情報を利用して、付加情報付顔不審度情報641に含まれる顔画像を選別する。そして、フィルタリング手段651は、選別後の顔画像を示す情報を顔特徴量抽出手段652に送信する。また、フィルタリング手段651は、選別する際に用いた基準を示す情報(付加情報を識別するための情報)を顔特徴量抽出手段652や推定モデル生成手段654などに送信する。
 例えば、フィルタリング手段651は、付加情報付顔不審度情報641に含まれる顔画像のうち、付加情報が「男性」である顔画像のみを選別する。または、フィルタリング手段651は、付加情報付顔不審度情報641に含まれる顔画像のうち、付加情報が「女性」であり年齢が「20~40歳」である顔画像のみを選別する。このように、フィルタリング手段651は、付加情報付顔不審度情報641に含まれる付加情報を利用して、付加情報付顔不審度情報641に含まれる顔画像を選別する。そして、フィルタリング手段651は、選別後の顔画像を示す情報を顔特徴量抽出手段652に送信する。
 なお、フィルタリング手段651がどのような付加情報を用いて付加情報付顔不審度情報641に含まれる顔画像を選別するかは、任意に設定することが出来る。例えば、フィルタリング手段651は、不審度を推定する対象となると推定される人物像に対応する付加情報を用いて顔画像の選別を行うよう構成することが出来る。フィルタリング手段651は、上述したように、一つの付加情報のみを用いて顔画像の選別を行っても構わないし、複数の付加情報を用いて顔画像の選別を行っても構わない。
 また、例えば、フィルタリング手段651は、同一の付加情報付顔不審度情報641に対して複数回の選別を行うよう構成することが出来る。例えば、フィルタリング手段651は、付加情報が「男性」の顔画像のみを顔特徴量抽出手段652に送信した後、別の推定モデル生成のため付加情報が「女性」の顔画像のみを顔特徴量抽出手段652に送信するよう構成することが出来る。なお、フィルタリング手段651は、複数回の選別を行う際に、選別する顔画像が重複しないよう選別を行っても構わないし、重複を許容するよう選別を行っても構わない。また、フィルタリング手段651は、複数回の選別により、不審度推定モデル642に含まれる全ての顔画像をカバーするよう選別を行っても構わない。
 顔特徴量抽出手段652は、フィルタリング手段651から受信した情報が示す各顔画像から顔画像の特徴量を示す特徴ベクトルをそれぞれ抽出する。そして、顔特徴量抽出手段251は、抽出した特徴ベクトルを示す情報をクラスタリング手段252に送信する。
 なお、顔特徴量抽出手段652が特徴ベクトルを抽出する際の処理は、第1の実施形態で説明した顔特徴量抽出手段251と同様である。そのため、説明は省略する。
 クラスタリング手段653は、顔特徴量抽出手段652から受信した特徴ベクトルを用いて、フィルタリング手段651が選別した顔画像をクラスタリングする。クラスタリング手段653は、第1の実施形態で説明したクラスタリング手段252と同様に、不審度情報を利用しないでクラスタリングを行う。そして、クラスタリング手段653は、クラスタリングした結果であるクラスタリング結果を推定モデル生成手段654へ送信する。
 推定モデル生成手段654は、クラスタリング手段653によるクラスタリング結果と、クラスタリング結果に含まれる顔画像と予め対応付けられている不審度情報と、に基づいて、不審度推定モデル642を生成する。この際、推定モデル生成手段654は、生成する不審度推定モデル642に、当該不審度推定モデル642に含まれる顔画像を選別する際に用いられた付加情報を識別するための情報を含めることが出来る。そして、推定モデル生成手段654は、生成した不審度推定モデル642を、通信I/F部61を介して不審度推定装置7へと送信する。また、推定モデル生成手段654は、生成した不審度推定モデル642を記憶部64に格納する。
 例えば、推定モデル生成手段654は、クラスタリング手段653からクラスタリング結果を受信する。また、推定モデル生成手段654は、付加情報付顔不審度情報641を参照して、クラスタリング結果に含まれる各顔画像と対応付けられている不審度情報を確認する。そして、推定モデル生成手段654は、クラスタリング結果と、不審度情報と、に基づいて、不審度推定モデル642を生成する。
 なお、推定モデル生成手段654は、第1の実施形態で説明した推定モデル生成手段253と同様の処理により不審度推定モデル642を生成する。そのため、推定モデル生成手段654による具体的な処理の詳細は省略する。また、本実施形態における推定モデル生成手段654は、フィルタリング手段651によるフィルタリングの結果に応じて不審度推定モデル642を生成する。換言すると、推定モデル生成手段654は、フィルタリング手段651が複数回の選別を行った場合には、複数の不審度推定モデル642を生成することになる。
 不審度推定装置7は、情報処理装置である。不審度推定装置7は、不審度推定モデル生成装置6から受信した不審度推定モデル642と、カメラ3から受信した画像データ情報331と、に基づいて、画像データ情報331に含まれる人物(推定対象の人物)の不審度を推定する。不審度推定装置4は、推定した不審度を含む推定結果情報441を例えば、画面表示部43に表示したり通信I/F部41を介して外部の装置に送信したりすることが出来る。
 図11は、不審度推定装置7が有する主な構成の一例である。図11を参照すると、不審度推定装置7は、主な構成要素として、例えば、通信I/F部71と、操作入力部72と、画面表示部73と、記憶部74と、演算処理部75と、を有している。
 なお、通信I/F部71、操作入力部72、画面表示部73は、図2を参照して説明した不審度推定モデル生成装置2が有する通信I/F部21、操作入力部22、画面表示部23と同様の構成である。そのため、通信I/F部71、操作入力部72、画面表示部73の説明は省略する。
 記憶部74は、ハードディスクやメモリなどの記憶装置である。記憶部74は、演算処理部75における各種処理に必要な処理情報やプログラム743を記憶している。プログラム743は、演算処理部75に読み込まれて実行されることにより各種処理部を実現するプログラムである。プログラム743は、通信I/F部71などのデータ入出力機能を介して外部装置(図示せず)や記憶媒体(図示せず)から予め読み込まれ、記憶部74に保存されている。記憶部74で記憶される主な情報としては、例えば、不審度推定モデル642と、画像データ情報331と、基準情報741と、推定結果情報742と、がある。
 不審度推定モデル642は、不審度推定モデル生成装置6において生成された推定モデルである。不審度推定モデル642は、通信I/F部71を介して、不審度推定モデル生成装置6から送信されて記憶部74内に格納されている。
 画像データ情報331は、カメラ3において取得された画像データである。画像データ情報331には、カメラ3が設置された箇所付近を通過する人物の画像データなどが含まれている。画像データ情報331は、通信I/F部71を介して、カメラ3から送信されて記憶部74内に格納されている。
 基準情報741は、抽出した特徴量(特徴ベクトル)に基づいて付加情報を推定する際に基準となる情報である。基準情報741には、例えば、付加情報付顔不審度情報641に含まれる付加情報に対応する情報が含まれている。具体的には、例えば、基準情報741は、年齢層ごとの基準特徴量であったり、性別を判別するための基準となる情報であったりする。基準情報741は、例えば外部装置などにより予め作成され、通信I/F部71を介して予め読み込まれている。基準情報741は、付加情報推定手段752により用いられることになる。
 推定結果情報742は、不審度推定手段754により推定された、カメラ3が取得した画像データ情報331に含まれる人物の不審度を示す情報である。推定結果情報742の構成は、第1の実施形態で説明した推定結果情報441と同様である。そのため、説明は省略する。
 演算処理部75は、MPUなどのマイクロプロセッサとその周辺回路を有する。演算処理部75は、記憶部74からプログラム743を読み込んで実行することにより、上記ハードウェアとプログラム743とを協働させて各種処理部を実現する。演算処理部75で実現される主な処理部としては、例えば、顔特徴量抽出手段751と、付加情報推定手段752と、使用モデル選択手段753と、不審度推定手段754と、がある。
 顔特徴量抽出手段751は、画像データ情報331に含まれる人物(推定対象の人物)の顔の特徴量である特徴ベクトルを抽出する。そして、顔特徴量抽出手段751は、抽出した特徴ベクトルを示す情報を、付加情報推定手段752に送信するとともに不審度推定手段754へ送信する。なお、顔特徴量抽出手段751が特徴ベクトルを抽出する際の処理は、第1の実施形態で説明した顔特徴量抽出手段451と同様である。そのため、説明は省略する。
 付加情報推定手段752は、顔特徴量抽出手段751から受信した特徴ベクトルに基づいて、当該特徴ベクトル抽出元の人物の付加情報を推定する。そして、付加情報推定手段752は、推定した付加情報を使用モデル選択手段753へ送信する。
 例えば、付加情報推定手段752は、顔特徴量抽出手段751から特徴ベクトルを受信する。また、付加情報推定手段752は、基準情報741を参照する。そして、付加情報推定手段752は、特徴ベクトルと基準情報741とに基づいて、特徴ベクトル抽出元の人物の付加情報を推定する。具体的には、例えば、付加情報推定手段752は、基準情報741を参照して年齢ごとの基準特徴量を参照する。そして、付加情報推定手段752は、受信した特徴ベクトルと最も距離が近くなる基準特徴量の年齢を特徴ベクトル抽出元の人物の年齢として推定する。また、付加情報推定手段752は、特徴ベクトルと基準情報741とに基づいて、特徴ベクトル抽出元の人物の性別を推定する。このように、付加情報推定手段752は、特徴ベクトルと基準情報741とに基づいて、特徴ベクトル抽出元の人物の付加情報を推定する。その後、付加情報推定手段752は、推定した付加情報を使用モデル選択手段753へ送信する。
 使用モデル選択手段753は、付加情報推定手段752から受信した付加情報に基づいて、不審度推定手段754が不審度の推定を行う際に用いる不審度推定モデル642を選択する。その後、使用モデル選択手段753は、選択した不審度推定モデル642を示す情報を不審度推定手段754へ送信する。
 例えば、使用モデル選択手段753は、付加情報推定手段752から付加情報を受信する。また、使用モデル選択手段753は、不審度推定モデル642を参照して不審度推定モデル642に含まれる付加情報を識別するための情報を確認する。そして、使用モデル選択手段753は、付加情報推定手段752から受信した付加情報に対応する不審度推定モデル642を選択する。具体的には、例えば、使用モデル選択手段753は、付加情報推定手段752から受信した付加情報ともっとも近い情報を有する不審度推定モデル642や当該付加情報を含む不審度推定モデル642を選択する。この際、使用モデル選択手段753は、1つのモデルのみを選択するよう構成しても構わないし、複数のモデルを選択するよう構成しても構わない。その後、使用モデル選択手段753は、選択した不審度推定モデル642を示す情報を不審度推定手段754へ送信する。
 不審度推定手段754は、顔特徴量抽出手段751から受信した特徴ベクトルと、使用モデル選択手段753が選択した不審度推定モデル642と、に基づいて、特徴ベクトル抽出元の人物(推定対象の人物)の不審度を推定する。そして、不審度推定手段754は、推定結果を推定結果情報742として記憶部74に格納する。また、不審度推定手段754は、推定結果を画面表示部73に表示したり、通信I/F部71を介して外部装置に送信したりすることが出来る。
 例えば、不審度推定手段754は、顔特徴量抽出手段751から特徴ベクトルを受信する。また、不審度推定手段754は、使用モデル選択手段753から不審度推定モデル642を示す情報を受信する。そして、不審度推定手段754は、受信した特徴ベクトルと特徴が近いクラスタや顔画像を特定し、当該クラスタや顔画像に対応付けられた不審度情報から特徴ベクトル抽出元の人物の不審度を推定する。具体的な手法は第1の実施形態で説明したものと同様であるため省略する。
 なお、上述したように、使用モデル選択手段753は、複数の不審度推定モデル642を選択することがある。この場合、不審度推定手段754は、複数の不審度推定モデル642それぞれを用いて人物の不審度を推定することになる。このような場合、不審度推定手段754は、既知の様々な方法により推定した不審度を統合して、最終的な不審度の推定とすることが出来る。例えば、不審度推定手段754は、推定した不審度情報のうち最も値の高い不審度を採用することが考えられる。また、不審度推定手段754は、推定した不審度の平均値を算出しても構わない。不審度推定手段754は、上記例示した以外の方法により最終的な不審度を算出しても構わない。
 以上が、不審度推定システム5が有する各構成の一例についての説明である。続いて、図12、図13を参照して、不審度推定モデル生成装置6の動作と不審度推定装置7の動作の一例について説明する。
 まず、図12を参照して、不審度推定モデル生成装置6が不審度推定モデル642を生成する際の処理の一例について説明する。
 図12を参照すると、不審度推定モデル生成装置6のフィルタリング手段651は、付加情報付顔不審度情報641に含まれる付加情報を利用して、不審度推定モデル642を生成する際に用いる顔画像を付加情報付顔不審度情報641に含まれる顔画像の中から選別する(ステップS301)。そして、フィルタリング手段651は、選別後の顔画像を示す情報を顔特徴量抽出手段652に送信する。
 顔特徴量抽出手段652は、フィルタリング手段651から受信した情報が示す各顔画像から顔画像の特徴量を示す特徴ベクトルをそれぞれ抽出する(ステップS302)。そして、顔特徴量抽出手段652は、抽出した特徴ベクトルを示す情報をクラスタリング手段653に送信する。
 クラスタリング手段653は、顔特徴量抽出手段652から受信した特徴ベクトルに基づいて、フィルタリング手段651が選別した顔画像をクラスタリングする(ステップS303)。その後、クラスタリング手段653は、クラスタリングした結果であるクラスタリング結果を推定モデル生成手段654へ送信する。
 推定モデル生成手段654は、クラスタリング手段653からクラスタリング結果を受信する。また、推定モデル生成手段654は、付加情報付顔不審度情報641を参照して、クラスタリング結果に含まれる各顔画像と対応付けられている不審度情報を確認する。そして、推定モデル生成手段654は、クラスタリング結果と、不審度情報と、に基づいて、不審度推定モデル642を生成する(ステップS304)。その後、推定モデル生成手段654は、生成した不審度推定モデル642を記憶部64に格納したり、通信I/F部61を介して不審度推定装置7へ送信したりする。
 以上が、不審度推定モデル生成装置6が不審度推定モデル642を生成する際の処理の一例である。続いて、図13を参照して、不審度推定装置7が人物の不審度を推定する際の処理の一例について説明する。
 図13を参照すると、不審度推定装置7の顔特徴量抽出手段751は、画像データ情報331から当該画像データ情報331に含まれる人物(推定対象の人物)を抽出する(ステップS401)。続いて、顔特徴量抽出手段751は、抽出した人物の顔領域の特徴量である特徴ベクトルを抽出する(ステップS402)。そして、顔特徴量抽出手段751は、抽出した特徴ベクトルを示す情報を付加情報推定手段752と不審度推定手段754に送信する。
 付加情報推定手段752は、顔特徴量抽出手段751から受信した特徴ベクトルに基づいて、当該特徴ベクトル抽出元の人物の付加情報を推定する(ステップS403)。そして、付加情報推定手段752は、推定した付加情報を使用モデル選択手段753へ送信する。
 使用モデル選択手段753は、付加情報推定手段752から受信した付加情報に基づいて、不審度推定手段754が不審度の推定を行う際に用いる不審度推定モデル642を選択する(ステップS404)。その後、使用モデル選択手段753は、選択した不審度推定モデル642を示す情報を不審度推定手段754へ送信する。
 不審度推定手段754は、顔特徴量抽出手段751から特徴ベクトルを受信する。また、不審度推定手段754は、使用モデル選択手段753から不審度推定モデル642を示す情報を受信する。そして、不審度推定手段754は、受信した特徴ベクトルと、使用モデル選択手段753が選択した不審度推定モデル642と、に基づいて、推定対象の人物の不審度を推定する(ステップS405)。その後、不審度推定手段754は、推定した不審度を推定結果情報742として、記憶部74に格納したり、画面表示部73に表示したりする。
 以上が、不審度推定装置7が人物の不審度を推定する際の処理の一例である。
 このように、本実施形態における不審度推定モデル生成装置6は、付加情報を用いてフィルタリングした後の顔画像に基づいて不審度推定モデル642を生成する。また、不審度推定装置7は、不審度推定モデル642に基づいて、人物の不審度を推定する。このような構成により、不審度推定モデル生成装置6は、含まれる顔画像を付加情報により予め選別した不審度推定モデル642を生成することが可能となる。その結果、不審度推定装置7は、例えば、不審人物として想定する付加情報を有する顔画像のみを含む不審度推定モデル642と、画像データ情報331に含まれる人物の顔領域から抽出した特徴量と、に基づいて、推定対象の人物の不審度を推定することが可能となる。これにより、特徴量と比較する対象となるデータを事前に絞り込むことが可能となり、不審度を推定する際の処理を高速化させることが可能となる。また、より精度を高めることが可能となる。
 なお、本実施形態における不審度推定システム5は、第1の実施形態で説明した不審度推定システム1と同様に、様々な変形例を含むことが出来る。
[第3の実施形態]
 続いて、本発明の第3の実施形態を、図14、15を参照して説明する。図14は、不審度推定モデル生成装置8の構成の一例を示す概略ブロック図である。図15は、不審度推定装置9の構成の一例を示す概略ブロック図である。
 第3の実施形態では、不審度推定モデルを生成する不審度推定モデル生成装置8の構成の概略について説明する。また、本実施形態においては、不審度推定モデル生成装置8などの外部装置により生成された不審度推定モデルを用いて人物の不審度を推定する不審度推定装置9の構成の概略について説明する。
 図14を参照すると、不審度推定モデル生成装置8は、クラスタリング手段81と、不審度推定モデル生成手段82と、を有している。例えば、不審度推定モデル生成装置8は、図示しない記憶装置と演算装置とを有しており、記憶装置に格納されたプログラムを演算装置が実行することで、上記各手段を実現する。
 クラスタリング手段81には、顔画像から抽出される特徴量が入力される。クラスタリング手段81は、入力される顔画像から抽出される特徴量に基づいて、顔画像をクラスタリングする。その後、クラスタリング手段81は、クラスタリング結果を不審度推定モデル生成手段82に送信する。
 不審度推定モデル生成手段82は、クラスタリング手段81からクラスタリング結果を受信する。すると、不審度推定モデル生成手段82は、受信したクラスタリング結果と、クラスタリング結果に含まれる顔画像に予め対応付けられた不審度情報と、に基づいて、不審度推定モデルを生成する。
 なお、不審度情報とは、顔画像が示す人物の不審度を示す情報のことをいう。また、不審度推定モデルは、推定対象の人物の不審度を推定する際に用いることになる。
 このように、本実施形態における不審度推定モデル生成手段82は、クラスタリング手段81と、不審度推定モデル生成手段82と、を有している。このような構成により、クラスタリング手段81は、顔画像から抽出される特徴量に基づいて、顔画像をクラスタリングすることが出来る。また、不審度推定モデル生成手段82は、特徴量を用いて行われたクラスタリング結果と、クラスタリング結果に含まれる顔画像と予め対応付けられている不審度情報と、に基づいて、不審度推定モデルを生成することが出来る。その結果、不審度推定モデル生成装置8は、不審度の定義を行うことなく不審度推定モデルを生成することが可能となり、クラス定義を行うことが困難な不審度を推定する際に用いることが可能な不審度推定モデルを生成することが可能となる。
 なお、上述した不審度推定モデル生成装置8は、当該不審度推定モデル生成装置8に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、情報処理装置に、入力される顔画像から抽出される特徴量に基づいて、顔画像をクラスタリングするクラスタリング手段81と、クラスタリング手段81によるクラスタリング結果と、クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段82と、を実現させるためのプログラムである。
 また、上述した不審度推定モデル生成装置8により実行される不審度推定モデル生成方法は、入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングし、クラスタリングした結果と、クラスタリングした結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する、という方法である。
 上述した構成を有する、プログラム、又は、不審度推定モデル生成方法、の発明であっても、上記不審度推定モデル生成装置8と同様の作用を有するために、上述した本発明の目的を達成することが出来る。
 また、図15を参照すると、不審度推定装置9は、特徴量抽出手段91と、不審度推定手段92と、を有している。例えば、不審度推定装置9は、図示しない記憶装置と演算装置とを有しており、記憶装置に格納されたプログラムを演算装置が実行することで、上記各手段を実現する。
 特徴量抽出手段91は、推定対象の人物の顔領域から特徴量を抽出する。特徴量抽出手段91が画像データから人物の顔領域の特徴量を抽出する際の処理の詳細については、本実施形態においては特に限定しない。その後、特徴量抽出手段91は、抽出した特徴量を不審度推定手段92に送信する。
 不審度推定手段92は、特徴量抽出手段91から特徴量を受信する。すると、不審度推定手段92は、受信した特徴量と、予め生成された不審度推定モデルと、に基づいて、推定対象の人物の不審度を推定する。
 なお、上記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている。
 このように、不審度推定装置9は、特徴量抽出手段91と、不審度推定手段92と、を有している。また、不審度推定手段92が用いる不審度推定モデルは、顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果に基づいて予め生成されている。このような構成により、不審度推定手段92は、特徴量抽出手段91が抽出した特徴量と、上記不審度推定モデルと、に基づいて、特徴量抽出手段91が特徴量を抽出した人物の不審度を推定することが可能となる。つまり、上記構成によると、クラス定義を行うことが困難な不審度を推定することが可能となる。
 なお、上述した不審度推定装置9は、当該不審度推定装置9に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、情報処理装置に、推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段91と、特徴量抽出手段91により抽出された特徴量と、予め生成された不審度推定モデルと、に基づいて、推定対象の人物の不審度を推定する不審度推定手段92と、を実現させるプログラムである。なお、上記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている。
 また、上述した不審度推定装置9により実行される不審度推定方法は、推定対象の人物の顔領域から特徴量を抽出し、抽出された特徴量と、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果とクラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報とに基づいて予め生成された不審度推定モデルと、に基づいて、推定対象の人物の不審度を推定する、という方法である。
 上述した構成を有する、プログラム、又は、不審度推定方法、の発明であっても、上記不審度推定装置9と同様の作用を有するために、上述した本発明の目的を達成することが出来る。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における不審度推定モデル生成装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
 前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
 を有する不審度推定モデル生成装置。
(付記2)
 付記1に記載の不審度推定モデル生成装置であって、
 顔画像と当該顔画像の人物の不審度を示す不審度情報とを含む顔不審度情報に含まれる顔画像から特徴量を抽出する顔特徴量抽出手段を有し、
 前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量に基づいて前記顔不審度情報に含まれる前記顔画像をクラスタリングする
 不審度推定モデル生成装置。
(付記3)
 付記2に記載の不審度推定モデル生成装置であって、
 前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量の近似度により前記顔不審度情報に含まれる前記顔画像をクラスタリングする
 不審度推定モデル生成装置。
(付記4)
 付記2又は3に記載の不審度推定モデル生成装置であって、
 前記顔不審度情報には、前記顔情報に附随的な付加情報が含まれており、
 前記付加情報に基づいて前記顔不審度情報に含まれる前記顔画像を選別するフィルタリング手段を有し、
 前記顔特徴量抽出手段は、前記フィルタリング手段が選別した前記顔画像の特徴量を抽出し、
 前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量に基づいて前記フィルタリング手段が選別した前記顔画像をクラスタリングする
 不審度推定モデル生成装置。
(付記5)
 付記1乃至4のいずれかに記載の不審度推定モデル生成装置であって、
 前記不審度推定モデル生成手段は、前記クラスタリング結果に含まれる各クラスタと、当該クラスタに含まれる前記顔画像と対応付けられている前記不審度情報に基づく不審度情報とを対応付けて、前記不審度推定モデルを生成する
 不審度推定モデル生成装置。
(付記6)
 入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングし、
 クラスタリングした結果と、クラスタリングした結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する
 不審度推定モデル生成方法。
(付記6-1)
 付記6に記載の不審度推定モデル生成方法であって、
 顔画像と当該顔画像の人物の不審度を示す不審度情報とを含む顔不審度情報に含まれる顔画像から特徴量を抽出し、
 抽出した特徴量に基づいて前記顔不審度情報に含まれる前記顔画像をクラスタリングする
 不審度推定モデル生成方法。
(付記6-2)
 付記6-1に記載の不審度推定モデル生成方法であって、
 抽出した特徴量の近似度により前記顔不審度情報に含まれる前記顔画像をクラスタリングする
 不審度推定モデル生成方法。
(付記7)
 情報処理装置に、
 入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
 前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
 を実現させるためのプログラム。
(付記7-1)
 付記7に記載のプログラムであって、
 顔画像と当該顔画像の人物の不審度を示す不審度情報とを含む顔不審度情報に含まれる顔画像から特徴量を抽出する顔特徴量抽出手段を実現させ、
 前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量に基づいて前記顔不審度情報に含まれる前記顔画像をクラスタリングする
 プログラム。
(付記7-2)
 付記7-1に記載のプログラムであって、
 前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量の近似度により前記顔不審度情報に含まれる前記顔画像をクラスタリングする
 プログラム。
(付記8)
 推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
 前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
 を有し、
 前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 不審度推定装置。
(付記9)
 付記8に記載の不審度推定装置であって、
 前記不審度推定モデルは、前記特徴量の近似度により前記顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 不審度推定装置。
(付記10)
 付記8又は9に記載の不審度推定装置であって、
 前記不審度推定手段は、前記特徴量抽出手段により抽出された前記特徴量と距離が最も近い特徴量の顔画像に対応付けられている不審度を、前記推定対象の人物の不審度として推定する
 不審度推定装置。
(付記11)
 付記8又は9に記載の不審度推定装置であって、
 前記不審度推定手段は、前記特徴量抽出手段により抽出された前記特徴量と距離が近い複数の特徴量の顔画像に対応付けられている不審度に基づいて、前記推定対象の人物の不審度を推定する
 不審度推定装置。
(付記12)
 付記8又は9に記載の不審度推定装置であって、
 前記不審度推定手段は、前記特徴量抽出手段により抽出された前記特徴量が属するクラスタに対応付けられている不審度を、前記推定対象の人物の不審度として推定する
 不審度推定装置。
(付記13)
 付記8乃至12のいずれかに記載の不審度推定装置であって、
 前記特徴量抽出手段が抽出した特徴量に基づいて、前記推定対象の人物の付加情報を推定する付加情報推定手段と、
 前記付加情報推定手段が推定した前記付加情報に基づいて、前記不審度推定手段が不審度の推定を行う際に用いる前記不審度推定モデルを選択する使用モデル選択手段と、
 を有する不審度推定装置。
(付記14)
 推定対象の人物の顔領域から特徴量を抽出し、
 抽出された前記特徴量と、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報とに基づいて予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する
 不審度推定方法。
(付記14-1)
 付記14に記載の不審度推定方法であって、
 前記不審度推定モデルは、前記特徴量の近似度により前記顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 不審度推定方法。
(付記14-2)
 付記14又は14-1に記載の不審度推定方法であって、
 抽出した特徴量に基づいて、前記推定対象の人物の付加情報を推定し、
 推定した前記付加情報に基づいて、不審度の推定を行う際に用いる前記不審度推定モデルを選択する、
 不審度推定方法。
(付記15)
 情報処理装置に、
 推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
 前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
 を実現させ、
 前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 プログラム。
(付記15-1)
 付記15に記載のプログラムであって、
 前記不審度推定モデルは、前記特徴量の近似度により前記顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 プログラム。
(付記15-2)
 付記15又は15-1に記載のプログラムであって、
 前記特徴量抽出手段が抽出した特徴量に基づいて、前記推定対象の人物の付加情報を推定する付加情報推定手段と、
 前記付加情報推定手段が推定した前記付加情報に基づいて、前記不審度推定手段が不審度の推定を行う際に用いる前記不審度推定モデルを選択する使用モデル選択手段と、
 を実現させるためのプログラム。
(付記16)
 入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
 前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
 を有する不審度推定モデル生成装置と、
 推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
 前記特徴量抽出手段により抽出された前記特徴量と、前記不審度推定モデル生成装置が生成した前記不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、を有する不審度推定装置と、
 を有する不審度推定システム。
(付記16-1)
 付記16に記載の不審度推定システムであって、
 前記不審度推定モデル生成装置は、
 顔画像と当該顔画像の人物の不審度を示す不審度情報とを含む顔不審度情報に含まれる顔画像から特徴量を抽出する顔特徴量抽出手段を有し、
 前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量に基づいて前記顔不審度情報に含まれる前記顔画像をクラスタリングする
 不審度推定システム。
(付記16-2)
 付記16又は16-1に記載の不審度推定システムであって、
 前記不審度推定モデル生成装置の前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量の近似度により前記顔不審度情報に含まれる前記顔画像をクラスタリングする
 不審度推定システム。
(付記17)
 撮像手段を有するカメラであって、
 前記撮像手段により撮像された推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
 前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
 を有し、
 前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 カメラ。
(付記17-1)
 付記17に記載のカメラであって、
 前記不審度推定モデルは、前記特徴量の近似度により前記顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
 カメラ。
(付記17-2)
 付記17又は17-1に記載のカメラであって、
 前記特徴量抽出手段が抽出した特徴量に基づいて、前記推定対象の人物の付加情報を推定する付加情報推定手段と、
 前記付加情報推定手段が推定した前記付加情報に基づいて、前記不審度推定手段が不審度の推定を行う際に用いる前記不審度推定モデルを選択する使用モデル選択手段と、
 を有するカメラ。
 なお、上記各実施形態及び付記において記載したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されていたりする。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
 以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることが出来る。
 なお、本発明は、日本国にて2017年1月5日に特許出願された特願2017-000543の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
1 不審度推定システム
2、6 不審度推定モデル生成装置
21、61 通信I/F部
22、62 操作入力部
23、63 画面表示部
24、64 記憶部
241 顔不審度情報
242 不審度推定モデル
243 プログラム
641 付加情報付顔不審度情報
642 不審度推定モデル
25、65 演算処理部
251、652 顔特徴量抽出手段
252、653 クラスタリング手段
253、654 推定モデル生成手段
651 フィルタリング手段
3 カメラ
31 撮像手段
32 送受信手段
33 記憶装置
331 画像データ情報
4、7 不審度推定装置
41、71 通信I/F部
42、72 操作入力部
43、73 画面表示部
44、74 記憶部
441、742 推定結果情報
442、743 プログラム
741 基準情報
45、75 演算処理部
451、751 顔特徴量抽出手段
452、754 不審度推定手段
752 付加情報推定手段
753 使用モデル選択手段
5 不審度推定システム
6 不審度推定
8 不審度推定モデル生成装置
81 クラスタリング手段
82 不審度推定モデル生成手段
9 不審度推定装置
91 特徴量抽出手段
92 不審度推定手段

 

Claims (17)

  1.  入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
     前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
     を有する不審度推定モデル生成装置。
  2.  請求項1に記載の不審度推定モデル生成装置であって、
     顔画像と当該顔画像の人物の不審度を示す不審度情報とを含む顔不審度情報に含まれる顔画像から特徴量を抽出する顔特徴量抽出手段を有し、
     前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量に基づいて前記顔不審度情報に含まれる前記顔画像をクラスタリングする
     不審度推定モデル生成装置。
  3.  請求項2に記載の不審度推定モデル生成装置であって、
     前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量の近似度により前記顔不審度情報に含まれる前記顔画像をクラスタリングする
     不審度推定モデル生成装置。
  4.  請求項2又は3に記載の不審度推定モデル生成装置であって、
     前記顔不審度情報には、前記顔情報に附随的な付加情報が含まれており、
     前記付加情報に基づいて前記顔不審度情報に含まれる前記顔画像を選別するフィルタリング手段を有し、
     前記顔特徴量抽出手段は、前記フィルタリング手段が選別した前記顔画像の特徴量を抽出し、
     前記クラスタリング手段は、前記顔特徴量抽出手段が抽出した特徴量に基づいて前記フィルタリング手段が選別した前記顔画像をクラスタリングする
     不審度推定モデル生成装置。
  5.  請求項1乃至4のいずれかに記載の不審度推定モデル生成装置であって、
     前記不審度推定モデル生成手段は、前記クラスタリング結果に含まれる各クラスタと、当該クラスタに含まれる前記顔画像と対応付けられている前記不審度情報に基づく不審度情報とを対応付けて、前記不審度推定モデルを生成する
     不審度推定モデル生成装置。
  6.  入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングし、
     クラスタリングした結果と、クラスタリングした結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する
     不審度推定モデル生成方法。
  7.  情報処理装置に、
     入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
     前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
     を実現させるためのプログラム。
  8.  推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
     前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
     を有し、
     前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
     不審度推定装置。
  9.  請求項8に記載の不審度推定装置であって、
     前記不審度推定モデルは、前記特徴量の近似度により前記顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
     不審度推定装置。
  10.  請求項8又は9に記載の不審度推定装置であって、
     前記不審度推定手段は、前記特徴量抽出手段により抽出された前記特徴量と距離が最も近い特徴量の顔画像に対応付けられている不審度を、前記推定対象の人物の不審度として推定する
     不審度推定装置。
  11.  請求項8又は9に記載の不審度推定装置であって、
     前記不審度推定手段は、前記特徴量抽出手段により抽出された前記特徴量と距離が近い複数の特徴量の顔画像に対応付けられている不審度に基づいて、前記推定対象の人物の不審度を推定する
     不審度推定装置。
  12.  請求項8又は9に記載の不審度推定装置であって、
     前記不審度推定手段は、前記特徴量抽出手段により抽出された前記特徴量が属するクラスタに対応付けられている不審度を、前記推定対象の人物の不審度として推定する
     不審度推定装置。
  13.  請求項8乃至12のいずれかに記載の不審度推定装置であって、
     前記特徴量抽出手段が抽出した特徴量に基づいて、前記推定対象の人物の付加情報を推定する付加情報推定手段と、
     前記付加情報推定手段が推定した前記付加情報に基づいて、前記不審度推定手段が不審度の推定を行う際に用いる前記不審度推定モデルを選択する使用モデル選択手段と、
     を有する不審度推定装置。
  14.  推定対象の人物の顔領域から特徴量を抽出し、
     抽出された前記特徴量と、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報とに基づいて予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する
     不審度推定方法。
  15.  情報処理装置に、
     推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
     前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
     を実現させ、
     前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
     プログラム。
  16.  入力される顔画像から抽出される特徴量に基づいて、前記顔画像をクラスタリングするクラスタリング手段と、
     前記クラスタリング手段によるクラスタリング結果と、前記クラスタリング結果に含まれる顔画像に予め対応付けられた当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、推定対象の人物の不審度を推定する際に用いる不審度推定モデルを生成する不審度推定モデル生成手段と、
     を有する不審度推定モデル生成装置と、
     推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
     前記特徴量抽出手段により抽出された前記特徴量と、前記不審度推定モデル生成装置が生成した前記不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、を有する不審度推定装置と、
     を有する不審度推定システム。
  17.  撮像手段を有するカメラであって、
     前記撮像手段により撮像された推定対象の人物の顔領域から特徴量を抽出する特徴量抽出手段と、
     前記特徴量抽出手段により抽出された前記特徴量と、予め生成された不審度推定モデルと、に基づいて、前記推定対象の人物の不審度を推定する不審度推定手段と、
     を有し、
     前記不審度推定モデルは、予め格納された顔画像から抽出した特徴量に基づいて当該顔画像をクラスタリングした結果と、前記クラスタリングした結果に含まれる顔画像に予め対応付けられている、当該顔画像が示す人物の不審度を示す不審度情報と、に基づいて、生成されている
     カメラ。
     

     
PCT/JP2017/041538 2017-01-05 2017-11-17 不審度推定モデル生成装置 WO2018128015A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018560328A JP7103229B2 (ja) 2017-01-05 2017-11-17 不審度推定モデル生成装置
US16/475,718 US11023712B2 (en) 2017-01-05 2017-11-17 Suspiciousness degree estimation model generation device
US16/599,731 US11023713B2 (en) 2017-01-05 2019-10-11 Suspiciousness degree estimation model generation device
US16/599,774 US11023714B2 (en) 2017-01-05 2019-10-11 Suspiciousness degree estimation model generation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017000543 2017-01-05
JP2017-000543 2017-01-05

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US16/475,718 A-371-Of-International US11023712B2 (en) 2017-01-05 2017-11-17 Suspiciousness degree estimation model generation device
US16/599,731 Continuation US11023713B2 (en) 2017-01-05 2019-10-11 Suspiciousness degree estimation model generation device
US16/599,774 Continuation US11023714B2 (en) 2017-01-05 2019-10-11 Suspiciousness degree estimation model generation device

Publications (1)

Publication Number Publication Date
WO2018128015A1 true WO2018128015A1 (ja) 2018-07-12

Family

ID=62791033

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/041538 WO2018128015A1 (ja) 2017-01-05 2017-11-17 不審度推定モデル生成装置

Country Status (3)

Country Link
US (3) US11023712B2 (ja)
JP (1) JP7103229B2 (ja)
WO (1) WO2018128015A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107226A (ja) * 2018-12-28 2020-07-09 富士通クライアントコンピューティング株式会社 判定装置およびプログラム
WO2021225001A1 (ja) 2020-05-08 2021-11-11 富士通株式会社 識別方法、生成方法、識別プログラム及び識別装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023712B2 (en) * 2017-01-05 2021-06-01 Nec Corporation Suspiciousness degree estimation model generation device
US11210673B2 (en) * 2019-05-29 2021-12-28 Advanced New Technologies Co., Ltd. Transaction feature generation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004158013A (ja) * 2002-11-04 2004-06-03 Samsung Electronics Co Ltd 顔検出システム及び方法、並びに顔画像認証方法
JP2007140695A (ja) * 2005-11-15 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 不審顔検出システム、不審顔検出方法および不審顔検出プログラム
JP2009077064A (ja) * 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置
JP2012212969A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 画像監視装置
JP2013088870A (ja) * 2011-10-13 2013-05-13 Toyota Infotechnology Center Co Ltd 不審者検知装置、不審者検知方法およびプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4521086B2 (ja) 2000-03-13 2010-08-11 株式会社東芝 顔画像認識装置及び顔画像認識方法
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
JP4397212B2 (ja) * 2003-02-05 2010-01-13 富士フイルム株式会社 本人認証装置
JP4702598B2 (ja) * 2005-03-15 2011-06-15 オムロン株式会社 監視システム、監視装置および方法、記録媒体、並びにプログラム
DE602007010523D1 (de) * 2006-02-15 2010-12-30 Toshiba Kk Vorrichtung und Verfahren zur Personenidentifizierung
US20080080748A1 (en) * 2006-09-28 2008-04-03 Kabushiki Kaisha Toshiba Person recognition apparatus and person recognition method
JP2010198199A (ja) 2009-02-24 2010-09-09 Fujifilm Corp 情報提供システム及び情報提供方法
JP2011060058A (ja) * 2009-09-11 2011-03-24 Hitachi Kokusai Electric Inc 撮影装置および監視システム
US8965050B2 (en) * 2010-08-31 2015-02-24 Omron Corporation Behavior analysis device
JP5824806B2 (ja) * 2010-12-28 2015-12-02 オムロン株式会社 顔画像管理装置、顔画像管理方法、並びにプログラム
JP5617627B2 (ja) * 2010-12-28 2014-11-05 オムロン株式会社 監視装置および方法、並びにプログラム
JP6023058B2 (ja) * 2011-08-29 2016-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理装置、画像処理方法、プログラム、集積回路
JP5795979B2 (ja) * 2012-03-15 2015-10-14 株式会社東芝 人物画像処理装置、及び人物画像処理方法
JP6026119B2 (ja) * 2012-03-19 2016-11-16 株式会社東芝 生体情報処理装置
US9589181B2 (en) * 2013-02-28 2017-03-07 Hitachi Kokusai Electric Inc. Person search method and device for searching person staying on platform
US9135499B2 (en) * 2013-03-05 2015-09-15 Tyco Fire & Security Gmbh Predictive theft notification for the prevention of theft
JP6253311B2 (ja) * 2013-08-28 2017-12-27 キヤノン株式会社 画像処理装置、画像処理方法
JP5780569B1 (ja) * 2014-03-19 2015-09-16 株式会社 テクノミライ デジタルロス・デフェンスセキュリティシステム、方法及びプログラム
CN106164994A (zh) * 2014-04-09 2016-11-23 株式会社技术未来 数字损失/事故防御系统、方法和程序
WO2017029718A1 (ja) * 2015-08-19 2017-02-23 株式会社 テクノミライ スマートセキュリティ・デジタルシステム、方法及びプログラム
JP6879210B2 (ja) * 2015-10-05 2021-06-02 日本電気株式会社 アンテナ指向制御信号生成装置と無線通信装置と無線通信制御システムとアンテナ指向性制御方法並びにプログラム
JP6744736B2 (ja) * 2016-03-23 2020-08-19 株式会社ユニバーサルエンターテインメント 撮影システム
JP7031588B2 (ja) * 2016-07-05 2022-03-08 日本電気株式会社 不審者検出装置、不審者検出方法およびプログラム
WO2018025831A1 (ja) * 2016-08-04 2018-02-08 日本電気株式会社 人流推定装置、表示制御装置、人流推定方法および記録媒体
EP3291191B1 (en) * 2016-08-29 2019-10-09 Panasonic Intellectual Property Management Co., Ltd. Suspicious person report system and suspicious person report method
US11023712B2 (en) * 2017-01-05 2021-06-01 Nec Corporation Suspiciousness degree estimation model generation device
US9852606B1 (en) * 2017-04-10 2017-12-26 Verint Americas Inc System and method for crime investigation
US10817710B2 (en) * 2018-01-12 2020-10-27 Sensormatic Electronics, LLC Predictive theft notification
JP6778736B2 (ja) * 2018-12-28 2020-11-04 富士通クライアントコンピューティング株式会社 判定装置およびプログラム
JP7272626B2 (ja) * 2019-01-09 2023-05-12 i-PRO株式会社 照合システム、照合方法およびカメラ装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004158013A (ja) * 2002-11-04 2004-06-03 Samsung Electronics Co Ltd 顔検出システム及び方法、並びに顔画像認証方法
JP2007140695A (ja) * 2005-11-15 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 不審顔検出システム、不審顔検出方法および不審顔検出プログラム
JP2009077064A (ja) * 2007-09-19 2009-04-09 Fujifilm Corp 監視方法および監視装置
JP2012212969A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 画像監視装置
JP2013088870A (ja) * 2011-10-13 2013-05-13 Toyota Infotechnology Center Co Ltd 不審者検知装置、不審者検知方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107226A (ja) * 2018-12-28 2020-07-09 富士通クライアントコンピューティング株式会社 判定装置およびプログラム
WO2021225001A1 (ja) 2020-05-08 2021-11-11 富士通株式会社 識別方法、生成方法、識別プログラム及び識別装置

Also Published As

Publication number Publication date
US20200050838A1 (en) 2020-02-13
US20200042774A1 (en) 2020-02-06
US11023714B2 (en) 2021-06-01
US11023712B2 (en) 2021-06-01
US11023713B2 (en) 2021-06-01
JPWO2018128015A1 (ja) 2019-11-07
JP7103229B2 (ja) 2022-07-20
US20190347473A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
WO2018128015A1 (ja) 不審度推定モデル生成装置
JP6850291B2 (ja) 顔認識アプリケーションにおけるフォールスポジティブの最小化のための方法および装置
US20190147361A1 (en) Learned model provision method and learned model provision device
AU2015402322B2 (en) System and method for virtual clothes fitting based on video augmented reality in mobile phone
JP5740210B2 (ja) 顔画像検索システム、及び顔画像検索方法
WO2020062493A1 (zh) 图像处理方法和装置
US8626782B2 (en) Pattern identification apparatus and control method thereof
WO2013088637A2 (en) Information processing device, information processing method and program
WO2016203718A1 (ja) 顔認識システム、顔認識サーバ及び顧客情報提示方法
CN111107278B (zh) 图像处理方法、装置、电子设备及可读存储介质
JP6046501B2 (ja) 特徴点出力装置、特徴点出力プログラム、特徴点出力方法、検索装置、検索プログラムおよび検索方法
CN112036284B (zh) 图像处理方法、装置、设备及存储介质
CN111275650A (zh) 美颜处理方法及装置
JP6537419B2 (ja) テンプレート選択システム,テンプレート選択方法,テンプレート選択プログラムおよびそのプログラムを格納した記録媒体
WO2022193911A1 (zh) 指令信息获取方法及装置、可读存储介质、电子设备
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP7110738B2 (ja) 情報処理装置、プログラム及び情報処理システム
CN111783677B (zh) 人脸识别方法、装置、服务器和计算机可读介质
JP2009289210A (ja) 重要物体認識装置および重要物体認識方法ならびにそのプログラム
CN113361490B (zh) 图像生成、网络训练方法、装置、计算机设备和存储介质
JP2015219756A (ja) 画像比較方法、装置並びにプログラム
KR102300500B1 (ko) 제품 입체컷 이미지 처리 방법, 장치 및 시스템
JP2018142137A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020148988A1 (ja) 情報処理装置および情報処理方法
US20190266742A1 (en) Entity location provision using an augmented reality system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17889735

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018560328

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17889735

Country of ref document: EP

Kind code of ref document: A1