WO2018180588A1 - 顔画像照合システムおよび顔画像検索システム - Google Patents

顔画像照合システムおよび顔画像検索システム Download PDF

Info

Publication number
WO2018180588A1
WO2018180588A1 PCT/JP2018/010442 JP2018010442W WO2018180588A1 WO 2018180588 A1 WO2018180588 A1 WO 2018180588A1 JP 2018010442 W JP2018010442 W JP 2018010442W WO 2018180588 A1 WO2018180588 A1 WO 2018180588A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
face image
face
image
persons
Prior art date
Application number
PCT/JP2018/010442
Other languages
English (en)
French (fr)
Inventor
武田 隆史
崇 三戸
小倉 慎矢
Original Assignee
株式会社日立国際電気
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立国際電気 filed Critical 株式会社日立国際電気
Priority to JP2019509281A priority Critical patent/JP6854881B2/ja
Publication of WO2018180588A1 publication Critical patent/WO2018180588A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a face image collation system that collates face images photographed in a facility having an entrance and an entrance, and a face image retrieval system that retrieves a face image based on designated search conditions.
  • video surveillance systems have been installed for the purpose of crime prevention and accident prevention at facilities visited by an unspecified number of people such as hotels, buildings, convenience stores, financial institutions, dams and roads. This is because a person to be monitored is photographed by an imaging device such as a camera, and the video is transmitted to a monitoring center such as a management office or a security room, and the resident supervisor monitors it, and the purpose and necessity Be careful depending on the situation, or record video.
  • a random access medium represented by a hard disk drive (HDD) is increasingly used as a recording medium for recording video from a conventional videotape medium.
  • HDD hard disk drive
  • the capacity of such recording media has been increasing.
  • Increasing the capacity of recording media has dramatically increased the amount of video that can be recorded, making it possible to record at many locations and for a long time, while increasing the burden of visually checking recorded images has become a problem. It's getting on.
  • the person search function is a function for automatically detecting the appearance of a person in a video, recording it in real time, and searching for a person appearance image from recorded images after the fact. From the functional aspect, the person search function is roughly divided into the following two types.
  • the appearance event search function is a function for simply searching for the presence or absence of a person (event) in the video.
  • the search result in addition to the presence or absence of an event, if it is determined that there is an event, the number of events, the time of occurrence of each event, the imaging device number that captured the event, the captured image (person appearance image), etc. are presented Is done.
  • This search condition search query
  • This search condition is often given as information for narrowing the search target range such as the event occurrence time and the imaging device number. Information for narrowing down the search target range is referred to as a narrowing parameter.
  • the second is a similar person search function. While the above-mentioned appearance event search function is a search that does not specify a character, this is whether or not a specific person specified by the user has been taken by an imaging device at another time or at another point. This is a function to search from recorded images. As a search result, in addition to the presence / absence of other images showing a specific person, the number and shooting time, imaging device number, captured image (person appearing image), similarity, and the like are presented when present. .
  • Designation of a specific person is performed when the user designates one image (hereinafter referred to as a search key image) showing the person to be searched.
  • the search key image is designated from a recorded image or an arbitrary image in an external device.
  • the image feature amount of the person in the search key image is extracted by image recognition technology, collated with the image feature amount of the person in the recorded image, the similarity (similarity) is obtained, and the same person determination is performed. It is realized by doing.
  • the extraction and recording of the human feature amount in the recorded image is performed in advance at another timing such as during video recording. Even in this search condition, it is often possible to give a refinement parameter.
  • Patent Document 1 discloses an invention that allows a user to visually grasp the magnitude relationship and the front-rear relationship of binary information such as time and similarity.
  • Patent Document 2 by registering a plurality of images as search conditions, it is possible to reduce missed searches due to differences in target orientation and shooting angle, and to obtain more images showing the target search person.
  • Patent Document 3 discloses an invention in which a large number of images can be selected from a result of similar image search and keywords can be assigned at once.
  • the present invention has been made in view of the above-described conventional circumstances, and a first object thereof is to provide a face image matching system suitable for analyzing the behavior of visitors in a facility.
  • the face image matching system is configured as follows. That is, in the face image collation system for collating face images taken at a facility having an entrance and an entrance, the first image pickup device installed at the entrance, and the inside of the facility and the entrance A representative that is a face image representing the person from among a plurality of face images determined to be the same person by the same person determination process based on the second image pickup apparatus and an image taken by the first image pickup apparatus. Selection means for selecting a face image, registration means for registering a representative face image selected by the selection means in a database, and a representative registered in the database for a face image included in an image captured by the second imaging device Collating means for collating with the face image.
  • the selection unit compares the plurality of face images with a reference face registered in advance, selects a representative face image of the person based on a similarity to the reference face, and
  • a reference face a configuration may be used in which a face image with the eyes open facing the front is used.
  • the registration unit includes a group including a face image of another person when the photographed image used in the same person determination process includes a face image of a person different from the person.
  • the attribute estimation data is registered in the database in association with the representative face image of the person, and the face image matching system includes a plurality of face images of the person included in the captured image by the second imaging device.
  • a group attribute estimation means for estimating a group attribute indicating whether or not the plurality of persons are acting in a group may be provided.
  • the group attribute estimation means the group attribute for the plurality of persons, the frequency that each person's face image is detected from the same photographed image, the proximity that indicates the distance between each person's face image in the photographed image, Estimated based on at least one of the familiarity indicating the relationship of the line of sight of each person in the captured image, and further based on at least one of the age or gender of each person estimated from the face images of the plurality of persons, It is good also as a structure which estimates the relationship of the said several person.
  • the data obtained by the group attribute estimating means may further comprise a totaling means for summing up the data based on at least one of the age or gender of each person, the date / time of entry / exit for the facility, or the group attribute. .
  • the face image retrieval system is configured as follows. That is, in a face image search system that searches a face image based on a specified search condition from a database that stores a face image included in a photographed image by the imaging device, the person of the face image included in the photographed image is alone.
  • a determination means for determining whether or not the person is acting, and storing the information of the determination result in the database in association with the face image of the person; as a search condition, a search for a person acting alone or a plurality of persons
  • search means for searching a face image associated with information on a determination result that matches the specification from the database is provided.
  • the determination unit when the same person is included in a plurality of captured images by different imaging devices, the determination unit is configured based on the commonality of other persons included in the plurality of captured images. It may be configured to determine whether or not the same person is acting alone.
  • a face image matching system suitable for analyzing the behavior of visitors in a facility.
  • a face image search system capable of specifying and searching whether the image is shown by one person or a plurality of people.
  • FIG. 1 It is a figure which shows the example of schematic structure of the face image collation system which concerns on one Embodiment of this invention. It is a figure which shows the outline
  • FIG. 1 shows an example of a schematic configuration of a face image matching system according to an embodiment of the present invention.
  • FIG. 2 shows an outline of a facility to which the face image matching system of FIG. 1 is applied.
  • there are stores A to G in the facility and a person entering the facility enters the facility via the store A, store F, store C, store G, store E. Is shown.
  • the face image matching system of this example includes a plurality of N imaging devices 100 (1) to 100 (N), a matching server 200, a maintenance PC 300, a network switch 400, and a counting server 500.
  • the imaging devices 100 (1) to 100 (N) are installed at entrances, stores in the facility, and entrances.
  • the imaging device 100 (1) installed at the entrance is an imaging device for face detection.
  • the imaging devices 100 (2) to 100 (N-1) installed at each store in the facility and the imaging device 100 (N) installed at the entrance are imaging devices for face matching.
  • Each imaging device 100 is configured by an IP camera (network camera) or the like, digitally converts a captured image obtained by imaging, and transmits the digital image to the verification server 200 via the network switch 400.
  • the matching server 200 accumulates the captured images received from the imaging device 100 via the network switch 400 and performs various processes such as face detection, representative face selection, person attribute determination, face matching, and group attribute matching.
  • the maintenance PC 300 is connected to the verification server 200 via the network switch 400 and is used for maintenance of the verification server 200.
  • the aggregation server 500 is connected to the verification server 200 via the network switch 400 and the WAN line, receives output data transmitted from the verification server 200, and performs an aggregation process.
  • the collation server 200 includes a face detection unit 201, a same person determination unit 202, a representative face selection unit 203, a format conversion unit 204, an attribute determination unit 205, an ID assignment person information generation unit 206, a registration processing unit 207, a face database 208, a face
  • Each functional unit includes a collation unit 210, a group attribute collation unit 211, a collation history database 212, and a transfer processing unit 214.
  • the face detection unit 201 detects a face image from a captured image (hereinafter referred to as “detection image”) obtained by the imaging device 100 (1) at the entrance. Specifically, for example, an area where a face is reflected is detected by analyzing a detection image, and image data of the area is extracted as a face image. The detection of the face image is performed for every continuous image frame in time series (or for every predetermined number of image frames). Therefore, a plurality of face images are obtained for each person passing through the entrance.
  • detection image a captured image obtained by the imaging device 100 (1) at the entrance.
  • the same person determination unit 202 performs the same person determination process on the face image detected by the face detection unit 201. Specifically, for example, the movement of the person in the imaging area is tracked while comparing the position of the face image in the image frame between the image frames, and the face images are grouped for each person determined to be the same.
  • the representative face selection unit 203 selects a representative face image that is a face image representing the person from a plurality of face images determined to be the same person by the same person determination unit 202.
  • a representative face image is selected based on a similarity to a reference face registered in advance. Specifically, a plurality of face images determined to be the same person are compared with a reference face, the similarity with the reference face is calculated for each face image, and the face with the highest similarity is represented as the representative face image. Select as A predetermined number may be selected as the representative face image in descending order of similarity.
  • the reference face a face image with its eyes open facing the front is used. Thereby, a face image that tends to have a high matching similarity in subsequent face matching can be selected as the representative face image. In other words, it is possible to prevent a face image that can be predicted in advance such as a face image with closed eyes or a face image facing away or looking sideways from being selected as a representative face image. it can.
  • four patterns of reference faces are used: men (wearing glasses), men (wearing glasses), women (wearing glasses), and women (wearing glasses), but considering the age group, hairstyle, etc. The number of reference face patterns may be increased.
  • the format conversion unit 204 converts the face image detected by the face detection unit 201 into a format suitable for the human attribute determination process in the attribute determination unit 205.
  • the attribute determination unit 205 performs person attribute determination processing for determining a person attribute for a person represented by the representative face image selected by the representative face selection unit 203 based on the face image converted by the format conversion unit 204.
  • Examples of the person attribute include the age and sex of the person.
  • the ID-assigned person information generation unit 206 issues a person ID associated with the representative face image selected by the representative face selection unit 203 and the person attribute determined by the attribute determination unit 205.
  • the person ID is information for uniquely identifying each person who has visited the facility.
  • the registration processing unit 207 associates the person ID issued by the ID-assigned person information generation unit 206 and registers the representative face image and person attribute obtained for the person in the face database 208.
  • the registration processing unit 207 further generates group attribute estimation data used for group attribute estimation, and registers the data in the face database 208 in association with the group ID.
  • the group ID is information for uniquely identifying each group in which a plurality of persons acting together is associated with the person ID.
  • the group attribute estimation data includes a face image of another person included in the detection image used in the same person determination process for the person to be registered (person who registers a representative face image or the like in the face database 208). It is.
  • the group attribute estimation data also includes information for determining the detection frequency, proximity, and closeness of the person to be registered and the other person.
  • the face database 208 holds a representative face image, person attributes (age and gender), and group ID for each person identified by the person ID.
  • the face database 208 holds group attribute estimation data for each group identified by the group ID.
  • the face collation unit 210 registers the captured images (hereinafter referred to as “collation images”) obtained by the imaging devices 100 (2) to 100 (N) at each store and entrance in the facility in the face database 208. Compared with the representative face image.
  • the face matching can be performed using a technique such as LFM (Live Face Matching). If it is determined that the same person as the representative face image appears in the matching image, the face matching unit 210 registers the result in the matching history database 212. Thereby, it is possible to specify how the person of the representative face image has acted in the facility (which store has been visited).
  • the time information at which the verification image was taken together with the verification history database 212 the time when the person of the representative face image entered each store in the facility can be specified.
  • an imaging device is provided at the entrance and exit of the store, the time when the store is opened and the staying time in the store can be specified.
  • the group attribute collation unit 211 uses the group attribute estimation data registered in the face database 208 for the collation images obtained by the imaging devices 100 (2) to 100 (N) at each store and entrance in the facility.
  • the group attribute is estimated using. In other words, when multiple people are shown in the matching image (when multiple facial images are included), the group attribute indicating whether or not these people are acting in a group is estimated, and the result is verified.
  • the group attribute estimation uses a similarity determination technique such as Enra-Enra.
  • the following method can be given as an example.
  • the “original image” may be a collation image, a detection image, or both.
  • the group attribute can be estimated by a combination of the methods (1) to (3).
  • the group attribute matching unit 211 further estimates the relationship between a plurality of persons determined to be acting in a group based on the analysis result of each person's face image. That is, based on the personal attributes (age and gender) of each person, for example, if the age difference is 20 years old or more, the parent-child relationship, if the age difference is 50 years old or more, the relationship between grandparents and grandchildren, the age difference is 10 If it is a man and woman under age, it is estimated that the relationship is a lover or a couple, and the result is registered in the verification history database 212.
  • the transfer processing unit 214 aggregates data registered in the collation history database 212 (processing results by the face collation unit 210 and the group attribute collation unit 211), and transfers the data of the aggregation results to the aggregation server 500 and the maintenance PC 300. Aggregation can be performed based on various conditions such as, for example, for each person's age or sex, for each entry date or time for the facility, for each group attribute, or for some combination thereof.
  • FIG. 4 shows an operation example of the face image matching system of this example.
  • the processing in the verification server 200 includes a real-time (online) process performed during the store opening period (9:00 to 21:00 in this example) and a store closing period (21:00 to 9:00 in this example). Broadly divided into offline processing.
  • the following data collection processing is mainly performed.
  • a person enters the facility it is detected that the person has entered the facility based on a detection image captured by a camera at the entrance. That is, a representative face image is selected from a plurality of face images obtained from the detection image and registered in the face database 208.
  • information such as detection date and time (photographing date and time of detection image), person ID, entrance location (information on the camera installation location), person attribute 1 (age), person attribute 2 (gender), and the like are also registered. Further, preprocessing for group attribute estimation is performed based on the detection image.
  • detection date and time photographing date and time of the detection image
  • group ID common to a plurality of persons included in the detection image
  • entrance location information on camera installation location
  • group attribute estimation data etc.
  • Information is registered in the face database 208.
  • the following aggregation / transfer processing and database update processing are mainly performed. These processes are automatically started when a scheduled time arrives.
  • the data registered in the verification history database 212 is aggregated to generate an output file (for example, CSV format data).
  • the output file created in the aggregation process is transferred to the aggregation server 500.
  • the database update process updates the contents of each database (the face database 208 and the matching history database 212).
  • FIG. 5 shows a data example of a processing result by the face image matching system of this example.
  • the face image matching system of this example can not only analyze how each person behaves in the facility, but can also determine whether or not they are acting in a group. If so, it can be seen that other viewpoints such as the ability to analyze group behavior can also be analyzed.
  • the face image matching system of the present example includes the face detection imaging device 100 (1) installed at the entrance, and the face matching imaging device installed at each store and entrance in the facility. 100 (2) to 100 (N), and a face representing the person among a plurality of face images determined to be the same person by the same person determination process based on the captured image by the face detection imaging device
  • a representative face selection unit 203 that selects a representative face image that is an image
  • a registration processing unit 207 that registers the representative face image selected by the representative face selection unit 203 in the face database 208
  • a photographed image by an imaging device for face matching Is provided with a face collating unit 210 that collates the face image included in the face image with the representative face image registered in the face database 208.
  • the representative face selection unit 203 compares a plurality of face images with a pre-registered reference face, and selects a representative face image of a person based on the similarity to the reference face. At this time, as a reference face, a face image with the eyes facing open is used. As a result, a face image that tends to have a high matching similarity by the face matching unit 210 can be selected as a representative face image, so that face matching can be performed with high accuracy.
  • the registration processing unit 207 when the registration processing unit 207 includes a face image of a person different from the person to be registered in the captured image used for the same person determination process, The group attribute estimation data including the face image is registered in the face database 208 in association with the representative face image of the person to be registered, and a plurality of persons are included in the image captured by the face matching imaging device.
  • a group attribute matching unit 211 that estimates a group attribute indicating whether or not these multiple persons are acting in a group. In addition.
  • the group attribute matching unit 211 sets the group attribute for a plurality of persons, the frequency at which each person's face image is detected from the same shot image, and the face image of each person in the shot image. Estimated based on at least one of the proximity indicating the distance between them and the intimacy indicating the relationship of the line of sight of each person in the photographed image, and the age or gender of each person estimated from the face images of the plurality of persons Based on at least one of the above, the relationship between the plurality of persons is estimated. This makes it possible to accurately identify a group of visitors who act as a plurality of people in the facility. Further, since the mutual relationship is estimated from the personal attributes of each visitor, it is possible to analyze the difference in behavior according to the type of group (for example, parent and child, grandparent and grandchild, friend, lover or couple).
  • the type of group for example, parent and child, grandparent and grandchild, friend, lover or couple.
  • the face image matching system of this example aggregates the data obtained by the group attribute matching unit 211 based on at least one of the age or sex of each person, the date / time of entry / exit for the facility, and the group attribute, A transfer processing unit 214 is further provided for transferring the resulting data.
  • a transfer processing unit 214 is further provided for transferring the resulting data.
  • the stay time of the facility may be calculated from the visit date / time and the attendance date / time of the visitor, and the behavior analysis may be performed in consideration of the stay time of the visitor (or group) to be utilized for marketing.
  • the behavior analysis may be performed in consideration of the stay time of the visitor (or group) to be utilized for marketing.
  • image pickup devices not only in the store in the facility but also in the aisles and plazas, and performing face matching of visitors, conduct behavior analysis that takes into account the flow of visitors (or groups), and marketing You may make it utilize.
  • the face image search system according to the present embodiment is an extension or modification of the above-described face image collation system, and further includes a search server 600 and an operation terminal 700 as indicated by a broken line in FIG.
  • the search server 600 searches for a face image from the face database 208 (or the matching history database 212) in the matching server 200 based on the search condition specified by the operator of the operation terminal 700, and transmits the search result to the operation terminal 700. To display and output.
  • the group attribute matching unit 211 has a group action determination function.
  • the group behavior determination function determines whether the person of the face image included in the image captured by the imaging device 100 is acting in a group or acting alone, and the information of the determination result is used as the face of the person.
  • the image is stored in the face database 208 (or the matching history database 212) in association with the image.
  • the group action determination function is realized by performing the proximity person number determination process and the always adjacent person number determination process.
  • the proximity person number determination process is performed for each image frame in the same image frame. Processing for calculating the number of face images of other persons (number of close persons) detected in an area close to the detection position of the face image of the person in the image and storing the maximum number of close persons calculated for each image frame It is.
  • the reason for obtaining the maximum value of the number of people in the vicinity is that when a face image is detected in image processing, the face image may not be detected temporarily due to changes in shooting conditions such as the influence of shielding objects and light intensity. It is.
  • the memory is secured and the maximum number of close persons is initialized (step S101). Thereafter, the following processing is performed in order from the image frame in which the determination target person is first detected. First, the number of detected face images and the detection position included in the image frame are acquired (step S102). Next, the number of face images of other persons existing in the vicinity of the face image of the determination target person in the image frame is counted (step S103). In this example, other face images existing at positions where the distance from the face image of the person to be determined in the image frame is equal to or less than a predetermined value are specified, and the number is counted as the number of adjacent persons. You may count the number of nearby people.
  • step S104 the number of close persons in the image frame counted in step S103 is compared with the maximum number of close persons.
  • step S104 the process proceeds to the maximum adjacent person number update process (step S105). Otherwise, the person area tracking process (step S106) is performed. Transition.
  • step S105 the maximum proximity person number update process (step S105) the value of the maximum proximity person number is replaced with the value of the proximity person number in the image frame and stored, and then the process proceeds to the person area tracking process (step S106).
  • the movement of the person is tracked based on the detection result of the immediately preceding or most recent frame and the detection result of the current image frame. For example, the movement of a person is tracked by comparing the position and feature amount of a face image between image frames. Thereafter, it is determined whether or not the tracking is finished (step S107).
  • a person who has finished tracking for example, a person who is out of the imaging area
  • it is determined that the tracking is finished and when there is no person who has finished tracking, the tracking is finished. Judge that there is no.
  • step S107 If it is determined in step S107 that the tracking is not completed, the process returns to step S102 and the next image frame is processed. On the other hand, if it is determined that the tracking has been completed, the maximum number of persons in close proximity related to the determination target person is determined and the value is recorded (step S108). Thereafter, processing such as releasing the secured memory is performed.
  • the constantly approaching number determination process is a process performed in addition to the approaching person number determination process (FIG. 6) when a certain person is photographed by a plurality of imaging devices.
  • it is determined whether the person photographed together with the person to be judged is a person who happened to be near the person to be judged or a person who always behaves with the person to be judged.
  • proximity person a person who always behaves with the person to be determined.
  • step S201 memory is secured (step S201).
  • step S202 the number of close persons (that is, the maximum number of close persons) recorded in the close person number determination process is acquired (step S202).
  • step S203 it is determined whether the number of close persons is 0 or more (step S203). When the number of close persons is 0, 0 is always recorded as the close person number (step S209).
  • a shooting situation search by another imaging device is performed (step S204). That is, using the feature amount of the face image of the determination target person, a captured image by another imaging device in which the determination target person is shown is searched. After that, it is determined whether there is a determination target person in the captured image by another imaging apparatus and the number of close persons may be 1 or more (step S205). That is, it is determined whether there is a captured image in which the determination target person is shown together with another person in the captured image by another imaging apparatus.
  • step S209 when a captured image in which the determination target person is shown together with another person is not found, 0 is always recorded as the number of close neighbors (step S209).
  • the feature amount of the face image of the other person included in the captured image is acquired (step S206).
  • the feature value of the face image of another person acquired is compared with the feature value of the face image of the close person detected by the close person number determination process, and there is a close person whose feature value similarity is equal to or greater than a predetermined value. It is determined whether or not to perform (step S207).
  • step S207 If it is determined in step S207 that there is a close person with a high degree of similarity, the number of close person combinations with a high degree of similarity, that is, the number of close persons that have appeared in common in a plurality of captured images from different imaging devices. Is calculated and is always recorded as the number of close neighbors (step S208).
  • the number of close neighbors In the case where there are a plurality of other imaging apparatuses that have captured a captured image in which there is a person to be determined and the number of adjacent persons is one or more, the total number of always adjacent persons calculated for each of the other imaging apparatuses Can be recorded. However, it goes without saying that it is necessary to eliminate duplication so that the same close person is not counted twice.
  • step S207 when it is determined in step S207 that there is no close person with high similarity, 0 is always recorded as the number of close persons (step S209). After recording the number of always-close neighbors in steps S208 and S209, processing such as releasing the secured memory is performed.
  • the number of constantly approaching persons calculated by the above group action determination function is stored in the face database 208 (or the matching history database 212) in association with the face image of the determination target person.
  • the search server 600 searches for a face image associated with the number of always-close neighbors that match the specification.
  • the face image search system of this example retrieves a face image based on the specified search condition from the face database 208 (or the matching history database 212) that stores the face image included in the image captured by the imaging device.
  • a face image search system for searching wherein it is determined whether or not a person of a face image included in a photographed image is acting alone, and information of the determination result is stored in the database in association with the face image of the person
  • the group attribute matching unit 211 to be operated corresponds to information on a determination result that matches the designation.
  • a search server 600 that searches the attached face image from the database is provided.
  • the face image search system of this example can be used for the purpose of switching the contents displayed on the digital signage for marketing purposes. For example, if a person who acts by multiple people comes near the digital signage, the bar at the pub is displayed on the digital signage. Can be displayed on the digital signage.
  • the face image search system of this example is based on the commonality of other persons included in the plurality of captured images. Since it is configured to determine whether or not a person is acting alone, it is possible to determine the number of persons with higher accuracy than in the case where the number of persons is determined based only on images captured by individual imaging devices.
  • the number of adjacent persons is determined using the captured image of the imaging device 100 (1) at the entrance.
  • the present invention is not limited to such a configuration, although the processing is performed and the other imaging devices 100 (2) to 100 (N) in the facility and at the entrance are further used. That is, the proximity person number determination process and the constant proximity person number determination process can be performed using an arbitrary imaging device.
  • the face image search system of this example can be applied to facilities other than entrances and entrances.
  • the face image search system of this example can be applied to facilities other than entrances and entrances.
  • person tracking between image frames or determining the commonality of persons between different imaging devices not only facial image feature quantities, but also other feature quantities such as clothing, belongings, hairstyles, etc. You may make it take into account.
  • an image database for recording images taken by the imaging device is provided, and group action determination is performed using the captured images stored in the image database. Also good.
  • the configurations of the system and apparatus according to the present invention are not necessarily limited to those described above, and various configurations may be used.
  • the configurations described in the above embodiments may be used in combination.
  • the present invention can also be provided as, for example, a method and method for executing the processing according to the present invention, a program for realizing such a method and method, and a storage medium for storing the program.
  • the present invention can be used for a face image collation system that collates face images taken at a facility having an entrance and an entrance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Databases & Information Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Collating Specific Patterns (AREA)

Abstract

施設内での来場者の行動の分析に適した顔画像照合システムを提供する。 入場口に設置された顔検知用の撮像装置100(1)と、施設内の各店舗及び出場口に設置された顔照合用の撮像装置100(2)~100(N)と、顔検知用の撮像装置による撮影画像に基づく同一人物判定処理によって同一の人物であると判定された複数の顔画像の中から、当該人物を代表する顔画像である代表顔画像を選定する代表顔選定部203と、代表顔選定部203により選定された代表顔画像を顔データベース208に登録する登録処理部207と、顔照合用の撮像装置による撮影画像に含まれる顔画像を顔データベース208に登録された代表顔画像と照合する顔照合部210とを備える。

Description

顔画像照合システムおよび顔画像検索システム
 本発明は、入場口及び出場口を有する施設で撮影された顔画像を照合する顔画像照合システム、および指定された検索条件に基づいて顔画像を検索する顔画像検索システムに関する。
 従来から、ホテル、ビル、コンビニエンスストア、金融機関、ダムや道路といった不特定多数の人が訪れる施設には、犯罪防止や事故防止等の目的で、映像監視システムが設置されている。これは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送し、常駐する監視者がそれを監視し、目的や必要に応じて注意する、あるいは映像を記録するものである。
 映像監視システムにおいて、映像を記録するための記録媒体には、従来のビデオテープ媒体から、ハードディスクドライブ(HDD)に代表されるランダムアクセス媒体が用いられる事例が増えている。さらに近年ではこのような記録媒体の大容量化が進んでいる。
 記録媒体の大容量化は、記録できる映像の量を飛躍的に増大させ、より多地点や長時間の記録を可能にしつつある反面、記録画像を目視でチェックする負担の増加が問題として顕在化しつつある。
 このような背景から、所望の映像をより簡単に見つけ出すための検索機能を備える映像監視システムが普及しつつある。特に、近年では、映像中の特定の事象(イベント)の発生を画像認識技術を用いてリアルタイムに自動検知して映像とともに記録し、事後にそれらのイベントを検索可能とする、より高度な検索機能を備えたシステムが登場しつつある。その中の代表的な一つに人物検索機能がある。
 人物検索機能とは、映像中への人物の登場を自動検知の対象とし、リアルタイムに記録し、事後に録画画像中から人物登場画像を探し出せる機能である。機能面から人物検索機能は、以下の2種類に大別される。
 一つ目は、登場イベント検索機能である。登場イベント検索機能は、映像中への人物の登場(イベント)の有無を、単純に探し出す機能である。検索結果としては、イベントの有無に加え、イベント有と判定された場合には、そのイベント数と各イベントの発生時刻やイベントを撮影した撮像装置番号、撮影した画像(人物登場画像)等が提示される。なお、この検索条件(検索クエリ)には、イベント発生時刻や撮像装置番号等の検索対象範囲を絞り込むための情報として与える場合が多い。この検索対象範囲を絞り込むための情報は、絞り込みパラメータと称される。
 二つ目は、類似人物検索機能である。上述の登場イベント検索機能が、登場人物を特定しない検索であるのに対し、こちらはユーザが指定する特定人物が、他の時間、あるいは他の地点の撮像装置で撮影されていないかどうかを、録画画像中から探し出す機能である。検索結果としては、特定人物が映った他の画像の有無に加え、有の場合には、その数と撮影時刻、撮像装置番号、撮影した画像(人物登場画像)、類似度等が提示される。
 特定人物の指定は、探したい人物が映った画像(以降、検索キー画像)をユーザが1つ指定することで実施される。検索キー画像は、録画画像や外部装置にある任意の画像から指定される。検索は、この検索キー画像中の人物の画像特徴量を画像認識技術により抽出し、録画画像中の人物の画像特徴量と照合し、その類似性(類似度)を求め、同一人物判定を実施することにより実現される。録画画像中の人物特徴量の抽出と記録は、映像録画時等の別タイミングにて予め実施しておく。この検索条件においても、絞り込みパラメータを与えることが可能である場合が多い。
 このような映像監視システムに関し、従来より種々の発明が提案されている。
 特許文献1には、時刻と類似度のような2元の情報について、その大小関係や前後関係を視覚的に同時に把握できるようにする発明が開示されている。
 特許文献2には、複数の画像を検索条件として登録することで、対象の向きや撮影角度の違いによる検索見逃しを少なくし、対象検索人物の映った画像をより多く得ることができるようにする発明が開示されている。
 特許文献3には、類似画像検索の結果から、多数の画像を選択して、一度にキーワードを付与できるようにする発明が開示されている。
特開2009-301501号公報 特開2011-048668号公報 特開2012-242878号公報
 従来、ショッピングセンターやアミューズメントパークなどの各種の施設に訪れた来場者が施設内をどのように行動しているかを分析して、マーケティングに活かす試みが行われている。これまでは、施設の各所に配した人員が来場者をカウントするような、人力に頼った手法が主に用いられており、その改善が求められていた。
 本発明は、上記のような従来の事情に鑑みて為されたものであり、施設内での来場者の行動の分析に適した顔画像照合システムを提供することを第1の目的とする。
 また、絞り込みパラメータによって、一人で映っているのか、複数人で映っているのかを指定して検索したい場合がある。例えば、ほとんどの人が複数人で利用する遊園地などの施設では、一人で施設を利用しようとする人の手荷物検査を入念に行う運用をして、園内での犯罪の抑止に努めている。これは園内で発生する置き引き等の犯罪が主に一人で実行されるためである。一方で、空港や重要施設で引き起こされる組織的なテロ等は複数人によって実行されることが多いため、複数人で行動する人物に注意を払う必要がある。従来の顔画像検索システムでは撮影映像を目視で判断するしかなかく、監視者の負担となっていた。
 本発明は、上記のような従来の事情に鑑みて為されたものであり、一人で映っているのか、複数人で映っているのかを指定して検索することが可能な顔画像検索システムを提供することを第2の目的とする。
 本発明では、上記第1の目的を達成するために、顔画像照合システムを以下のように構成した。
 すなわち、入場口及び出場口を有する施設で撮影された顔画像を照合する顔画像照合システムにおいて、前記入場口に設置された第1の撮像装置と、前記施設内及び前記出場口に設置された第2の撮像装置と、前記第1の撮像装置による撮影画像に基づく同一人物判定処理によって同一の人物であると判定された複数の顔画像の中から、前記人物を代表する顔画像である代表顔画像を選定する選定手段と、前記選定手段により選定された代表顔画像をデータベースに登録する登録手段と、前記第2の撮像装置による撮影画像に含まれる顔画像を前記データベースに登録された代表顔画像と照合する照合手段と、を備える。
 このような構成によれば、施設の入場口に設置された撮像装置で得られた代表顔画像を用いて、施設内及び出場口に設置された撮像装置で得られた顔画像を照合できるので、施設内での来場者の行動を分析するのに有効である。
 ここで、一構成例として、前記選定手段は、前記複数の顔画像を予め登録された基準顔と比較し、前記基準顔との類似度に基づいて前記人物の代表顔画像を選定し、前記基準顔として、正面を向いて目を開いた顔画像を用いる構成としてもよい。
 また、一構成例として、前記登録手段は、前記同一人物判定処理に使用された撮影画像に前記人物とは別の人物の顔画像が含まれる場合に、前記別の人物の顔画像を含むグループ属性推定用データを前記人物の代表顔画像に対応付けて前記データベースに登録し、前記顔画像照合システムは、前記第2の撮像装置による撮影画像に複数の人物の顔画像が含まれる場合に、前記データベースに登録されたグループ属性推定用データに基づいて、前記複数の人物はグループで行動しているか否かを示すグループ属性を推定するグループ属性推定手段を更に備える構成としてもよい。
 また、前記グループ属性推定手段は、前記複数の人物についてのグループ属性を、各人物の顔画像が同じ撮影画像から検出される頻度、撮影画像における各人物の顔画像間の距離を示す近接度、撮影画像における各人物の視線の関係を示す親密度の少なくともいずれかに基づいて推定し、更に、前記複数の人物の顔画像から推定される各人物の年齢又は性別の少なくともいずれかに基づいて、前記複数の人物の関係性を推定する構成としてもよい。
 また、前記グループ属性推定手段で得られたデータを、各人物の年齢又は性別、前記施設に対する入場日時又は出場日時、グループ属性の少なくともいずれかに基づいて集計する集計手段を更に備える構成としてもよい。
 本発明では、上記第2の目的を達成するために、顔画像検索システムを以下のように構成した。
 すなわち、撮像装置による撮影画像に含まれる顔画像を記憶するデータベースから、指定された検索条件に基づいて顔画像を検索する顔画像検索システムにおいて、前記撮影画像に含まれる顔画像の人物が一人で行動しているか否かを判定し、判定結果の情報を該人物の顔画像に対応付けて前記データベースに記憶させる判定手段と、前記検索条件として、一人で行動している人物の検索または複数人で行動している人物の検索が指定された場合に、該指定に合致する判定結果の情報が対応付けられた顔画像を前記データベースから検索する検索手段と、を備えたことを特徴とする。
 ここで、一構成例として、前記判定手段は、異なる撮像装置による複数の撮像画像に同一の人物が含まれる場合に、前記複数の撮影画像に含まれる他の人物の共通性に基づいて、前記同一の人物が一人で行動しているか否かを判定する構成としてもよい。
 本発明によれば、施設内での来場者の行動の分析に適した顔画像照合システムを提供することができる。また、一人で映っているのか、複数人で映っているのかを指定して検索することが可能な顔画像検索システムを提供することができる。
本発明の一実施形態に係る顔画像照合システムの概略構成の例を示す図である。 図1の顔画像照合システムが適用される施設の概要を示す図である。 図1の顔画像照合システムにおける照合サーバの機能ブロックの例を示す図である。 図1の顔画像照合システムの運用例を示す図である。 図1の顔画像照合システムによる処理結果のデータ例を示す図である。 本発明の別の実施形態に係る顔画像検索システムにおける近接人物数判定の処理フローを示す図である。 本発明の別の実施形態に係る顔画像検索システムにおける常時近接者数判定の処理フローを示す図である。
 本発明の一実施形態に係る顔画像照合システムについて、図面を参照して説明する。
 図1には、本発明の一実施形態に係る顔画像照合システムの概略構成の例を示してある。また、図2には、図1の顔画像照合システムが適用される施設の概要を示してある。図2の例では、施設内に店A~店Gの各店舗があり、施設内に入場した人物が店A、店F、店C、店G、店Eを経由して施設から出場する様子を示してある。
 本例の顔画像照合システムは、複数であるN台の撮像装置100(1)~100(N)と、照合サーバ200と、保守PC300と、ネットワークスイッチ400と、集計サーバ500とを備えている。
 撮像装置100(1)~100(N)は、入場口、施設内の各店舗、出場口の各所に設置されている。入場口に設置される撮像装置100(1)は、顔検知用の撮像装置である。また、施設内の各店舗に設置される撮像装置100(2)~100(N-1)、及び、出場口に設置される撮像装置100(N)は、顔照合用の撮像装置である。各々の撮像装置100は、IPカメラ(ネットワークカメラ)等で構成され、撮像により得られた撮影画像をデジタル変換し、ネットワークスイッチ400を介して照合サーバ200へ送信する。
 照合サーバ200は、撮像装置100からネットワークスイッチ400を介して受信した撮影画像を蓄積し、顔検知、代表顔選定、人物属性判定、顔照合、グループ属性照合等の各種の処理を行う。
 保守PC300は、ネットワークスイッチ400を介して照合サーバ200に接続され、照合サーバ200の保守に用いられる。
 集計サーバ500は、ネットワークスイッチ400及びWAN回線を介して照合サーバ200に接続され、照合サーバ200から送信される出力データを受信して集計処理を行う。
 図3には、照合サーバ200の機能ブロックの例を示してある。
 照合サーバ200は、顔検知部201、同一人物判定部202、代表顔選定部203、フォーマット変換部204、属性判定部205、ID付与人物情報生成部206、登録処理部207、顔データベース208、顔照合部210、グループ属性照合部211、照合履歴データベース212、転送処理部214の各機能部を備えている。
 顔検知部201は、入場口にある撮像装置100(1)により得られた撮影画像(以下、「検知用画像」という)から顔画像を検知する。具体的には、例えば、検知用画像を解析して顔が映った領域を検知し、該領域の画像データを顔画像として抽出する。顔画像の検知は、時系列的に連続した画像フレーム毎(又は所定数の画像フレーム毎)に行われる。したがって、入場口を通過する人物毎に複数枚の顔画像が得られることになる。
 同一人物判定部202は、顔検知部201で検知された顔画像について、同一人物判定処理を行う。具体的には、例えば、画像フレームにおける顔画像の位置を画像フレーム間で比較しながら撮像エリア内における人物の動きを追跡し、同一であると判定された人物毎に顔画像をグループ化する。
 代表顔選定部203は、同一人物判定部202で同一の人物であると判定された複数の顔画像の中から、当該人物を代表する顔画像である代表顔画像を選定する。本例では、従来のように顔検知サイズの大きいものを代表顔画像として選定するのではなく、予め登録された基準顔との類似度に基づいて代表顔画像を選定する。具体的には、同一の人物であると判定された複数の顔画像を基準顔と比較して、顔画像毎に基準顔との類似度を算出し、類似度が最も高いものを代表顔画像として選定する。なお、類似度が高い順に所定数を代表顔画像として選定してもよい。
 基準顔としては、正面を向いて目を開いた顔画像が用いられる。これにより、後続の顔照合における照合類似度が高い傾向となるような顔画像を代表顔画像に選定することができる。言い換えれば、目を閉じている顔画像や、俯きや横を向いている顔画像など、照合類似度が低くなることを事前に予想できる顔画像が代表顔画像に選定されることを防ぐことができる。本例では、男性(眼鏡着用)、男性(眼鏡非着用)、女性(眼鏡着用)、女性(眼鏡非着用)の4パターンの基準顔を用いているが、年齢層や髪型等を考慮して基準顔のパターン数を増やしてもよい。
 フォーマット変換部204は、顔検知部201で検知された顔画像を、属性判定部205における人物属性判定処理に適したフォーマットに変換する。
 属性判定部205は、フォーマット変換部204で変換された顔画像に基づいて、代表顔選定部203で選定された代表顔画像に代表される人物について人物属性を判定する人物属性判定処理を行う。人物属性としては、例えば、人物の年齢や性別が挙げられる。
 ID付与人物情報生成部206は、代表顔選定部203で選定された代表顔画像や属性判定部205で判定された人物属性に対応付ける人物IDを発行する。人物IDは、施設に来場した各人物を一意に識別する情報である。
 登録処理部207は、ID付与人物情報生成部206で発行された人物IDを対応付けて、当該人物について得られた代表顔画像や人物属性を顔データベース208に登録する。登録処理部207は更に、グループ属性推定に使用されるグループ属性推定用データを生成し、グループIDを対応付けて顔データベース208に登録する。グループIDは、一緒に行動する複数の人物をまとめた各グループを一意に識別する情報であり、人物IDと紐付けられる。
 グループ属性推定用データには、登録対象の人物(顔データベース208に代表顔画像等を登録する人物)についての同一人物判定処理に使用された検知用画像に含まれる別の人物の顔画像が含まれる。また、登録対象の人物と前記別の人物とについて検出頻度、近接度、親密度を判定するための情報も、グループ属性推定用データに含まれる。
 顔データベース208は、人物IDにより識別される人物毎に、代表顔画像、人物属性(年齢や性別)、グループIDを保持する。また、顔データベース208は、グループIDにより識別されるグループ毎に、グループ属性推定用データを保持する。
 顔照合部210は、施設内の各店舗及び出場口にある撮像装置100(2)~100(N)により得られた撮影画像(以下、「照合用画像」という)について、顔データベース208に登録されている代表顔画像と照合する。顔照合は、例えば、LFM(Live Face Matching)等の技術を用いて行うことができる。顔照合部210は、照合用画像に代表顔画像と同じ人物が映っていると判定した場合には、その結果を照合履歴データベース212に登録する。これにより、代表顔画像の人物が、施設内をどのように行動したか(どの店舗に訪れたか)を特定できる。また、照合用画像が撮影された時刻情報も併せて照合履歴データベース212に登録することで、代表顔画像の人物が施設内の各店舗に入店した時刻も特定できるようになる。なお、店舗の入口と出口に撮像装置を設ければ、店舗から出店した時刻や店舗内の滞在時間も特定できるようになる。
 グループ属性照合部211は、施設内の各店舗及び出場口にある撮像装置100(2)~100(N)により得られた照合用画像について、顔データベース208に登録されているグループ属性推定用データを用いてグループ属性推定を行う。すなわち、照合用画像に複数の人物が映っている場合(複数の顔画像が含まれる場合)に、これらの人物がグループで行動しているか否かを示すグループ属性を推定し、その結果を照合履歴データベース212に登録する。グループ属性推定には、Enra-Enra等の類似判定技術が使用される。
 グループ属性を推定する手法としては、一例として、以下のような手法が挙げられる。(1)各人物の顔画像が同じ元画像から検出される頻度が基準値より高い場合に、グループ属性=“有”(グループで行動している)と判断し、そうでない場合に、グループ属性=“無”(単独で行動している)と判断する。(2)元画像における各人物の顔画像間の距離を示す近接度が基準値より高い場合に、グループ属性=“有”と判断し、そうでない場合に、グループ属性=“無”と判断する。(3)元画像における各人物の視線の関係(どの人物を見ているか)を示す親密度が基準値より高い場合に、グループ属性=“有”と判断し、そうでない場合に、グループ属性=“無”と判断する。
 なお、「元画像」は、照合用画像でもよく、検知用画像でもよく、両方でもよい。また、これら(1)~(3)の手法の組み合わせによりグループ属性の推定を行うこともできる。
 グループ属性照合部211は更に、グループで行動していると判定された複数の人物について、各々の人物の顔画像の分析結果に基づいて、これら人物の関係性を推定する。すなわち、各人物の人物属性(年齢や性別)に基づいて、例えば、年齢差が20歳以上であれば親子の関係、年齢差が50歳以上であれば祖父母と孫の関係、年齢差が10歳未満の男女であれば恋人又は夫婦の関係であると推定し、その結果を照合履歴データベース212に登録する。
 転送処理部214は、照合履歴データベース212に登録されているデータ(顔照合部210及びグループ属性照合部211による処理結果)を集計し、集計結果のデータを集計サーバ500や保守PC300へ転送する。集計は、例えば、各人物の年齢又は性別毎、施設に対する入場日時又は出場日時毎、グループ属性毎、これらの幾つかの組み合わせ毎など、種々の条件に基づいて行うことができる。
 図4には、本例の顔画像照合システムの運用例を示してある。
 照合サーバ200における処理は、店舗開店期間(本例では、9:00~21:00)に行われるリアルタイム(オンライン)処理と、店舗閉店期間(本例では、21:00~9:00)に行われるオフライン処理とに大別される。
 リアルタイム処理では、主に、以下のようなデータ収集処理が行われる。
 施設に人物が入場した際に、入場口にあるカメラで撮影された検知用画像に基づいて、施設に人物が入場したことを検知する。すなわち、検知用画像から得られた複数の顔画像の中から代表顔画像を選定して、顔データベース208に登録する。このとき、検知日時(検知用画像の撮影日時)、人物ID、入場場所(カメラの設置場所の情報)、人物属性1(年齢)、人物属性2(性別)などの情報も併せて登録する。また、検知用画像に基づいて、グループ属性推定用の前処理を行う。この前処理により、検知日時(検知用画像の撮影日時)、グループID(検知用画像に含まれる複数の人物に共通)、入場場所(カメラの設置場所の情報)、グループ属性推定用データなどの情報が顔データベース208に登録される。
 その後、人物が店舗に訪れる毎に、その店舗にあるカメラで撮影された照合用画像に基づいて、店舗に人物が訪れたことを検知する。また、人物が施設から出場すると、出場口にあるカメラで撮影された照合用画像に基づいて、施設から人物が出場したことを検知する。これらのタイミングで、照合用画像に含まれる顔画像に基づいて、顔データベース208に登録された代表顔画像との照合や、検知頻度・近接度・親密度等に基づくグループ属性推定などを行い、その結果を照合履歴データベース212に記録する。
 オフライン処理では、主に、以下のような集計・転送処理及びデータベース更新処理が行われる。これらの処理は、事前にスケジュールされた時刻が到来したことを契機に、自動的に起動される。
 集計処理は、照合履歴データベース212に登録されているデータを集計して出力ファイル(例えば、CSV形式のデータ)を生成する。
 転送処理は、集計処理で作成した出力ファイルを集計サーバ500へ転送する。
 データベース更新処理は、各データベース(顔データベース208や照合履歴データベース212)の内容を更新する。
 図5には、本例の顔画像照合システムによる処理結果のデータ例を示してある。
 このデータ例では、人物1(女性)と人物2(男性)がグループである(グループ属性=“有”)と判断されており、互いの年齢差より親子関係にあると判断されている。また、人物3(女性)と人物4(男性)がグループである(グループ属性=“有”)と判断されており、互いの年齢差より友人又は恋人関係にあると判断されている。一方、人物5(女性)は単独で行動している(グループ属性=“無”)と判断されておいる。更に、このデータ例には、各人物(或いはグループ)が、施設に入場した時刻、訪れた店舗及びその時刻、施設から出場した時刻も記録されている。
 このように、本例の顔画像照合システムによって、各人物が施設内をどのように行動しているかを分析できるだけでなく、グループで行動しているか否かを判定することができ、グループで行動している場合には、グループとしての行動も分析することができる等の他の観点についても分析できることが分かる。
 以上のように、本例の顔画像照合システムは、入場口に設置された顔検知用の撮像装置100(1)と、施設内の各店舗及び出場口に設置された顔照合用の撮像装置100(2)~100(N)と、顔検知用の撮像装置による撮影画像に基づく同一人物判定処理によって同一の人物であると判定された複数の顔画像の中から、当該人物を代表する顔画像である代表顔画像を選定する代表顔選定部203と、代表顔選定部203により選定された代表顔画像を顔データベース208に登録する登録処理部207と、顔照合用の撮像装置による撮影画像に含まれる顔画像を顔データベース208に登録された代表顔画像と照合する顔照合部210とを備えた構成となっている。
 これにより、従来のように施設の各所に配置された人員が来場者をカウントすることを要せずに、来場者が施設内をどのように行動しているかを分析することができ、その結果を活かしたマーケティングを行えるようになる。しかも、来場者の人物属性(年齢や性別)を顔画像から自動的に判別して代表顔画像に対応付けて登録できるので、施設各所の人員が来場者の人物属性を区別しながらカウントする必要がない。
 また、本例の顔画像照合システムは、代表顔選定部203が、複数の顔画像を予め登録された基準顔と比較し、基準顔との類似度に基づいて人物の代表顔画像を選定し、このとき、基準顔として、正面を向いて目を開いた顔画像を用いる構成となっている。
 これにより、顔照合部210による照合類似度が高い傾向にある顔画像を代表顔画像に選定できるので、顔照合を精度よく行えるようになる。
 また、本例の顔画像照合システムは、登録処理部207が、同一人物判定処理に使用された撮影画像に登録対象の人物とは別の人物の顔画像が含まれる場合に、別の人物の顔画像を含むグループ属性推定用データを登録対象の人物の代表顔画像に対応付けて顔データベース208に登録する構成となっており、更に、顔照合用の撮像装置による撮影画像に複数の人物の顔画像が含まれる場合に、顔データベース208に登録されたグループ属性推定用データに基づいて、これら複数の人物はグループで行動しているか否かを示すグループ属性を推定するグループ属性照合部211を更に備えている。
 これにより、施設内に一緒に入場した来場者達をグループの可能性があるとして予め登録しておくことができ、また、その後の行動の共通性に基づいて実際にグループでどのように行動しているかを把握できるようになる。その結果、来場者達のグループが施設内をどのように行動しているかを分析することができ、その結果を活かしたマーケティングを行えるようになる。
 また、本例の顔画像照合システムは、グループ属性照合部211が、複数の人物についてのグループ属性を、各人物の顔画像が同じ撮影画像から検出される頻度、撮影画像における各人物の顔画像間の距離を示す近接度、撮影画像における各人物の視線の関係を示す親密度の少なくともいずれかに基づいて推定し、更に、これら複数の人物の顔画像から推定される各人物の年齢又は性別の少なくともいずれかに基づいて、これら複数の人物の関係性を推定する構成となっている。
 これにより、施設内を複数人で行動する来場者達のグループを精度よく特定できるようになる。また、各来場者の人物属性から互いの関係性を推定するので、グループの種類(例えば、親子、祖父母と孫、友人、恋人又は夫婦等)に応じた行動の違いも分析できるようになる。
 また、本例の顔画像照合システムは、グループ属性照合部211で得られたデータを、各人物の年齢又は性別、施設に対する入場日時又は出場日時、グループ属性の少なくともいずれかに基づいて集計し、その結果のデータを転送する転送処理部214を更に備えている。
 これにより、来場者達の各人物についての分析のみならず、各グループについて得られた各種の情報を、種々の観点から分析できるようになり、どのような人物で構成されたグループが、いつ、どこで、何をしたのかを分析することにより、各人物だけなく、特定の属性グループへ向けたマーケティングに活用することができる。
 ここで、例えば、来場者の入場日時と出場日時から施設の滞在時間を算出し、来場者(或いはグループ)の滞在時間を加味した行動分析を行って、マーケティングに活用するようにしてもよい。
 また、施設内の店舗だけでなく通路や広場にも撮像装置を設置して来場者の顔照合を行うことで、来場者(或いはグループ)の動線を加味した行動分析を行って、マーケティングに活用するようにしてもよい。
 これまでの説明では、施設の入場口及び出場口が1つの場合を例にしているが、入場口及び出場口はそれぞれ複数であってもよいことは言うまでもない。また、入場口と出場口は別々である必要は無く、これらを兼用した入出場口があってもよい。この場合には、施設の外側に向けた撮像装置と、施設の内側に向けた撮像装置とを入出場口に設置しておけばよい。
 次に、本発明の別の実施形態に係る顔画像検索システムについて説明する。本実施形態に係る顔画像検索システムは、上述した顔画像照合システムを拡張または変形したものであり、図3に破線で示すように、検索サーバ600および操作端末700を更に備えている。検索サーバ600は、操作端末700の操作者により指定された検索条件に基づいて照合サーバ200内の顔データベース208(または照合履歴データベース212)から顔画像を検索し、検索結果を操作端末700に送信して表示出力させる処理を行う。
 本実施形態に係る顔画像検索システムでは、グループ属性照合部211に、グループ行動判定機能を持たせている。グループ行動判定機能は、撮像装置100による撮像画像に含まれる顔画像の人物が、グループで行動しているのか、それとも一人で行動しているのかを判定し、判定結果の情報を該人物の顔画像に対応付けて顔データベース208(または照合履歴データベース212)に記憶させるものである。本例では、グループ行動判定機能を、近接人物数判定処理と、常時近接者数判定処理とを行うことで実現している。
 近接人物数判定処理は、一つの撮像装置の撮影範囲において、歩行中である人物の顔画像が複数の画像フレーム(撮影画像)にわたって検出された場合に、それぞれの画像フレームについて、同じ画像フレーム中における当該人物の顔画像の検出位置に近接する領域で検出された他の人物の顔画像の数(近接人物数)を算出し、画像フレーム毎に算出した近接人物数の最大値を保存する処理である。近接人物数の最大値を求める理由は、画像処理において顔画像を検出する場合、遮蔽物の影響や光の加減等の撮影条件の変化により、一時的に顔画像の検出ができない場合があるためである。
 近接人物数判定処理について、図6の処理フローを参照して説明する。
 最初に、メモリの確保や最大近接人物数の初期化を行う(ステップS101)。その後、判定対象人物が最初に検出された画像フレームから順に、以下の処理を行う。
 まず、画像フレームに含まれる顔画像の検出数や検出位置などを取得する(ステップS102)。
 次に、画像フレームにおいて判定対象人物の顔画像の近辺に存在する他の人物の顔画像の数をカウントする(ステップS103)。本例では、画像フレームにおける判定対象人物の顔画像との距離が所定値以下の位置に存在する他の顔画像を特定し、その数を近接人物数としてカウントしているが、他の手法により近接人物数のカウントを行っても構わない。
 次に、ステップS103でカウントした当該画像フレームでの近接人物数と最大近接人物数とを比較する(ステップS104)。その結果、当該画像フレームでの近接人物数の方が多いと判定された場合は、最大近接人物数更新処理(ステップS105)に遷移し、そうでない場合は、人物領域追跡処理(ステップS106)に遷移する。
 最大近接人物数更新処理(ステップS105)では、最大近接人物数の値を当該画像フレームでの近接人物数の値に置き換えて保存し、その後、人物領域追跡処理(ステップS106)に遷移する。
 人物領域追跡処理(ステップS106)では、直前あるいは直近数フレームの検出結果と、現在の画像フレームの検出結果とに基づいて、人物の動きを追跡する。例えば、顔画像の位置や特徴量を画像フレーム間で比較することで、人物の動きの追跡を行う。
 その後、追跡が終了しているか否かを判定する(ステップS107)。ここでは、追跡が終了した人物(例えば、撮像エリアから外れた人物)が存在する場合に、追跡が終了していると判定し、追跡が終了した人物が存在しない場合に、追跡が終了していないと判定する。
 ステップS107の人物追跡判定で、追跡が終了していないと判定された場合は、ステップS102に戻り、次の画像フレームについての処理を行う。一方、追跡が終了したと判定された場合は、判定対象人物に関する最大近接人物数を確定し、その値を記録する(ステップS108)。その後、確保したメモリの解放等の処理を行う。
 常時近接者数判定処理は、ある人物が複数の撮像装置によって撮影された場合において、近接人物数判定処理(図6)に追加して実施される処理である。常時近接者数判定処理では、判定対象人物とともに撮影された人物が、たまたま判定対象人物の近くにいた人物か、判定対象人物と常に行動を共にしている人物かを判定し、常に行動を共にしている人物の数を常時近接者数として保存する。
 以降では、たまたま判定対象人物の近くにいた人物を単に「近接人物」と記載し、判定対象人物と常に行動を共にしている人物を「常時近接人物」と記載する。
 常時近接者数判定処理について、図7の処理フローを参照して説明する。
 最初に、メモリの確保などを行う(ステップS201)。
 次に、近接人物数判定処理で記録された近接人物数(すなわち、最大近接人物数)を取得する(ステップS202)。
 次に、近接人物数が0か1以上かを判定し(ステップS203)、近接人物数が0の場合には、常時近接者数に0を記録する(ステップS209)。
 一方、近接人物数が1以上の場合には、他の撮像装置による撮影状況の検索を行う(ステップS204)。すなわち、判定対象人物の顔画像の特徴量を用いて、判定対象人物が映っている他の撮像装置による撮像画像を検索する。
 その後、他の撮像装置による撮像画像に、判定対象人物が存在し且つ近接人物数が1以上である場合があるかを判定する(ステップS205)。すなわち、他の撮像装置による撮像画像の中に、判定対象人物が他の人物とともに映った撮像画像があるかを判定する。
 その結果、判定対象人物が他の人物とともに映った撮像画像が見つからなかった場合には、常時近接者数に0を記録する(ステップS209)。
 一方、判定対象人物が他の人物とともに映った撮像画像が見つかった場合には、その撮像画像に含まれる他の人物の顔画像の特徴量を取得する(ステップS206)。
 その後、取得した他の人物の顔画像の特徴量を、近接人物数判定処理で検出された近接人物の顔画像の特徴量と比較し、特徴量の類似度が所定値以上の近接人物が存在するか否かを判定する(ステップS207)。
 ステップS207で類似度の高い近接人物が存在すると判定された場合には、類似度の高い近接人物の組み合わせの数、すなわち、異なる撮像装置による複数の撮像画像に共通して出現した近接人物の数を算出し、常時近接者数として記録する(ステップS208)。ここで、判定対象人物が存在し且つ近接人物数が1以上の撮影画像を撮影した他の撮像装置が、複数ある場合には、それら他の撮像装置のそれぞれについて算出した常時近接者数の合計を記録すればよい。ただし、同じ近接人物が2重にカウントされないように重複を排除する必要があることは言うまでもない。
 一方、ステップS207で類似度の高い近接人物が存在しないと判定された場合には、常時近接者数に0を記録する(ステップS209)。
 ステップS208,S209における常時近接者数の記録後は、確保したメモリの解放等の処理を行う。
 上記のグループ行動判定機能によって算出された常時近接者数は、判定対象人物の顔画像に対応付けて顔データベース208(または照合履歴データベース212)に記憶される。そして、操作端末700の操作者により単独行動または複数人行動を指定した検索条件が設定された場合に、その指定に合致する常時近接者数が対応付けられた顔画像の検索が検索サーバ600によって行われ、検索結果が操作端末700に表示出力される。すなわち、単独行動が指定された場合には、常時近接者数=0の人物の顔画像が検索され、複数人行動が指定された場合には常時近接者数≧1の人物の顔画像が検索される。
 以上のように、本例の顔画像検索システムは、撮像装置による撮影画像に含まれる顔画像を記憶する顔データベース208(または照合履歴データベース212)から、指定された検索条件に基づいて顔画像を検索する顔画像検索システムであり、撮影画像に含まれる顔画像の人物が一人で行動しているか否かを判定し、判定結果の情報を該人物の顔画像に対応付けて上記のデータベースに記憶させるグループ属性照合部211と、検索条件として、一人で行動している人物の検索または複数人で行動している人物の検索が指定された場合に、該指定に合致する判定結果の情報が対応付けられた顔画像を上記データベースから検索する検索サーバ600とを備えた構成となっている。
 これにより、一人で映っているのか、複数人で映っているのかを指定して検索することが可能となり、ユーザにとって利便性の高いものとなる。具体例を挙げれば、一人で行われる犯罪や複数で行われる犯罪に絞った調査を行う場合に有効である。すなわち、従来の顔画像検索システムでは撮影映像を目視で判断するしかなかったが、本例の顔画像検索システムでは行動人数を絞り込んで検索できるので、調査の効率を大幅に高めることができる。
 また、本例の顔画像検索システムは、マーケティングの用途でデジタルサイネージに表示する内容を切り替えるような目的にも利用可能である。例えば、複数人で行動する人物がデジタルサイネージの近くに来た場合に、居酒屋の宴会コースをデジタルサイネージに表示させ、一人で行動する人物がデジタルサイネージの近くに来た場合に、カウンターのみのバーをデジタルサイネージに表示させるようなことも行える。
 ここで、本例の顔画像検索システムは、異なる撮像装置による複数の撮像画像に同一の人物が含まれる場合に、これら複数の撮影画像に含まれる他の人物の共通性に基づいて、同一の人物が一人で行動しているか否かを判定する構成となっているので、個々の撮像装置による撮影映像だけで行動人数を判定する場合に比べ、精度良く行動人数を判定することができる。
 なお、本例の顔画像検索システムでは、撮影画像に含まれる顔画像の人物が一人で行動しているか否かの判定結果の情報として、常時近接者数を用いているので、行動人数を指定した検索にも対応することができる。すなわち、行動人数を指定した検索の場合には、常時近接者数=(行動人数-1)の人物の顔画像を検索すればよい。また、行動人数を指定した検索を更に拡張し、行動人数を範囲指定できるようにしてもよい。
 また、本例の顔画像検索システムでは、複数人で行動する人達は一緒に入場する傾向が高いことに鑑みて、入場口にある撮像装置100(1)の撮影画像を用いて近接人物数判定処理を行い、施設内及び出場口にある他の撮像装置100(2)~100(N)を更に用いて常時近接者数判定処理を行っているが、このような構成に限定されない。すなわち、近接人物数判定処理および常時近接者数判定処理は、任意の撮像装置を用いて行うことができる。
 また、本例の顔画像検索システムは、入場口や出場口がある施設以外にも適用できることは言うまでもない。また、画像フレーム間での人物追跡や、異なる撮像装置間での人物の共通性の判定などを行う際に、顔画像の特徴量だけでなく、服装、持ち物、髪型等の他の特徴量を加味するようにしてもよい。また、顔データベース208や照合履歴データベース212に代えて(又はこれらとともに)、撮像装置による撮像画像を記録する画像データベースを備え、画像データベースに蓄積されている撮影画像を用いてグループ行動判定を行ってもよい。
 なお、本発明に係るシステムや装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。例えば、上記の各実施形態で説明した構成を組み合わせて用いてもよい。
 また、本発明は、例えば、本発明に係る処理を実行する方法や方式、そのような方法や方式を実現するためのプログラム、そのプログラムを記憶する記憶媒体などとして提供することも可能である。
 本発明は、入場口及び出場口を有する施設で撮影された顔画像を照合する顔画像照合システムに利用することができる。
 100(1)~100(N):撮像装置、 200:照合サーバ、 300:保守PC、 400:ネットワークスイッチ、 500:集計サーバ、 600:検索サーバ、 700:操作端末、
 201:顔検知部、 202:同一人物判定部、 203:代表顔選定部、 204:フォーマット変換部、 205:属性判定部、206:ID付与人物情報生成部、 207:登録処理部、 208:顔データベース、 210:顔照合部、 211:グループ属性照合部、 212:照合履歴データベース、 214:転送処理部

Claims (10)

  1.  入場口及び出場口を有する施設で撮影された顔画像を照合する顔画像照合システムにおいて、
     前記入場口に設置された第1の撮像装置と、
     前記施設内及び前記出場口に設置された第2の撮像装置と、
     前記第1の撮像装置による撮影画像に基づく同一人物判定処理によって同一の人物であると判定された複数の顔画像の中から、前記人物を代表する顔画像である代表顔画像を選定する選定手段と、
     前記選定手段により選定された代表顔画像をデータベースに登録する登録手段と、
     前記第2の撮像装置による撮影画像に含まれる顔画像を前記データベースに登録された代表顔画像と照合する照合手段と、
     を備えたことを特徴とする顔画像照合システム。
  2.  請求項1に記載の顔画像照合システムにおいて、
     前記選定手段は、前記複数の顔画像を予め登録された基準顔と比較し、前記基準顔との類似度に基づいて前記人物の代表顔画像を選定し、
     前記基準顔として、正面を向いて目を開いた顔画像を用いることを特徴とする顔画像照合システム。
  3.  請求項1に記載の顔画像照合システムにおいて、
     前記登録手段は、前記同一人物判定処理に使用された撮影画像に前記人物とは別の人物の顔画像が含まれる場合に、前記別の人物の顔画像を含むグループ属性推定用データを前記人物の代表顔画像に対応付けて前記データベースに登録し、
     前記顔画像照合システムは、前記第2の撮像装置による撮影画像に複数の人物の顔画像が含まれる場合に、前記データベースに登録されたグループ属性推定用データに基づいて、前記複数の人物はグループで行動しているか否かを示すグループ属性を推定するグループ属性推定手段を更に備えたことを特徴とする顔画像照合システム。
  4.  請求項3に記載の顔画像照合システムにおいて、
     前記グループ属性推定手段は、前記複数の人物についてのグループ属性を、各人物の顔画像が同じ撮影画像から検出される頻度、撮影画像における各人物の顔画像間の距離を示す近接度、撮影画像における各人物の視線の関係を示す親密度の少なくともいずれかに基づいて推定し、更に、前記複数の人物の顔画像から推定される各人物の年齢又は性別の少なくともいずれかに基づいて、前記複数の人物の関係性を推定することを特徴とする顔画像照合システム。
  5.  請求項4に記載の顔画像照合システムにおいて、
     前記グループ属性推定手段で得られたデータを、各人物の年齢又は性別、前記施設に対する入場日時又は出場日時、グループ属性の少なくともいずれかに基づいて集計する集計手段を更に備えたことを特徴とする顔画像照合システム。
  6.  請求項2に記載の顔画像照合システムにおいて、
     前記登録手段は、前記同一人物判定処理に使用された撮影画像に前記人物とは別の人物の顔画像が含まれる場合に、前記別の人物の顔画像を含むグループ属性推定用データを前記人物の代表顔画像に対応付けて前記データベースに登録し、
     前記顔画像照合システムは、前記第2の撮像装置による撮影画像に複数の人物の顔画像が含まれる場合に、前記データベースに登録されたグループ属性推定用データに基づいて、前記複数の人物はグループで行動しているか否かを示すグループ属性を推定するグループ属性推定手段を更に備えたことを特徴とする顔画像照合システム。
  7.  請求項6に記載の顔画像照合システムにおいて、
     前記グループ属性推定手段は、前記複数の人物についてのグループ属性を、各人物の顔画像が同じ撮影画像から検出される頻度、撮影画像における各人物の顔画像間の距離を示す近接度、撮影画像における各人物の視線の関係を示す親密度の少なくともいずれかに基づいて推定し、更に、前記複数の人物の顔画像から推定される各人物の年齢又は性別の少なくともいずれかに基づいて、前記複数の人物の関係性を推定することを特徴とする顔画像照合システム。
  8.  請求項7に記載の顔画像照合システムにおいて、
     前記グループ属性推定手段で得られたデータを、各人物の年齢又は性別、前記施設に対する入場日時又は出場日時、グループ属性の少なくともいずれかに基づいて集計する集計手段を更に備えたことを特徴とする顔画像照合システム。
  9.  撮像装置による撮影画像に含まれる顔画像を記憶するデータベースから、指定された検索条件に基づいて顔画像を検索する顔画像検索システムにおいて、
     前記撮影画像に含まれる顔画像の人物が一人で行動しているか否かを判定し、判定結果の情報を該人物の顔画像に対応付けて前記データベースに記憶させる判定手段と、
     前記検索条件として、一人で行動している人物の検索または複数人で行動している人物の検索が指定された場合に、該指定に合致する判定結果の情報が対応付けられた顔画像を前記データベースから検索する検索手段と、
     を備えたことを特徴とする顔画像検索システム。
  10.  請求項9に記載の顔画像検索システムにおいて、
     前記判定手段は、異なる撮像装置による複数の撮像画像に同一の人物が含まれる場合に、前記複数の撮影画像に含まれる他の人物の共通性に基づいて、前記同一の人物が一人で行動しているか否かを判定することを特徴とする顔画像検索システム。
PCT/JP2018/010442 2017-03-27 2018-03-16 顔画像照合システムおよび顔画像検索システム WO2018180588A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019509281A JP6854881B2 (ja) 2017-03-27 2018-03-16 顔画像照合システムおよび顔画像検索システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017060932 2017-03-27
JP2017-060932 2017-03-27
JP2018018832 2018-02-06
JP2018-018832 2018-02-06

Publications (1)

Publication Number Publication Date
WO2018180588A1 true WO2018180588A1 (ja) 2018-10-04

Family

ID=63675871

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010442 WO2018180588A1 (ja) 2017-03-27 2018-03-16 顔画像照合システムおよび顔画像検索システム

Country Status (2)

Country Link
JP (1) JP6854881B2 (ja)
WO (1) WO2018180588A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020064531A (ja) * 2018-10-18 2020-04-23 キヤノン株式会社 情報処理装置、情報処理方法、システムおよびプログラム
JP2020071874A (ja) * 2018-10-31 2020-05-07 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP2020091595A (ja) * 2018-12-04 2020-06-11 日本電気株式会社 情報処理システム、認証対象の管理方法、及びプログラム
CN111488476A (zh) * 2020-04-03 2020-08-04 北京爱芯科技有限公司 图像推送方法、模型训练方法及对应装置
CN111708906A (zh) * 2020-06-16 2020-09-25 重庆锐云科技有限公司 基于人脸识别的来访检索方法、装置、设备及存储介质
JP2021007028A (ja) * 2020-09-24 2021-01-21 日本電気株式会社 情報処理システム、認証対象の管理方法、及びプログラム
CN112651335A (zh) * 2020-12-25 2021-04-13 深圳集智数字科技有限公司 一种同行人识别方法、系统、设备及存储介质
JPWO2020179240A1 (ja) * 2019-03-01 2021-12-16 株式会社日立国際電気 画像照合システム
US20220121734A1 (en) * 2019-02-01 2022-04-21 Panasonic Intellectual Property Management Co., Ltd. System for face authentication and method for face authentication
JP2022100394A (ja) * 2020-09-24 2022-07-05 日本電気株式会社 情報処理システム、端末装置、認証対象の管理方法、及びプログラム
WO2022195752A1 (ja) * 2021-03-17 2022-09-22 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
WO2023238614A1 (ja) * 2022-06-09 2023-12-14 コニカミノルタ株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP7430599B2 (ja) 2020-08-21 2024-02-13 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7485158B2 (ja) 2019-10-28 2024-05-16 日本電気株式会社 施設管理システム、施設管理方法、及びコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013768A (ja) * 2002-06-11 2004-01-15 Gen Tec:Kk 個人識別方法
JP2006092396A (ja) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd 単独行動者及びグループ行動者検知装置
JP2010113692A (ja) * 2008-11-10 2010-05-20 Nec Corp 顧客行動記録装置及び顧客行動記録方法並びにプログラム
JP2011070275A (ja) * 2009-09-24 2011-04-07 Seiko Epson Corp 画像処理装置
JP2011107997A (ja) * 2009-11-18 2011-06-02 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5172167B2 (ja) * 2006-02-15 2013-03-27 株式会社東芝 人物認識装置および人物認識方法
JP4888191B2 (ja) * 2007-03-30 2012-02-29 株式会社ニコン 撮像装置
JP2014142810A (ja) * 2013-01-24 2014-08-07 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP6276519B2 (ja) * 2013-05-22 2018-02-07 株式会社 日立産業制御ソリューションズ 人数計測装置および人物動線解析装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013768A (ja) * 2002-06-11 2004-01-15 Gen Tec:Kk 個人識別方法
JP2006092396A (ja) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd 単独行動者及びグループ行動者検知装置
JP2010113692A (ja) * 2008-11-10 2010-05-20 Nec Corp 顧客行動記録装置及び顧客行動記録方法並びにプログラム
JP2011070275A (ja) * 2009-09-24 2011-04-07 Seiko Epson Corp 画像処理装置
JP2011107997A (ja) * 2009-11-18 2011-06-02 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020064531A (ja) * 2018-10-18 2020-04-23 キヤノン株式会社 情報処理装置、情報処理方法、システムおよびプログラム
JP7327923B2 (ja) 2018-10-18 2023-08-16 キヤノン株式会社 情報処理装置、情報処理方法、システムおよびプログラム
JP7313052B2 (ja) 2018-10-31 2023-07-24 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP2020071874A (ja) * 2018-10-31 2020-05-07 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP2020091595A (ja) * 2018-12-04 2020-06-11 日本電気株式会社 情報処理システム、認証対象の管理方法、及びプログラム
US11915519B2 (en) 2018-12-04 2024-02-27 Nec Corporation Information processing system, method for managing object to be authenticated, and program
US11410461B2 (en) 2018-12-04 2022-08-09 Nec Corporation Information processing system, method for managing object to be authenticated, and program
US20230195869A1 (en) * 2019-02-01 2023-06-22 Panasonic Intellectual Property Management Co., Ltd. System for face authentication and method for face authentication
US20230195867A1 (en) * 2019-02-01 2023-06-22 Panasonic Intellectual Property Management Co., Ltd. System for face authentication and method for face authentication
US20220121734A1 (en) * 2019-02-01 2022-04-21 Panasonic Intellectual Property Management Co., Ltd. System for face authentication and method for face authentication
JP7214830B2 (ja) 2019-03-01 2023-01-30 株式会社日立国際電気 画像照合システム
JPWO2020179240A1 (ja) * 2019-03-01 2021-12-16 株式会社日立国際電気 画像照合システム
JP7485158B2 (ja) 2019-10-28 2024-05-16 日本電気株式会社 施設管理システム、施設管理方法、及びコンピュータプログラム
CN111488476A (zh) * 2020-04-03 2020-08-04 北京爱芯科技有限公司 图像推送方法、模型训练方法及对应装置
CN111708906B (zh) * 2020-06-16 2022-12-27 重庆锐云科技有限公司 基于人脸识别的来访检索方法、装置、设备及存储介质
CN111708906A (zh) * 2020-06-16 2020-09-25 重庆锐云科技有限公司 基于人脸识别的来访检索方法、装置、设备及存储介质
JP7430599B2 (ja) 2020-08-21 2024-02-13 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2021007028A (ja) * 2020-09-24 2021-01-21 日本電気株式会社 情報処理システム、認証対象の管理方法、及びプログラム
JP2022100394A (ja) * 2020-09-24 2022-07-05 日本電気株式会社 情報処理システム、端末装置、認証対象の管理方法、及びプログラム
JP7327571B2 (ja) 2020-09-24 2023-08-16 日本電気株式会社 情報処理システム、端末装置、認証対象の管理方法、及びプログラム
JP7067593B2 (ja) 2020-09-24 2022-05-16 日本電気株式会社 情報処理システム、認証対象の管理方法、及びプログラム
CN112651335A (zh) * 2020-12-25 2021-04-13 深圳集智数字科技有限公司 一种同行人识别方法、系统、设备及存储介质
CN112651335B (zh) * 2020-12-25 2024-05-07 深圳集智数字科技有限公司 一种同行人识别方法、系统、设备及存储介质
WO2022195752A1 (ja) * 2021-03-17 2022-09-22 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
WO2023238614A1 (ja) * 2022-06-09 2023-12-14 コニカミノルタ株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP6854881B2 (ja) 2021-04-07
JPWO2018180588A1 (ja) 2020-01-16

Similar Documents

Publication Publication Date Title
WO2018180588A1 (ja) 顔画像照合システムおよび顔画像検索システム
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
KR102215041B1 (ko) 정의된 영역 내의 객체를 추적하기 위한 방법 및 시스템
US11288495B2 (en) Object tracking and best shot detection system
JP4753193B2 (ja) 動線管理システムおよびプログラム
US11743431B2 (en) Video identification and analytical recognition system
US8457354B1 (en) Movement timestamping and analytics
EP2113846B1 (en) Behavior history searching device and behavior history searching method
CN103578018A (zh) 检测由于缺货状况导致的销售损失的方法、装置和系统
CN111814510B (zh) 一种遗留物主体检测方法及装置
CN109145707A (zh) 图像处理方法及装置、电子设备和存储介质
JP2018526945A (ja) ビデオ識別および分析認識システム
KR101957677B1 (ko) 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법
CN108537920B (zh) 基于人脸识别的访客监控方法和系统
US11537639B2 (en) Re-identification of physical objects in an image background via creation and storage of temporary data objects that link an object to a background
CN112330742A (zh) 公共区域重点人员活动路线记录方法及装置
WO2021056050A1 (en) Systems and methods for identifying and/or tracking objects
JP5730000B2 (ja) 顔照合システム、顔照合装置及び顔照合方法
CN109871456A (zh) 一种看守所人员关系分析方法、装置和电子设备
JP2021106330A (ja) 情報処理装置、情報処理方法、及びプログラム
Blauensteiner et al. A socio-technical approach for event detection in security critical infrastructure
JP6971720B2 (ja) 監視システム、監視方法
WO2017048148A1 (en) Monitoring a flow of objects by a sim card detector
JP2020191585A (ja) 情報処理装置、情報処理方法及びプログラム
KR20230158984A (ko) 사진속 인물의 안면 인식 기반 찾기 서비스 제공 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18776792

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509281

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18776792

Country of ref document: EP

Kind code of ref document: A1