JP6854881B2 - Face image matching system and face image search system - Google Patents

Face image matching system and face image search system Download PDF

Info

Publication number
JP6854881B2
JP6854881B2 JP2019509281A JP2019509281A JP6854881B2 JP 6854881 B2 JP6854881 B2 JP 6854881B2 JP 2019509281 A JP2019509281 A JP 2019509281A JP 2019509281 A JP2019509281 A JP 2019509281A JP 6854881 B2 JP6854881 B2 JP 6854881B2
Authority
JP
Japan
Prior art keywords
person
face image
image
face
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019509281A
Other languages
Japanese (ja)
Other versions
JPWO2018180588A1 (en
Inventor
武田 隆史
隆史 武田
崇 三戸
崇 三戸
小倉 慎矢
慎矢 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2018180588A1 publication Critical patent/JPWO2018180588A1/en
Application granted granted Critical
Publication of JP6854881B2 publication Critical patent/JP6854881B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、入場口及び出場口を有する施設で撮影された顔画像を照合する顔画像照合システム、および指定された検索条件に基づいて顔画像を検索する顔画像検索システムに関する。 The present invention relates to a face image matching system that collates face images taken at a facility having an entrance and an entrance, and a face image search system that searches for a face image based on a designated search condition.

従来から、ホテル、ビル、コンビニエンスストア、金融機関、ダムや道路といった不特定多数の人が訪れる施設には、犯罪防止や事故防止等の目的で、映像監視システムが設置されている。これは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送し、常駐する監視者がそれを監視し、目的や必要に応じて注意する、あるいは映像を記録するものである。 Traditionally, video surveillance systems have been installed in facilities such as hotels, buildings, convenience stores, financial institutions, dams and roads that are visited by an unspecified number of people for the purpose of crime prevention and accident prevention. This involves taking a picture of a person to be monitored with an imaging device such as a camera, transmitting the image to a monitoring center such as a management office or security room, and a resident observer monitors it for the purpose and necessity. Be careful or record the video accordingly.

映像監視システムにおいて、映像を記録するための記録媒体には、従来のビデオテープ媒体から、ハードディスクドライブ(HDD)に代表されるランダムアクセス媒体が用いられる事例が増えている。さらに近年ではこのような記録媒体の大容量化が進んでいる。
記録媒体の大容量化は、記録できる映像の量を飛躍的に増大させ、より多地点や長時間の記録を可能にしつつある反面、記録画像を目視でチェックする負担の増加が問題として顕在化しつつある。
In video surveillance systems, there are an increasing number of cases in which a random access medium typified by a hard disk drive (HDD) is used as a recording medium for recording video, instead of a conventional video tape medium. Furthermore, in recent years, the capacity of such recording media has been increasing.
Increasing the capacity of recording media has dramatically increased the amount of video that can be recorded, making it possible to record at multiple points and for a long time, but on the other hand, the burden of visually checking recorded images has become a problem. It's getting better.

このような背景から、所望の映像をより簡単に見つけ出すための検索機能を備える映像監視システムが普及しつつある。特に、近年では、映像中の特定の事象(イベント)の発生を画像認識技術を用いてリアルタイムに自動検知して映像とともに記録し、事後にそれらのイベントを検索可能とする、より高度な検索機能を備えたシステムが登場しつつある。その中の代表的な一つに人物検索機能がある。
人物検索機能とは、映像中への人物の登場を自動検知の対象とし、リアルタイムに記録し、事後に録画画像中から人物登場画像を探し出せる機能である。機能面から人物検索機能は、以下の2種類に大別される。
Against this background, video surveillance systems equipped with a search function for more easily finding a desired video are becoming widespread. In particular, in recent years, a more advanced search function that automatically detects the occurrence of a specific event in a video in real time using image recognition technology, records it together with the video, and makes it possible to search for those events after the fact. A system equipped with is appearing. One of the typical ones is the person search function.
The person search function is a function that automatically detects the appearance of a person in a video, records it in real time, and can search for a person appearance image from the recorded images after the fact. From the functional aspect, the person search function is roughly classified into the following two types.

一つ目は、登場イベント検索機能である。登場イベント検索機能は、映像中への人物の登場(イベント)の有無を、単純に探し出す機能である。検索結果としては、イベントの有無に加え、イベント有と判定された場合には、そのイベント数と各イベントの発生時刻やイベントを撮影した撮像装置番号、撮影した画像(人物登場画像)等が提示される。なお、この検索条件(検索クエリ)には、イベント発生時刻や撮像装置番号等の検索対象範囲を絞り込むための情報として与える場合が多い。この検索対象範囲を絞り込むための情報は、絞り込みパラメータと称される。 The first is the appearance event search function. The appearance event search function is a function that simply searches for the presence or absence of a person's appearance (event) in the video. As a search result, in addition to the presence or absence of an event, if it is determined that there is an event, the number of events, the time when each event occurs, the image pickup device number that captured the event, the captured image (person appearance image), etc. are presented. Will be done. In many cases, this search condition (search query) is given as information for narrowing down the search target range such as the event occurrence time and the imaging device number. The information for narrowing down the search target range is called a narrowing down parameter.

二つ目は、類似人物検索機能である。上述の登場イベント検索機能が、登場人物を特定しない検索であるのに対し、こちらはユーザが指定する特定人物が、他の時間、あるいは他の地点の撮像装置で撮影されていないかどうかを、録画画像中から探し出す機能である。検索結果としては、特定人物が映った他の画像の有無に加え、有の場合には、その数と撮影時刻、撮像装置番号、撮影した画像(人物登場画像)、類似度等が提示される。 The second is a similar person search function. Whereas the above-mentioned appearance event search function is a search that does not specify a character, this is whether or not a specific person specified by the user is photographed by an image pickup device at another time or at another point. It is a function to search from recorded images. As the search result, in addition to the presence or absence of other images showing a specific person, if there is, the number and shooting time, the imaging device number, the shot image (person appearance image), the degree of similarity, etc. are presented. ..

特定人物の指定は、探したい人物が映った画像(以降、検索キー画像)をユーザが1つ指定することで実施される。検索キー画像は、録画画像や外部装置にある任意の画像から指定される。検索は、この検索キー画像中の人物の画像特徴量を画像認識技術により抽出し、録画画像中の人物の画像特徴量と照合し、その類似性(類似度)を求め、同一人物判定を実施することにより実現される。録画画像中の人物特徴量の抽出と記録は、映像録画時等の別タイミングにて予め実施しておく。この検索条件においても、絞り込みパラメータを与えることが可能である場合が多い。 The designation of a specific person is performed by the user designating one image (hereinafter, search key image) showing the person to be searched for. The search key image is specified from a recorded image or an arbitrary image in an external device. In the search, the image feature amount of the person in the search key image is extracted by the image recognition technology, collated with the image feature amount of the person in the recorded image, the similarity (similarity) is obtained, and the same person is determined. It is realized by doing. Extraction and recording of the person feature amount in the recorded image is performed in advance at another timing such as at the time of video recording. Even in this search condition, it is often possible to give a narrowing parameter.

このような映像監視システムに関し、従来より種々の発明が提案されている。
特許文献1には、時刻と類似度のような2元の情報について、その大小関係や前後関係を視覚的に同時に把握できるようにする発明が開示されている。
特許文献2には、複数の画像を検索条件として登録することで、対象の向きや撮影角度の違いによる検索見逃しを少なくし、対象検索人物の映った画像をより多く得ることができるようにする発明が開示されている。
特許文献3には、類似画像検索の結果から、多数の画像を選択して、一度にキーワードを付与できるようにする発明が開示されている。
Various inventions have been conventionally proposed for such a video surveillance system.
Patent Document 1 discloses an invention that enables the two-dimensional information such as time and similarity to be visually grasped at the same time in terms of magnitude and context.
By registering a plurality of images as search conditions in Patent Document 2, it is possible to reduce missed searches due to differences in the orientation and shooting angle of the target, and to obtain more images showing the target search person. The invention is disclosed.
Patent Document 3 discloses an invention in which a large number of images can be selected from the results of a similar image search and keywords can be assigned at once.

特開2009−301501号公報JP-A-2009-301501 特開2011−048668号公報Japanese Unexamined Patent Publication No. 2011-048668 特開2012−242878号公報Japanese Unexamined Patent Publication No. 2012-242878

従来、ショッピングセンターやアミューズメントパークなどの各種の施設に訪れた来場者が施設内をどのように行動しているかを分析して、マーケティングに活かす試みが行われている。これまでは、施設の各所に配した人員が来場者をカウントするような、人力に頼った手法が主に用いられており、その改善が求められていた。
本発明は、上記のような従来の事情に鑑みて為されたものであり、施設内での来場者の行動の分析に適した顔画像照合システムを提供することを第1の目的とする。
Conventionally, attempts have been made to analyze how visitors who visit various facilities such as shopping centers and amusement parks behave in the facilities and utilize them in marketing. Until now, methods that rely on human power, such as the number of visitors assigned to various parts of the facility, have been mainly used, and improvements have been sought.
The present invention has been made in view of the above-mentioned conventional circumstances, and a first object of the present invention is to provide a face image matching system suitable for analyzing the behavior of visitors in a facility.

また、絞り込みパラメータによって、一人で映っているのか、複数人で映っているのかを指定して検索したい場合がある。例えば、ほとんどの人が複数人で利用する遊園地などの施設では、一人で施設を利用しようとする人の手荷物検査を入念に行う運用をして、園内での犯罪の抑止に努めている。これは園内で発生する置き引き等の犯罪が主に一人で実行されるためである。一方で、空港や重要施設で引き起こされる組織的なテロ等は複数人によって実行されることが多いため、複数人で行動する人物に注意を払う必要がある。従来の顔画像検索システムでは撮影映像を目視で判断するしかなかく、監視者の負担となっていた。
本発明は、上記のような従来の事情に鑑みて為されたものであり、一人で映っているのか、複数人で映っているのかを指定して検索することが可能な顔画像検索システムを提供することを第2の目的とする。
In addition, depending on the narrowing parameters, it may be desired to specify whether the image is displayed by one person or by multiple people. For example, in facilities such as amusement parks, which are used by most people, we are trying to prevent crimes in the park by carefully inspecting the baggage of those who intend to use the facility alone. This is because crimes such as deductions that occur in the park are mainly carried out alone. On the other hand, organized terrorism caused at airports and important facilities is often carried out by multiple people, so it is necessary to pay attention to those who act with multiple people. In the conventional face image search system, the photographed image can only be visually judged, which is a burden on the observer.
The present invention has been made in view of the above-mentioned conventional circumstances, and provides a face image search system capable of searching by designating whether the image is displayed by one person or by a plurality of people. The second purpose is to provide.

本発明では、上記第1の目的を達成するために、顔画像照合システムを以下のように構成した。
すなわち、入場口及び出場口を有する施設で撮影された顔画像を照合する顔画像照合システムにおいて、前記入場口に設置された第1の撮像装置と、前記施設内及び前記出場口に設置された第2の撮像装置と、前記第1の撮像装置による撮影画像に基づく同一人物判定処理によって同一の人物であると判定された複数の顔画像の中から、前記人物を代表する顔画像である代表顔画像を選定する選定手段と、前記選定手段により選定された代表顔画像をデータベースに登録する登録手段と、前記第2の撮像装置による撮影画像に含まれる顔画像を前記データベースに登録された代表顔画像と照合する照合手段と、を備える。
In the present invention, in order to achieve the first object, the face image matching system is configured as follows.
That is, in a face image matching system that collates face images taken at an entrance and a facility having an entrance, a first imaging device installed at the entrance and a first imaging device installed at the entrance and at the entrance are installed. A representative face image representing the person from among a plurality of face images determined to be the same person by the same person determination process based on the image captured by the second image pickup device and the first image pickup device. A selection means for selecting a face image, a registration means for registering a representative face image selected by the selection means in a database, and a representative for registering a face image included in an image captured by the second imaging device in the database. It is provided with a collation means for collating with a face image.

このような構成によれば、施設の入場口に設置された撮像装置で得られた代表顔画像を用いて、施設内及び出場口に設置された撮像装置で得られた顔画像を照合できるので、施設内での来場者の行動を分析するのに有効である。 According to such a configuration, the representative face image obtained by the image pickup device installed at the entrance of the facility can be used to collate the face image obtained by the image pickup device installed in the facility and at the entrance. , It is effective for analyzing the behavior of visitors in the facility.

ここで、一構成例として、前記選定手段は、前記複数の顔画像を予め登録された基準顔と比較し、前記基準顔との類似度に基づいて前記人物の代表顔画像を選定し、前記基準顔として、正面を向いて目を開いた顔画像を用いる構成としてもよい。 Here, as a configuration example, the selection means compares the plurality of face images with a pre-registered reference face, selects a representative face image of the person based on the degree of similarity with the reference face, and selects the representative face image of the person. As a reference face, a face image in which the eyes are opened facing the front may be used.

また、一構成例として、前記登録手段は、前記同一人物判定処理に使用された撮影画像に前記人物とは別の人物の顔画像が含まれる場合に、前記別の人物の顔画像を含むグループ属性推定用データを前記人物の代表顔画像に対応付けて前記データベースに登録し、前記顔画像照合システムは、前記第2の撮像装置による撮影画像に複数の人物の顔画像が含まれる場合に、前記データベースに登録されたグループ属性推定用データに基づいて、前記複数の人物はグループで行動しているか否かを示すグループ属性を推定するグループ属性推定手段を更に備える構成としてもよい。 Further, as a configuration example, when the captured image used for the same person determination process includes a face image of a person different from the person, the registration means includes a group including the face image of the other person. When the attribute estimation data is associated with the representative face image of the person and registered in the database, and the face image matching system includes the face images of a plurality of people in the image captured by the second imaging device, the face image matching system is used. Based on the group attribute estimation data registered in the database, the configuration may further include a group attribute estimation means for estimating the group attribute indicating whether or not the plurality of persons are acting in a group.

また、前記グループ属性推定手段は、前記複数の人物についてのグループ属性を、各人物の顔画像が同じ撮影画像から検出される頻度、撮影画像における各人物の顔画像間の距離を示す近接度、撮影画像における各人物の視線の関係を示す親密度の少なくともいずれかに基づいて推定し、更に、前記複数の人物の顔画像から推定される各人物の年齢又は性別の少なくともいずれかに基づいて、前記複数の人物の関係性を推定する構成としてもよい。 Further, the group attribute estimation means determines the group attributes of the plurality of persons, the frequency with which the face images of each person are detected from the same captured image, the proximity indicating the distance between the face images of each person in the captured images, and the like. Estimated based on at least one of the intimacy indicating the relationship of the line of sight of each person in the captured image, and further based on at least one of the age or gender of each person estimated from the facial images of the plurality of persons. The configuration may be such that the relationship between the plurality of persons is estimated.

また、前記グループ属性推定手段で得られたデータを、各人物の年齢又は性別、前記施設に対する入場日時又は出場日時、グループ属性の少なくともいずれかに基づいて集計する集計手段を更に備える構成としてもよい。 Further, the data obtained by the group attribute estimation means may be further provided with a totaling means for totaling based on at least one of the age or gender of each person, the date and time of entry or exit to the facility, and at least one of the group attributes. ..

本発明では、上記第2の目的を達成するために、顔画像検索システムを以下のように構成した。
すなわち、撮像装置による撮影画像に含まれる顔画像を記憶するデータベースから、指定された検索条件に基づいて顔画像を検索する顔画像検索システムにおいて、前記撮影画像に含まれる顔画像の人物が一人で行動しているか否かを判定し、判定結果の情報を該人物の顔画像に対応付けて前記データベースに記憶させる判定手段と、前記検索条件として、一人で行動している人物の検索または複数人で行動している人物の検索が指定された場合に、該指定に合致する判定結果の情報が対応付けられた顔画像を前記データベースから検索する検索手段と、を備えたことを特徴とする。
In the present invention, in order to achieve the second object, the face image search system is configured as follows.
That is, in a face image search system that searches for a face image based on a specified search condition from a database that stores a face image included in the captured image by the imaging device, one person in the face image included in the captured image is alone. A determination means for determining whether or not an person is acting and storing the information of the determination result in the database in association with the face image of the person, and as the search condition, a search for a person who is acting alone or a plurality of people. When a search for a person who is acting in the above is specified, a search means for searching a face image associated with information of a determination result matching the designation from the database is provided.

ここで、一構成例として、前記判定手段は、異なる撮像装置による複数の撮像画像に同一の人物が含まれる場合に、前記複数の撮影画像に含まれる他の人物の共通性に基づいて、前記同一の人物が一人で行動しているか否かを判定する構成としてもよい。 Here, as a configuration example, when the same person is included in a plurality of images captured by different imaging devices, the determination means is based on the commonality of other persons included in the plurality of captured images. It may be configured to determine whether or not the same person is acting alone.

本発明によれば、施設内での来場者の行動の分析に適した顔画像照合システムを提供することができる。また、一人で映っているのか、複数人で映っているのかを指定して検索することが可能な顔画像検索システムを提供することができる。 According to the present invention, it is possible to provide a face image matching system suitable for analyzing the behavior of a visitor in a facility. In addition, it is possible to provide a face image search system capable of specifying whether the image is displayed by one person or by a plurality of people.

本発明の一実施形態に係る顔画像照合システムの概略構成の例を示す図である。It is a figure which shows the example of the schematic structure of the face image matching system which concerns on one Embodiment of this invention. 図1の顔画像照合システムが適用される施設の概要を示す図である。It is a figure which shows the outline of the facility to which the face image matching system of FIG. 1 is applied. 図1の顔画像照合システムにおける照合サーバの機能ブロックの例を示す図である。It is a figure which shows the example of the functional block of the collation server in the face image collation system of FIG. 図1の顔画像照合システムの運用例を示す図である。It is a figure which shows the operation example of the face image matching system of FIG. 図1の顔画像照合システムによる処理結果のデータ例を示す図である。It is a figure which shows the data example of the processing result by the face image matching system of FIG. 本発明の別の実施形態に係る顔画像検索システムにおける近接人物数判定の処理フローを示す図である。It is a figure which shows the processing flow of the number of close-up persons determination in the face image search system which concerns on another embodiment of this invention. 本発明の別の実施形態に係る顔画像検索システムにおける常時近接者数判定の処理フローを示す図である。It is a figure which shows the processing flow of the constant number of close persons determination in the face image search system which concerns on another embodiment of this invention.

本発明の一実施形態に係る顔画像照合システムについて、図面を参照して説明する。
図1には、本発明の一実施形態に係る顔画像照合システムの概略構成の例を示してある。また、図2には、図1の顔画像照合システムが適用される施設の概要を示してある。図2の例では、施設内に店A〜店Gの各店舗があり、施設内に入場した人物が店A、店F、店C、店G、店Eを経由して施設から出場する様子を示してある。
The face image matching system according to the embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows an example of a schematic configuration of a face image matching system according to an embodiment of the present invention. Further, FIG. 2 shows an outline of the facility to which the face image matching system of FIG. 1 is applied. In the example of FIG. 2, there are stores A to G in the facility, and a person who enters the facility participates from the facility via store A, store F, store C, store G, and store E. Is shown.

本例の顔画像照合システムは、複数であるN台の撮像装置100(1)〜100(N)と、照合サーバ200と、保守PC300と、ネットワークスイッチ400と、集計サーバ500とを備えている。
撮像装置100(1)〜100(N)は、入場口、施設内の各店舗、出場口の各所に設置されている。入場口に設置される撮像装置100(1)は、顔検知用の撮像装置である。また、施設内の各店舗に設置される撮像装置100(2)〜100(N−1)、及び、出場口に設置される撮像装置100(N)は、顔照合用の撮像装置である。各々の撮像装置100は、IPカメラ(ネットワークカメラ)等で構成され、撮像により得られた撮影画像をデジタル変換し、ネットワークスイッチ400を介して照合サーバ200へ送信する。
The face image matching system of this example includes a plurality of N imaging devices 100 (1) to 100 (N), a matching server 200, a maintenance PC 300, a network switch 400, and a totaling server 500. ..
The image pickup devices 100 (1) to 100 (N) are installed at the entrance, each store in the facility, and the entrance. The image pickup device 100 (1) installed at the entrance is an image pickup device for face detection. Further, the image pickup devices 100 (2) to 100 (N-1) installed in each store in the facility and the image pickup device 100 (N) installed at the entrance are image pickup devices for face matching. Each imaging device 100 is composed of an IP camera (network camera) or the like, digitally converts a captured image obtained by imaging, and transmits the captured image to the collation server 200 via the network switch 400.

照合サーバ200は、撮像装置100からネットワークスイッチ400を介して受信した撮影画像を蓄積し、顔検知、代表顔選定、人物属性判定、顔照合、グループ属性照合等の各種の処理を行う。
保守PC300は、ネットワークスイッチ400を介して照合サーバ200に接続され、照合サーバ200の保守に用いられる。
集計サーバ500は、ネットワークスイッチ400及びWAN回線を介して照合サーバ200に接続され、照合サーバ200から送信される出力データを受信して集計処理を行う。
The collation server 200 accumulates captured images received from the image pickup apparatus 100 via the network switch 400, and performs various processes such as face detection, representative face selection, person attribute determination, face collation, and group attribute collation.
The maintenance PC 300 is connected to the collation server 200 via the network switch 400 and is used for maintenance of the collation server 200.
The aggregation server 500 is connected to the verification server 200 via the network switch 400 and the WAN line, receives output data transmitted from the verification server 200, and performs aggregation processing.

図3には、照合サーバ200の機能ブロックの例を示してある。
照合サーバ200は、顔検知部201、同一人物判定部202、代表顔選定部203、フォーマット変換部204、属性判定部205、ID付与人物情報生成部206、登録処理部207、顔データベース208、顔照合部210、グループ属性照合部211、照合履歴データベース212、転送処理部214の各機能部を備えている。
FIG. 3 shows an example of a functional block of the collation server 200.
The collation server 200 includes a face detection unit 201, the same person determination unit 202, a representative face selection unit 203, a format conversion unit 204, an attribute determination unit 205, an ID-assigned person information generation unit 206, a registration processing unit 207, a face database 208, and a face. Each functional unit of the collation unit 210, the group attribute collation unit 211, the collation history database 212, and the transfer processing unit 214 is provided.

顔検知部201は、入場口にある撮像装置100(1)により得られた撮影画像(以下、「検知用画像」という)から顔画像を検知する。具体的には、例えば、検知用画像を解析して顔が映った領域を検知し、該領域の画像データを顔画像として抽出する。顔画像の検知は、時系列的に連続した画像フレーム毎(又は所定数の画像フレーム毎)に行われる。したがって、入場口を通過する人物毎に複数枚の顔画像が得られることになる。 The face detection unit 201 detects a face image from a captured image (hereinafter, referred to as “detection image”) obtained by the image pickup device 100 (1) at the entrance. Specifically, for example, a detection image is analyzed to detect a region in which a face is reflected, and image data in the region is extracted as a face image. The face image is detected for each consecutive image frame (or for each predetermined number of image frames) in chronological order. Therefore, a plurality of facial images can be obtained for each person passing through the entrance.

同一人物判定部202は、顔検知部201で検知された顔画像について、同一人物判定処理を行う。具体的には、例えば、画像フレームにおける顔画像の位置を画像フレーム間で比較しながら撮像エリア内における人物の動きを追跡し、同一であると判定された人物毎に顔画像をグループ化する。 The same person determination unit 202 performs the same person determination process on the face image detected by the face detection unit 201. Specifically, for example, the movement of a person in the imaging area is tracked while comparing the position of the face image in the image frame between the image frames, and the face image is grouped for each person determined to be the same.

代表顔選定部203は、同一人物判定部202で同一の人物であると判定された複数の顔画像の中から、当該人物を代表する顔画像である代表顔画像を選定する。本例では、従来のように顔検知サイズの大きいものを代表顔画像として選定するのではなく、予め登録された基準顔との類似度に基づいて代表顔画像を選定する。具体的には、同一の人物であると判定された複数の顔画像を基準顔と比較して、顔画像毎に基準顔との類似度を算出し、類似度が最も高いものを代表顔画像として選定する。なお、類似度が高い順に所定数を代表顔画像として選定してもよい。 The representative face selection unit 203 selects a representative face image, which is a face image representing the person, from a plurality of face images determined by the same person determination unit 202 to be the same person. In this example, the representative face image is selected based on the similarity with the reference face registered in advance, instead of selecting the one having a large face detection size as the representative face image as in the conventional case. Specifically, a plurality of face images determined to be the same person are compared with the reference face, the degree of similarity with the reference face is calculated for each face image, and the one with the highest degree of similarity is the representative face image. Select as. A predetermined number may be selected as the representative face image in descending order of similarity.

基準顔としては、正面を向いて目を開いた顔画像が用いられる。これにより、後続の顔照合における照合類似度が高い傾向となるような顔画像を代表顔画像に選定することができる。言い換えれば、目を閉じている顔画像や、俯きや横を向いている顔画像など、照合類似度が低くなることを事前に予想できる顔画像が代表顔画像に選定されることを防ぐことができる。本例では、男性(眼鏡着用)、男性(眼鏡非着用)、女性(眼鏡着用)、女性(眼鏡非着用)の4パターンの基準顔を用いているが、年齢層や髪型等を考慮して基準顔のパターン数を増やしてもよい。 As the reference face, a face image in which the eyes are opened facing the front is used. As a result, a face image that tends to have a high degree of matching similarity in subsequent face matching can be selected as the representative face image. In other words, it is possible to prevent a face image that can be expected to have a low matching similarity, such as a face image with closed eyes or a face image facing down or sideways, being selected as a representative face image. it can. In this example, four patterns of standard faces are used: male (wearing glasses), male (without glasses), female (wearing glasses), and female (without glasses), but considering the age group and hairstyle, etc. The number of reference face patterns may be increased.

フォーマット変換部204は、顔検知部201で検知された顔画像を、属性判定部205における人物属性判定処理に適したフォーマットに変換する。 The format conversion unit 204 converts the face image detected by the face detection unit 201 into a format suitable for the person attribute determination process in the attribute determination unit 205.

属性判定部205は、フォーマット変換部204で変換された顔画像に基づいて、代表顔選定部203で選定された代表顔画像に代表される人物について人物属性を判定する人物属性判定処理を行う。人物属性としては、例えば、人物の年齢や性別が挙げられる。 The attribute determination unit 205 performs a person attribute determination process for determining a person attribute of a person represented by the representative face image selected by the representative face selection unit 203 based on the face image converted by the format conversion unit 204. Examples of the person attribute include the age and gender of the person.

ID付与人物情報生成部206は、代表顔選定部203で選定された代表顔画像や属性判定部205で判定された人物属性に対応付ける人物IDを発行する。人物IDは、施設に来場した各人物を一意に識別する情報である。 The ID-giving person information generation unit 206 issues a person ID associated with the representative face image selected by the representative face selection unit 203 and the person attribute determined by the attribute determination unit 205. The person ID is information that uniquely identifies each person who has visited the facility.

登録処理部207は、ID付与人物情報生成部206で発行された人物IDを対応付けて、当該人物について得られた代表顔画像や人物属性を顔データベース208に登録する。登録処理部207は更に、グループ属性推定に使用されるグループ属性推定用データを生成し、グループIDを対応付けて顔データベース208に登録する。グループIDは、一緒に行動する複数の人物をまとめた各グループを一意に識別する情報であり、人物IDと紐付けられる。 The registration processing unit 207 associates the person ID issued by the ID-giving person information generation unit 206, and registers the representative face image and the person attribute obtained for the person in the face database 208. The registration processing unit 207 further generates data for group attribute estimation used for group attribute estimation, associates it with a group ID, and registers it in the face database 208. The group ID is information that uniquely identifies each group of a plurality of people who act together, and is associated with the person ID.

グループ属性推定用データには、登録対象の人物(顔データベース208に代表顔画像等を登録する人物)についての同一人物判定処理に使用された検知用画像に含まれる別の人物の顔画像が含まれる。また、登録対象の人物と前記別の人物とについて検出頻度、近接度、親密度を判定するための情報も、グループ属性推定用データに含まれる。 The group attribute estimation data includes the face image of another person included in the detection image used for the same person determination process for the person to be registered (the person who registers the representative face image etc. in the face database 208). Is done. In addition, information for determining the detection frequency, proximity, and intimacy of the person to be registered and the other person is also included in the group attribute estimation data.

顔データベース208は、人物IDにより識別される人物毎に、代表顔画像、人物属性(年齢や性別)、グループIDを保持する。また、顔データベース208は、グループIDにより識別されるグループ毎に、グループ属性推定用データを保持する。 The face database 208 holds a representative face image, a person attribute (age and gender), and a group ID for each person identified by the person ID. In addition, the face database 208 holds group attribute estimation data for each group identified by the group ID.

顔照合部210は、施設内の各店舗及び出場口にある撮像装置100(2)〜100(N)により得られた撮影画像(以下、「照合用画像」という)について、顔データベース208に登録されている代表顔画像と照合する。顔照合は、例えば、LFM(Live Face Matching)等の技術を用いて行うことができる。顔照合部210は、照合用画像に代表顔画像と同じ人物が映っていると判定した場合には、その結果を照合履歴データベース212に登録する。これにより、代表顔画像の人物が、施設内をどのように行動したか(どの店舗に訪れたか)を特定できる。また、照合用画像が撮影された時刻情報も併せて照合履歴データベース212に登録することで、代表顔画像の人物が施設内の各店舗に入店した時刻も特定できるようになる。なお、店舗の入口と出口に撮像装置を設ければ、店舗から出店した時刻や店舗内の滞在時間も特定できるようになる。 The face matching unit 210 registers in the face database 208 the captured images (hereinafter referred to as “matching images”) obtained by the imaging devices 100 (2) to 100 (N) at each store and the entrance in the facility. It is collated with the representative face image. Face matching can be performed using, for example, a technique such as LFM (Live Face Matching). When the face matching unit 210 determines that the same person as the representative face image appears in the matching image, the face matching unit 210 registers the result in the matching history database 212. This makes it possible to identify how the person in the representative face image behaved in the facility (which store he / she visited). In addition, by registering the time information at which the collation image was taken in the collation history database 212, the time when the person with the representative face image entered each store in the facility can be specified. If imaging devices are provided at the entrance and exit of the store, the time when the store opens and the time spent in the store can be specified.

グループ属性照合部211は、施設内の各店舗及び出場口にある撮像装置100(2)〜100(N)により得られた照合用画像について、顔データベース208に登録されているグループ属性推定用データを用いてグループ属性推定を行う。すなわち、照合用画像に複数の人物が映っている場合(複数の顔画像が含まれる場合)に、これらの人物がグループで行動しているか否かを示すグループ属性を推定し、その結果を照合履歴データベース212に登録する。グループ属性推定には、Enra−Enra等の類似判定技術が使用される。 The group attribute collation unit 211 is the group attribute estimation data registered in the face database 208 for the collation images obtained by the imaging devices 100 (2) to 100 (N) at each store and the entrance in the facility. Group attribute estimation is performed using. That is, when a plurality of people are shown in the collation image (when a plurality of face images are included), a group attribute indicating whether or not these persons are acting in a group is estimated, and the results are collated. Register in the history database 212. Similarity determination techniques such as Enra-Enra are used for group attribute estimation.

グループ属性を推定する手法としては、一例として、以下のような手法が挙げられる。(1)各人物の顔画像が同じ元画像から検出される頻度が基準値より高い場合に、グループ属性=“有”(グループで行動している)と判断し、そうでない場合に、グループ属性=“無”(単独で行動している)と判断する。(2)元画像における各人物の顔画像間の距離を示す近接度が基準値より高い場合に、グループ属性=“有”と判断し、そうでない場合に、グループ属性=“無”と判断する。(3)元画像における各人物の視線の関係(どの人物を見ているか)を示す親密度が基準値より高い場合に、グループ属性=“有”と判断し、そうでない場合に、グループ属性=“無”と判断する。
なお、「元画像」は、照合用画像でもよく、検知用画像でもよく、両方でもよい。また、これら(1)〜(3)の手法の組み合わせによりグループ属性の推定を行うこともできる。
As an example of the method for estimating the group attribute, the following method can be mentioned. (1) If the frequency at which each person's face image is detected from the same original image is higher than the reference value, it is judged that the group attribute = "Yes" (acting in a group), and if not, the group attribute. = Judge as "nothing" (acting alone). (2) If the proximity indicating the distance between the face images of each person in the original image is higher than the reference value, it is determined that the group attribute = "Yes", and if not, it is determined that the group attribute = "None". .. (3) If the intimacy indicating the relationship between the line of sight of each person (which person is looking) in the original image is higher than the reference value, it is judged that the group attribute = "yes", and if not, the group attribute = Judge as "none".
The "original image" may be a collation image, a detection image, or both. Further, the group attribute can be estimated by combining the methods (1) to (3).

グループ属性照合部211は更に、グループで行動していると判定された複数の人物について、各々の人物の顔画像の分析結果に基づいて、これら人物の関係性を推定する。すなわち、各人物の人物属性(年齢や性別)に基づいて、例えば、年齢差が20歳以上であれば親子の関係、年齢差が50歳以上であれば祖父母と孫の関係、年齢差が10歳未満の男女であれば恋人又は夫婦の関係であると推定し、その結果を照合履歴データベース212に登録する。 The group attribute collation unit 211 further estimates the relationship between a plurality of persons determined to be acting in a group based on the analysis result of the facial image of each person. That is, based on the personal attributes (age and gender) of each person, for example, if the age difference is 20 years or older, the relationship between parents and children, if the age difference is 50 years or older, the relationship between grandparents and grandchildren, and the age difference is 10. If it is a man and a woman under the age, it is estimated that the relationship is a lover or a couple, and the result is registered in the collation history database 212.

転送処理部214は、照合履歴データベース212に登録されているデータ(顔照合部210及びグループ属性照合部211による処理結果)を集計し、集計結果のデータを集計サーバ500や保守PC300へ転送する。集計は、例えば、各人物の年齢又は性別毎、施設に対する入場日時又は出場日時毎、グループ属性毎、これらの幾つかの組み合わせ毎など、種々の条件に基づいて行うことができる。 The transfer processing unit 214 aggregates the data (process results by the face collation unit 210 and the group attribute collation unit 211) registered in the collation history database 212, and transfers the aggregated result data to the aggregation server 500 or the maintenance PC 300. Aggregation can be performed based on various conditions such as, for example, by age or gender of each person, by date and time of entry or exit to the facility, by group attribute, and by some combination thereof.

図4には、本例の顔画像照合システムの運用例を示してある。
照合サーバ200における処理は、店舗開店期間(本例では、9:00〜21:00)に行われるリアルタイム(オンライン)処理と、店舗閉店期間(本例では、21:00〜9:00)に行われるオフライン処理とに大別される。
FIG. 4 shows an operation example of the face image matching system of this example.
The processing in the collation server 200 is a real-time (online) processing performed during the store opening period (9:00 to 21:00 in this example) and a store closing period (21:00 to 9:00 in this example). It is roughly divided into offline processing that is performed.

リアルタイム処理では、主に、以下のようなデータ収集処理が行われる。
施設に人物が入場した際に、入場口にあるカメラで撮影された検知用画像に基づいて、施設に人物が入場したことを検知する。すなわち、検知用画像から得られた複数の顔画像の中から代表顔画像を選定して、顔データベース208に登録する。このとき、検知日時(検知用画像の撮影日時)、人物ID、入場場所(カメラの設置場所の情報)、人物属性1(年齢)、人物属性2(性別)などの情報も併せて登録する。また、検知用画像に基づいて、グループ属性推定用の前処理を行う。この前処理により、検知日時(検知用画像の撮影日時)、グループID(検知用画像に含まれる複数の人物に共通)、入場場所(カメラの設置場所の情報)、グループ属性推定用データなどの情報が顔データベース208に登録される。
In the real-time processing, the following data collection processing is mainly performed.
When a person enters the facility, it detects that the person has entered the facility based on the detection image taken by the camera at the entrance. That is, a representative face image is selected from a plurality of face images obtained from the detection image and registered in the face database 208. At this time, information such as the detection date and time (the shooting date and time of the detection image), the person ID, the entrance place (information on the camera installation location), the person attribute 1 (age), and the person attribute 2 (gender) are also registered. In addition, preprocessing for group attribute estimation is performed based on the detection image. By this preprocessing, the detection date and time (the shooting date and time of the detection image), the group ID (common to multiple people included in the detection image), the entrance location (information on the camera installation location), the group attribute estimation data, etc. The information is registered in the face database 208.

その後、人物が店舗に訪れる毎に、その店舗にあるカメラで撮影された照合用画像に基づいて、店舗に人物が訪れたことを検知する。また、人物が施設から出場すると、出場口にあるカメラで撮影された照合用画像に基づいて、施設から人物が出場したことを検知する。これらのタイミングで、照合用画像に含まれる顔画像に基づいて、顔データベース208に登録された代表顔画像との照合や、検知頻度・近接度・親密度等に基づくグループ属性推定などを行い、その結果を照合履歴データベース212に記録する。 After that, every time a person visits a store, it detects that the person has visited the store based on the collation image taken by the camera in the store. In addition, when a person participates from the facility, it is detected that the person has participated from the facility based on the collation image taken by the camera at the entrance. At these timings, based on the face image included in the collation image, collation with the representative face image registered in the face database 208, group attribute estimation based on the detection frequency, proximity, intimacy, etc. are performed. The result is recorded in the collation history database 212.

オフライン処理では、主に、以下のような集計・転送処理及びデータベース更新処理が行われる。これらの処理は、事前にスケジュールされた時刻が到来したことを契機に、自動的に起動される。
集計処理は、照合履歴データベース212に登録されているデータを集計して出力ファイル(例えば、CSV形式のデータ)を生成する。
転送処理は、集計処理で作成した出力ファイルを集計サーバ500へ転送する。
データベース更新処理は、各データベース(顔データベース208や照合履歴データベース212)の内容を更新する。
In the offline processing, the following aggregation / transfer processing and database update processing are mainly performed. These processes are automatically started when a pre-scheduled time arrives.
The aggregation process aggregates the data registered in the collation history database 212 to generate an output file (for example, CSV format data).
In the transfer process, the output file created in the aggregation process is transferred to the aggregation server 500.
The database update process updates the contents of each database (face database 208 and collation history database 212).

図5には、本例の顔画像照合システムによる処理結果のデータ例を示してある。
このデータ例では、人物1(女性)と人物2(男性)がグループである(グループ属性=“有”)と判断されており、互いの年齢差より親子関係にあると判断されている。また、人物3(女性)と人物4(男性)がグループである(グループ属性=“有”)と判断されており、互いの年齢差より友人又は恋人関係にあると判断されている。一方、人物5(女性)は単独で行動している(グループ属性=“無”)と判断されておいる。更に、このデータ例には、各人物(或いはグループ)が、施設に入場した時刻、訪れた店舗及びその時刻、施設から出場した時刻も記録されている。
このように、本例の顔画像照合システムによって、各人物が施設内をどのように行動しているかを分析できるだけでなく、グループで行動しているか否かを判定することができ、グループで行動している場合には、グループとしての行動も分析することができる等の他の観点についても分析できることが分かる。
FIG. 5 shows a data example of the processing result by the face image matching system of this example.
In this data example, person 1 (female) and person 2 (male) are determined to be a group (group attribute = "yes"), and are determined to have a parent-child relationship based on their age differences. In addition, person 3 (female) and person 4 (male) are judged to be a group (group attribute = "yes"), and are judged to be friends or lovers based on their age differences. On the other hand, person 5 (female) is determined to be acting alone (group attribute = "none"). Further, in this data example, the time when each person (or group) entered the facility, the store visited and the time thereof, and the time when the person (or the group) entered the facility are also recorded.
In this way, the face image matching system of this example can not only analyze how each person behaves in the facility, but also determine whether or not they are acting in a group, and act in a group. If so, it can be seen that other viewpoints such as the behavior as a group can be analyzed.

以上のように、本例の顔画像照合システムは、入場口に設置された顔検知用の撮像装置100(1)と、施設内の各店舗及び出場口に設置された顔照合用の撮像装置100(2)〜100(N)と、顔検知用の撮像装置による撮影画像に基づく同一人物判定処理によって同一の人物であると判定された複数の顔画像の中から、当該人物を代表する顔画像である代表顔画像を選定する代表顔選定部203と、代表顔選定部203により選定された代表顔画像を顔データベース208に登録する登録処理部207と、顔照合用の撮像装置による撮影画像に含まれる顔画像を顔データベース208に登録された代表顔画像と照合する顔照合部210とを備えた構成となっている。
これにより、従来のように施設の各所に配置された人員が来場者をカウントすることを要せずに、来場者が施設内をどのように行動しているかを分析することができ、その結果を活かしたマーケティングを行えるようになる。しかも、来場者の人物属性(年齢や性別)を顔画像から自動的に判別して代表顔画像に対応付けて登録できるので、施設各所の人員が来場者の人物属性を区別しながらカウントする必要がない。
As described above, the face image matching system of this example includes the face detection imaging device 100 (1) installed at the entrance and the face matching imaging device installed at each store and the entrance in the facility. A face representing the person from 100 (2) to 100 (N) and a plurality of face images determined to be the same person by the same person determination process based on the image taken by the image pickup device for face detection. A representative face selection unit 203 that selects a representative face image that is an image, a registration processing unit 207 that registers a representative face image selected by the representative face selection unit 203 in the face database 208, and an image taken by an imaging device for face matching. The face matching unit 210 for collating the face image included in the face image with the representative face image registered in the face database 208 is provided.
This makes it possible to analyze how visitors are behaving in the facility without the need for personnel assigned to various parts of the facility to count visitors as in the past. You will be able to carry out marketing that makes the most of. Moreover, since the person attributes (age and gender) of the visitors can be automatically identified from the face image and registered in association with the representative face image, it is necessary for the personnel at each facility to count while distinguishing the person attributes of the visitors. There is no.

また、本例の顔画像照合システムは、代表顔選定部203が、複数の顔画像を予め登録された基準顔と比較し、基準顔との類似度に基づいて人物の代表顔画像を選定し、このとき、基準顔として、正面を向いて目を開いた顔画像を用いる構成となっている。
これにより、顔照合部210による照合類似度が高い傾向にある顔画像を代表顔画像に選定できるので、顔照合を精度よく行えるようになる。
Further, in the face image matching system of this example, the representative face selection unit 203 compares a plurality of face images with a pre-registered reference face and selects a representative face image of a person based on the degree of similarity with the reference face. At this time, as a reference face, a face image with the eyes facing forward is used.
As a result, the face image that tends to have a high degree of matching similarity by the face matching unit 210 can be selected as the representative face image, so that face matching can be performed with high accuracy.

また、本例の顔画像照合システムは、登録処理部207が、同一人物判定処理に使用された撮影画像に登録対象の人物とは別の人物の顔画像が含まれる場合に、別の人物の顔画像を含むグループ属性推定用データを登録対象の人物の代表顔画像に対応付けて顔データベース208に登録する構成となっており、更に、顔照合用の撮像装置による撮影画像に複数の人物の顔画像が含まれる場合に、顔データベース208に登録されたグループ属性推定用データに基づいて、これら複数の人物はグループで行動しているか否かを示すグループ属性を推定するグループ属性照合部211を更に備えている。
これにより、施設内に一緒に入場した来場者達をグループの可能性があるとして予め登録しておくことができ、また、その後の行動の共通性に基づいて実際にグループでどのように行動しているかを把握できるようになる。その結果、来場者達のグループが施設内をどのように行動しているかを分析することができ、その結果を活かしたマーケティングを行えるようになる。
Further, in the face image matching system of this example, when the registration processing unit 207 includes a face image of a person different from the person to be registered in the captured image used for the same person determination processing, the face image matching system of this example is used for another person. The group attribute estimation data including the face image is associated with the representative face image of the person to be registered and registered in the face database 208. Further, the images taken by the image pickup device for face matching include a plurality of people. When a face image is included, a group attribute matching unit 211 that estimates a group attribute indicating whether or not these a plurality of persons are acting in a group based on the group attribute estimation data registered in the face database 208 is provided. Further prepared.
This allows visitors who enter the facility together to be registered in advance as possible groups, and how they actually act as a group based on the commonality of subsequent actions. You will be able to know if you are doing it. As a result, it is possible to analyze how a group of visitors behaves in the facility, and it becomes possible to carry out marketing that makes use of the results.

また、本例の顔画像照合システムは、グループ属性照合部211が、複数の人物についてのグループ属性を、各人物の顔画像が同じ撮影画像から検出される頻度、撮影画像における各人物の顔画像間の距離を示す近接度、撮影画像における各人物の視線の関係を示す親密度の少なくともいずれかに基づいて推定し、更に、これら複数の人物の顔画像から推定される各人物の年齢又は性別の少なくともいずれかに基づいて、これら複数の人物の関係性を推定する構成となっている。
これにより、施設内を複数人で行動する来場者達のグループを精度よく特定できるようになる。また、各来場者の人物属性から互いの関係性を推定するので、グループの種類(例えば、親子、祖父母と孫、友人、恋人又は夫婦等)に応じた行動の違いも分析できるようになる。
Further, in the face image matching system of this example, the group attribute matching unit 211 detects group attributes for a plurality of people from the same shot image, the frequency at which each person's face image is detected from the same shot image, and the face image of each person in the shot image. Estimated based on at least one of the proximity indicating the distance between the images and the intimacy indicating the relationship of the line of sight of each person in the captured image, and further, the age or gender of each person estimated from the facial images of these multiple persons. The relationship between these multiple persons is estimated based on at least one of the above.
This makes it possible to accurately identify a group of visitors who act in the facility with multiple people. In addition, since the relationship between each visitor is estimated from the personal attributes of each visitor, it becomes possible to analyze the difference in behavior according to the type of group (for example, parent and child, grandparents and grandchildren, friends, lovers, couples, etc.).

また、本例の顔画像照合システムは、グループ属性照合部211で得られたデータを、各人物の年齢又は性別、施設に対する入場日時又は出場日時、グループ属性の少なくともいずれかに基づいて集計し、その結果のデータを転送する転送処理部214を更に備えている。
これにより、来場者達の各人物についての分析のみならず、各グループについて得られた各種の情報を、種々の観点から分析できるようになり、どのような人物で構成されたグループが、いつ、どこで、何をしたのかを分析することにより、各人物だけなく、特定の属性グループへ向けたマーケティングに活用することができる。
In addition, the face image matching system of this example aggregates the data obtained by the group attribute matching unit 211 based on at least one of the age or gender of each person, the date and time of entry or exit to the facility, and the group attribute. Further, a transfer processing unit 214 for transferring the resulting data is provided.
This makes it possible to analyze not only each person of the visitors but also various information obtained about each group from various viewpoints, and when and when the group composed of what kind of person By analyzing where and what you did, you can use it for marketing not only to each person but also to a specific attribute group.

ここで、例えば、来場者の入場日時と出場日時から施設の滞在時間を算出し、来場者(或いはグループ)の滞在時間を加味した行動分析を行って、マーケティングに活用するようにしてもよい。
また、施設内の店舗だけでなく通路や広場にも撮像装置を設置して来場者の顔照合を行うことで、来場者(或いはグループ)の動線を加味した行動分析を行って、マーケティングに活用するようにしてもよい。
Here, for example, the staying time of the facility may be calculated from the entry date and time and the exit date and time of the visitor, and the behavior analysis considering the staying time of the visitor (or group) may be performed and utilized for marketing.
In addition, by installing imaging devices not only in the stores in the facility but also in the aisles and plazas to verify the faces of visitors, we can analyze the behavior of visitors (or groups) in consideration of their flow lines for marketing. You may try to utilize it.

これまでの説明では、施設の入場口及び出場口が1つの場合を例にしているが、入場口及び出場口はそれぞれ複数であってもよいことは言うまでもない。また、入場口と出場口は別々である必要は無く、これらを兼用した入出場口があってもよい。この場合には、施設の外側に向けた撮像装置と、施設の内側に向けた撮像装置とを入出場口に設置しておけばよい。 In the explanation so far, the case where the facility has one entrance and one entrance is taken as an example, but it goes without saying that the number of entrances and exits may be multiple. Further, the entrance and exit do not have to be separate, and there may be an entrance / exit that also serves as these. In this case, an image pickup device facing the outside of the facility and an image pickup device facing the inside of the facility may be installed at the entrance / exit.

次に、本発明の別の実施形態に係る顔画像検索システムについて説明する。本実施形態に係る顔画像検索システムは、上述した顔画像照合システムを拡張または変形したものであり、図3に破線で示すように、検索サーバ600および操作端末700を更に備えている。検索サーバ600は、操作端末700の操作者により指定された検索条件に基づいて照合サーバ200内の顔データベース208(または照合履歴データベース212)から顔画像を検索し、検索結果を操作端末700に送信して表示出力させる処理を行う。 Next, a face image search system according to another embodiment of the present invention will be described. The face image search system according to the present embodiment is an extension or modification of the above-mentioned face image matching system, and further includes a search server 600 and an operation terminal 700 as shown by a broken line in FIG. The search server 600 searches for a face image from the face database 208 (or collation history database 212) in the collation server 200 based on the search conditions specified by the operator of the operation terminal 700, and transmits the search result to the operation terminal 700. And perform the process of displaying and outputting.

本実施形態に係る顔画像検索システムでは、グループ属性照合部211に、グループ行動判定機能を持たせている。グループ行動判定機能は、撮像装置100による撮像画像に含まれる顔画像の人物が、グループで行動しているのか、それとも一人で行動しているのかを判定し、判定結果の情報を該人物の顔画像に対応付けて顔データベース208(または照合履歴データベース212)に記憶させるものである。本例では、グループ行動判定機能を、近接人物数判定処理と、常時近接者数判定処理とを行うことで実現している。 In the face image search system according to the present embodiment, the group attribute collation unit 211 is provided with a group action determination function. The group behavior determination function determines whether the person in the face image included in the image captured by the imaging device 100 is acting in a group or alone, and the information of the determination result is used as the face of the person. It is stored in the face database 208 (or the collation history database 212) in association with the image. In this example, the group action determination function is realized by performing the proximity person number determination process and the constant proximity person number determination process.

近接人物数判定処理は、一つの撮像装置の撮影範囲において、歩行中である人物の顔画像が複数の画像フレーム(撮影画像)にわたって検出された場合に、それぞれの画像フレームについて、同じ画像フレーム中における当該人物の顔画像の検出位置に近接する領域で検出された他の人物の顔画像の数(近接人物数)を算出し、画像フレーム毎に算出した近接人物数の最大値を保存する処理である。近接人物数の最大値を求める理由は、画像処理において顔画像を検出する場合、遮蔽物の影響や光の加減等の撮影条件の変化により、一時的に顔画像の検出ができない場合があるためである。 In the proximity person number determination process, when a face image of a walking person is detected over a plurality of image frames (captured images) in the shooting range of one imaging device, each image frame is in the same image frame. The process of calculating the number of face images of another person (number of nearby people) detected in the area close to the detection position of the face image of the person in question and saving the maximum value of the calculated number of nearby people for each image frame. Is. The reason for finding the maximum value of the number of nearby people is that when a face image is detected in image processing, the face image may not be detected temporarily due to changes in shooting conditions such as the influence of obstacles and the amount of light. Is.

近接人物数判定処理について、図6の処理フローを参照して説明する。
最初に、メモリの確保や最大近接人物数の初期化を行う(ステップS101)。その後、判定対象人物が最初に検出された画像フレームから順に、以下の処理を行う。
まず、画像フレームに含まれる顔画像の検出数や検出位置などを取得する(ステップS102)。
次に、画像フレームにおいて判定対象人物の顔画像の近辺に存在する他の人物の顔画像の数をカウントする(ステップS103)。本例では、画像フレームにおける判定対象人物の顔画像との距離が所定値以下の位置に存在する他の顔画像を特定し、その数を近接人物数としてカウントしているが、他の手法により近接人物数のカウントを行っても構わない。
The process of determining the number of nearby persons will be described with reference to the process flow of FIG.
First, the memory is allocated and the maximum number of nearby people is initialized (step S101). After that, the following processing is performed in order from the image frame in which the determination target person is first detected.
First, the number of detected face images included in the image frame, the detection position, and the like are acquired (step S102).
Next, the number of face images of other persons existing in the vicinity of the face image of the person to be determined in the image frame is counted (step S103). In this example, another face image in the image frame whose distance from the face image of the judgment target person is equal to or less than a predetermined value is specified, and the number is counted as the number of nearby people. You may count the number of people in close proximity.

次に、ステップS103でカウントした当該画像フレームでの近接人物数と最大近接人物数とを比較する(ステップS104)。その結果、当該画像フレームでの近接人物数の方が多いと判定された場合は、最大近接人物数更新処理(ステップS105)に遷移し、そうでない場合は、人物領域追跡処理(ステップS106)に遷移する。
最大近接人物数更新処理(ステップS105)では、最大近接人物数の値を当該画像フレームでの近接人物数の値に置き換えて保存し、その後、人物領域追跡処理(ステップS106)に遷移する。
Next, the number of close-up people in the image frame counted in step S103 is compared with the maximum number of close-up people (step S104). As a result, if it is determined that the number of nearby people in the image frame is larger, the process proceeds to the maximum number of nearby people update process (step S105), and if not, the person area tracking process (step S106) is performed. Transition.
In the maximum number of nearby persons update process (step S105), the value of the maximum number of nearby persons is replaced with the value of the number of nearby persons in the image frame and saved, and then the process proceeds to the person area tracking process (step S106).

人物領域追跡処理(ステップS106)では、直前あるいは直近数フレームの検出結果と、現在の画像フレームの検出結果とに基づいて、人物の動きを追跡する。例えば、顔画像の位置や特徴量を画像フレーム間で比較することで、人物の動きの追跡を行う。
その後、追跡が終了しているか否かを判定する(ステップS107)。ここでは、追跡が終了した人物(例えば、撮像エリアから外れた人物)が存在する場合に、追跡が終了していると判定し、追跡が終了した人物が存在しない場合に、追跡が終了していないと判定する。
In the person area tracking process (step S106), the movement of a person is tracked based on the detection result of the immediately preceding or latest number of frames and the detection result of the current image frame. For example, the movement of a person is tracked by comparing the position and feature amount of a face image between image frames.
After that, it is determined whether or not the tracking is completed (step S107). Here, when there is a person whose tracking has been completed (for example, a person who is out of the imaging area), it is determined that the tracking has been completed, and when there is no person whose tracking has been completed, the tracking has been completed. It is determined that there is no such thing.

ステップS107の人物追跡判定で、追跡が終了していないと判定された場合は、ステップS102に戻り、次の画像フレームについての処理を行う。一方、追跡が終了したと判定された場合は、判定対象人物に関する最大近接人物数を確定し、その値を記録する(ステップS108)。その後、確保したメモリの解放等の処理を行う。 If it is determined in the person tracking determination in step S107 that the tracking has not been completed, the process returns to step S102 and the next image frame is processed. On the other hand, when it is determined that the tracking is completed, the maximum number of nearby persons with respect to the determination target person is determined, and the value is recorded (step S108). After that, processing such as release of the secured memory is performed.

常時近接者数判定処理は、ある人物が複数の撮像装置によって撮影された場合において、近接人物数判定処理(図6)に追加して実施される処理である。常時近接者数判定処理では、判定対象人物とともに撮影された人物が、たまたま判定対象人物の近くにいた人物か、判定対象人物と常に行動を共にしている人物かを判定し、常に行動を共にしている人物の数を常時近接者数として保存する。
以降では、たまたま判定対象人物の近くにいた人物を単に「近接人物」と記載し、判定対象人物と常に行動を共にしている人物を「常時近接人物」と記載する。
The constant number of nearby persons determination process is a process that is performed in addition to the number of nearby persons determination process (FIG. 6) when a certain person is photographed by a plurality of imaging devices. In the constant proximity number determination process, it is determined whether the person photographed together with the determination target person happens to be near the determination target person or is always acting with the determination target person, and the action is always shared. Always save the number of people who are in the vicinity as the number of nearby people.
Hereinafter, a person who happens to be near the judgment target person is simply described as a "proximity person", and a person who always acts with the judgment target person is described as a "always close person".

常時近接者数判定処理について、図7の処理フローを参照して説明する。
最初に、メモリの確保などを行う(ステップS201)。
次に、近接人物数判定処理で記録された近接人物数(すなわち、最大近接人物数)を取得する(ステップS202)。
次に、近接人物数が0か1以上かを判定し(ステップS203)、近接人物数が0の場合には、常時近接者数に0を記録する(ステップS209)。
The constant number of nearby persons determination process will be described with reference to the process flow of FIG. 7.
First, the memory is allocated (step S201).
Next, the number of nearby persons (that is, the maximum number of nearby persons) recorded in the proximity person number determination process is acquired (step S202).
Next, it is determined whether the number of nearby persons is 0 or 1 or more (step S203), and when the number of nearby persons is 0, 0 is always recorded in the number of nearby persons (step S209).

一方、近接人物数が1以上の場合には、他の撮像装置による撮影状況の検索を行う(ステップS204)。すなわち、判定対象人物の顔画像の特徴量を用いて、判定対象人物が映っている他の撮像装置による撮像画像を検索する。
その後、他の撮像装置による撮像画像に、判定対象人物が存在し且つ近接人物数が1以上である場合があるかを判定する(ステップS205)。すなわち、他の撮像装置による撮像画像の中に、判定対象人物が他の人物とともに映った撮像画像があるかを判定する。
On the other hand, when the number of nearby persons is 1 or more, the shooting status is searched by another imaging device (step S204). That is, the feature amount of the face image of the judgment target person is used to search for an image captured by another imaging device in which the judgment target person is shown.
After that, it is determined whether or not there is a person to be determined and the number of nearby persons is 1 or more in the image captured by another imaging device (step S205). That is, it is determined whether or not the image captured by the other image pickup device includes the image captured by the person to be determined together with the other person.

その結果、判定対象人物が他の人物とともに映った撮像画像が見つからなかった場合には、常時近接者数に0を記録する(ステップS209)。
一方、判定対象人物が他の人物とともに映った撮像画像が見つかった場合には、その撮像画像に含まれる他の人物の顔画像の特徴量を取得する(ステップS206)。
その後、取得した他の人物の顔画像の特徴量を、近接人物数判定処理で検出された近接人物の顔画像の特徴量と比較し、特徴量の類似度が所定値以上の近接人物が存在するか否かを判定する(ステップS207)。
As a result, when the captured image in which the determination target person is reflected together with the other person is not found, 0 is always recorded in the number of nearby persons (step S209).
On the other hand, when a captured image in which the determination target person appears together with another person is found, the feature amount of the face image of the other person included in the captured image is acquired (step S206).
After that, the feature amount of the acquired face image of another person is compared with the feature amount of the face image of the close person detected by the proximity person number determination process, and there is a close person whose similarity of the feature amount is equal to or more than a predetermined value. It is determined whether or not to do so (step S207).

ステップS207で類似度の高い近接人物が存在すると判定された場合には、類似度の高い近接人物の組み合わせの数、すなわち、異なる撮像装置による複数の撮像画像に共通して出現した近接人物の数を算出し、常時近接者数として記録する(ステップS208)。ここで、判定対象人物が存在し且つ近接人物数が1以上の撮影画像を撮影した他の撮像装置が、複数ある場合には、それら他の撮像装置のそれぞれについて算出した常時近接者数の合計を記録すればよい。ただし、同じ近接人物が2重にカウントされないように重複を排除する必要があることは言うまでもない。
一方、ステップS207で類似度の高い近接人物が存在しないと判定された場合には、常時近接者数に0を記録する(ステップS209)。
ステップS208,S209における常時近接者数の記録後は、確保したメモリの解放等の処理を行う。
When it is determined in step S207 that there are close-up persons with high similarity, the number of combinations of close-up persons with high similarity, that is, the number of close-up persons commonly appearing in a plurality of images captured by different imaging devices. Is calculated and recorded as the number of nearby persons at all times (step S208). Here, when there are a plurality of other imaging devices that have captured a photographed image in which a person to be determined exists and the number of nearby persons is 1 or more, the total number of constant proximity persons calculated for each of the other imaging devices. Should be recorded. However, it goes without saying that it is necessary to eliminate duplication so that the same nearby person is not counted twice.
On the other hand, when it is determined in step S207 that there is no close person having a high degree of similarity, 0 is always recorded in the number of close persons (step S209).
After recording the number of nearby persons at all times in steps S208 and S209, processing such as release of the secured memory is performed.

上記のグループ行動判定機能によって算出された常時近接者数は、判定対象人物の顔画像に対応付けて顔データベース208(または照合履歴データベース212)に記憶される。そして、操作端末700の操作者により単独行動または複数人行動を指定した検索条件が設定された場合に、その指定に合致する常時近接者数が対応付けられた顔画像の検索が検索サーバ600によって行われ、検索結果が操作端末700に表示出力される。すなわち、単独行動が指定された場合には、常時近接者数=0の人物の顔画像が検索され、複数人行動が指定された場合には常時近接者数≧1の人物の顔画像が検索される。 The number of constant proximity persons calculated by the above-mentioned group behavior determination function is stored in the face database 208 (or collation history database 212) in association with the face image of the determination target person. Then, when a search condition in which a single action or a plurality of person actions is specified is set by the operator of the operation terminal 700, the search server 600 searches for a face image associated with the number of always-closed persons matching the designation. The search result is displayed and output to the operation terminal 700. That is, when the single action is specified, the face image of the person whose number of close persons = 0 is always searched, and when the action of multiple people is specified, the face image of the person whose number of close persons ≥ 1 is always searched. Will be done.

以上のように、本例の顔画像検索システムは、撮像装置による撮影画像に含まれる顔画像を記憶する顔データベース208(または照合履歴データベース212)から、指定された検索条件に基づいて顔画像を検索する顔画像検索システムであり、撮影画像に含まれる顔画像の人物が一人で行動しているか否かを判定し、判定結果の情報を該人物の顔画像に対応付けて上記のデータベースに記憶させるグループ属性照合部211と、検索条件として、一人で行動している人物の検索または複数人で行動している人物の検索が指定された場合に、該指定に合致する判定結果の情報が対応付けられた顔画像を上記データベースから検索する検索サーバ600とを備えた構成となっている。 As described above, the face image search system of this example searches the face image from the face database 208 (or the collation history database 212) that stores the face image included in the image captured by the imaging device based on the specified search conditions. It is a face image search system to search, determines whether or not a person in the face image included in the captured image is acting alone, and stores the information of the determination result in the above database in association with the face image of the person. When a search for a person acting alone or a search for a person acting with multiple people is specified as a search condition, the information of the judgment result matching the specification corresponds to the group attribute collation unit 211 to be performed. It is configured to include a search server 600 that searches the attached face image from the database.

これにより、一人で映っているのか、複数人で映っているのかを指定して検索することが可能となり、ユーザにとって利便性の高いものとなる。具体例を挙げれば、一人で行われる犯罪や複数で行われる犯罪に絞った調査を行う場合に有効である。すなわち、従来の顔画像検索システムでは撮影映像を目視で判断するしかなかったが、本例の顔画像検索システムでは行動人数を絞り込んで検索できるので、調査の効率を大幅に高めることができる。 This makes it possible to search by specifying whether the image is displayed by one person or by a plurality of people, which is highly convenient for the user. To give a specific example, it is effective when conducting an investigation focusing on crimes committed by one person or crimes committed by multiple people. That is, in the conventional face image search system, the captured image can only be visually judged, but in the face image search system of this example, the number of active persons can be narrowed down and the search can be performed, so that the efficiency of the survey can be greatly improved.

また、本例の顔画像検索システムは、マーケティングの用途でデジタルサイネージに表示する内容を切り替えるような目的にも利用可能である。例えば、複数人で行動する人物がデジタルサイネージの近くに来た場合に、居酒屋の宴会コースをデジタルサイネージに表示させ、一人で行動する人物がデジタルサイネージの近くに来た場合に、カウンターのみのバーをデジタルサイネージに表示させるようなことも行える。 In addition, the face image search system of this example can also be used for the purpose of switching the content to be displayed on the digital signage for marketing purposes. For example, if a person who acts alone comes near the digital signage, the banquet course of the tavern is displayed on the digital signage, and when a person who acts alone comes near the digital signage, a bar with only a counter Can also be displayed on digital signage.

ここで、本例の顔画像検索システムは、異なる撮像装置による複数の撮像画像に同一の人物が含まれる場合に、これら複数の撮影画像に含まれる他の人物の共通性に基づいて、同一の人物が一人で行動しているか否かを判定する構成となっているので、個々の撮像装置による撮影映像だけで行動人数を判定する場合に比べ、精度良く行動人数を判定することができる。 Here, when the same person is included in a plurality of images captured by different imaging devices, the face image search system of this example is the same based on the commonality of other persons included in the plurality of captured images. Since it is configured to determine whether or not a person is acting alone, it is possible to determine the number of people who are acting more accurately than when the number of people who are acting is determined only by the images captured by each imaging device.

なお、本例の顔画像検索システムでは、撮影画像に含まれる顔画像の人物が一人で行動しているか否かの判定結果の情報として、常時近接者数を用いているので、行動人数を指定した検索にも対応することができる。すなわち、行動人数を指定した検索の場合には、常時近接者数=(行動人数−1)の人物の顔画像を検索すればよい。また、行動人数を指定した検索を更に拡張し、行動人数を範囲指定できるようにしてもよい。 In the face image search system of this example, the number of close persons is always used as the information of the judgment result of whether or not the person in the face image included in the photographed image is acting alone, so the number of actions is specified. It is also possible to correspond to the searched. That is, in the case of a search in which the number of action persons is specified, the face image of a person whose number of close persons = (number of action persons-1) may be always searched. Further, the search in which the number of actions is specified may be further expanded so that the range of the number of actions can be specified.

また、本例の顔画像検索システムでは、複数人で行動する人達は一緒に入場する傾向が高いことに鑑みて、入場口にある撮像装置100(1)の撮影画像を用いて近接人物数判定処理を行い、施設内及び出場口にある他の撮像装置100(2)〜100(N)を更に用いて常時近接者数判定処理を行っているが、このような構成に限定されない。すなわち、近接人物数判定処理および常時近接者数判定処理は、任意の撮像装置を用いて行うことができる。 Further, in the face image search system of this example, considering that people who act by a plurality of people are more likely to enter together, the number of nearby persons is determined using the image taken by the image pickup device 100 (1) at the entrance. The processing is performed, and the number of nearby persons is constantly determined using other imaging devices 100 (2) to 100 (N) in the facility and at the entrance, but the configuration is not limited to this. That is, the number of nearby persons determination process and the constant number of nearby persons determination process can be performed by using an arbitrary imaging device.

また、本例の顔画像検索システムは、入場口や出場口がある施設以外にも適用できることは言うまでもない。また、画像フレーム間での人物追跡や、異なる撮像装置間での人物の共通性の判定などを行う際に、顔画像の特徴量だけでなく、服装、持ち物、髪型等の他の特徴量を加味するようにしてもよい。また、顔データベース208や照合履歴データベース212に代えて(又はこれらとともに)、撮像装置による撮像画像を記録する画像データベースを備え、画像データベースに蓄積されている撮影画像を用いてグループ行動判定を行ってもよい。 Needless to say, the face image search system of this example can be applied to facilities other than those having entrances and exits. In addition, when tracking a person between image frames or determining the commonality of a person between different imaging devices, not only the feature amount of the face image but also other feature amounts such as clothes, belongings, and hairstyle are used. You may add it. Further, instead of (or together with) the face database 208 and the collation history database 212, an image database for recording images captured by the imaging device is provided, and group behavior determination is performed using the captured images stored in the image database. May be good.

なお、本発明に係るシステムや装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。例えば、上記の各実施形態で説明した構成を組み合わせて用いてもよい。
また、本発明は、例えば、本発明に係る処理を実行する方法や方式、そのような方法や方式を実現するためのプログラム、そのプログラムを記憶する記憶媒体などとして提供することも可能である。
The configuration of the system or device according to the present invention is not necessarily limited to the one shown above, and various configurations may be used. For example, the configurations described in each of the above embodiments may be used in combination.
Further, the present invention can be provided, for example, as a method or method for executing the process according to the present invention, a program for realizing such a method or method, a storage medium for storing the program, or the like.

本発明は、入場口及び出場口を有する施設で撮影された顔画像を照合する顔画像照合システムに利用することができる。 The present invention can be used in a face image matching system for collating face images taken at a facility having an entrance and an entrance.

100(1)〜100(N):撮像装置、 200:照合サーバ、 300:保守PC、 400:ネットワークスイッチ、 500:集計サーバ、 600:検索サーバ、 700:操作端末、
201:顔検知部、 202:同一人物判定部、 203:代表顔選定部、 204:フォーマット変換部、 205:属性判定部、206:ID付与人物情報生成部、 207:登録処理部、 208:顔データベース、 210:顔照合部、 211:グループ属性照合部、 212:照合履歴データベース、 214:転送処理部
100 (1) to 100 (N): Imaging device, 200: Verification server, 300: Maintenance PC, 400: Network switch, 500: Aggregation server, 600: Search server, 700: Operation terminal,
201: Face detection unit, 202: Same person determination unit, 203: Representative face selection unit, 204: Format conversion unit, 205: Attribute determination unit, 206: ID-assigned person information generation unit, 207: Registration processing unit, 208: Face Database, 210: Face matching unit, 211: Group attribute matching section, 212: Matching history database, 214: Transfer processing section

Claims (7)

撮像装置による撮影画像に含まれる顔画像を記憶するデータベースから、指定された検索条件に基づいて顔画像を検索する顔画像検索システムにおいて、
前記撮影画像に含まれる顔画像の人物が一人で行動しているか否かを判定し、判定結果の情報を該人物の顔画像に対応付けて前記データベースに記憶させる判定手段と、
前記検索条件として、一人で行動している人物の検索または複数人で行動している人物の検索が指定された場合に、該指定に合致する判定結果の情報が対応付けられた顔画像を前記データベースから検索する検索手段と、
いずれかの撮像装置の撮影範囲において、同一の人物の顔画像が複数の撮影画像にわたって検出された場合に、当該人物を判定対象人物として、前記複数の撮影画像のそれぞれについて、同じ撮影画像中における判定対象人物の顔画像の検出位置に近接する領域で検出された他の人物の顔画像の数を近接人物数として算出し、撮影画像毎に算出した近接人物数の最大値を最大近接人物数として保存する近接人物数判定手段と、を備え、
前記近接人物数判定手段は、前記複数の撮影画像のそれぞれを順にカウント処理の対象として、対象の撮影画像において判定対象人物の顔画像との距離が所定値以下の位置に存在する他の顔画像を特定して近接人物数をカウントし、対象の撮影画像での近接人物数とこれまでの最大近接人物数とを比較し、対象の近接人物数の方が多いと判定された場合は最大近接人物数更新処理に遷移し、そうでない場合は次の撮影画像を対象としたカウント処理に遷移し、前記最大近接人物数更新処理では、最大近接人物数の値を対象の撮影画像での近接人物数の値に置き換えて保存し、次の撮影画像を対象としたカウント処理に遷移することを特徴とする顔画像検索システム。
In a face image search system that searches for a face image based on specified search conditions from a database that stores the face image included in the image taken by the image pickup device.
A determination means for determining whether or not a person with a face image included in the captured image is acting alone, and storing the information of the determination result in association with the face image of the person in the database.
When a search for a person acting alone or a search for a person acting with a plurality of people is specified as the search condition, the face image associated with the information of the determination result matching the designation is described above. Search means to search from the database and
When a face image of the same person is detected over a plurality of captured images in the imaging range of any of the imaging devices, the person is used as a determination target person, and each of the plurality of captured images is included in the same captured image. The number of face images of other people detected in the area close to the detection position of the face image of the judgment target person is calculated as the number of close people, and the maximum value of the number of close people calculated for each captured image is the maximum number of close people. Equipped with a means for determining the number of nearby people to be saved as
The proximity person number determination means targets each of the plurality of captured images in order for counting processing, and another facial image existing at a position where the distance from the face image of the determination target person is equal to or less than a predetermined value in the target captured image. Is specified, the number of close-up people is counted, the number of close-up people in the target captured image is compared with the maximum number of close-up people so far, and if it is determined that the number of close-up people of the target is larger, the maximum proximity is reached. Transition to the number of people update process, otherwise transition to the count process for the next captured image, and in the maximum number of nearby people update process, the value of the maximum number of nearby people is used as the value of the maximum number of nearby people in the target captured image. A face image search system characterized by replacing it with a number value, saving it, and transitioning to a counting process for the next captured image.
請求項に記載の顔画像検索システムにおいて、
前記判定手段は、異なる撮像装置による複数の撮像画像に同一の人物が含まれる場合に、前記複数の撮影画像に含まれる他の人物の共通性に基づいて、前記同一の人物が一人で行動しているか否かを判定することを特徴とする顔画像検索システム。
In the face image search system according to claim 1,
In the determination means, when the same person is included in a plurality of images captured by different imaging devices, the same person acts alone based on the commonality of other persons included in the plurality of captured images. A face image search system characterized by determining whether or not a person is present.
請求項1又は請求項2に記載の顔画像検索システムにおいて、 In the face image search system according to claim 1 or 2.
前記撮像装置は、施設の入場口に設置された第1の撮像装置と、前記施設内及び前記施設の出場口に設置された第2の撮像装置とを含み、 The imaging device includes a first imaging device installed at the entrance of the facility and a second imaging device installed in the facility and at the entrance of the facility.
前記第1の撮像装置による撮影画像に基づく同一人物判定処理によって同一の人物であると判定された複数の顔画像の中から、前記人物を代表する顔画像である代表顔画像を選定する選定手段と、 A selection means for selecting a representative face image, which is a face image representing the person, from a plurality of face images determined to be the same person by the same person determination process based on the image captured by the first imaging device. When,
前記選定手段により選定された代表顔画像を前記データベースに登録する登録手段と、 A registration means for registering a representative face image selected by the selection means in the database, and a registration means.
前記第2の撮像装置による撮影画像に含まれる顔画像を前記データベースに登録された代表顔画像と照合する照合手段とを更に備えたことを特徴とする顔画像検索システム。 A face image search system further provided with a collation means for collating a face image included in an image captured by the second image pickup device with a representative face image registered in the database.
請求項3に記載の顔画像検索システムにおいて、 In the face image search system according to claim 3,
前記選定手段は、前記複数の顔画像を予め登録された基準顔と比較し、前記基準顔との類似度に基づいて前記人物の代表顔画像を選定し、 The selection means compares the plurality of face images with a pre-registered reference face, and selects a representative face image of the person based on the degree of similarity with the reference face.
前記基準顔として、正面を向いて目を開いた顔画像を用いることを特徴とする顔画像検索システム。 A face image search system characterized in that a face image in which the eyes are opened facing the front is used as the reference face.
請求項3又は請求項4に記載の顔画像検索システムにおいて、 In the face image search system according to claim 3 or 4.
前記登録手段は、前記同一人物判定処理に使用された撮影画像に前記人物とは別の人物の顔画像が含まれる場合に、前記別の人物の顔画像を含むグループ属性推定用データを前記人物の代表顔画像に対応付けて前記データベースに登録し、 When the captured image used for the same person determination process includes a face image of a person other than the person, the registration means obtains group attribute estimation data including the face image of the other person. Registered in the above database in association with the representative face image of
前記判定手段は、前記第2の撮像装置による撮影画像に複数の人物の顔画像が含まれる場合に、前記データベースに登録されたグループ属性推定用データに基づいて、当該撮影画像に含まれる顔画像の人物が一人で行動しているかグループで行動しているかを示すグループ属性を推定し、当該グループ属性を前記判定結果の情報に含めて該人物の顔画像に対応付けて前記データベースに記憶させることを特徴とする顔画像検索システム。 When the image captured by the second imaging device includes facial images of a plurality of persons, the determination means includes the facial image included in the captured image based on the group attribute estimation data registered in the database. Estimate a group attribute indicating whether the person is acting alone or in a group, include the group attribute in the information of the determination result, associate it with the face image of the person, and store it in the database. A face image search system featuring.
請求項5に記載の顔画像検索システムにおいて、 In the face image search system according to claim 5,
前記判定手段は、前記複数の人物についてのグループ属性を、各人物の顔画像が同じ撮影画像から検出される頻度、撮影画像における各人物の顔画像間の距離を示す近接度、撮影画像における各人物の視線の関係を示す親密度の少なくともいずれかに基づいて推定し、更に、前記複数の人物の顔画像から推定される各人物の年齢又は性別の少なくともいずれかに基づいて、前記複数の人物の関係性を推定することを特徴とする顔画像検索システム。 The determination means determines the group attributes of the plurality of persons, the frequency with which the face image of each person is detected from the same captured image, the proximity indicating the distance between the face images of each person in the captured image, and each of the captured images. The plurality of persons are estimated based on at least one of the intimacy indicating the relationship between the lines of sight of the persons, and further based on at least one of the ages or genders of each person estimated from the facial images of the plurality of persons. A face image search system characterized by estimating the relationship between people.
請求項5又は請求項6に記載の顔画像検索システムにおいて、 In the face image search system according to claim 5 or 6.
複数の人物により構成された各グループについて得られたデータを、各人物の年齢又は性別、前記施設に対する入場日時又は出場日時、グループ属性の少なくともいずれかに基づいて集計する集計手段を更に備えたことを特徴とする顔画像検索システム。 Further provided with an aggregation means for aggregating the data obtained for each group composed of a plurality of persons based on at least one of the age or gender of each person, the date and time of entry or exit to the facility, and the group attribute. A face image search system featuring.
JP2019509281A 2017-03-27 2018-03-16 Face image matching system and face image search system Active JP6854881B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2017060932 2017-03-27
JP2017060932 2017-03-27
JP2018018832 2018-02-06
JP2018018832 2018-02-06
PCT/JP2018/010442 WO2018180588A1 (en) 2017-03-27 2018-03-16 Facial image matching system and facial image search system

Publications (2)

Publication Number Publication Date
JPWO2018180588A1 JPWO2018180588A1 (en) 2020-01-16
JP6854881B2 true JP6854881B2 (en) 2021-04-07

Family

ID=63675871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019509281A Active JP6854881B2 (en) 2017-03-27 2018-03-16 Face image matching system and face image search system

Country Status (2)

Country Link
JP (1) JP6854881B2 (en)
WO (1) WO2018180588A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7327923B2 (en) * 2018-10-18 2023-08-16 キヤノン株式会社 Information processing device, information processing method, system and program
JP6511204B1 (en) * 2018-10-31 2019-05-15 ニューラルポケット株式会社 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, SERVER DEVICE, PROGRAM, OR METHOD
JP6769475B2 (en) 2018-12-04 2020-10-14 日本電気株式会社 Information processing system, management method for authentication, and program
JP7122693B2 (en) * 2019-02-01 2022-08-22 パナソニックIpマネジメント株式会社 Face authentication system and face authentication method
JP7214830B2 (en) * 2019-03-01 2023-01-30 株式会社日立国際電気 Image matching system
JP7294061B2 (en) 2019-10-28 2023-06-20 日本電気株式会社 ACCOMMODATION FACILITY MANAGEMENT SYSTEM, ACCOMMODATION FACILITY MANAGEMENT DEVICE, ACCOMMODATION FACILITY MANAGEMENT METHOD, AND COMPUTER PROGRAM
CN111488476B (en) * 2020-04-03 2023-06-27 北京爱芯科技有限公司 Image pushing method, model training method and corresponding devices
CN111708906B (en) * 2020-06-16 2022-12-27 重庆锐云科技有限公司 Visiting retrieval method, device and equipment based on face recognition and storage medium
JP7430599B2 (en) * 2020-08-21 2024-02-13 富士フイルム株式会社 Information processing device, information processing method, and information processing program
JP7327571B2 (en) * 2020-09-24 2023-08-16 日本電気株式会社 Information processing system, terminal device, authentication target management method, and program
JP7067593B2 (en) * 2020-09-24 2022-05-16 日本電気株式会社 Information processing system, management method for authentication, and program
CN112651335B (en) * 2020-12-25 2024-05-07 深圳集智数字科技有限公司 Method, system, equipment and storage medium for identifying fellow persons
CN117043809A (en) * 2021-03-17 2023-11-10 日本电气株式会社 Information processing apparatus, information processing method, and recording medium
WO2023238614A1 (en) * 2022-06-09 2023-12-14 コニカミノルタ株式会社 Information processing device, information processing system, information processing method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013768A (en) * 2002-06-11 2004-01-15 Gen Tec:Kk Individual identification method
JP4506381B2 (en) * 2004-09-27 2010-07-21 沖電気工業株式会社 Single actor and group actor detection device
JP5172167B2 (en) * 2006-02-15 2013-03-27 株式会社東芝 Person recognition device and person recognition method
JP4888191B2 (en) * 2007-03-30 2012-02-29 株式会社ニコン Imaging device
JP2010113692A (en) * 2008-11-10 2010-05-20 Nec Corp Apparatus and method for recording customer behavior, and program
JP2011070275A (en) * 2009-09-24 2011-04-07 Seiko Epson Corp Image processor
JP2011107997A (en) * 2009-11-18 2011-06-02 Sony Corp Apparatus, method and program for processing information
JP2014142810A (en) * 2013-01-24 2014-08-07 Canon Inc Image processing apparatus, image processing method, and program
JP6276519B2 (en) * 2013-05-22 2018-02-07 株式会社 日立産業制御ソリューションズ Person counting device and human flow line analyzing device

Also Published As

Publication number Publication date
WO2018180588A1 (en) 2018-10-04
JPWO2018180588A1 (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP6854881B2 (en) Face image matching system and face image search system
US11704936B2 (en) Object tracking and best shot detection system
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
JP4753193B2 (en) Flow line management system and program
US8570376B1 (en) Method and system for efficient sampling of videos using spatiotemporal constraints for statistical behavior analysis
TWI416068B (en) Object tracking method and apparatus for a non-overlapping-sensor network
WO2017122258A1 (en) Congestion-state-monitoring system
JP5888770B2 (en) Lost child detection system and method
CN110222640A (en) Monitor recognition methods, device, method and the storage medium of suspect in place
CN107958258A (en) For following the trail of the method and system of the object in limited area
EP2113846B1 (en) Behavior history searching device and behavior history searching method
JP2018093283A (en) Monitoring information gathering system
CN103578018A (en) Method, device and system for detecting lost sales due to an out-of-shelf condition
CN110717358B (en) Visitor number counting method and device, electronic equipment and storage medium
CN109145707A (en) Image processing method and device, electronic equipment and storage medium
CN111814510B (en) Method and device for detecting legacy host
CN110096606B (en) Foreign roll personnel management method and device and electronic equipment
JP2015090579A (en) Behavior analysis system
CN110598551B (en) Method, device, equipment and medium for improving pedestrian identity recognition efficiency
US11537639B2 (en) Re-identification of physical objects in an image background via creation and storage of temporary data objects that link an object to a background
JP5202419B2 (en) Security system and security method
CN109977796A (en) Trail current detection method and device
CN109871456A (en) A kind of detention house personnel relationship analysis method, device and electronic equipment
JP2021012657A (en) Information processing apparatus, information processing method, and camera
JP2021106330A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210316

R150 Certificate of patent or registration of utility model

Ref document number: 6854881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250