JP2007249953A - Person identification device and person identification method - Google Patents

Person identification device and person identification method Download PDF

Info

Publication number
JP2007249953A
JP2007249953A JP2007033950A JP2007033950A JP2007249953A JP 2007249953 A JP2007249953 A JP 2007249953A JP 2007033950 A JP2007033950 A JP 2007033950A JP 2007033950 A JP2007033950 A JP 2007033950A JP 2007249953 A JP2007249953 A JP 2007249953A
Authority
JP
Japan
Prior art keywords
information
group
person
persons
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007033950A
Other languages
Japanese (ja)
Other versions
JP2007249953A5 (en
JP5172167B2 (en
Inventor
Hiroshi Sukegawa
寛 助川
Makoto Shimizu
眞 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007033950A priority Critical patent/JP5172167B2/en
Publication of JP2007249953A publication Critical patent/JP2007249953A/en
Publication of JP2007249953A5 publication Critical patent/JP2007249953A5/ja
Application granted granted Critical
Publication of JP5172167B2 publication Critical patent/JP5172167B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a person identification device and person identification method which can efficiently detect a group composed of a plurality of persons and has high convenience or security property. <P>SOLUTION: The person identification device obtains information including biometric information of a person, detects the biometric information of at least one person from the obtained information, collates each detected biometric information with the biometric information of at least one registrant associated with group information and stored in a storage unit to thereby identify the person having the biometric information detected from the obtained information, classifies a plurality of successively identified persons into group candidates based on predetermined conditions, divides the respective persons of the group candidates into groups based on the group information of each person stored in the storage unit, and outputs a grouping result to an external device. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、たとえば、人物の顔、網膜、口、虹彩、指紋、掌紋、耳、人体の一部の静脈形状などの生体情報を取得し、あらかじめ登録されている少なくとも1つ以上の生体情報と照合する人物認識装置および人物認識方法に関する。   The present invention acquires, for example, biological information such as a person's face, retina, mouth, iris, fingerprint, palm print, ear, and vein shape of a part of a human body, and at least one biological information registered in advance The present invention relates to a person recognition device and a person recognition method for collation.

従来、たとえば、人物認識装置では、認識対象者の顔、網膜、口、虹彩、指紋、掌紋、耳、人体の一部の静脈形状などの生体情報を取得し、取得した生体情報と予め登録されている少なくとも1つ以上の生体情報とを照合することにより当該認識対象者が予め登録された人物(登録者)であるか否かを判定する。また、セキュリティエリアへの入退場あるいは特定の機器へのアクセスを管理するアクセス制御システム、あるいは、人物を監視する人物の監視システムでは、上記人物認識装置による判定結果に応じた制御を行うものが開発されている。人物認識装置に用いられる人物認識方法には、立ち止まった状態の認識対象者から取得した生体情報と予め登録されている生体情報とを照合する方法、あるいは、歩行などの動作状態の認識対象者から取得した生体情報と予め登録されている生体情報とを照合する方法などの様々な応用例がある。   2. Description of the Related Art Conventionally, for example, in a person recognition device, biological information such as a recognition target person's face, retina, mouth, iris, fingerprint, palm print, ear, and vein shape of a part of a human body is acquired, and the acquired biological information is registered in advance. It is determined whether or not the recognition target person is a person (registrant) registered in advance by collating with at least one or more biometric information. In addition, an access control system that manages entry / exit to a security area or access to a specific device, or a person monitoring system that monitors a person, has developed a control that performs control according to the determination result by the person recognition device. Has been. The person recognition method used for the person recognition device includes a method of collating biometric information acquired from a person who is in a stationary state with biometric information registered in advance, or a person who is recognized in an operation state such as walking. There are various application examples such as a method of collating acquired biometric information with biometric information registered in advance.

たとえば、通路等を通行している状態の認識対象者(通行者)から取得した生体情報と予め登録されている生体情報とを照合する通行者認識装置では、認識対象者に認識処理が行われていることを特別に意識させなくとも認識処理を実行することができる。このような通行者を認識する通行者認識装置では、連続して歩行している複数の通行者を認識する場合も想定される。このような場合、従来の人物認識装置では、連続して歩行している複数の人物であっても、1人1人について認識処理を行なう。また、従来は、伴連れを防止するために、連続する人物の人数を計測する技術も公開されている(たとえば、特許文献1)。
特許第3617373号公報 特開2001−256496号公報 特開2004−362283号公報
For example, in a passer-by identification apparatus that collates biometric information acquired from a recognition target person (passerby) who is passing a passage or the like with biometric information registered in advance, recognition processing is performed on the recognition target person. The recognition process can be executed without making the user aware of the situation. In such a passer-by recognition apparatus that recognizes a passer-by, it is assumed that a plurality of passers-by who are walking continuously are recognized. In such a case, the conventional person recognition apparatus performs recognition processing for each person, even for a plurality of persons walking continuously. Conventionally, a technique for measuring the number of consecutive persons has been disclosed in order to prevent companion (for example, Patent Document 1).
Japanese Patent No. 3617373 JP 2001-256696 A JP 2004-362283 A

この発明の一形態では、複数の人物からなるグループを効率的に判定でき、利便性の高い人物認識装置および人物認識方法を提供することを目的とする。   An object of one aspect of the present invention is to provide a highly convenient person recognition device and person recognition method that can efficiently determine a group of a plurality of persons.

この発明の一形態としての人物認識装置は、人物を認識するものであって、少なくとも1つの登録者の生体情報と各登録者のグループを示すグループ情報とが対応づけて記憶されている記憶手段と、人物の生体情報を含む情報を取得する情報取得手段と、前記情報取得手段により取得された情報から少なくとも1人分の生体情報を検出する検出手段と、前記検出手段により検出された各生体情報と前記記憶手段に記憶されている各生体情報とを照合することにより前記検出手段により検出された生体情報の人物を認識する認識手段と、前記認識手段により順次認識された複数の人物を所定の条件に基づいてグループ候補に分類し、そのグループ候補の各人物を前記記憶手段に記憶されている各人物のグループ情報に基づいてグループ分けするグループ判定手段と、このグループ判定手段によるグループ分けの結果を外部機器へ出力する出力手段とを有する。   A person recognition apparatus according to an aspect of the present invention recognizes a person and stores at least one biometric information of a registrant and group information indicating a group of each registrant in association with each other. Information acquisition means for acquiring information including biological information of a person, detection means for detecting biological information for at least one person from the information acquired by the information acquisition means, and each biological body detected by the detection means Recognizing means for recognizing a person of the biometric information detected by the detecting means by collating information with each biometric information stored in the storage means, and a plurality of persons sequentially recognized by the recognizing means Are classified into group candidates based on the above conditions, and each person of the group candidate is grouped based on the group information of each person stored in the storage means It has a loop determination means, and output means for outputting a result of the grouping by the group judgment unit to an external device.

この発明の一形態としての人物認識装置は、人物を認識するものであって、少なくとも1つの登録者の生体情報と各登録者のグループを示すグループ情報とが対応づけて記憶されている記憶手段と、1つのエリア内における複数の監視エリアごとに、各監視エリアに存在している人物の生体情報を含む情報を順次取得する情報取得手段と、前記情報取得手段により取得された各情報から少なくとも1人分の生体情報を検出する検出手段と、前記検出手段により検出された各生体情報と前記記憶手段に記憶されている各生体情報とを照合することにより前記検出手段により検出された生体情報の人物を認識する認識手段と、前記情報取得手段が取得した各監視エリアの情報と、その情報から前記検出手段が検出した生体情報に対する前記認識手段による認識結果とに基づいて、前記エリア内における複数の人物での集団行動を判定するグループ判定手段と、このグループ判定手段による判定結果を外部機器へ出力する出力手段とを有する。   A person recognition apparatus according to an aspect of the present invention recognizes a person and stores at least one biometric information of a registrant and group information indicating a group of each registrant in association with each other. And, for each of a plurality of monitoring areas in one area, information acquisition means for sequentially acquiring information including biological information of a person existing in each monitoring area, and at least from each information acquired by the information acquisition means Detection means for detecting biological information for one person, and biological information detected by the detection means by collating each biological information detected by the detection means with each biological information stored in the storage means Recognition means for recognizing a person, information on each monitoring area acquired by the information acquisition means, and the recognition means for the biological information detected by the detection means from the information Based on the recognition result by, has a group determining means for determining a group behavior of a plurality of persons in the area, and output means for outputting a determination result by the group judgment unit to an external device.

この発明の一形態としての人物認識方法は、人物を認識する人物認識装置に用いられる方法であって、人物の生体情報を含む情報を取得し、取得した情報から少なくとも1人分の生体情報を検出し、検出した各生体情報と、グループ情報を対応づけて記憶手段に記憶されている少なくとも1人の登録者の生体情報とを照合することにより、前記取得した情報から検出した生体情報の人物を認識し、順次認識された複数の人物を所定の条件に基づいてグループ候補に分類し、前記グループ候補の各人物を前記記憶手段に記憶されている各人物のグループ情報に基づいてグループ分けし、このグループ分けの結果を外部機器へ出力する。   A person recognition method according to an aspect of the present invention is a method used in a person recognition apparatus for recognizing a person, acquiring information including biological information of the person, and obtaining at least one biological information from the acquired information. The detected biometric information is collated with the biometric information of at least one registrant stored in the storage unit in association with the group information, thereby detecting the biometric information detected from the acquired information. And sequentially classifying a plurality of persons recognized as group candidates based on a predetermined condition, and grouping the persons of the group candidates based on group information of each person stored in the storage means The grouping result is output to an external device.

この発明の一形態としての人物認識方法は、人物を認識する人物認識装置に用いられる方法であって、1つのエリア内における複数の監視エリアごとに、各監視エリアに存在している人物の生体情報を含む情報を順次取得し、前記取得した各情報から少なくとも1人分の生体情報を検出し、前記検出した各生体情報と、グループ情報を対応づけて記憶手段に記憶されている少なくとも1人の登録者の生体情報とを照合することにより、前記取得した情報から検出した各生体情報の人物を認識し、前記取得した各監視エリアの情報と、その情報から検出された生体情報に対する認識結果とに基づいて、前記エリア内における複数の人物での集団行動を判定し、前記集団行動の判定結果を外部機器へ出力する。   A person recognition method according to an aspect of the present invention is a method used in a person recognition apparatus for recognizing a person, and for each of a plurality of monitoring areas in one area, a living body of a person existing in each monitoring area. Information including information is sequentially acquired, biometric information for at least one person is detected from each of the acquired information, and at least one person stored in the storage unit in association with each detected biometric information and group information The person of each biometric information detected from the acquired information is recognized by collating with the biometric information of the registrant, and the information of each acquired monitoring area and the recognition result for the biometric information detected from the information Based on the above, the group behavior of a plurality of persons in the area is determined, and the determination result of the group behavior is output to an external device.

この発明の一形態では、複数の人物からなるグループを効率的に判定でき、利便性の高い人物認識装置および人物認識方法を提供することを目的とする。   An object of one aspect of the present invention is to provide a highly convenient person recognition device and person recognition method that can efficiently determine a group of a plurality of persons.

以下、本発明に係る実施の形態について図面を参照して説明する。
以下の各実施の形態では、認識対象者の顔の画像(生体情報)から得られた顔の特徴情報を予め登録されている少なくとも1つ以上の顔の特徴情報と照合することにより当該認識対象者を認識する人物認識装置について説明する。以下に説明する各実施の形態の人物認識装置は、顔以外の様々な生体情報により人物の認識を行なう方法に適用できる。たとえば、人物認識装置には、顔画像以外に、網膜、口、虹彩、指紋、掌紋、耳、人体の一部(手または指等)の静脈形状などの生体情報により人物を認識する方法が適用可能である。
Hereinafter, embodiments according to the present invention will be described with reference to the drawings.
In each of the following embodiments, the recognition target is obtained by collating the facial feature information obtained from the facial image (biological information) of the recognition subject with at least one registered facial feature information. A person recognition device for recognizing a person will be described. The person recognition apparatus of each embodiment described below can be applied to a method for recognizing a person using various biological information other than the face. For example, a method for recognizing a person based on biological information such as a retina, mouth, iris, fingerprint, palm print, ear, vein shape of a part of a human body (such as a hand or a finger) is applied to a person recognition device. Is possible.

また、各実施の形態では、特定の場所を通行する人物(通行者)を認識する人物認識装置としての通行者認識装置について説明する。各実施の形態の通行者認識装置は、たとえば、特定の人物のみが入退場を許可されるエリア(セキュリティエリア)への人物の入退場を管理する入退場管理システム、特定の機器などへのアクセスを制御するアクセス制御システム、特定の場所を通行する人物を監視員が監視するための人物の監視システム、あるいは、特定の条件に基づいて監視映像を記憶装置に記憶する監視映像の記録システムなどに適用されることが想定される。   In each embodiment, a passer-by recognition apparatus as a person recognition apparatus that recognizes a person (passer-by) who passes through a specific place will be described. The passer-by identification apparatus according to each embodiment is, for example, an entrance / exit management system that manages entry / exit of a person to / from an area (security area) in which only a specific person is permitted to enter / exit, access to a specific device, etc. An access control system for controlling a person, a person monitoring system for a supervisor to monitor a person passing through a specific place, or a monitoring video recording system for storing a monitoring video in a storage device based on a specific condition It is assumed that it will be applied.

なお、各実施の形態の通行者認識装置は、特に、認識対象者としての通行者が非常に多い場所における入退場管理あるいは人物の監視などを行うシステムに適用することを想定するものとする。たとえば、各実施の形態の通行者認識装置は、ビルディングあるいは企業の建物のエントランスを出入りする通行者を管理する入退場管理システム、あるいは、商用施設、娯楽施設あるいは交通機関などの多くの通行者が出入りする場所における人物の監視システムに適用されることを想定している。   In addition, it is assumed that the passer-by identification apparatus according to each embodiment is applied to a system that performs entrance / exit management or monitoring of a person in a place where there are very many passers-by as recognition targets. For example, the passer-by identification device according to each embodiment has an entrance / exit management system that manages passers-by entering and exiting the entrance of a building or a company building, or a large number of passers-by such as commercial facilities, entertainment facilities, or transportation facilities. It is assumed that the present invention is applied to a person monitoring system at an entry / exit place.

まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る人物認識装置としての通行者認識装置102を含む通行者認識システム100の構成例を概略的に示すものである。なお、図1は、通行者認識システム100がゲートの通行(入退場)を制御する入退場管理システムおよび人物の監視システムとして運用される場合の構成例を示している。
図1に示すように、通行者認識システム100は、カメラ101、通行者認識装置102、ゲート装置103、および、監視装置104などにより構成されている。
First, the first embodiment will be described.
FIG. 1 schematically shows a configuration example of a passer-by recognition system 100 including a passer-by recognition device 102 as a person recognition device according to the first embodiment. FIG. 1 shows a configuration example when the passer-by identification system 100 is operated as an entrance / exit management system for controlling gate passage (entrance / exit) and a person monitoring system.
As shown in FIG. 1, the passer-by identification system 100 includes a camera 101, a passer-by identification device 102, a gate device 103, a monitoring device 104, and the like.

上記カメラ101は、生体情報としての顔画像を含む情報(画像)を取得するための装置である。上記カメラ101は、特定の場所(監視するエリア)の画像を撮影する。上記カメラ101では、ゲート装置103を通行しようとする通行者Mの顔画像(少なくとも顔を含んでいる画像)を撮影するようになっている。上記カメラ101は、動画(所定のフレームレートの連続する画像)を撮影するカメラである。たとえば、上記カメラ101は、CCDセンサなどの撮像素子によりテレビジョンカメラなどにより構成される。上記カメラ101は、撮影した画像を上記通行者認識装置102に供給するようになっている。なお、生体情報を含む情報を取得するための装置としては、カメラの代わりに、スキャナなどの情報入力装置を用いるようにしても良い。   The camera 101 is a device for acquiring information (image) including a face image as biological information. The camera 101 captures an image of a specific place (area to be monitored). The camera 101 captures a face image (an image including at least a face) of a passerby M who wants to pass through the gate device 103. The camera 101 is a camera that captures moving images (continuous images at a predetermined frame rate). For example, the camera 101 is configured by a television camera or the like with an imaging element such as a CCD sensor. The camera 101 supplies the captured image to the passer-by identification device 102. In addition, as an apparatus for acquiring information including biological information, an information input apparatus such as a scanner may be used instead of a camera.

また、当該通行者認識システム100の運用形態によっては、通行者を検知するための補助手段として、上記カメラ101の近傍に人物を検知するためのセンサ101aを設置するようにしても良い。上記カメラ101の近傍に設置されるセンサ101aとしては、たとえば、カメラ101により撮影されている人物からカメラ101までの距離を検出するための距離センサ、カメラ101により撮影されている人物の移動速度を計測するための速度計測器などがある。上記のようなセンサで検出した情報は、カメラ101で撮影した画像に対する補助情報として上記通行者認識装置102へ供給されるようにすれば良い。   Further, depending on the operation mode of the passer-by identification system 100, a sensor 101a for detecting a person may be installed in the vicinity of the camera 101 as an auxiliary means for detecting a passer-by. As the sensor 101a installed in the vicinity of the camera 101, for example, a distance sensor for detecting the distance from the person photographed by the camera 101 to the camera 101, and the moving speed of the person photographed by the camera 101 are used. There are speed measuring instruments to measure. Information detected by the sensor as described above may be supplied to the passer-by identification device 102 as auxiliary information for an image captured by the camera 101.

上記通行者認識装置102は、上記カメラ101が撮影した画像から検出される顔画像の人物を認識するものである。また、上記通行者認識装置102は、人物の認識結果をゲート装置103へ出力するようになっている。上記通行者認識装置102では、上記カメラ101により撮影した画像を取得(入力)し、入力した画像から顔の特徴情報の抽出し、抽出した顔の特徴情報と予め記憶装置に記憶(登録)されている登録者の顔の特徴情報とを照合する。また、上記通行者認識装置102は、順次、カメラ101から入力する画像に対する照合結果と所定の条件とに基づいて認識された人物に対するグループ判定を行う。上記通行者認識装置102は、上記のような照合結果とグループ判定の結果とをゲート装置103および監視装置104へ出力する。   The passer-by identification device 102 recognizes a person in a face image detected from an image captured by the camera 101. Further, the passer-by identification device 102 outputs a person recognition result to the gate device 103. The passer-by identification apparatus 102 acquires (inputs) an image taken by the camera 101, extracts facial feature information from the input image, and stores (registers) the extracted facial feature information in advance in a storage device. It matches with the registrant's facial feature information. In addition, the passer-by identification device 102 sequentially performs group determination on a person who is recognized based on a collation result for an image input from the camera 101 and a predetermined condition. The passer-by identification device 102 outputs the comparison result and the group determination result as described above to the gate device 103 and the monitoring device 104.

上記ゲート装置103および上記監視装置104は、上記通行者認識装置102による処理結果等の出力に応じて動作する外部装置である。上記ゲート装置103あるいは上記監視装置104は、当該システムの運用形態に応じて設置されるものである。上記ゲート装置103あるいは上記監視装置104は、当該システムの運用形態によっては省略するようにして良い。   The gate device 103 and the monitoring device 104 are external devices that operate in accordance with the output of processing results and the like by the passer-by identification device 102. The gate device 103 or the monitoring device 104 is installed according to the operation mode of the system. The gate device 103 or the monitoring device 104 may be omitted depending on the operation mode of the system.

上記ゲート装置103は、人物(通行者)の通行を制御するための装置である。上記ゲート装置103は、たとえば、ゲート(図示しない)、ゲートの開閉を制御するための制御機構(図示しない)、および、上記通行者認識装置102とのデータ通信を行うためのインターフェース(図示しない)などにより構成される。図1に示す構成例では、上記ゲート装置103は、図示しないゲートの開閉を制御することにより、通行者の通行(入退場)を制御する。すなわち、当該通行者認識システムがゲートの通行を制御する入退場管理システムとして運用される場合、上記ゲート装置103は、上記通行者認識装置102による処理結果(通行者に対する認識結果)に応じて通行者の通行を制御するように動作する。   The gate device 103 is a device for controlling the passage of a person (passerby). The gate device 103 includes, for example, a gate (not shown), a control mechanism (not shown) for controlling opening and closing of the gate, and an interface (not shown) for performing data communication with the passer-by identification device 102. Etc. In the configuration example shown in FIG. 1, the gate device 103 controls the passage (entrance / exit) of passersby by controlling the opening and closing of a gate (not shown). That is, when the passer-by identification system is operated as an entrance / exit management system that controls the passage of gates, the gate device 103 passes according to the processing result (recognition result for passers-by) of the passer-by identification device 102. To control the traffic of the person.

上記監視装置104は、監視員が所定のエリアの監視を行うための装置である。上記監視装置104は、監視員に対して情報を報知するための構成を有している。たとえば、上記監視装置104は、情報を表示するための表示装置(図示しない)、警報を発するための警報装置(図示しない)、監視員が操作指示を入力するための操作部(図示しない)、および、上記通行者認識装置102とのデータ通信を行うためのインターフェース(図示しない)などにより構成される。図1に示す構成例では、上記監視装置104は、上記カメラ101が撮影しているエリア(ゲート装置103の近傍のエリア)における人物(通行者)を監視する。すなわち、当該通行者認識システムが所定のエリアにおける人物の監視を行う監視システムとして運用される場合、上記監視装置104は、上記通行者認識装置102による処理結果(通行者に対する認識結果)などの情報を監視者に対して報知(表示、あるいは、音声による警告等)するように動作する。   The monitoring device 104 is a device for a monitor to monitor a predetermined area. The monitoring device 104 has a configuration for informing the monitoring staff of information. For example, the monitoring device 104 includes a display device (not shown) for displaying information, an alarm device (not shown) for issuing an alarm, an operation unit (not shown) for a monitor to input an operation instruction, In addition, an interface (not shown) for performing data communication with the passer-by identification device 102 is configured. In the configuration example shown in FIG. 1, the monitoring device 104 monitors a person (passerby) in an area (an area near the gate device 103) taken by the camera 101. That is, when the passer-by recognition system is operated as a monitoring system that monitors a person in a predetermined area, the monitoring device 104 is configured to provide information such as a processing result (recognition result for a passer-by) of the passer-by recognition device 102. Is informed (displayed or warned by voice, etc.) to the supervisor.

次に、上記通行者認識装置102の構成例について説明する。
また、上記通行者認識装置102は、入力部(画像入力部)111、制御部112、出力部113、および、記憶部114などにより構成されている。さらに、上記制御部112は、特徴検出部121、認識部122、および、グループ判定部123などを有している。
Next, a configuration example of the passer-by identification device 102 will be described.
The passer-by identification device 102 includes an input unit (image input unit) 111, a control unit 112, an output unit 113, a storage unit 114, and the like. Furthermore, the control unit 112 includes a feature detection unit 121, a recognition unit 122, a group determination unit 123, and the like.

上記入力部111は、画像などの情報を入力するためのインターフェースである。また、上記入力部111は、入力した画像情報に対して画像処理を施す機能も有している。すなわち、上記入力部111は、上記カメラ101から供給される画像情報(カメラ101が撮影した画像)を取り込む。上記入力部111は、上記カメラ101から取得した画像情報に対して所定の画像処理を施し、所定の画像処理を施した画像情報を上記制御部112へ供給する。たとえば、上記カメラ101から取得する画像情報がアナログ信号である場合、上記入力部111は、取り込んだ画像情報をA/D変換することによりデジタル化した画像情報を上記制御部112へ供給する。上記入力部111は、所定の画像処理を施した画像情報を上記制御部112から読出し可能な状態で図示しないバッファメモリに蓄積するようにしても良い。   The input unit 111 is an interface for inputting information such as an image. The input unit 111 also has a function of performing image processing on the input image information. That is, the input unit 111 captures image information (an image captured by the camera 101) supplied from the camera 101. The input unit 111 performs predetermined image processing on the image information acquired from the camera 101, and supplies the image information subjected to the predetermined image processing to the control unit 112. For example, when the image information acquired from the camera 101 is an analog signal, the input unit 111 supplies the image information digitized by A / D converting the captured image information to the control unit 112. The input unit 111 may store image information subjected to predetermined image processing in a buffer memory (not shown) so as to be readable from the control unit 112.

上記制御部112は、CPUなどの演算処理器(図示しない)、ワーキングメモリ、プログラムメモリおよびデータメモリなどの内部メモリ(図示しない)、各部とのデータの入出力を行うための内部インターフェース(図示しない)などにより構成される。上記制御部112では、演算処理器がプログラムメモリなどに記憶されている種々のプログラムを実行することにより種々の機能を実現している。このような機能として、上記制御部112は、たとえば、図1に示すような、特徴検出部121、認識部122およびグループ判定部123などの機能を有している。   The control unit 112 includes an arithmetic processor (not shown) such as a CPU, an internal memory (not shown) such as a working memory, a program memory, and a data memory, and an internal interface (not shown) for inputting / outputting data to / from each unit. ) Etc. In the control unit 112, various functions are realized by the arithmetic processor executing various programs stored in a program memory or the like. As such a function, the said control part 112 has functions, such as a feature detection part 121, the recognition part 122, and the group determination part 123 as shown in FIG.

上記特徴検出部121は、上記入力部111により上記カメラ101から取り込んだ画像情報から顔の特徴情報(生体情報)を検出する処理を行うものである。上記特徴検出部121は、上記入力部111により取り込んだ入力画像から顔領域の画像を検出する処理(顔検出処理)と、顔検出処理により検出された顔領域の画像から顔の特徴情報を抽出する処理(特徴抽出処理)とを実行する。   The feature detection unit 121 performs processing for detecting facial feature information (biological information) from image information captured from the camera 101 by the input unit 111. The feature detection unit 121 detects a face area image from the input image captured by the input unit 111 (face detection process), and extracts facial feature information from the face area image detected by the face detection process. Processing (feature extraction processing).

上記認識部122は、上記カメラ101により撮影された人物が上記記憶部114に顔の特徴情報(生体情報)が記憶されている人物(登録者)であるか否かを判定する人物の認識処理を行う。すなわち、上記認識部122は、上記特徴検出部121により検出された顔の特徴情報と記憶部114に記憶されている顔の特徴情報とを照合する照合処理と、その照合処理による照合結果に基づいて上記特徴検出部121により検出された顔の特徴情報が上記記憶部114に記憶されている何れかの顔の特徴情報と一致するか否かを判定する判定処理を行う。   The recognition unit 122 determines whether or not the person photographed by the camera 101 is a person (registrant) whose facial feature information (biological information) is stored in the storage unit 114. I do. That is, the recognizing unit 122 compares the facial feature information detected by the feature detecting unit 121 with the facial feature information stored in the storage unit 114, and the matching result obtained by the matching processing. Then, a determination process is performed to determine whether or not the facial feature information detected by the feature detection unit 121 matches any facial feature information stored in the storage unit 114.

上記グループ判定部123は、上記認識部122により認識された人物に対するグループを判定する処理を行う。すなわち、上記グループ判定部123では、上記認識部122により認識された各人物をグループの候補に分け、グループ候補の各人物についてグループを判定する。
なお、上記特徴検出部121、上記認識部122および上記グループ判定部123における処理については、後で詳細に説明する。
The group determination unit 123 performs a process of determining a group for the person recognized by the recognition unit 122. That is, the group determination unit 123 divides each person recognized by the recognition unit 122 into group candidates, and determines a group for each group candidate person.
The processing in the feature detection unit 121, the recognition unit 122, and the group determination unit 123 will be described in detail later.

上記記憶部114は、登録者に関する情報を記憶するものである。上記記憶部114には、各登録者の生体情報としての顔の特徴情報(あるいは、顔画像)と、各登録者が属するグループを示すグループ情報とが対応づけて記憶される。本第1の実施の形態では、上記記憶部114には、上記のような情報が予め記憶されているものとする。上記記憶部114に記憶されている情報については、後で詳細に説明する。   The said memory | storage part 114 memorize | stores the information regarding a registrant. The storage unit 114 stores facial feature information (or a face image) as biometric information of each registrant and group information indicating a group to which each registrant belongs. In the first embodiment, it is assumed that the storage unit 114 stores information as described above in advance. The information stored in the storage unit 114 will be described in detail later.

上記出力部113は、上記認識部122による認識結果あるいは上記グループ判定部123のグループ判定結果などに基づいて、制御信号あるいは表示データなどの情報をゲート装置103あるいは監視装置104(外部装置)へ出力するようになっている。たとえば、上記出力部113は、上記ゲート装置103に対して、上記認識部122による認識結果あるいは上記グループ判定部123による判定結果などに応じた各通行者に対する通行の可否(ゲートの開閉)を示す制御信号を出力する。また、上記出力部113は、上記監視装置104に対して、上記認識部122による認識結果および上記グループ判定部123によるグループ判定の結果などの情報(画像あるいは音声などのデータ)を出力する。この場合、上記出力部113は、上記のような情報とともに、上記カメラ101により撮影された映像情報を出力するようにしても良い。   The output unit 113 outputs information such as a control signal or display data to the gate device 103 or the monitoring device 104 (external device) based on the recognition result of the recognition unit 122 or the group determination result of the group determination unit 123. It is supposed to be. For example, the output unit 113 indicates to the gate device 103 whether each passerby can pass (gate opening / closing) according to the recognition result by the recognition unit 122 or the determination result by the group determination unit 123. Output a control signal. The output unit 113 outputs information (data such as an image or sound) such as a recognition result by the recognition unit 122 and a group determination result by the group determination unit 123 to the monitoring device 104. In this case, the output unit 113 may output video information photographed by the camera 101 together with the above information.

次に、上記特徴検出部121について詳細に説明する。
上記特徴検出部121は、入力画像から顔領域の画像を検出する顔検出処理と、顔領域の画像から顔の特徴情報を抽出する特徴抽出処理とを行う。
まず、上記特徴検出部121における上記顔検出処理について詳細に説明する。
上記顔検出処理は、まず、上記入力部111により入力した画像(カメラ101で撮影された画像)から顔の領域を検出する。顔の領域を検出する手法としては、たとえば、予め用意されいるテンプレートを画像内で移動させながら相関値を求め、最も高い相関値を与える領域を顔領域とする。なお、顔の領域を検出する手法としては、固有空間法、あるいは、部分空間法を利用した顔領域の抽出方法を用いても良い。
Next, the feature detection unit 121 will be described in detail.
The feature detection unit 121 performs a face detection process for detecting a face area image from an input image and a feature extraction process for extracting face feature information from the face area image.
First, the face detection process in the feature detection unit 121 will be described in detail.
In the face detection process, first, a face region is detected from an image input by the input unit 111 (an image photographed by the camera 101). As a method for detecting a face region, for example, a correlation value is obtained while moving a template prepared in advance in an image, and a region giving the highest correlation value is set as a face region. As a method for detecting a face area, a face area extraction method using an eigenspace method or a subspace method may be used.

上記顔検出処理では、次に、検出された顔の領域の画像において、目、鼻、口などの顔における特定の部位の位置を検出する。その検出方法としては、たとえば、文献[2](福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997年))に開示されている方法などを用いることが可能である。   In the face detection process, next, the position of a specific part in the face such as eyes, nose, mouth, etc. is detected in the image of the detected face region. As the detection method, for example, Document [2] (Kazuhiro Fukui, Osamu Yamaguchi: “Face feature point extraction by combination of shape extraction and pattern matching”, IEICE Transactions (D), vol. J80-D- II, No. 8, pp 2170-2177 (1997)) and the like can be used.

なお、顔全体ではなく、顔における特定の部位の画像から得られる生体情報を用いて人物の認識を行う人物認識装置では、上記顔検出処理により検出された所望の部位の画像をズームアップし、そのズームアップした画像により生体情報を抽出する処理を行うようにすることも可能である。これは、たとえば、上記顔検出処理により検出された所望の部位の位置をズームアップするように上記カメラ101を制御することにより実現可能である。この場合、カメラ101は、所望の部位の位置をズームアップした画像を撮影し、その画像を人物認識装置へ供給する。たとえば、虹彩あるいは網膜などの目の画像から得られる生体情報を用いて人物の認識を行う人物認識装置では、上記顔検出処理により検出された目の領域をズームアップし、その目の領域をズームアップした画像を取得することが可能である。   Note that in a person recognition device that recognizes a person using biometric information obtained from an image of a specific part of the face instead of the entire face, the image of the desired part detected by the face detection process is zoomed up, It is also possible to perform processing for extracting biometric information from the zoomed-up image. This can be realized, for example, by controlling the camera 101 so as to zoom up the position of a desired part detected by the face detection process. In this case, the camera 101 captures an image obtained by zooming up the position of a desired part, and supplies the image to the person recognition device. For example, in a person recognition apparatus that recognizes a person using biological information obtained from an eye image such as an iris or a retina, the eye area detected by the face detection process is zoomed in, and the eye area is zoomed. It is possible to obtain an uploaded image.

また、上記目、鼻の検出の他に、口領域の検出については、たとえば、文献[3](湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第101回画像センシングシンポジウム予稿集,pp219−224(2004年))の技術を用いることも可能である。
また、指紋あるいは静脈のパターンについても、パターンマッチング等を利用した一般的な認識技術を用いることが可能である。
上述したようないずれの手法であっても、2次元配列状の画像情報を取得し、その画像情報から生体情報を検出することが可能である。
In addition to the above eye and nose detection, the detection of the mouth area is described in, for example, Document [3] (Mayumi Yuasa, Ayako Nakajima: “Digital makeup system based on high-precision facial feature point detection”, 101st image sensing. The technology of the Symposium Proceedings, pp 219-224 (2004)) can also be used.
Also, a general recognition technique using pattern matching or the like can be used for a fingerprint or vein pattern.
Any of the above-described techniques can acquire two-dimensional array image information and detect biological information from the image information.

また、上述した処理によれば、1つの画像から1つの顔領域の画像(生体情報)だけを抽出するには、1つの画像全体に対してテンプレートとの相関値を求め、その相関値が最大となる1つの領域の位置とサイズを1つの顔領域として判定すればよい。これに対して、1つの画像から複数の顔領域の画像(生体情報)を抽出するには、1つの画像全体に対する相関値の複数の局所的な最大値を求め、それらの相関値が局所的な最大値となる各領域について他の領域との重なりを考慮して顔領域の候補を絞り込む。さらに、連続して画像(動画)が入力画像として得られる場合、過去の入力画像との関係性(時間的な推移)も考慮することにより、複数の顔領域の候補を絞り込むことも可能となる。   Further, according to the above-described processing, in order to extract only one face area image (biological information) from one image, a correlation value with the template is obtained for the entire image, and the correlation value is maximum. What is necessary is just to determine the position and size of one area which become as one face area. On the other hand, in order to extract images (biological information) of a plurality of face regions from one image, a plurality of local maximum values of correlation values for one whole image are obtained, and these correlation values are localized. Each region having a maximum value is narrowed down to face region candidates in consideration of overlapping with other regions. Furthermore, when images (moving images) are continuously obtained as input images, it is possible to narrow down a plurality of face area candidates by considering the relationship (temporal transition) with past input images. .

図2は、複数の顔領域が存在する画像の例を示す図である。図2に示すような1つの画像が入力された場合、上記顔検出処理では、図2に破線で示す複数の領域A〜Dを、入力画像における顔領域として検出する。すなわち、図1に示すようなシステム構成において、同時に複数の通行者がゲート装置103に歩行してきた場合、上記カメラ101は、それらの通行者を1つの画像内で同時に撮影する。たとえば、同時に4人の通行者が撮影領域内に存在する場合、上記カメラ101は、図2に示すような画像を撮影する。この場合、上記顔検出処理では、各通行者の顔領域として、領域A〜Dを検出する。   FIG. 2 is a diagram illustrating an example of an image having a plurality of face regions. When one image as shown in FIG. 2 is input, in the face detection process, a plurality of areas A to D indicated by broken lines in FIG. 2 are detected as face areas in the input image. That is, in the system configuration as shown in FIG. 1, when a plurality of passersby walk to the gate device 103 at the same time, the camera 101 captures the passersby simultaneously in one image. For example, when four passers-by are present at the same time in the imaging region, the camera 101 captures an image as shown in FIG. In this case, in the face detection process, the areas A to D are detected as the face area of each passerby.

次に、上記特徴検出部121における上記特徴抽出処理について詳細に説明する。
上記特徴検出部121おける特徴抽出処理は、上記顔検出処理により検出された顔領域の画像から顔の特徴情報(特徴量)を抽出する処理である。上記特徴抽出処理は、たとえば、上記顔検出処理により検出された顔領域の画像と特定の部位の位置とに基づいて、顔領域の画像を所定の大きさ、かつ、所定の形状(たとえば、mピクセル×nピクセルの画像)に変換し、その顔領域の画像における各画素の濃淡情報を顔の特徴情報(特徴量)とする。また、mピクセル×nピクセルの顔領域の画像における各画素の濃淡値を顔の特徴情報は、m×n次元の情報からなる特徴ベクトルとして表される。上記のような顔の特徴情報としての特徴ベクトルは、たとえば、単純類似度法という手法により、別の特徴ベクトルとの類似度が算出される。単純類似度法では、各ベクトルの長さをそれぞれ「1」とするように正規化し、それらの正規化されたベクトル同士の内積を計算する。これにより2つのベクトル間の類似性を示す類似度が求められる。
Next, the feature extraction process in the feature detection unit 121 will be described in detail.
The feature extraction processing in the feature detection unit 121 is processing for extracting facial feature information (feature amount) from the face area image detected by the face detection processing. In the feature extraction process, for example, based on the face area image detected by the face detection process and the position of a specific part, the face area image has a predetermined size and a predetermined shape (for example, m (Pixel × n pixel image), and shade information of each pixel in the face area image is used as facial feature information (feature amount). Also, the facial feature information representing the gray value of each pixel in the image of the face area of m pixels × n pixels is represented as a feature vector composed of m × n-dimensional information. For the feature vector as the facial feature information as described above, for example, the similarity with another feature vector is calculated by a method called a simple similarity method. In the simple similarity method, the lengths of the respective vectors are normalized so as to be “1”, and the inner product between these normalized vectors is calculated. Thereby, the similarity indicating the similarity between two vectors is obtained.

1つの画像で認識処理を行う場合、人物の顔の特徴情報は、上述した手法により、1つの画像から特徴ベクトルとして抽出される。これに対して、連続した複数の画像(動画像)で認識処理を行う場合、連続する複数の画像から顔の特徴情報を生成する部分空間法という手法が適用可能である。部分空間方法では、まず、連続する複数の入力画像について、それぞれ上述した手法と同様な手法により、m×nピクセルの顔領域の画像における濃淡値からなる特徴ベクトルを生成する。連続する複数の入力画像から複数の特徴ベクトルが得られると、部分空間法では、これらの特徴ベクトルの相関行列(または、共分散行列)を求める。相関行例が得られると、部分空間法では、その相関行列について周知のK−L展開を行うことにより正規直交ベクトル(固有ベクトル)を求める。   When the recognition process is performed on one image, the feature information of the person's face is extracted as a feature vector from one image by the above-described method. On the other hand, when performing recognition processing with a plurality of continuous images (moving images), a technique called a subspace method that generates facial feature information from a plurality of continuous images can be applied. In the subspace method, first, feature vectors composed of gray values in an image of a face area of m × n pixels are generated for a plurality of continuous input images by the same method as described above. When a plurality of feature vectors are obtained from a plurality of continuous input images, the subspace method obtains a correlation matrix (or covariance matrix) of these feature vectors. When a correlation example is obtained, the subspace method obtains an orthonormal vector (eigenvector) by performing a well-known KL expansion on the correlation matrix.

上記のように求められる正規直交ベクトルにより連続した画像から得られる顔の特徴情報としての部分空間が算出される。上記部分空間は、固有値の大きな順にk個選んだ固有ベクトルの集合を用いて表現される。上記部分空間は、複数の入力画像から得られる複数の特徴ベクトルから算出される相関行列Cdを用いて、以下の数式1により固有ベクトルの行列Φとして算出される。   A partial space is calculated as facial feature information obtained from successive images using the orthonormal vector obtained as described above. The subspace is expressed using a set of k eigenvectors in descending order of eigenvalues. The subspace is calculated as a matrix Φ of eigenvectors using Equation 1 below using a correlation matrix Cd calculated from a plurality of feature vectors obtained from a plurality of input images.

Cd=ΦdΛdΦdT…(数式1)
上記部分空間が、認識対象とする人物の顔の特徴情報となる。たとえば、図2に示す例のように、複数の顔領域(4人の通行者の顔領域)A〜Dが検出された場合、上記特徴抽出処理が、各顔領域A〜Dに対して、上述したような処理を繰り返し実行される。これにより、4人の通行者の顔の特徴情報として、4つの部分空間A〜部分空間Dが計算される。なお、上記記憶部114には、登録者の顔の特徴情報として、上述したような手法により算出される部分空間を登録するようにすれば良い。
Cd = ΦdΛdΦdT (Equation 1)
The partial space is the facial feature information of the person to be recognized. For example, as in the example shown in FIG. 2, when a plurality of face areas (face areas of four passers) A to D are detected, the feature extraction process is performed for each face area A to D. The processing as described above is repeatedly executed. Thus, four partial spaces A to D are calculated as the feature information of the faces of the four passers-by. In addition, the partial space calculated by the above-described method may be registered in the storage unit 114 as the registrant's facial feature information.

次に、上記記憶部114に記憶される登録情報について詳細に説明する。
上記記憶部114には、入力画像(入力画像から得られる顔の特徴情報)と照合される登録者(たとえば、ゲートの通行が許可されている人物)に関する情報が記憶される。上記記憶部114には、登録者に関する情報として、登録者の顔を含む画像(登録用の顔画像)から得られる登録者の顔の特徴情報などが予め記憶される。
図3は、上記記憶部114に記憶されている登録者に関する情報(登録情報)の例を示す図である。図3に示す例では、各登録者について、識別情報、顔の特徴情報、顔画像、グループ情報などが記憶部114に記憶されている。
Next, the registration information stored in the storage unit 114 will be described in detail.
The storage unit 114 stores information related to a registrant (for example, a person permitted to pass through a gate) to be collated with an input image (facial feature information obtained from the input image). The storage unit 114 stores in advance information about the registrant's face obtained from an image including the registrant's face (registration face image) as information about the registrant.
FIG. 3 is a diagram illustrating an example of information (registration information) related to a registrant stored in the storage unit 114. In the example illustrated in FIG. 3, identification information, facial feature information, facial images, group information, and the like are stored in the storage unit 114 for each registrant.

上記識別情報は、登録者を識別するための情報である。たとえば、上記識別情報は、登録者の氏名、および、登録者に与えられているID情報などである。上記顔の特徴情報は、入力画像から得られる顔の特徴情報と照合するための情報(登録者の顔の特徴情報)である。上記顔の特徴情報は、上述した特徴抽出処理に用いられる手法により、登録用の顔画像から生成される情報である。上記顔画像は、登録用の登録者の顔を含む画像(登録用の画像全体、あるいは、登録用の画像から検出された顔領域の画像)である。   The identification information is information for identifying the registrant. For example, the identification information includes a registrant's name and ID information given to the registrant. The face feature information is information (registrant face feature information) for collation with face feature information obtained from an input image. The face feature information is information generated from a registration face image by the technique used in the feature extraction process described above. The face image is an image including the registrant's face for registration (the entire registration image or an image of a face area detected from the registration image).

なお、上記記憶部114には、顔の特徴情報として、連続する複数の登録用の顔画像から生成される部分空間を記憶するようにしても良いし、各登録用の顔画像から生成された特徴ベクトルを記憶するようにしても良いし、特徴抽出処理を実行する前の顔画像(入力画像から検出された顔領域の画像)を記憶するようにしても良いし、あるいは、K−L展開を行なう前の相関行列を記憶するようにしても良い。ここでは、連続する複数の画像から得られる部分空間が登録者の顔の特徴情報として記憶部114に登録されるものとする。   The storage unit 114 may store a partial space generated from a plurality of consecutive registration face images as face feature information, or may be generated from each registration face image. A feature vector may be stored, a face image before execution of feature extraction processing (an image of a face area detected from an input image) may be stored, or KL expansion is performed. You may make it memorize | store the correlation matrix before performing. Here, it is assumed that a partial space obtained from a plurality of consecutive images is registered in the storage unit 114 as facial information of the registrant.

また、上記記憶部114には、1人の登録者に対して1つの顔の特徴情報を記憶するようにしても良いし、1人の登録者に対して複数の顔の特徴情報を記憶するようにしても良い。1人の登録者に対して複数の顔の特徴情報を記憶する場合、上記認識部122は、各登録者について、当該登録者の全ての特徴情報と入力画像から得られた顔の特徴情報とを照合するようにしても良いし、入力画像の撮影条件等に基づいて選択した顔の特徴情報と入力画像から得られた顔の特徴情報とを照合するようにしても良い。   The storage unit 114 may store feature information of one face for one registrant, or may store feature information of a plurality of faces for one registrant. You may do it. In the case of storing a plurality of facial feature information for one registrant, the recognizing unit 122 recognizes, for each registrant, all feature information of the registrant and facial feature information obtained from the input image. The face feature information selected based on the shooting conditions of the input image and the face feature information obtained from the input image may be matched.

上記グループ情報は、登録者が属するグループを示す情報である。上記記憶部114には、各登録者に対応づけて、各登録者がどのグループに属しているかを示す情報が記憶されている。さらに、各グループには、重要度、警戒度(要注意度)、補助の必要性(補助の要否)などのグループの特徴を示す情報がグループ番号などに対応づけて記憶されている。図3に示す例では、グループの特徴を示す情報として、「重要顧客」のグループ(グループ番号1)、「社長家族」のグループ(グループ番号2)、「要注意集団」のグループ(グループ番号3)などの情報が記憶されている。   The group information is information indicating a group to which the registrant belongs. The storage unit 114 stores information indicating which group each registrant belongs to in association with each registrant. Further, each group stores information indicating the characteristics of the group such as importance, alertness (degree of caution), and necessity of assistance (necessity of assistance) in association with a group number. In the example shown in FIG. 3, as information indicating the characteristics of the group, a group of “important customers” (group number 1), a group of “president's family” (group number 2), and a group of “groups requiring attention” (group number 3). ) Is stored.

次に、上記認識部122について詳細に説明する。
上記認識部122は、カメラ101が撮影した画像に含まれる顔画像の人物が記憶部114に記憶されている何れかの登録者であるか否かを認識するものである。上記認識部122では、カメラ101が撮影した入力画像から得られる顔の特徴情報と上記記憶部114に記憶されている各登録者の顔の特徴情報との類似度を算出する。各登録者の顔の特徴情報との類似度が算出されると、上記認識部122は、算出した各類似度に基づいて、入力画像に含まれる顔画像の人物がどの登録者と一致するかを判定する。たとえば、最大類似度が所定の値以上である場合、上記認識部122は、入力画像に含まれる顔画像の人物が、最大類似度となった登録者であると認識する(入力画像に含まれる顔画像の人物が最大類似度となった登録者であると認識する)。また、最大の類似度が所定の値未満である場合、上記認識部122は、入力画像から検出された顔の特徴情報がどの登録者の顔の特徴情報とも一致しないと認識する(入力画像に含まれる顔画像の人物が登録者でないと認識する)。
Next, the recognition unit 122 will be described in detail.
The recognizing unit 122 recognizes whether the person of the face image included in the image captured by the camera 101 is any registrant stored in the storage unit 114. The recognition unit 122 calculates the similarity between the facial feature information obtained from the input image captured by the camera 101 and the facial feature information of each registrant stored in the storage unit 114. When the similarity with the facial feature information of each registrant is calculated, the recognizing unit 122 determines which registrant matches the person of the face image included in the input image based on the calculated similarity. Determine. For example, when the maximum similarity is greater than or equal to a predetermined value, the recognition unit 122 recognizes that the person of the face image included in the input image is the registrant who has the maximum similarity (included in the input image). Recognize that the person in the face image has the highest similarity) If the maximum similarity is less than a predetermined value, the recognizing unit 122 recognizes that the facial feature information detected from the input image does not match any registrant's facial feature information (in the input image). Recognize that the person in the included face image is not a registrant).

顔の特徴情報同士の類似度を算出する方法は、相互部分空間法あるいは複合類似度法などの手法を適用することが可能である。たとえば、相互部分空間法は、文献[4](前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」,電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345〜352(1985年))に記載されている。この相互部分空間法は、部分空間同士の類似度を算出するための手法である。上記相互部分空間法では、2つの部分空間のなす「角度」が類似度として定義される。従って、上記認識部122が上記相互部分空間法により類似度を算出する場合、上記記憶部114に記憶される登録者の顔の特徴情報、および、上記カメラ101から入力する入力画像(連続する複数の画像)から得られる顔の特徴情報は、共に部分空間が用いられる。ここで、入力画像から得られる部分空間は、入力部分空間と称するものとする。また、記憶部114に記憶される登録者の顔の特徴情報としての部分空間は、辞書部分空間と称するものとする。   A method such as a mutual subspace method or a compound similarity method can be applied as a method for calculating the similarity between facial feature information. For example, the mutual subspace method is described in the literature [4] (Kenichi Maeda, Sadaichi Watanabe: “Pattern Matching Method Introducing Local Structure”, IEICE Transactions (D), vol. 3, pp 345-352 (1985)). This mutual subspace method is a method for calculating the similarity between subspaces. In the mutual subspace method, an “angle” formed by two subspaces is defined as a similarity. Therefore, when the recognition unit 122 calculates the similarity by the mutual subspace method, the facial feature information of the registrant stored in the storage unit 114 and the input image input from the camera 101 (sequential multiple images) Both of the facial feature information obtained from the image of FIG. Here, the partial space obtained from the input image is referred to as an input partial space. In addition, the partial space as the registrant's facial feature information stored in the storage unit 114 is referred to as a dictionary partial space.

連続する複数の入力画像から得られる相関行列Cinと固有ベクトルΦinとには、以下の数式2に示すような関係式が成立する。従って、入力部分空間Φinは、以下の数式2に示す相関行列Cinと国有ベクトルΦinとの関係式により算出される。   A relational expression as shown in Equation 2 below is established between the correlation matrix Cin and the eigenvector Φin obtained from a plurality of continuous input images. Therefore, the input subspace Φin is calculated by the relational expression between the correlation matrix Cin and the state-owned vector Φin shown in Equation 2 below.

Cin=ΦinΛinΦinT…(数式2)
従って、入力画像に含まれる顔画像の人物(入力画像群から得られる顔の特徴情報)と登録者(登録者の顔の特徴情報)との類似度は、入力部分空間Φinと辞書部分空間Φdとの類似度(0〜1)として算出される。
Cin = ΦinΛinΦinT (Formula 2)
Accordingly, the similarity between the person of the face image included in the input image (face feature information obtained from the input image group) and the registrant (face feature information of the registrant) is the input subspace Φin and the dictionary subspace Φd. As a similarity (0 to 1).

また、各入力画像(1フレームの画像)に複数の人物の顔画像が存在する場合、上記認識部122は、それぞれの顔画像から得られる顔の特徴情報と上記記憶部114に記憶されている各登録者の顔の特徴情報との類似度を算出する。すなわち、上記認識部122は、入力画像に含まれる複数の顔画像から得られる複数の顔の特徴情報と上記記憶部114に記憶されている各登録者の顔の特徴情報との類似度を総当りで算出する。これにより、上記認識部122は、入力画像に含まれる全ての人物の顔画像と登録者の顔画像との認識結果を得ることができる。たとえば、上記カメラ101がX人の人物の顔を撮影した場合、Y人の登録者の登録情報が存在すれば、上記認識部122は、X×Y回の類似度の演算処理を行なう。これにより、上記認識部122は、X人全員に対する認識結果を得ることができる。   When there are a plurality of human face images in each input image (one frame image), the recognition unit 122 stores the facial feature information obtained from each face image and the storage unit 114. The similarity with the facial feature information of each registrant is calculated. That is, the recognizing unit 122 calculates the similarity between the facial feature information obtained from the facial images included in the input image and the facial feature information of each registrant stored in the storage unit 114. Calculate by hit. As a result, the recognition unit 122 can obtain the recognition result of the face images of all persons included in the input image and the face images of the registrant. For example, when the camera 101 captures the faces of X persons, if there is registration information of Y registrants, the recognizing unit 122 performs X × Y similarity processing. Thereby, the said recognition part 122 can obtain the recognition result with respect to all X persons.

また、m個の入力画像から得られた入力部分空間がどの登録者の辞書部分空間とも一致しない場合、上記認識部122では、次に取得する入力画像(m+1個目のフレーム画像)により更新された入力部分空間により再度認識処理(類似度の算出処理)を実行するようにしても良い。この場合、入力部分空間の更新は、取得した入力画像から得られる特徴ベクトルを過去の複数のフレームで作成された相関行列の和に追加し、再度固有ベクトルの計算することにより可能となる、
すなわち、上記カメラ101が連続的に画像を撮影する場合(上記カメラ101が通行者の顔画像を連続して撮影する場合)、上記通行者認識装置102では、上記カメラ101から順次取得する画像により入力部分空間を更新しながら認証処理を実行することが可能である。この場合、徐々に入力部分空間を構成するための入力画像の数が多くなるため、徐々に精度が高くなることが期待できる。
If the input subspace obtained from the m input images does not match any registrant's dictionary subspace, the recognition unit 122 updates the input subspace with the next acquired input image (m + 1 frame image). The recognition process (similarity calculation process) may be executed again using the input subspace. In this case, the input subspace can be updated by adding the feature vector obtained from the acquired input image to the sum of correlation matrices created in a plurality of past frames, and calculating the eigenvector again.
That is, when the camera 101 continuously captures images (when the camera 101 continuously captures a passer's face image), the passer-by identification device 102 uses images sequentially acquired from the camera 101. It is possible to execute the authentication process while updating the input subspace. In this case, since the number of input images for configuring the input subspace gradually increases, it can be expected that the accuracy gradually increases.

次に、上記グループ判定部123について詳細に説明する。
上記グループ判定部123は、上記認識部122で認識された複数の人物についてグループを判定するグループ判定処理(組合せ判定処理)を行う。上記グループ判定部123は、上記認識部122で認識された複数の人物を所定の条件に応じてグループ分けしたグループ候補を判定する。さらに、上記グループ判定部123は、グループ候補の各人物(登録者)のグループ情報に基づいてグループ(グループ名、人数など)を判定する。
Next, the group determination unit 123 will be described in detail.
The group determination unit 123 performs a group determination process (combination determination process) for determining a group for a plurality of persons recognized by the recognition unit 122. The group determination unit 123 determines group candidates obtained by grouping a plurality of persons recognized by the recognition unit 122 according to a predetermined condition. Further, the group determination unit 123 determines a group (group name, number of people, etc.) based on group information of each person (registrant) as a group candidate.

グループ候補の判定では、所定の条件に基づいてグループ候補となる複数の人物が選出される。たとえば、グループ候補としては、1つの画像から検出された複数の人物(同時に上記カメラ101で撮影された複数の人物)をグループの候補としたり、所定時間内に上記カメラ101で撮影された画像から検出された人物をグループの候補としたりする。また、複数の箇所に複数のカメラ101が設置されている運用形態では、複数の場所で同時間帯に撮影された画像から検出された人物をグループ候補として判定するようにしても良い。   In the group candidate determination, a plurality of persons who are group candidates are selected based on a predetermined condition. For example, as a group candidate, a plurality of persons detected from one image (a plurality of persons photographed by the camera 101 at the same time) can be used as group candidates, or from images captured by the camera 101 within a predetermined time. The detected person is used as a group candidate. In an operation mode in which a plurality of cameras 101 are installed at a plurality of locations, a person detected from images captured at a plurality of locations in the same time zone may be determined as a group candidate.

また、グループの判定は、グループ候補と判定された各人物(登録者)のグループ情報に基づいて判定される。すなわち、グループ候補の各人物は、グループ情報により最終的にグループが判定される。このようなグループ判定の結果としては、どのグループが何人というような情報が得られる。上記グループ判定部123では、上記のようなグループ判定の結果を上記出力部113へ供給するようになっている。   Further, the group is determined based on the group information of each person (registrant) determined as a group candidate. That is, each group candidate is finally determined as a group based on the group information. As a result of such group determination, information such as which group is how many is obtained. The group determination unit 123 supplies the result of group determination as described above to the output unit 113.

図4は、グループ判定処理の結果の例を示す図である。
図4に示す例では、ゲート1に設置されているカメラが撮影した画像から、グループ1の人物が3名、グループ2の人物が2名、認識されたことを示している。たとえば、図2に示すような1つの画像から検出された4人の顔画像が図3に示す人物(登録者)A〜Dの顔画像であると認識された場合、図3を参照すれば、グループ判定処理では、人物A、B、Cがグループ1と判定され、人物C、Dがグループ2と判定される。この場合、グループ判定の結果は、図4に示すように、グループ1の人物が3名、グループ2の人物が2名となる。
FIG. 4 is a diagram illustrating an example of a result of the group determination process.
In the example shown in FIG. 4, it is shown that three persons in group 1 and two persons in group 2 are recognized from an image taken by a camera installed in gate 1. For example, when four face images detected from one image as shown in FIG. 2 are recognized as the face images of the persons (registrants) A to D shown in FIG. 3, referring to FIG. In the group determination process, the persons A, B, and C are determined as the group 1, and the persons C and D are determined as the group 2. In this case, as a result of the group determination, as shown in FIG. 4, there are three persons in group 1 and two persons in group 2.

なお、図4に示すグループ判定の結果は、全ての人物が登録者であると認識された場合の例である。もし事前に登録されている登録者でない人物がゲート装置103を通行しようとした場合、当該人物は、当然ながら、登録者として認識されない。この場合、登録者として認識されなかった人物は、未登録者としてカウントアップされる。なお、未登録者としてカウントアップされた未登録者の数は、グループ判定の結果として上記出力部113により出力される。   The group determination result shown in FIG. 4 is an example when all persons are recognized as registrants. If a person who is not registered in advance and tries to pass through the gate device 103, the person is not recognized as a registered person. In this case, a person who is not recognized as a registered person is counted up as an unregistered person. Note that the number of unregistered persons counted up as unregistered persons is output by the output unit 113 as a result of group determination.

また、図4に示すようなグループ判定結果を監視装置104に表示すれば、上記監視装置104の監視員は、グループ1に属する3名の人物とグループ2に属する2名の人物とが上記カメラ101で撮影されたということを迅速かつ容易に認知できる。この結果として、監視員は、各グループの人物への応対などをスムーズに行なうことができる。また、監視員は、各グループの人数に合わせた適切な応対などもスムーズに実行できる。   When the group determination result as shown in FIG. 4 is displayed on the monitoring device 104, the monitoring device 104 has three persons belonging to the group 1 and two persons belonging to the group 2 as the camera. It is possible to quickly and easily recognize that the image was taken at 101. As a result, the monitor can smoothly respond to the persons in each group. In addition, the monitor can smoothly perform an appropriate response according to the number of people in each group.

次に、上記出力部113について詳細に説明する。
上記出力部113は、当該通行者認識装置102における処理結果を外部へ出力するためのインターフェースである。上記出力部113が外部へ出力する情報は、システム全体の構成あるいは運用形態に応じて適宜設定できる。上記出力部113は、上記カメラ101で撮影された画像、上記特徴検出部121から得られる顔領域の画像あるいは顔の特徴情報、上記グループ判定部123によるグループ判定の結果などの情報を外部装置(ゲート装置103、監視装置104)へ出力可能である。たとえば、上記出力部113は、上記認識部122の認識結果に応じたゲートの開閉を指示する制御信号を上記ゲート装置103へ出力する。また、上記出力部113は、上記カメラ101で撮影された画像、上記特徴検出部121から得られる顔領域の画像あるいは顔の特徴情報、上記グループ判定部123によるグループ判定の結果などの情報を表示データとして監視装置104へ出力する。
Next, the output unit 113 will be described in detail.
The output unit 113 is an interface for outputting a processing result in the passer-by identification device 102 to the outside. The information output to the outside by the output unit 113 can be set as appropriate according to the overall system configuration or operation mode. The output unit 113 displays information such as an image captured by the camera 101, an image of a face area obtained from the feature detection unit 121 or facial feature information, and a group determination result by the group determination unit 123 as an external device ( Output to the gate device 103 and the monitoring device 104). For example, the output unit 113 outputs a control signal instructing opening / closing of the gate according to the recognition result of the recognition unit 122 to the gate device 103. Further, the output unit 113 displays information such as an image captured by the camera 101, an image of a face area obtained from the feature detection unit 121 or facial feature information, and a group determination result by the group determination unit 123. The data is output to the monitoring device 104.

次に、上記第1の実施の形態に係る通行者認識システム100における処理の流れについて説明する。
図5は、第1の実施の形態に係る通行者認識システム100における処理を説明するためのフローチャートである。
まず、上記カメラ101では、所定の撮影領域の画像を撮影しているものとする。図1に示すような構成例では、ゲート装置103が形成している通路を撮影している。上記カメラ101が撮影した画像は、上記通行者認識装置102の入力部111に供給される。上記通行者認識装置102の入力部111では、上記カメラ101で撮影された画像を入力画像として順次入力する(ステップS101)。上記通行者認識装置102の制御部112では、上記特徴検出部121により入力画像について人物の顔を検出する処理を行う(ステップS102)。上記特徴検出部121により入力画像から人物の顔が検出された場合、上記特徴検出部121は、顔検出処理および顔の特徴情報を抽出する特徴抽出処理を行う。これにより、上記特徴検出部121は、入力画像に含まれる人物の顔の特徴情報を検出する(ステップS103)。
Next, a process flow in the passer-by identification system 100 according to the first embodiment will be described.
FIG. 5 is a flowchart for explaining processing in the passer-by identification system 100 according to the first embodiment.
First, it is assumed that the camera 101 is shooting an image of a predetermined shooting area. In the configuration example shown in FIG. 1, the passage formed by the gate device 103 is photographed. An image taken by the camera 101 is supplied to the input unit 111 of the passer-by identification device 102. The input unit 111 of the passer-by identification device 102 sequentially inputs images taken by the camera 101 as input images (step S101). In the control unit 112 of the passer-by identification device 102, the feature detection unit 121 performs processing for detecting a human face in the input image (step S102). When the feature detection unit 121 detects a human face from the input image, the feature detection unit 121 performs face detection processing and feature extraction processing for extracting facial feature information. Thereby, the feature detection unit 121 detects the feature information of the face of the person included in the input image (step S103).

また、顔の特徴情報として上記入力部分空間を生成する場合、上記特徴検出部121は、順次入力される入力画像から入力部分空間を生成する。また、1つの入力画像に複数の人物の顔画像が含まれている場合、上記特徴検出部121は、当該入力画像から検出される全ての人物の顔画像からそれぞれ顔の特徴情報を検出する。   When generating the input subspace as facial feature information, the feature detection unit 121 generates an input subspace from input images that are sequentially input. When a plurality of person face images are included in one input image, the feature detection unit 121 detects face feature information from all the person face images detected from the input image.

上記特徴検出部121により入力画像から顔の特徴情報を検出すると、上記認識部122は、入力画像から検出された顔の特徴情報が、上記記憶部114に記憶されている何れかの登録者の顔の特徴情報と一致するかを判定する。つまり、上記認識部122では、入力画像に含まれる顔画像の人物が何れかの登録者であるかを判定する人物の認識処理を行う(ステップS104)。上記認識部122による認識処理では、入力画像から検出された顔の特徴情報の人物がどの登録者であるか、あるいは、未登録者であるかを示す情報が人物の認識結果として得られる。上記認識部122による認識処理の結果は、上記出力部113へ供給されるとともに上記グループ判定部123に供給される。なお、上記出力部113では、認識結果に応じてゲート装置103にゲートの開閉を示す制御信号を出力したり、入力画像とともに認識結果を監視装置104に出力したりする。   When the feature detection unit 121 detects facial feature information from the input image, the recognition unit 122 detects the facial feature information detected from the input image of any registrant stored in the storage unit 114. It is determined whether it matches the facial feature information. That is, the recognition unit 122 performs a person recognition process for determining which registrant is the person of the face image included in the input image (step S104). In the recognition process by the recognizing unit 122, information indicating which registrant is the person of the facial feature information detected from the input image or an unregistered person is obtained as a person recognition result. The result of the recognition process by the recognition unit 122 is supplied to the output unit 113 and also to the group determination unit 123. The output unit 113 outputs a control signal indicating opening / closing of the gate to the gate device 103 according to the recognition result, or outputs the recognition result to the monitoring device 104 together with the input image.

上記グループ判定部123は、上記認識部122から供給される認識結果を図示しない内部メモリに記憶するものとする。なお、上記グループ判定部123に供給される認識処理の結果としては、人物の認識結果(どの登録者であるか、あるいは、未登録者であるか)を示す情報とともに、当該人物の顔画像を検出した入力画像の撮影時間などの情報も含まれるものとする。   The group determination unit 123 stores the recognition result supplied from the recognition unit 122 in an internal memory (not shown). In addition, as a result of the recognition process supplied to the group determination unit 123, a face image of the person is included together with information indicating a person recognition result (whether the person is a registered person or an unregistered person). Information such as the shooting time of the detected input image is also included.

上記グループ判定部123では、上記認識部122により認識された人物についてグループ判定を行う。ここでは、同時に撮影された複数の人物(1つの入力画像が検出された複数の人物)あるいは所定時間内に撮影された人物をグループ候補とするものとする。また、上記グループ判定部123には、上記認識部122から各人物の認識結果が順次供給されるものとする。上記認識部122により認識結果が供給されると、上記グループ判定部123は、当該認識結果が得られた入力画像から別の人物の顔が検出されているか否かを判定する。つまり、上記グループ判定部123では、1つの入力画像から複数の人物(同時に撮影された複数の人物)の顔が検出されているか否かを判定する(ステップS105)。さらに、上記グループ判定部123は、所定時間内に撮影された入力画像から複数の人物の顔が検出されているか否かを判定する(ステップS106)。   The group determination unit 123 performs group determination for the person recognized by the recognition unit 122. Here, a plurality of persons photographed at the same time (a plurality of persons from which one input image is detected) or a person photographed within a predetermined time is assumed as a group candidate. In addition, the recognition result of each person is sequentially supplied from the recognition unit 122 to the group determination unit 123. When the recognition result is supplied by the recognition unit 122, the group determination unit 123 determines whether another human face is detected from the input image from which the recognition result is obtained. That is, the group determination unit 123 determines whether or not faces of a plurality of persons (a plurality of persons photographed at the same time) are detected from one input image (step S105). Further, the group determination unit 123 determines whether or not a plurality of human faces are detected from the input image taken within a predetermined time (step S106).

1つの入力画像あるいは所定時間内に撮影された入力画像から複数の人物の顔が検出されたと判定した場合(ステップS105でYES、あるいは、ステップS106でYES)、上記グループ判定部123は、それらの人物をグループ候補とする(ステップS107)。認識された人物がグループ候補と判定された場合、上記グループ判定部123は、当該人物のグループ情報に基づいて当該人物が属するグループを判定する(ステップS108)。グループを判定すると、上記グループ判定部123は、上記グループ候補における各グループごとの人数をカウントアップする(ステップS109)。認識された人物をグループ情報に基づいてカウントアップすると、上記グループ判定部123は、当該グループ候補における各グループごとの人数を示す情報をグループ判定の結果として出力部113へ出力する(ステップS110)。   When it is determined that a plurality of human faces have been detected from one input image or an input image taken within a predetermined time (YES in step S105 or YES in step S106), the group determination unit 123 A person is set as a group candidate (step S107). When it is determined that the recognized person is a group candidate, the group determination unit 123 determines a group to which the person belongs based on the group information of the person (step S108). When the group is determined, the group determination unit 123 counts up the number of people in each group in the group candidate (step S109). When the recognized person is counted up based on the group information, the group determination unit 123 outputs information indicating the number of persons for each group in the group candidate to the output unit 113 as a result of the group determination (step S110).

たとえば、図2に示すように1つの入力画面から図3に示す人物A、B、C、Dの4人が順に認識された場合、上記グループ判定部123は、人物A、B、C、Dの4人をグループ候補とする。さらに、上記グループ判定部123は、各人物の認識結果が得られるごとに、各人物のグループの人数をカウントアップする。すなわち、図3に示す登録情報に従えば、上記グループ判定部123は、人物Aが認識された場合、グループ1をカウントアップし、人物Bが認識された場合、グループ1をカウントアップし、人物Cが認識された場合、グループ1およびグループ2をカウントアップし、人物Dが認識された場合、グループ1をカウントアップする。このようなグループ判定の結果としては、図4に示すような情報が得られる。   For example, as shown in FIG. 2, when four persons A, B, C, and D shown in FIG. 3 are recognized in order from one input screen, the group determination unit 123 determines the persons A, B, C, and D. The four candidates are group candidates. Furthermore, the group determination unit 123 counts up the number of persons in each person's group every time a recognition result of each person is obtained. That is, according to the registration information shown in FIG. 3, the group determination unit 123 counts up the group 1 when the person A is recognized, and counts up the group 1 when the person B is recognized. When C is recognized, group 1 and group 2 are counted up, and when person D is recognized, group 1 is counted up. As a result of such group determination, information as shown in FIG. 4 is obtained.

また、所定時間内に撮影された入力画像から複数の人物の顔が検出されたと判定した場合(ステップS106でNO)、上記グループ判定部123は、上記認識部122により認識された人物についてグループ候補なしと判定する(ステップS111)。この場合、当該通行者認識装置102は、上記ステップS101へ戻り、上記処理を繰り返す。   Further, when it is determined that a plurality of human faces are detected from the input image captured within a predetermined time (NO in step S106), the group determination unit 123 determines group candidates for the person recognized by the recognition unit 122. It is determined that there is none (step S111). In this case, the passer-by identification device 102 returns to step S101 and repeats the above process.

上記のような第1の実施の形態では、予め登録者の顔の特徴情報とグループ情報とを対応づけて記憶部に記憶しておき、カメラ101が撮影した画像から通行者の顔の特徴情報を検出し、検出した通行者の顔の特徴情報と記憶部に記憶されている登録者の顔の特徴情報とを照合することにより通行者を認識し、さらに、認識された通行者を上記記憶部に記憶されている各登録者のグループ情報に基づいてグループ分けし、グループ分けした結果を外部装置へ出力する。   In the first embodiment as described above, the facial feature information of the registrant and the group information are stored in the storage unit in association with each other, and the facial feature information of the passer-by from the image captured by the camera 101 is stored. And detecting the passerby by comparing the detected face feature information of the passer with the face feature information of the registrant stored in the storage unit, and further storing the recognized passer The grouping is performed based on the group information of each registrant stored in the section, and the grouping result is output to the external device.

これにより、上記第1の実施の形態によれば、上記通行者認識装置が、所定の場所(カメラが撮影する領域)に「どのようなグループの人物が何人」現れたのかを監視装置などの外部装置へ通知できる。これにより、上記外部装置では、所定の場所に「どのようなグループの人物が何人」現れたのかを監視者に報知することが可能となる。この結果として、たとえば、重要顧客のグループが現れた場合、監視者は、来客に対する応対の準備を迅速に行うことができる。また、要注意人物のグループが現れた場合、監視者は、警戒のための警備員を配備したり、監視映像の記録をスタートしたりするなどの対応が迅速に行える。また、要注意人物を含むグループについては、登録者であっても、ゲート装置のゲートを閉じるなどの制御を行うことも可能となる。   As a result, according to the first embodiment, the passer-by identification device determines whether or not “what kind of person in the group” appears in a predetermined place (area photographed by the camera). Can notify external devices. As a result, the external device can notify the supervisor of “how many people in what group” appear in a predetermined location. As a result of this, for example, when a group of important customers appears, the supervisor can quickly prepare to respond to the visitor. In addition, when a group of people who need attention appears, the supervisor can quickly take measures such as deploying security guards for warning or starting recording of surveillance video. In addition, for a group including people who need attention, even a registrant can perform control such as closing the gate of the gate device.

次に、第2の実施の形態について説明する。
図6は、第2の実施の形態に係る人物認識装置としての通行者認識装置202を含む通行者認識システム200の構成例を概略的に示すものである。
図6に示すように、通行者認識システム200は、カメラ201、通行者認識装置202、および、ゲート装置203、監視装置204などにより構成されている。また、上記通行者認識装置202は、入力部(画像入力部)211、制御部212、出力部213、および、記憶部214などにより構成されている。さらに、上記制御部212は、特徴検出部221、認識部222、および、グループ判定部223などを有している。
Next, a second embodiment will be described.
FIG. 6 schematically shows a configuration example of a passer-by recognition system 200 including a passer-by recognition device 202 as a person recognition device according to the second embodiment.
As shown in FIG. 6, the passer-by identification system 200 includes a camera 201, a passer-by identification device 202, a gate device 203, a monitoring device 204, and the like. The passer-by identification device 202 includes an input unit (image input unit) 211, a control unit 212, an output unit 213, a storage unit 214, and the like. Further, the control unit 212 includes a feature detection unit 221, a recognition unit 222, a group determination unit 223, and the like.

なお、図6に示す通行者認識システム200における、カメラ201、ゲート装置203、監視装置204、入力部(画像入力部)211、出力部213、特徴検出部221および認識部222は、図1に示す通行者認識システム100における、カメラ101、ゲート装置103、監視装置104、入力部(画像入力部)111、出力部113、特徴検出部121および認識部122の構成とほぼ同様な構成であるため、詳細な説明を省略するものとする。   The camera 201, the gate device 203, the monitoring device 204, the input unit (image input unit) 211, the output unit 213, the feature detection unit 221 and the recognition unit 222 in the passer-by identification system 200 illustrated in FIG. The configuration of the camera 101, the gate device 103, the monitoring device 104, the input unit (image input unit) 111, the output unit 113, the feature detection unit 121, and the recognition unit 122 in the passer-by identification system 100 shown in FIG. Detailed description will be omitted.

この第2の実施の形態に係る通行者認識システム200と第1の実施の形態で説明した通行者認識システム100とは、各人物をグループ分けするための情報が異なっている。第1の実施の形態に係る通行者認識システム100では、各人物をグループ分けするための情報として、各登録者のグループ名などを示すグループ情報が登録されているものとしている。このグループ情報は、直接的に各人物をグループ分けする情報である。このため、通行者認識システム100では、予め各登録者をグループ分けして登録しておき、その情報を記憶部に記憶しておく必要がある。   The passer-by identification system 200 according to the second embodiment and the passer-by identification system 100 described in the first embodiment are different in information for grouping persons. In the passer-by identification system 100 according to the first embodiment, group information indicating the group name of each registrant is registered as information for grouping each person. This group information is information for directly grouping the persons. For this reason, in the passer-by identification system 100, it is necessary to register each registrant in groups and store the information in the storage unit.

これに対して、第2の実施の形態に係る通行者認識システム200では、各人物をグループ分けするための情報として、各登録者の属性情報が登録されているものとする。従って、通行者認識システム200では、各登録者の属性情報に基づいて各人物のグループを判定する。また、上記属性情報は、種々の情報を登録することが可能である。上記属性情報としては、たとえば、年齢、性別、重要度、警戒度、補助の要否などの情報が考えられる。このような属性情報のうちグループ分けの対象とする情報を設定しておけば、上記通行者認識装置202では、設定された情報に応じてグループ分けした情報をグループ判定の結果として出力する。たとえば、グループ分けの情報として年齢あるいは性別を設定しておけば、上記通行者認識装置202は、年齢あるいは性別でグループ分けしたグループ判定の結果を出力する。また、グループ分けの情報として重要度、警戒度あるいは補助の要否を設定しておけば、上記通行者認識装置202は、重要度、警戒度あるいは補助の要否でグループ分けしたグループ判定の結果を出力する。   In contrast, in the passer-by identification system 200 according to the second embodiment, it is assumed that the attribute information of each registrant is registered as information for grouping each person. Therefore, the passer-by identification system 200 determines each person's group based on the attribute information of each registrant. Various information can be registered as the attribute information. Examples of the attribute information include information such as age, sex, importance, alertness, and necessity of assistance. If information to be grouped among such attribute information is set, the passer-by identification device 202 outputs information grouped according to the set information as a result of group determination. For example, if age or gender is set as grouping information, the passer-by identification apparatus 202 outputs a group determination result grouped by age or gender. In addition, if importance level, vigilance level, or necessity of assistance are set as grouping information, the passer-by identification device 202 determines the result of group determination divided into groups according to importance level, warning level, or necessity of assistance. Is output.

以下、上記通行者認識システム200の各部について詳細に説明する。
まず、上記記憶部214は、識別情報、顔の特徴情報、顔画像、属性情報(年齢、性別、重要度、警戒度、補助の要否など)が各登録者ごとの登録情報として記憶される。上記識別情報、顔の特徴情報および顔画像は、第1の実施の形態で説明した上記記憶部114に記憶される識別情報、顔の特徴情報および顔画像情報と同様である。すなわち、上記記憶部214には、上記第1の実施の形態で説明した記憶部114に記憶されるグループ情報の代わりに、人物属性情報が記憶されている点が異なっている。
図7は、上記記憶部214に記憶される各登録者ごとの登録情報の例を示す図である。図7に示す例では、各登録者ごとに、識別情報、顔の特徴情報および顔画像などの情報と対応づけられた属性情報として、年齢、性別、重要度、警戒度、補助の要否などの情報が記憶されている。
Hereinafter, each part of the passer-by identification system 200 will be described in detail.
First, the storage unit 214 stores identification information, facial feature information, facial images, and attribute information (age, sex, importance, alertness, necessity of assistance, etc.) as registration information for each registrant. . The identification information, face feature information, and face image are the same as the identification information, face feature information, and face image information stored in the storage unit 114 described in the first embodiment. That is, the storage unit 214 is different in that person attribute information is stored instead of the group information stored in the storage unit 114 described in the first embodiment.
FIG. 7 is a diagram showing an example of registration information for each registrant stored in the storage unit 214. In the example shown in FIG. 7, for each registrant, as attribute information associated with identification information, facial feature information, and facial image information, age, gender, importance, alertness, necessity of assistance, etc. Is stored.

上記グループ判定部223は、上記第1の実施の形態で説明したグループ判定部123と同様にグループ候補の判定とグループ判定とを行う。グループ候補は、上記グループ判定部123と同様な処理により判定される。上記グループ判定部223におけるグループ判定では、グループ候補の各人物(登録者)を各人物(登録者)の属性情報のうち所定の情報に基づいてグループ分けし、グループ分けした各グループの人数をカウントアップする。また、上記グループ判定部223は、グループ分けのための情報として、上記記憶部214に記憶されている属性情報のうち特定の情報(1つ又は複数)が予め設定されているものとする。ただし、グループ分けの情報は、操作員が適宜設定するようにしても良いし、上記監視装置204の図示しない操作部により監視員が適宜設定するようにしても良い。   The group determination unit 223 performs group candidate determination and group determination in the same manner as the group determination unit 123 described in the first embodiment. The group candidate is determined by the same process as the group determination unit 123 described above. In the group determination in the group determination unit 223, each person (registrant) of the group candidate is grouped based on predetermined information among the attribute information of each person (registrant), and the number of each grouped group is counted. Up. In addition, it is assumed that the group determination unit 223 is preset with specific information (one or more) among the attribute information stored in the storage unit 214 as information for grouping. However, the grouping information may be set as appropriate by the operator, or may be set as appropriate by the monitor using an operation unit (not shown) of the monitoring device 204.

図8は、上記グループ判定部223におけるグループ判定処理の結果の例を示す図である。
図8に示す例では、ゲート1に設置されているカメラが撮影した画像から、2名の重要人物と補助が必要な1名の人物とが認識されたことを示している。ここで、図7に示すような登録情報が記憶部214に記憶されているとすれば、図8に示すようなグループ判定の結果は、人物B、C、Dがグループ候補として検出された場合に得られる。これは、図7に示す例において、人物Cおよび人物Dの属性情報では重要度が重要となっており、人物Bの属性情報では要補助となっているためのである。
FIG. 8 is a diagram illustrating an example of a result of group determination processing in the group determination unit 223.
In the example shown in FIG. 8, it is shown that two important persons and one person who needs assistance are recognized from an image captured by a camera installed in the gate 1. Here, if the registration information as shown in FIG. 7 is stored in the storage unit 214, the result of the group determination as shown in FIG. 8 is the case where the persons B, C, and D are detected as group candidates. Is obtained. This is because in the example shown in FIG. 7, the importance is important in the attribute information of the person C and the person D, and the attribute information of the person B is essential.

また、図8に示すようなグループ判定結果を監視装置204に表示すれば、上記監視装置204の監視員は、2名の重要人物と1名の要補助の人物とが上記カメラ201で撮影されたという情報が容易に認知できる。この結果として、監視員は、重要人物に対してスムーズ、かつ、適切な対応ができ、要補助の人物に対して車椅子の準備あるいは道案内などの適切な対応できる。   Further, when the group determination result as shown in FIG. 8 is displayed on the monitoring device 204, the monitoring device 204 has two important persons and one auxiliary person photographed by the camera 201. Can be easily recognized. As a result, the monitor can smoothly and appropriately respond to the important person, and can appropriately respond to the person who needs assistance, such as wheelchair preparation or road guidance.

次に、上記第2の実施の形態に係る通行者認識システム200における処理の流れについて説明する。
図9は、第2の実施の形態に係る通行者認識システム200における処理を説明するためのフローチャートである。
なお、図9に示すステップS201〜S207、S209〜S211の各処理は、図5に示すステップS201〜S207、S209〜S211の各処理と同様であるための詳細な説明を省略する。
Next, the flow of processing in the passer-by identification system 200 according to the second embodiment will be described.
FIG. 9 is a flowchart for explaining processing in the passer-by identification system 200 according to the second embodiment.
Note that the processes in steps S201 to S207 and S209 to S211 shown in FIG. 9 are the same as the processes in steps S201 to S207 and S209 to S211 shown in FIG.

すなわち、上記通行者認識装置202では、上記認識部222により認識された人物をグループ候補とした場合、上記グループ判定部123により当該人物の属性情報のうち所定のグループ分けの情報に基づいて当該人物のグループを判定する(ステップS208)。各人物のグループを判定すると、上記グループ判定部123は、上記グループ候補における各グループごとの人数をカウントアップする(ステップS209)。なお、ここでは、グループ候補ごとに各グループの人数をカウントアップしている。上記グループ判定部123は、当該グループ候補における各グループごとの人数を示す情報をグループ判定の結果として出力部113へ出力する(ステップS210)。   That is, in the passer-by identification device 202, when the person recognized by the recognition unit 222 is set as a group candidate, the group determination unit 123 determines the person based on predetermined grouping information among the attribute information of the person. Are determined (step S208). When the group of each person is determined, the group determination unit 123 counts up the number of persons for each group in the group candidate (step S209). Here, the number of people in each group is counted up for each group candidate. The group determination unit 123 outputs information indicating the number of people in each group in the group candidate to the output unit 113 as a result of group determination (step S210).

たとえば、図7に示す人物B、C、Dの3人がグループ候補として判定された場合、上記グループ判定部123は、各人物の属性情報に基づいてグループ分けし、各グループの人数をカウントアップする。すなわち、図7に示す登録情報に従えば、上記グループ判定部123は、人物Bが認識された場合、要補助の人数(要補助のグループ)をカウントアップし、人物Cが認識された場合、重要人物の人数(重要人物のグループ)をカウントアップし、人物Dが認識された場合、重要人物の人数(重要人物のグループ)をカウントアップする。このようなグループ判定の結果としては、図8に示すような情報が得られる。   For example, when the three persons B, C, and D shown in FIG. 7 are determined as group candidates, the group determination unit 123 divides the groups based on the attribute information of each person, and counts up the number of persons in each group. To do. That is, according to the registration information shown in FIG. 7, when the person B is recognized, the group determination unit 123 counts up the number of people who need assistance (groups that need assistance), and when the person C is recognized, The number of important persons (group of important persons) is counted up, and when the person D is recognized, the number of important persons (group of important persons) is counted up. As a result of such group determination, information as shown in FIG. 8 is obtained.

上記のような第2の実施の形態に係る通行者認識システムでは、予め登録者の顔の特徴情報と種々の属性情報とを対応づけて記憶部に記憶しておき、カメラ101が撮影した画像から通行者の顔の特徴情報を検出し、検出した通行者の顔の特徴情報と記憶部に記憶されている登録者の顔の特徴情報とを照合することにより通行者を認識し、さらに、認識された通行者を上記記憶部に記憶されている各登録者の属性情報に基づいてグループ分けし、グループ分けした結果を外部装置へ出力する。   In the passer-by identification system according to the second embodiment as described above, the registrant's facial feature information and various attribute information are stored in the storage unit in association with each other, and the image captured by the camera 101 is stored. Detecting the passer's face feature information from the detected passer's face feature information and comparing the registrant's face feature information stored in the storage unit to recognize the passer-by, The recognized passers-by are grouped based on the attribute information of each registrant stored in the storage unit, and the grouped result is output to an external device.

これにより、上記第2の実施の形態によれば、上記通行者認識装置が、所定の場所(カメラが撮影する領域)に「どのような人物の何人からなる集団」が現れたのかを監視装置などの外部装置へ通知できる。これにより、上記外部装置では、所定の場所に「どのような人物の何人からなる集団」が現れたのかを監視者に報知することが可能となる。この結果として、たとえば、重要人物のグループが現れた場合、監視者は、来客に対する応対の準備を迅速に行うことができる。また、要注意人物のグループが現れた場合、監視者は、警戒のための警備員を配備したり、監視映像の記録をスタートしたりするなどの対応が迅速に行える。また、要注意人物などの特定の属性情報の人物を含むグループについては、登録者であっても、ゲート装置203のゲートを閉じるなどの制御を行うことも可能となる。   As a result, according to the second embodiment, the passer-by identification device monitors whether a “group of what kind of persons” appears in a predetermined place (area photographed by the camera). Can be notified to external devices. As a result, the external device can notify the supervisor of “a group of what kind of persons” appears in a predetermined place. As a result, for example, when a group of important persons appears, the supervisor can quickly prepare for the reception of the visitor. In addition, when a group of people who need attention appears, the supervisor can quickly take measures such as deploying security guards for warning or starting recording of surveillance video. Further, for a group including persons having specific attribute information such as a person requiring attention, even a registrant can perform control such as closing the gate of the gate device 203.

次に、第3の実施の形態について説明する。
図10は、第3の実施の形態に係る通行者認識システム300の構成例を概略的に示すものである。
この第3の実施の形態では、図10に示すように、カメラ301、複数の通行者認識装置302A、302B、複数のゲート装置303A、303B、監視装置304、および、サーバ装置305などにより構成されている通行者認識システム300を想定するものとする。また、各通行者認識装置302(302A、302B)は、入力部(画像入力部)311(311A、311B)、制御部312(312A、312B)及び出力部313(313A、313B)などにより構成されている。さらに、各制御部312(312A、312B)は、特徴検出部321(321A、321B)、認識部322(322A、322B)及びグループ判定部323(323A、323B)などを有している。
なお、上記のような通行者認識システム300の構成は、運用形態等に応じて適宜変形可能である。たとえば、上記サーバ装置305の各構成は、何れかの通行者認識装置302に設けるようにしても良い。
Next, a third embodiment will be described.
FIG. 10 schematically shows a configuration example of a passer-by identification system 300 according to the third embodiment.
In the third embodiment, as shown in FIG. 10, the camera 301, a plurality of passer-by identification devices 302A and 302B, a plurality of gate devices 303A and 303B, a monitoring device 304, and a server device 305 are configured. Assume that a passer-by identification system 300 is present. Each passer-by identification device 302 (302A, 302B) includes an input unit (image input unit) 311 (311A, 311B), a control unit 312 (312A, 312B), an output unit 313 (313A, 313B), and the like. ing. Further, each control unit 312 (312A, 312B) includes a feature detection unit 321 (321A, 321B), a recognition unit 322 (322A, 322B), a group determination unit 323 (323A, 323B), and the like.
Note that the configuration of the passer-by identification system 300 as described above can be modified as appropriate according to the operation mode and the like. For example, each configuration of the server device 305 may be provided in any passer-by identification device 302.

また、図10に示す通行者認識システム300における、カメラ301(301A、301B)、ゲート装置303(303A,303B)、入力部311(311A,311B)、出力部313(313A,313B)、特徴検出部321(321A,321B)、認識部322(322A,322B)およびグループ判定部323(323A,323B)は、それぞれ図1に示す通行者認識システム100における、カメラ101、ゲート装置103、入力部111、出力部113、特徴検出部121、認識部122、およびグループ判定部123の構成と同様であるため、詳細な説明を省略する。   Further, in the passer-by identification system 300 shown in FIG. 10, the camera 301 (301A, 301B), the gate device 303 (303A, 303B), the input unit 311 (311A, 311B), the output unit 313 (313A, 313B), feature detection The unit 321 (321A, 321B), the recognition unit 322 (322A, 322B), and the group determination unit 323 (323A, 323B) are respectively the camera 101, the gate device 103, and the input unit 111 in the passer-by identification system 100 shown in FIG. The output unit 113, the feature detection unit 121, the recognition unit 122, and the group determination unit 123 have the same configuration, and thus detailed description thereof is omitted.

以下、上記通行者認識システム300の各部について詳細に説明する。
上記通行者認識システム300では、通行者認識装置302Aおよび302Bがサーバ装置305に接続されている。上記サーバ装置305は、各種のデータを蓄積および管理するデータサーバである。上記サーバ装置305は、図10に示すように、記憶部331、履歴データベース332、および、関連性判定部333を有している。また、上記サーバ装置305は、通行者認識装置302A、通行者認識装置302B、および、監視装置304とのデータ通信を行うためのインターフェース(図示しない)を有している。
Hereinafter, each part of the passer-by identification system 300 will be described in detail.
In the passer-by identification system 300, passer-by identification devices 302A and 302B are connected to the server device 305. The server device 305 is a data server that stores and manages various data. As shown in FIG. 10, the server device 305 includes a storage unit 331, a history database 332, and an association determination unit 333. Further, the server device 305 has an interface (not shown) for performing data communication with the passer-by identification device 302A, the passer-by recognition device 302B, and the monitoring device 304.

上記記憶部331は、上記第1の実施の形態で説明した記憶部114と同様な各登録者に関する登録情報(識別情報、顔の特徴情報、顔画像、グループ情報等)が記憶されるものとする。ただし、上記記憶部331に記憶される登録情報は、適宜、書換え可能な状態となっているものとする。上記記憶部331に記憶されている登録情報は、2つの通行者認識装置302Aおよび302Bにおける人物の認識処理あるいはグループ判定処理などで使用される情報である。このため、上記記憶部331に記憶されている登録情報は、上記通行者認識装置302Aあるいは302Bにより適宜読み出されるようになっている。   The storage unit 331 stores registration information (identification information, facial feature information, face image, group information, etc.) related to each registrant similar to the storage unit 114 described in the first embodiment. To do. However, it is assumed that the registration information stored in the storage unit 331 is appropriately rewritable. The registration information stored in the storage unit 331 is information used in person recognition processing or group determination processing in the two passer-by identification devices 302A and 302B. Therefore, the registration information stored in the storage unit 331 is appropriately read out by the passer-by identification device 302A or 302B.

上記履歴データベース332は、上記通行者認識装置302Aあるいは302Bによるに認識結果などの情報を履歴情報として記憶するようになっている。上記履歴データベース332に記憶される履歴情報としては、たとえば、人物の認識結果(認識された人物を示す情報、撮影された場所(ゲート)を示す情報、認識(撮影)された日時などの情報が記憶される。   The history database 332 stores information such as recognition results by the passer-by identification device 302A or 302B as history information. The history information stored in the history database 332 includes, for example, information such as a person recognition result (information indicating a recognized person, information indicating a place where the image was taken (gate), date and time of recognition (photographing)), and the like. Remembered.

上記関連性判定部333は、履歴データベース332に記憶される情報(各通行者認識装置302A、302Bで得られた認識結果等の情報)に基づいて各人物間の関連性(グループらしさ)を判定するものである。上記関連性判定部333による判定結果は、上記記憶部331に記憶されている各登録者のグループ情報に適宜反映される。   The relevance determination unit 333 determines relevance (group-likeness) between persons based on information stored in the history database 332 (information such as recognition results obtained by the passer-by identification devices 302A and 302B). To do. The determination result by the relevance determination unit 333 is appropriately reflected in the group information of each registrant stored in the storage unit 331.

すなわち、上記関連性判定部333は、予め設定されている条件に基づいて各通行者認識装置302A、302Bで認識された各人物間の関連性を判定する。認識された複数の人物間の関連性を判定するための条件としては、たとえば、「同時に撮影された人物同士であるか」、あるいは、「所定時間内に連続して撮影された人物同士であるか」などが設定可能である。また、上記関連性判定部333では、認識された各人物について他の人物との関連性の度合いを関連性の評価値として判定し、その関連性の評価値(関連性を示す値)をデータテーブル(相関マップ)333aに各人物ごとに蓄積し、蓄積された評価値に基づいて各人物のグループを判定する。   That is, the relevance determination unit 333 determines relevance between the persons recognized by the passer-by identification devices 302A and 302B based on preset conditions. The conditions for determining the relationship between a plurality of recognized persons include, for example, “whether they are photographed at the same time” or “persons photographed continuously within a predetermined time” Can be set. In addition, the relevance determination unit 333 determines the degree of relevance of each recognized person with another person as an evaluation value of relevance, and evaluates the relevance evaluation value (value indicating relevance) as data. A table (correlation map) 333a is accumulated for each person, and a group of each person is determined based on the accumulated evaluation value.

たとえば、「同時」に撮影された人物間の関連性の評価値と「所定時間内に連続」して撮影された人物間の関連性の評価値とは、それぞれ別の値(重み付けした値)で設定するようにしても良い。この場合、上記関連性判定部333は、あるカメラで「同時」に撮影された人物間については「グループの可能性が高い(関連性が高いため、評価値を最高値とする)」と判定し、あるカメラで「所定時間内に連続」して撮影された人物間については「グループの可能性がある(関連性が低いため、評価値を低くする)」と判定し、それ以外の人物(所定時間以上経過した後に撮影された人物)については「グループでない(関連性がないため、評価値なしとする)」と判定する。   For example, the evaluation value of the relationship between persons photographed “simultaneously” and the evaluation value of the relationship between persons photographed “continuously within a predetermined time” are different values (weighted values). You may make it set with. In this case, the relevancy determination unit 333 determines that “the possibility of grouping is high (the evaluation value is set to the highest value because the relevance is high)” between persons photographed “simultaneously” with a certain camera. However, it is determined that there is a possibility of grouping (there is low relevance, so the evaluation value is low) between persons photographed “continuous within a predetermined time” with a certain camera. It is determined that “a person photographed after elapse of a predetermined time or more” is “not a group (there is no evaluation because there is no relationship)”.

さらに、関連性の評価値は、連続して各人物が撮影された時間間隔に応じて段階的に設定されるようにしても良い。たとえば、関連性の評価値は、同時に撮影された人物間については第1の値(レベル3;たとえば、評価値が「3」)とし、第1の時間(たとえば、1分)内に撮影された人物間については第2の値(レベル2;たとえば、評価値が「2」)とし、第1の時間から第2の時間(たとえば、5分)までに撮影された人物間については上記第2の値よりも低い第3の値(レベル1;たとえば、評価値が「1」)とし、第2の時間以上の間隔で撮影された人物間については上記第3の値よりも低い第4の値(レベル0;たとえば、評価値が「0」)とするように設定することも可能である。   Furthermore, the relevance evaluation value may be set stepwise in accordance with the time interval at which each person is continuously photographed. For example, the relevance evaluation value is set to the first value (level 3; for example, the evaluation value is “3”) for persons photographed at the same time, and is taken within the first time (for example, 1 minute). The second value (level 2; for example, the evaluation value is “2”) is used for the distance between persons, and the above-mentioned number is set for the distance between persons photographed from the first time to the second time (for example, 5 minutes). A third value lower than the value of 2 (level 1; for example, the evaluation value is “1”), and a person who is photographed at intervals of the second time or longer is a fourth lower than the third value. (Level 0; for example, the evaluation value is “0”).

図11は、通行者認識装置による認識結果の履歴としての履歴情報の例を示す図である。図12は、図11に示す履歴情報に対する関連性の評価例を示す図である。
図12に示す例では、図11に示すような履歴情報に対して、上記関連性判定部333が各認識結果とその直前の認識結果とを比較することにより、各人物間の関連性を評価している。つまり、上記関連性判定部333は、各通行者認識装置302で得られる認識結果について、順次、その直前の認識結果とを比較することにより、各人物間の関連性を評価している。なお、ここでは、上述したような条件に基づいて、図11に示す履歴情報の各認識結果を評価する場合について説明とする。
FIG. 11 is a diagram illustrating an example of history information as a history of recognition results by the passer-by identification device. FIG. 12 is a diagram illustrating an evaluation example of relevance to the history information illustrated in FIG. 11.
In the example shown in FIG. 12, the relevance determination unit 333 compares each recognition result with the previous recognition result for the history information as shown in FIG. is doing. That is, the relevance determination unit 333 evaluates the relevance between each person by sequentially comparing the recognition result obtained by each passer-by identification device 302 with the immediately preceding recognition result. Here, the case where each recognition result of the history information shown in FIG. 11 is evaluated based on the above-described conditions will be described.

まず、上記関連性判定部333は、履歴番号2の認識結果と、その直前の履歴番号1の認識結果とを比較する。履歴番号2の認識結果とその直前の履歴番号1の認識結果とを比較すると、上記関連性判定部333は、それらの撮影間隔(日時の差分)が第1の時間(1分)以内であるため、人物Bと人物Aとの関連性の評価値を「2」とする。   First, the relevance determination unit 333 compares the recognition result of the history number 2 with the recognition result of the history number 1 immediately before that. When the recognition result of history number 2 is compared with the recognition result of history number 1 immediately before, the relevance determination unit 333 determines that the shooting interval (date and time difference) is within the first time (1 minute). Therefore, the evaluation value of the relationship between the person B and the person A is “2”.

また、上記関連性判定部333は、履歴番号3の認識結果とその直前の履歴番号2の認識結果とを比較する。履歴番号3の認識結果とその直前の履歴番号2の認識結果とを比較すると、上記関連性判定部333は、それらの撮影間隔が第2の時間(1分)以内であるため、人物C、D、Eと人物B(CとB、DとB、EとB)の関連性の評価値をそれぞれ「1」と判定する。また、上記関連性判定部333は、履歴番号3の認識結果では人物C、D、Eが同時に撮影されているため、人物C、D、E同士(CとD、DとE、EとC)の関連性の評価値をそれぞれ「3」と判定する。   The relevancy determination unit 333 compares the recognition result of the history number 3 with the recognition result of the history number 2 immediately before. Comparing the recognition result of the history number 3 with the recognition result of the history number 2 immediately before, the relevance determination unit 333 determines that the person C, the shooting interval is within the second time (1 minute). The evaluation value of the relationship between D, E and person B (C and B, D and B, E and B) is determined to be “1”, respectively. In addition, the relevance determination unit 333 recognizes that the persons C, D, and E are simultaneously photographed in the recognition result of the history number 3, and thus the persons C, D, and E (C and D, D and E, and E and C ) Is evaluated as “3”.

また、上記関連性判定部333は、履歴番号4の認識結果について、その直前の履歴番号3の認識結果とを比較する。履歴番号4の認識結果とその直前の履歴番号3の認識結果とを比較すると、上記関連性判定部333は、撮影間隔が撮影間隔が第2の時間(5分)以上であるため、人物Fと人物C、D、E(FとC、FとD、FとE)の関連性を「0」と判定する。
上記のような関連性の判定結果を整理すると、図12に示すような相関性を示すデータテーブル(相関マップ)333aが生成される。図12に示すような相関マップによれば、人物A〜Fの関連性が評価できる。さらに、上記のような関連性の評価値を所定期間蓄積した相関マップ333aによれば、所定期間における各人物間の相関性を示す情報(グループ分けを示す情報)が作成される。
The relevancy determination unit 333 compares the recognition result of the history number 4 with the recognition result of the history number 3 immediately before. Comparing the recognition result of the history number 4 with the recognition result of the history number 3 immediately before, the relevance determination unit 333 determines that the person F has the shooting interval equal to or longer than the second time (5 minutes). And the persons C, D, and E (F and C, F and D, and F and E) are determined to be “0”.
When the relevance determination results as described above are arranged, a data table (correlation map) 333a showing the correlation as shown in FIG. 12 is generated. According to the correlation map as shown in FIG. 12, the relevance of the persons A to F can be evaluated. Furthermore, according to the correlation map 333a in which the evaluation values of relevance as described above are accumulated for a predetermined period, information indicating the correlation between persons in the predetermined period (information indicating grouping) is created.

なお、図12に示す例では、予め記憶部331に登録情報が記憶されている登録者であると認識された人物について関連付けを行う場合について説明している。このような関連性の判定は、未登録者(登録者でないと判定された人物)についても適用できる。この場合、未登録者と判定された人物については、その人物に対してID番号を付与し、そのID番号に対応づけて当該人物の顔の特徴情報を仮登録者の登録情報として記憶部331に記憶しおく。各認識装置では、上記のように登録した仮登録者の登録情報も用いて人物の認識処理を行う。これにより、次に当該人物(仮登録者)が何れかのカメラで撮影された場合、当該通行者認識システムは、当該人物が認識される。このように仮登録者が認識されれば、上記通行者認識システムでは、未登録者についても、上記のような他者との関連性を判定することが可能となる。   In the example illustrated in FIG. 12, a case is described in which association is performed for a person who is recognized as a registrant whose registration information is stored in the storage unit 331 in advance. Such determination of relevance can also be applied to an unregistered person (a person who is determined not to be a registered person). In this case, for a person determined to be an unregistered person, an ID number is assigned to the person, and the feature information of the person's face is associated with the ID number as registration information of the temporary registrant. Remember. Each recognition device performs a person recognition process using the registration information of the temporary registrant registered as described above. As a result, when the person (temporary registrant) is photographed by any camera next time, the passer-by identification system recognizes the person. If the temporary registrant is recognized as described above, the passer-by identification system can determine the relevance of the unregistered person with the other person as described above.

また、上記のように得られた各人物間の関連性は、特定の条件に基づいて各登録者のループ情報として登録するようにしても良い。たとえば、上記サーバ装置305の関連性判定部333は、上記相関マップ333aにおける関連性の評価値が所定の閾値を超えたか否かを判定する。この判定により関連性の評価値が所定の閾値を超えた人物同士が判定された場合、上記関連性判定部333は、それらの人物同士をグループと判定し、それらの人物(登録者)のグループ情報を更新するようにする。この場合、人手を介さずに、関連性の評価値に基づく各登録者のグループ情報の更新が可能となる。   Further, the relationship between each person obtained as described above may be registered as loop information of each registrant based on specific conditions. For example, the relevance determination unit 333 of the server device 305 determines whether or not the relevance evaluation value in the correlation map 333a exceeds a predetermined threshold. When it is determined by this determination that the persons whose relevance evaluation value exceeds a predetermined threshold value, the relevance determining unit 333 determines the persons as a group, and the groups of those persons (registrants). Update information. In this case, it is possible to update the group information of each registrant based on the evaluation value of relevance without involving human resources.

また、上記サーバ装置305の関連性判定部333は、上記のような相関マップにおいて関連性の評価値が所定の閾値を超えた人物同士について、上記監視装置304などに「グループである可能性が高い」という旨の案内を表示させるようにしても良い。この場合、監視員あるいはシステム管理者が上記のような案内を目視で確認し、その確認結果に基づいてそれらの人物をグループとして登録するか否かを操作部304aにより指示するようにしても良い。この場合、上記サーバ装置305の関連性判定部333では、監視員あるいはシステム管理者からの指示に応じて各人物のグループ情報を更新する。この場合、監視員あるいはシステム管理者が確認した後に、各登録者のグループ情報が更新されるため、確実なグループの管理が可能となる。   In addition, the relevance determining unit 333 of the server device 305 indicates to the monitoring device 304 or the like “a possibility that the relevance evaluation value exceeds a predetermined threshold in the correlation map as described above. You may make it display the guidance to the effect of "high". In this case, the supervisor or the system administrator may visually confirm the guidance as described above and instruct the operation unit 304a whether or not to register those persons as a group based on the confirmation result. . In this case, the relevance determination unit 333 of the server device 305 updates the group information of each person in accordance with an instruction from the monitor or system administrator. In this case, since the group information of each registrant is updated after confirmation by the supervisor or the system administrator, it is possible to manage the group reliably.

次に、上記関連性判定部333による関連性の判定処理の流れについて説明する。
図13は、上記関連性判定部333による関連性の判定処理の例を説明するためのフローチャートである。なお、上記関連性の判定処理は、各通行者認識装置302から認識結果を受信することごとに、実施するようにしても良いし、各通行者認識装置302による認識結果を履歴データベース332に蓄積し、定期的に履歴データベース332に蓄積された認識結果を読み出して、実施するようにしても良い。
Next, the flow of relevance determination processing by the relevance determination unit 333 will be described.
FIG. 13 is a flowchart for explaining an example of the relevance determination process performed by the relevance determination unit 333. The relevancy determination process may be performed each time a recognition result is received from each passer-by identification device 302, or the recognition result by each passer-by recognition device 302 is stored in the history database 332. Then, the recognition result accumulated in the history database 332 may be periodically read and executed.

まず、上記サーバ装置305の関連性判定部333が各通行者認識装置302による認識結果を取得したものとする(ステップS301)。すると、上記関連性判定部333は、同時に認識された複数の人物が存在するか否かを判定する(ステップS302)。この判定により同時に複数の人物が認識されたと判定した場合(ステップS302、YES)、上記関連性判定部333は、同時に認識された各人物同士の関連性が第1と値であると評価する(ステップS303)。この関連性の評価値は、当該各人物間の関連性を示す相関マップ333aに蓄積(投票)される。   First, it is assumed that the relevance determination unit 333 of the server device 305 acquires the recognition result by each passer-by identification device 302 (step S301). Then, the relevance determination unit 333 determines whether there are a plurality of persons recognized at the same time (step S302). When it is determined that a plurality of persons are recognized at the same time by this determination (step S302, YES), the relevance determination unit 333 evaluates that the relevance between the persons recognized at the same time is the first and the values ( Step S303). The evaluation value of the relevance is accumulated (voted) in the correlation map 333a indicating the relevance between the persons.

さらに、上記関連性判定部333は、取得した認識結果と直前の認識結果とを比較することにより、それらの認識結果における日時(撮影日時)の間隔が第1の時間以内であるか否かを判定する(ステップS304)。つまり、上記関連性判定部333は、第1の時間以内で連続して認識された人物が存在するか否かを判定する。取得した認識結果と直前の認識結果との間隔が第1の時間内であると判定した場合(ステップS304、YES)、上記関連性判定部333は、取得した認識結果の人物と直前の認識結果の人物との関連性が第2の値であると評価する(ステップS305)。なお、上記第2の値は、上記第1の値よりも小さい値であるものとする。このような関連性の評価値は、当該人物間(取得した認識結果の人物と直前の認識結果の人物)の関連性を示す相関マップ333aに蓄積(投票)される。   Furthermore, the relevancy determination unit 333 compares the acquired recognition result with the immediately preceding recognition result, thereby determining whether or not the interval of the date and time (shooting date and time) in the recognition result is within the first time. Determination is made (step S304). That is, the relevance determination unit 333 determines whether there is a person who is continuously recognized within the first time. When it is determined that the interval between the acquired recognition result and the immediately preceding recognition result is within the first time (step S304, YES), the relevance determining unit 333 determines the acquired recognition result person and the immediately preceding recognition result. It is evaluated that the relationship with the person is the second value (step S305). Note that the second value is smaller than the first value. Such an evaluation value of relevance is accumulated (voted) in the correlation map 333a indicating the relevance between the persons (the acquired recognition result person and the previous recognition result person).

取得した認識結果と直前の認識結果との間隔が第1の時間以内でないと判定した場合(ステップS304、NO)、上記関連性判定部333は、取得した認識結果と直前の認識結果とを比較することにより、それらの認識結果における日時(撮影日時)の間隔が第2の時間内であるか否かを判定する(ステップS306)。つまり、上記関連性判定部333は、第1の時間以上かつ第2の時間以内で連続して認識された人物が存在するか否かを判定する。取得した認識結果と直前の認識結果との間隔が第2の時間以内であると判定した場合(ステップS306、YES)、上記関連性判定部333は、取得した認識結果の人物と直前の認識結果の人物との関連性が第3の値であると評価する(ステップS307)。なお、上記第3の値は、上記第2の値よりも小さい値であるものとする。このような関連性の評価値は、当該人物間(取得した認識結果の人物と直前の認識結果の人物)の関連性を示す相関マップ333aに蓄積(投票)される。   When it is determined that the interval between the acquired recognition result and the previous recognition result is not within the first time (NO in step S304), the relevance determination unit 333 compares the acquired recognition result with the previous recognition result. By doing so, it is determined whether or not the interval of the date and time (shooting date and time) in the recognition result is within the second time (step S306). In other words, the relevancy determination unit 333 determines whether there is a person who has been continuously recognized for the first time or longer and within the second time. When it is determined that the interval between the acquired recognition result and the immediately preceding recognition result is within the second time (step S306, YES), the relevance determination unit 333 determines that the person of the acquired recognition result and the immediately preceding recognition result It is evaluated that the relationship with the person is the third value (step S307). Note that the third value is smaller than the second value. Such an evaluation value of relevance is accumulated (voted) in the correlation map 333a indicating the relevance between the persons (the acquired recognition result person and the previous recognition result person).

取得した認識結果と直前の認識結果との間隔が第2の時間以内でないと判定した場合(ステップS306、NO)、上記関連性判定部333は、取得した認識結果の人物と直前の認識結果の人物とは関連性がないと評価する(ステップS308)。この場合、当該人物間(取得した認識結果の人物と直前の認識結果の人物)の関連性を示す相関マップ333aには評価値を蓄積(投票)しない。   When it is determined that the interval between the acquired recognition result and the immediately preceding recognition result is not within the second time (step S306, NO), the relevance determining unit 333 determines whether the acquired recognition result person and the immediately preceding recognition result are It is evaluated that there is no relationship with the person (step S308). In this case, the evaluation value is not accumulated (voted) in the correlation map 333a indicating the relationship between the persons (the acquired person as the recognition result and the person as the previous recognition result).

さらに、上記関連性判定部333では、上記相関マップ333aにおいて評価値が所定の値を超えたものを判定する(ステップS309)。この判定により評価値が所定の値を超えたものを判定した場合(ステップS309、YES)、上記関連性判定部333は、関連性の評価値が所定の値を超えた各人物のグループ情報を更新する処理を行う(ステップS310)。
上述したように、上記ステップS310の処理において、上記関連性判定部333は、上記記憶部331に記憶されている関連性の評価値が所定の値を超えた各人物のグループ情報を更新するようにしても良いし、上記監視装置304に関連性の評価値が所定の値を超えた各人物のグループ情報を通知して当該監視装置304からのグループ情報の更新要求に応じてグループ情報を更新するようにしても良い。
また、上記ステップS309及びS310の処理は、上記相関マップ333aに評価値を蓄積するごとに行っても良いし、定期的に行うようにしても良いし、監視員あるいはシステム管理者からの指示に応じて行うようにしても良い。
Further, the relevance determination unit 333 determines whether the evaluation value exceeds a predetermined value in the correlation map 333a (step S309). When it is determined that the evaluation value exceeds the predetermined value by this determination (step S309, YES), the relevance determination unit 333 displays the group information of each person whose relevance evaluation value exceeds the predetermined value. Update processing is performed (step S310).
As described above, in the process of step S310, the relevance determination unit 333 updates the group information of each person whose relevance evaluation value stored in the storage unit 331 exceeds a predetermined value. Alternatively, group information of each person whose relevance evaluation value exceeds a predetermined value is notified to the monitoring device 304, and the group information is updated in response to a group information update request from the monitoring device 304. You may make it do.
Further, the processing in steps S309 and S310 may be performed every time an evaluation value is accumulated in the correlation map 333a, or may be performed periodically, or in response to an instruction from a supervisor or system administrator. You may make it perform according to it.

上記第3の実施の形態に係る通行者認識システムでは、カメラが撮影した画像から検出した通行者の顔の特徴情報と記憶部に予め記憶されている各登録者の顔の特徴情報とを照合することにより通行者を認識し、その認識結果あるいは認識結果の履歴に基づいて複数の通行者間の関連付けを行う。また、上記通行者認識システムでは、上記のような関連付けに基づいて各通行者のグループを判定する。
これにより、上記第3の実施の形態によれば、予めグループとして登録されていない人物同士であっても、関連性を評価することができ、さらには、各人物間の関連性に基づいて各人物をグループ分けすることができる。
In the passer-by identification system according to the third embodiment, passer's face feature information detected from an image captured by the camera is collated with face information of each registrant's face stored in the storage unit in advance. Thus, a passerby is recognized, and a plurality of passersby are associated based on the recognition result or the history of the recognition result. The passer-by identification system determines each passer-by group based on the association as described above.
Thereby, according to the said 3rd Embodiment, even if it is persons who are not previously registered as a group, a relevance can be evaluated, Furthermore, based on the relevance between each person, People can be grouped.

次に、第4の実施の形態について説明する。
図14は、第4の実施の形態に係る通行者認識システム400の構成例を概略的に示すものである。
この第4の実施の形態では、図14に示すように、カメラ401、複数の通行者認識装置402A、402B、複数のゲート装置403A、403B、監視装置404、および、サーバ装置405などにより構成されている通行者認識システム400を想定するものとする。また、各通行者認識装置402(402A、402B)は、入力部(画像入力部)411(411A、411B)、制御部412(412A、412B)及び出力部413(413A、413B)などにより構成されている。さらに、各制御部412(412A、412B)は、特徴検出部421(421A、421B)、認識部422(422A、422B)、および、グループ判定部423(423A、423B)などを有している。
なお、上記のような通行者認識システム400の構成は、運用形態等に応じて適宜変形可能である。たとえば、上記サーバ装置405の各構成は、何れかの通行者認識装置402に設けるようにしても良い。
Next, a fourth embodiment will be described.
FIG. 14 schematically shows a configuration example of a passer-by identification system 400 according to the fourth embodiment.
In the fourth embodiment, as shown in FIG. 14, the camera 401, a plurality of passer-by identification devices 402A and 402B, a plurality of gate devices 403A and 403B, a monitoring device 404, and a server device 405 are configured. Assume that a passer-by identification system 400 is present. Each passer-by identification device 402 (402A, 402B) includes an input unit (image input unit) 411 (411A, 411B), a control unit 412 (412A, 412B), an output unit 413 (413A, 413B), and the like. ing. Further, each control unit 412 (412A, 412B) includes a feature detection unit 421 (421A, 421B), a recognition unit 422 (422A, 422B), a group determination unit 423 (423A, 423B), and the like.
Note that the configuration of the passer-by identification system 400 as described above can be modified as appropriate according to the operation mode and the like. For example, each configuration of the server device 405 may be provided in any passer-by identification device 402.

また、図14に示す通行者認識システム400における、カメラ401(401A、401B)、ゲート装置403(403A,403B)、入力部411(411A,411B)、出力部413(413A,413B)、特徴検出部421(421A,421B)、認識部422(422A,422B)、および、グループ判定部423(423A、423B)は、それぞれ図1に示す通行者認識システム100における、カメラ101、ゲート装置103、入力部111、出力部113、特徴検出部121、および、認識部122、および、グループ判定部123の構成と同様であるため、詳細な説明を省略する。   Further, in the passer-by identification system 400 shown in FIG. 14, the camera 401 (401A, 401B), gate device 403 (403A, 403B), input unit 411 (411A, 411B), output unit 413 (413A, 413B), feature detection The unit 421 (421A, 421B), the recognition unit 422 (422A, 422B), and the group determination unit 423 (423A, 423B) are the camera 101, the gate device 103, and the input in the passer-by identification system 100 shown in FIG. Since the configuration is the same as that of the unit 111, the output unit 113, the feature detection unit 121, the recognition unit 122, and the group determination unit 123, detailed description thereof is omitted.

以下、上記通行者認識システム400の各部について詳細に説明する。
上記通行者認識システム400では、通行者認識装置402Aおよび402Bがサーバ装置405に接続されている。上記サーバ装置405は、各種のデータを蓄積および管理するデータサーバである。上記サーバ装置405は、図14に示すように、記憶部431、履歴データベース432、および、グループ管理部433を有している。また、上記サーバ装置405は、通行者認識装置402A、通行者認識装置402B、および、監視装置404とのデータ通信を行うためのインターフェース(図示しない)を有している。
Hereinafter, each part of the passer-by identification system 400 will be described in detail.
In the passer-by identification system 400, passer-by identification devices 402A and 402B are connected to the server device 405. The server device 405 is a data server that stores and manages various data. As shown in FIG. 14, the server device 405 includes a storage unit 431, a history database 432, and a group management unit 433. Further, the server device 405 has an interface (not shown) for performing data communication with the passer-by identification device 402A, the passer-by recognition device 402B, and the monitoring device 404.

上記記憶部431は、上記第1の実施の形態で説明した記憶部114と同様な各登録者に関する登録情報(識別情報、顔の特徴情報、顔画像、グループ情報等)が記憶されるものとする。上記記憶部431に記憶されている登録情報は、各通行者認識装置402Aおよび402Bにおける人物の認識処理あるいはグループ判定処理などで使用される情報である。このため、上記記憶部431に記憶されている登録情報は、上記通行者認識装置402Aあるいは402Bにより適宜読み出されるようになっている。   The storage unit 431 stores registration information (identification information, facial feature information, face image, group information, etc.) related to each registrant similar to the storage unit 114 described in the first embodiment. To do. The registration information stored in the storage unit 431 is information used in a person recognition process or a group determination process in the passer-by identification devices 402A and 402B. Therefore, the registration information stored in the storage unit 431 is appropriately read out by the passer-by identification device 402A or 402B.

上記履歴データベース432は、上記通行者認識装置302Aあるいは302Bによるに認識結果などの情報を履歴情報として記憶するようになっている。上記履歴データベース332に記憶される履歴情報としては、たとえば、人物の認識結果(認識された人物を示す情報、撮影された場所(ゲート)を示す情報、認識(撮影)された日時)と各人物のグループ判定結果などの情報が記憶される。   The history database 432 stores information such as recognition results by the passer-by identification device 302A or 302B as history information. The history information stored in the history database 332 includes, for example, a person recognition result (information indicating a recognized person, information indicating a shooting location (gate), date and time of recognition (shooting)) and each person. Information such as the group determination result is stored.

上記グループ管理部433は、履歴データベース332に記憶される情報(各通行者認識装置402A、402Bで得られた人物の認識結果とグループ判定結果)に基づいて各グループの状態を管理するものである。上記グループ管理部433は、各人物の各ゲートにおける通行状態を各グループごとに管理する。上記グループ管理部433は、各人物の各ゲートにおける通行状態を各グループごとに示すデータテーブル433aを有している。すなわち、上記グループ管理部433は、各通行者認識装置402による人物の認識結果およびグループ判定結果に基づいて、どのゲートを、どのグループの人物が、何時、何人通過したかを判定する。この判定結果は、グループ管理情報としてデータテーブル433aに記憶される。   The group management unit 433 manages the state of each group based on information stored in the history database 332 (person recognition results and group determination results obtained by the passer-by identification devices 402A and 402B). . The group management unit 433 manages the traffic state of each person at each gate for each group. The group management unit 433 has a data table 433a that shows the traffic state of each person at each gate for each group. That is, the group management unit 433 determines which gate, which group of people, and how many people have passed, based on the person recognition result and group determination result by each passer-by identification device 402. This determination result is stored in the data table 433a as group management information.

さらに、上記グループ管理部433は、適宜、上記データテーブル433aに記憶された情報(グループ管理情報)を表示データとして上記監視装置404へ出力する。上記グループ管理部433は、たとえば、データテーブル433aが更新されるごとに、監視装置404へグループ管理情報を出力するようにしても良いし、監視装置404からの要求に応じてグループ管理情報を監視装置404へ出力するようにしても良い。   Further, the group management unit 433 appropriately outputs information (group management information) stored in the data table 433a to the monitoring device 404 as display data. For example, the group management unit 433 may output group management information to the monitoring device 404 each time the data table 433a is updated, or monitor the group management information in response to a request from the monitoring device 404. You may make it output to the apparatus 404. FIG.

図15は、データテーブル433aに記憶されるグループ管理情報の例を示す図である。
図15に示す例では、各時刻において、各ゲートを通過した人物を示す情報がグループごとに記憶されている。たとえば、図15に示す例によれば、グループ1の人物A,B,Cは、10:00にゲート1を通過し、10:30にゲート2を通過し、さらに、10:40にゲート2を通過している。10:40にゲート2と通過した人物A、B、Cのうち人物A、Cは、11:00にゲート1を通過している。しかし、人物Bは、少なくとも11:30までには認識されていない。これは、人物A、Cと共に行動していた人物Bが、ゲート2を通過した後、グループ1の人物A、Cと離れて行動していることを意味する。従って、図15に示すような判定結果によれば、人物Bが、グループ1から離れて行動していることを容易に推測できる。
FIG. 15 is a diagram illustrating an example of group management information stored in the data table 433a.
In the example illustrated in FIG. 15, information indicating a person who has passed through each gate at each time is stored for each group. For example, according to the example shown in FIG. 15, the persons A, B, and C of group 1 pass through gate 1 at 10:00, pass through gate 2 at 10:30, and further pass through gate 2 at 10:40. Is going through. Among the persons A, B, and C who passed the gate 2 at 10:40, the persons A and C passed through the gate 1 at 11:00. However, the person B is not recognized by at least 11:30. This means that the person B who was acting with the persons A and C is moving away from the persons A and C in the group 1 after passing through the gate 2. Therefore, according to the determination result as shown in FIG. 15, it can be easily estimated that the person B is acting away from the group 1.

また、図15に示す例によれば、グループ2の人物D、Eは、10:10にゲート1を通過している。また、グループ2の人物D、E、Fは、10:50にゲート2を通過している。これは、10:10にゲート1を通過した人物D、Eが人物Fと合流して、10:50にゲート2を通過したことを意味している。さらに、グループ2の人物D、Eは、11:30にゲート2を通過している。これは、10:50に人物D、Eと共にゲート2を通過した人物Fが、11:30には人物D、Eと離れて行動していることを意味する。従って、図15に示すようなデータテーブルによれば、人物Fは、偶発的に、グループ2の人物D、Eと一緒に、ゲート2を通過しただけであることが推測できる。   Further, according to the example shown in FIG. 15, the persons D and E of the group 2 pass through the gate 1 at 10:10. Further, the persons D, E, and F of the group 2 pass through the gate 2 at 10:50. This means that the persons D and E who passed the gate 1 at 10:10 joined the person F and passed the gate 2 at 10:50. Further, the persons D and E in the group 2 pass through the gate 2 at 11:30. This means that the person F who passed the gate 2 together with the persons D and E at 10:50 is acting away from the persons D and E at 11:30. Therefore, according to the data table as shown in FIG. 15, it can be inferred that the person F only accidentally passed the gate 2 together with the persons D and E of the group 2.

上記のようなグループ管理によれば、各ゲートを各グループの各人物が、何時、誰と一緒にゲートを通過したことが容易に判別でき、各人物のグループとしての行動が容易に推測できる。たとえば、上記通行者認識システムを適用した人物の監視システムでは、各人物の行動(各ゲートの通行履歴など)だけでなく、各グループごとの行動も監視できる。   According to the group management as described above, it is possible to easily determine when each person in each group has passed through the gate together with whom, and it is possible to easily guess the behavior of each person as a group. For example, in the person monitoring system to which the passer-by identification system is applied, not only the action of each person (passage history of each gate, etc.) but also the action for each group can be monitored.

上記第4の実施の形態に係る通行者認識システムでは、カメラが撮影した画像から検出した通行者の顔の特徴情報と記憶部に予め記憶されている各登録者の顔の特徴情報とを照合することにより通行者を認識し、さらに、その各通行者のグループを判定する。上記通行者認識システムでは、上記のような人物の認識結果あるいはグループ判定結果を履歴情報としてデータテーブルに記憶し、そのデータテーブルに記憶されたデータを適宜外部装置へ出力するようにしたものである。
これにより、第4の実施の形態によれば、各グループごとに各通行者を監視することができ、各グループの各人物の行動を容易に監視できる。
In the passer-by identification system according to the fourth embodiment, passer's face feature information detected from an image captured by the camera is collated with face information of each registrant's face stored in advance in the storage unit. Thus, the passerby is recognized, and the group of each passerby is determined. In the passer-by identification system, the person recognition result or group determination result as described above is stored in the data table as history information, and the data stored in the data table is output to an external device as appropriate. .
Thereby, according to 4th Embodiment, each passerby can be monitored for every group, and the action of each person of each group can be monitored easily.

以下、第5〜第9の実施の形態について説明する。
以下に説明する第5〜第9の実施の形態では、通行者認識システムの運用形態として、複数のエリアにおける人物を監視する人物の監視システムを想定するものとする。図16は、第5〜第9の実施の形態に係る通行者認識システムとしての監視システムが監視する複数の監視エリアの設定例を示す図である。図16に示す例では、あるセキュリティエリアSA内において、複数の監視エリアSa1〜Sa6が設定されている。後述する第5〜第9の実施の形態に係る通行者認識システムでは、1つのセキュリティエリアSA内の各監視エリアSa1〜Sa6に、それぞれカメラ(各監視エリアの画像を撮影するカメラ)が設定されているものとする。
Hereinafter, fifth to ninth embodiments will be described.
In the fifth to ninth embodiments described below, it is assumed that a person monitoring system for monitoring persons in a plurality of areas is assumed as an operation mode of the passer-by identification system. FIG. 16 is a diagram illustrating a setting example of a plurality of monitoring areas monitored by the monitoring system as the passer-by identification system according to the fifth to ninth embodiments. In the example shown in FIG. 16, a plurality of monitoring areas Sa1 to Sa6 are set in a certain security area SA. In the passer-by identification system according to fifth to ninth embodiments, which will be described later, cameras (cameras that capture images of each monitoring area) are set in each monitoring area Sa1 to Sa6 in one security area SA. It shall be.

次に、第5の実施の形態について説明する。
図17は、第5の実施の形態に係る通行者認識システム500の構成例を示す図である。
図17に示すように、通行者認識システム500は、複数のカメラ501、複数の通行者認識装置502、監視装置504、および、サーバ装置505などにより構成されている。また、各通行者認識装置502は、入力部511(511A、511B)および制御部512(512A、512B)を有している。さらに、各制御部512(512A、512B)は、特徴検出部521(521A、521B)および認識部522(522A、522B)などを有している。また、上記サーバ装置505は、記憶部531、履歴データベース532、グループ判定部533および出力部534などを有している。
なお、上記のような通行者認識システム500の構成は、運用形態等に応じて適宜変形可能である。たとえば、上記サーバ装置505の各構成は、何れかの通行者認識装置502に設けるようにしても良い。
Next, a fifth embodiment will be described.
FIG. 17 is a diagram illustrating a configuration example of a passer-by identification system 500 according to the fifth embodiment.
As shown in FIG. 17, the passer-by identification system 500 includes a plurality of cameras 501, a plurality of passer-by identification devices 502, a monitoring device 504, a server device 505, and the like. Each passer-by identification device 502 includes an input unit 511 (511A, 511B) and a control unit 512 (512A, 512B). Furthermore, each control unit 512 (512A, 512B) includes a feature detection unit 521 (521A, 521B), a recognition unit 522 (522A, 522B), and the like. The server device 505 includes a storage unit 531, a history database 532, a group determination unit 533, an output unit 534, and the like.
Note that the configuration of the passer-by identification system 500 as described above can be modified as appropriate according to the operation mode and the like. For example, each configuration of the server device 505 may be provided in any passer-by identification device 502.

また、図17に示す通行者認識システム500における、カメラ501(501A、501B)、入力部511(511A,511B)、出力部513(513A,513B)、特徴検出部521(521A,521B)、および、認識部522(522A,522B)は、それぞれ図1に示す通行者認識システム100における、カメラ101、入力部111、出力部113、特徴検出部121、および、認識部122の構成と同様であるため、詳細な説明を省略する。   In the passer-by identification system 500 shown in FIG. 17, the camera 501 (501A, 501B), the input unit 511 (511A, 511B), the output unit 513 (513A, 513B), the feature detection unit 521 (521A, 521B), and The recognition unit 522 (522A, 522B) has the same configuration as that of the camera 101, the input unit 111, the output unit 113, the feature detection unit 121, and the recognition unit 122 in the passer-by identification system 100 shown in FIG. Therefore, detailed description is omitted.

以下、上記通行者認識システム500の各部について詳細に説明する。
上記記憶部531は、上記第1の実施の形態で説明した記憶部114と同様な各登録者に関する登録情報(識別情報、顔の特徴情報、顔画像、グループ情報等)が記憶されるものとする。上記記憶部531に記憶されている登録情報は、認識部522A、522Bにおける人物の認識処理あるいは上記グループ判定部533によるグループ判定処理などで使用される情報である。
Hereinafter, each part of the passer-by identification system 500 will be described in detail.
The storage unit 531 stores registration information (identification information, facial feature information, face image, group information, etc.) related to each registrant similar to the storage unit 114 described in the first embodiment. To do. The registration information stored in the storage unit 531 is information used in a person recognition process in the recognition units 522A and 522B or a group determination process by the group determination unit 533.

上記履歴データベース532は、上記通行者認識装置502Aあるいは502Bによる認識結果などの情報とグループ判定部533による判定結果とを履歴情報として記憶するようになっている。たとえば、上記履歴データベース532に記憶される履歴情報としては、人物の認識結果(認識された人物を示す情報、撮影された場所(監視エリア)を示す情報、認識(撮影)された日時)と各人物のグループ判定結果などの情報が記憶される。   The history database 532 stores information such as the recognition result by the passer-by identification device 502A or 502B and the determination result by the group determination unit 533 as history information. For example, the history information stored in the history database 532 includes a person recognition result (information indicating a recognized person, information indicating a shooting location (monitoring area), date and time of recognition (shooting)), and each Information such as a person group determination result is stored.

上記グループ判定部533は、上記各通行者認識装置502による人物の認識結果に基づいて各人物のグループを判定する処理(グループ判定処理)と各グループごとの集団行動を判定する処理(集団行動の判定処理)とを行う。なお、上記グループ判定部533における各人物のグループ判定処理は、上記第1の実施の形態で説明したグループ判定部123によるグループ判定処理と同様な方法で実現可能である。また、各人物のグループ判定処理は、上記第1の実施の形態と同様に、各通行者認識装置502が実行するようにしても良い。   The group determination unit 533 includes a process for determining each person's group (group determination process) and a process for determining a group action for each group (group action process) based on the person recognition result by each passer-by identification device 502. Determination process). The group determination process for each person in the group determination unit 533 can be realized by the same method as the group determination process by the group determination unit 123 described in the first embodiment. Further, the group determination process for each person may be executed by each passer-by identification device 502 as in the first embodiment.

上記グループ判定部533による集団行動の判定処理は、各グループごとに、複数の人物による集団行動の状態を判定(検出)する処理である。たとえば、第5の実施の形態において、グループ判定部533は、上記集団行動の判定処理として、同一グループに属する複数の人物が集団で行動しているか否かを判定する。また、上記グループ判定部533では、各人物間の接近度を判定する。各人物間の接近度は、セキュリティエリアSA内における各人物間の接近度合いを示す値である。上記接近度は、所定の条件に基づいて判定される。たとえば、上記接近度は、「同時刻に同じ場所(監視エリア)に存在していた」(第1の条件)、あるいは、「同時間帯にセキュリティエリアへ入場あるいは出場した」(第2の条件)などの条件が満たされるごとに、カウントアップ(所定の値が積算)される値である。この第5の実施の形態では、グループ判定部533は、複数の人物(集団)での行動を判定するため、各グループごとに各人物間の接近度を判定するものとする。   The group behavior determination processing by the group determination unit 533 is processing for determining (detecting) the state of group behavior by a plurality of persons for each group. For example, in the fifth embodiment, the group determination unit 533 determines whether or not a plurality of persons belonging to the same group are acting in a group as the group action determination process. The group determination unit 533 determines the degree of approach between the persons. The degree of approach between the persons is a value indicating the degree of approach between the persons in the security area SA. The degree of approach is determined based on a predetermined condition. For example, the degree of approach is “existing in the same place (monitoring area) at the same time” (first condition) or “entered or entered the security area at the same time” (second condition) ) And the like are satisfied each time a condition such as) is satisfied. In the fifth embodiment, the group determination unit 533 determines the degree of approach between each person for each group in order to determine the actions of a plurality of persons (groups).

まず、上記第1の条件に基づく接近度による集団行動の判定処理について説明する。
上記第1の条件に基づく接近度は、1つの入力画像(1つの監視エリアの画像)から同一グループに属する複数の人物が検出(認識)されるごとにカウントアップ(所定の値が積算)される値である。ただし、複数の人物が接近したことが、直接的に、一緒に行動していることを示すとは限らない。つまり、1つの入力画像から同時に検出された人物同士が、同じグループであったとしても、偶発的に、その時間にその場所に存在しただけである可能性がある(実際には、一緒に行動せずに、ばらばらに行動している可能性がある)。
First, the collective action determination process based on the degree of approach based on the first condition will be described.
The degree of approach based on the first condition is counted up (a predetermined value is accumulated) each time a plurality of persons belonging to the same group are detected (recognized) from one input image (image of one monitoring area). Value. However, the approach of a plurality of persons does not necessarily indicate that they are acting together. In other words, even if people detected at the same time from one input image are in the same group, it may happen that they were only present at that location by chance (actually, they act together) And may be acting apart).

言い換えると、短時間での人物の認識結果だけでは、「同じ時間に同じ場所に複数の人物が一緒にいる」ことは判定できるが、「それらの人物同士が集団行動している」か否かを判定するのは難しい。このため、上記第1の条件に基づく接近度による集団行動の判定処理では、「一緒にいた時間の長さ」が所定時間以上(あるいは、「一緒にいたと判定された回数」が所定回数以上)であれば、「それらの人物が一緒に行動している」と判定するものとする。上記のような一緒にいた時間の長さを判定するためには、継続的に、複数の人物が接近した状態であるか否かを判定する必要がある。ここでは、上記グループ判定部533は、各人物間の接近度を記憶するデータテーブル(接近マップ)533aにより複数の人物が一緒に行動しているか否かを判定するものとする。   In other words, it is possible to determine that “a plurality of people are together in the same place at the same time” based on the recognition result of the person in a short time, but whether or not “they are acting together”. It is difficult to judge. For this reason, in the group behavior determination process based on the degree of approach based on the first condition, the “length of time spent together” is equal to or greater than a predetermined time (or “the number of times determined to have been together” is equal to or greater than the predetermined number of times. ), It is determined that “they are acting together”. In order to determine the length of time spent together as described above, it is necessary to continuously determine whether or not a plurality of persons are in close proximity. Here, it is assumed that the group determination unit 533 determines whether or not a plurality of persons are acting together based on a data table (access map) 533a that stores the degree of approach between the persons.

図18は、第5の実施の形態に係る通行者認識システムにおいて作成される接近マップ533aの例を示す図である。図18に示す例は、ある監視エリアにおける各人物間の接近度を示す接近マップ533aの例を示しているものとする。
上記接近マップ533aには、各人物同士が一緒にいた時間の長さを示す値が接近度として記憶される。このため、同一の入力画像(ある監視エリアを撮影した画像)から同一グループの複数の人物が継続的(連続的)に検出(認識)されている場合、それらの人物間の接近度は、所定時間ごとに更新(カウントアップ)されるようになっている。たとえば、継続的に同じ入力画像から認識されている同一グループに属する複数の人物の接近度を1分ごとに更新(カウントアップ)するようにすれば、上記接近マップ533aに記憶される接近度は、複数の人物が何分一緒にいたかを示す値となる。具体的には、1分ごとに接近度がカウントアップされるものであれば、接近度が「12」となっている人物Aと人物Bとは、12分間、当該監視エリアに一緒にいたことを示している。このような接近マップ533aによれば、誰と誰とが、何処で、どの位の時間、接近した状態であったかが容易に判別できる。
FIG. 18 is a diagram illustrating an example of the approach map 533a created in the passer-by identification system according to the fifth embodiment. The example illustrated in FIG. 18 is an example of an approach map 533a indicating the degree of approach between persons in a certain monitoring area.
In the approach map 533a, a value indicating the length of time each person has been together is stored as an approach degree. For this reason, when a plurality of persons in the same group are continuously detected (recognized) from the same input image (an image obtained by photographing a certain monitoring area), the degree of approach between the persons is predetermined. It is updated (counted up) every hour. For example, if the approach degrees of a plurality of persons belonging to the same group that are continuously recognized from the same input image are updated (counted up) every minute, the approach degrees stored in the approach map 533a are: This is a value indicating how many people have been together. Specifically, if the degree of approach is counted up every minute, the person A and the person B whose degree of approach is “12” have been together in the monitoring area for 12 minutes. Is shown. According to such an approach map 533a, it is possible to easily determine who and who have been, where and for how long.

次に、上記第1の条件に基づく接近度による集団行動の判定処理の流れについて説明する。
図19は、上記第1の条件に基づく接近度による集団行動の判定処理の例を説明するためのフローチャートである。
まず、上記グループ判定部533は、各通行者認識装置502あるいは履歴データベース532から認識結果を順次取得する(ステップS501)。なお、ここでは、1つの入力画面から得られた1人または複数の人物についての認識結果が1つの認識結果となっているものとする。認識結果を取得すると、上記グループ判定部533は、上記記憶部531に記憶されている登録情報を参照し、当該認識結果において認識された全ての人物についてグループを判定する(ステップS502)。なお、各人物のグループは、各通行者認識装置502で判定するようにしても良い。この場合、各人物のグループを示す情報は、認識結果に含まれるものとする。この場合、上記グループ判定部533は、そのような認識結果から全ての人物のグループを判定するものとする。
Next, the flow of the collective action determination process based on the degree of approach based on the first condition will be described.
FIG. 19 is a flowchart for explaining an example of the group behavior determination process based on the degree of approach based on the first condition.
First, the group determination unit 533 sequentially acquires recognition results from each passer-by identification device 502 or the history database 532 (step S501). Here, it is assumed that the recognition result for one person or a plurality of persons obtained from one input screen is one recognition result. When the recognition result is acquired, the group determination unit 533 refers to the registration information stored in the storage unit 531 and determines a group for all persons recognized in the recognition result (step S502). Each person's group may be determined by each passer-by identification device 502. In this case, information indicating the group of each person is included in the recognition result. In this case, it is assumed that the group determination unit 533 determines a group of all persons from such a recognition result.

認識された全ての人物のグループを判定すると、上記グループ判定部533は、同一の入力画像から同一グループに属する複数の人物が検出(認識)されたか否かを判断する(ステップS503)。1つの入力画像から同一グループに属する複数の人物が認識されなかったと判断した場合(ステップS503、NO)、上記グループ判定部533は、上記ステップS501へ戻り、上述した処理を繰り返し実行する。   When the groups of all recognized persons are determined, the group determination unit 533 determines whether or not a plurality of persons belonging to the same group have been detected (recognized) from the same input image (step S503). When it is determined that a plurality of persons belonging to the same group have not been recognized from one input image (step S503, NO), the group determination unit 533 returns to step S501 and repeatedly executes the above-described processing.

また、上記判断により1つの入力画像から同一グループに属する複数の人物が認識されたと判断した場合(ステップS503、YES)、上記グループ判定部533は、当該入力画像を撮影した監視エリアの接近マップ533aに対して、それぞれの人物間の接近度をカウントアップする(ステップS504)。なお、継続的に、各入力画像において同時に検出されている複数の人物間の接近度を更新(カウントアップ)する場合、それらの人物間の接近度については、所定時間ごとに更新することとする
1つの入力画像から認識された同一グループに属する複数の人物(同時に撮影された複数の人物)間の接近度をカウントアップすると、上記グループ判定部533は、それらの人物間の接近度が所定の値以上となったか否かを判断する(ステップS505)。この判断により接近度が所定の値未満であると判断した場合(ステップS505、NO)、上記グループ判定部533は、上記ステップS501へ戻り、上述した処理を繰り返し実行する。
When it is determined that a plurality of persons belonging to the same group are recognized from one input image based on the above determination (step S503, YES), the group determination unit 533 displays the approach map 533a of the monitoring area where the input image is captured. In contrast, the degree of approach between each person is counted up (step S504). In addition, when continuously updating (counting up) the degree of approach between a plurality of persons detected simultaneously in each input image, the degree of approach between these persons is updated every predetermined time. When the degree of approach between a plurality of persons belonging to the same group recognized from one input image (a plurality of persons photographed at the same time) is counted up, the group determination unit 533 determines that the degree of approach between these persons is a predetermined degree. It is determined whether or not the value has reached or exceeded (step S505). If it is determined by this determination that the degree of approach is less than a predetermined value (step S505, NO), the group determination unit 533 returns to step S501 and repeatedly executes the above-described processing.

また、上記判断により上記接近度が所定の値以上となったと判断した場合(ステップS505、YES)、上記グループ判定部533は、それらの人物が集団行動(一緒に行動)しているものと判断する(ステップS506)。複数の人物が集団行動していることを判断すると、上記グループ判定部533は、集団行動している複数の人物が撮影された監視エリアを示す情報とともに、集団行動していると判断された各人物を示す情報を出力部534に対して供給する(ステップS507)。   If it is determined by the above determination that the degree of approach has reached or exceeded a predetermined value (step S505, YES), the group determination unit 533 determines that these persons are performing group behavior (acting together). (Step S506). When it is determined that a plurality of persons are performing a collective action, the group determination unit 533 determines each of the plurality of persons determined to be performing a collective action together with information indicating a monitoring area where the plurality of persons performing the collective action are captured. Information indicating a person is supplied to the output unit 534 (step S507).

これにより、上記出力部534では、当該監視エリアを示す情報とともに集団行動していると判定した各人物を示す情報とグループを示す情報とを監視装置504へ出力する。これにより、上記監視装置504では、例えば、「どこの監視エリアで誰と誰とが集団で行動している」というような情報が表示可能となる。また、上記出力部534は、複数の人物が一緒に行動していると判定されたグループ(または、各グループの警戒度)に応じた警報などを発生するための制御情報を上記監視装置504へ出力するようにしても良い。   Accordingly, the output unit 534 outputs information indicating each person determined to be performing a collective action together with information indicating the monitoring area and information indicating the group to the monitoring device 504. As a result, the monitoring device 504 can display information such as “who and who are acting as a group in which monitoring area”. In addition, the output unit 534 transmits control information for generating an alarm or the like according to a group (or a warning level of each group) determined that a plurality of persons are acting together to the monitoring device 504. You may make it output.

また、上記第1の条件では、同一グループに属する複数の人物が1つの監視エリアで検出されたことを判定する。つまり、上記第1の条件に基づく接近度による集団行動の判定処理では、各監視エリアごとに複数の人物が集団行動しているか否かが判定される。このような判定結果により、上記出力部534では、集団行動している複数の人物が検出された各監視エリアごとの重要度に応じた出力処理するようにしても良い。これは、1つのセキュリティエリアSA内であっても各監視エリアSa1〜Sa6は、重要度(セキュリティレベル)が異なることがあるためである。セキュリティエリアSA内には、重要度の高いエリア(たとえば、特定のグループの人物が数名いても問題ない場所)と重要度が低いエリア(たとえば、特定のグループの人物が数名いれば警戒すべき場所)とが混在している場合がありうる。このような場合、各監視エリアに重要度を設定しておくことにより、通行者認識装置は、各監視エリアごとの重要度に応じた警報などを外部装置へ通知する出力処理を行うことが可能となる。   In the first condition, it is determined that a plurality of persons belonging to the same group are detected in one monitoring area. That is, in the collective action determination process based on the approach degree based on the first condition, it is determined whether or not a plurality of persons are performing collective actions for each monitoring area. Based on such a determination result, the output unit 534 may perform output processing according to the importance for each monitoring area in which a plurality of persons acting in a collective manner are detected. This is because the monitoring areas Sa1 to Sa6 may have different levels of importance (security levels) even within one security area SA. In the security area SA, an area with high importance (for example, a place where there is no problem if there are several persons in a specific group) and an area with low importance (for example, if there are several persons in a specific group are wary). It is possible that there is a mixture of In such a case, by setting the importance level for each monitoring area, the passer-by identification device can perform an output process for notifying an external device of an alarm corresponding to the importance level for each monitoring area. It becomes.

たとえば、複数の監視カメラが設置されている建物(セキュリティエリア)の中に監視エリアの1つとして重要な物件を管理している部屋(最重要エリア)がある場合、当該セキュリティエリア内の各監視エリアの重要度は、上記最重要エリアに近づけば近づくほど高くするように設定すれば良い。このような場合、あるグループの集団が、上記のような最重要エリアに近づくほど警報のレベルを高げるという運用が可能となる。   For example, if there is a room (most important area) that manages an important property as one of the monitoring areas in a building (security area) where a plurality of monitoring cameras are installed, each monitoring in the security area What is necessary is just to set the importance of an area so that it may become so high that it approaches the said most important area. In such a case, an operation can be performed in which the alarm level increases as a group of a group approaches the most important area as described above.

図20は、複数の監視エリアに対する重要度の設定例を示す図である。
図20に示す例では、監視エリアSa1、Sa2、Sa3の重要度がそれぞれ「3」、「1」、「2」と設定され、さらに、監視エリアSanの重要度が「5」と設定されている。このため、重要度が最も高い監視エリアSanで同一グループの複数の人物が認識された場合、その旨の警報が最優先される。また、図20に示す例では、外部装置へ警報を出力するための優先順位を判断するための総合判断値が示されている。総合判断値は、たとえば、図20に示すように、各グループごとに、各監視エリアの重要度に、検出された人数を掛け合わせた値を積算したものとなっている。図20に示す例では、グループ2の総合判断値が最も高い値となっている。このため、図20に示すような判定結果が得られた場合、上記出力部534は、監視エリアSanにグループ2の人物が2名存在している旨の警報を最優先して監視装置504へ通知する。
FIG. 20 is a diagram illustrating an example of setting importance levels for a plurality of monitoring areas.
In the example shown in FIG. 20, the importance levels of the monitoring areas Sa1, Sa2, and Sa3 are set to “3”, “1”, and “2”, respectively, and the importance level of the monitoring area San is set to “5”. Yes. For this reason, when a plurality of persons in the same group are recognized in the monitoring area San having the highest importance, a warning to that effect is given the highest priority. In the example shown in FIG. 20, a comprehensive judgment value for judging a priority order for outputting an alarm to an external device is shown. For example, as shown in FIG. 20, the comprehensive judgment value is obtained by integrating a value obtained by multiplying the importance of each monitoring area by the detected number of people for each group. In the example shown in FIG. 20, the comprehensive judgment value of group 2 is the highest value. For this reason, when the determination result as shown in FIG. 20 is obtained, the output unit 534 gives the warning that there are two persons in the group 2 in the monitoring area San to the monitoring device 504 with the highest priority. Notice.

上記のように、通行者認識システムでは、監視エリアに重要度を設定しておくことにより、集団で行動しているグループが検出された各監視エリアの重要度に応じた出力処理を行う。これにより、重要な監視エリア、あるいは、重要なエリアに近い監視エリアで、集団で行動しているグループを効率的に監視することができる。   As described above, in the passer-by identification system, by setting the importance level in the monitoring area, output processing is performed according to the importance level of each monitoring area in which a group acting in a group is detected. This makes it possible to efficiently monitor a group acting in a group in an important monitoring area or a monitoring area close to the important area.

次に、上記第2の条件に基づく接近度による集団行動の判定処理について説明する。
上記第2の条件に基づく接近度は、同一グループの複数の人物が同じ時間帯にセキュリティエリアに存在したか否かにより判定される。たとえば、上記第2の条件に基づく接近度は、同一グループに属する複数の人物がセキュリティエリアへ入場した時刻あるいは出場した時刻に基づいて判定される。この場合、「ほぼ同じ時刻にセキュリティエリアに入場した複数の人物」間、あるいは、「ほぼ同じ時刻にセキュリティエリアから出場した複数の人物」間については、接近度がカウントアップ(所定の値を積算)される。言い換えれば、第2の条件に基づく接近度は、同一グループに属する複数の人物がセキュリティエリア内において同時間帯に行動したことを判定するための値である。
Next, the group behavior determination process based on the degree of approach based on the second condition will be described.
The degree of approach based on the second condition is determined based on whether or not a plurality of persons in the same group existed in the security area in the same time zone. For example, the degree of approach based on the second condition is determined based on the time when a plurality of persons belonging to the same group enter or enter the security area. In this case, the degree of approach is counted up between “a plurality of persons who entered the security area at approximately the same time” or between “a plurality of persons who entered the security area at approximately the same time” ) In other words, the approach degree based on the second condition is a value for determining that a plurality of persons belonging to the same group have acted in the same time zone within the security area.

たとえば、物の受け渡し、あるいは、待ち合わせなどの短時間の用件で行動している複数の人物は、短時間接近するだけで、別々の入口から入場したり、別々の出場口から出場したりすることがありうる。つまり、物の受け渡し、あるいは、待ち合わせを目的としている複数の人物は、集団で行動しているものの、ほとんど一緒に行動していないことがありうる。   For example, multiple people who are acting in a short period of time, such as handing over objects or waiting for them, can enter from different entrances or enter from different entrances with a short approach. It is possible. In other words, it is possible that a plurality of persons aiming at delivery of objects or meeting are acting as a group, but hardly acting together.

このような場合、上記第1の条件に基づく接近度では、それらの人物同士が一緒に行動しているとは判定し難い。これに対して、上記第2の条件に基づく接近度では、少なくとも同じ時間帯に、セキュリティエリア内に存在した(セキュリティエリアへ入場した、あるいは、セキュリティエリアから出場した)同一グループに属する複数の人物を特定できる。なお、以下の説明では、上記第2の条件に基づく接近度は、各人物のセキュリティエリアへの入場時刻あるいは出場時刻により判定されることを想定するものとする。   In such a case, it is difficult to determine that the persons are acting together with the degree of approach based on the first condition. On the other hand, in the degree of approach based on the second condition, a plurality of persons belonging to the same group (entered into or out of the security area) existed in the security area at least in the same time zone. Can be identified. In the following description, it is assumed that the degree of approach based on the second condition is determined by the entry time or entry time of each person in the security area.

また、上記第2の条件に基づく接近度は、上記したような接近マップ533aを用いて管理されるものとする。たとえば、セキュリティエリアには、出入口が設けられている複数の監視エリアがあるとする。この場合、出入口のある複数の監視エリアで、同じ時間帯にセキュリティエリアへ入場(あるいはセキュリティエリアから出場)した同一グループに属する複数の人物については、接近マップ533aの接近度を高くする(カウントアップする)。このような接近マップ533aによれば、同じ時間帯に出入した同一グループの複数の人物が容易に判別できる。   In addition, it is assumed that the degree of approach based on the second condition is managed using the approach map 533a as described above. For example, it is assumed that the security area includes a plurality of monitoring areas provided with doorways. In this case, for a plurality of persons belonging to the same group who entered the security area (or entered from the security area) at the same time zone in a plurality of monitoring areas with entrances / exits, the access degree of the approach map 533a is increased (counting up) To do). According to such an approach map 533a, it is possible to easily determine a plurality of persons in the same group who entered and exited in the same time zone.

ここで、図16に示すように、セキュリティエリアSAには、出入口が監視エリアSa1、Sa2、Sa3に設けられているものとする。例えば、監視エリアSa1で人物Aが検出された時刻と監視エリアSa2で人物Bが検出された時刻とが所定時間内であった場合、人物Aと人物Bとが同一グループであれば、上記グループ判定部533は、上記接近マップ533aにおける人物Aと人物Bとの接近度を積算する。このような処理によれば、接近マップ533aには、同時間帯にセキュリティエリアSAに出入した人物間の接近度が高くなる。それらの結果が積算されて所定以上の値になった時点で、グループ判定部533は、同一グループの人物が複数人存在したと判定する。   Here, as shown in FIG. 16, in the security area SA, it is assumed that entrances and exits are provided in the monitoring areas Sa1, Sa2, and Sa3. For example, if the time when the person A is detected in the monitoring area Sa1 and the time when the person B is detected in the monitoring area Sa2 are within a predetermined time, and the person A and the person B are in the same group, the group The determination unit 533 integrates the degree of approach between the person A and the person B in the approach map 533a. According to such processing, the approach map 533a has a high degree of approach between persons entering and leaving the security area SA during the same time period. When these results are integrated and become a predetermined value or more, group determination unit 533 determines that there are a plurality of persons in the same group.

また、セキュリティエリアSAの出入口となっている各監視エリアSa1、Sa2、Sa3には、入場する人物を撮影するカメラと出場する人物を撮影するカメラとを設置するようにしても良い。この場合、入場する人物を撮影するカメラが撮影した画像から検出された人物がセキュリティエリアSAへの入場者であり、出場する人物を撮影するカメラが撮影した画像から検出された人物がセキュリティエリアSAからの出場者である。このような構成により、セキュリティエリアへの入場者とセキュリティエリアからの出場者とが、容易に区別できる。   Further, in each of the monitoring areas Sa1, Sa2, and Sa3 that are the entrances and exits of the security area SA, a camera that shoots a person who enters and a camera that shoots a person who enters the area may be installed. In this case, the person detected from the image taken by the camera that shoots the person to be entered is the person entering the security area SA, and the person detected from the image taken by the camera that shoots the person to be entered is the security area SA. Is a contestant. With such a configuration, it is possible to easily distinguish a person who enters the security area from a person who enters the security area.

次に、上記第2の条件に基づく接近度による集団行動の判定処理の流れについて説明する。
図21は、上記第2の条件に基づく接近度による集団行動の判定処理の例を説明するためのフローチャートである。
まず、上記グループ判定部533は、各通行者認識装置502あるいは履歴データベース532から認識結果を順次取得する(ステップS521)。なお、セキュリティエリアへの入場時刻あるいは出場時刻のみを判定対象とする場合、上記グループ判定部533は、セキュリティエリアSAへの出入口がある何れかの監視エリアSa1、Sa2、Sa3で撮影された画像に対する認識結果のみを取得するようにしても良い。
Next, the flow of the collective action determination process based on the approach degree based on the second condition will be described.
FIG. 21 is a flowchart for explaining an example of a collective action determination process based on an approach degree based on the second condition.
First, the group determination unit 533 sequentially acquires recognition results from each passer-by identification device 502 or the history database 532 (step S521). In the case where only the entry time or entry time to the security area is to be determined, the group determination unit 533 applies the image taken in any of the monitoring areas Sa1, Sa2, and Sa3 that have an entrance to the security area SA. Only the recognition result may be acquired.

認識結果を取得すると、上記グループ判定部533は、上記記憶部531に記憶されている登録情報を参照し、当該認識結果において認識された各人物のグループを判定する(ステップS522)。なお、各人物のグループは、各通行者認識装置502で判定するようにしても良い。
各人物のグループを判定すると、上記グループ判定部533は、当該認識結果における各人物が検出された時間から所定時間内に当該人物と同じグループに属する人物がセキュリティエリアSA内の何れかの監視エリアで検出(認識)されているか否かを判定する(ステップS523)。たとえば、セキュリティエリアへの入場時刻あるいは出場時刻を判定対象とする場合、上記グループ判定部533は、出入口のある監視エリアSa1、Sa2、Sa3で同一グループの人物が所定時間内に検出されているか否かを判定する。
When the recognition result is acquired, the group determination unit 533 refers to the registration information stored in the storage unit 531 and determines the group of each person recognized in the recognition result (step S522). Each person's group may be determined by each passer-by identification device 502.
When the group of each person is determined, the group determination unit 533 determines whether a person who belongs to the same group as the person within a predetermined time from the time when each person in the recognition result is detected is any monitoring area in the security area SA. It is determined whether or not it has been detected (recognized) (step S523). For example, when the entry time or the entry time to the security area is to be determined, the group determination unit 533 determines whether or not the same group of persons are detected within a predetermined time in the monitoring areas Sa1, Sa2, and Sa3 having the entrances and exits. Determine whether.

上記判定により所定の時間内に同一グループに属する人物が検出されていないと判定した場合(ステップS523、NO)、上記グループ判定部533は、上記ステップS521へ戻り、上述した処理を繰り返し実行する。また、上記判定により所定の時間内に同一グループに属する人物が検出されていると判定した場合(ステップS523、YES)、上記グループ判定部533は、当該認識結果において認識された人物と所定時間内に検出された同一グループに属する人物との接近度をカウントアップする(ステップS524)。   When it is determined by the above determination that no person belonging to the same group has been detected within a predetermined time (step S523, NO), the group determination unit 533 returns to step S521 and repeatedly executes the above-described processing. When it is determined that a person belonging to the same group is detected within a predetermined time by the above determination (step S523, YES), the group determination unit 533 determines the person recognized in the recognition result and the person within the predetermined time. The degree of approach with a person belonging to the same group detected in step S524 is counted up (step S524).

所定時間内に検出された同一グループに属する複数の人物間の接近度をカウントアップすると、上記グループ判定部533は、それらの人物間の接近度が所定の値以上となったか否かを判断する(ステップS525)。この判断により当該接近度が所定の値未満であると判断した場合(ステップS525、NO)、上記グループ判定部533は、上記ステップS521へ戻り、上述した処理を繰り返し実行する。   When the degree of approach between a plurality of persons belonging to the same group detected within a predetermined time is counted up, the group determination unit 533 determines whether the degree of approach between those persons has become a predetermined value or more. (Step S525). When it is determined by this determination that the degree of approach is less than a predetermined value (step S525, NO), the group determination unit 533 returns to step S521 and repeatedly executes the above-described processing.

また、上記判断により上記接近度が所定の値以上となったと判断した場合(ステップS525、YES)、上記グループ判定部533は、それらの人物がセキュリティエリアSA内でグループとして行動している可能性があると判定する(ステップS526)。同一グループの複数の人物が一緒に行動している可能性があると判定した場合、上記グループ判定部533は、グループとして行動している可能性があるそれらの人物を示す情報とグループを示す情報とを出力部534に対して供給する(ステップS527)。   If it is determined by the above determination that the degree of approach has reached a predetermined value or more (step S525, YES), the group determination unit 533 may cause those persons to act as a group in the security area SA. It is determined that there is (step S526). When it is determined that there is a possibility that a plurality of persons in the same group are acting together, the group determination unit 533 includes information indicating those persons who may be acting as a group and information indicating the group Are supplied to the output unit 534 (step S527).

これにより、上記出力部534では、所定時間内にセキュリティエリア内の何れかの監視エリアで検出された同一グループの各人物を示す情報を監視装置504へ出力する。これにより、上記監視装置504では、たとえば、「セキュリティエリア内に同一グループの誰と誰とが存在している」というような情報が表示可能となる。また、上記出力部534は、複数の人物が一緒に行動している可能性があると判定されたグループ(または、各グループの警戒度)に応じた警報などを発生する旨の制御情報を上記監視装置504へ出力するようにしても良い。   Accordingly, the output unit 534 outputs information indicating each person in the same group detected in any monitoring area within the security area to the monitoring device 504 within a predetermined time. As a result, for example, the monitoring device 504 can display information such as “who is in the same group and who is in the security area”. In addition, the output unit 534 outputs control information indicating that an alarm or the like is generated according to a group (or a warning level of each group) determined that there is a possibility that a plurality of persons are acting together. You may make it output to the monitoring apparatus 504. FIG.

上記第2の条件に基づく接近度によれば、一緒に行動する時間が短い場合でも、同時間帯にセキュリティエリア内に存在する傾向がある同一グループに属する複数の人物が集団で行動している可能性があると判定できる。さらには、各人物の入出場のパターン(入場時刻あるいは出場時刻)に基づいて、セキュリティエリア内で集団行動を行っている可能性がある複数の人物を検出および報知することも可能である。   According to the degree of approach based on the second condition, even if the time to act together is short, a plurality of persons belonging to the same group that tend to exist in the security area at the same time zone act as a group It can be determined that there is a possibility. Furthermore, it is also possible to detect and notify a plurality of persons who may be performing a collective action in the security area based on each person's entry / exit pattern (entry time or entry time).

また、第2の条件による接近度の判定は、特定のグループについてのみ適用することも可能である。たとえば、警戒度の高いグループのみを対象として、第2の条件による接近度の判定を行うようにしても良い。これにより、警戒度の高いグループに属する複数の人物が、セキュリティエリア内で同時間帯に行動しているらしいことを検出できる。警戒度の高いグループに属する複数の人物がセキュリティエリア内に同時間帯に存在していれば、それらの人物が危険性の高い行動をとる可能性が高くなることが予測される。この結果として、警戒度が高い特定のグループに属する各人物については、上記のような第2の条件で接近度を判定することにより、充分な警戒を支援することが可能となる。   The determination of the degree of approach according to the second condition can be applied only to a specific group. For example, the approach degree may be determined based on the second condition only for a group with a high alertness level. Thereby, it can be detected that a plurality of persons belonging to a group with a high degree of vigilance are acting in the same time zone within the security area. If a plurality of persons belonging to a group with a high degree of vigilance are present in the security area at the same time, it is predicted that there is a high possibility that these persons will take actions with high risk. As a result, for each person who belongs to a specific group with a high degree of vigilance, it is possible to support sufficient vigilance by determining the degree of approach under the second condition as described above.

なお、上記第1の条件に基づく接近度と上記第2の条件に基づく接近度とを組み合わせて総合的に同一グループに属する複数の人物がセキュリティエリア内で集団行動しているか否かを判定するようにしても良い。この場合、1つの接近マップに上記第1の条件に基づく接近度と上記第2の条件とに基づく接近度とがそれぞれカウントアップされるようにすれば良い。   Note that it is determined whether a plurality of persons belonging to the same group are collectively acting in the security area by combining the approach degree based on the first condition and the approach degree based on the second condition. You may do it. In this case, the approach degree based on the first condition and the approach degree based on the second condition may be counted up in one approach map.

上記のような通行者認識システム500は、同一グループに属する複数の人物が任意のエリアで継続的に所定期間(時間または認識された回数)一緒にいることが検出された場合、それらの人物が一緒に行動していると判定し、その判定結果を外部装置へ出力するようにしたものである。また、同一グループに属する複数の人物が同一時間帯にセキュリティエリアの出入口などのエリアで検出された場合、同一グループに属する複数の人物がセキュリティエリアに同時間帯に存在している(あるいは同一グループに属する複数の人物が類似した行動パターンである)と判定し、その旨を外部装置へ出力するようにしたものである。   When the passer-by identification system 500 as described above detects that a plurality of persons belonging to the same group are continuously present together in a given area for a predetermined period (time or the number of times recognized), It is determined that they are acting together, and the determination result is output to an external device. In addition, when a plurality of persons belonging to the same group are detected in an area such as a security area at the same time zone, a plurality of persons belonging to the same group exist in the security area at the same time zone (or the same group A plurality of persons belonging to the same behavior pattern), and a message to that effect is output to the external device.

これにより、監視員は、一緒に行動している各グループの集団を容易に認識することができ、各グループの行動に応じた的確な対応が可能となる。また、監視員は、警戒度の高いグループが集団で行動していること、あるいは、集団で行動している可能性が高いことなどを容易に認識でき、迅速に的確な警備体制を準備することが可能となる。また、一緒に行動しているグループおよび人数と各監視エリアの重要度とに応じた警報を出力することも可能となる。このため、監視員は、警戒度に応じた警報により警戒レベルを直感的かつ容易に認識することができる。   As a result, the monitor can easily recognize the group of each group acting together, and can accurately respond to the behavior of each group. Watchers can easily recognize that a group with a high degree of vigilance is acting as a group or that there is a high possibility that they are acting as a group, and quickly prepare an accurate security system. Is possible. It is also possible to output an alarm according to the group and the number of people acting together and the importance of each monitoring area. For this reason, the supervisor can recognize the warning level intuitively and easily by the warning according to the warning level.

次に、第6の実施の形態について説明する。
図22は、第6の実施の形態に係る通行者認識システム600の構成例を示すブロック図である。
図22に示すように、通行者認識システム600は、複数のカメラ601(601A、601B)、複数の通行者認識装置602(602A、602B)、監視装置604、および、サーバ装置605などにより構成されている。また、各通行者認識装置602は、入力部611(611A、611B)および制御部612(612A、612B)を有している。さらに、各制御部612(612A、612B)は、特徴検出部621(621A、621B)および認識部622(622A、622B)などを有している。また、上記サーバ装置605は、記憶部631、履歴データベース632、グループ判定部633、出力部634および関連性判定部635などを有している。なお、上記のような通行者認識システム600の構成は、運用形態等に応じて適宜変形可能である。たとえば、上記サーバ装置605の各構成は、何れかの通行者認識装置602に設けるようにしても良い。
Next, a sixth embodiment will be described.
FIG. 22 is a block diagram illustrating a configuration example of a passer-by identification system 600 according to the sixth embodiment.
As shown in FIG. 22, the passer-by identification system 600 includes a plurality of cameras 601 (601A, 601B), a plurality of passer-by identification devices 602 (602A, 602B), a monitoring device 604, a server device 605, and the like. ing. Each passer-by identification device 602 includes an input unit 611 (611A, 611B) and a control unit 612 (612A, 612B). Furthermore, each control unit 612 (612A, 612B) includes a feature detection unit 621 (621A, 621B), a recognition unit 622 (622A, 622B), and the like. The server device 605 includes a storage unit 631, a history database 632, a group determination unit 633, an output unit 634, a relevance determination unit 635, and the like. Note that the configuration of the passer-by identification system 600 as described above can be modified as appropriate according to the operation mode and the like. For example, each configuration of the server device 605 may be provided in any passer-by identification device 602.

また、図22に示す通行者認識システム600における、カメラ601、入力部611、制御部612、記憶部631、履歴データベース632、グループ判定部633、および、出力部634は、それぞれ図17に示す通行者認識システム500における、カメラ501、入力部511、制御部512、記憶部531、履歴データベース532、グループ判定部533、および、出力部534の構成と同様であるため、詳細な説明を省略する。   In addition, the camera 601, the input unit 611, the control unit 612, the storage unit 631, the history database 632, the group determination unit 633, and the output unit 634 in the passer-by identification system 600 shown in FIG. Since the configuration is the same as that of the camera 501, the input unit 511, the control unit 512, the storage unit 531, the history database 532, the group determination unit 533, and the output unit 534 in the person recognition system 500, detailed description thereof is omitted.

図22に示す通行者認識システム600は、図17に示す通行者認識システム500のサーバ装置に、認識結果の履歴情報から各人物間の関連性を判定する関連性判定部635を設けた構成となっている。上記関連性判定部635は、上記第3の実施の形態で説明した図10に示す関連性判定部333と類似する関連性の判定処理を行う。上記関連性判定部635は、上記第3の実施の形態で説明した上記関連性判定部333と同様な手法により、相関マップ635aに各人物間の関連性を示す評価値を投票(蓄積)する処理を行う。   The passer-by identification system 600 shown in FIG. 22 includes a relevance determination unit 635 that determines the relevance between persons from the history information of the recognition result in the server device of the passer-by identification system 500 shown in FIG. It has become. The relevance determination unit 635 performs relevance determination processing similar to the relevance determination unit 333 illustrated in FIG. 10 described in the third embodiment. The relevance determination unit 635 votes (accumulates) an evaluation value indicating the relevance between each person in the correlation map 635a by the same method as the relevance determination unit 333 described in the third embodiment. Process.

図23は、第6の実施の形態の関連性判定部635による関連性の判定処理の流れの例を説明するためのフローチャートである。なお、図23に示すフローチャートのステップS601〜S609の処理は、上記第3の実施の形態で説明した図13に示すフローチャートのステップS301〜S309の処理と同様な処理であるため、詳細な説明を省略する。
すなわち、上記関連性判定部635では、関連性が高いと判定された複数の人物(関連性の評価値が所定値以上となった複数の人物)に対して、一方の人物が属しているグループに他方の人物を追加すべきであるという判定を行う(ステップS610)。言い換えれば、上記関連性判定部635は、関連性の評価値が所定値以上となった人物同士に対して、それらの人物の現在のグループ情報に基づいてグルーピングを行う点が上記関連性判定部333と異なっている。
FIG. 23 is a flowchart for explaining an example of the flow of the relevancy determination process performed by the relevance determination unit 635 according to the sixth embodiment. Note that the processing in steps S601 to S609 in the flowchart shown in FIG. 23 is the same as the processing in steps S301 to S309 in the flowchart shown in FIG. 13 described in the third embodiment. Omitted.
That is, in the relevance determination unit 635, a group to which one person belongs is assigned to a plurality of persons determined to have high relevance (a plurality of persons whose relevance evaluation value is equal to or greater than a predetermined value). It is determined that the other person should be added to (step S610). In other words, the relevance determination unit 635 is characterized in that the relevance determination unit 635 performs grouping on persons whose relevance evaluation value is equal to or greater than a predetermined value based on the current group information of the persons. It is different from 333.

たとえば、人物Aと人物Bとの関連性の評価値が所定値以上となった場合、上記関連性判定部635は、人物Aと人物Bとが同一グループらしいと判定する。人物Aと人物Bとが同一グループらしいと判定した場合、上記関連性判定部635は、人物Aがグループ1に所属していれば、人物Bのグループ情報にグループ1を追加したり、人物Bがグループ1らしいという情報を監視装置604へ通知したりするものである。   For example, when the evaluation value of the relevance between the person A and the person B is equal to or greater than a predetermined value, the relevance determination unit 635 determines that the person A and the person B are likely to be in the same group. When it is determined that the person A and the person B seem to be in the same group, the relevance determination unit 635 adds the group 1 to the group information of the person B or the person B if the person A belongs to the group 1. Is notified to the monitoring apparatus 604.

図24は、各通行者認識装置602による認識結果の履歴情報の例を示す図である。また、図25は、図24に示す認識結果の履歴情報に基づく関連性の評価例を示す図である。
図24に示すような認識結果の履歴情報については、上記第3の実施の形態で説明したような手法(各認識結果とその直前の認識結果とを比較)により、各人物(登録者および未登録者)間の関連性が評価される。図24に示す例では、登録者Aと登録者Bとの関連性がレベル2であると判定され、登録者Bと登録者Cおよび登録者Bと未登録者Xとの関連性がそれぞれレベル1であると判定され、未登録者Xと登録者Cとの関連性がレベル3であると判定され、登録者Dと登録者Eとの関連性がレベル3であると判定されている。このような各人物間の関連性の評価を整理すると、図25に示すような相関マップ635aが得られる。
FIG. 24 is a diagram illustrating an example of history information of recognition results by each passer-by identification device 602. FIG. 25 is a diagram illustrating an evaluation example of relevance based on the history information of the recognition result illustrated in FIG.
The history information of recognition results as shown in FIG. 24 is obtained by using the method described in the third embodiment (comparison between each recognition result and the immediately preceding recognition result). Relevance among registrants) is evaluated. In the example shown in FIG. 24, it is determined that the relevance between the registrant A and the registrant B is level 2, and the relevance between the registrant B and the registrant C, and between the registrant B and the unregistered person X is level. 1, the relevance between the unregistered person X and the registrant C is determined to be level 3, and the relevance between the registrant D and registrant E is determined to be level 3. When the evaluation of the relationship between each person is arranged, a correlation map 635a as shown in FIG. 25 is obtained.

また、図24に示す例では、未登録者Xと判定された人物についても、他の登録者と認識された人物との関連性を評価している。図24に示す例では、未登録者Xは、同時に認識された(1つの入力画像から認識された)登録者Cとの関連性が高いと評価している。このような未登録者については、顔の特徴情報などの登録情報が記憶部631に記憶されていない。このため、未登録者については、自動的に、記憶部631に記憶されているグループ情報を更新することができない。すなわち、未登録者を他の人物(登録者)とグルーピングするには、当該未登録者の登録情報(顔の特徴情報など)を記憶部631に記憶すべきか否かを監視員あるいはシステム管理者に判断させる必要がある。従って、登録者との関連性が高いと評価された未登録者については、各登録者との関連性を示す情報とともに、認識処理で検出された当該人物(未登録者)の顔画像等も監視装置604に表示させる。これにより、未登録者については、監視員あるいはシステム管理者により判断に基づいて、登録情報を記憶部631に登録するとともに、他の登録者との関連性に基づくグループ情報を設定できる。   In the example shown in FIG. 24, the relevance of a person who has been determined as an unregistered person X is also evaluated with a person who has been recognized as another registrant. In the example shown in FIG. 24, the unregistered person X evaluates that the relevance with the registrant C recognized simultaneously (recognized from one input image) is high. Registration information such as facial feature information is not stored in the storage unit 631 for such unregistered persons. For this reason, group information stored in the storage unit 631 cannot be automatically updated for unregistered persons. That is, in order to group an unregistered person with another person (registrant), a monitor or system administrator determines whether or not the registration information (face feature information, etc.) of the unregistered person should be stored in the storage unit 631. Need to be judged. Therefore, for unregistered persons who are evaluated as having high relevance to the registrant, information indicating the relevance to each registrant and the face image of the person (unregistered person) detected in the recognition process are also included. The information is displayed on the monitoring device 604. Thereby, for the unregistered person, the registered information can be registered in the storage unit 631 and group information based on the relevance with other registrants can be set based on the judgment by the monitor or the system administrator.

なお、未登録者については、入力画像から検出された顔の特徴情報にID番号を割り当てて記憶部631に未登録者の情報(仮の登録情報)として記憶しておくことも可能である。この場合、当該未登録者については、その後の当該システムにおける認識処理において、上記ID番号の未登録者として入力画像から検出された顔の特徴情報との照合が可能となる。これにより、未登録者のままであっても、他の登録者あるいはID番号が割当てられた他の未登録者との関連性を継続的に評価することが可能となる。   As for the unregistered person, an ID number may be assigned to the facial feature information detected from the input image and stored in the storage unit 631 as unregistered person information (temporary registration information). In this case, the unregistered person can be collated with facial feature information detected from the input image as an unregistered person with the ID number in the subsequent recognition process in the system. Thereby, even if it is an unregistered person, it becomes possible to continuously evaluate the relevance with other registrants or other unregistered persons to which ID numbers are assigned.

また、関連性が高いと判定された登録者同士のグループ情報についても、監視者あるいはシステム管理者による判断に基づいて更新するようにしても良い。この場合、上記関連性判定部635は、関連性が高いと評価された複数の人物に関する情報を監視装置604に表示させる。このような表示を目視した監視者あるいはシステム管理者は、関連性が高いと評価された各人物をグループとして登録する場合、その旨を操作部604aにより指示する。監視者あるいはシステム管理者が表示された人物のグループ情報の更新を指示した場合、上記監視装置604は、上記関連性判定部635に当該人物のグループ情報の更新を要求する。上記監視装置604からの各人物のグループ情報の更新要求を受けた場合、上記関連性判定部635は、上記記憶部631に記憶されている当該人物のグループ情報を更新する。これにより、監視員あるいはシステム管理者による目視での確認を得た上で、各人物のグループ情報の更新が可能となる。この場合、監視員あるいはシステム管理者が、目視でグループ情報の更新内容を確認できるため、確実なグループ管理が可能となる。   Also, the group information of registrants determined to be highly relevant may be updated based on the judgment by the supervisor or system administrator. In this case, the relevance determination unit 635 causes the monitoring device 604 to display information regarding a plurality of persons evaluated as having high relevance. When a supervisor or system administrator who has looked at such a display registers each person evaluated as highly relevant as a group, he or she instructs the operation unit 604a. When the monitor or the system administrator gives an instruction to update the group information of the displayed person, the monitoring device 604 requests the relevance determination unit 635 to update the group information of the person. When receiving an update request for the group information of each person from the monitoring device 604, the relevance determination unit 635 updates the group information of the person stored in the storage unit 631. As a result, it is possible to update the group information of each person after obtaining visual confirmation by the supervisor or the system administrator. In this case, since the monitoring person or the system administrator can visually confirm the updated contents of the group information, reliable group management is possible.

次に、第7の実施の形態について説明する。
上記第7の実施の形態は、上記第6の実施の形態の第1の変形例である。このため、第7の実施の形態に係る通行者認識システム700は、上記第6の実施の形態で説明した図22に示すような構成であるものとする。ただし、第7の実施の形態に係る通行者認識システム700では、認証済みの登録者の登録情報として、他のグループとは異なる特別なグループ(認証済みのグループ)であることを示すグループ情報が記憶されているものとする。また、第7の実施の形態では、認証済みのグループの人物と他のグループの人物との関連性が高くなった場合、それらの人物については、特別なルールに従って、関連性の評価値をリセットしたり、グループ情報を更新したりするものである。
Next, a seventh embodiment will be described.
The seventh embodiment is a first modification of the sixth embodiment. For this reason, the passer-by identification system 700 according to the seventh embodiment is configured as shown in FIG. 22 described in the sixth embodiment. However, in the passer-by identification system 700 according to the seventh embodiment, as registration information of an authenticated registrant, group information indicating a special group (authenticated group) different from other groups is included. It shall be remembered. In the seventh embodiment, when the relationship between the authenticated group person and the other group person becomes high, the evaluation value of the relationship is reset according to a special rule. Or updating group information.

図26は、第7の実施の形態に係る通行者認識システム700の記憶部631に記憶される登録情報の例を示す図。
図26に示す例では、上記第1の実施の形態で説明した図3に示すような登録情報に加えて、「認証済み」とされるグループを示す情報が追加されている。この「認証済み」のグループに所属している人物は、システム管理者あるいは警備員などの当該セキュリティエリアの管理上で確実に信頼できる人物であるものとする。たとえば、認証済みの人物と一緒に行動している人物(つまり、認証済みの人物との関連性が高いと評価された人物)は、認証済みのグループとして自動的に登録したり、不審者などのようなネガティブなグループ(警戒度の高いグループ)に登録したりすることを避けるような運用が可能となる。
FIG. 26 is a diagram illustrating an example of registration information stored in the storage unit 631 of the passer-by identification system 700 according to the seventh embodiment.
In the example shown in FIG. 26, in addition to the registration information shown in FIG. 3 described in the first embodiment, information indicating a group that is “authenticated” is added. It is assumed that a person who belongs to the “authenticated” group is a person who can be reliably trusted in managing the security area, such as a system administrator or a security guard. For example, a person who is acting with an authenticated person (that is, a person who has been evaluated as highly relevant to an authenticated person) is automatically registered as an authenticated group, a suspicious person, etc. It is possible to operate so as to avoid registering with a negative group (a group with high alertness).

図27は、第7の実施の形態の関連性判定部635による関連性の判定処理の流れの例を説明するためのフローチャートである。なお、図27に示すフローチャートのステップS701〜S709の処理は、上記第3の実施の形態で説明した図13に示すフローチャートのステップS301〜S309の処理と同様な処理であるため、詳細な説明を省略する。また、図27のステップS712の処理は、上記第6の実施の形態で説明した図23のステップS610の処理と同様な処理であるため、詳細な説明を省略する。
すなわち、第7の実施の形態の関連性判定部635では、関連性が高いと判定された複数の人物(関連性の評価値が所定値以上となった複数の人物)について、「認証済み」のグループに属する人物(認証済みの人物)を含むか否かを判定する(ステップS710)。この判定により認証済みの人物を含むと判定した場合(ステップS710、YES)、上記関連性判定部635は、それらの複数の人物の評価値(つまり、「認証済み」のグループに属する人物との評価値)をリセットする(ステップS711)。
FIG. 27 is a flowchart for explaining an example of the flow of relevance determination processing by the relevance determination unit 635 according to the seventh embodiment. Note that the processing in steps S701 to S709 in the flowchart shown in FIG. 27 is the same as the processing in steps S301 to S309 in the flowchart shown in FIG. 13 described in the third embodiment. Omitted. In addition, the process in step S712 in FIG. 27 is the same as the process in step S610 in FIG. 23 described in the sixth embodiment, and thus detailed description thereof is omitted.
That is, in the relevance determination unit 635 according to the seventh embodiment, “authenticated” for a plurality of persons determined to have high relevance (a plurality of persons whose relevance evaluation value is equal to or greater than a predetermined value). It is determined whether or not a person belonging to the group (an authenticated person) is included (step S710). If it is determined by this determination that an authenticated person is included (step S710, YES), the relevance determination unit 635 determines the evaluation values of the plurality of persons (that is, the persons belonging to the “authenticated” group). (Evaluation value) is reset (step S711).

これにより、「認証済み」のグループに属する人物については、特定のグループ(たとえば、図26に示す例では要注意集団のグループ)との関連性が高いと評価された場合であっても、その情報をリセットされる。つまり、通行者認識システム700では、「認証済み」のグループに属する人物については、他のグループとの関連性を評価しないようにしている。なお、「認証済み」のグループに属する人物との関連性が高いと判定される人物についても、特定のグループとの関連性を評価しないようにすることも可能である。   As a result, even if the person who belongs to the “authenticated” group is evaluated to be highly relevant to a specific group (for example, the group of the group requiring attention in the example shown in FIG. 26), Information is reset. That is, the passer-by identification system 700 does not evaluate the relevance of other persons belonging to the “authenticated” group. Note that it is also possible not to evaluate the relevance of a person who is determined to be highly relevant to a person belonging to the “authenticated” group.

また、認証済みのグループは、他のグループとは異なる特別なグループである。このため、当該通行者認識システムが認証済みのグループにそれ以外のグループの人物を自動的に登録をすることを避けるために、認証済みのグループに属する人物との関連性を示す評価値を相関マップに投票することを避けるようにしても良い。但し、通行者認識システムの運用形態は、セキュリティポリシーに応じて設定されるものである。このため、セキュリティポリシーにおいて認証済みのグループにそれ以外のグループの人物を自動的に追加することが許可されるならば、認証済みのグループに属する人物についても、他の人物との関連性を示す評価値を相関マップに投票するようにしても良い。   The authenticated group is a special group different from other groups. For this reason, in order to prevent the passer-by identification system from automatically registering people in other groups in the authenticated group, the evaluation value indicating the relationship with the person belonging to the authenticated group is correlated. You may avoid voting on the map. However, the operation mode of the passer-by identification system is set according to the security policy. For this reason, if it is permitted in the security policy to automatically add a person in another group to the authenticated group, the person who belongs to the authenticated group also shows relevance to another person. The evaluation value may be voted on the correlation map.

上記のように、第7の実施の形態に係る通行者認識システムでは、上記第6の実施の形態で説明した通行者認識システムの処理に加えて、認証済みのグループなどの特別なグループに属する各人物と他の人物との関連性を評価しないようにする。これにより、第7の実施の形態では、明らかに信頼できるとされる人物(認証済みの人物)を誤って不適切なグループに登録したり、他の人物を認証済みのグループとしたりすることを防ぐことが可能となる。この結果として、セキュリティエリア内における各人物に対するグループ管理を高精度に行うことが可能となる。   As described above, the passer-by identification system according to the seventh embodiment belongs to a special group such as an authenticated group in addition to the processing of the passer-by identification system described in the sixth embodiment. Do not evaluate the relationship between each person and other persons. As a result, in the seventh embodiment, a person (authenticated person) who is clearly trusted can be mistakenly registered in an inappropriate group, or another person can be registered as an authenticated group. It becomes possible to prevent. As a result, group management for each person in the security area can be performed with high accuracy.

次に、第8の実施の形態について説明する。
上記第8の実施の形態は、上記第6の実施の形態の第2の変形例である。このため、第8の実施の形態に係る通行者認識システム800は、上記第6の実施の形態で説明した図22に示すような構成であるものとする。ただし、第8の実施の形態に係る通行者認識システム800では、各人物間の関連性を判定する手法が上記第6の実施の形態で説明したものと異なる。すなわち、第8の実施の形態では、セキュリティエリアにおける別々の監視エリアであっても、同時間帯に、検出(認識)された人物間の関連性を高くするものである。
Next, an eighth embodiment will be described.
The eighth embodiment is a second modification of the sixth embodiment. For this reason, the passer-by identification system 800 according to the eighth embodiment is configured as shown in FIG. 22 described in the sixth embodiment. However, in the passer-by identification system 800 according to the eighth embodiment, the method for determining the relationship between the persons is different from that described in the sixth embodiment. That is, in the eighth embodiment, the relevance between detected (recognized) persons is increased in the same time zone even in separate monitoring areas in the security area.

たとえば、別々の出入口で入場あるいは出場した人物同士であっても、セキュリティエリアへの入場あるいは出場の時間帯が同じであれば、それらの人物の関連性を高くする。このような関連性の判定手法は、上記第5の実施の形態で説明した第2の条件に基づく接近度の判定処理と類似している。すなわち、上記第8の実施の形態に係る通行者認識システムでは、同時間帯にセキュリティエリアに存在したこと、同時間帯にセキュリティエリアに入場したこと、あるいは、同時間帯にセキュリティエリアから出場したことなどによる各人物の行動パターンの類似性に基づいて、各人物間の関連性を評価するものである。   For example, even if persons who have entered or participated at different entrances and exits have the same time zone for entering or participating in the security area, the relevance of those persons is increased. Such a relevance determination method is similar to the approach determination processing based on the second condition described in the fifth embodiment. That is, in the passer-by identification system according to the eighth embodiment, the system was present in the security area during the same time period, entered the security area during the same time period, or entered the security area during the same time period. The relevance between each person is evaluated based on the similarity of each person's action pattern.

これにより、上記第8の実施の形態に係る通行者認識システムでは、待ち合わせあるいは物の受け渡しなどで、セキュリティエリア内で短時間しか接近していない人物間についても、関連性を評価できる。言い換えると、第8の実施の形態では、セキュリティエリア内において別々に行動している人物同士(同じ監視エリアで同時に検出されない人物同士)であっても、同時間帯にセキュリティエリアに存在している傾向がある人物(行動パターンに類似性がある人物)同士については、関連性を高くするものである。   Thereby, in the passer-by identification system according to the eighth embodiment, it is possible to evaluate the relevance even between persons who are approaching for only a short time within the security area, such as by waiting or handing over objects. In other words, in the eighth embodiment, even people acting separately in the security area (people who are not simultaneously detected in the same monitoring area) are present in the security area at the same time zone. Relevance is increased between persons who have a tendency (persons with similar behavior patterns).

次に、この第8の実施の形態に係る通行者認識システムの関連性判定部635による処理例について説明する。   Next, an example of processing performed by the relevance determination unit 635 of the passer-by identification system according to the eighth embodiment will be described.

図28は、この第8の実施の形態に係る通行者認識システムの関連性判定部635による関連性の判定処理を説明するためのフローチャートである。
まず、上記関連性判定部635は、各通行者認識装置602あるいは履歴データベース632から認識結果を順次取得する(ステップS801)。ここでは、履歴データベース632に記憶されている認識結果には、少なくとも、日時(入力画像の撮影日時)、監視エリア(入力画像の撮影場所)、および、認識された人物を示す情報などの情報が含まれているものとする。なお、セキュリティエリアへの入場者あるいは出場者のみを関連性の判定対象とする場合、上記関連性判定部635は、セキュリティエリアSAへの入口あるいは出口がある何れかの監視エリアSa1、Sa2、Sa3で撮影された画像に対する認識結果のみを取得するようにしても良い。
FIG. 28 is a flowchart for explaining relevance determination processing by the relevance determination unit 635 of the passer-by identification system according to the eighth embodiment.
First, the relevance determination unit 635 sequentially acquires recognition results from each passer-by identification device 602 or the history database 632 (step S801). Here, the recognition result stored in the history database 632 includes at least information such as date and time (shooting date of input image), monitoring area (shooting location of input image), and information indicating a recognized person. It shall be included. In the case where only a person who enters or participates in the security area is a target for determining the relevance, the relevance determination unit 635 has any of the monitoring areas Sa1, Sa2, and Sa3 that have an entrance or exit to the security area SA. Only the recognition result for the image photographed in step 1 may be acquired.

認識結果を取得すると、上記関連性判定部635は、当該認識結果に含まれる日時に基づいて所定の時間内にセキュリティエリアSA内の何れかの監視エリアで別の人物が検出(認識)されているか否かを判定する(ステップS802)。なお、セキュリティエリアへの入場時刻あるいは出場時刻のみを判定対象とする場合、上記関連性判定部635は、入口あるいは出口のある何れかの監視エリアSa1、Sa2、Sa3で所定時間内に別の人物が検出(認識)されているか否かを判定する。   When the recognition result is acquired, the relevance determination unit 635 detects (recognizes) another person in any monitoring area in the security area SA within a predetermined time based on the date and time included in the recognition result. It is determined whether or not (step S802). When only the entry time or the entry time to the security area is to be determined, the relevancy determination unit 635 may change another person within a predetermined time in any of the monitoring areas Sa1, Sa2, and Sa3 having an entrance or an exit. Is detected (recognized).

上記判定により所定の時間内に別の人物が検出されていないと判定した場合(ステップS802、NO)、上記関連性判定部635は、上記ステップS801へ戻り、上述した処理を繰り返し実行する。また、上記判定により所定の時間内に別の人物が検出されていると判定した場合(ステップS802、YES)、上記関連性判定部635は、所定時間内に検出された人物間の関連性の評価値を高くする(つまり、相関マップ635aにおける当該人物間の値をカウントアップする)(ステップS803)。なお、同一の監視エリアで所定時間内に複数の人物が検出された場合も、それらの人物間の関連性の評価値をカウントアップしても良い。この場合、相関マップ635aには、別々の監視エリアで検出された人物同士に対する評価値よりも大きい値を積算するようにしても良い。これにより、検出された監視エリアに応じて重み付けした値を投票した相関マップ635aが作成される。   If it is determined by the above determination that another person has not been detected within a predetermined time (step S802, NO), the relevance determination unit 635 returns to step S801 and repeatedly executes the above-described processing. Further, when it is determined by the above determination that another person is detected within a predetermined time (step S802, YES), the relevance determination unit 635 determines the relevance between the persons detected within the predetermined time. The evaluation value is increased (that is, the value between the persons in the correlation map 635a is counted up) (step S803). Even when a plurality of persons are detected within a predetermined time in the same monitoring area, the evaluation value of the relevance between these persons may be counted up. In this case, the correlation map 635a may be integrated with a value larger than the evaluation value for persons detected in different monitoring areas. As a result, a correlation map 635a in which a weighted value is voted according to the detected monitoring area is created.

所定時間内に検出された複数の人物間の評価値をカウントアップすると、上記関連性判定部635は、それらの人物間の評価値が所定の値以上となったか否かを判断する(ステップS804)。この判断により当該評価値が所定の値未満であると判断した場合(ステップS804、NO)、上記関連性判定部635は、上記ステップS801へ戻り、上述した処理を繰り返し実行する。   When the evaluation value between a plurality of persons detected within a predetermined time is counted up, the relevance determination unit 635 determines whether or not the evaluation value between those persons has become a predetermined value or more (step S804). ). If it is determined by this determination that the evaluation value is less than the predetermined value (step S804, NO), the relevance determination unit 635 returns to step S801 and repeatedly executes the above-described processing.

また、上記判断により評価値が所定の値以上となったと判断した場合(ステップS804、YES)、上記関連性判定部635は、それらの人物が同じグループである可能性が高いと判定する(ステップS805)。同一グループらしいと判定した場合、上記関連性判定部635は、上記記憶部631に記憶されている、それらの人物のグループ情報を更新する処理を行う(ステップS806)。なお、グループ情報の更新処理は、上記第6の実施の形態で説明したように、一方の人物が属するグループに他方の人物を追加するように、上記記憶部631に記憶されている当該人物のグループ情報を更新するものとする。   If it is determined by the above determination that the evaluation value is equal to or greater than a predetermined value (step S804, YES), the relevance determination unit 635 determines that there is a high possibility that those persons are in the same group (step S4). S805). When it is determined that the groups are likely to be the same group, the relevance determination unit 635 performs a process of updating the group information of those persons stored in the storage unit 631 (step S806). As described in the sixth embodiment, the group information update process is performed for the person stored in the storage unit 631 so that the other person is added to the group to which the one person belongs. Group information shall be updated.

また、上記ステップS806では、グループ情報を更新する処理の代わりに、上記のような判定結果を出力部634により外部装置としての監視装置604に出力するようにしても良い。この場合、上記関連性判定部635では、上記監視装置604からの要求に応じて、グループ情報を更新するようにすれば良い。   In step S806, instead of the process of updating the group information, the determination result as described above may be output to the monitoring apparatus 604 as an external apparatus by the output unit 634. In this case, the relevance determination unit 635 may update the group information in response to a request from the monitoring device 604.

また、上記のような処理を所定期間繰り返し行うことにより、相関マップには、統計的に、同じ時間帯にセキュリティエリアに存在している傾向がある複数の人物、あるいは、同じ時間帯に出入口を何度も出入りする傾向がある複数の人物を示す情報が蓄積される。このような相関マップによれば、同じ時間帯にセキュリティエリアに存在している複数の人物、あるいは、同じ時間帯に出入口を何度も出入りしている複数の人物が同一グループらしいと判定することが可能となる。   In addition, by repeating the above process for a predetermined period, the correlation map statistically includes a plurality of persons who tend to exist in the security area in the same time zone, or entrances and exits in the same time zone. Information indicating a plurality of persons who tend to go in and out many times is accumulated. According to such a correlation map, it is determined that a plurality of persons existing in the security area in the same time zone, or a plurality of persons entering and exiting the entrance many times in the same time zone are likely to be in the same group. Is possible.

なお、上記第5の実施の形態と同様に、出入口が設けられている各監視エリアには、セキュリティエリアに入場する人物を撮影するカメラとセキュリティエリアから出場する人物を撮影するカメラとを設けるようにしても良い。この場合、入場する人物と出場する人物とを区別することが可能となる。   As in the fifth embodiment, each monitoring area provided with an entrance / exit is provided with a camera for photographing a person entering the security area and a camera for photographing a person entering the security area. Anyway. In this case, it is possible to distinguish between a person who enters and a person who participates.

上記第8の実施の形態によれば、待ち合わせ、あるいは、物の受け渡しなどの一緒に行動する時間が短い人物同士であっても、セキュリティエリア内に同時間帯に出入りする傾向が見られる人物同士を判定することが可能となる。これは、各人物の入出場のパターンに基づいて、セキュリティエリア内で集団行動を行っているらしい複数の人物を検出するのに効果がある。   According to the eighth embodiment, even people who have a short time to act together, such as meeting or handing over objects, tend to enter and exit the security area within the same time zone. Can be determined. This is effective in detecting a plurality of persons who seem to be performing collective actions in the security area based on the entry / exit patterns of each person.

次に、第9の実施の形態について説明する。
第9の実施の形態は、たとえば、上記第5の実施の形態の変形例である。このため、第9の実施の形態に係る通行者認識システム900は、第5の実施の形態で説明した図17に示すような構成であるものとする。第9の実施の形態に係る通行者認識システム900は、同一グループに属する複数の人物でなくても、特定のグループに属する人物(あるいは特定の人物)を含む複数の人物からなる集団が検出された場合、警報を監視装置へ通知するものである。
Next, a ninth embodiment will be described.
The ninth embodiment is, for example, a modification of the fifth embodiment. For this reason, the passer-by identification system 900 according to the ninth embodiment is configured as shown in FIG. 17 described in the fifth embodiment. The passer-by identification system 900 according to the ninth embodiment can detect a group including a plurality of persons including a person (or a specific person) belonging to a specific group, even if the plurality of persons do not belong to the same group. In the case of an alarm, an alarm is notified to the monitoring device.

上記第5の実施の形態では、同一グループに属する複数の人物を検出する。このため、上記第5の実施の形態では、特定のグループに属する複数の人物が検出された場合に、監視装置に警報を通知する運用が可能である。これに対して、第9の実施の形態では、特定のグループに属する人物を含む複数の人物が検出する。これにより、第9の実施の形態では、特定のグループに属する少なくとも1人の人物が検出された場合に、監視装置に警報を通知する運用が可能である。   In the fifth embodiment, a plurality of persons belonging to the same group are detected. For this reason, in the said 5th Embodiment, when the some person who belongs to a specific group is detected, the operation | movement which notifies a warning to a monitoring apparatus is possible. In contrast, in the ninth embodiment, a plurality of persons including persons belonging to a specific group are detected. Thereby, in the ninth embodiment, when at least one person belonging to a specific group is detected, an operation of notifying the monitoring device of an alarm is possible.

すなわち、上記第9の実施の形態に係る通行者認識システム900において、グループ判定部533は、上記各通行者認識装置502による人物の認識結果に基づいて各人物のグループを判定する処理(グループ判定処理)と各グループごとの集団行動を判定する処理(集団行動の判定処理)とを行う。なお、上記グループ判定部533における各人物のグループ判定処理は、上記第1の実施の形態で説明したグループ判定部123によるグループ判定処理と同様な方法で実現可能である。また、各人物のグループ判定処理は、上記第1の実施の形態と同様に、各通行者認識装置502が実行するようにしても良い。   That is, in the passer-by identification system 900 according to the ninth embodiment, the group determination unit 533 determines the group of each person based on the person recognition result by each of the passer-by identification devices 502 (group determination). Processing) and processing for determining group behavior for each group (group behavior determination processing). The group determination process for each person in the group determination unit 533 can be realized by the same method as the group determination process by the group determination unit 123 described in the first embodiment. Further, the group determination process for each person may be executed by each passer-by identification device 502 as in the first embodiment.

上記グループ判定部533による集団行動の判定処理は、特定のグループに属する人物を含む複数の人物が集団行動しているか否かを判定する処理である。このため、上記グループ判定部533は、特定のグループに属する人物(あるいは特定の人物)と他の人物(未登録者、他のグループに属する人物、あるいは、グループに属していない人物)との接近度を判定するものとする。上記接近度は、上記第5の実施の形態で説明したように、所定の条件に基づいて判定される。上記接近度を判定するための条件としては、たとえば、「同時刻に同じ場所(監視エリア)にいた」(第1の条件)、あるいは、「同時間帯にセキュリティエリアへ入場あるいは出場した」(第2の条件)などがある。ここでは、第1の条件に基づく接近度により特定のグループに属する人物を含む複数の人物が集団行動しているか否かを判定する処理について説明する。   The group behavior determination process by the group determination unit 533 is a process for determining whether or not a plurality of persons including persons belonging to a specific group are performing a group action. For this reason, the group determination unit 533 approaches a person (or a specific person) belonging to a specific group and another person (an unregistered person, a person belonging to another group, or a person who does not belong to the group). The degree shall be determined. As described in the fifth embodiment, the approach degree is determined based on a predetermined condition. The conditions for determining the degree of approach are, for example, “I was in the same place (monitoring area) at the same time” (first condition), or “I entered or entered the security area at the same time zone” ( The second condition). Here, a process of determining whether or not a plurality of persons including persons belonging to a specific group are performing a collective action based on the degree of approach based on the first condition will be described.

図29は、第9の実施の形態に係る通行者認識システム900において作成される接近マップ533aの例を示す図である。図29に示す例は、ある監視エリアにおける各人物間の接近度を示す接近マップ533aの例を示しているものとする。
図29に示す接近マップ533aの例では、図18と同様に、各人物同士が一緒にいた時間の長さを示す値が接近度として記憶される。すなわち、同一の入力画像(ある監視エリアを撮影した画像)から同一グループの複数の人物が継続的(連続的)に検出(認識)されている場合、それらの人物間の接近度は、所定時間ごとに更新(カウントアップ)されるようになっている。また、図29に示す接近マップ533aの例では、各人物のグループと各グループに対応付けられている警報のレベルが設定されていることを示している。さらに、図29に示す接近マップ533aの例では、未登録者についても、接近度が投票されるようになっている。
FIG. 29 is a diagram illustrating an example of the approach map 533a created in the passer-by identification system 900 according to the ninth embodiment. The example illustrated in FIG. 29 is an example of an approach map 533a indicating the degree of approach between persons in a certain monitoring area.
In the example of the approach map 533a shown in FIG. 29, as in FIG. 18, a value indicating the length of time each person has been together is stored as the approach degree. That is, when a plurality of persons in the same group are detected (recognized) continuously (successively) from the same input image (an image of a certain monitoring area), the degree of approach between these persons is determined for a predetermined time. Every time it is updated (counted up). In the example of the approach map 533a shown in FIG. 29, each person's group and the alarm level associated with each group are set. Furthermore, in the example of the approach map 533a shown in FIG. 29, the degree of approach is also voted for unregistered persons.

たとえば、図12に示す例では、要注意集団に属する人物Eと未登録者Aとの接近度が高くなっている。もし、要注意集団(特定のグループ)に属する人物Eと未登録者Aとの接近度が所定の閾値を超えたものとすると、通行者認識システム900のグループ判定部533では、上記人物Eと未登録者Aとは集団行動しているものと判定される。この場合、出力部534は、要注意集団(特定のグループ)に対応付けられている警報レベル5の警報を監視装置(外部機器)504へ通知する。   For example, in the example shown in FIG. 12, the degree of approach between the person E belonging to the group requiring attention and the unregistered person A is high. If the proximity between the person E belonging to the group requiring attention (specific group) and the unregistered person A exceeds a predetermined threshold, the group determination unit 533 of the passer-by identification system 900 uses the person E and It is determined that the unregistered person A is performing a collective action. In this case, the output unit 534 notifies the monitoring device (external device) 504 of an alarm of alarm level 5 associated with the group requiring attention (a specific group).

なお、未登録者については、最初に検出された際に、当該未登録者の顔画像と顔の特徴情報と自動的に発番されるID番号(識別情報)とが未登録者の情報(仮の登録情報)として記憶部531に記憶されるものとする。これにより、各未登録者についても、2度目以降に検出された場合には、上記のような未登録者の情報により認識が可能となる。   As for an unregistered person, when it is first detected, the face image of the unregistered person, the facial feature information, and the ID number (identification information) that is automatically issued are the information on the unregistered person ( Suppose that it is memorize | stored in the memory | storage part 531 as provisional registration information. As a result, when each unregistered person is detected for the second time or later, it can be recognized by the information of the unregistered person as described above.

次に、第9の実施の形態としての集団行動の判定処理の流れついて説明する。   Next, the flow of collective action determination processing as the ninth embodiment will be described.

図30は、上記第1の条件に基づく接近度による集団行動の判定処理の例を説明するためのフローチャートである。
まず、上記グループ判定部533は、各通行者認識装置502あるいは履歴データベース532から認識結果を順次取得する(ステップS901)。認識結果を取得すると、上記グループ判定部533は、上記記憶部531に記憶されている登録情報を参照し、当該認識結果において認識された全ての人物についてグループを判定する(ステップS902)。認識された全ての人物のグループを判定すると、上記グループ判定部533は、1の入力画像から特定のグループに属する人物を含む複数の人物が認識されたか否かを判断する(ステップS903)。1つの入力画像から特定のグループに属する人物を含む複数の人物が認識されなかったと判断した場合(ステップS903、NO)、上記グループ判定部533は、ステップS901へ戻り、上述した処理を繰り返し実行する。
FIG. 30 is a flowchart for explaining an example of the group behavior determination process based on the degree of approach based on the first condition.
First, the group determination unit 533 sequentially acquires recognition results from each passer-by identification device 502 or the history database 532 (step S901). When the recognition result is acquired, the group determination unit 533 refers to the registration information stored in the storage unit 531 and determines a group for all persons recognized in the recognition result (step S902). When the groups of all recognized persons are determined, the group determination unit 533 determines whether or not a plurality of persons including persons belonging to a specific group are recognized from one input image (step S903). When it is determined that a plurality of persons including persons belonging to a specific group have not been recognized from one input image (NO in step S903), the group determination unit 533 returns to step S901 and repeatedly executes the above-described processing. .

また、上記判断により1つの入力画像から特定のグループに属する人物を含む複数の人物が認識されたと判断した場合(ステップS903、YES)、上記グループ判定部533は、当該入力画像を撮影した監視エリアの接近マップ533aに対して、特定のグループに属する人物に対する他の人物の接近度をカウントアップする(ステップS904)。なお、継続的に1つの入力画像において同時に認識されている複数の人物間の接近度を更新(カウントアップ)する場合、それらの人物間の接近度については、所定時間ごとに更新することとする。   When it is determined that a plurality of persons including a person belonging to a specific group have been recognized from one input image based on the above determination (step S903, YES), the group determination unit 533 detects the monitoring area where the input image is captured. In the approach map 533a, the degree of approach of another person to a person belonging to a specific group is counted up (step S904). In addition, when the degree of approach between a plurality of persons recognized simultaneously in one input image is continuously updated (counted up), the degree of approach between these persons is updated every predetermined time. .

また、1つの入力画像から認識された特定のグループに属する人物を含む複数の人物間の接近度をカウントアップすると、上記グループ判定部533は、それらの人物間の接近度が所定の値以上となったか否かを判断する(ステップS905)。
この判断により接近度が所定の値未満であると判断した場合(ステップS905、NO)、上記グループ判定部533は、上記ステップS901へ戻り、上述した処理を繰り返し実行する。
Further, when the degree of approach between a plurality of persons including persons belonging to a specific group recognized from one input image is counted, the group determination unit 533 determines that the degree of approach between these persons is equal to or greater than a predetermined value. It is determined whether or not (step S905).
If it is determined that the degree of approach is less than the predetermined value (NO in step S905), the group determination unit 533 returns to step S901 and repeatedly executes the above-described processing.

また、上記判断により上記接近度が所定の値以上となったと判断した場合(ステップS905、YES)、上記グループ判定部533は、それらの人物による集団行動に対する警報のレベルを判定する(ステップS906)。なお、各グループに対応する警報のレベルは、グループに対応づけて設定されているものとする。もし、グループ3が警報レベル「5」に設定されていれば、上記グループ3に属する人物を含む複数の人物が集団行動していると判定された場合、上記グループ判定部533は、警報レベル「5」の警報を監視装置504へ送信するための情報を出力部534へ供給する。これにより、上記出力部534は、警報レベル「5」の警報を外部機器へ送信する。   Further, when it is determined by the above determination that the degree of approach has become a predetermined value or more (step S905, YES), the group determination unit 533 determines the level of alarm for collective action by those persons (step S906). . Note that the alarm level corresponding to each group is set in association with the group. If the group 3 is set to the alarm level “5”, the group determination unit 533 determines that the alarm level “ Information for transmitting the alarm “5” to the monitoring device 504 is supplied to the output unit 534. As a result, the output unit 534 transmits an alarm of the alarm level “5” to the external device.

上記のように、第9の実施の形態では、特定のグループに属する人物を含む複数の人物が集団で行動しているか否かを判定し、特定のグループに属する人物を含む複数の人物が集団行動していることを検出した場合には、当該特定のグループに対応付けられている警報レベルで警報を外部機器へ通知するようになっている。   As described above, in the ninth embodiment, it is determined whether or not a plurality of persons including persons belonging to a specific group are acting as a group, and a plurality of persons including persons belonging to a specific group are grouped. When it is detected that the user is acting, an alarm is notified to an external device at an alarm level associated with the specific group.

これにより、特定の人物または特定のグループに属する人物を含む複数の人物が集団行動していることを検出でき、さらに、特定のグループに対応づけられている警報レベルで警報を発することが可能となる。特に、未登録者と特定のグループに属する人物とが集団行動していることを検出できる。この結果として、たとえば、不審者のグループなどを効果的に警戒することができ、高度なセキュリティを実現できる。   As a result, it is possible to detect that a plurality of persons including a specific person or a person belonging to a specific group are acting together, and further, it is possible to issue an alarm at an alarm level associated with a specific group. Become. In particular, it can be detected that an unregistered person and a person belonging to a specific group are acting together. As a result, for example, a group of suspicious persons can be effectively guarded, and high security can be realized.

なお、上述した各実施の形態に係る通行者認識システムは、周辺の他のセキュリティエリアに設置されているシステムと連携して動作するようにしても良い。たとえば、図16に示すような特定のエリア内を監視する通行者認識システムが、周辺の他のセキュリティエリアに設置されているシステムと連携して登録者情報あるいは履歴情報などの情報を共有化することも可能である。このような形態は、たとえば、上述した各実施の形態の通行者認識装置あるいはサーバ装置に他のシステムとの通信機能を設け、通行者認識装置あるいはサーバ装置内の記憶部に記憶されている情報などを他のシステムと共有化することにより実現できる。   Note that the passer-by identification system according to each of the above-described embodiments may operate in cooperation with a system installed in another security area in the vicinity. For example, a passer-by identification system that monitors a specific area as shown in FIG. 16 shares information such as registrant information or history information in cooperation with systems installed in other security areas in the vicinity. It is also possible. In such a form, for example, the passer-by identification device or server device of each embodiment described above is provided with a function for communicating with other systems, and the information stored in the storage unit in the passer-by recognition device or server device. Etc. can be realized by sharing with other systems.

第1の実施の形態に係る通行者認識システムの構成例を概略的に示すブロック図。1 is a block diagram schematically showing a configuration example of a passer-by identification system according to a first embodiment. 入力画像から検出された顔領域の例を示す図。The figure which shows the example of the face area | region detected from the input image. 登録情報の例を示す図。The figure which shows the example of registration information. グループ判定処理の結果の例を示す図。The figure which shows the example of the result of a group determination process. 第1の実施の形態に係る通行者認識システムにおける処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process in the passer-by identification system which concerns on 1st Embodiment. 第2の実施の形態に係る通行者認識装置の構成例を概略的に示すブロック図。The block diagram which shows roughly the structural example of the passer-by identification apparatus which concerns on 2nd Embodiment. 登録情報の例を示す図。The figure which shows the example of registration information. グループ判定処理の結果の例を示す図。The figure which shows the example of the result of a group determination process. 第2の実施の形態に係る通行者認識システムにおける処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process in the passer-by identification system which concerns on 2nd Embodiment. 第3の実施の形態に係る通行者認識システムの構成例を概略的に示すブロック図。The block diagram which shows roughly the structural example of the passer-by identification system which concerns on 3rd Embodiment. 関連性判定部の処理例を示す図。The figure which shows the process example of a relevance determination part. 関連性判定部により作成される相関マップの例を示す図。The figure which shows the example of the correlation map produced by the relevance determination part. 第4の実施の形態に係る通行者認識システムの構成例を概略的に示すブロック図。The block diagram which shows roughly the structural example of the passer-by identification system which concerns on 4th Embodiment. グループ管理部の処理例を示す図。The figure which shows the process example of a group management part. グループ管理情報の例を示す図。The figure which shows the example of group management information. セキュリティエリアと複数の監視エリアとの設定例を示す図。The figure which shows the example of a setting of a security area and a some monitoring area. 第5の実施の形態に係る通行者認識システムの構成例を示す図。The figure which shows the structural example of the passer-by identification system which concerns on 5th Embodiment. 接近マップに記憶される接近度の例を示す図。The figure which shows the example of the approach degree memorize | stored in an approach map. 集団行動の判定処理の例を説明するためのフローチャート。The flowchart for demonstrating the example of the determination process of collective action. 各監視エリアに対する重要度の設定例を示す図。The figure which shows the example of a setting of the importance with respect to each monitoring area. 集団行動の判定処理の例を説明するためのフローチャート。The flowchart for demonstrating the example of the determination process of collective action. 第6の実施の形態に係る通行者認識システムの構成例を示すブロック図。The block diagram which shows the structural example of the passer-by identification system which concerns on 6th Embodiment. 第6の実施の形態の関連性判定部による関連性の判定処理の流れの例を説明するためのフローチャート。The flowchart for demonstrating the example of the flow of the determination process of the relationship by the relationship determination part of 6th Embodiment. 各通行者認識装置による認識結果の履歴情報の例を示す図。The figure which shows the example of the log | history information of the recognition result by each passer-by identification apparatus. 認識結果の履歴情報に基づく関連性の評価例を示す図。The figure which shows the evaluation example of the relationship based on the historical information of a recognition result. 第7の実施の形態に係る通行者認識システムにおける登録情報の例を示す図。The figure which shows the example of the registration information in the passer-by identification system which concerns on 7th Embodiment. 第7の実施の形態の関連性判定部による関連性の判定処理の流れの例を説明するためのフローチャート。The flowchart for demonstrating the example of the flow of the determination process of the relationship by the relationship determination part of 7th Embodiment. 第8の実施の形態に係る通行者認識システムにおける関連性の判定処理を説明するためのフローチャート。The flowchart for demonstrating the determination process of the relevance in the passer-by identification system which concerns on 8th Embodiment. 接近マップに記憶される接近度の例を示す図。The figure which shows the example of the approach degree memorize | stored in an approach map. 第9の実施の形態に係る集団行動の判定処理の例を説明するためのフローチャート。The flowchart for demonstrating the example of the determination process of the collective action which concerns on 9th Embodiment.

符号の説明Explanation of symbols

100、200、300、400、500、600、700、800、900…通行者認識システム、101、201、301、401、501、601…カメラ、102、202、302、402、502、602…通行者認識装置、103、203、303、403…ゲート装置、104、204、304、404、504、604…監視装置、111、211、311、411、511、611…入力部、112、212、312、412、512、612…制御部、113、213、313、413、534、634…出力部、114、214、314、431、531、631…記憶部、121、221、321、421、521、621…特徴検出部、122、222、322、422、522、622…認識部、123、223、323、423、533、633…グループ判定部、333、635…関連性判定部、333a、635a…相関マップ(データテーブル)、405、505、605…サーバ装置、432、532、632…履歴データベース、433…グループ管理部、433a…データテーブル   100, 200, 300, 400, 500, 600, 700, 800, 900 ... Passer recognition system, 101, 201, 301, 401, 501, 601 ... Camera, 102, 202, 302, 402, 502, 602 ... Passage Person recognition device 103, 203, 303, 403 ... Gate device, 104, 204, 304, 404, 504, 604 ... Monitoring device, 111, 211, 311, 411, 511, 611 ... Input unit, 112, 212, 312 412, 512, 612 ... control unit 113, 213, 313, 413, 534, 634 ... output unit, 114, 214, 314, 431, 531, 631 ... storage unit, 121, 221, 321, 421, 521, 621 ... Feature detection unit, 122, 222, 322, 422, 522, 622 ... Recognition unit, 123, 22 323, 423, 533, 633 ... group determination unit, 333, 635 ... relevance determination unit, 333a, 635a ... correlation map (data table), 405, 505, 605 ... server device, 432, 532, 632 ... history database 433 ... Group management unit, 433a ... Data table

Claims (30)

人物を認識する人物認識装置であって、
少なくとも1つの登録者の生体情報と各登録者のグループを示すグループ情報とが対応づけて記憶されている記憶手段と、
人物の生体情報を含む情報を取得する情報取得手段と、
前記情報取得手段により取得された情報から少なくとも1人分の生体情報を検出する検出手段と、
前記検出手段により検出された各生体情報と前記記憶手段に記憶されている各生体情報とを照合することにより前記検出手段により検出された生体情報の人物を認識する認識手段と、
前記認識手段により順次認識された複数の人物を所定の条件に基づいてグループ候補に分類し、そのグループ候補の各人物を前記記憶手段に記憶されている各人物のグループ情報に基づいてグループ分けするグループ判定手段と、
このグループ判定手段によるグループ分けの結果を外部機器へ出力する出力手段と、
を有することを特徴とする人物認識装置。
A person recognition device for recognizing a person,
Storage means for storing biometric information of at least one registrant and group information indicating a group of each registrant,
Information acquisition means for acquiring information including biological information of a person;
Detecting means for detecting biological information for at least one person from the information acquired by the information acquiring means;
Recognizing means for recognizing a person of the biological information detected by the detecting means by comparing each biological information detected by the detecting means with each biological information stored in the storage means;
A plurality of persons sequentially recognized by the recognition means are classified into group candidates based on a predetermined condition, and each person of the group candidates is grouped based on group information of each person stored in the storage means. A group determination means;
Output means for outputting the result of grouping by the group determination means to an external device;
A person recognition apparatus characterized by comprising:
前記出力手段は、前記認識手段による認識結果および前記グループ判定手段による判定結果を表示するための表示データを表示装置へ出力する処理を行う、
ことを特徴とする前記請求項1に記載の人物認識装置。
The output means performs a process of outputting display data for displaying a recognition result by the recognition means and a determination result by the group determination means to a display device.
The person recognition apparatus according to claim 1, wherein:
前記記憶手段は、登録者の生体情報に対応づけた種々の情報からなる属性情報をグループ情報として記憶し、
前記グループ判定手段は、前記グループ候補の各人物を前記記憶手段に記憶されている各人物の属性情報に基づいてグループ分けする、
ことを特徴とする前記請求項1又は2に記載の人物認識装置。
The storage means stores attribute information composed of various information associated with the biometric information of the registrant as group information,
The group determination means groups each person of the group candidate based on attribute information of each person stored in the storage means;
The person recognition apparatus according to claim 1 or 2, characterized in that
さらに、前記認識手段による順次認識される複数の人物間の関連性を評価し、各人物間の関連性の評価に基づいて前記記憶手段に記憶されている各人物のグループ情報を更新する関連性判定手段を有する、
ことを特徴とする前記請求項1又は2に記載の人物認識装置。
Further, the relevance for evaluating the relevance between a plurality of persons sequentially recognized by the recognizing means and updating the group information of each person stored in the storage means based on the relevance evaluation between the respective persons. Having a judging means,
The person recognition apparatus according to claim 1 or 2, characterized in that
さらに、前記グループ判定手段による判定結果に基づいて、前記認識手段により認識された各人物を示す情報を各グループごとに管理するグループ管理手段を有し、
前記出力手段は、前記グループ管理手段により各グループごとに管理されている前記認識手段により認識された各人物を示す情報を出力する、
ことを特徴とする前記請求項1又は2に記載の人物認識装置。
Furthermore, based on the determination result by the group determination unit, it has a group management unit for managing information indicating each person recognized by the recognition unit for each group,
The output means outputs information indicating each person recognized by the recognition means managed for each group by the group management means;
The person recognition apparatus according to claim 1 or 2, characterized in that
人物を認識する人物認識装置であって、
少なくとも1つの登録者の生体情報と各登録者のグループを示すグループ情報とが対応づけて記憶されている記憶手段と、
1つのエリア内における複数の監視エリアごとに、各監視エリアに存在している人物の生体情報を含む情報を順次取得する情報取得手段と、
前記情報取得手段により取得された各情報から少なくとも1人分の生体情報を検出する検出手段と、
前記検出手段により検出された各生体情報と前記記憶手段に記憶されている各生体情報とを照合することにより前記検出手段により検出された生体情報の人物を認識する認識手段と、
前記情報取得手段が取得した各監視エリアの情報と、その情報から前記検出手段が検出した生体情報に対する前記認識手段による認識結果とに基づいて、前記エリア内における複数の人物での集団行動を判定するグループ判定手段と、
このグループ判定手段による判定結果を外部機器へ出力する出力手段と、
を有することを特徴とする人物認識装置。
A person recognition device for recognizing a person,
Storage means for storing biometric information of at least one registrant and group information indicating a group of each registrant,
Information acquisition means for sequentially acquiring information including biological information of persons existing in each monitoring area for each of a plurality of monitoring areas in one area;
Detection means for detecting biological information for at least one person from each piece of information acquired by the information acquisition means;
Recognizing means for recognizing a person of the biological information detected by the detecting means by comparing each biological information detected by the detecting means with each biological information stored in the storage means;
Based on the information of each monitoring area acquired by the information acquisition means and the recognition result by the recognition means on the biological information detected by the detection means from the information, the collective behavior of a plurality of persons in the area is determined. Group determination means to perform,
Output means for outputting the determination result by the group determination means to an external device;
A person recognition apparatus characterized by comprising:
前記グループ判定手段は、前記情報取得手段により取得した1つの情報から複数の人物の生体情報が検出された場合、それらの複数の人物が接近した状態であることを判定する、
ことを特徴とする前記請求項6に記載の人物認識装置。
The group determination means determines that the plurality of persons are in an approached state when biometric information of a plurality of persons is detected from one information acquired by the information acquisition means.
The person recognition apparatus according to claim 6, wherein:
前記グループ判定手段は、前記情報取得手段により順次取得する各情報から複数の人物の生体情報が所定期間以上継続して検出された場合、それらの人物が接近した状態で行動していることを判定する、
ことを特徴とする前記請求項6に記載の人物認識装置。
The group determination unit determines that the persons are acting in a state of approach when biometric information of a plurality of persons is continuously detected for a predetermined period or more from each information sequentially acquired by the information acquisition unit. To
The person recognition apparatus according to claim 6, wherein:
前記グループ判定手段は、前記情報取得手段により順次取得する各情報から同一グループに属する複数の人物の生体情報が所定期間以上継続的に検出された場合、それらの人物が接近した状態で行動していることを判定し、
前記出力手段は、前記グループ判定手段により接近した状態で行動していると判定された複数の人物が検出された監視エリアに対応づけられているレベルの警報を外部機器へ通知する、
ことを特徴とする前記請求項6に記載の人物認識装置。
The group determination means acts in a state in which those persons are approached when biometric information of a plurality of persons belonging to the same group is continuously detected from each information sequentially acquired by the information acquisition means for a predetermined period or more. To determine that
The output means notifies an external device of an alarm of a level associated with a monitoring area in which a plurality of persons determined to be acting in a state approached by the group determination means are detected;
The person recognition apparatus according to claim 6, wherein:
前記グループ判定手段は、前記情報取得手段により順次取得する各情報から特定のグループに属する人物を含む複数の人物の生体情報が所定期間以上継続的に検出された場合、それらの人物が接近した状態で行動していることを判定し、
前記出力手段は、前記グループ判定手段により特定のグループに属する人物を含む複数の人物が接近した状態で行動していると判定した場合、当該特定のグループに対応づけられているレベルの警報を外部機器へ通知する、
ことを特徴とする前記請求項6に記載の人物認識装置。
The group determination unit is in a state in which, when biometric information of a plurality of persons including persons belonging to a specific group is continuously detected from each information sequentially acquired by the information acquisition unit for a predetermined period or more, the persons are approaching To determine that you are acting
If the output means determines that a plurality of persons including persons belonging to a specific group are acting in close proximity by the group determination means, the output means outputs an alarm of a level associated with the specific group to the outside Notify the device,
The person recognition apparatus according to claim 6, wherein:
前記グループ判定手段は、前記情報取得手段により順次取得する各監視エリアの情報から同時間帯に同一グループに属する複数の人物の生体情報が検出された場合、それらの人物が当該エリア内に同じ時間帯に存在していたことを判定する、
ことを特徴とする前記請求項6に記載の人物認識装置。
In the case where biometric information of a plurality of persons belonging to the same group is detected in the same time period from the information of each monitoring area acquired sequentially by the information acquisition means, the group determination means is in the same time in the area. Determine that it was in the belt,
The person recognition apparatus according to claim 6, wherein:
前記グループ判定手段は、前記情報取得手段により順次取得する各監視エリアの情報のうち前記エリアの出入口に相当する複数の監視エリアの情報から同時間帯に同一グループに属する複数の人物の生体情報が検出された場合、それらの人物が当該エリア内に同じ時間帯に出入していたことを判定する、
ことを特徴とする前記請求項6に記載の人物認識装置。
The group determination means includes biometric information of a plurality of persons belonging to the same group in the same time period from information of a plurality of monitoring areas corresponding to an entrance / exit of the area among information of each monitoring area sequentially acquired by the information acquisition means. If detected, determine that those persons were in and out of the area at the same time,
The person recognition apparatus according to claim 6, wherein:
さらに、前記グループ判定手段による判定結果に基づいて複数の人物間の関連性の評価し、各人物間の評価に基づいて同一グループらしい複数の人物を判定し、同一グループらしいと判定した複数の人物のうち何れかの人物のグループ情報に基づいて他の人物のグループ情報を更新する関連性判定手段を有する、
ことを特徴とする前記請求項6に記載の人物認識装置。
Furthermore, the relevance between a plurality of persons is evaluated based on the determination result by the group determining means, a plurality of persons that are likely to be the same group are determined based on the evaluation between the persons, and the plurality of persons that are determined to be likely to be the same group Relevance determining means for updating the group information of another person based on the group information of any one of
The person recognition apparatus according to claim 6, wherein:
前記関連性判定手段は、前記グループ判定手段により特別なグループに属する人物と集団行動していると判定された人物については、他の人物との関連性の評価をリセットする、
ことを特徴とする前記請求項13に記載の人物認識装置。
The relevance determining means resets the evaluation of relevance with other persons for the person determined to be in collective action with a person belonging to a special group by the group determining means.
The person recognition apparatus according to claim 13, wherein:
前記関連性判定手段は、前記情報取得手段により順次取得する各監視エリアの情報のうち前記エリアの出入口に相当する複数の監視エリアの情報から同時間帯に検出された複数の人物間の関連性を高く評価する、
ことを特徴とする前記請求項6に記載の人物認識装置。
The relevance determination means is a relevance relationship between a plurality of persons detected in the same time period from information of a plurality of monitoring areas corresponding to the entrances / exits of the area among information of each monitoring area sequentially acquired by the information acquisition means. Highly appreciated,
The person recognition apparatus according to claim 6, wherein:
人物を認識する人物認識装置に用いられる人物認識方法であって、
人物の生体情報を含む情報を取得し、
取得した情報から少なくとも1人分の生体情報を検出し、
検出した各生体情報と、グループ情報を対応づけて記憶手段に記憶されている少なくとも1人の登録者の生体情報とを照合することにより、前記取得した情報から検出した生体情報の人物を認識し、
順次認識された複数の人物を所定の条件に基づいてグループ候補に分類し、
前記グループ候補の各人物を前記記憶手段に記憶されている各人物のグループ情報に基づいてグループ分けし、
このグループ分けの結果を外部機器へ出力する、
ことを特徴とする人物認識方法。
A person recognition method used in a person recognition device for recognizing a person,
Get information including the biological information of the person,
Detecting at least one biometric information from the acquired information,
By recognizing each detected biometric information and biometric information of at least one registrant stored in the storage unit in association with the group information, the person of the biometric information detected from the acquired information is recognized. ,
A plurality of people recognized sequentially are classified into group candidates based on a predetermined condition,
Grouping each person of the group candidates based on group information of each person stored in the storage means,
Output the result of this grouping to an external device.
A person recognition method characterized by the above.
前記出力は、前記認識結果および前記グループ分けの結果を表示するための表示データを表示装置へ出力する処理である、
ことを特徴とする前記請求項16に記載の人物認識方法。
The output is a process of outputting display data for displaying the recognition result and the grouping result to a display device.
The person recognition method according to claim 16, wherein:
前記記憶手段には、登録者の生体情報に対応づけた種々の情報からなる属性情報をグループ情報として記憶しておき、
前記グループ分けは、前記グループ候補の各人物を前記記憶手段に記憶されている各人物の属性情報に基づいてグループ分けする、
ことを特徴とする前記請求項16に記載の人物認識方法。
In the storage means, attribute information consisting of various information associated with biometric information of the registrant is stored as group information,
In the grouping, each person of the group candidate is grouped based on attribute information of each person stored in the storage means.
The person recognition method according to claim 16, wherein:
さらに、順次認識される複数の人物間の関連性を評価し、各人物間の関連性の評価に基づいて前記記憶手段に記憶されている各人物のグループ情報を更新する、
ことを特徴とする前記請求項16に記載の人物認識方法。
Furthermore, the relevance between a plurality of persons recognized sequentially is evaluated, and the group information of each person stored in the storage means is updated based on the evaluation of the relevance between the persons.
The person recognition method according to claim 16, wherein:
さらに、前記グループ分けの結果に基づいて、前記認識された各人物を示す情報を各グループごとに管理し、
前記出力は、各グループごとに管理している前記認識された各人物を示す情報を出力する、
ことを特徴とする前記請求項16に記載の人物認識方法。
Further, based on the result of the grouping, information indicating each recognized person is managed for each group,
The output outputs information indicating each recognized person managed for each group.
The person recognition method according to claim 16, wherein:
人物を認識する人物認識装置に用いられる人物認識方法であって、
1つのエリア内における複数の監視エリアごとに、各監視エリアに存在している人物の生体情報を含む情報を順次取得し、
前記取得した各情報から少なくとも1人分の生体情報を検出し、
前記検出した各生体情報と、グループ情報を対応づけて記憶手段に記憶されている少なくとも1人の登録者の生体情報とを照合することにより、前記取得した情報から検出した各生体情報の人物を認識し、
前記取得した各監視エリアの情報と、その情報から検出された生体情報に対する認識結果とに基づいて、前記エリア内における複数の人物での集団行動を判定し、
前記集団行動の判定結果を外部機器へ出力する、
ことを特徴とする人物認識方法。
A person recognition method used in a person recognition device for recognizing a person,
For each of a plurality of monitoring areas in one area, information including biological information of a person existing in each monitoring area is sequentially acquired,
Detecting biometric information for at least one person from the acquired information,
By comparing each detected biometric information with the biometric information of at least one registrant stored in the storage unit in association with the group information, the person of each biometric information detected from the acquired information is identified. Recognized,
Based on the information of each acquired monitoring area and the recognition result for the biological information detected from the information, determine collective behavior in a plurality of persons in the area,
Outputting the determination result of the collective behavior to an external device;
A person recognition method characterized by the above.
前記集団行動の判定は、前記取得した1つの情報から複数の人物の生体情報が検出された場合、それらの複数の人物が接近した状態であることを判定する、
ことを特徴とする前記請求項21に記載の人物認識方法。
In the determination of the collective action, when biological information of a plurality of persons is detected from the acquired one information, it is determined that the plurality of persons are in an approaching state.
The person recognition method according to claim 21, wherein:
前記集団行動の判定は、順次取得した各情報から複数の人物の生体情報が所定期間以上継続して検出された場合、それらの人物が接近した状態で行動していると判定する、
ことを特徴とする前記請求項21に記載の人物認識方法。
In the determination of the collective action, when biometric information of a plurality of persons is continuously detected for a predetermined period or more from each sequentially acquired information, it is determined that the persons are acting in an approaching state,
The person recognition method according to claim 21, wherein:
前記集団行動の判定は、順次取得した各情報から同一グループに属する複数の人物の生体情報が所定期間以上継続的に検出された場合、それらの人物が接近した状態で行動していることを判定し、
前記出力は、接近した状態で行動していると判定された複数の人物が検出された監視エリアに対応づけられているレベルの警報を外部機器へ通知する、
ことを特徴とする前記請求項21に記載の人物認識方法。
In the determination of the collective action, when biometric information of a plurality of persons belonging to the same group is continuously detected for a predetermined period or more from each sequentially acquired information, it is determined that the persons are acting in an approaching state. And
The output notifies an external device of a level corresponding to a monitoring area in which a plurality of persons determined to behave in an approaching state are detected.
The person recognition method according to claim 21, wherein:
前記集団行動の判定は、順次取得した各情報から特定のグループに属する人物を含む複数の人物の生体情報が所定期間以上継続的に検出された場合、それらの人物が接近した状態で行動していることを判定し、
前記出力は、特定のグループに属する人物を含む複数の人物が接近した状態で行動していると判定した場合、当該特定のグループに対応づけられているレベルの警報を外部機器へ通知する、
ことを特徴とする前記請求項21に記載の人物認識方法。
The determination of the collective action is based on the fact that, when biometric information of a plurality of persons including persons belonging to a specific group is continuously detected from a sequentially acquired information for a predetermined period or longer, the persons are in the state of approaching each other. To determine that
When the output determines that a plurality of persons including persons belonging to a specific group are in an approaching state, the output notifies the external device of a level associated with the specific group.
The person recognition method according to claim 21, wherein:
前記集団行動の判定は、順次取得した各監視エリアの情報から同時間帯に同一グループに属する複数の人物の生体情報が検出された場合、それらの人物が当該エリア内に同じ時間帯に存在していたことを判定する、
ことを特徴とする前記請求項21に記載の人物認識方法。
In the determination of the collective action, when biometric information of a plurality of persons belonging to the same group is detected in the same time period from the sequentially acquired information of each monitoring area, those persons are present in the area at the same time period. To determine what it was,
The person recognition method according to claim 21, wherein:
前記集団行動の判定は、順次取得した各監視エリアの情報のうち前記エリアの出入口に相当する複数の監視エリアの情報から同時間帯に同一グループに属する複数の人物の生体情報が検出された場合、それらの人物が当該エリア内に同じ時間帯に出入していたことを判定する、
ことを特徴とする前記請求項21に記載の人物認識方法。
The determination of the collective action is performed when biometric information of a plurality of persons belonging to the same group is detected in the same time period from information of a plurality of monitoring areas corresponding to the entrance / exit of the area among information of each monitoring area acquired sequentially. , Determine that they were in and out of the area at the same time,
The person recognition method according to claim 21, wherein:
さらに、前記集団行動の判定結果に基づいて複数の人物間の関連性の評価し、各人物間の評価に基づいて同一グループらしい複数の人物を判定し、同一グループらしいと判定した複数の人物のうち何れかの人物のグループ情報に基づいて他の人物のグループ情報を更新する、
ことを特徴とする前記請求項21に記載の人物認識方法。
Further, the relevance between a plurality of persons is evaluated based on the determination result of the collective action, a plurality of persons that are likely to be the same group are determined based on the evaluation between the persons, and the plurality of persons that are determined to be likely to be the same group are determined. Update the group information of another person based on the group information of one of them,
The person recognition method according to claim 21, wherein:
さらに、前記集団行動の判定結果により特別なグループに属する人物と集団行動していると判定された人物については、他の人物との関連性の評価をリセットする、
ことを特徴とする前記請求項28に記載の人物認識方法。
Furthermore, for the person determined to be in a collective action with a person belonging to a special group based on the determination result of the collective action, reset the evaluation of relevance with other persons.
The person recognition method according to claim 28, wherein:
順次取得した各監視エリアの情報のうち前記エリアの出入口に相当する複数の監視エリアの情報から同時間帯に検出された複数の人物間の関連性は高く評価する、
ことを特徴とする前記請求項28に記載の人物認識方法。
The relevance between a plurality of persons detected in the same time period from the information of a plurality of monitoring areas corresponding to the entrances and exits of the area among the information of each monitoring area acquired sequentially is highly evaluated.
The person recognition method according to claim 28, wherein:
JP2007033950A 2006-02-15 2007-02-14 Person recognition device and person recognition method Active JP5172167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007033950A JP5172167B2 (en) 2006-02-15 2007-02-14 Person recognition device and person recognition method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006038266 2006-02-15
JP2006038266 2006-02-15
JP2007033950A JP5172167B2 (en) 2006-02-15 2007-02-14 Person recognition device and person recognition method

Publications (3)

Publication Number Publication Date
JP2007249953A true JP2007249953A (en) 2007-09-27
JP2007249953A5 JP2007249953A5 (en) 2009-10-22
JP5172167B2 JP5172167B2 (en) 2013-03-27

Family

ID=38594109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007033950A Active JP5172167B2 (en) 2006-02-15 2007-02-14 Person recognition device and person recognition method

Country Status (1)

Country Link
JP (1) JP5172167B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010002983A (en) * 2008-06-18 2010-01-07 Laurel Bank Mach Co Ltd Behavior management device
JP2010152661A (en) * 2008-12-25 2010-07-08 Nec Corp Method of measuring communication opportunity, device therefor, and program therefor
JP2010204912A (en) * 2009-03-03 2010-09-16 Fujitsu Ltd Safety holding system, and method and program for the same
JP2010268054A (en) * 2009-05-12 2010-11-25 Canon Inc Image processing apparatus, method of controlling the same, and program
JP2013114304A (en) * 2011-11-25 2013-06-10 Fujitsu Ltd Authentication program, authentication device and authentication method
JPWO2012011229A1 (en) * 2010-07-19 2013-09-09 ビーエルデーオリエンタル株式会社 Authentication device and authentication system
JP2013219477A (en) * 2012-04-06 2013-10-24 Seiko Epson Corp Information processing apparatus
JP2013254516A (en) * 2013-08-26 2013-12-19 Fujitsu Ltd Safety maintenance system, and method and program for the same
CN104145272A (en) * 2012-11-06 2014-11-12 英特尔公司 Determining social sentiment using physiological data
JP2016009363A (en) * 2014-06-25 2016-01-18 株式会社日立製作所 Authentication system using biological information
JP2016081250A (en) * 2014-10-15 2016-05-16 ソニー株式会社 Information processing device and information processing method
JPWO2017146161A1 (en) * 2016-02-26 2018-12-27 日本電気株式会社 Face matching system, face matching device, face matching method, and recording medium
JP2019028936A (en) * 2017-08-03 2019-02-21 日本電気株式会社 Information processing device, person identification information determination method, person identification information registration method, and program
WO2019224935A1 (en) * 2018-05-23 2019-11-28 三菱電機株式会社 Entry/exit management device
JPWO2018180588A1 (en) * 2017-03-27 2020-01-16 株式会社日立国際電気 Face image matching system and face image search system
WO2020148892A1 (en) * 2019-01-18 2020-07-23 日本電気株式会社 Information processing device
WO2020148891A1 (en) * 2019-01-18 2020-07-23 日本電気株式会社 Information processing device
WO2020179335A1 (en) * 2019-03-04 2020-09-10 パナソニックIpマネジメント株式会社 Gate open/close control device and gate open/close control method
US10952658B2 (en) * 2018-04-03 2021-03-23 Panasonic Intellectual Property Corporation Of America Information processing method, information processing device, and information processing system
WO2023188332A1 (en) * 2022-03-31 2023-10-05 富士通株式会社 Person identification device, person identification method, and person identification program
JP7371763B2 (en) 2019-09-05 2023-10-31 日本電気株式会社 Apparatus, method, system and program for generating a network of target persons
US11960586B2 (en) 2016-02-26 2024-04-16 Nec Corporation Face recognition system, face matching apparatus, face recognition method, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261605B1 (en) * 2020-01-20 2021-06-07 주식회사 에스비시스템즈 Passenger Recognition System Using Uneven Fog Computing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187352A (en) * 2001-12-14 2003-07-04 Nippon Signal Co Ltd:The System for detecting specified person
JP2004177997A (en) * 2002-11-22 2004-06-24 Toshiba Corp Figure search system and figure search method
JP2005341394A (en) * 2004-05-28 2005-12-08 Nikon Corp Image sorting apparatus, image sorting program, and electronic camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187352A (en) * 2001-12-14 2003-07-04 Nippon Signal Co Ltd:The System for detecting specified person
JP2004177997A (en) * 2002-11-22 2004-06-24 Toshiba Corp Figure search system and figure search method
JP2005341394A (en) * 2004-05-28 2005-12-08 Nikon Corp Image sorting apparatus, image sorting program, and electronic camera

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010002983A (en) * 2008-06-18 2010-01-07 Laurel Bank Mach Co Ltd Behavior management device
JP2010152661A (en) * 2008-12-25 2010-07-08 Nec Corp Method of measuring communication opportunity, device therefor, and program therefor
JP2010204912A (en) * 2009-03-03 2010-09-16 Fujitsu Ltd Safety holding system, and method and program for the same
JP2010268054A (en) * 2009-05-12 2010-11-25 Canon Inc Image processing apparatus, method of controlling the same, and program
JPWO2012011229A1 (en) * 2010-07-19 2013-09-09 ビーエルデーオリエンタル株式会社 Authentication device and authentication system
JP2013114304A (en) * 2011-11-25 2013-06-10 Fujitsu Ltd Authentication program, authentication device and authentication method
JP2013219477A (en) * 2012-04-06 2013-10-24 Seiko Epson Corp Information processing apparatus
CN104145272A (en) * 2012-11-06 2014-11-12 英特尔公司 Determining social sentiment using physiological data
JP2015502624A (en) * 2012-11-06 2015-01-22 インテル コーポレイション Judgment of social feelings using physiological data
JP2013254516A (en) * 2013-08-26 2013-12-19 Fujitsu Ltd Safety maintenance system, and method and program for the same
JP2016009363A (en) * 2014-06-25 2016-01-18 株式会社日立製作所 Authentication system using biological information
JP2016081250A (en) * 2014-10-15 2016-05-16 ソニー株式会社 Information processing device and information processing method
US9727777B2 (en) 2014-10-15 2017-08-08 Sony Interactive Entertainment Inc. Information processing devices and methods facilitating face-ID-based user login
JPWO2017146161A1 (en) * 2016-02-26 2018-12-27 日本電気株式会社 Face matching system, face matching device, face matching method, and recording medium
US11960586B2 (en) 2016-02-26 2024-04-16 Nec Corporation Face recognition system, face matching apparatus, face recognition method, and storage medium
JPWO2018180588A1 (en) * 2017-03-27 2020-01-16 株式会社日立国際電気 Face image matching system and face image search system
JP2019028936A (en) * 2017-08-03 2019-02-21 日本電気株式会社 Information processing device, person identification information determination method, person identification information registration method, and program
US10952658B2 (en) * 2018-04-03 2021-03-23 Panasonic Intellectual Property Corporation Of America Information processing method, information processing device, and information processing system
WO2019224935A1 (en) * 2018-05-23 2019-11-28 三菱電機株式会社 Entry/exit management device
JPWO2019224935A1 (en) * 2018-05-23 2021-02-12 三菱電機株式会社 Entrance / exit management device
JP7310833B2 (en) 2019-01-18 2023-07-19 日本電気株式会社 Information processing equipment
WO2020148892A1 (en) * 2019-01-18 2020-07-23 日本電気株式会社 Information processing device
WO2020148891A1 (en) * 2019-01-18 2020-07-23 日本電気株式会社 Information processing device
JPWO2020148891A1 (en) * 2019-01-18 2021-10-14 日本電気株式会社 Information processing device
JPWO2020148892A1 (en) * 2019-01-18 2021-10-14 日本電気株式会社 Information processing device
US11900727B2 (en) 2019-01-18 2024-02-13 Nec Corporation Information processing device
JP7310834B2 (en) 2019-01-18 2023-07-19 日本電気株式会社 Information processing equipment
JP2020144447A (en) * 2019-03-04 2020-09-10 パナソニックIpマネジメント株式会社 Gate opening/closing control device and gate opening/closing control method
JP7038293B2 (en) 2019-03-04 2022-03-18 パナソニックIpマネジメント株式会社 Gate open / close control device and gate open / close control method
WO2020179335A1 (en) * 2019-03-04 2020-09-10 パナソニックIpマネジメント株式会社 Gate open/close control device and gate open/close control method
JP7371763B2 (en) 2019-09-05 2023-10-31 日本電気株式会社 Apparatus, method, system and program for generating a network of target persons
WO2023188332A1 (en) * 2022-03-31 2023-10-05 富士通株式会社 Person identification device, person identification method, and person identification program

Also Published As

Publication number Publication date
JP5172167B2 (en) 2013-03-27

Similar Documents

Publication Publication Date Title
JP5172167B2 (en) Person recognition device and person recognition method
EP1821237B1 (en) Person identification device and person identification method
JP5339476B2 (en) Image processing system, fever tracking method, image processing apparatus, control method thereof, and control program
KR100808316B1 (en) Person searching device, person searching method and access control system
JP4984728B2 (en) Subject collation device and subject collation method
WO2015136938A1 (en) Information processing method and information processing system
JP5740210B2 (en) Face image search system and face image search method
JP5793353B2 (en) Face image search system and face image search method
US9477876B2 (en) Person recognition apparatus and method thereof
US20080080748A1 (en) Person recognition apparatus and person recognition method
JP7196932B2 (en) Information processing device, information processing method, and program
JP2007334623A (en) Face authentication device, face authentication method, and access control device
JP2005084815A (en) Face recognition device, face recognition method and passage control apparatus
JP2002183734A (en) Face authentication device and face authentication method
JP5982557B2 (en) Video surveillance system and image search system
WO2019138838A1 (en) Facial recognition device
JP4862518B2 (en) Face registration device, face authentication device, and face registration method
JP5143780B2 (en) Monitoring device and monitoring method
JP2006031103A (en) Biometric system, biometric method and passing control device
JP2019153920A (en) Information processing apparatus, control method thereof, subject detection system, and program
JP2000339466A (en) Data retaining device and face image retaining device
JP2021106330A (en) Information processing apparatus, information processing method, and program
JP7379213B2 (en) Image matching device
US20210396592A1 (en) Method and Apparatus for Non-Contact Temperature Measurement and Analysis for Detection of Symptomatic Conditions
KR102489125B1 (en) Access control system capable of fingerprint recognition and body temperature measurement

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121226

R151 Written notification of patent or utility model registration

Ref document number: 5172167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3