JP5398301B2 - Traffic management device and traffic management method - Google Patents

Traffic management device and traffic management method Download PDF

Info

Publication number
JP5398301B2
JP5398301B2 JP2009048116A JP2009048116A JP5398301B2 JP 5398301 B2 JP5398301 B2 JP 5398301B2 JP 2009048116 A JP2009048116 A JP 2009048116A JP 2009048116 A JP2009048116 A JP 2009048116A JP 5398301 B2 JP5398301 B2 JP 5398301B2
Authority
JP
Japan
Prior art keywords
face
unit
location
traffic management
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009048116A
Other languages
Japanese (ja)
Other versions
JP2010204832A (en
Inventor
俊雄 佐藤
寛 助川
光威 長谷部
廣大 齊藤
宏明 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009048116A priority Critical patent/JP5398301B2/en
Publication of JP2010204832A publication Critical patent/JP2010204832A/en
Application granted granted Critical
Publication of JP5398301B2 publication Critical patent/JP5398301B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラにより取得した人物の顔画像に基づいて撮影対象者の顔を認識し、特定のエリアへの通行を管理する通行管理装置、及び通行管理方法に関する。   The present invention relates to a traffic management device and a traffic management method for recognizing a face of a person to be photographed based on a human face image acquired by a camera and managing traffic to a specific area.

近年、カメラにより人物の顔画像を撮像し、撮像した顔画像に基づいて人物の認識を行う顔認識装置が多数実用化されている。このような顔認識装置を利用し、特定のエリアへの人物の出入場を管理する通行制御装置(出入場管理装置)も実用化されている。   2. Description of the Related Art In recent years, many face recognition apparatuses that capture a human face image with a camera and recognize a person based on the captured face image have been put into practical use. A traffic control device (entrance / exit management device) that manages the entrance / exit of a person into a specific area using such a face recognition device has been put into practical use.

また、入場側の改札と出場側の改札とに顔認識装置を利用し、人物の顔を認識し、入場と出場とで対応付けを行ない、改札処理を行う改札システムが提供されている(例えば特許文献1参照)。   There is also provided a ticket gate system that uses a face recognition device for the entrance side ticket gate and the entrance side ticket gate, recognizes the face of a person, associates the entrance and exit, and performs the ticket gate processing (for example, Patent Document 1).

特開2007―241853号公報JP 2007-241853 A

上記した改札システム及び出入場管理装置は、人物が特定エリアに入場する場合、カメラにより人物の顔画像を撮像し、顔画像から顔特徴を抽出し、記憶する。出入場管理装置は、人物が特定エリアから出場する場合、再びカメラにより人物の顔画像を撮像し、顔画像から顔特徴を抽出し、記憶している顔特徴と一致するものが有るか否か対応付けを行なう。   When the person enters the specific area, the ticket gate system and the entrance / exit management apparatus capture a face image of the person with a camera, extract a facial feature from the face image, and store the face feature. When a person enters from a specific area, the entrance / exit management device captures the person's face image again with the camera, extracts the face feature from the face image, and whether there is a match with the stored face feature. Perform the association.

しかし、特定エリアを通行する人物が多い場合、記憶している顔特徴が多数存在する為、対応付けの処理に膨大な時間がかかるという問題がある。この結果、処理がおいつかず、エラーを出力する可能性があるという問題がある。   However, when there are many people passing through a specific area, there are many face features stored, and there is a problem that it takes an enormous amount of time for association processing. As a result, there is a problem in that the process is not successful and an error may be output.

本発明の一形態における目的は、短い処理時間で、且つ、高精度に人物の通行を管理する事ができる通行管理装置、及び通行管理方法を提供することにある。   An object of one embodiment of the present invention is to provide a traffic management apparatus and a traffic management method capable of managing the traffic of a person with a short processing time and with high accuracy.

本発明の一実施形態に係る通行管理装置は、特定エリアの第1の場所を通過する人物の少なくとも顔を含む画像が入力される第1の画像入力手段と、前記第1の画像入力手段から入力された画像から顔画像を検出する第1の顔検出手段と、前記第1の顔検出手段により検出した顔画像から第1の顔特徴情報を抽出する第1の顔特徴抽出手段と、前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報を記憶する記憶手段と、前記記憶手段に記憶されている第1の顔特徴情報を選択的に削除する選別手段と、を具備する。
A traffic management device according to an embodiment of the present invention includes: a first image input unit that inputs an image including at least a face of a person passing through a first location in a specific area; and the first image input unit. First face detection means for detecting a face image from the input image; first face feature extraction means for extracting first face feature information from the face image detected by the first face detection means; Storage means for storing the first facial feature information extracted by the first facial feature extraction means, and selection means for selectively deleting the first facial feature information stored in the storage means. To do.

この発明の一形態によれば、短い処理時間で、且つ、高精度に人物の通行を管理する事ができる通行管理装置、及び通行管理方法を提供することができる。   According to one aspect of the present invention, it is possible to provide a traffic management device and a traffic management method capable of managing the traffic of a person with a short processing time and with high accuracy.

図1は、本発明の第1の実施形態に係る通行管理装置が適用される通行管理システムの構成例を概略的に説明するためのブロック図である。FIG. 1 is a block diagram schematically illustrating a configuration example of a traffic management system to which the traffic management device according to the first embodiment of the present invention is applied. 図2は、図1に示す通行管理システムが適用された特定エリアの例を概略的に説明する為の説明図である。FIG. 2 is an explanatory diagram for schematically explaining an example of a specific area to which the traffic management system shown in FIG. 1 is applied. 図3は、カメラにより撮像される画像データの一例について説明する為の説明図である。FIG. 3 is an explanatory diagram for explaining an example of image data captured by the camera. 図4は、顔領域検出部により行われる顔領域の検出処理について説明する為のフローチャートである。FIG. 4 is a flowchart for explaining the face area detection processing performed by the face area detection unit. 図5は、この顔領域の検出処理について模式的に説明する為の説明図である。FIG. 5 is an explanatory diagram for schematically explaining the face area detection processing. 図6は、顔特徴記憶部により記憶されているデータの例について説明する為の説明図である。FIG. 6 is an explanatory diagram for explaining an example of data stored in the face feature storage unit. 図7は、照合部により行われる照合処理について説明する為のフローチャートである。FIG. 7 is a flowchart for explaining the matching process performed by the matching unit. 図8は、図1に示す通行管理装置の表示部に表示される通行確認画面の例について説明する為の説明図である。FIG. 8 is an explanatory diagram for explaining an example of a traffic confirmation screen displayed on the display unit of the traffic management device shown in FIG. 1. 図9は、本発明の第2の実施形態に係る通行管理装置が適用される通行管理システムの構成例を概略的に説明するためのブロック図である。FIG. 9 is a block diagram for schematically explaining a configuration example of a traffic management system to which the traffic management device according to the second exemplary embodiment of the present invention is applied. 図10は、本発明の第3の実施形態に係る通行管理装置が適用される通行管理システムの構成例を概略的に説明するためのブロック図である。FIG. 10 is a block diagram for schematically explaining a configuration example of a traffic management system to which the traffic management device according to the third exemplary embodiment of the present invention is applied. 図11は、図10に示す通行管理装置の表示部に表示される通行確認画面の例について説明する為の説明図である。FIG. 11 is an explanatory diagram for describing an example of a traffic confirmation screen displayed on the display unit of the traffic management device illustrated in FIG. 10. 図12は、本発明の第4の実施形態に係る通行管理装置が適用される通行管理システムの構成例を概略的に説明するためのブロック図である。FIG. 12 is a block diagram for schematically explaining a configuration example of a traffic management system to which the traffic management device according to the fourth exemplary embodiment of the present invention is applied. 図13は、図12に示す通行管理装置の表示部に表示される通行確認画面の例について説明する為の説明図である。FIG. 13 is an explanatory diagram for describing an example of a traffic confirmation screen displayed on the display unit of the traffic management device illustrated in FIG. 12. 図14は、本発明の第5の実施形態に係る通行管理装置が適用される通行管理システムの構成例を概略的に説明するためのブロック図である。FIG. 14 is a block diagram schematically illustrating a configuration example of a traffic management system to which the traffic management device according to the fifth exemplary embodiment of the present invention is applied. 図15は、本発明の第5の実施形態に係る通行管理装置が適用される通行管理システムの他の構成例を概略的に説明するためのブロック図である。FIG. 15 is a block diagram for schematically explaining another configuration example of the traffic management system to which the traffic management device according to the fifth exemplary embodiment of the present invention is applied.

以下、図を参照しながら、本発明の第1の実施形態に係る通行管理装置、及び通行管理方法について詳細に説明する。
図1は、本発明の第1の実施形態に係る通行管理装置が適用される通行管理システム1の構成例を概略的に説明するためのブロック図である。通行管理システム1は、例えば、特定のエリアに通行する人物の状態を管理する。
Hereinafter, the traffic management device and traffic management method according to the first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram for schematically explaining a configuration example of a traffic management system 1 to which the traffic management device according to the first exemplary embodiment of the present invention is applied. For example, the traffic management system 1 manages the state of a person who passes through a specific area.

図1に示すように、通行管理システム1は、撮像端末110、120、130、窓口端末140、及び通行管理装置150を備えている。撮像端末110及び120は、特定エリアの通行場所(第1の場所)に設けられている。また、撮像端末130及び窓口端末140は、特定エリアの通行場所(第1の場所とは異なる第2の場所)に設けられていると仮定する。   As illustrated in FIG. 1, the traffic management system 1 includes imaging terminals 110, 120, and 130, a window terminal 140, and a traffic management device 150. The imaging terminals 110 and 120 are provided at a passage place (first place) in a specific area. In addition, it is assumed that the imaging terminal 130 and the window terminal 140 are provided at a passage place (a second place different from the first place) in a specific area.

撮像端末110、120、130、及び窓口端末140は、例えばLANなどにより通行管理装置150に接続されている。通行管理装置150は、撮像端末110、120、130、及び窓口端末140とデータの送受信を行なう事ができる。   The imaging terminals 110, 120, and 130 and the window terminal 140 are connected to the traffic management device 150 by, for example, a LAN. The traffic management device 150 can transmit and receive data to and from the imaging terminals 110, 120, and 130 and the window terminal 140.

撮像端末110、120、及び130は、それぞれ、カメラ111、121、及び131を備えている。図2に示すように、撮像端末110は、場所Aのある通路Aに設けられている。また、撮像端末120は、場所Bのある通路Bに設けられている。またさらに、撮像端末130は、場所Cのある通路Cに設けられている。   The imaging terminals 110, 120, and 130 include cameras 111, 121, and 131, respectively. As shown in FIG. 2, the imaging terminal 110 is provided in the passage A where the location A is located. In addition, the imaging terminal 120 is provided in the passage B where the location B is located. Furthermore, the imaging terminal 130 is provided in the passage C where the place C is located.

窓口端末140は、係員の操作に基づいて認証に用いる画像を通路を通行する人物から取得する。窓口端末140は、カメラ141を備えている。窓口端末140は、場所Cの非常通路に設けられている窓口に設置されている。また、窓口端末140は、表示部142を備えている。表示部142は、通行管理装置150からの制御に基づき、種々の情報を表示する。   The window terminal 140 acquires an image used for authentication from a person passing through the passage based on an operation of an attendant. The window terminal 140 includes a camera 141. The window terminal 140 is installed at a window provided in the emergency passage of the place C. The window terminal 140 includes a display unit 142. The display unit 142 displays various information based on control from the traffic management device 150.

カメラ111、121、131、及び141は、例えば、industrial television(ITV)カメラなどにより構成される。カメラ111、121、131、及び141は、撮像した画像を図示しないA/D変換器によりディジタル変換し、通行管理装置150に送信する。   The cameras 111, 121, 131, and 141 are configured by, for example, an industrial television (ITV) camera. The cameras 111, 121, 131, and 141 digitally convert captured images using an A / D converter (not shown) and transmit the images to the traffic management device 150.

カメラ111は、通路Aを通行する人物の画像を取得する。カメラ121は、通路Bを通行する人物の画像を取得する。カメラ131は、通路Cを通行する人物の画像を取得する。カメラ141は、窓口を訪れる人物の画像を取得する。   The camera 111 acquires an image of a person passing through the passage A. The camera 121 acquires an image of a person passing through the passage B. The camera 131 acquires an image of a person passing through the passage C. The camera 141 acquires an image of a person visiting the window.

カメラ111、121、131、及び141は、例えば、図3に示すように、横方向512画素、縦方向512画素の濃淡情報として画像データを取得する。   For example, as illustrated in FIG. 3, the cameras 111, 121, 131, and 141 acquire image data as grayscale information of 512 pixels in the horizontal direction and 512 pixels in the vertical direction.

通行管理装置150は、顔領域検出部151、152、153、顔特徴抽出部154、155、及び156を備えている。また、通行管理装置150は、顔特徴記憶部157、照合部158、照合判定部159、選別部160、選別顔特徴記憶部161、表示部162、照合部163、及び照合判定部164を備えている。またさらに、通行管理装置150は、インターフェース165、166、及び167を備えている。   The traffic management device 150 includes face area detection units 151, 152, and 153, and face feature extraction units 154, 155, and 156. Further, the traffic management device 150 includes a face feature storage unit 157, a collation unit 158, a collation determination unit 159, a selection unit 160, a selected face feature storage unit 161, a display unit 162, a collation unit 163, and a collation determination unit 164. Yes. Furthermore, the traffic management device 150 includes interfaces 165, 166, and 167.

インターフェース165、166、及び167は、それぞれ画像入力手段として機能する。インターフェース165及び166は、撮像端末110、撮像端末120、及び撮像端末130などの撮像端末に接続されている。インターフェース165及び166は、撮像端末110、撮像端末120、及び撮像端末130などから画像を受信する。インターフェース167は、窓口端末140に接続されている。インターフェース167は、窓口端末140から画像を受信する。   The interfaces 165, 166, and 167 each function as an image input unit. The interfaces 165 and 166 are connected to imaging terminals such as the imaging terminal 110, the imaging terminal 120, and the imaging terminal 130. The interfaces 165 and 166 receive images from the imaging terminal 110, the imaging terminal 120, the imaging terminal 130, and the like. The interface 167 is connected to the window terminal 140. The interface 167 receives an image from the window terminal 140.

顔領域検出部151、152、及び153は、顔検出手段として機能する。顔領域検出部151、152、及び153は、それぞれ、インターフェース165、166、及び167に入力された入力画像において人物の顔が写っている領域(顔領域)を検出する。   The face area detection units 151, 152, and 153 function as face detection means. The face area detection units 151, 152, and 153 detect areas (face areas) in which a person's face is shown in the input images input to the interfaces 165, 166, and 167, respectively.

顔領域検出部151、152、及び153は、たとえば、入力画像において、あらかじめ用意された標準顔パターン(顔検出テンプレート)を移動させながら相関値を求めることにより、顔領域を検出する。ここでは、顔領域検出部151、152、及び153は、最も高い相関値が算出された位置を顔領域として検出する。   For example, the face area detection units 151, 152, and 153 detect the face area by obtaining a correlation value while moving a standard face pattern (face detection template) prepared in advance in the input image. Here, the face area detection units 151, 152, and 153 detect the position where the highest correlation value is calculated as the face area.

図4は、顔領域検出部151、152、及び153により行われる顔領域の検出処理について説明する為のフローチャートである。図5は、この顔領域の検出処理について模式的に説明する為の説明図である。   FIG. 4 is a flowchart for explaining the face area detection processing performed by the face area detection units 151, 152, and 153. FIG. 5 is an explanatory diagram for schematically explaining the face area detection processing.

顔領域検出部151、152、及び153は、あらかじめ用意されたサイズSの異なる複数の顔検出テンプレートGs(i,j)を移動させながら相関値を求めることにより、顔領域を検出する。即ち、顔検出テンプレートGsは、例えば、S=1、S=2、・・・S=10のようにサイズの数だけ存在する。   The face area detection units 151, 152, and 153 detect a face area by obtaining a correlation value while moving a plurality of face detection templates Gs (i, j) prepared in different sizes S. That is, there are as many face detection templates Gs as there are sizes, for example, S = 1, S = 2,... S = 10.

顔領域検出部151、152、及び153は、まず、S=1のサイズの顔検出テンプレートGs(i,j)を選択する(ステップS11)。   The face area detection units 151, 152, and 153 first select a face detection template Gs (i, j) having a size of S = 1 (step S11).

顔領域検出部151、152、及び153は、顔検出テンプレートGs(i,j)を設置する場合のY座標を0に設定する(ステップS12)。   The face area detection units 151, 152, and 153 set the Y coordinate when the face detection template Gs (i, j) is set to 0 (step S12).

顔領域検出部151、152、及び153は、顔検出テンプレートGs(i,j)を設置する場合のX座標を0に設定する(ステップS13)。   The face area detection units 151, 152, and 153 set the X coordinate when the face detection template Gs (i, j) is set to 0 (step S13).

顔領域検出部151、152、及び153は、顔検出テンプレートが設置されている領域を局所領域とする。顔領域検出部151、152、及び153は、局所領域内の入力画像f(x,y)と顔検出テンプレートGs(i,j)との相関Ms(x,y)を計算する(ステップS14)。なお、顔領域検出部151、152、及び153は、数式1に示すような計算式により相関Ms(x,y)を計算する。

Figure 0005398301
The face area detection units 151, 152, and 153 set the area where the face detection template is installed as a local area. The face area detection units 151, 152, and 153 calculate a correlation Ms (x, y) between the input image f (x, y) in the local area and the face detection template Gs (i, j) (step S14). . Note that the face area detection units 151, 152, and 153 calculate the correlation Ms (x, y) using the calculation formula shown in Formula 1.
Figure 0005398301

顔領域検出部151、152、及び153は、相関Ms(x,y)と予め定めることが出来る顔領域を検出する為の閾値とを比較する(ステップS15)。ここで、相関Ms(x,y)が閾値以上であると判定した場合、顔領域検出部151、152、及び153は、顔検出テンプレートGs(i,j)が設置されている領域を顔領域と判定する。この場合、顔領域検出部151、152、及び153は、顔領域の座標及びサイズに関する情報(x,y,s)を結果として後段の顔特徴抽出部に出力する(ステップS16)。   The face area detection units 151, 152, and 153 compare the correlation Ms (x, y) with a threshold value for detecting a face area that can be determined in advance (step S15). Here, when it is determined that the correlation Ms (x, y) is equal to or greater than the threshold, the face area detection units 151, 152, and 153 determine the area where the face detection template Gs (i, j) is installed as the face area. Is determined. In this case, the face area detection units 151, 152, and 153 output information (x, y, s) relating to the coordinates and size of the face area to the subsequent face feature extraction unit as a result (step S16).

相関と閾値との比較を行うと、顔領域検出部151、152、及び153は、顔検出テンプレートGs(i,j)のX座標の値に1を加算する(ステップS17)。   When the correlation is compared with the threshold value, the face area detection units 151, 152, and 153 add 1 to the value of the X coordinate of the face detection template Gs (i, j) (step S17).

ここで、顔領域検出部151、152、及び153は、顔検出テンプレートGs(i,j)のX座標が入力画像の幅(WIDTH)を超えているか否か判定する(ステップS18)。顔検出テンプレートGs(i,j)のX座標が入力画像の幅(WIDTH)を超えていない場合(ステップS18、NO)、顔領域検出部151、152、及び153は、ステップS14にループする。   Here, the face area detection units 151, 152, and 153 determine whether or not the X coordinate of the face detection template Gs (i, j) exceeds the width (WIDTH) of the input image (step S18). When the X coordinate of the face detection template Gs (i, j) does not exceed the width (WIDTH) of the input image (step S18, NO), the face area detection units 151, 152, and 153 loop to step S14.

顔検出テンプレートGs(i,j)のX座標が入力画像の幅(WIDTH)を超えている場合(ステップS18、YES)、顔領域検出部151、152、及び153は、顔検出テンプレートGs(i,j)のY座標の値に1を加算する(ステップS19)。   When the X coordinate of the face detection template Gs (i, j) exceeds the width (WIDTH) of the input image (step S18, YES), the face area detection units 151, 152, and 153 determine the face detection template Gs (i , J) is added to the Y coordinate value (step S19).

ここで、顔領域検出部151、152、及び153は、顔検出テンプレートGs(i,j)のY座標が入力画像の高さ(HEIGHT)を超えているか否か判定する(ステップS20)。顔検出テンプレートGs(i,j)のY座標が入力画像の高さ(HEIGHT)を超えていない場合(ステップS20、NO)、顔領域検出部151、152、及び153は、ステップS13にループする。   Here, the face area detection units 151, 152, and 153 determine whether or not the Y coordinate of the face detection template Gs (i, j) exceeds the height (HEIGHT) of the input image (step S20). If the Y coordinate of the face detection template Gs (i, j) does not exceed the height (HEIGHT) of the input image (step S20, NO), the face area detection units 151, 152, and 153 loop to step S13. .

顔検出テンプレートGs(i,j)のY座標が入力画像の高さ(HEIGHT)を超えている場合(ステップS20、YES)、顔領域検出部151、152、及び153は、顔検出テンプレートGs(i,j)のサイズを変更する。即ち、顔領域検出部151、152、及び153は、Sの値に1を加算する(ステップS21)
ここで、顔領域検出部151、152、及び153は、Sの値に対応するサイズの顔検出テンプレートGs(i,j)が存在するか否か判定する(ステップS22)。Sの値に対応するサイズの顔検出テンプレートGs(i,j)が存在する場合(ステップS22、YES)、顔領域検出部151、152、及び153は、ステップS12にループする。
When the Y coordinate of the face detection template Gs (i, j) exceeds the height (HEIGHT) of the input image (step S20, YES), the face area detection units 151, 152, and 153 detect the face detection template Gs ( Change the size of i, j). That is, the face area detection units 151, 152, and 153 add 1 to the value of S (step S21).
Here, the face area detection units 151, 152, and 153 determine whether or not a face detection template Gs (i, j) having a size corresponding to the value of S exists (step S22). When the face detection template Gs (i, j) having a size corresponding to the value of S exists (step S22, YES), the face area detection units 151, 152, and 153 loop to step S12.

即ち、図5に示すように、顔領域検出部151、152、及び153は、顔検出テンプレートを入力画像中で移動させ、各座標における相関を計算する。また、選択している顔検出テンプレートにより顔領域を検出することが出来ない場合、顔領域検出部151、152、及び153は、顔検出テンプレートのサイズを切り替え、顔領域の検出処理を行う。   That is, as shown in FIG. 5, the face area detection units 151, 152, and 153 move the face detection template in the input image and calculate the correlation at each coordinate. When the face area cannot be detected by the selected face detection template, the face area detection units 151, 152, and 153 switch the size of the face detection template and perform face area detection processing.

Sの値に対応するサイズの顔検出テンプレートGs(i,j)が存在しない場合(ステップS22、NO)、顔領域検出部151、152、及び153は、当該入力画像に対する顔領域の検出処理を終了する。   When the face detection template Gs (i, j) having a size corresponding to the value of S does not exist (step S22, NO), the face area detection units 151, 152, and 153 perform face area detection processing on the input image. finish.

顔領域を検出する方法は、種々の方法があり、上記した方法に限定されない。顔領域検出部は、例えば、固有空間法、または部分空間法などの他の顔領域を検出する為の方法を用いても実現することが出来る。   There are various methods for detecting the face area, and the method is not limited to the above-described method. The face area detection unit can also be realized by using another method for detecting a face area such as eigenspace method or subspace method.

顔特徴抽出部154、155、及び156は、顔特徴抽出手段として機能する。顔特徴抽出部154、155、及び156は、顔領域検出部により検出した顔領域の画像(顔画像)に基づいて顔特徴情報H(x,y)を抽出する。   The face feature extraction units 154, 155, and 156 function as face feature extraction means. The face feature extraction units 154, 155, and 156 extract face feature information H (x, y) based on the face area image (face image) detected by the face area detection unit.

顔特徴抽出部154、155、及び156は、顔画像を、例えば、横32画素、縦32画素、輝度値の最高値255、且つ、輝度値の最低値0の画像に変換する。これにより、顔特徴抽出部154、155、及び156は、顔特徴情報を抽出する。   The face feature extraction units 154, 155, and 156 convert the face image into, for example, an image having horizontal 32 pixels, vertical 32 pixels, the highest luminance value 255, and the lowest luminance value 0. Thereby, the face feature extraction units 154, 155, and 156 extract the face feature information.

図1に示す顔特徴抽出部154は、上記した処理により抽出した顔特徴情報を顔特徴記憶部157に送信する。   The face feature extraction unit 154 shown in FIG. 1 transmits the face feature information extracted by the above processing to the face feature storage unit 157.

顔特徴記憶部157は、顔特徴抽出部154から受信する顔特徴情報を記憶する。即ち、顔特徴記憶部157は、入力側の撮像端末のカメラにより取得された顔画像に基づいて抽出された顔特徴情報を記憶する。   The face feature storage unit 157 stores the face feature information received from the face feature extraction unit 154. That is, the face feature storage unit 157 stores the face feature information extracted based on the face image acquired by the camera of the input-side imaging terminal.

図6は、顔特徴記憶部157により記憶されているデータの例について説明する為の説明図である。図6に示すように、顔特徴記憶部157は、IDデータ、通行場所を示す場所情報、通行時間を示す情報、及び顔特徴情報を1つのカテゴリの登録データRc(i,j)とし、複数の登録データを記憶する。なお、照合部158から登録データを参照する場合、照合部158は、カテゴリCを値で指定し、照合に用いるカテゴリを選択する。   FIG. 6 is an explanatory diagram for explaining an example of data stored in the face feature storage unit 157. As illustrated in FIG. 6, the face feature storage unit 157 includes ID data, location information indicating a passage location, information indicating a passage time, and face feature information as registration data Rc (i, j) of one category, The registration data is stored. In addition, when referring to registration data from the collation part 158, the collation part 158 designates the category C with a value, and selects the category used for collation.

通行管理装置150は、第1の場所に設置されている撮像端末により撮像された画像をインターフェース165により受信する。通行管理装置150は、第1の場所に設置されている撮像端末から入力された入力画像に基づき、顔特徴情報(第1の顔特徴情報)を抽出する。通行管理装置150は、抽出した顔特徴情報を顔特徴記憶部157に記憶する。この場合、通行管理装置150は、連番情報を自動的に発生させ、IDとして記憶する。   The traffic management device 150 receives an image captured by the imaging terminal installed in the first place via the interface 165. The traffic management device 150 extracts face feature information (first face feature information) based on an input image input from an imaging terminal installed in the first place. The traffic management device 150 stores the extracted face feature information in the face feature storage unit 157. In this case, the traffic management device 150 automatically generates serial number information and stores it as an ID.

また、通行管理装置150は、第1の場所に設置されている撮像端末により画像を撮像した時間に基づいて通行時間(第1の場所の通行時間)を特定し、通行時間を示す情報を顔特徴記憶部157に記憶する。またさらに、通行管理装置150は、画像を撮像した撮像端末が設置されている場所、即ち、第1の場所を示す場所情報(第1の場所情報)を顔特徴記憶部157に記憶する。   Further, the traffic management device 150 identifies the traffic time (the traffic time of the first location) based on the time when the image is captured by the imaging terminal installed in the first location, and displays information indicating the traffic time as a face. Store in the feature storage unit 157. Furthermore, the traffic management device 150 stores in the face feature storage unit 157 the location where the imaging terminal that captured the image is installed, that is, location information indicating the first location (first location information).

また、通行管理装置150は、第2の場所に設置されている撮像端末から入力された入力画像に基づき、顔特徴情報(第2の顔特徴情報)を抽出する。照合部158は、第2の場所に設置されている撮像端末により撮像された画像に基づいて抽出された顔特徴情報と、顔特徴記憶部157に記憶されている登録データとで照合を行い、類似度を算出する。   Further, the traffic management device 150 extracts face feature information (second face feature information) based on the input image input from the imaging terminal installed in the second place. The collation unit 158 performs collation between the facial feature information extracted based on the image captured by the imaging terminal installed in the second place and the registration data stored in the facial feature storage unit 157, Calculate similarity.

図7は、照合部158により行われる照合処理について説明する為のフローチャートである。
照合部158は、まず、カテゴリを示す情報であるCの値を0に設定する。(ステップS31)。
FIG. 7 is a flowchart for explaining the matching process performed by the matching unit 158.
The collation unit 158 first sets the value of C, which is information indicating a category, to 0. (Step S31).

照合部158は、顔特徴記憶部157に記憶されている登録データのうちの、カテゴリを示す情報がCであるカテゴリの登録データRc(i,j)と、第2の場所に設置されている撮像端末により撮像された画像に基づいて抽出された顔特徴情報H(x,y)とを照合し、類似度simcを算出する(ステップS32)。   The collation unit 158 is installed at the second place with the registration data Rc (i, j) of the category whose information indicating the category is C among the registration data stored in the face feature storage unit 157. The facial feature information H (x, y) extracted based on the image captured by the imaging terminal is collated to calculate the similarity degree simc (step S32).

照合部158は、この場合、数式2に示すように、相関を求めることにより類似度simcを算出する。

Figure 0005398301
In this case, the collation unit 158 calculates the similarity simc by obtaining the correlation as shown in Equation 2.
Figure 0005398301

照合部158は、1つの登録データと顔特徴情報との類似度simcを、例えば図示しないRAMメモリに出力する(ステップS33)。   The collation unit 158 outputs the similarity degree simc between one piece of registered data and face feature information, for example, to a RAM memory (not shown) (step S33).

照合部158は、カテゴリを示す情報であるCの値に1を加算する(ステップS34)。   The collation unit 158 adds 1 to the value C, which is information indicating the category (step S34).

ここで、照合部158は、顔特徴記憶部157に記憶されている全てのカテゴリの登録データについて類似度の算出が行なわれたか否か判定する(ステップS35)。   Here, the collation unit 158 determines whether or not the similarity has been calculated for the registration data of all categories stored in the face feature storage unit 157 (step S35).

顔特徴記憶部157に記憶されている全てのカテゴリの登録データについて類似度の算出が行なわれていないと判定した場合(ステップS35、NO)、照合部158は、ステップS32にループする。   When it is determined that the similarity is not calculated for the registration data of all categories stored in the face feature storage unit 157 (NO in step S35), the collation unit 158 loops to step S32.

顔特徴記憶部157に記憶されている全てのカテゴリの登録データについて類似度の算出が行なわれたと判定した場合(ステップS35、YES)、照合部158は、算出した中で最も値の大きな類似度(最大の類似度)と、この類似度の算出に用いられた登録データのカテゴリのCの値とを照合判定部159に出力する(ステップS36)。   When it is determined that the similarity has been calculated for all the category registration data stored in the face feature storage unit 157 (step S35, YES), the matching unit 158 has the highest similarity calculated. (Maximum similarity) and the value C of the category of the registered data used for calculating the similarity are output to the collation determination unit 159 (step S36).

なお、入力画像に基づく顔特徴情報と、登録されている顔特徴情報とを照合する方法は、種々の方法が存在し、上記した方法に限定されない。   There are various methods for collating the facial feature information based on the input image with the registered facial feature information, and the method is not limited to the method described above.

照合判定部159は、照合部158から出力された結果、即ち、最大の類似度とCの値とに基づき、入退場の管理についての最終判断を行う。照合判定部159は、最大の類似度と、予め定められている閾値とで比較を行う。   The collation determination unit 159 makes a final determination regarding entrance / exit management based on the result output from the collation unit 158, that is, the maximum similarity and the value of C. The collation determination unit 159 compares the maximum similarity with a predetermined threshold value.

照合判定部159は、最大の類似度が閾値以上である場合、「照合成功」と判定する。この場合、通行管理装置150は、特定のエリアの第1の場所を通行した人物が、第2の場所を通行したと判断する。照合判定部159は、「照合成功」という判定結果と、類似度と一緒に受信したCの値とを選別部160に出力する。   The collation determination unit 159 determines that “collation is successful” when the maximum similarity is equal to or greater than the threshold. In this case, the traffic management device 150 determines that the person who has passed the first place in the specific area has passed the second place. The collation determination unit 159 outputs the determination result “collation success” and the value of C received together with the similarity to the selection unit 160.

また、照合判定部159は、最大の類似度が閾値未満である場合、「照合失敗」と判定する。即ち、照合部158及び照合判定部159は、顔特徴記憶部157により記憶されている顔特徴情報と顔特徴抽出部により抽出された顔特徴情報とを照合する照合手段として機能する。   The collation determination unit 159 determines “collation failure” when the maximum similarity is less than the threshold. That is, the collation unit 158 and the collation determination unit 159 function as a collation unit that collates the face feature information stored in the face feature storage unit 157 and the face feature information extracted by the face feature extraction unit.

選別部160は、選別手段として機能する。選別部160は、人物の通行の状態を管理する。選別顔特徴記憶部161は、特定のエリアに滞在中の人物の登録データを記憶する。   The sorting unit 160 functions as a sorting unit. The selection unit 160 manages the traffic state of the person. The selected face feature storage unit 161 stores registration data of a person staying in a specific area.

顔特徴記憶部157は、顔特徴情報を受信する毎に、登録データを選別顔特徴記憶部161にコピーする。なお、顔特徴記憶部157は、一定時間毎に、一定時間中に受信した顔特徴情報の登録データを選別顔特徴記憶部161にコピーするような構成であってもよい。   The face feature storage unit 157 copies registration data to the selected face feature storage unit 161 every time it receives face feature information. Note that the face feature storage unit 157 may be configured to copy the registration data of the face feature information received during the predetermined time to the selected face feature storage unit 161 at fixed time intervals.

即ち、選別顔特徴記憶部161及び、顔特徴記憶部157は、顔特徴抽出部により抽出された顔特徴情報を記憶する記憶手段として機能する。   That is, the selected face feature storage unit 161 and the face feature storage unit 157 function as a storage unit that stores the face feature information extracted by the face feature extraction unit.

選別部160は、照合判定部159から「照合成功」という判定結果と、カテゴリを示すCの値とを受信した場合、このカテゴリの登録データに該当する人物が特定エリアに存在しないと判断する。選別部160は、存在しないと判断した人物に該当する登録データを、選別顔特徴記憶部161から削除する。即ち、選別部160は、照合判定部159から「照合成功」という判定結果と共に受信したCの値に該当するカテゴリの登録データを、選別顔特徴記憶部161から選別して削除する。   When the determination unit 160 receives the determination result “verification success” and the value C indicating the category from the verification determination unit 159, the selection unit 160 determines that the person corresponding to the registration data of this category does not exist in the specific area. The selection unit 160 deletes the registration data corresponding to the person determined not to exist from the selection face feature storage unit 161. That is, the selecting unit 160 selects and deletes the registered data of the category corresponding to the value of C received from the matching determination unit 159 together with the determination result “successful matching” from the selected face feature storage unit 161.

上記した処理により、人物が第2の場所を通行するごとに選別顔特徴記憶部161から不要となった登録データが削除される。即ち、選別顔特徴記憶部161は、特定エリアに滞在中の人物の登録データのみを記憶する構成となっている。   Through the above-described processing, registration data that is no longer needed is deleted from the selected face feature storage unit 161 each time a person passes through the second place. That is, the selected face feature storage unit 161 is configured to store only registration data of a person staying in a specific area.

表示部162は、顔特徴記憶部157と選別顔特徴記憶部161に記憶されている登録データに基づいて、滞在状況を表示する。   The display unit 162 displays the stay status based on the registration data stored in the face feature storage unit 157 and the selected face feature storage unit 161.

表示部162は、図8に示すような通行確認画面180を表示することが出来る。通行確認画面180は、複数のウィンド181乃至185を表示する。   The display unit 162 can display a traffic confirmation screen 180 as shown in FIG. The traffic confirmation screen 180 displays a plurality of windows 181 to 185.

ウィンド181は、場所Aを通行した人物の顔特徴情報を一覧で表示する。ウィンド182は、場所Bを通行した人物の顔特徴情報を一覧で表示する。ウィンド183は、場所Cを通行した人物の顔特徴情報を一覧で表示する。   The window 181 displays the face feature information of the person who has passed through the place A in a list. The window 182 displays a list of facial feature information of persons passing through the location B. The window 183 displays the face feature information of the person who passed the place C in a list.

ウィンド184は、場所Aを通行した人物のうちの、特定エリアに滞在中の人物の顔特徴情報を一覧で表示する。ウィンド185は、場所Bを通行した人物のうちの、特定エリアに滞在中の人物の顔特徴情報を一覧で表示する。   The window 184 displays a list of facial feature information of persons staying in a specific area among persons passing through the place A. The window 185 displays a list of face feature information of persons staying in a specific area among persons passing through the place B.

図8に示すように、場所Aを通行した2名のうちの1名が、場所Cを通行していることが確認できる。また、場所Bを通行した2名が、場所Cを通行していることが確認できる。ここから、特定エリアに滞在中の人物を容易に確認することが出来る。また、特定エリアに滞在中の人物がどの場所を通行したかも容易に確認することが出来る。   As shown in FIG. 8, it can be confirmed that one of the two persons who passed the place A is passing the place C. In addition, it can be confirmed that two people who have passed the place B are passing the place C. From here, the person staying in the specific area can be easily confirmed. In addition, it is possible to easily confirm which place the person staying in the specific area has passed.

なお、表示部162は、顔特徴情報を表示するとして説明したが、顔特徴情報の抽出に用いた顔画像を表示するような構成であってもよい。   Although the display unit 162 has been described as displaying face feature information, the display unit 162 may be configured to display a face image used to extract face feature information.

照合部163は、窓口に設けられている窓口端末140のカメラ141により撮像された画像に基づいて抽出された顔特徴情報と、選別顔特徴記憶部161に記憶されている登録データとで照合を行い、類似度を算出する。即ち、照合部163は、入力画像から抽出した顔特徴情報と、特定エリアに滞在中の人物に該当する顔特徴情報とで照合を行う。   The collation unit 163 performs collation between the face feature information extracted based on the image captured by the camera 141 of the window terminal 140 provided at the window and the registration data stored in the selected face feature storage unit 161. To calculate the similarity. That is, the collation unit 163 performs collation between the facial feature information extracted from the input image and the facial feature information corresponding to the person staying in the specific area.

照合判定部164は、照合判定部159と同様の処理により、「照合成功」と「照合失敗」のいずれかを判定し、判定結果を窓口端末140に出力する。照合判定部164は、「照合成功」と判定した場合、照合に用いた登録データ(IDデータ、通行場所を示す情報、通行時間を示す情報、及び顔特徴情報)などを「照合成功」の判定結果と共に窓口端末140に出力する。   The collation determination unit 164 determines either “collation success” or “collation failure” by the same processing as the collation determination unit 159, and outputs the determination result to the window terminal 140. When the collation determination unit 164 determines that “collation is successful”, the registration data (ID data, information indicating the traffic location, information indicating the traffic time, and face feature information) used for the verification is determined as “successful verification”. The result is output to the window terminal 140.

窓口端末140の表示部142は、通行管理装置150から受信した情報に基づき、種々の情報を表示する。即ち、表示部142は、カメラ141により撮像した人物がどの場所を通行したかを示す通行場所を示す情報を表示する。また、表示部142は、カメラ141により撮像した人物がどの時間に通行したかを示す通行時間を示す情報を表示する。   The display unit 142 of the window terminal 140 displays various information based on the information received from the traffic management device 150. That is, the display unit 142 displays information indicating a passage place indicating which place the person imaged by the camera 141 has passed. In addition, the display unit 142 displays information indicating a travel time indicating at which time the person imaged by the camera 141 has traveled.

また、表示部142は、照合判定部164から受信した顔特徴情報をさらに表示するようにしてもよい。   Further, the display unit 142 may further display the face feature information received from the matching determination unit 164.

なお、上記した顔領域検出部151、152、153、顔特徴抽出部154、155、156、照合部158、照合判定部159、選別部160、照合部163、及び照合判定部164は、図示しないCPU、RAM、ROM、及び不揮発性メモリにより実現される。   The face area detection units 151, 152, and 153, the face feature extraction units 154, 155, and 156, the collation unit 158, the collation determination unit 159, the selection unit 160, the collation unit 163, and the collation determination unit 164 are not illustrated. It is realized by a CPU, a RAM, a ROM, and a nonvolatile memory.

CPUは、通行管理装置150の全体の制御を司るものである。CPUは、ROMあるいは不揮発性メモリに記憶されている制御プログラムや制御データに基づいて動作することにより、上記したような種々の処理部として機能する。   The CPU governs overall control of the traffic management device 150. The CPU functions as various processing units as described above by operating based on the control program and control data stored in the ROM or nonvolatile memory.

RAMは、CPUのワーキングメモリとして機能する揮発性のメモリである。即ち、RAMは、CPUが処理中のデータなどを一時保管する記憶手段として機能する。また、RAMは、入力部から受信したデータを一時保管する。ROMは、予め制御用のプログラムや制御データなどが記憶されている不揮発性のメモリである。   The RAM is a volatile memory that functions as a working memory for the CPU. That is, the RAM functions as a storage unit that temporarily stores data being processed by the CPU. The RAM temporarily stores data received from the input unit. The ROM is a non-volatile memory in which a control program, control data, and the like are stored in advance.

不揮発性メモリは、例えば、EEPROMあるいはHDDなどの、データの書き込み及び書換えが可能な記憶媒体により構成される。不揮発性メモリには、当該通行管理装置150の運用用途に応じて制御プログラムや種々のデータが書込まれる。   The nonvolatile memory is configured by a storage medium that can write and rewrite data, such as an EEPROM or an HDD. In the non-volatile memory, a control program and various data are written according to the usage of the traffic management device 150.

上記したように、本実施形態に係る通行管理装置は、特定エリアの第1の場所で取得した第1の顔特徴情報を顔特徴記憶部に蓄積する。顔特徴記憶部は、選別顔特徴記憶部に顔特徴情報をコピーする。通行管理装置は、第2の場所で取得した第2の顔特徴情報と顔特徴記憶部に記憶されている第1の顔特徴情報とで照合を行い、一致する顔特徴情報を選別顔特徴記憶部から削除する。   As described above, the traffic management device according to the present embodiment accumulates the first facial feature information acquired at the first location in the specific area in the facial feature storage unit. The face feature storage unit copies the face feature information to the selected face feature storage unit. The traffic management device collates the second facial feature information acquired at the second location with the first facial feature information stored in the facial feature storage unit, and selects matching facial feature information. Delete from the department.

人物の通行場所を確認する処理を行う場合、既に第2の場所を通行済みの人物の顔特徴情報が削除されている選別顔特徴記憶部に記憶されている顔特徴情報に基づいて照合を行う。このため、処理するデータの量を削減することができる。この結果として、短い処理時間で、且つ、高精度に人物の通行を管理する事ができる通行管理装置、及び、通行管理方法を提供することができる。   When performing the process of confirming the passage location of the person, collation is performed based on the facial feature information stored in the selected facial feature storage unit from which the facial feature information of the person who has already passed the second location has been deleted. . For this reason, the amount of data to be processed can be reduced. As a result, it is possible to provide a traffic management device and a traffic management method capable of managing the traffic of a person with a short processing time and with high accuracy.

なお、本実施形態では、顔特徴情報を顔特徴記憶部に蓄積し、この顔特徴情報を選別顔特徴記憶部にコピーし、第2の場所を通行済みの人物の顔特徴情報を選別顔特徴記憶部から削除する構成として説明したが、これに限定されない。選別顔特徴記憶部に顔特徴情報をコピーせずに、第2の場所を通行済みの人物の顔特徴情報を顔特徴記憶部から削除する構成であってもよい。この場合、既に第2の場所を通行済みの人物の顔特徴情報が削除されている顔特徴記憶部に記憶されている顔特徴情報に基づいて人物が通行した場所を確認する処理を行う。   In this embodiment, the face feature information is accumulated in the face feature storage unit, the face feature information is copied to the selected face feature storage unit, and the face feature information of the person who has passed through the second place is selected as the face feature information. Although described as a configuration to be deleted from the storage unit, it is not limited to this. The configuration may be such that the face feature information of the person who has passed the second place is deleted from the face feature storage unit without copying the face feature information to the selected face feature storage unit. In this case, the process of confirming the place where the person has passed is performed based on the face feature information stored in the face feature storage unit from which the face feature information of the person who has already passed the second place has been deleted.

また、本実施形態では、顔領域検出部151、152、153、顔特徴抽出部154、155、及び156を通行管理装置が備えている構成として説明したが、これに限定されない。撮像端末110、120、及び130がそれぞれ顔領域検出部と顔特徴抽出部とを備える構成であってもよい。   In the present embodiment, the face area detection units 151, 152, and 153 and the face feature extraction units 154, 155, and 156 are described as being included in the traffic management device, but the present invention is not limited to this. The imaging terminals 110, 120, and 130 may each include a face area detection unit and a face feature extraction unit.

次に、本発明の第2の実施形態に係る通行管理装置、及び、通行管理方法について、図を参照しながら詳細に説明する。
図9は、本発明の第2の実施形態に係る通行管理装置が適用される通行管理システム2の構成例を概略的に説明するためのブロック図である。なお、第1の実施形態と同様の構成には、同じ参照符号を付し、その詳細な説明を省略する。
Next, a traffic management device and a traffic management method according to the second embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 9 is a block diagram for schematically explaining a configuration example of the traffic management system 2 to which the traffic management device according to the second exemplary embodiment of the present invention is applied. Note that components similar to those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

図9に示すように、通行管理システム2は、撮像端末110、120、130、窓口端末140、及び通行管理装置150を備えている。撮像端末110及び120は、特定エリアの第1の場所に設けられており、撮像端末130及び窓口端末140は、特定エリアの第2の場所に設けられていると仮定する。   As illustrated in FIG. 9, the traffic management system 2 includes imaging terminals 110, 120, and 130, a window terminal 140, and a traffic management device 150. It is assumed that the imaging terminals 110 and 120 are provided at the first location in the specific area, and the imaging terminal 130 and the window terminal 140 are provided at the second location in the specific area.

撮像端末110、120、及び130は、それぞれID入力部112、122、及び132を備えている。ID入力部112、122、及び132は、操作者に操作を入力させる為のID入力手段である。ID入力部112、122、及び132は、例えば、入力キー、若しくはカードリーダなどにより構成される。ID入力部112、122、及び132は、入力キーにより入力された入力情報、若しくは、カードリーダにより歩行者の所持するカード(例えば、ICカードなど)から情報を読み取る。   The imaging terminals 110, 120, and 130 include ID input units 112, 122, and 132, respectively. The ID input units 112, 122, and 132 are ID input means for causing an operator to input an operation. The ID input units 112, 122, and 132 are configured by, for example, input keys or card readers. The ID input units 112, 122, and 132 read information from input information input by an input key or a card (for example, an IC card) possessed by a pedestrian by a card reader.

ID入力部112、及び122は、読み取った情報をIDデータとして顔特徴記憶部157に送信する。通行管理装置150は、入力された入力画像に基づいて抽出した顔特徴情報を顔特徴記憶部157に記憶し、さらに、ID入力部から受信した情報を図6に示すIDデータとして記憶する。   The ID input units 112 and 122 transmit the read information to the face feature storage unit 157 as ID data. The traffic management device 150 stores the facial feature information extracted based on the input image input in the facial feature storage unit 157, and further stores the information received from the ID input unit as ID data shown in FIG.

ID入力部112、及び122により入力されるIDデータ情報は、例えば、乗車券及びIDカードなどから得られる固有の情報である。   The ID data information input by the ID input units 112 and 122 is unique information obtained from, for example, a ticket and an ID card.

ID入力部132は、読み取った情報を選別部160に送信する。選別部160は、ID入力部132からIDデータを受信した場合、受信したIDデータと顔特徴記憶部157に記憶されているIDデータとで照合を行う。   The ID input unit 132 transmits the read information to the selection unit 160. When receiving the ID data from the ID input unit 132, the selection unit 160 collates the received ID data with the ID data stored in the face feature storage unit 157.

一致するIDデータが見つかった場合、選別部160は、このIDデータを含む登録データに該当する人物が特定エリアの第2の場所を通行済みであると判断する。選別部160は、第2の場所を通行済みであると判断した人物に該当する登録データを、選別顔特徴記憶部161から削除する。   When the matching ID data is found, the selection unit 160 determines that the person corresponding to the registration data including this ID data has already passed the second place in the specific area. The selection unit 160 deletes the registration data corresponding to the person who has been determined to have passed the second place from the selected face feature storage unit 161.

なお、選別部160は、第1の実施形態に示すように、顔特徴情報の類似度に基づく照合も行う。この場合、選別部160は、顔画像の照合結果と、IDデータの照合の照合結果との論理和、若しくは論理積により統合的な照合結果を判断する。   Note that the selection unit 160 also performs collation based on the similarity of face feature information as shown in the first embodiment. In this case, the selection unit 160 determines an integrated collation result based on the logical sum or logical product of the collation result of the face image and the collation result of the ID data collation.

上記したように、本実施形態に係る通行管理装置は、特定エリアの第1の場所で顔特徴情報とIDデータとを取得し、顔特徴記憶部に蓄積する。顔特徴記憶部は、選別顔特徴記憶部に顔特徴情報及びIDデータをコピーする。通行管理装置は、第2の場所で取得した顔特徴情報及びIDデータと顔特徴記憶部に記憶されている顔特徴情報及びIDデータとでそれぞれ照合を行い、照合結果に基づいて選別顔特徴記憶部から登録データを削除する。   As described above, the traffic management device according to the present embodiment acquires the facial feature information and the ID data at the first location in the specific area and accumulates them in the facial feature storage unit. The face feature storage unit copies the face feature information and the ID data to the selected face feature storage unit. The traffic management device collates the face feature information and ID data acquired at the second location with the face feature information and ID data stored in the face feature storage unit, and selects the face feature storage based on the collation result. Delete registration data from the copy.

この結果として、短い処理時間で、且つ、より高精度に人物の通行を管理する事ができる通行管理装置、及び、通行管理方法を提供することができる。   As a result, it is possible to provide a traffic management device and a traffic management method capable of managing the traffic of a person with a shorter processing time and with higher accuracy.

なお、本実施形態では、第2の場所で顔特徴情報及びIDデータを取得し、登録データとでそれぞれを照合する構成として説明したが、これに限定されない。第2の場所の撮像端末130のカメラ131を省き、登録データとの照合に取得したIDのみを用いる構成であってもよい。   In the present embodiment, the facial feature information and the ID data are acquired at the second location and are compared with the registered data. However, the present invention is not limited to this. The configuration may be such that the camera 131 of the imaging terminal 130 in the second location is omitted and only the acquired ID is used for collation with registered data.

次に、本発明の第3の実施形態に係る通行管理装置、及び、通行管理方法について、図を参照しながら詳細に説明する。
図10は、本発明の第3の実施形態に係る通行管理装置が適用される通行管理システム3の構成例を概略的に説明するためのブロック図である。なお、第1の実施形態と同様の構成には、同じ参照符号を付し、その詳細な説明を省略する。
Next, a traffic management device and a traffic management method according to the third embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 10 is a block diagram for schematically explaining a configuration example of the traffic management system 3 to which the traffic management device according to the third exemplary embodiment of the present invention is applied. Note that components similar to those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

図10に示すように、通行管理システム3は、撮像端末110、120、130、窓口端末140、及び通行管理装置150を備えている。撮像端末110及び120は、特定エリアの第1の場所に設けられており、撮像端末130及び窓口端末140は、特定エリアの第2の場所に設けられていると仮定する。   As shown in FIG. 10, the traffic management system 3 includes imaging terminals 110, 120, and 130, a window terminal 140, and a traffic management device 150. It is assumed that the imaging terminals 110 and 120 are provided at the first location in the specific area, and the imaging terminal 130 and the window terminal 140 are provided at the second location in the specific area.

窓口端末140は、時間推定部143を備えている。時間推定部143は、時間推定手段として機能する。時間推定部143は、人物が場所Cの窓口に現れた時間tに基づいて、場所Aにおける通行時間、及び場所Bにおける通行時間を推定する。時間推定部143は、窓口端末140を操作する操作者の操作に応じて通行時間の推定を行う。   The window terminal 140 includes a time estimation unit 143. The time estimation unit 143 functions as a time estimation unit. The time estimation unit 143 estimates the travel time at the location A and the travel time at the location B based on the time t when the person appears at the window of the location C. The time estimation unit 143 estimates the travel time according to the operation of the operator who operates the window terminal 140.

即ち、時間推定部143は、場所Aから場所Cに移動することが可能な最短時間t1と、人物が場所Cの窓口に現れた時間tとに基づいて、場所Aにおける通行時間(推定通行時間)を推定する。また、時間推定部143は、場所Bから場所Cに移動することが可能な最短時間t2と、人物が場所Cの窓口に現れた時間tとに基づいて、場所Bにおける通行時間を推定する。   That is, the time estimation unit 143 determines the travel time (estimated travel time) at the location A based on the shortest time t1 at which the user can move from the location A to the location C and the time t when the person appears at the window of the location C. ). In addition, the time estimation unit 143 estimates the travel time at the place B based on the shortest time t2 at which the person can move from the place B to the place C and the time t when the person appears at the window of the place C.

時間推定部143は、推定した各場所における推定通行時間を示す情報を通行管理装置150に送信する。   The time estimation unit 143 transmits information indicating the estimated traffic time at each estimated location to the traffic management device 150.

通行管理装置150は、検索部168、及び検索顔特徴記憶部169を備えている。検索部168は、検索手段として機能する。検索部168は、時間推定部143から各場所における推定通行時間を示す情報を受信する。検索部168は、時間推定部143から受信した各場所における推定通行時間を示す情報に基づいて、選別顔特徴記憶部161に記憶されている登録データを検索する。   The traffic management device 150 includes a search unit 168 and a search face feature storage unit 169. The search unit 168 functions as search means. The search unit 168 receives information indicating the estimated travel time at each location from the time estimation unit 143. The search unit 168 searches the registered data stored in the selected face feature storage unit 161 based on the information indicating the estimated travel time at each location received from the time estimation unit 143.

即ち、検索部168は、選別顔特徴記憶部161に記憶されている登録データの第1の場所を通行した時間を示す通過時間情報と、時間推定部143から受信した各場所における推定通行時間とを比較し、各場所における推定通行時間より前に通行している登録データを検索する。   That is, the search unit 168 includes transit time information indicating the time when the registered data stored in the selected face feature storage unit 161 has passed through the first location, and the estimated transit time at each location received from the time estimation unit 143. And the registered data passing before the estimated passing time at each place is searched.

検索部168は、上記のように検索した登録データを検索顔特徴記憶部169に記憶する。即ち、検索顔特徴記憶部169は、窓口端末140が設置されている場所Cにたどりつく事が可能な登録データのみを記憶する。   The search unit 168 stores the registered data searched as described above in the search face feature storage unit 169. That is, the search face feature storage unit 169 stores only registration data that can be reached at the location C where the window terminal 140 is installed.

表示部162は、顔特徴記憶部157、選別顔特徴記憶部161、及び検索顔特徴記憶部169に記憶されている登録データに基づいて、滞在状況、及び特定の場所に到達可能な登録データの状況を表示する。   Based on the registration data stored in the face feature storage unit 157, the selected face feature storage unit 161, and the search face feature storage unit 169, the display unit 162 stores the stay situation and registration data that can reach a specific place. Display status.

表示部162は、図11に示すような通行確認画面180を表示することが出来る。通行確認画面180は、複数のウィンド181乃至185を表示する。さらに、通行確認画面180は、検索部168により検索した登録データを特定して表示する枠186及び枠187を表示する。   The display unit 162 can display a traffic confirmation screen 180 as shown in FIG. The traffic confirmation screen 180 displays a plurality of windows 181 to 185. Further, the traffic confirmation screen 180 displays a frame 186 and a frame 187 for specifying and displaying the registration data searched by the search unit 168.

前述したように、ウィンド184及びウィンド185は、場所Aまたは場所Bを通行した人物のうちの、第2の場所における通行が確認されていない人物の顔特徴情報を一覧で表示するウィンドである。   As described above, the window 184 and the window 185 are windows that display a list of facial feature information of persons who have not been confirmed to pass in the second place among the persons who have passed the place A or B.

枠186は、ウィンド184に表示されている顔特徴情報のうち、検索部168の検索条件に該当する登録データの顔特徴情報を特定して表示する。すなわち、ここでは、枠186は、場所Aを通行し、且つ、場所Cに到達可能な登録データの顔特徴情報を特定して表示する。   The frame 186 identifies and displays the facial feature information of the registered data corresponding to the search condition of the search unit 168 among the facial feature information displayed in the window 184. That is, here, the frame 186 identifies and displays the facial feature information of the registration data that passes through the location A and can reach the location C.

枠187は、ウィンド185に表示されている顔特徴情報のうち、検索部168の検索条件に該当する登録データの顔特徴情報を特定して表示する。すなわち、ここでは、枠187は、場所Bを通行し、且つ、場所Cに到達可能な登録データの顔特徴情報を特定して表示する。   The frame 187 identifies and displays the facial feature information of the registered data corresponding to the search condition of the search unit 168 among the facial feature information displayed in the window 185. That is, here, the frame 187 identifies and displays the facial feature information of the registration data that passes through the location B and can reach the location C.

図11に示すように、場所Aを通行した4名のうちの2名が特定エリアに滞在中であり、そのうちの1名が場所Cに到達している可能性があることが確認できる。また、場所Bを通行した4名のうちの3名が特定エリアに滞在中であり、そのうちの2名が場所Cに到達している可能性があることが確認できる。   As shown in FIG. 11, it can be confirmed that two of the four people who have passed through the place A are staying in the specific area, and one of them may have reached the place C. In addition, it can be confirmed that three of the four people passing through the place B are staying in the specific area, and two of them may have reached the place C.

なお、表示部162は、顔特徴情報を表示するとして説明したが、顔特徴情報の抽出に用いた顔画像を表示するような構成であってもよい。   Although the display unit 162 has been described as displaying face feature information, the display unit 162 may be configured to display a face image used to extract face feature information.

照合部163は、窓口に設けられている窓口端末140のカメラ141により撮像された画像に基づいて抽出された顔特徴情報と、検索顔特徴記憶部169に記憶されている登録データとで照合を行い、類似度を算出する。即ち、照合部163は、入力画像から抽出した顔特徴情報と、場所Cに到達可能な人物の顔特徴情報とで照合を行う。   The collation unit 163 performs collation between the face feature information extracted based on the image captured by the camera 141 of the counter terminal 140 provided at the counter and the registration data stored in the search face feature storage unit 169. To calculate the similarity. That is, the collation unit 163 performs collation between the facial feature information extracted from the input image and the facial feature information of a person who can reach the place C.

上記したように、本実施形態に係る通行管理装置は、選別顔特徴記憶部に記憶されている登録データから、特定の条件にあてはまる登録データを検索する。通行管理装置は、検索した登録データを検索顔特徴記憶部に記憶する。窓口端末のカメラにより撮像した画像に基づいて人物の通行場所の確認を行う場合、通行管理装置は、検索顔特徴記憶部に記憶されている顔特徴情報を照合に用いる。この為、照合の対象となる登録データを絞ることが出来る。   As described above, the traffic management device according to the present embodiment searches for registration data that meets a specific condition from registration data stored in the selected face feature storage unit. The traffic management device stores the searched registration data in the search face feature storage unit. When confirming the passage location of a person based on an image captured by the camera of the window terminal, the traffic management device uses the face feature information stored in the search face feature storage unit for collation. For this reason, it is possible to narrow down registered data to be collated.

この結果として、より短い処理時間で、且つ、高精度に人物の通行を管理する事ができる通行管理装置、及び、通行管理方法を提供することができる。   As a result, it is possible to provide a traffic management device and a traffic management method capable of managing the traffic of a person with a shorter processing time and with high accuracy.

次に、本発明の第4の実施形態に係る通行管理装置、及び、通行管理方法について、図を参照しながら詳細に説明する。
図12は、本発明の第4の実施形態に係る通行管理装置が適用される通行管理システム4の構成例を概略的に説明するためのブロック図である。なお、他の実施形態と同様の構成には、同じ参照符号を付し、その詳細な説明を省略する。
Next, a traffic management device and a traffic management method according to the fourth embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 12 is a block diagram for schematically explaining a configuration example of the traffic management system 4 to which the traffic management device according to the fourth exemplary embodiment of the present invention is applied. In addition, the same referential mark is attached | subjected to the structure similar to other embodiment, and the detailed description is abbreviate | omitted.

図12に示すように、通行管理システム4は、撮像端末110、120、130、窓口端末140、及び通行管理装置150を備えている。撮像端末110及び120は、特定エリアの第1の場所に設けられており、撮像端末130及び窓口端末140は、特定エリアの第2の場所に設けられていると仮定する。   As illustrated in FIG. 12, the traffic management system 4 includes imaging terminals 110, 120, and 130, a window terminal 140, and a traffic management device 150. It is assumed that the imaging terminals 110 and 120 are provided at the first location in the specific area, and the imaging terminal 130 and the window terminal 140 are provided at the second location in the specific area.

窓口端末140は、場所情報入力部144を備えている。場所情報入力部144は、場所情報入力手段として機能する。場所情報入力部144は、場所Cの窓口に現れた人物が申告する場所を示す情報(場所情報)を入力するための入力手段である。場所情報入力部144は、キーボード若しくは、表示部142と一体に形成されたタッチパネルなどにより実現される。   The window terminal 140 includes a location information input unit 144. The location information input unit 144 functions as location information input means. The place information input unit 144 is an input unit for inputting information (place information) indicating a place to be reported by a person who appears at the window of the place C. The location information input unit 144 is realized by a keyboard or a touch panel formed integrally with the display unit 142.

窓口端末140は、場所情報入力部144により入力された場所を示す場所情報を通行管理装置150に送信する。   The window terminal 140 transmits location information indicating the location input by the location information input unit 144 to the traffic management device 150.

通行管理装置150は、検索部168、及び検索顔特徴記憶部169を備えている。検索部168は、場所情報入力部144により入力された場所情報を受信する。検索部168は、検索手段として機能する。検索部168は、場所情報入力部144により入力された場所情報に基づいて、選別顔特徴記憶部161に記憶されている登録データを検索する。   The traffic management device 150 includes a search unit 168 and a search face feature storage unit 169. The search unit 168 receives the location information input by the location information input unit 144. The search unit 168 functions as search means. The search unit 168 searches the registered data stored in the selected face feature storage unit 161 based on the location information input by the location information input unit 144.

即ち、検索部168は、選別顔特徴記憶部161に記憶されている登録データの通行場所を示す情報(第1の場所情報)と、場所情報入力部144により入力された場所を示す情報(第3の場所情報)とを比較し、一致する登録データを検索する。   That is, the search unit 168 includes information (first location information) indicating the passage location of registered data stored in the selected face feature storage unit 161 and information (first location information) input by the location information input unit 144. 3) and search for matching registration data.

検索部168は、上記のように検索した登録データを検索顔特徴記憶部169に記憶する。即ち、検索顔特徴記憶部169は、場所情報入力部144により入力された第3の場所情報が示す場所を通行した人物の登録データのみを記憶する。   The search unit 168 stores the registered data searched as described above in the search face feature storage unit 169. That is, the search face feature storage unit 169 stores only the registration data of the person who has passed the place indicated by the third place information input by the place information input unit 144.

表示部162は、顔特徴記憶部157、選別顔特徴記憶部161、及び検索顔特徴記憶部169に記憶されている登録データに基づいて、滞在状況を表示する。   The display unit 162 displays the stay status based on the registered data stored in the face feature storage unit 157, the selected face feature storage unit 161, and the search face feature storage unit 169.

表示部162は、図13に示すような通行確認画面180を表示することが出来る。通行確認画面180は、複数のウィンド181、183、及び184を表示する。図13に示すように、場所Aを通行した4名のうちの2名が特定エリアに滞在中であることが確認できる。   The display unit 162 can display a traffic confirmation screen 180 as shown in FIG. The traffic confirmation screen 180 displays a plurality of windows 181, 183, and 184. As shown in FIG. 13, it can be confirmed that two of the four people passing through the place A are staying in the specific area.

なお、表示部162は、顔特徴情報を表示するとして説明したが、顔特徴情報の抽出に用いた顔画像を表示するような構成であってもよい。   Although the display unit 162 has been described as displaying face feature information, the display unit 162 may be configured to display a face image used to extract face feature information.

照合部163は、窓口に設けられている窓口端末140のカメラ141により撮像された画像に基づいて抽出された顔特徴情報と、検索顔特徴記憶部169に記憶されている登録データとで照合を行い、類似度を算出する。即ち、照合部163は、入力画像から抽出した顔特徴情報と、場所情報入力部144により入力された場所で撮像した画像から抽出した顔特徴情報とで照合を行う。   The collation unit 163 performs collation between the face feature information extracted based on the image captured by the camera 141 of the counter terminal 140 provided at the counter and the registration data stored in the search face feature storage unit 169. To calculate the similarity. That is, the collation unit 163 performs collation between the face feature information extracted from the input image and the face feature information extracted from the image captured at the location input by the location information input unit 144.

上記したように、本実施形態に係る通行管理装置は、選別顔特徴記憶部に記憶されている登録データから、特定の条件にあてはまる登録データを検索する。通行管理装置は、検索した登録データを検索顔特徴記憶部に記憶する。窓口端末のカメラにより撮像した画像に基づいて人物の通行場所の確認を行う場合、通行管理装置は、検索顔特徴記憶部に記憶されている顔特徴情報を照合に用いる。この為、照合の対象となる登録データを絞ることが出来る。   As described above, the traffic management device according to the present embodiment searches for registration data that meets a specific condition from registration data stored in the selected face feature storage unit. The traffic management device stores the searched registration data in the search face feature storage unit. When confirming the passage location of a person based on an image captured by the camera of the window terminal, the traffic management device uses the face feature information stored in the search face feature storage unit for collation. For this reason, it is possible to narrow down registered data to be collated.

この結果として、より短い処理時間で、且つ、高精度に人物の通行を管理する事ができる通行管理装置、及び、通行管理方法を提供することができる。   As a result, it is possible to provide a traffic management device and a traffic management method capable of managing the traffic of a person with a shorter processing time and with high accuracy.

次に、本発明の第5の実施形態に係る通行管理装置、及び、通行管理方法について、図を参照しながら詳細に説明する。
図14は、本発明の第5の実施形態に係る通行管理装置が適用される通行管理システム5の構成例を概略的に説明するためのブロック図である。なお、他の実施形態と同様の構成には、同じ参照符号を付し、その詳細な説明を省略する。
Next, a traffic management device and a traffic management method according to the fifth embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 14 is a block diagram for schematically explaining a configuration example of the traffic management system 5 to which the traffic management device according to the fifth exemplary embodiment of the present invention is applied. In addition, the same referential mark is attached | subjected to the structure similar to other embodiment, and the detailed description is abbreviate | omitted.

図14に示すように、通行管理システム5は、撮像端末110、120、窓口端末140、及び通行管理装置150を備えている。撮像端末110及び120は、特定エリアの第1の場所に設けられており、窓口端末140は、特定エリアの第2の場所に設けられていると仮定する。   As illustrated in FIG. 14, the traffic management system 5 includes imaging terminals 110 and 120, a window terminal 140, and a traffic management device 150. It is assumed that the imaging terminals 110 and 120 are provided at the first location in the specific area, and the window terminal 140 is provided at the second location in the specific area.

本実施形態に係る通行管理装置150は、第1の場所に設置されている撮像端末の数に対応する数の顔特徴記憶部157を備えている。顔特徴記憶部157は、図14に示すように、自身が対応する場所の撮像端末が定まっている。即ち、複数の顔特徴記憶部157は、それぞれ、所定の場所で取得された顔特徴情報のみを記憶する。   The traffic management device 150 according to the present embodiment includes the number of face feature storage units 157 corresponding to the number of imaging terminals installed in the first place. As shown in FIG. 14, the face feature storage unit 157 has an imaging terminal at a location corresponding to itself. That is, each of the plurality of face feature storage units 157 stores only the face feature information acquired at a predetermined location.

また、本実施形態に係る通行管理装置150は、複数の顔特徴記憶部157に対応するように複数の照合部158を備えている。照合部158は、自身が対応する顔特徴記憶部157に記憶されている登録データと、窓口端末140のカメラ141により撮像した画像に基づいて抽出した顔特徴情報とで照合を行う。即ち、照合部158は、対応する顔特徴記憶部157に記憶されている各登録データ毎に類似度を算出する。   In addition, the traffic management device 150 according to the present embodiment includes a plurality of matching units 158 so as to correspond to the plurality of face feature storage units 157. The collation unit 158 collates the registration data stored in the face feature storage unit 157 corresponding to the collation unit 158 with the face feature information extracted based on the image captured by the camera 141 of the window terminal 140. That is, the collation unit 158 calculates the similarity for each registered data stored in the corresponding face feature storage unit 157.

また、本実施形態に係る通行管理装置150は、伝送制御手段としての伝送制御部170を備えている。伝送制御部170は、場所情報入力部144により入力された場所情報を受信する。伝送制御部170は、場所情報入力部144により入力された場所情報に基づいて、窓口端末140のカメラ141により撮像した画像に基づいて抽出した顔特徴情報を伝送する照合部158を複数の中から選択して伝送する
窓口端末140の表示部142は、通行管理装置150から受信した情報に基づき、種々の情報を表示する。本実施形態に係る表示部142は、照合部158により照合に用いられた登録データを類似度の値の高い順に並べて表示する。
Further, the traffic management device 150 according to the present embodiment includes a transmission control unit 170 as transmission control means. The transmission control unit 170 receives the location information input by the location information input unit 144. Based on the location information input by the location information input unit 144, the transmission control unit 170 includes a collation unit 158 that transmits the facial feature information extracted based on the image captured by the camera 141 of the window terminal 140. Select and transmit The display unit 142 of the window terminal 140 displays various information based on the information received from the traffic management device 150. The display unit 142 according to the present embodiment displays the registration data used for collation by the collation unit 158 in order from the highest similarity value.

図15は、本発明の第5の実施形態に係る通行管理装置が適用される通行管理システムの他の構成例を概略的に説明するためのブロック図である。なお、他の実施形態と同様の構成には、同じ参照符号を付し、その詳細な説明を省略する。   FIG. 15 is a block diagram for schematically explaining another configuration example of the traffic management system to which the traffic management device according to the fifth exemplary embodiment of the present invention is applied. In addition, the same referential mark is attached | subjected to the structure similar to other embodiment, and the detailed description is abbreviate | omitted.

図15に示すように、通行管理システム6は、図14に示す通行管理装置150にさらに複数の選別部160及び複数の選別顔特徴記憶部161を備えている。また、各撮像端末110、120、及び130は、それぞれ、ID入力部112、122、及び132を備えている。   As illustrated in FIG. 15, the traffic management system 6 further includes a plurality of sorting units 160 and a plurality of selected face feature storage units 161 in the traffic management device 150 illustrated in FIG. 14. Each imaging terminal 110, 120, and 130 includes an ID input unit 112, 122, and 132, respectively.

顔特徴記憶部157は、第1の場所に設置されている撮像端末で入力されたIDデータを顔特徴情報と対応付けて記憶する。顔特徴記憶部157に記憶された登録データは、逐次、それぞれ対応する選別顔特徴記憶部161にコピーされる。   The face feature storage unit 157 stores ID data input from the imaging terminal installed in the first location in association with the face feature information. The registration data stored in the face feature storage unit 157 is sequentially copied to the corresponding selected face feature storage unit 161.

選別部160は、図15に示すように、複数の顔特徴記憶部157及び複数の選別顔特徴記憶部161に対応するように複数設けられている。選別部160は、第2の場所に設置されている撮像端末130のID入力部132に入力されるIDデータに基づいて、選別顔特徴記憶部161の登録データを選別する。   As shown in FIG. 15, a plurality of sorting units 160 are provided so as to correspond to a plurality of face feature storage units 157 and a plurality of selected face feature storage units 161. The sorting unit 160 sorts the registration data of the selected face feature storage unit 161 based on the ID data input to the ID input unit 132 of the imaging terminal 130 installed at the second location.

即ち、選別部160は、第2の場所に設置されている撮像端末130からIDデータを受信する。選別部160は、受信したIDデータと選別顔特徴記憶部161に記憶されている登録データのIDデータとで照合を行う。選別部160は、一致するIDデータが見つかった場合、このIDデータを含む登録データに該当する人物が特定エリアの第2の場所を通行したと判断する。選別部160は、第2の場所を通行した、即ち、特定エリア内に存在しないと判断した登録データを選別顔特徴記憶部161から削除する。   That is, the sorting unit 160 receives ID data from the imaging terminal 130 installed at the second location. The selection unit 160 compares the received ID data with the ID data of the registration data stored in the selection face feature storage unit 161. When the matching ID data is found, the sorting unit 160 determines that the person corresponding to the registration data including the ID data has passed through the second place in the specific area. The selection unit 160 deletes from the selection face feature storage unit 161 the registration data that has been passed through the second place, that is, determined not to exist in the specific area.

照合部158は、複数の選別顔特徴記憶部161に対応するように複数設けられている。照合部158は、自身が対応する選別顔特徴記憶部161に記憶されている登録データと、窓口端末140のカメラ141により撮像した画像に基づいて抽出した顔特徴情報とで照合を行う。即ち、照合部158は、対応する選別顔特徴記憶部161に記憶されている各登録データ毎に類似度を算出する。   A plurality of matching units 158 are provided so as to correspond to the plurality of selected face feature storage units 161. The collation unit 158 collates the registration data stored in the selected face feature storage unit 161 corresponding to the collation unit 158 with the face feature information extracted based on the image captured by the camera 141 of the window terminal 140. That is, the collation unit 158 calculates the similarity for each registered data stored in the corresponding selected face feature storage unit 161.

窓口端末140の表示部142は、通行管理装置150から受信した情報に基づき、種々の情報を表示する。本実施形態に係る表示部142は、照合部158により照合に用いられた登録データを類似度の値の高い順に並べて表示する。   The display unit 142 of the window terminal 140 displays various information based on the information received from the traffic management device 150. The display unit 142 according to the present embodiment displays the registration data used for collation by the collation unit 158 in order from the highest similarity value.

このように、本実施形態に係る通行管理装置150は、場所毎に別の記憶部に顔特徴を記憶する。通行場所の確認を行う場合、通行管理装置150は、申請された場所に対応する記憶部に記憶されている登録データを用いて照合を行うことにより、処理時間を短縮することが出来る。   As described above, the traffic management device 150 according to the present embodiment stores the facial features in different storage units for each place. When confirming the traffic location, the traffic management device 150 can shorten the processing time by performing verification using the registration data stored in the storage unit corresponding to the requested location.

上記したように、本実施形態に係る通行管理装置は、場所毎に別の記憶部に顔特徴を記憶する。通行場所の確認を行う場合、通行管理装置は、申請された場所に対応する記憶部に記憶されている登録データを用いて照合を行う。この為、照合の対象となる登録データを絞ることが出来る。   As described above, the traffic management device according to the present embodiment stores facial features in a separate storage unit for each location. When confirming a traffic location, the traffic management device performs verification using registration data stored in a storage unit corresponding to the requested location. For this reason, it is possible to narrow down registered data to be collated.

この結果として、より短い処理時間で、且つ、高精度に人物の通行を管理する事ができる通行管理装置、及び、通行管理方法を提供することができる。   As a result, it is possible to provide a traffic management device and a traffic management method capable of managing the traffic of a person with a shorter processing time and with high accuracy.

なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合わせてもよい。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1]
特定エリアの第1の場所を通過する人物の少なくとも顔を含む画像が入力される第1の画像入力手段と、
前記第1の画像入力手段から入力された画像から顔画像を検出する第1の顔検出手段と、
前記第1の顔検出手段により検出した顔画像から第1の顔特徴情報を抽出する第1の顔特徴抽出手段と、
前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報を記憶する記憶手段と、
前記記憶手段に記憶されている第1の顔特徴情報を選別する選別手段と、
を具備することを特徴とする通行管理装置。
[2]
前記特定エリアの前記第1の場所とは異なる第2の場所を通過する人物の少なくとも顔を含む画像が入力される第2の画像入力手段と、
前記第2の画像入力手段から入力された画像から顔画像を検出する第2の顔検出手段と、
前記第2の顔検出手段により検出した顔画像から第2の顔特徴情報を抽出する第2の顔特徴抽出手段と、
前記記憶手段により記憶されている第1の顔特徴情報と前記第2の顔特徴抽出手段により抽出された第2の顔特徴情報とを照合する照合手段と、
をさらに具備し、
前記選別手段は、前記照合手段の照合結果に基づいて、前記記憶手段により記憶されている第1の顔特徴情報を選別する、
ことを特徴とする[1]に記載の通行管理装置。
[3]
前記選別手段は、前記照合手段の照合において第2の顔特徴情報と一致する第1の顔特徴情報を前記記憶手段から削除することを特徴とする[2]に記載の通行管理装置。
[4]
前記人物により第1のIDデータが入力される第1のID入力手段と、
前記特定エリアの前記第1の場所とは異なる第2の場所を通過する人物により第2のIDデータが入力される第2のID入力手段と、
をさらに具備し、
前記記憶手段は、前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報と、前記第1のID入力手段により入力された第1のIDデータとを対応付けて記憶し、
前記選別手段は、前記第2のID入力手段により入力された第2のIDデータと一致する第1のIDデータに対応付けられている顔特徴情報を前記記憶手段から削除することを特徴とする[1]に記載の通行管理装置。
[5]
第3の場所情報が入力される場所情報入力手段と、
前記場所情報入力手段により入力される第3の場所情報に基づいて前記記憶手段により記憶されている第1の顔特徴情報を検索する検索手段と、
をさらに具備し、
前記第1の画像入力手段は、前記特定エリアへの複数の場所を通過する人物の少なくとも顔を含む画像を入力し、
前記記憶手段は、前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報と、前記人物が通過した場所を示す第1の場所情報とを対応付けて記憶し、
前記検索手段は、前記場所情報入力手段により入力された第3の場所情報と一致する第1の場所情報に対応付けられている顔特徴情報を前記記憶手段から検索することを特徴とする[1]に記載の通行管理装置。
[6]
現時刻及び前記第1の場所とは異なる第2の場所を示す第2の場所情報に基づいて、前記人物が前記第1の場所を通過した推定通行時間を推定する時間推定手段と、
前記時間推定手段により推定される推定通行時間に基づいて前記記憶手段により記憶されている第1の顔特徴情報を検索する検索手段と、
をさらに具備し、
前記記憶手段は、前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報と、前記人物が第1の場所を通過した時間を示す通過時間情報とを対応付けて記憶し、
前記検索手段は、前記時間推定手段により推定した推定通行時間より前の時間を示す前記第1の場所の通過時間情報に対応付けられている顔特徴情報を前記記憶手段から検索することを特徴とする[1]に記載の通行管理装置。
[7]
特定エリアの複数の場所を通過する人物の少なくとも顔を含む画像が入力される複数の第1の画像入力手段と、
前記複数の第1の画像入力手段から入力された画像から顔画像を検出する第1の顔検出手段と、
前記第1の顔検出手段により検出した顔画像から第1の顔特徴情報を抽出する第1の顔特徴抽出手段と、
前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報を場所ごとに記憶する複数の記憶手段と、
前記特定エリアの別の場所を通過する人物の少なくとも顔を含む画像が入力される第2の画像入力手段と、
前記第2の画像入力手段から入力された画像から顔画像を検出する第2の顔検出手段と、
前記第2の顔検出手段により検出した顔画像から第2の顔特徴情報を抽出する第2の顔特徴抽出手段と、
前記複数の記憶手段と対応し、対応している前記記憶手段により記憶されている第1の顔特徴情報と前記第2の顔特徴抽出手段により抽出された第2の顔特徴情報とを照合する複数の照合手段と、
場所を示す場所情報が入力される場所情報入力手段と、
前記場所情報入力手段により入力された場所情報に基づいて、前記第2の顔特徴抽出手段により抽出された第2の顔特徴情報を伝送する前記照合手段を、前記複数の照合手段のなかから選択して伝送する伝送制御手段と、
を具備することを特徴とする通行管理装置。
[8]
特定エリアの特定の場所を通過する人物の少なくとも顔を含む画像を入力し、
前記入力された画像から顔画像を検出し、
前記検出した顔画像から顔特徴情報を抽出し、
前記顔特徴情報を記憶し、
前記記憶されている顔特徴情報を選別する、
ことを特徴とする通行管理方法。
In addition, this invention is not limited to the said embodiment as it is, It can implement by changing a component in the range which does not deviate from the summary in an implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine the component covering different embodiment suitably.
The invention described in the scope of the claims at the beginning of the present application is added below.
[1]
First image input means for inputting an image including at least a face of a person passing through a first location in a specific area;
First face detection means for detecting a face image from an image input from the first image input means;
First face feature extraction means for extracting first face feature information from the face image detected by the first face detection means;
Storage means for storing first facial feature information extracted by the first facial feature extraction means;
Screening means for selecting first facial feature information stored in the storage means;
A traffic management device comprising:
[2]
A second image input means for inputting an image including at least a face of a person passing through a second location different from the first location in the specific area;
Second face detection means for detecting a face image from the image input from the second image input means;
Second face feature extraction means for extracting second face feature information from the face image detected by the second face detection means;
Collation means for collating the first facial feature information stored by the storage means and the second facial feature information extracted by the second facial feature extraction means;
Further comprising
The selecting means selects the first facial feature information stored in the storage means based on the matching result of the matching means;
The traffic management device according to [1], characterized in that:
[3]
The traffic management apparatus according to [2], wherein the selection unit deletes the first face feature information that matches the second face feature information in the collation by the collation unit from the storage unit.
[4]
First ID input means for inputting first ID data by the person;
Second ID input means for inputting second ID data by a person passing through a second place different from the first place in the specific area;
Further comprising
The storage means stores the first facial feature information extracted by the first facial feature extraction means and the first ID data inputted by the first ID input means in association with each other;
The selecting means deletes the face feature information associated with the first ID data that matches the second ID data input by the second ID input means from the storage means. The traffic management device according to [1].
[5]
Location information input means for inputting third location information;
Search means for searching for first facial feature information stored in the storage means based on third place information input by the place information input means;
Further comprising
The first image input means inputs an image including at least a face of a person passing through a plurality of places to the specific area,
The storage means stores the first facial feature information extracted by the first facial feature extraction means in association with first location information indicating a location where the person has passed,
The search means searches the storage means for facial feature information associated with the first place information that matches the third place information input by the place information input means [1. ]. The traffic management device described in the above.
[6]
Time estimation means for estimating an estimated transit time when the person has passed through the first location based on current location and second location information indicating a second location different from the first location;
Search means for searching for first facial feature information stored in the storage means based on the estimated travel time estimated by the time estimation means;
Further comprising
The storage means stores the first facial feature information extracted by the first facial feature extraction means in association with passage time information indicating a time when the person has passed the first place,
The search means searches the storage means for face feature information associated with the transit time information of the first place indicating a time before the estimated travel time estimated by the time estimation means. The traffic management device according to [1].
[7]
A plurality of first image input means for inputting an image including at least a face of a person passing through a plurality of locations in a specific area;
First face detection means for detecting a face image from images input from the plurality of first image input means;
First face feature extraction means for extracting first face feature information from the face image detected by the first face detection means;
A plurality of storage means for storing the first facial feature information extracted by the first facial feature extraction means for each location;
A second image input means for inputting an image including at least a face of a person passing through another place of the specific area;
Second face detection means for detecting a face image from the image input from the second image input means;
Second face feature extraction means for extracting second face feature information from the face image detected by the second face detection means;
Corresponding to the plurality of storage means, the first face feature information stored by the corresponding storage means and the second face feature information extracted by the second face feature extraction means are collated. A plurality of matching means;
A place information input means for inputting place information indicating the place;
Based on the location information input by the location information input unit, the verification unit that transmits the second facial feature information extracted by the second facial feature extraction unit is selected from the plurality of verification units. Transmission control means for transmitting
A traffic management device comprising:
[8]
Enter an image that includes at least the face of a person passing through a specific location in a specific area,
A face image is detected from the input image;
Extracting facial feature information from the detected face image;
Storing the facial feature information;
Selecting the stored facial feature information;
A traffic management method characterized by that.

1…通行管理システム、2…通行管理システム、3…通行管理システム、4…通行管理システム、5…通行管理システム、6…通行管理システム、110…撮像端末、111…カメラ、112…ID入力部、120…撮像端末、121…カメラ、122…ID入力部、130…撮像端末、131…カメラ、132…ID入力部、140…窓口端末、141…カメラ、142…表示部、143…時間推定部、144…場所情報入力部、150…通行管理装置、151…顔領域検出部、152…顔領域検出部、153…顔領域検出部、154…顔特徴抽出部、155…顔特徴抽出部、156…顔特徴抽出部、157…顔特徴記憶部、158…照合部、159…照合判定部、160…選別部、161…選別顔特徴記憶部、162…表示部、163…照合部、164…照合判定部、165…インターフェース、166…インターフェース、167…インターフェース、168…検索部、169…検索顔特徴記憶部。   DESCRIPTION OF SYMBOLS 1 ... Traffic management system, 2 ... Traffic management system, 3 ... Traffic management system, 4 ... Traffic management system, 5 ... Traffic management system, 6 ... Traffic management system, 110 ... Imaging terminal, 111 ... Camera, 112 ... ID input part , 120 ... imaging terminal, 121 ... camera, 122 ... ID input section, 130 ... imaging terminal, 131 ... camera, 132 ... ID input section, 140 ... window terminal, 141 ... camera, 142 ... display section, 143 ... time estimation section , 144: Location information input unit, 150: Traffic management device, 151 ... Face region detection unit, 152 ... Face region detection unit, 153 ... Face region detection unit, 154 ... Face feature extraction unit, 155 ... Face feature extraction unit, 156 ... Face feature extraction unit, 157 ... Face feature storage unit, 158 ... Verification unit, 159 ... Verification determination unit, 160 ... Selection unit, 161 ... Selected face feature storage unit, 162 ... Display unit, 163 ... Engaging portion, 164 ... verification determining unit, 165 ... interface, 166 ... interface, 167 ... interface, 168 ... search section, 169 ... search facial feature storage unit.

Claims (2)

特定エリアの第1の場所を通過する人物の少なくとも顔を含む画像が入力される第1の画像入力手段と、
前記第1の画像入力手段から入力された画像から顔画像を検出する第1の顔検出手段と、
前記第1の顔検出手段により検出した顔画像から第1の顔特徴情報を抽出する第1の顔特徴抽出手段と、
前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報を記憶する記憶手段と、
前記記憶手段に記憶されている第1の顔特徴情報を選別する選別手段と、
現時刻及び前記第1の場所とは異なる第2の場所を示す第2の場所情報に基づいて、前記人物が前記第1の場所を通過した推定通行時間を推定する時間推定手段と、
前記時間推定手段により推定される推定通行時間に基づいて前記記憶手段により記憶されている第1の顔特徴情報を検索する検索手段と、
を具備し、
前記記憶手段は、前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報と、前記人物が第1の場所を通過した時間を示す通過時間情報とを対応付けて記憶し、
前記検索手段は、前記時間推定手段により推定した推定通行時間より前の時間を示す前記第1の場所の通過時間情報に対応付けられている顔特徴情報を前記記憶手段から検索することを特徴とする通行管理装置。
First image input means for inputting an image including at least a face of a person passing through a first location in a specific area;
First face detection means for detecting a face image from an image input from the first image input means;
First face feature extraction means for extracting first face feature information from the face image detected by the first face detection means;
Storage means for storing first facial feature information extracted by the first facial feature extraction means;
Screening means for selecting first facial feature information stored in the storage means;
Time estimation means for estimating an estimated transit time when the person has passed through the first location based on current location and second location information indicating a second location different from the first location;
Search means for searching for first facial feature information stored in the storage means based on the estimated travel time estimated by the time estimation means;
Comprising
The storage means stores the first facial feature information extracted by the first facial feature extraction means in association with passage time information indicating a time when the person has passed the first place,
The search means searches the storage means for face feature information associated with the transit time information of the first place indicating a time before the estimated travel time estimated by the time estimation means. Traffic management device to do.
特定エリアの複数の場所を通過する人物の少なくとも顔を含む画像が入力される複数の第1の画像入力手段と、
前記複数の第1の画像入力手段から入力された画像から顔画像を検出する第1の顔検出手段と、
前記第1の顔検出手段により検出した顔画像から第1の顔特徴情報を抽出する第1の顔特徴抽出手段と、
前記第1の顔特徴抽出手段により抽出された第1の顔特徴情報を場所ごとに記憶する複数の記憶手段と、
前記特定エリアの別の場所を通過する人物の少なくとも顔を含む画像が入力される第2の画像入力手段と、
前記第2の画像入力手段から入力された画像から顔画像を検出する第2の顔検出手段と、
前記第2の顔検出手段により検出した顔画像から第2の顔特徴情報を抽出する第2の顔特徴抽出手段と、
前記複数の記憶手段と対応し、対応している前記記憶手段により記憶されている第1の顔特徴情報と前記第2の顔特徴抽出手段により抽出された第2の顔特徴情報とを照合する複数の照合手段と、
場所を示す場所情報が入力される場所情報入力手段と、
前記場所情報入力手段により入力された場所情報に基づいて、前記第2の顔特徴抽出手段により抽出された第2の顔特徴情報を伝送する前記照合手段を、前記複数の照合手段のなかから選択して伝送する伝送制御手段と、
を具備することを特徴とする通行管理装置。
A plurality of first image input means for inputting an image including at least a face of a person passing through a plurality of locations in a specific area;
First face detection means for detecting a face image from images input from the plurality of first image input means;
First face feature extraction means for extracting first face feature information from the face image detected by the first face detection means;
A plurality of storage means for storing the first facial feature information extracted by the first facial feature extraction means for each location;
A second image input means for inputting an image including at least a face of a person passing through another place of the specific area;
Second face detection means for detecting a face image from the image input from the second image input means;
Second face feature extraction means for extracting second face feature information from the face image detected by the second face detection means;
Corresponding to the plurality of storage means, the first face feature information stored by the corresponding storage means and the second face feature information extracted by the second face feature extraction means are collated. A plurality of matching means;
A place information input means for inputting place information indicating the place;
Based on the location information input by the location information input unit, the verification unit that transmits the second facial feature information extracted by the second facial feature extraction unit is selected from the plurality of verification units. Transmission control means for transmitting
A traffic management device comprising:
JP2009048116A 2009-03-02 2009-03-02 Traffic management device and traffic management method Active JP5398301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009048116A JP5398301B2 (en) 2009-03-02 2009-03-02 Traffic management device and traffic management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048116A JP5398301B2 (en) 2009-03-02 2009-03-02 Traffic management device and traffic management method

Publications (2)

Publication Number Publication Date
JP2010204832A JP2010204832A (en) 2010-09-16
JP5398301B2 true JP5398301B2 (en) 2014-01-29

Family

ID=42966268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048116A Active JP5398301B2 (en) 2009-03-02 2009-03-02 Traffic management device and traffic management method

Country Status (1)

Country Link
JP (1) JP5398301B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6561830B2 (en) 2013-04-16 2019-08-21 日本電気株式会社 Information processing system, information processing method, and program
CN108229314B (en) * 2017-11-28 2021-05-04 深圳市商汤科技有限公司 Target person searching method and device and electronic equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001241237A (en) * 2000-03-01 2001-09-04 Fujitsu Denso Ltd Fingerprint collation system
JP4153691B2 (en) * 2001-11-06 2008-09-24 株式会社東芝 Face image matching device and face image matching method
JP2007272604A (en) * 2006-03-31 2007-10-18 Omron Corp Information processor and information processing method, and program
JP2008071366A (en) * 2007-10-22 2008-03-27 Toshiba Corp Face image collating device, face image collating system, and face image collating method

Also Published As

Publication number Publication date
JP2010204832A (en) 2010-09-16

Similar Documents

Publication Publication Date Title
KR101166318B1 (en) Face authentification device, person image search system, face authentification device control program, computer readable recording medium, and method of controlling face authentification device
KR100831122B1 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
US7856122B2 (en) Method and device for collating biometric information
JP3584334B2 (en) Human detection tracking system and human detection tracking method
CN109598246B (en) Vehicle access detection method and device, computer equipment and storage medium
JP4241763B2 (en) Person recognition apparatus and method
JP5012247B2 (en) Authentication device, entrance management device, entrance / exit management device, entrance management system, entrance / exit management system, authentication processing method and program
KR101168546B1 (en) Face collation device, electronic appliance, method of controlling face collation device, and control program of face collation device
US20070242860A1 (en) Face image read apparatus and method, and entrance/exit management system
JP2003141541A (en) Individual recognition device and passage control device
JP2009211311A (en) Image processing apparatus and method
US20100067751A1 (en) Dictionary data registration apparatus and dictionary data registration method
JP6040640B2 (en) Image processing apparatus and program
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
JP2019125000A (en) Face authentication device
JP4992517B2 (en) Face matching device
JP2010009389A (en) Dictionary information registration device, dictionary information registration method, face authentication device, and access control system
JP2011150497A (en) Person identification device, person identification method, and software program thereof
JP4374609B2 (en) People counting device
JP5398301B2 (en) Traffic management device and traffic management method
JP2007249298A (en) Face authentication apparatus and face authentication method
JP4882577B2 (en) Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program
JP5877678B2 (en) Face authentication database management method, face authentication database management apparatus, and face authentication database management program
WO2020115910A1 (en) Information processing system, information processing device, information processing method, and program
JP2004118359A (en) Figure recognizing device, figure recognizing method and passing controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131022

R151 Written notification of patent or utility model registration

Ref document number: 5398301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151