JP5726595B2 - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP5726595B2
JP5726595B2 JP2011076329A JP2011076329A JP5726595B2 JP 5726595 B2 JP5726595 B2 JP 5726595B2 JP 2011076329 A JP2011076329 A JP 2011076329A JP 2011076329 A JP2011076329 A JP 2011076329A JP 5726595 B2 JP5726595 B2 JP 5726595B2
Authority
JP
Japan
Prior art keywords
image
head region
head
region
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011076329A
Other languages
Japanese (ja)
Other versions
JP2012212968A (en
Inventor
佐々木 惇
惇 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011076329A priority Critical patent/JP5726595B2/en
Publication of JP2012212968A publication Critical patent/JP2012212968A/en
Application granted granted Critical
Publication of JP5726595B2 publication Critical patent/JP5726595B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、重要監視物の周辺など監視空間に存在する人数を検出して強盗等の非常事態が発生しているか否かを監視する画像監視装置に関し、特に、人数の誤検出を防止した画像監視装置の提供を目的とする。   The present invention relates to an image monitoring apparatus that detects the number of people existing in a monitoring space such as the vicinity of important monitoring objects and monitors whether or not an emergency such as a burglary has occurred, and in particular, an image that prevents erroneous detection of the number of people. The purpose is to provide a monitoring device.

従来、撮像装置より入力される画像から監視空間における強盗等の非常事態を検出して、自動的に外部に通報出力するような画像監視装置が知られている。一般に、強盗などの不審者は、監視区域を制圧して金品の強奪を図ることを目的としており、この成功確率が高くなるよう複数人で現れることが多い。従って、画像監視装置において、このような複数人で現れる強盗などの不審者を検出する場合には、画像中から人物の数を計数する必要がある。   2. Description of the Related Art Conventionally, there has been known an image monitoring apparatus that detects an emergency such as a burglary in a monitoring space from an image input from an imaging apparatus and automatically outputs a report to the outside. In general, suspicious individuals such as robbers aim to seize money by conquering the surveillance area, and often appear by multiple people to increase the probability of success. Therefore, in the image monitoring apparatus, when detecting a suspicious person such as a robber who appears in a plurality of persons, it is necessary to count the number of persons in the image.

ここで、画像から人物の数を計数するためには、画像中に存在する「顔」の数を計数することが有効であるが、「顔」の画像を抽出して人数を計数しようとすると、「顔」が良好に撮像できない(例えば横向きや後ろ向きの)人物を正しく計数することができない場合がある。また、強盗などの不審者は、目出し帽やフルフェイスヘルメットにより素顔を隠していることが多く、目鼻口といった顔の特徴部位が抽出できない場合があるために、「顔」であることの判定ができず人数計数することは困難となる。
つまり、「顔」を用いた人数計数では、様々な顔向きの人物や顔を隠した人物が混在する監視カメラ映像などにおいて正確に人数計測することは困難であった。
Here, in order to count the number of persons from an image, it is effective to count the number of “faces” present in the image. In some cases, it is not possible to correctly count the persons who cannot properly capture the “face” (for example, landscape or backward). In addition, suspicious individuals such as robbers often hide their real faces with a balaclava or full-face helmet, and it may not be possible to extract facial features such as the eyes and nose and mouth. It is difficult to count the number of people.
In other words, in counting the number of people using “faces”, it is difficult to accurately measure the number of people in a surveillance camera image in which a person with various faces or a person whose face is hidden is mixed.

そこで、「顔」ではなく頭部そのものの形状を画像上で抽出する技術として、例えば特許文献1が知られている。特許文献1には、人物の存在を判定するために、人物の頭部をほぼ楕円とみなして、楕円形状に類した領域として人体の頭部領域を抽出する技術が開示されている。特許文献1では、入力画像からエッジ画像を生成して、エッジ画像上で楕円テンプレートによるマッチング処理を行うことにより、エッジ形状が略楕円形状となる領域を人体の頭部領域として抽出している。   Therefore, for example, Patent Document 1 is known as a technique for extracting not the “face” but the shape of the head itself on the image. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for extracting a human head region as a region similar to an elliptical shape by regarding the human head as an ellipse in order to determine the presence of a person. In Patent Document 1, an edge image is generated from an input image, and matching processing using an elliptical template is performed on the edge image, thereby extracting a region where the edge shape is substantially elliptical as a head region of a human body.

特開2010−186274号公報JP 2010-186274 A

特許文献1のように、頭部領域を用いて人体検出を行うことで、様々な顔向きの人物や顔を隠した人物であっても、その存在を検出することができ、人数計数が可能となる。
しかしながら、楕円領域として人体の頭部を抽出し、これを画像中の人物数として計数しようとすると次のような問題が発生する。
すなわち、楕円形状のエッジにより頭部領域を抽出しようとすると、衣類のステッチや皺などにより生じた楕円に類する形状が頭部領域として抽出される可能性があり、人数検出を誤るおそれがある。
By detecting the human body using the head region as in Patent Document 1, it is possible to detect the presence of a person with various face orientations or a person whose face is hidden, and the number of people can be counted. It becomes.
However, if the head of a human body is extracted as an elliptical area and this is counted as the number of persons in the image, the following problem occurs.
That is, when trying to extract the head region with an elliptical edge, a shape similar to an ellipse caused by clothing stitches or heels may be extracted as the head region, and there is a risk of erroneous detection of the number of people.

この問題について、図6を用いて具体的に説明する。図6は、ある時点における撮像装置からの入力画像を示している。入力画像には斜め前方を向いて腕組みをした人物が撮像されている。この場合において、楕円形状のエッジにより頭部領域を抽出すると、図中に点線で示したように、人物の頭部の他、側面から見た肩部のステッチと曲げた肘の縁部において楕円形状のエッジが検出され、3つの頭部領域が抽出され得る。
したがって、この場合に頭部領域の数により人数計測すると、画像中には1人の人物しか含まれないにも拘らず、誤って3人と計測されてしまうのである。
This problem will be specifically described with reference to FIG. FIG. 6 shows an input image from the imaging device at a certain point in time. In the input image, a person with his arms folded facing diagonally forward is captured. In this case, when the head region is extracted with an elliptical edge, as shown by the dotted line in the figure, in addition to the human head, an ellipse is formed at the shoulder stitch seen from the side and the bent elbow edge. Shape edges can be detected and three head regions can be extracted.
Therefore, in this case, if the number of people is measured based on the number of head regions, the number of people is erroneously measured even though only one person is included in the image.

本発明は、かかる課題を解決することを目的としたものであり、頭部領域の数を用いて複数人で現れる強盗などの不審者を検出する場合に、肩部など誤検出要因の影響を低減した画像監視装置の提供を目的とする。   The present invention aims to solve such a problem, and when detecting a suspicious person such as a robber who appears in multiple people using the number of head regions, the influence of a false detection factor such as a shoulder is detected. An object is to provide a reduced image monitoring apparatus.

上記の目的を達成するために本発明による画像監視装置は、監視空間における非常事態を検出する画像監視装置であって、周期的に前記監視空間を撮像して監視画像を取得する撮像部と、前記監視画像から人物の頭部形状に類似した入力頭部領域を抽出する頭部抽出部と、前記入力頭部領域の数に基づき前記監視空間内の人数を検出する人数検出部と、前記検出した人数が所定人数以上であれば非常事態と判定する非常判定部と、を備え、前記人数検出部は、前記頭部抽出部にて抽出された入力頭部領域について所定距離以内に他の入力頭部領域が存在する場合、何れかの領域をカウントフラグ無効とし、当該カウントフラグが無効に設定されていない入力頭部領域に基づき前記監視空間内の人数を検出することを特徴とした。   In order to achieve the above object, an image monitoring apparatus according to the present invention is an image monitoring apparatus that detects an emergency in a monitoring space, and periodically captures the monitoring space to acquire a monitoring image; A head extraction unit that extracts an input head region similar to a human head shape from the monitoring image; a number detection unit that detects the number of people in the monitoring space based on the number of input head regions; and the detection An emergency determination unit that determines an emergency if the number of persons performed is greater than or equal to a predetermined number, and the number detection unit performs another input within a predetermined distance for the input head region extracted by the head extraction unit When the head region exists, the count flag is invalidated in any region, and the number of persons in the monitoring space is detected based on the input head region in which the count flag is not invalidated.

かかる構成において、画像監視装置は、監視画像から人物の頭部に相当する入力頭部領域を抽出し、この入力頭部領域について所定距離以内に位置する他の入力頭部領域が存在するか調べる。そして、当該他の入力頭部領域が存在すると、所定規則により何れかの入力頭部領域についてカウントフラグを無効に設定し、カウントフラグが無効でない入力頭部領域のみに基づいて人数を検出する。すなわち、画像監視装置は、入力頭部領域間の距離が所定距離以内となる複数の入力頭部領域については、何れかの入力頭部領域についてのみ計数を有効として人数を検出するように作用する。   In such a configuration, the image monitoring apparatus extracts an input head region corresponding to the head of a person from the monitoring image, and checks whether there is another input head region located within a predetermined distance for this input head region. . If the other input head area exists, the count flag is invalidated for any one of the input head areas according to a predetermined rule, and the number of persons is detected based only on the input head area where the count flag is not invalid. In other words, the image monitoring device acts to detect the number of persons with a valid count only for any one of the input head regions for a plurality of input head regions where the distance between the input head regions is within a predetermined distance. .

衣類のステッチや皺などにより生じた楕円に類する形状が誤って頭部領域として抽出された場合、これら誤った頭部領域と真正の頭部領域(人物の頭部)とは一定の近接した位置関係にあることとなる。そこで、かかる画像監視装置では、一定の近接した位置関係にある頭部領域について、全てを計数するのではなく、その内何れかの頭部領域についてのみ計数を有効とすることで、同じ人物について誤った頭部領域と真正の頭部領域とで重複して人数計数されることを防止して、人数計数の精度を向上させることが可能となる。   If a shape similar to an ellipse caused by clothing stitches or heels is mistakenly extracted as the head region, the incorrect head region and the genuine head region (person's head) are located at a certain close position. It will be in a relationship. Therefore, in such an image monitoring apparatus, not all of the head regions in a certain close positional relationship are counted, but the counting is enabled only for any one of the head regions, so that the same person can be counted. It is possible to prevent the number of people from being counted twice in the wrong head region and the genuine head region, thereby improving the accuracy of the number of people counting.

また、本発明の画像監視装置において、前記人数検出部は、前記入力頭部領域と前記他の入力頭部領域とにおいて、相対的に下方に位置する領域をカウントフラグ無効とするようにしてもよい。   In the image monitoring apparatus according to the present invention, the number detection unit may invalidate a count flag in a region located relatively below in the input head region and the other input head region. Good.

衣類のステッチや皺などにより生じた楕円に類する形状は、真正の頭部領域(人物の頭部)より下方の着衣部分にて検出され得ることとなる。そこで、かかる構成によれば、近接した位置関係にある頭部領域について、相対的に上方に位置する頭部領域についてのみ計数を有効とすることで、真の頭部を抽出して人数計数の精度及び頭部領域の抽出精度を向上させることが可能となる。   A shape similar to an ellipse generated by clothing stitches, heels, or the like can be detected in a clothing portion below a genuine head region (person's head). Therefore, according to such a configuration, for the head regions in a close positional relationship, the counting is valid only for the head region located relatively above, thereby extracting the true head and counting the number of people. It is possible to improve accuracy and head region extraction accuracy.

さらに、本発明の画像監視装置において、前記人数検出部は、前記入力頭部領域から所定距離以内であり、且つ当該入力頭部領域との面積差が所定範囲内の前記他の入力頭部領域を比較対象とし、前記相対的に下方に位置する領域をカウントフラグ無効とするようにしてもよい。   Furthermore, in the image monitoring apparatus according to the present invention, the number detection unit is within the predetermined distance from the input head region, and the other input head region whose area difference from the input head region is within a predetermined range. May be compared, and the region located relatively below may be invalidated as a count flag.

水平方向を奥行き方向として監視画像を撮影した場合、画像中の同じ人物に着目すると頭部と着衣の肩部や肘部などの面積差異は少ない。一方で、この人物と画像中において奥行き方向(遠近方向)に離れた他の人物とを比較すると頭部同士の大きさや肩部肘部同士の大きさは異なってくる。そこで、かかる構成によれば、近接した位置関係にある頭部領域について、面積差が一定範囲のものを比較対象として計数の有効無効を判定することで、別人の頭部と比較されることを防いで同一人物について抽出された領域の中から真の頭部を抽出することが可能となる。これにより、人数計数の精度及び頭部領域の抽出精度を向上させることが可能となる。   When a monitoring image is taken with the horizontal direction as the depth direction, when attention is paid to the same person in the image, there are few area differences between the head and the shoulder or elbow of the clothes. On the other hand, when comparing this person with other persons separated in the depth direction (perspective direction) in the image, the sizes of the heads and the sizes of the shoulder elbows are different. Therefore, according to such a configuration, the head region in the close positional relationship is compared with another person's head by determining whether the count is valid or invalid by comparing an area having a certain area difference as a comparison target. Thus, it is possible to extract the true head from the region extracted for the same person. This makes it possible to improve the accuracy of counting people and the accuracy of extracting the head region.

さらに、本発明の画像監視装置において、さらに、前記監視画像を過去の画像と比較して変動領域を抽出する変動領域抽出部を備え、前記人数検出部は、前記入力頭部領域について、所定距離以内であり且つ同一の変動領域内に、前記他の入力頭部領域が存在するかを判定するようにしてもよい。   Furthermore, in the image monitoring apparatus of the present invention, the image monitoring apparatus further includes a variable region extracting unit that extracts the variable region by comparing the monitor image with a past image, and the number detection unit has a predetermined distance with respect to the input head region. It may be determined whether or not the other input head region exists within the same fluctuation region.

かかる構成によれば、近接した位置関係にある頭部領域について、同一の変動領域として抽出されているものを比較対象として計数の有効無効を判定することで、別人の頭部と比較されることを防いで同一人物について抽出された領域の中から真の頭部を抽出することが可能となり、人数計数の精度及び頭部領域の抽出精度を向上させることが可能となる。   According to such a configuration, the head area in the close positional relationship is compared with another person's head by determining whether the count is valid or invalid by comparing the extracted head area as the same fluctuation area. Thus, it is possible to extract the true head from the region extracted for the same person, and it is possible to improve the accuracy of counting people and the extraction accuracy of the head region.

また、本発明の画像監視装置において、さらに、予め人物の顔特徴情報を記憶する記憶部と、前記入力頭部領域が顔の特徴情報を有しているか前記顔特徴情報を用いて判定する顔特徴判定部とを備え、前記人数検出部は、前記顔特徴判定部にて顔特徴有りと判定された前記入力頭部領域については前記カウントフラグを無効としないようにしてもよい。   Further, in the image monitoring apparatus of the present invention, a storage unit for storing human face feature information in advance, and a face for determining whether the input head region has face feature information or not using the face feature information. A feature determination unit, and the number detection unit may not invalidate the count flag for the input head region determined to have a face feature by the face feature determination unit.

かかる構成によれば、抽出された頭部領域について人物の顔らしさを判別することで、顔らしいと判定された頭部領域が計数無効に設定されることを防止して、人数計数の精度及び頭部領域の抽出精度を向上させることが可能となる。   According to such a configuration, it is possible to prevent the head area that is determined to be a face from being set to be invalid by counting the person's facial appearance with respect to the extracted head area. It is possible to improve the extraction accuracy of the head region.

本発明によれば、頭部領域の数により人数を計数する場合に、一定の近接した位置関係にある頭部領域について全てを計数するのではなく、その内何れかの頭部領域についてのみ計数を有効とすることが可能となる。
これにより、衣類のステッチや皺などにより生じた楕円に類する形状が誤って頭部領域として抽出された場合であっても、同じ人物について誤った頭部領域と真正の頭部領域とで重複して人数計数されることを防止することが可能となる。
According to the present invention, when counting the number of persons according to the number of head areas, not all the head areas in a certain close positional relationship are counted, but only one of the head areas is counted. Can be made effective.
As a result, even if a shape similar to an ellipse caused by clothing stitches or heels is mistakenly extracted as the head region, the same head region overlaps with the wrong head region and the true head region. It is possible to prevent the number of people from being counted.

本発明の画像監視装置による監視システムの全体構成を示す概略図である。It is the schematic which shows the whole structure of the monitoring system by the image monitoring apparatus of this invention. 本発明の画像監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image monitoring apparatus of this invention. 本発明の画像監視装置の人数検出処理を模式的に示した図である。It is the figure which showed typically the number detection process of the image monitoring apparatus of this invention. 本発明の画像監視装置の不審者監視処理を示すフローチャートである。It is a flowchart which shows the suspicious person monitoring process of the image monitoring apparatus of this invention. 本発明の画像監視装置の人数検出処理を示すフローチャートである。It is a flowchart which shows the number detection process of the image monitoring apparatus of this invention. 背景技術における頭部領域抽出の状態を示す概略図である。It is the schematic which shows the state of the head area | region extraction in background art.

以下、本発明の実施形態について、図面を参照して具体的に説明する。
本実施形態では、監視区域(監視空間)として金融機関や商店などの事務所エリアにおける重要監視物周辺を監視する場合を例示するが、本発明の範囲はこれに限定されるものではなく、事務所室内全域や街頭などを監視区域として監視するよう用いられてよい。
Embodiments of the present invention will be specifically described below with reference to the drawings.
In the present embodiment, the case of monitoring the vicinity of important monitoring objects in an office area such as a financial institution or a store as a monitoring area (monitoring space) is illustrated, but the scope of the present invention is not limited to this, and It may be used to monitor the entire room or street as a monitoring area.

図1は、本発明の画像監視装置を用いた監視システム1を示す構成図である。
図1は、重要監視物として金庫など内部に収納空間を有した保管庫2及び画像監視装置3が設置された監視区域を模式的に示している。図1に示すように、本実施形態の監視システム1は、監視区域の床面に固定設置された保管庫2の上部に載置される監視装置3と、遠隔の監視センタ5とを、通信回線網4を介して接続して構成されている。
FIG. 1 is a configuration diagram showing a monitoring system 1 using the image monitoring apparatus of the present invention.
FIG. 1 schematically shows a monitoring area in which a storage 2 having a storage space inside a safe or the like and an image monitoring device 3 are installed as important monitoring objects. As shown in FIG. 1, the monitoring system 1 of the present embodiment communicates a monitoring device 3 placed on the upper part of a storage 2 fixedly installed on the floor of a monitoring area and a remote monitoring center 5. It is configured to be connected via the line network 4.

画像監視装置3の筐体には、撮像部としての監視カメラ31が保管庫扉と同方向に向いて配置されている。監視カメラ31は、保管庫扉の前方を撮像視野として保管庫2まで接近してくる人物が撮像可能に配置される。
なお、監視カメラ31は画像監視装置3の筐体に内蔵される例に限らず、少なくとも監視区域内の人物が撮像可能に保管庫2の上部空間や背後壁面などに別途監視カメラが設置され、画像監視装置3と接続される構成としてもよい。また、画像監視装置3も、保管庫2の上部に載置される例に限らず、保管庫2の上部空間や背後壁面などに設定されてよい。
In the housing of the image monitoring apparatus 3, a monitoring camera 31 as an imaging unit is arranged in the same direction as the storage door. The monitoring camera 31 is arranged so that a person approaching the storage 2 can be imaged using the front of the storage door as an imaging field of view.
Note that the monitoring camera 31 is not limited to the example built in the housing of the image monitoring device 3, and a monitoring camera is separately installed in the upper space or the rear wall of the storage 2 so that at least a person in the monitoring area can take an image, It may be configured to be connected to the image monitoring apparatus 3. The image monitoring device 3 is not limited to the example of being placed on the upper part of the storage 2 and may be set in the upper space of the storage 2 or the rear wall surface.

監視カメラ31は、所定の撮影間隔(例えば0.2秒)毎に監視区域を撮像して監視画像としての画像データを生成して出力する。画像監視装置3は、監視カメラ31から出力される情報を基に、周期的に撮像される画像データを参照して保管庫2の周辺に不審者による非常事態が発生しているか否かを判定する。   The monitoring camera 31 captures a monitoring area at every predetermined shooting interval (for example, 0.2 seconds), generates image data as a monitoring image, and outputs it. Based on the information output from the monitoring camera 31, the image monitoring apparatus 3 refers to periodically captured image data to determine whether or not an emergency situation caused by a suspicious person has occurred around the storage 2 To do.

本実施形態において、非常事態とは、強盗など監視区域の保全を損うおそれがあることをいい、具体的には、保管庫の周辺に予め定めた規定以上の人数が存在することである。 一般に、強盗などの不審者は、監視区域を制圧して金品の強奪を図ることを目的としており、この成功確率が高くなるよう複数人で現れることが多い。また、保管庫の解錠権限を持った利用者を脅すなどの行為により、利用者を含む複数人として保管庫周辺に存在することもある。そこで、本実施形態では、保管庫の周辺に予め定めた規定以上の人数が存在することを検出すると、不審者が存在すると判定して非常事態が発生と判定する。   In the present embodiment, an emergency means that there is a risk of damaging the maintenance of a monitored area such as a burglar, and specifically, there are more than a predetermined number of people around the storage. In general, suspicious individuals such as robbers aim to seize money by conquering the surveillance area, and often appear by multiple people to increase the probability of success. Further, there are cases where a plurality of people including the user exist around the storage due to acts such as threatening a user who has the authority to unlock the storage. Therefore, in the present embodiment, when it is detected that there are more than a predetermined number of people around the storage, it is determined that there is a suspicious person and an emergency situation has occurred.

特に、本実施形態で特徴的な事項として、画像監視装置3は、画像データから人数を検出するにあたり、人物の頭部形状に類似した頭部領域を抽出するとともに、複数の頭部領域の位置関係などから計数無効とするか否か評価した上で適切な頭部領域の計数を行う。そして、計数された頭部領域の数を監視区域の人数とみなして規定以上の人数が存在するか否か判定する。規定以上の人数が存在した場合、画像監視装置3は、不審者による非常事態が発生していると判定して、監視区域で非常事態が発生していることを示す非常信号と不審者の検出に用いた画像データを遠隔の監視センタ5に送信する。   In particular, as a characteristic matter in the present embodiment, the image monitoring apparatus 3 extracts a head region similar to the head shape of a person and detects the positions of a plurality of head regions when detecting the number of people from image data. An appropriate head area is counted after evaluating whether the count is invalid from the relationship. Then, the counted number of head regions is regarded as the number of people in the monitoring area, and it is determined whether or not there are more than the specified number. When there are more than the specified number of persons, the image monitoring apparatus 3 determines that an emergency has occurred due to a suspicious person, and detects an emergency signal and a suspicious person indicating that an emergency has occurred in the monitored area. The image data used for the transmission is transmitted to the remote monitoring center 5.

監視センタ5は、警備会社などが運営するセンタ装置51を備えた施設である。センタ装置51は、1又は複数のコンピュータで構成されており、本発明に関連する監視センタ5の機能を実現する。監視センタ5では、センタ装置51により各種機器が制御され、画像監視装置3から受信した非常信号を記録するとともに、画像監視装置3から送信される画像データをディスプレイ52に表示することで、監視員が監視対象となる複数の監視区域を監視している。   The monitoring center 5 is a facility provided with a center device 51 operated by a security company or the like. The center device 51 is composed of one or a plurality of computers, and realizes the function of the monitoring center 5 related to the present invention. In the monitoring center 5, various devices are controlled by the center device 51, the emergency signal received from the image monitoring device 3 is recorded, and the image data transmitted from the image monitoring device 3 is displayed on the display 52, so that the monitoring staff Monitors multiple monitored areas.

<画像監視装置>
次に、図2を用いて画像監視装置3の構成について説明する。図2は、画像監視装置3の構成を示すブロック図である。
画像監視装置3は、監視センタ5と通信可能に通信回線網4と接続されて、保管庫2の上部に固定載置されている。
<Image monitoring device>
Next, the configuration of the image monitoring apparatus 3 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the image monitoring apparatus 3.
The image monitoring device 3 is connected to the communication network 4 so as to be communicable with the monitoring center 5, and is fixedly placed on the upper part of the storage 2.

画像監視装置3は、保管庫前方を撮影する監視カメラ31と、通信回線網4と接続される通信部32と、HDDやメモリなどで構成される記憶部33と、MPUやマイコンなどで構成され各部の制御を行う制御部34とを有して概略構成される。   The image monitoring apparatus 3 includes a monitoring camera 31 that captures the front of the storage, a communication unit 32 connected to the communication network 4, a storage unit 33 including an HDD and a memory, an MPU, a microcomputer, and the like. And a control unit 34 that controls each unit.

監視カメラ31は、保管庫前方を含む監視区域の監視画像を生成する。監視カメラ31は、撮像素子から入力される画像信号を所定の撮影間隔(例えば0.2秒周期、すなわち5fps(フレーム/秒))でデジタル信号に変換し、圧縮符号化処理を行い所定の規格(例えばJPEG規格)に準拠した画像データを生成する。画像の撮像に用いる波長帯としては、カラー画像が撮像可能な可視光波長を用いる。監視カメラ31により生成された画像データは、制御部34に出力される。   The monitoring camera 31 generates a monitoring image of the monitoring area including the front of the storage. The monitoring camera 31 converts an image signal input from the image sensor into a digital signal at a predetermined shooting interval (for example, a cycle of 0.2 seconds, that is, 5 fps (frame / second)), performs compression encoding processing, and performs a predetermined standard. Image data compliant with (for example, JPEG standard) is generated. As a wavelength band used for image capturing, a visible light wavelength capable of capturing a color image is used. The image data generated by the monitoring camera 31 is output to the control unit 34.

通信部32は、通信回線網4を介してセンタ装置51と接続されて監視センタ5との間で通信を行う。通信部32は、制御部34にて監視区域内に不審者が存在すると判定されると、自己のアドレス情報を含む非常信号および記憶部33に記憶された画像データを監視センタ5に送信する。   The communication unit 32 is connected to the center device 51 via the communication line network 4 and communicates with the monitoring center 5. When the control unit 34 determines that there is a suspicious person in the monitoring area, the communication unit 32 transmits an emergency signal including its own address information and the image data stored in the storage unit 33 to the monitoring center 5.

記憶部33は、ROMやRAM、又はHDDにて構成され自己を特定するためのアドレス情報と各種プログラムなどを記憶しており、更に画像監視装置3を動作させるための各種情報を記憶する。具体的に、記憶部33は、移動物体を抽出するための背景情報となる基準画像と、予め取得した様々な顔画像の特徴情報を記憶した顔特徴情報と、不審者の存在が判定された際の画像を記憶する不審者画像と、頭部領域ごとに人数計数の対象とするか否かを示したカウントフラグとを記憶している。   The storage unit 33 is configured by a ROM, a RAM, or an HDD, stores address information for identifying itself and various programs, and further stores various information for operating the image monitoring apparatus 3. Specifically, the storage unit 33 determines the presence of a suspicious person, a reference image serving as background information for extracting a moving object, face feature information storing feature information of various facial images acquired in advance, and A suspicious person image for storing the image at the time and a count flag indicating whether or not to count the number of people for each head region are stored.

基準画像は、後述する変動領域抽出処理にて、監視カメラ31から入力される画像データ(以下、入力画像ともいう)と比較して監視区域内の移動物体を抽出するために用いられる比較基準情報であり、予め無人時の監視区域を撮像して取得された画像データである。   The reference image is comparison reference information used to extract a moving object in the monitoring area in comparison with image data (hereinafter also referred to as an input image) input from the monitoring camera 31 in a fluctuation area extraction process described later. It is image data acquired by capturing an image of a monitoring area when there is no driver.

顔特徴情報は、人物の顔画像を判定するための特徴情報として、予め男女様々な人物の顔を多方向から撮像した顔画像について、顔全体及び目や鼻、口など各部位の輝度パターンを顔の特徴情報として記憶している。また、顔特徴情報に記憶される顔画像の輝度パターンは、素顔の人物の顔画像のみでなく、サングラスをした人物、マスクをした人物、手で顔を隠した人物、目出し帽を被った人物、フルフェイスヘルメットを被った人物など、不審者として予め想定される人物の顔や頭部の画像情報も含み、これら多様な顔画像について入力元となる顔画像の属性と対応づけられて輝度パターンが記憶される。顔画像の属性とは、顔を隠蔽していない「素顔」、及び顔を隠蔽した状態として「サングラス+マスク」、「手」、「目出し帽」、「フルフェイス」、など入力元の顔画像の状態を示す情報である。   The face feature information is the feature information for determining the face image of a person. For the face image obtained by capturing images of faces of various men and women from multiple directions in advance, the brightness pattern of each part such as the entire face and eyes, nose, mouth, etc. It is stored as facial feature information. Also, the brightness pattern of the face image stored in the face feature information is not only the face image of a real person, but also a person wearing sunglasses, a person wearing a mask, a person whose face is hidden by hand, and a balaclava It also includes image information of the face and head of a person who is assumed to be a suspicious person, such as a person or a person wearing a full-face helmet, and the brightness associated with the attributes of the face image as the input source for these various face images The pattern is stored. The attributes of the face image are the “original face” that does not hide the face, and “Sunglasses + mask”, “hand”, “balancing cap”, “full face”, etc. This is information indicating the state of the image.

不審者画像は、制御部34による非常判定処理により現在の画像データに不審者が含まれる(許容人数以上が存在する)と判定された際にこの画像データを記憶するものである。
カウントフラグは、頭部領域の固有ラベルごとに設定され、制御部34により人数検出処理により用いられるフラグ情報である。カウントフラグの詳細については後述する。
The suspicious person image is stored in the case where it is determined by the emergency determination process by the control unit 34 that the current image data includes a suspicious person (there are more than the allowable number of persons).
The count flag is flag information that is set for each unique label of the head region and is used by the control unit 34 in the number detection process. Details of the count flag will be described later.

制御部34は、CPU、ROM、RAM等からなるマイクロコンピュータ及びその周辺回路で構成され、上述した各部を制御する。そのために、制御部34は、このマイクロコンピュータ及びマイクロコンピュータ上で実行されるコンピュータプログラムによって実現される機能モジュールとして、入力画像中の人物領域を抽出する変動領域抽出部341と、入力画像から入力頭部領域として人物の頭部領域を抽出する頭部抽出部342と、入力画像中の頭部領域が顔の特徴情報を有した頭部であるか判定する顔特徴判定部343と、入力画像中の頭部領域に基づき人数を検出する人数検出部344と、監視区域内に不審者による非常事態が発生しているか否かを判定する非常判定部345と、を備えている。   The control unit 34 includes a microcomputer including a CPU, a ROM, a RAM, and the like and peripheral circuits thereof, and controls each unit described above. For this purpose, the control unit 34 includes, as a functional module realized by the microcomputer and a computer program executed on the microcomputer, a variable region extraction unit 341 that extracts a person region in the input image, and an input head from the input image. A head extraction unit 342 that extracts a human head region as a partial region; a face feature determination unit 343 that determines whether the head region in the input image is a head having facial feature information; A number detection unit 344 that detects the number of people based on the head region, and an emergency determination unit 345 that determines whether or not an emergency has occurred in the monitored area.

変動領域抽出部341は、入力画像に画像処理を施して移動物体となる人物を検出する。変動領域抽出部341は、入力画像と記憶部33に記憶された基準画像とを比較して、輝度値の変動が所定以上であった変動画素を抽出するとともに、略連続した変動画素群を1つの変動領域としてグループ化する。   The fluctuation region extraction unit 341 performs image processing on the input image to detect a person who becomes a moving object. The variation area extraction unit 341 compares the input image with the reference image stored in the storage unit 33, extracts the variation pixels whose luminance value variation is equal to or greater than a predetermined value, and sets a substantially continuous variation pixel group as one. Group as one variable area.

頭部抽出部342は、変動領域抽出部が抽出した変動領域の内部において入力頭部領域として人物の頭部部分の領域を抽出する。頭部抽出部342は、変動領域のエッジ成分を抽出し、エッジ画像データにおいて顔の輪郭形状に近似した楕円形状のエッジ分布を検出して、そのエッジ分布に囲まれた楕円領域を人物の頭部領域として抽出する。かかる頭部領域の抽出処理については本出願人による特開2005−25568号公報や特開2010−286274号公報に記載された種々の方法を採用することができる。   The head extraction unit 342 extracts the region of the person's head part as the input head region within the variation region extracted by the variation region extraction unit. The head extraction unit 342 extracts the edge component of the fluctuation region, detects an elliptical edge distribution that approximates the contour shape of the face in the edge image data, and determines the elliptical region surrounded by the edge distribution as the head of the person. Extract as a partial area. Various methods described in Japanese Patent Application Laid-Open No. 2005-25568 and Japanese Patent Application Laid-Open No. 2010-286274 by the present applicant can be adopted for the extraction process of the head region.

具体的には、頭部抽出部342は、Sobelフィルターなど公知のエッジ抽出フィルターを入力画像の変動領域に作用させてエッジ強度とエッジ角度(水平を基準としたエッジ方向)を求めてエッジ強度画像とエッジ角度画像を生成する。そして、頭部抽出部342は、予め記憶した大きさの異なる複数の楕円テンプレートを用いてエッジ強度画像及びエッジ角度画像上にてずらしマッチングを行い、楕円テンプレートとエッジ成分との類似度を求め、この類似度が高い位置を人物の頭部領域として抽出し、各頭部領域に固有のラベルでラベリングする。   Specifically, the head extraction unit 342 applies a known edge extraction filter such as a Sobel filter to the fluctuation region of the input image to obtain an edge strength and an edge angle (an edge direction with respect to the horizontal) to obtain an edge strength image. And generate an edge angle image. Then, the head extraction unit 342 performs shift matching on the edge strength image and the edge angle image using a plurality of ellipse templates having different sizes stored in advance, and obtains the similarity between the ellipse template and the edge component, A position having a high degree of similarity is extracted as a head region of a person, and is labeled with a label unique to each head region.

なお、頭部領域の抽出手法はこれに限定されるものではなく、種々提案されている公知の方法を用いることが可能である。例えば、HOG(Histograms of Oriented Gradients)特徴量を用いて頭部領域を抽出してもよい。この場合、変動領域を構成する複数のセル毎に輝度の勾配方向ヒストグラムを求めて9次元の特徴量ベクトルを得て、複数セルによるブロック領域においてセルの特徴量ベクトルを正規化する。そして、ブロック領域毎に多次元の特徴量ベクトルを得てこれを予め学習した頭部形状の特徴量と比較することで頭部領域を抽出する。HOG特徴量の参考文献として、N. Dalal and
B. Triggs, "Histograms of oriented gradients for
human detection", Proc. of IEEE Conference on Computer Vision and Pattern
Recognition (CVPR), pp.886-893, 2005などがある。
Note that the head region extraction method is not limited to this, and various known methods can be used. For example, the head region may be extracted using HOG (Histograms of Oriented Gradients) feature values. In this case, a luminance gradient direction histogram is obtained for each of a plurality of cells constituting the variable region to obtain a nine-dimensional feature vector, and the cell feature vector is normalized in the block region of the plurality of cells. A head region is extracted by obtaining a multidimensional feature vector for each block region and comparing it with a feature value of a head shape learned in advance. As a reference for HOG features, N. Dalal and
B. Triggs, "Histograms of oriented gradients for
human detection ", Proc. of IEEE Conference on Computer Vision and Pattern
Recognition (CVPR), pp.886-893, 2005, etc.

顔特徴判定部343は、頭部抽出部342にて抽出された頭部領域が、素顔の顔画像、又はサングラスやマスク或いは手などで顔を覆ったり、フルフェイスのヘルメット等の装着により顔の一部分や全部分を隠して人相が分らない(顔の特徴情報がない)顔画像であるか否かを判定する。
顔特徴判定部343は、入力画像において、抽出された頭部領域を複数の矩形領域に分割し、各分割矩形領域毎、及び隣接する分割矩形領域を統合したブロック毎に顔特徴情報に記憶した顔画像の輝度パターンとのパターンマッチングを行う。そして、類似度が高く算出された輝度パターンの属性から、固有ラベルが付された頭部領域毎に何れの属性の顔画像が含まれているか又は顔画像が含まれていないかの識別結果を出力する。
The face feature determination unit 343 covers the face of the head region extracted by the head extraction unit 342 with a face image of the face, sunglasses, a mask, a hand, or the like, or wearing a full-face helmet or the like. It is determined whether the face image is a face image in which a part or all of the part is hidden and the human phase is not known (no facial feature information).
The face feature determination unit 343 divides the extracted head region into a plurality of rectangular regions in the input image, and stores the divided head regions in the face feature information for each divided rectangular region and each block obtained by integrating adjacent divided rectangular regions. Pattern matching with the luminance pattern of the face image is performed. Then, from the attribute of the brightness pattern calculated with a high degree of similarity, an identification result as to which attribute face image is included or not included for each head region with a unique label Output.

例えば、目鼻口など顔の特徴部位(特徴情報)が抽出できれば顔を隠蔽していない「素顔」な属性の顔画像と判定され、目鼻口など顔の特徴部位が抽出できず頭部領域の垂直方向中央に暗い画素が集中し垂直方向下方に明るい画素が集中している場合には顔を隠蔽した状態として「サングラス+マスク」属性の顔画像と判定され、また、目鼻口など顔の特徴部位が抽出できず頭部領域内にエッジが少なくのっぺりとしている場合には顔を隠蔽した状態として「フルフェイス」属性の顔画像と判定される。また、顔特徴情報に記憶した何れのパターンとも高い類似度が得られない場合、当該頭部領域は人体の頭部でない(顔画像が含まれない)と判定される。
顔特徴判定部343の識別結果は入力画像及び頭部領域の固有ラベルに対応付けて記憶部33上の作業領域に記憶される。
For example, if a facial feature part (feature information) such as the eyes and nose and mouth can be extracted, it is determined that the face image has a “real face” attribute that does not conceal the face. When dark pixels are concentrated at the center in the direction and bright pixels are concentrated below the vertical direction, it is determined that the face is concealed as a face image having the “sunglasses + mask” attribute, and facial features such as the eyes, nose and mouth Cannot be extracted, and there are few edges in the head region, it is determined that the face is concealed as a face image having the “full face” attribute. Further, when a high similarity cannot be obtained with any of the patterns stored in the face feature information, it is determined that the head region is not a human head (a face image is not included).
The identification result of the face feature determination unit 343 is stored in the work area on the storage unit 33 in association with the input image and the unique label of the head area.

なお、顔特徴判定部343による顔画像の判別処理はこれに限定されるものではなく、種々提案されている公知の方法を用いることが可能である。例えば、Haar-like特徴を用いたAdaboost識別器により、頭部領域がどの属性の顔画像であるかを判定してもよい。Haar-like特徴は、入力画像の頭部領域中に任意に設定された複数の隣接した分割矩形領域間の輝度差である。また、Adaboost識別器は、複数の弱識別器と、各弱識別器の判定結果を統合して判定する強識別器とから構成される。各弱識別器は、入力された画像領域から、それぞれ異なるHaar-like特徴を算出し、算出されたHaar-like特徴に基づいて頭部領域に何れの属性の顔画像が含まれているか又は顔画像が含まれていないかの識別結果を出力する。各弱識別器は、顔特徴情報に記憶した顔画像のHaar-like特徴を学習して生成され、その際に合わせて顔画像の属性も取得する。Haar-like特徴及びAdaboost識別器の詳細については、例えば、Paul Viola and Michael Jones, "Rapid Object Detection using a
Boosted Cascade of Simple Features", IEEE CVPR, vol.1, pp.511-518, 2001に開示されている。
Note that the face image determination processing by the face feature determination unit 343 is not limited to this, and various known methods can be used. For example, an attribute identifier of the head region may be determined by an Adaboost discriminator using Haar-like features. The Haar-like feature is a luminance difference between a plurality of adjacent divided rectangular areas arbitrarily set in the head area of the input image. The Adaboost classifier includes a plurality of weak classifiers and a strong classifier that is determined by integrating the determination results of the weak classifiers. Each weak classifier calculates a different Haar-like feature from the input image region, and based on the calculated Haar-like feature, which attribute image is included in the head region or the face Outputs the identification result of whether an image is not included. Each weak classifier is generated by learning the Haar-like feature of the face image stored in the face feature information, and acquires the attribute of the face image accordingly. For details on Haar-like features and Adaboost classifiers, see, for example, Paul Viola and Michael Jones, "Rapid Object Detection using a
Boosted Cascade of Simple Features ", IEEE CVPR, vol.1, pp.511-518, 2001.

人数検出部344は、固有ラベルが付された頭部領域について、複数の頭部領域間の位置関係などから評価を行い適切な頭部領域を計数する。
衣類のステッチや皺などにより生じた楕円に類する形状が、誤って頭部領域として抽出された場合、これら誤った頭部領域は真正な頭部領域(人物の頭部)より下方の着衣部分にて検出され得ることとなる。そこで、人数検出部344は、頭部領域間の距離を調べ、一定の距離範囲に存在する複数の頭部領域について、最も上方に位置するもののみを有効とし、下方に位置する他の頭部領域を計数無効として頭部領域の数を計数する。この際、近接した距離範囲に他の頭部領域が存在しない孤立した頭部領域については、有効として計数を行う。
The number-of-people detection unit 344 evaluates the head region with the unique label from the positional relationship between the plurality of head regions, and counts the appropriate head region.
If a shape similar to an ellipse caused by clothing stitches or wrinkles is mistakenly extracted as the head region, these erroneous head regions are located on the clothing part below the genuine head region (the person's head). Can be detected. Therefore, the number detection unit 344 examines the distance between the head regions, and among the plurality of head regions existing in a certain distance range, only the uppermost one is effective, and the other heads located below The number of head regions is counted with the region invalid. At this time, an isolated head region in which no other head region exists in the close distance range is counted as valid.

具体的には、人数検出部344は、入力画像中の何れかの頭部領域に注目(注目頭部領域)し、その重心位置から上下左右所定距離となる探索領域を設定して、探索領域内に注目領域と同じ変動領域より抽出された他の頭部領域が存在するか判定する。探索領域の大きさは、注目頭部領域の大きさに応じて設定され、例えば注目頭部領域の幅W・高さHとした場合3W・3Hのサイズの矩形領域として設定される。そして、探索領域内に重心位置が含まれる他の頭部領域(比較頭部領域)が存在すると、この比較頭部領域の面積と注目頭部領域との比較を行い、面積の差が所定範囲内(例えば比較頭部領域の面積が注目頭部領域の面積の70%〜130%範囲内)か否か判定する。
これは、本実施形態のように水平方向を奥行き方向として監視画像を撮影する場合、同一人物であれば、頭部と誤検出要因としての着衣の肩部や肘部などとの面積差が少ないという知見に基づいている。一方で、画像中において奥行き方向(遠近方向)に離れた人物同士であれば例え画像中に一つの変動領域に重なって現れたとしても頭部の大きさは異なることとなる。
Specifically, the number detection unit 344 pays attention to any head region in the input image (attention head region), sets a search region that is a predetermined distance in the vertical and horizontal directions from the center of gravity, and It is determined whether there is another head area extracted from the same fluctuation area as the attention area. The size of the search area is set according to the size of the target head area. For example, when the width W and the height H of the target head area are set, the search area is set as a rectangular area having a size of 3W / 3H. If there is another head region (comparison head region) including the center of gravity position in the search region, the comparison head region is compared with the target head region, and the difference in area is within a predetermined range. Whether the area of the comparative head region is within the range of 70% to 130% of the area of the head region of interest.
This is because when the monitoring image is taken with the horizontal direction as the depth direction as in this embodiment, the area difference between the head and the shoulder or elbow of clothing as a false detection factor is small if the person is the same person. Based on the knowledge that. On the other hand, if the persons are separated from each other in the depth direction (perspective direction) in the image, the sizes of the heads will be different even if they appear in the image overlapping one fluctuation region.

そして、人数検出部344は、注目頭部領域と比較頭部領域の重心位置座標を比較して垂直方向で下方に位置する何れかの頭部領域についてカウントフラグを「無効」に設定する。更に詳細に説明すると、人数検出部344は、下方に位置する何れかの頭部領域について、記憶部33に記憶されている顔特徴判定部343の識別結果を参照し、顔画像が含まれていないと識別されていれば、当該頭部領域についてカウントフラグを「無効」に設定し、顔特徴判定部343による顔画像が含まれていると判定されていればカウントフラグを「無効」に設定しない。   Then, the number detection unit 344 compares the center-of-gravity position coordinates of the target head region and the comparative head region, and sets the count flag to “invalid” for any head region positioned downward in the vertical direction. More specifically, the number detection unit 344 refers to the identification result of the face feature determination unit 343 stored in the storage unit 33 for any head region located below and includes a face image. If it is determined that the face feature determination unit 343 determines that the face image is included, the count flag is set to “invalid”. do not do.

カウントフラグは、頭部領域の計数の対象であるか否かを示すフラグ情報であり、頭部領域の固有ラベルに対応付けて記憶部33に記憶される。カウントフラグは、頭部抽出部342により頭部領域が抽出され固有ラベルが付されたときに初期値を「有効」として生成される。カウントラベルの値が「有効」であれば頭部領域の計数対象であり、「無効」であれば頭部領域の計数対象外となる。
人数検出部344は、カウントフラグが有効に設定された頭部領域の数を計数し、監視区域に存在する人数として出力する。
The count flag is flag information indicating whether or not the head region is to be counted, and is stored in the storage unit 33 in association with the unique label of the head region. The count flag is generated with an initial value of “valid” when a head region is extracted by the head extraction unit 342 and a unique label is attached. If the value of the count label is “valid”, the head region is counted, and if it is “invalid”, the head region is not counted.
The number detection unit 344 counts the number of head regions in which the count flag is set effectively, and outputs the number as the number of people existing in the monitoring area.

非常判定部345は、人数検出部344の検出した人数が予め設定された許容人数を超えているか否かを判定する。許容人数は、監視区域内に存在を許容する(異常でない)上限人数であり、監視区域ごとに予め設定されて記憶部33に記憶されている。本実施形態では、許容人数は例えば2人に設定されている。非常判定部345は、人数検出部344が検出した人数と当該監視領域の許容人数とを比較し、検出人数の方が上回っていれば不審者が存在し非常事態が発生していると判定する。   The emergency determination unit 345 determines whether or not the number of people detected by the number of people detection unit 344 exceeds a preset allowable number of people. The allowable number of persons is the upper limit number of persons allowed to exist in the monitoring area (not abnormal), and is preset for each monitoring area and stored in the storage unit 33. In the present embodiment, the allowable number of people is set to two, for example. The emergency determination unit 345 compares the number of persons detected by the number of persons detection unit 344 with the allowable number of persons in the monitoring area, and determines that there is a suspicious person and an emergency has occurred if the number of detected persons is greater. .

そして、非常判定部345は、入力画像から不審者が存在する非常事態と判定すると、自己のアドレス情報を含む非常信号を生成し、不審者の存在を判定した画像データを付して通信部32に出力し、通信部32より監視センタ5に送信する。またこのとき、不審者の存在を判定した画像データを不審者画像として記憶部33に記憶する。   When the emergency determination unit 345 determines from the input image that there is an emergency situation in which a suspicious person exists, the emergency determination unit 345 generates an emergency signal including its own address information, and attaches image data that determines the presence of the suspicious person to the communication unit 32. To the monitoring center 5 from the communication unit 32. At this time, the image data determined to be present is stored in the storage unit 33 as a suspicious person image.

<動作の説明>
以上のように構成された監視システム1について、図面を参照してその動作を説明する。まず、図3を用いて画像監視装置3の処理概要について説明する。図3は画像監視装置3による人数検出処理を模式的に示した図である。
<Description of operation>
The operation of the monitoring system 1 configured as described above will be described with reference to the drawings. First, an outline of processing of the image monitoring apparatus 3 will be described with reference to FIG. FIG. 3 is a diagram schematically showing the number detection process by the image monitoring apparatus 3.

画像監視装置3において、監視カメラ31が所定間隔(例えば0.2秒)ごとに画像データを取得し、制御部34に入力する。監視カメラ31より画像データ(入力画像)が入力されると、変動領域抽出部341は、図3(a)に示すように、記憶部33の基準画像と入力画像との差分を算出して変動領域10、11、12を抽出する。次に、頭部抽出部342は、変動領域の内部において楕円形状のエッジ分布を検出して、そのエッジ分布に囲まれた楕円領域を人物の頭部領域として抽出し、各頭部領域に固有のラベルでラベリングする。図3(a)では、頭部領域としてf1〜f5の5つの領域が抽出されている。またこのとき、頭部領域f1〜f5についてカウントフラグが生成され初期値として「有効」が記憶される。   In the image monitoring device 3, the monitoring camera 31 acquires image data at predetermined intervals (for example, 0.2 seconds) and inputs the image data to the control unit 34. When image data (input image) is input from the monitoring camera 31, the fluctuation region extraction unit 341 calculates the difference between the reference image of the storage unit 33 and the input image as shown in FIG. Regions 10, 11, and 12 are extracted. Next, the head extraction unit 342 detects an elliptical edge distribution within the fluctuation region, extracts an elliptical region surrounded by the edge distribution as a human head region, and is unique to each head region. Label with the label. In FIG. 3A, five regions f1 to f5 are extracted as the head region. At this time, count flags are generated for the head regions f1 to f5, and “valid” is stored as an initial value.

次に、顔特徴判定部343は、図3(b)に示すように、抽出された頭部領域と記憶部に記憶された顔特徴情報とのパターンマッチングを行い、算出された類似度が高い輝度パターンの属性を読み出して、固有ラベルが付された頭部領域ごとに何れの属性の顔画像が含まれているか又は顔画像が含まれていないかの識別結果を出力する。図3(b)では、頭部領域f1は「素顔」と判定され、f2及びf3は顔画像が含まれないと判定され、f4は「素顔」と判定され、そしてf5は「フルフェイス」と判定される例を示している。   Next, as shown in FIG. 3B, the face feature determination unit 343 performs pattern matching between the extracted head region and the face feature information stored in the storage unit, and the calculated similarity is high. The attribute of the luminance pattern is read, and an identification result indicating which face image of which attribute is included for each head region to which the unique label is attached or which face image is not included is output. In FIG. 3B, the head region f1 is determined to be “real face”, f2 and f3 are determined not to include a face image, f4 is determined to be “real face”, and f5 is “full face”. An example of determination is shown.

そして、人数検出部344は、図3(c)に示すように、各頭部領域に注目して探索領域を設定し、探索領域内に同じ変動領域から抽出された他の頭部領域(比較頭部領域)が存在するかを調べる。図3(c)では、頭部領域f1を注目頭部領域として、探索領域A1が設定されている。この場合、探索領域A1内には注目頭部領域f1と同じ変動領域10から抽出された頭部領域f2の重心位置が含まれるので、頭部領域f2が比較頭部領域となる。続いて人数検出部344は、比較頭部領域f2の面積が注目頭部領域f1の面積に対して所定範囲内(例えば注目頭部領域の70%〜130%)であるかを調べ、これを満たしていれば注目頭部領域f1と比較頭部領域f2において、より下方に位置する比較頭部領域f2のカウントフラグが「無効」に設定される。なお、このとき、顔特徴判定部343により比較頭部領域f2に顔画像が含まれていると判定されていた場合にはカウントフラグは無効に設定されない。   Then, as shown in FIG. 3 (c), the number-of-people detection unit 344 sets a search region by paying attention to each head region, and another head region (comparison) extracted from the same variation region in the search region. Check if head area exists. In FIG. 3C, the search area A1 is set with the head area f1 as the target head area. In this case, since the center of gravity of the head region f2 extracted from the same fluctuation region 10 as the target head region f1 is included in the search region A1, the head region f2 becomes a comparative head region. Subsequently, the number detection unit 344 checks whether the area of the comparative head region f2 is within a predetermined range (for example, 70% to 130% of the target head region) with respect to the area of the target head region f1. If the condition is satisfied, the count flag of the comparative head region f2 positioned below in the target head region f1 and the comparative head region f2 is set to “invalid”. At this time, if the face feature determination unit 343 determines that a face image is included in the comparative head region f2, the count flag is not set to invalid.

人数検出部344は、かかる判定処理を各頭部領域について順次実行する。図3(c)の例では、頭部領域f2に注目した処理にて頭部領域f3のカウントフラグが「無効」に設定され、頭部領域f4に注目した処理では比較頭部領域が見つからずカウントフラグが変更されず、頭部領域f5に注目した処理でも比較頭部領域が見つからないためカウントフラグは変更されない。そして、人数検出部344は、各頭部領域について判定処理が終了すると、カウントフラグ「有効」となっている頭部領域の数を計数し、監視区域の人数として出力する。図3(c)の例では、頭部領域f1、f4、f5が有効であり、人数が3人と出力される。そして、非常判定部345は、許容人数2人に対し検出人数が3人であるため不審者が存在すると判定して監視センタ5に通報を行う。   The number detection unit 344 sequentially executes the determination process for each head region. In the example of FIG. 3C, the count flag of the head region f3 is set to “invalid” in the process focusing on the head region f2, and the comparison head region is not found in the processing focusing on the head region f4. The count flag is not changed, and the count flag is not changed because the comparison head region is not found even in the process focusing on the head region f5. When the determination process is completed for each head region, the number-of-people detection unit 344 counts the number of head regions for which the count flag is “valid” and outputs the number as the number of people in the monitoring area. In the example of FIG. 3C, the head regions f1, f4, and f5 are effective, and the number of people is output as three. Then, the emergency determination unit 345 determines that there is a suspicious person because the number of detected persons is 3 with respect to 2 allowable persons, and notifies the monitoring center 5.

次に、図4、図5を用いて、画像監視装置3による不審者監視処理の動作について説明する。図4は、画像監視装置3の制御部34にて繰り返し実行される監視プログラムの動作を示すフローチャートである。
画像監視装置3は、所定周期(例えば0.2秒周期、すなわち5fps(フレーム/秒))ごとに監視カメラ31が撮像した画像データの出力を受け付けて制御部34に入力する(ステップST1)。変動領域抽出部341は、入力画像と記憶部33の基準画像との差分を算出して変動領域を抽出する(ステップST2)。変動領域が抽出できなければ一連の処理を終了し、次回の実行タイミングにてステップST1より処理が実行される。
Next, the operation of the suspicious person monitoring process performed by the image monitoring apparatus 3 will be described with reference to FIGS. 4 and 5. FIG. 4 is a flowchart showing the operation of the monitoring program repeatedly executed by the control unit 34 of the image monitoring apparatus 3.
The image monitoring device 3 receives the output of the image data captured by the monitoring camera 31 every predetermined cycle (for example, 0.2 second cycle, that is, 5 fps (frame / second)) and inputs it to the control unit 34 (step ST1). The fluctuation area extraction unit 341 calculates the difference between the input image and the reference image in the storage unit 33 and extracts the fluctuation area (step ST2). If the fluctuation region cannot be extracted, the series of processes is terminated, and the process is executed from step ST1 at the next execution timing.

ステップST3において、頭部抽出部342は、変動領域抽出部341が抽出した変動領域から人物の頭部領域を抽出する。抽出された頭部領域には固有のラベルが付されラベリングされる。このとき、頭部領域ごとの固有ラベルに対応してカウントフラグが生成され初期値として「有効」が記憶される。頭部領域が抽出できなければ一連の処理を終了し、次回の実行タイミングにてステップST1より処理が実行される。次に、顔特徴判定部343により、抽出された頭部領域と記憶部33に記憶された顔特徴情報とのパターンマッチングが行われ、何れの属性の顔画像が含まれているか又は顔画像が含まれていないかの識別結果が頭部領域の固有ラベルに対応して出力される(ステップST4)。   In step ST3, the head extraction unit 342 extracts a person's head region from the variation region extracted by the variation region extraction unit 341. The extracted head region is labeled with a unique label. At this time, a count flag is generated corresponding to the unique label for each head region, and “valid” is stored as an initial value. If the head region cannot be extracted, the series of processing ends, and the processing is executed from step ST1 at the next execution timing. Next, the face feature determination unit 343 performs pattern matching between the extracted head region and the face feature information stored in the storage unit 33 to determine which attribute of the face image is included or whether the face image is The identification result of whether it is not included is output corresponding to the unique label of the head region (step ST4).

そして、ステップST5において、人数検出部344は複数の頭部領域間の位置関係などから評価を行い適切な頭部領域の数を人数として計数する。人数検出処理については後述する。   In step ST5, the number-of-people detection unit 344 performs evaluation based on the positional relationship between the plurality of head regions, and counts the number of appropriate head regions as the number of people. The number detection process will be described later.

非常判定部345は、人数検出部344による検出人数と予め記憶した許容人数とを比較して、検出人数が許容人数よりも多い場合(ステップST6−Yes)、監視区域に不審者が存在し非常事態が発生と判定して(ステップST7)、不審者の存在を判定した画像データと共に自己のアドレス情報を含む非常信号を通信部32より送信する(ステップST12)。   The emergency determination unit 345 compares the number of people detected by the number of people detection unit 344 with the allowable number of people stored in advance, and when the number of detected people is larger than the allowable number of people (step ST6-Yes), there is a suspicious person in the monitoring area and the emergency It is determined that a situation has occurred (step ST7), and an emergency signal including its own address information is transmitted from the communication unit 32 together with image data for which the presence of a suspicious person has been determined (step ST12).

以上に、画像監視装置3の基本的な動作について説明した。
次に、図4のステップST5における人数検出処理について図5を参照して説明する。図5は人数検出部344による人数検出処理のフローチャートである。図5において、人数検出部344は、入力画像から抽出された頭部領域の何れかに注目し注目頭部領域とし(ステップST21)、注目頭部領域の重心位置を中心として所定範囲(例えば注目頭部領域の幅W・高さHとした場合3W・3Hの範囲)の探索領域を設定する(ステップST22)。
The basic operation of the image monitoring apparatus 3 has been described above.
Next, the number detection process in step ST5 of FIG. 4 will be described with reference to FIG. FIG. 5 is a flowchart of the number detection process by the number detection unit 344. In FIG. 5, the number-of-persons detection unit 344 focuses on any of the head regions extracted from the input image as a focused head region (step ST21), and a predetermined range (for example, focused on the center of gravity of the focused head region). A search area having a width W and a height H of the head area (in the range of 3W and 3H) is set (step ST22).

そして、探索領域内に他の頭部領域が存在するか探索し、存在していれば当該他の頭部領域を比較頭部領域とする(ステップST23−Yes)。以下、1つの比較頭部領域が存在する例について説明するが、該当する他の頭部領域が複数検出されればこれら複数の頭部領域を比較頭部領域としてよい。ステップST23において、探索領域内に他の頭部領域が存在しなければ(ステップST23−No)、処理をステップST32へと進めて別の頭部領域に注目するか判別する。これにより、画像中において、人物の頭部から一定距離以内に存在する衣類のステッチや皺などによる楕円領域を検出する。   Then, a search is made as to whether another head region exists in the search region, and if it exists, the other head region is set as a comparison head region (step ST23-Yes). Hereinafter, an example in which one comparative head region exists will be described. However, if a plurality of other corresponding head regions are detected, the plurality of head regions may be used as comparative head regions. In step ST23, if there is no other head region in the search region (step ST23-No), the process proceeds to step ST32 to determine whether or not to focus on another head region. Thereby, in the image, an elliptical area due to clothes stitches or heels existing within a certain distance from the head of the person is detected.

このとき、他の頭部領域が注目頭部領域と同じ変動領域でなければ比較頭部領域から除外する(ステップST24)。このように、同一の変動領域として抽出されている頭部領域同士を比較対象とすることで、ある人物の頭部が別の人物の頭部と比較されることを防いで同一人物について抽出された領域の中から真の頭部を抽出することが可能となる。   At this time, if the other head region is not the same variation region as the target head region, it is excluded from the comparison head region (step ST24). In this way, by comparing the head regions extracted as the same variation region with each other, the head of one person is extracted from the same person while preventing the head from being compared with the head of another person. It is possible to extract the true head from the selected area.

次に、ステップST25において、人数検出部344は、注目頭部領域と比較頭部領域の面積を算出し、注目頭部領域の面積と比較頭部領域の面積との差が所定範囲内であるかを調べる。そして、比較頭部領域の面積が注目頭部領域の面積に対して所定範囲内(例えば注目頭部領域の70%〜130%)であれば(ステップST26−Yes)、両者間の比較処理を継続する。かかる処理により、奥行き方向(遠近方向)に離れた人物同士が同じ変動領域として抽出された場合であっても、異なる人物の頭部同士を比較対象とすることを防いで同一人物について抽出された領域の中から真の頭部を抽出する。   Next, in step ST25, the number-of-people detection unit 344 calculates the areas of the attention head region and the comparison head region, and the difference between the area of the attention head region and the comparison head region is within a predetermined range. Find out. If the area of the comparison head region is within a predetermined range with respect to the area of the attention head region (for example, 70% to 130% of the attention head region) (step ST26-Yes), comparison processing between the two is performed. continue. By this processing, even when persons who are separated in the depth direction (perspective direction) are extracted as the same fluctuation region, the same person is extracted while preventing heads of different persons from being compared. Extract the true head from the region.

続いて、人数検出部344は、注目頭部領域と比較頭部領域の何れが垂直方向下方に位置するかを判別する(ステップST27)。何れが下方に位置するかは重心位置の比較により判別してよく、上端位置や下端位置の比較であってもよい。これにより、人物の頭部より下方の着衣部分にて検出され得る衣類のステッチや皺などにより生じた楕円形状の検出を行う。   Subsequently, the number-of-people detection unit 344 determines which of the head region of interest and the comparative head region is positioned downward in the vertical direction (step ST27). Which is located below may be determined by comparing the positions of the center of gravity, and may be a comparison of the upper end position and the lower end position. This detects an elliptical shape caused by clothing stitches or heels that can be detected in the clothing part below the head of the person.

ステップST27において、比較頭部領域が下方に位置すると判定された場合(ステップST27−Yes)、当該比較頭部領域の固有ラベルに対応した顔特徴判定部343の識別結果を参照して比較頭部領域内に顔画像が検出されたか否かを判定する(ステップST28)。顔画像が検出されていなければ(ステップST28−No)、この比較頭部領域の固有ラベルに対応したカウントフラグを「無効」に設定する(ステップST29)。他方、ステップST27において、注目頭部領域が下方に位置すると判定された場合(ステップST27−No)、注目頭部領域内に顔画像が検出されたか否かが判定され、検出されていなければ(ステップST30−No)、注目頭部領域の固有ラベルに対応したカウントフラグが「無効」に設定される(ステップST31)。   When it is determined in step ST27 that the comparative head region is positioned below (step ST27-Yes), the comparison head is referred to by referring to the identification result of the face feature determination unit 343 corresponding to the unique label of the comparative head region. It is determined whether or not a face image is detected in the region (step ST28). If no face image is detected (step ST28-No), the count flag corresponding to the unique label of this comparison head region is set to “invalid” (step ST29). On the other hand, when it is determined in step ST27 that the head region of interest is located below (step ST27-No), it is determined whether or not a face image is detected in the head region of interest. In step ST30-No), the count flag corresponding to the unique label of the head region of interest is set to “invalid” (step ST31).

そして、ステップST32において、全ての頭部領域について注目したか判定され、未だ注目していない頭部領域が存在すれば(ステップST32−No)、当該頭部領域に注目して処理が実行される。全ての頭部領域について注目した処理が終了すると(ステップST32−Yes)、人数検出部344は、カウントフラグが「無効」となっていない頭部領域の数、即ちカウントフラグ「有効」の数を計数し、これを入力画像中の人数として出力する(ステップST33)。   Then, in step ST32, it is determined whether or not all the head regions have been noticed. If there is a head region that has not been noticed yet (step ST32-No), the processing is executed while paying attention to the head region. . When the processing focused on all the head regions is completed (step ST32—Yes), the number detection unit 344 determines the number of head regions whose count flag is not “invalid”, that is, the number of count flags “valid”. Count and output this as the number of people in the input image (step ST33).

以上のように、人数検出部344は、入力画像に含まれる頭部領域について、所定距離以内に他の入力頭部領域が存在すると、所定規則に基づいて何れかの入力頭部領域についてカウントフラグを無効に設定し、カウントフラグが無効でない頭部領域のみに基づいて人数を検出する。   As described above, the number of persons detection unit 344 counts a flag for any one of the input head areas based on a predetermined rule when another input head area exists within a predetermined distance for the head area included in the input image. Is set to invalid, and the number of persons is detected based only on the head region where the count flag is not invalid.

また、特に、所定距離以内にある頭部領域と比較した結果、相対的に下方に位置する頭部領域のカウントフラグを無効にする。さらに、これら頭部領域の比較では、面積差が一定範囲のものを比較対象として、面積差が大きな頭部領域は比較対象外として除外する。また更に、これら頭部領域の比較では、同一の変動領域から抽出された頭部領域のみを対象としている。また、顔らしいと判定された頭部領域については、カウントフラグを無効とする対象から除外している。   In particular, as a result of comparison with the head region within a predetermined distance, the count flag of the head region located relatively below is invalidated. Further, in the comparison of the head regions, those having a certain area difference are excluded from comparison, and those having a large area difference are excluded from comparison. Furthermore, in the comparison of these head regions, only the head region extracted from the same fluctuation region is targeted. In addition, the head region determined to be a face is excluded from the targets for which the count flag is invalidated.

これにより、肩部や肘に顕著に現れる衣類のステッチや皺などにより生じた楕円形状が、誤って頭部領域として抽出された場合であっても、これらを頭部の数、即ち人数として計数することを防止して、画像中の人数を適切に計数することを可能としている。また、頭部領域の数を用いて人数計数を行うため、後頭部が撮影された利用者や素顔を隠した不審者が存在する場合であっても人数計数することが可能である。   As a result, even when elliptical shapes caused by clothing stitches or heels that appear prominently on the shoulders and elbows are erroneously extracted as head regions, these are counted as the number of heads, that is, the number of people. This makes it possible to appropriately count the number of people in the image. Further, since the number of people is counted using the number of head regions, the number of people can be counted even when there is a user whose back head is photographed or a suspicious person who hides his / her face.

以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。   The embodiments of the present invention have been described above by way of example, but the scope of the present invention is not limited to these embodiments, and can be changed or modified according to the purpose within the scope of the claims. is there.

1 監視システム
2 保管庫
3 画像監視装置
31 監視カメラ
32 通信部
33 記憶部
34 制御部
341変動領域抽出部
342頭部抽出部
343顔特徴判定部
344人数検出部
345非常判定部
4 通信回線網
5 監視センタ
51 センタ装置
52 ディスプレイ
10、11、12 変動領域
f1、f2、f3、f4、f5 頭部領域
A1 探索領域
DESCRIPTION OF SYMBOLS 1 Monitoring system 2 Storage 3 Image monitoring apparatus 31 Surveillance camera 32 Communication part 33 Storage part 34 Control part 341 Fluctuation area extraction part 342 Head extraction part 343 Face feature determination part 344 Number of persons detection part 345 Emergency determination part 4 Communication network 5 Monitoring center 51 Center device 52 Display 10, 11, 12 Fluctuating area f1, f2, f3, f4, f5 Head area A1 Search area

Claims (4)

監視空間における非常事態を検出する画像監視装置であって、
周期的に前記監視空間を撮像して監視画像を取得する撮像部と、
前記監視画像から人物の頭部形状に類似した入力頭部領域を抽出する頭部抽出部と、
前記入力頭部領域の数に基づき前記監視空間内の人数を検出する人数検出部と、
前記検出した人数が所定人数以上であれば非常事態と判定する非常判定部と、を備え、
前記人数検出部は、
前記頭部抽出部にて抽出された入力頭部領域について所定距離以内に他の入力頭部領域が存在する場合、前記入力頭部領域と前記他の入力頭部領域とにおいて相対的に下方に位置する領域をカウントフラグ無効とし、当該カウントフラグが無効に設定されていない入力頭部領域に基づき前記監視空間内の人数を検出することを特徴とする画像監視装置。
An image monitoring device for detecting an emergency in a monitoring space,
An imaging unit that periodically images the monitoring space to obtain a monitoring image;
A head extraction unit that extracts an input head region similar to a human head shape from the monitoring image;
A number detection unit that detects the number of people in the monitoring space based on the number of the input head regions;
An emergency determination unit that determines an emergency if the detected number of persons is greater than or equal to a predetermined number of persons,
The number of persons detecting unit is
When another input head region exists within a predetermined distance with respect to the input head region extracted by the head extraction unit, the input head region and the other input head region are relatively downward An image monitoring apparatus characterized in that a count flag is invalidated in a region that is positioned , and the number of persons in the monitoring space is detected based on an input head region in which the count flag is not invalidated.
前記人数検出部は、
前記入力頭部領域から所定距離以内であり、且つ当該入力頭部領域との面積差が所定範囲内の前記他の入力頭部領域を比較対象とし、前記相対的に下方に位置する領域をカウントフラグ無効とする請求項に記載の画像監視装置。
The number of persons detecting unit is
The other input head region that is within a predetermined distance from the input head region and whose area difference from the input head region is within a predetermined range is compared, and the region positioned relatively below is counted. The image monitoring apparatus according to claim 1 , wherein the flag is invalid.
さらに、
前記監視画像を過去の画像と比較して変動領域を抽出する変動領域抽出部を備え、
前記人数検出部は、
前記入力頭部領域について、所定距離以内であり且つ同一の変動領域内に、前記他の入力頭部領域が存在するかを判定する請求項1または2の何れかに記載した画像監視装置。
further,
A fluctuation area extraction unit that extracts a fluctuation area by comparing the monitoring image with a past image,
The number of persons detecting unit is
3. The image monitoring apparatus according to claim 1, wherein the input head region is determined to determine whether the other input head region is within a predetermined distance and within the same fluctuation region. 4.
さらに、
予め人物の顔特徴情報を記憶する記憶部と、
前記入力頭部領域が顔の特徴情報を有しているか前記顔特徴情報を用いて判定する顔特徴判定部とを備え、
前記人数検出部は、
前記顔特徴判定部にて顔特徴有りと判定された前記入力頭部領域については前記カウントフラグを無効としない請求項1からの何れかに記載した画像監視装置。
further,
A storage unit for storing face feature information of a person in advance;
A face feature determination unit that determines whether the input head region has facial feature information using the facial feature information;
The number of persons detecting unit is
Image monitoring apparatus according to any one of the face for the input head region of determination of the presence of facial features by the feature determining unit does not disable the counting flag claims 1 to 3.
JP2011076329A 2011-03-30 2011-03-30 Image monitoring device Active JP5726595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076329A JP5726595B2 (en) 2011-03-30 2011-03-30 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076329A JP5726595B2 (en) 2011-03-30 2011-03-30 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2012212968A JP2012212968A (en) 2012-11-01
JP5726595B2 true JP5726595B2 (en) 2015-06-03

Family

ID=47266601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076329A Active JP5726595B2 (en) 2011-03-30 2011-03-30 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5726595B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2527697B (en) * 2013-03-26 2019-07-10 Hitachi Int Electric Inc People counting device and people counting method
JP6885665B2 (en) * 2015-08-18 2021-06-16 株式会社ユニバーサルエンターテインメント Information processing device
JP6525934B2 (en) 2016-10-14 2019-06-05 キヤノン株式会社 Image processing apparatus and control method
JP6385419B2 (en) * 2016-12-22 2018-09-05 セコム株式会社 Object detection device
CN115797876B (en) * 2023-02-08 2023-04-07 华至云链科技(苏州)有限公司 Equipment monitoring processing method and system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3226698B2 (en) * 1994-02-24 2001-11-05 東芝エレベータ株式会社 Elevator security equipment
JP2005143016A (en) * 2003-11-10 2005-06-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method
JP4441382B2 (en) * 2004-11-02 2010-03-31 三菱電機株式会社 Suspicious visitor threatening system
JP2009143722A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp Person tracking apparatus, person tracking method and person tracking program
JP4975666B2 (en) * 2008-03-19 2012-07-11 セコム株式会社 Monitoring device
JP5448468B2 (en) * 2009-01-21 2014-03-19 セコム株式会社 Transaction monitoring device
US20120020518A1 (en) * 2009-02-24 2012-01-26 Shinya Taguchi Person tracking device and person tracking program

Also Published As

Publication number Publication date
JP2012212968A (en) 2012-11-01

Similar Documents

Publication Publication Date Title
JP6013241B2 (en) Person recognition apparatus and method
US20210287026A1 (en) Method and apparatus with liveness verification
Steiner et al. Reliable face anti-spoofing using multispectral swir imaging
JP5726596B2 (en) Image monitoring device
KR100695155B1 (en) Apparatus and method for detecting occluded face and apparatus and method for discriminating illicit transactor employing the same
JP4642128B2 (en) Image processing method, image processing apparatus and system
JP5955133B2 (en) Face image authentication device
JP6587435B2 (en) Image processing apparatus, information processing method, and program
CN110458063B (en) Human face living body detection method for preventing video and photo cheating
JP5106356B2 (en) Image monitoring device
JP2008146539A (en) Face authentication device
KR20120140184A (en) Facial image search system and facial image search method
WO2022062379A1 (en) Image detection method and related apparatus, device, storage medium, and computer program
JP5726595B2 (en) Image monitoring device
KR100824757B1 (en) Gait recognition method
KR101443139B1 (en) Single image-based fake face detection
KR20110090731A (en) Fake video detecting apparatus and method
JP2010186274A (en) Sunglasses wearing detection apparatus
JP5851108B2 (en) Image monitoring device
JP4862518B2 (en) Face registration device, face authentication device, and face registration method
CN107862298B (en) Winking living body detection method based on infrared camera device
CN107992845A (en) A kind of face recognition the method for distinguishing and device, computer equipment
JP5752977B2 (en) Image monitoring device
JP5752976B2 (en) Image monitoring device
JP5752975B2 (en) Image monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150401

R150 Certificate of patent or registration of utility model

Ref document number: 5726595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250