JP5851108B2 - Image monitoring device - Google Patents

Image monitoring device Download PDF

Info

Publication number
JP5851108B2
JP5851108B2 JP2011076328A JP2011076328A JP5851108B2 JP 5851108 B2 JP5851108 B2 JP 5851108B2 JP 2011076328 A JP2011076328 A JP 2011076328A JP 2011076328 A JP2011076328 A JP 2011076328A JP 5851108 B2 JP5851108 B2 JP 5851108B2
Authority
JP
Japan
Prior art keywords
image
face
region
area
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011076328A
Other languages
Japanese (ja)
Other versions
JP2012212967A (en
Inventor
宏幸 小嶋
宏幸 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011076328A priority Critical patent/JP5851108B2/en
Publication of JP2012212967A publication Critical patent/JP2012212967A/en
Application granted granted Critical
Publication of JP5851108B2 publication Critical patent/JP5851108B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視空間を撮像して不審者の存在を検出する画像監視装置に関し、特に、ヘルメットなどにより顔を隠蔽した人物を高精度に抽出できる画像監視装置の提供を目的とする。   The present invention relates to an image monitoring apparatus that images a monitoring space and detects the presence of a suspicious person, and in particular, an object of the present invention is to provide an image monitoring apparatus that can accurately extract a person whose face is hidden by a helmet or the like.

従来、撮像装置から入力される画像から人物領域の特徴情報を抽出し、これが不審人物等の特徴に合致した場合、自動的に外部に通報出力するような画像監視装置が知られている。このような画像監視装置では、不審人物の特徴として外部に対して人相を隠した状態であることを検出する。   2. Description of the Related Art Conventionally, there has been known an image monitoring apparatus that extracts feature information of a person region from an image input from an imaging device and automatically outputs a report to the outside when the feature information matches a feature of a suspicious person or the like. Such an image monitoring apparatus detects that the human phase is hidden from the outside as a feature of the suspicious person.

例えば、特許文献1には、自動取引装置から不正に現金を引き出すおそれのある不審人物を検出するために、カメラから画像を取り込んで、人物の正常な顔画像が取得できるか否かを判定する監視装置が記載されている。かかる特許文献1では、サングラス、マスク、あるいは手などで顔の一部を隠蔽していることや、フルフェイスのヘルメット等をかぶっていることを検出して、正常な顔画像が取得できないことを判定している。   For example, Patent Document 1 determines whether or not a normal face image of a person can be acquired by capturing an image from a camera in order to detect a suspicious person who may withdraw cash from an automatic transaction apparatus illegally. A monitoring device is described. In Patent Document 1, it is detected that a part of the face is concealed with sunglasses, a mask, or a hand, or that a full-face helmet is worn, and a normal face image cannot be acquired. Judgment.

特開2010−79750号公報JP 2010-79750 A

ところで、上述した顔を隠蔽する手段としてフルフェイスのヘルメットに着目すると、フルフェイスヘルメットは、多くの場合、画像データにおいて頭部領域内にのっぺりとした楕円形状として抽出され、且つ目鼻口といった顔特徴が抽出できないといった特徴を持つ。この画像特徴は、人の後頭部に類似した特徴であり、フルフェイスのヘルメットを精度良く検出するためには人の後頭部とフルフェイスヘルメットとを明確に判別する必要がある。   By the way, when focusing on a full-face helmet as a means for hiding the face described above, the full-face helmet is often extracted as an elliptical shape that fits in the head region in the image data, and facial features such as the eyes and nose and mouth Has a feature that cannot be extracted. This image feature is a feature similar to a human back of the head, and in order to detect a full-face helmet with high accuracy, it is necessary to clearly discriminate between the back of the human head and the full-face helmet.

すなわち、人の後頭部は、フルフェイスヘルメット同様に、多くの場合、頭部領域内にのっぺりとした楕円形状として抽出され、且つ目鼻口といった顔特徴が抽出できないために、誤ってフルフェイスヘルメットで顔隠蔽している状態として判定されてしまう可能性があった。   That is, the back of the head of a person is often extracted as an oval shape that fits within the head region, and the facial features such as the eyes, nose and mouth cannot be extracted. There is a possibility that it is determined as a concealed state.

本発明は、上記の課題に鑑みてなされたもので、監視空間を撮像して顔を隠した不審者の存在を検出する画像監視装置に関し、フルフェイスヘルメットと人物の後頭部とを区別して判定できる画像監視装置の提供を目的とする。   The present invention has been made in view of the above-described problems, and relates to an image monitoring apparatus that detects the presence of a suspicious person who has captured a monitoring space and concealed his face, and can distinguish between a full-face helmet and a person's back of the head. An object is to provide an image monitoring apparatus.

上記の目的を達成するために本発明による画像監視装置は、監視空間においてヘルメットなどにより顔を隠蔽した不審者を検出する画像監視装置であって、周期的に前記監視空間を撮像して監視画像を取得する撮像部と、予め人物の顔特徴情報を記憶する記憶部と、前記監視画像から人物の頭部に相当する入力頭部領域を抽出する頭部抽出部と、前記入力頭部領域が顔の特徴情報を有しているか前記顔特徴情報を用いて判定する顔特徴判定部と、前記入力頭部領域に所定面積以上の高輝度領域が存在するか判定する高輝度領域抽出部と、前記顔特徴判定部にて顔の特徴情報無しと判定され、且つ前記高輝度領域抽出部にて高輝度領域の存在が判定されると、顔を隠蔽した不審者と判定する不審者検出部と、を備えることを特徴とした。   In order to achieve the above object, an image monitoring apparatus according to the present invention is an image monitoring apparatus that detects a suspicious person whose face is concealed by a helmet or the like in a monitoring space, and periodically images the monitoring space to monitor images. An image capturing unit for acquiring a facial feature information of a person in advance, a head extracting unit for extracting an input head region corresponding to a person's head from the monitoring image, and the input head region A facial feature determination unit that determines whether facial feature information is included using the facial feature information; a high-luminance region extraction unit that determines whether a high-luminance region having a predetermined area or more exists in the input head region; A suspicious person detecting unit that determines that a suspicious person conceals a face when the face characteristic determining unit determines that there is no facial feature information and the high luminance region extracting unit determines the presence of a high luminance region; , Provided.

かかる構成において、画像監視装置は、監視画像から顔の特徴を有しない頭部領域が抽出され、且つ、かかる頭部領域に所定面積以上の高輝度領域が存在することが判定された場合に、当該頭部領域をフルフェイスのヘルメットにより顔を隠蔽した不審者と判定するように作用する。   In such a configuration, the image monitoring apparatus extracts a head region having no facial features from the monitoring image, and determines that a high-luminance region having a predetermined area or more exists in the head region. The head region is determined to be a suspicious person whose face is hidden by a full-face helmet.

フルフェイスヘルメットは、手入れの容易さから継ぎ目の少ない略楕円形状に形成されており、その平滑な湾曲面が照明など周囲の環境光を反射して光沢としての一定大のテカリが生じる。一方で、人物の頭部は、頭髪による微細な凹凸を有しているため照明などの環境光が拡散して光沢としてのテカリが生じ難い。
かかる画像監視装置の構成によれば、顔を隠蔽した頭部領域に所定面積以上の高輝度領域が存在することを条件としてフルフェイスのヘルメットを検出することにより、後頭部と異なり光沢が生じるフルフェイスヘルメットを高精度に検出することが可能となる。
The full-face helmet is formed in an approximately oval shape with few joints for ease of care, and the smooth curved surface reflects ambient ambient light such as lighting, and a certain amount of gloss is generated as gloss. On the other hand, since the head of a person has fine irregularities due to hair, ambient light such as illumination is diffused, and glossy luster is hardly generated.
According to the configuration of such an image monitoring apparatus, a full-face that is glossy unlike the back of the head is detected by detecting a full-face helmet on the condition that a high-luminance area of a predetermined area or more exists in the head area that conceals the face. It becomes possible to detect the helmet with high accuracy.

また、本発明の画像監視装置において、前記高輝度領域抽出部は、前記入力頭部領域の面積に対して所定割合以上となる面積の高輝度領域が存在するかを判定するようにしてもよい。   In the image monitoring apparatus according to the present invention, the high luminance area extracting unit may determine whether there is a high luminance area having an area that is a predetermined ratio or more with respect to the area of the input head area. .

かかる構成によれば、監視画像に含まれた頭部領域の大きさに応じて相対的に所定以上の面積となる高輝度領域を抽出することにより、画像上に写りこんだ頭部のサイズに応じてフルフェイスヘルメットを高精度に検出することが可能となる。   According to such a configuration, by extracting a high-luminance region that is relatively larger than a predetermined area according to the size of the head region included in the monitoring image, the size of the head reflected on the image is obtained. Accordingly, it is possible to detect the full-face helmet with high accuracy.

さらに、本発明の画像監視装置において、前記高輝度領域抽出部は、前記入力頭部領域の上部所定範囲を探索領域として設定し、該探索領域内において前記高輝度領域を抽出するようにしてもよい。   Furthermore, in the image monitoring apparatus of the present invention, the high brightness area extraction unit may set a predetermined upper range of the input head area as a search area and extract the high brightness area in the search area. Good.

通常、照明などの環境光は上方から照射されることが一般的であり、このような場合、フルフェイスヘルメットの平滑な湾曲面においてその上部部分に環境光を反射した光沢が生じることとなる。
かかる画像監視装置の構成によれば、頭部領域の上部に生じる高輝度領域を抽出することにより、後頭部にかかるシャツのエリなどを誤って高輝度領域として検出することを防止し、後頭部と異なり光沢が生じるフルフェイスヘルメットを高精度に検出することが可能となる。
In general, ambient light such as illumination is generally irradiated from above, and in such a case, gloss is generated by reflecting the ambient light on the upper portion of the smooth curved surface of the full-face helmet.
According to the configuration of such an image monitoring device, by extracting a high-luminance area that occurs at the top of the head area, it is possible to prevent erroneous detection of a shirt area on the back of the head as a high-luminance area. It is possible to detect a full-face helmet that produces gloss with high accuracy.

本発明によれば、顔の特徴情報が存在しない頭部領域に所定面積以上の高輝度領域が存在することを条件としてフルフェイスのヘルメットを検出することが可能となる。
これにより、頭髪による微細な凹凸を有しているため照明などの環境光が拡散し光沢としてのテカリが生じ難い人物の後頭部をフルフェイスヘルメットとして誤検出することを防止して、平滑な湾曲面が照明など環境光を反射し光沢としての一定大のテカリが生じるフルフェイスヘルメットを高精度に検出することが可能となる。
According to the present invention, it is possible to detect a full-face helmet on condition that a high-luminance region having a predetermined area or more exists in a head region where no facial feature information exists.
As a result, it has a smooth curved surface that prevents the back of the human head from being misdetected as a full-face helmet because it has minute irregularities due to hair and diffuses ambient light such as lighting and does not easily cause glossy shine. However, it is possible to accurately detect a full-face helmet that reflects ambient light such as lighting and generates a certain amount of glossy luster.

本発明の画像監視装置による監視システムの全体構成を示す概略図である。It is the schematic which shows the whole structure of the monitoring system by the image monitoring apparatus of this invention. 本発明の画像監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image monitoring apparatus of this invention. 本発明の画像監視装置の不審者監視処理を模式的に示した図である。It is the figure which showed typically the suspicious person monitoring process of the image monitoring apparatus of this invention. 本発明の画像監視装置の不審者監視処理を示すフローチャートである。It is a flowchart which shows the suspicious person monitoring process of the image monitoring apparatus of this invention. 本発明の画像監視装置の高輝度領域判定処理を示すフローチャートである。It is a flowchart which shows the high-intensity area | region determination process of the image monitoring apparatus of this invention.

以下、本発明の実施形態について、図面を参照して具体的に説明する。
本実施形態では、監視区域(監視空間)として金融機関や商店などの事務所エリアにおける重要監視物周辺を監視する場合を例示するが、本発明の範囲はこれに限定されるものではなく、事務所室内全域や街頭などを監視区域として監視するよう用いられてよい。
Embodiments of the present invention will be specifically described below with reference to the drawings.
In the present embodiment, the case of monitoring the vicinity of important monitoring objects in an office area such as a financial institution or a store as a monitoring area (monitoring space) is illustrated, but the scope of the present invention is not limited to this, and It may be used to monitor the entire room or street as a monitoring area.

図1は、本発明の画像監視装置を用いた監視システム1を示す構成図である。
図1は、重要監視物として金庫など内部に収納空間を有した保管庫2及び画像監視装置3が設置された監視区域を模式的に示している。図1に示すように、本実施形態の監視システム1は、監視区域の床面に固定設置された保管庫2の上部に載置される監視装置3と、遠隔の監視センタ5とを、通信回線網4を介して接続して構成されている。
FIG. 1 is a configuration diagram showing a monitoring system 1 using the image monitoring apparatus of the present invention.
FIG. 1 schematically shows a monitoring area in which a storage 2 having a storage space inside a safe or the like and an image monitoring device 3 are installed as important monitoring objects. As shown in FIG. 1, the monitoring system 1 of the present embodiment communicates a monitoring device 3 placed on the upper part of a storage 2 fixedly installed on the floor of a monitoring area and a remote monitoring center 5. It is configured to be connected via the line network 4.

画像監視装置3の筐体には、撮像部としての監視カメラ31が保管庫扉と同方向に向いて配置されている。監視カメラ31は、保管庫扉の前方を撮像視野として保管庫2まで接近してくる人物が撮像可能に配置される。
なお、監視カメラ31は画像監視装置3の筐体に内蔵される例に限らず、少なくとも監視区域内の人物が撮像可能に保管庫2の上部空間や背後壁面などに別途監視カメラが設置され、画像監視装置3と接続される構成としてもよい。また、画像監視装置3も、保管庫2の上部に載置される例に限らず、保管庫2の上部空間や背後壁面などに設定されてよい。
In the housing of the image monitoring apparatus 3, a monitoring camera 31 as an imaging unit is arranged in the same direction as the storage door. The monitoring camera 31 is arranged so that a person approaching the storage 2 can be imaged using the front of the storage door as an imaging field of view.
Note that the monitoring camera 31 is not limited to the example built in the housing of the image monitoring device 3, and a monitoring camera is separately installed in the upper space or the rear wall of the storage 2 so that at least a person in the monitoring area can take an image, It may be configured to be connected to the image monitoring apparatus 3. The image monitoring device 3 is not limited to the example of being placed on the upper part of the storage 2 and may be set in the upper space of the storage 2 or the rear wall surface.

監視カメラ31は、所定の撮影間隔(例えば0.2秒)毎に監視区域を撮像して監視画像としての画像データを生成して出力する。画像監視装置3は、監視カメラ31から出力される情報を基に、周期的に撮像される画像データを参照して保管庫2の周辺に不審者が存在するか否かを判定する。   The monitoring camera 31 captures a monitoring area at every predetermined shooting interval (for example, 0.2 seconds), generates image data as a monitoring image, and outputs it. The image monitoring apparatus 3 determines whether or not there is a suspicious person around the storage 2 by referring to image data periodically captured based on information output from the monitoring camera 31.

本実施形態において、不審者とは、強盗など監視区域の保全を損うおそれのある者をいい、具体的には、外観が予め定めた特徴パターンに合致する者のことである。一般に、強盗行為などを行う不審者は、素性が認知されることを防ぐために顔を隠す傾向がある。そこで、本実施形態では、画像データにおける人物の特徴情報として、例えば、サングラス、マスク、或いは手などで顔を覆ったり、フルフェイスのヘルメット等を装着することで顔の一部分や全部分を隠して人相が分らない人物、即ち目鼻口など顔の特徴情報がなく顔が十分に撮影されていない人物を抽出し、不審者として判定する。   In this embodiment, a suspicious person refers to a person who may impair the maintenance of a monitored area such as a burglar, and specifically, a person whose appearance matches a predetermined feature pattern. In general, a suspicious person who performs a robbery or the like tends to hide his / her face in order to prevent recognition of the identity. Therefore, in the present embodiment, as the person characteristic information in the image data, for example, the face is covered with sunglasses, a mask, or a hand, or a part or all of the face is hidden by wearing a full face helmet or the like. A person whose facial condition is unknown, that is, a person who has no facial feature information such as eyes and nose and mouth and whose face is not sufficiently photographed is extracted and determined as a suspicious person.

特に、本実施形態で特徴的な事項として、画像監視装置3は、画像データに写りこんだ人物の後頭部をフルフェイスのヘルメット等を装着した不審者と判定することを防止して、フルフェイスヘルメットなどで人相が判別できない不審者の判定精度を向上させている。
そして、不審者が存在することが判定されると、画像監視装置3は、遠隔の監視センタ5に監視区域で非常事態が発生していることを示す非常信号を送信するとともに、不審者の検出に用いた画像データを監視センタ5に送信する。
In particular, as a characteristic matter in the present embodiment, the image monitoring device 3 prevents the person's occipital portion reflected in the image data from being determined as a suspicious person wearing a full-face helmet or the like, and a full-face helmet. This improves the accuracy of suspicious persons whose human phase cannot be determined.
When it is determined that there is a suspicious person, the image monitoring apparatus 3 transmits an emergency signal indicating that an emergency has occurred in the monitoring area to the remote monitoring center 5 and detects the suspicious person. The image data used in the above is transmitted to the monitoring center 5.

監視センタ5は、警備会社などが運営するセンタ装置51を備えた施設である。センタ装置51は、1又は複数のコンピュータで構成されており、本発明に関連する監視センタ5の機能を実現する。監視センタ5では、センタ装置51により各種機器が制御され、画像監視装置3から受信した非常信号を記録するとともに、画像監視装置3から送信される画像データをディスプレイ52に表示することで、監視員が監視対象となる複数の監視区域を監視している。   The monitoring center 5 is a facility provided with a center device 51 operated by a security company or the like. The center device 51 is composed of one or a plurality of computers, and realizes the function of the monitoring center 5 related to the present invention. In the monitoring center 5, various devices are controlled by the center device 51, the emergency signal received from the image monitoring device 3 is recorded, and the image data transmitted from the image monitoring device 3 is displayed on the display 52, so that the monitoring staff Monitors multiple monitored areas.

<画像監視装置>
次に、図2を用いて画像監視装置3の構成について説明する。図2は、画像監視装置3の構成を示すブロック図である。
画像監視装置3は、監視センタ5と通信可能に通信回線網4と接続されて、保管庫2の上部に固定載置されている。
<Image monitoring device>
Next, the configuration of the image monitoring apparatus 3 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the image monitoring apparatus 3.
The image monitoring device 3 is connected to the communication network 4 so as to be communicable with the monitoring center 5, and is fixedly placed on the upper part of the storage 2.

画像監視装置3は、保管庫前方を撮影する監視カメラ31と、通信回線網4と接続される通信部32と、HDDやメモリなどで構成される記憶部33と、MPUやマイコンなどで構成され各部の制御を行う制御部34とを有して概略構成される。   The image monitoring apparatus 3 includes a monitoring camera 31 that captures the front of the storage, a communication unit 32 connected to the communication network 4, a storage unit 33 including an HDD and a memory, an MPU, a microcomputer, and the like. And a control unit 34 that controls each unit.

監視カメラ31は、保管庫前方を含む監視区域の監視画像を生成する。監視カメラ31は、撮像素子から入力される画像信号を所定の撮影間隔(例えば0.2秒周期、すなわち5fps(フレーム/秒))でデジタル信号に変換し、圧縮符号化処理を行い所定の規格(例えばJPEG規格)に準拠した画像データを生成する。画像の撮像に用いる波長帯としては、カラー画像が撮像可能な可視光波長を用いる。監視カメラ31により生成された画像データは、制御部34に出力される。   The monitoring camera 31 generates a monitoring image of the monitoring area including the front of the storage. The monitoring camera 31 converts an image signal input from the image sensor into a digital signal at a predetermined shooting interval (for example, a cycle of 0.2 seconds, that is, 5 fps (frame / second)), performs compression encoding processing, and performs a predetermined standard. Image data compliant with (for example, JPEG standard) is generated. As a wavelength band used for image capturing, a visible light wavelength capable of capturing a color image is used. The image data generated by the monitoring camera 31 is output to the control unit 34.

通信部32は、通信回線網4を介してセンタ装置51と接続されて監視センタ5との間で通信を行う。通信部32は、制御部34にて監視区域内に不審者が存在すると判定されると、自己のアドレス情報を含む非常信号および記憶部33に記憶された画像データを監視センタ5に送信する。   The communication unit 32 is connected to the center device 51 via the communication line network 4 and communicates with the monitoring center 5. When the control unit 34 determines that there is a suspicious person in the monitoring area, the communication unit 32 transmits an emergency signal including its own address information and the image data stored in the storage unit 33 to the monitoring center 5.

記憶部33は、ROMやRAM、又はHDDにて構成され自己を特定するためのアドレス情報と各種プログラムなどを記憶しており、更に画像監視装置3を動作させるための各種情報を記憶する。具体的に、記憶部33は、移動物体を抽出するための背景情報となる基準画像と、予め取得した様々な顔画像の特徴情報を記憶した顔特徴情報と、不審者の存在が判定された際の画像を記憶する不審者画像と、を記憶している。   The storage unit 33 is configured by a ROM, a RAM, or an HDD, stores address information for identifying itself and various programs, and further stores various information for operating the image monitoring apparatus 3. Specifically, the storage unit 33 determines the presence of a suspicious person, a reference image serving as background information for extracting a moving object, face feature information storing feature information of various facial images acquired in advance, and And a suspicious person image for storing the image at the time.

基準画像は、後述する変動領域抽出処理にて、監視カメラ31から入力される画像データ(以下、入力画像ともいう)と比較して監視区域内の移動物体を抽出するために用いられる比較基準情報であり、予め無人時の監視区域を撮像して取得された画像データである。   The reference image is comparison reference information used to extract a moving object in the monitoring area in comparison with image data (hereinafter also referred to as an input image) input from the monitoring camera 31 in a fluctuation area extraction process described later. It is image data acquired by capturing an image of a monitoring area when there is no driver.

顔特徴情報は、人物の顔画像を判定するための特徴情報として、予め男女様々な人物の顔を多方向から撮像した顔画像について、顔全体及び目や鼻、口など各部位の輝度パターンを顔の特徴情報として記憶している。また、顔特徴情報に記憶される顔画像の輝度パターンは、正常な人物の顔画像のみでなく、サングラスをした人物、マスクをした人物、手で顔を隠した人物、目出し帽を被った人物、フルフェイスヘルメットを被った人物など、不審者として予め想定される人物の顔や頭部の画像情報も含み、これら多様な顔画像について入力元となる顔画像の属性と対応づけられて輝度パターンが記憶される。顔画像の属性とは、顔を隠蔽していない「正常」、及び顔を隠蔽した状態として「サングラス+マスク」、「手」、「目出し帽」、「フルフェイス」、など入力元の顔画像の状態を示す情報である。   The face feature information is the feature information for determining the face image of a person. For the face image obtained by capturing images of faces of various men and women from multiple directions in advance, the brightness pattern of each part such as the entire face and eyes, nose, mouth, etc. It is stored as facial feature information. Also, the brightness pattern of the face image stored in the face feature information is not only the face image of a normal person, but also a person wearing sunglasses, a person wearing a mask, a person whose face is hidden by hand, and a balaclava It also includes image information of the face and head of a person who is assumed to be a suspicious person, such as a person or a person wearing a full-face helmet, and the brightness associated with the attributes of the face image as the input source for these various face images The pattern is stored. The attributes of the face image are “normal” that does not hide the face, and “Sunglasses + mask”, “hand”, “balancing cap”, “full face”, etc. This is information indicating the state of the image.

不審者画像は、制御部34による判定処理により現在の画像データに含まれる人物が不審者と判定された際にこの画像データを記憶するものである。   The suspicious person image is stored when the person included in the current image data is determined to be a suspicious person by the determination process by the control unit 34.

制御部34は、CPU、ROM、RAM等からなるマイクロコンピュータ及びその周辺回路で構成され、上述した各部を制御する。そのために、制御部34は、このマイクロコンピュータ及びマイクロコンピュータ上で実行されるコンピュータプログラムによって実現される機能モジュールとして、入力画像中の人物領域を抽出する変動領域抽出部341と、入力画像から入力頭部領域として人物の頭部領域を抽出する頭部抽出部342と、入力画像中の頭部領域が顔の特徴情報を有した頭部であるか判定する顔特徴判定部343と、入力画像中の頭部領域に光沢が生じているか判別する高輝度領域抽出部344と、監視区域内に存在する人物が顔を隠した不審者か否かを判定する不審者検出部345と、を備えている。   The control unit 34 includes a microcomputer including a CPU, a ROM, a RAM, and the like and peripheral circuits thereof, and controls each unit described above. For this purpose, the control unit 34 includes, as a functional module realized by the microcomputer and a computer program executed on the microcomputer, a variable region extraction unit 341 that extracts a person region in the input image, and an input head from the input image. A head extraction unit 342 that extracts a human head region as a partial region; a face feature determination unit 343 that determines whether the head region in the input image is a head having facial feature information; A high-intensity region extraction unit 344 that determines whether or not the head region of the subject is glossy, and a suspicious person detection unit 345 that determines whether or not a person existing in the monitored area is a suspicious person whose face is hidden. Yes.

変動領域抽出部341は、入力画像に画像処理を施して移動物体となる人物を検出する。変動領域抽出部341は、入力画像と記憶部33に記憶された基準画像とを比較して、輝度値の変動が所定以上であった変動画素を抽出するとともに、略連続した変動画素群を1つの変動領域としてグループ化する。   The fluctuation region extraction unit 341 performs image processing on the input image to detect a person who becomes a moving object. The variation area extraction unit 341 compares the input image with the reference image stored in the storage unit 33, extracts the variation pixels whose luminance value variation is equal to or greater than a predetermined value, and sets a substantially continuous variation pixel group as one. Group as one variable area.

頭部抽出部342は、変動領域抽出部が抽出した変動領域の内部において人物の頭部部分の領域を抽出する。頭部抽出部342は、変動領域のエッジ成分を抽出し、エッジ画像データにおいて顔の輪郭形状に近似した楕円形状のエッジ分布を検出して、そのエッジ分布に囲まれた楕円領域を人物の頭部領域として抽出する。かかる頭部領域の抽出処理については本出願人による特開2005−25568号公報や特開2010−286274号公報に記載された種々の方法を採用することができる。   The head extraction unit 342 extracts the region of the person's head part within the variation region extracted by the variation region extraction unit. The head extraction unit 342 extracts the edge component of the fluctuation region, detects an elliptical edge distribution that approximates the contour shape of the face in the edge image data, and determines the elliptical region surrounded by the edge distribution as the head of the person. Extract as a partial area. Various methods described in Japanese Patent Application Laid-Open No. 2005-25568 and Japanese Patent Application Laid-Open No. 2010-286274 by the present applicant can be adopted for the extraction process of the head region.

具体的には、頭部抽出部342は、Sobelフィルターなど公知のエッジ抽出フィルターを入力画像の変動領域に作用させてエッジ強度とエッジ角度(水平を基準としたエッジ方向)を求めてエッジ強度画像とエッジ角度画像を生成する。そして、頭部抽出部342は、予め記憶した大きさの異なる複数の楕円テンプレートを用いてエッジ強度画像及びエッジ角度画像上にてずらしマッチングを行い、楕円テンプレートとエッジ成分との類似度を求め、この類似度が高い位置を人物の頭部領域として抽出し、各頭部領域に固有のラベルでラベリングする。   Specifically, the head extraction unit 342 applies a known edge extraction filter such as a Sobel filter to the fluctuation region of the input image to obtain an edge strength and an edge angle (an edge direction with respect to the horizontal) to obtain an edge strength image. And generate an edge angle image. Then, the head extraction unit 342 performs shift matching on the edge strength image and the edge angle image using a plurality of ellipse templates having different sizes stored in advance, and obtains the similarity between the ellipse template and the edge component, A position having a high degree of similarity is extracted as a head region of a person, and is labeled with a label unique to each head region.

なお、頭部領域の抽出手法はこれに限定されるものではなく、種々提案されている公知の方法を用いることが可能である。例えば、HOG(Histograms of Oriented Gradients)特徴量を用いて頭部領域を抽出してもよい。この場合、変動領域を構成する複数のセル毎に輝度の勾配方向ヒストグラムを求めて9次元の特徴量ベクトルを得て、複数セルによるブロック領域においてセルの特徴量ベクトルを正規化する。そして、ブロック領域毎に多次元の特徴量ベクトルを得てこれを予め学習した頭部形状の特徴量と比較することで頭部領域を抽出する。HOG特徴量の参考文献として、N. Dalal and
B. Triggs, "Histograms of oriented gradients for
human detection", Proc. of IEEE Conference on Computer Vision and Pattern
Recognition (CVPR), pp.886-893, 2005などがある。
Note that the head region extraction method is not limited to this, and various known methods can be used. For example, the head region may be extracted using HOG (Histograms of Oriented Gradients) feature values. In this case, a luminance gradient direction histogram is obtained for each of a plurality of cells constituting the variable region to obtain a nine-dimensional feature vector, and the cell feature vector is normalized in the block region of the plurality of cells. A head region is extracted by obtaining a multidimensional feature vector for each block region and comparing it with a feature value of a head shape learned in advance. As a reference for HOG features, N. Dalal and
B. Triggs, "Histograms of oriented gradients for
human detection ", Proc. of IEEE Conference on Computer Vision and Pattern
Recognition (CVPR), pp.886-893, 2005, etc.

顔特徴判定部343は、頭部抽出部342にて抽出された頭部領域が、素顔の顔画像、又はサングラスやマスク或いは手などで顔を覆ったり、フルフェイスのヘルメット等の装着により顔の一部分や全部分を隠して人相が分らない(顔の特徴情報がない)顔画像であるか否かを判定する。
顔特徴判定部343は、入力画像において、抽出された頭部領域を複数の矩形領域に分割し、各分割矩形領域毎、及び隣接する分割矩形領域を統合したブロック毎に顔特徴情報に記憶した顔画像の輝度パターンとのパターンマッチングを行う。そして、類似度が高く算出された輝度パターンの属性から、固有ラベルが付された頭部領域毎に何れの属性の顔画像が含まれているか又は顔画像が含まれていないかの識別結果を出力する。
The face feature determination unit 343 covers the face of the head region extracted by the head extraction unit 342 with a face image of the face, sunglasses, a mask, a hand, or the like, or wearing a full-face helmet or the like. It is determined whether the face image is a face image in which a part or all of the part is hidden and the human phase is not known (no facial feature information).
The face feature determination unit 343 divides the extracted head region into a plurality of rectangular regions in the input image, and stores the divided head regions in the face feature information for each divided rectangular region and each block obtained by integrating adjacent divided rectangular regions. Pattern matching with the luminance pattern of the face image is performed. Then, from the attribute of the brightness pattern calculated with a high degree of similarity, an identification result as to which attribute face image is included or not included for each head region with a unique label Output.

例えば、目鼻口など顔の特徴部位(特徴情報)が抽出できれば顔を隠蔽していない「正常」な属性の顔画像と判定され、目鼻口など顔の特徴部位が抽出できず頭部領域の垂直方向中央に暗い画素が集中し垂直方向下方に明るい画素が集中している場合には顔を隠蔽した状態として「サングラス+マスク」属性の顔画像と判定され、また、目鼻口など顔の特徴部位が抽出できず頭部領域内にエッジが少なくのっぺりとしている場合には顔を隠蔽した状態として「フルフェイス」属性の顔画像と判定される。また、顔特徴情報に記憶した何れのパターンとも高い類似度が得られない場合、当該頭部領域は人体の頭部でない(顔画像が含まれない)と判定される。
顔特徴判定部343の識別結果は入力画像及び頭部領域の固有ラベルに対応付けて記憶部33上の作業領域に記憶される。
For example, if a facial feature part (feature information) such as the eyes and nose can be extracted, it is determined that the face image has a “normal” attribute that does not conceal the face. When dark pixels are concentrated at the center in the direction and bright pixels are concentrated below the vertical direction, it is determined that the face is concealed as a face image having the “sunglasses + mask” attribute, and facial features such as the eyes, nose and mouth Cannot be extracted, and there are few edges in the head region, it is determined that the face is concealed as a face image having the “full face” attribute. Further, when a high similarity cannot be obtained with any of the patterns stored in the face feature information, it is determined that the head region is not a human head (a face image is not included).
The identification result of the face feature determination unit 343 is stored in the work area on the storage unit 33 in association with the input image and the unique label of the head area.

なお、顔特徴判定部343による顔画像の判別処理はこれに限定されるものではなく、種々提案されている公知の方法を用いることが可能である。例えば、Haar-like特徴を用いたAdaboost識別器により、頭部領域がどの属性の顔画像であるかを判定してもよい。Haar-like特徴は、入力画像の頭部領域中に任意に設定された複数の隣接した分割矩形領域間の輝度差である。また、Adaboost識別器は、複数の弱識別器と、各弱識別器の判定結果を統合して判定する強識別器とから構成される。各弱識別器は、入力された画像領域から、それぞれ異なるHaar-like特徴を算出し、算出されたHaar-like特徴に基づいて頭部領域に何れの属性の顔画像が含まれているか又は顔画像が含まれていないかの識別結果を出力する。各弱識別器は、顔特徴情報に記憶した顔画像のHaar-like特徴を学習して生成され、その際に合わせて顔画像の属性も取得する。Haar-like特徴及びAdaboost識別器の詳細については、例えば、Paul Viola and Michael Jones, "Rapid Object Detection using a
Boosted Cascade of Simple Features", IEEE CVPR, vol.1, pp.511-518, 2001に開示されている。
Note that the face image determination processing by the face feature determination unit 343 is not limited to this, and various known methods can be used. For example, an attribute identifier of the head region may be determined by an Adaboost discriminator using Haar-like features. The Haar-like feature is a luminance difference between a plurality of adjacent divided rectangular areas arbitrarily set in the head area of the input image. The Adaboost classifier includes a plurality of weak classifiers and a strong classifier that is determined by integrating the determination results of the weak classifiers. Each weak classifier calculates a different Haar-like feature from the input image region, and based on the calculated Haar-like feature, which attribute image is included in the head region or the face Outputs the identification result of whether an image is not included. Each weak classifier is generated by learning the Haar-like feature of the face image stored in the face feature information, and acquires the attribute of the face image accordingly. For details on Haar-like features and Adaboost classifiers, see, for example, Paul Viola and Michael Jones, "Rapid Object Detection using a
Boosted Cascade of Simple Features ", IEEE CVPR, vol.1, pp.511-518, 2001.

高輝度領域抽出部344は、固有ラベルが付された頭部領域毎に光沢としての高輝度領域が存在するか判別する。
不審者が顔を隠蔽する手段として用いるフルフェイスヘルメットは、手入れの容易さから継ぎ目の少ない略楕円形状に形成されており、その平滑な湾曲面が照明など周囲の環境光を反射することで光沢としての一定大の高輝度領域が生じる。一方で、人物の頭部は、頭髪による微細な凹凸を有しているため照明などの環境光が拡散して光沢としての高輝度領域が生じ難い。そこで、高輝度領域抽出部344は、このフルフェイスヘルメットを被った頭部に特有の高輝度領域を抽出する。
The high brightness area extraction unit 344 determines whether there is a high brightness area as gloss for each head area to which a unique label is attached.
The full-face helmet used by suspicious people as a means of concealing their face is formed into an almost elliptical shape with few joints for ease of care, and its smooth curved surface reflects the ambient ambient light such as lighting. As a result, a certain high-luminance region is generated. On the other hand, since the head of a person has fine irregularities due to hair, ambient light such as illumination diffuses and a high-brightness region as gloss is hardly generated. Therefore, the high brightness area extraction unit 344 extracts a high brightness area peculiar to the head wearing the full face helmet.

高輝度領域抽出部344は、入力画像を公知の方法で白黒2値化した上で、固有ラベルが付された頭部領域毎に頭部領域内の画像を固定サイズに正規化し、この正規化頭部画像内で所定面積以上の白領域が存在するかを調べる。2値化の閾値は実験により求めた値としてよい。また、2値化画像は膨張収縮処理によりノイズ除去を行う。   The high brightness area extraction unit 344 binarizes the input image by a known method, normalizes the image in the head area to a fixed size for each head area to which a unique label is attached, and normalizes the normalized image. It is checked whether a white area having a predetermined area or more exists in the head image. The threshold value for binarization may be a value obtained by experiments. The binarized image is subjected to noise removal by expansion / contraction processing.

具体的には、高輝度領域抽出部344は、予め実験により求めた閾値により入力画像を白黒2値化し、この白黒画像に対し膨張収縮処理など公知のノイズ除去処理を行う。そして、得られた白黒画像内の頭部領域の外接矩形が、予め設定された固定サイズ(例えば64ピクセル×64ピクセル)となるよう頭部領域内の画像を拡大又は縮小処理して、正規化頭部画像を生成する。高輝度領域抽出部344は、得られた正規化頭部画像内に高輝度領域を探索するための探索領域を設定する。探索領域は、フルフェイスヘルメットが環境光を反射して生じる光沢を探索するための領域であり、照明などの環境光は上方から照射されるという知見に基づき正規化頭部画像における垂直方向下方1/4を除いた上部部分(つまり上部64ピクセル×48ピクセル)に設定される。   Specifically, the high luminance area extraction unit 344 binarizes the input image using a threshold value obtained in advance through experiments, and performs known noise removal processing such as expansion / contraction processing on the black and white image. Then, normalization is performed by enlarging or reducing the image in the head region so that the circumscribed rectangle of the head region in the obtained black and white image becomes a preset fixed size (for example, 64 pixels × 64 pixels). A head image is generated. The high brightness area extraction unit 344 sets a search area for searching for a high brightness area in the obtained normalized head image. The search area is an area for searching for gloss generated by the full-face helmet reflecting ambient light, and based on the knowledge that ambient light such as illumination is irradiated from above, the lower part 1 in the vertical direction in the normalized head image The upper part excluding / 4 (that is, upper 64 pixels × 48 pixels) is set.

そして、高輝度領域抽出部344は、正規化頭部画像の探索領域内を探索して白色画素を抽出するとともに、略連続した白色画素群を1つの白色領域としてグループ化し、この白色領域を高輝度候補領域として面積の算出を行う。このとき、一つの正規化頭部画像内に複数の白色領域が抽出されていれば、面積が大きいものから所定個数(例えば2つ)のみを当該頭部領域の高輝度候補領域とする。そして、高輝度領域抽出部344は、正規化頭部画像ごとに、高輝度候補領域の面積の合計が予め設定された判定面積(例えば20ピクセル)以上であれば高輝度候補領域を高輝度領域と判定する。高輝度領域抽出部344の判定結果は入力画像及び頭部領域の固有ラベルに対応付けて記憶部33上の作業領域に記憶される。   The high-intensity area extraction unit 344 searches the search area of the normalized head image to extract white pixels, groups a group of substantially continuous white pixels as one white area, The area is calculated as the luminance candidate region. At this time, if a plurality of white areas are extracted in one normalized head image, only a predetermined number (for example, two) of areas having a large area are set as high brightness candidate areas of the head area. Then, for each normalized head image, the high luminance region extraction unit 344 determines the high luminance candidate region as a high luminance region if the total area of the high luminance candidate regions is equal to or larger than a predetermined determination area (for example, 20 pixels). Is determined. The determination result of the high luminance area extraction unit 344 is stored in the work area on the storage unit 33 in association with the input image and the unique label of the head area.

すなわち、高輝度領域抽出部344は、頭部領域内の画像サイズを正規化した上で所定面積以上の白色領域を高輝度領域として抽出しており、換言すれば、頭部領域の面積に対して相対的に所定割合以上となる面積の白色領域を高輝度領域として抽出しているとも言える。   That is, the high luminance region extraction unit 344 normalizes the image size in the head region and extracts a white region having a predetermined area or more as a high luminance region. In other words, it can be said that a white area having an area relatively larger than a predetermined ratio is extracted as a high luminance area.

なお、この高輝度領域抽出部344による判定処理は、顔特徴判定部343が特に「フルフェイス」属性による顔の隠蔽を判定した頭部領域についてのみ実行してもよい。この場合、顔特徴判定部343は、「フルフェイス」属性と判定した頭部領域だけにフルフェイスフラグを成立させ、高輝度領域抽出部344は、入力画像中にフルフェイスフラグが成立した頭部領域が存在する場合にのみ当該頭部領域について高輝度領域を抽出する処理を実行する。   Note that the determination process by the high luminance region extraction unit 344 may be executed only for the head region in which the facial feature determination unit 343 determines the concealment of the face based on the “full face” attribute. In this case, the face feature determination unit 343 establishes the full face flag only in the head region determined as the “full face” attribute, and the high brightness region extraction unit 344 establishes the head in which the full face flag is established in the input image. Only when the region exists, the process of extracting the high brightness region for the head region is executed.

不審者検出部345は、顔特徴判定部343及び高輝度領域抽出部344の判断を統合して監視区域内に顔を隠した不審者が存在するか否かを判定する。不審者検出部345は、入力画像の頭部領域について、顔特徴判定部343が顔を隠蔽した属性、つまり目鼻口など顔の特徴情報を有しない顔画像が含まれると判定した場合に、該当する頭部領域に含まれた顔画像が不審者であると判定する。   The suspicious person detection unit 345 determines whether there is a suspicious person whose face is hidden in the monitoring area by integrating the determinations of the face feature determination unit 343 and the high brightness area extraction unit 344. When the suspicious person detection unit 345 determines that the head region of the input image includes an attribute in which the face feature determination unit 343 has concealed the face, that is, a face image having no facial feature information such as an eye-nose mouth, etc. The face image included in the head region to be determined is a suspicious person.

ここで特に、不審者検出部345は、入力画像の頭部領域について、顔特徴判定部343が「フルフェイス」属性による顔の隠蔽を判定した場合には、該当する頭部領域について高輝度領域抽出部344の判定結果を参照して、高輝度領域の存在が判定されていれば当該頭部領域に含まれた顔画像が不審者であると判定する。他方、該当する頭部領域について高輝度領域の存在が判定されていなければ、当該頭部領域に含まれた顔画像は不審者でない(正常)と判定する。
また、不審者検出部345は、入力画像の頭部領域について、顔特徴判定部343にて目鼻口など顔の特徴情報が抽出されて正常な属性の顔画像が含まれると判定した場合、及び顔画像が含まれていないと判定した場合には、該当する頭部領域に含まれた顔画像は不審者でない(正常)と判定する。
Here, in particular, when the facial feature determination unit 343 determines concealment of the face by the “full face” attribute for the head region of the input image, the suspicious person detection unit 345 performs a high-intensity region for the corresponding head region. With reference to the determination result of the extraction unit 344, if the presence of the high brightness region is determined, it is determined that the face image included in the head region is a suspicious person. On the other hand, if the presence of the high brightness region is not determined for the corresponding head region, it is determined that the face image included in the head region is not a suspicious person (normal).
Further, when the suspicious person detecting unit 345 determines that facial feature information such as the eyes and nose and mouth is extracted by the facial feature determining unit 343 for the head region of the input image and includes a facial image with normal attributes, and If it is determined that the face image is not included, it is determined that the face image included in the corresponding head region is not a suspicious person (normal).

そして、不審者検出部345は、入力画像に不審者の顔画像が含まれていることを判断すると、自己のアドレス情報を含む非常信号を生成し、不審者の存在を判定した画像データを付して通信部32に出力し、通信部32より監視センタ5に送信する。またこのとき、不審者の存在を判定した画像データを不審者画像として記憶部33に記憶する。   When the suspicious person detection unit 345 determines that the face image of the suspicious person is included in the input image, the suspicious person detection unit 345 generates an emergency signal including the address information of the suspicious person and attaches image data that determines the presence of the suspicious person. Then, the data is output to the communication unit 32 and transmitted from the communication unit 32 to the monitoring center 5. At this time, the image data determined to be present is stored in the storage unit 33 as a suspicious person image.

<動作の説明>
以上のように構成された監視システム1について、図面を参照してその動作を説明する。まず、図3を用いて画像監視装置3の処理概要について説明する。図3は画像監視装置3による不審者監視処理を模式的に示した図である。
<Description of operation>
The operation of the monitoring system 1 configured as described above will be described with reference to the drawings. First, an outline of processing of the image monitoring apparatus 3 will be described with reference to FIG. FIG. 3 is a diagram schematically showing suspicious person monitoring processing by the image monitoring apparatus 3.

図3(a)は、監視カメラ31により撮像される入力画像を示している。監視カメラ31により所定間隔(例えば0.2秒)ごとに画像データが取得され、制御部34に入力される。監視カメラ31より画像データ(入力画像)が入力されると、変動領域抽出部341は、図3(b)に示すように、入力画像と記憶部33の基準画像との差分を算出して変動領域を抽出する。次に、頭部抽出部342は、変動領域の内部において楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた楕円領域を人物の頭部領域として抽出する。   FIG. 3A shows an input image captured by the monitoring camera 31. Image data is acquired by the monitoring camera 31 at predetermined intervals (for example, 0.2 seconds) and input to the control unit 34. When image data (input image) is input from the monitoring camera 31, the fluctuation region extraction unit 341 calculates and changes the difference between the input image and the reference image in the storage unit 33, as shown in FIG. Extract regions. Next, the head extraction unit 342 detects an elliptical edge distribution within the fluctuation region, and extracts an elliptical region surrounded by the edge distribution as a human head region.

次に、顔特徴判定部343は、図3(c)に示すように、抽出された頭部領域と記憶部に記憶された顔特徴情報とのパターンマッチングを行い、算出された類似度が高い輝度パターンの属性を読み出して、顔の特徴情報を有している「正常」、顔の特徴情報を有さず顔を隠蔽した状態である「サングラス+マスク」、「手」、「目出し帽」、「フルフェイス」、など何れの属性の顔画像が含まれているか又は顔画像が含まれていないかの識別結果を出力する。図3(c)では、図中左側の人物が「正常」と判定され、図中右側の人物が「フルフェイス」と判定された例を示している。   Next, as shown in FIG. 3C, the face feature determination unit 343 performs pattern matching between the extracted head region and the face feature information stored in the storage unit, and the calculated similarity is high. Read out the luminance pattern attribute, "normal" with facial feature information, "Sunglasses + mask", "hand", "balancing cap" with no facial feature information and concealed face ”,“ Full face ”, or any other attribute of the face image is included, or the identification result indicating whether the face image is not included is output. FIG. 3C shows an example in which the person on the left side in the figure is determined to be “normal” and the person on the right side in the figure is determined to be “full face”.

また、高輝度領域抽出部344は、図3(d)に示すように、入力画像を2値化して頭部領域内の画像を固定サイズ(例えば64ピクセル×64ピクセル)に正規化し、正規化頭部画像の上部部分(例えば垂直方向上部3/4)を探索領域として白色領域(高輝度候補領域)を抽出する。そして、高輝度領域抽出部344は、高輝度候補領域の面積が予め設定された判定面積(例えば20ピクセル)以上であれば当該頭部領域に高輝度領域が存在すると判定する。   Further, as shown in FIG. 3D, the high-intensity area extraction unit 344 binarizes the input image, normalizes the image in the head area to a fixed size (for example, 64 pixels × 64 pixels), and normalizes the input image. A white area (high brightness candidate area) is extracted using the upper part of the head image (for example, the upper 3/4 in the vertical direction) as a search area. Then, if the area of the high brightness candidate area is equal to or larger than a predetermined determination area (for example, 20 pixels), the high brightness area extraction unit 344 determines that the high brightness area exists in the head area.

不審者検出部345は、図3(c)に示した顔特徴判定部343の判定結果と図3(d)に示した高輝度領域抽出部344の判定結果を受けて、入力画像中の不審者を検出する。特に、不審者検出部345は、図3(e)に示すように、顔特徴判定部343により、「フルフェイス」属性による顔の隠蔽が判定されている場合、当該頭部領域について高輝度領域抽出部344の判定結果を参照して、高輝度領域の存在が判定されていれば当該頭部領域に含まれた顔画像が、フルフェイスヘルメットで顔を隠蔽した不審者であると判定する。他方、不審者検出部345は、顔特徴判定部343により、「フルフェイス」属性による顔が判定されていても、高輝度領域の存在が判定されなければ当該頭部領域に含まれた顔画像は不審者でない(正常)と判定する。   The suspicious person detection unit 345 receives the determination result of the face feature determination unit 343 shown in FIG. 3C and the determination result of the high brightness region extraction unit 344 shown in FIG. Detect people. In particular, as shown in FIG. 3E, the suspicious person detection unit 345 determines that the face feature determination unit 343 determines that the face is concealed based on the “full face” attribute, With reference to the determination result of the extraction unit 344, if the presence of the high-luminance region is determined, it is determined that the face image included in the head region is a suspicious person whose face is concealed with a full-face helmet. On the other hand, even if the face feature determination unit 343 determines a face based on the “full face” attribute, the suspicious person detection unit 345 includes the face image included in the head region unless the presence of the high brightness region is determined. Is determined not to be a suspicious person (normal).

このように、フルフェイスのヘルメットによる顔の隠蔽を判定する場合に所定面積以上の高輝度領域が存在することを条件としたので、正常な人物の後頭部を誤ってフルフェイスヘルメットと判断してしまうことを防止することが可能となる。また、特に、頭部領域において高輝度領域を探索する範囲を上部部分だけに限定したので、後頭部にかかるシャツのエリなどを誤って高輝度領域として検出することを防止して、フルフェイスヘルメットの判定精度を向上させることが可能となる。   As described above, when determining the concealment of a face by a full-face helmet, it is a condition that there is a high-luminance region of a predetermined area or more, so a normal person's occipital region is erroneously determined as a full-face helmet. This can be prevented. In particular, since the search range for the high brightness area in the head area is limited to the upper part only, it is possible to prevent erroneous detection of a shirt area on the back of the head as a high brightness area. Determination accuracy can be improved.

また、不審者検出部345は、図3(e)に示すように、顔特徴判定部343により正常な属性の顔画像と判定された頭部領域について不審者でない(正常)と判定し、顔特徴判定部343により「フルフェイス」属性以外の顔を隠蔽した属性の顔画像と判定された頭部領域については、当該属性による不審者であると判定する。不審者検出部345による判定結果は通信部32より遠隔の監視センタ5に通報される。   Further, as shown in FIG. 3E, the suspicious person detection unit 345 determines that the head region determined to be a face image having a normal attribute by the face feature determination unit 343 is not a suspicious person (normal), and the face The head region determined as a face image having an attribute that conceals a face other than the “full face” attribute by the feature determination unit 343 is determined to be a suspicious person based on the attribute. The determination result by the suspicious person detection unit 345 is reported from the communication unit 32 to the remote monitoring center 5.

次に、図4、図5を用いて、図3に示した画像監視装置3による不審者監視処理の動作について説明する。図4は、画像監視装置3の制御部34にて繰り返し実行される監視プログラムの動作を示すフローチャートである。
画像監視装置3は、所定周期(例えば0.2秒周期、すなわち5fps(フレーム/秒))ごとに監視カメラ31が撮像した画像データの出力を受け付けて制御部34に入力する(ステップST1)。変動領域抽出部341は、入力画像と記憶部33の基準画像との差分を算出して変動領域を抽出する(ステップST2)。変動領域が抽出できなければ一連の処理を終了し、次回の実行タイミングにてステップST1より処理が実行される。
Next, the operation of the suspicious person monitoring process by the image monitoring apparatus 3 shown in FIG. 3 will be described with reference to FIGS. FIG. 4 is a flowchart showing the operation of the monitoring program repeatedly executed by the control unit 34 of the image monitoring apparatus 3.
The image monitoring device 3 receives the output of the image data captured by the monitoring camera 31 every predetermined cycle (for example, 0.2 second cycle, that is, 5 fps (frame / second)) and inputs it to the control unit 34 (step ST1). The fluctuation area extraction unit 341 calculates the difference between the input image and the reference image in the storage unit 33 and extracts the fluctuation area (step ST2). If the fluctuation region cannot be extracted, the series of processes is terminated, and the process is executed from step ST1 at the next execution timing.

ステップST3において、頭部抽出部342は、変動領域抽出部341が抽出した変動領域から人物の頭部領域を抽出する。頭部領域が抽出できなければ一連の処理を終了し、次回の実行タイミングにてステップST1より処理が実行される。次に、顔特徴判定部343により、抽出された頭部領域と記憶部33に記憶された顔特徴情報とのパターンマッチングが行われ、何れの属性の顔画像が含まれているか又は顔画像が含まれていないかの識別結果が出力される(ステップST4)。入力画像中の全ての頭部領域について顔画像が含まれていなければ一連の処理を終了し、次回の実行タイミングにてステップST1より処理が実行される。   In step ST3, the head extraction unit 342 extracts a person's head region from the variation region extracted by the variation region extraction unit 341. If the head region cannot be extracted, the series of processing ends, and the processing is executed from step ST1 at the next execution timing. Next, the face feature determination unit 343 performs pattern matching between the extracted head region and the face feature information stored in the storage unit 33 to determine which attribute of the face image is included or whether the face image is An identification result as to whether it is not included is output (step ST4). If face images are not included for all the head regions in the input image, the series of processing ends, and processing is executed from step ST1 at the next execution timing.

そして、ステップST5において、高輝度領域抽出部344は頭部領域毎に高輝度領域が存在するかを判別する高輝度領域判定処理を実行する。高輝度領域判定処理については後述する。   In step ST5, the high brightness area extraction unit 344 executes a high brightness area determination process for determining whether a high brightness area exists for each head area. The high brightness area determination process will be described later.

不審者検出部345は、顔特徴判定処理の結果を参照し、顔の特徴情報を有さない顔を隠蔽した属性の頭部領域が存在する場合(ステップST6−Yes)、当該頭部領域が「フルフェイス」属性による顔の隠蔽か否かを判定する(ステップST7)。「フルフェイス」属性による顔の隠蔽であれば(ステップST7−Yes)、高輝度領域判定処理においてこの頭部領域内に高輝度領域の存在が判定されているかを調べる。高輝度領域が存在すると(ステップST8−Yes)、当該頭部領域を不審者と判定する(ステップST9)。他方、ステップST8において頭部領域内に高輝度領域の存在が判定されなければ(ステップST8−No)、当該頭部領域は後頭部などフルフェイスヘルメットによるものではないと判定して不審者との判定は行わない。また、不審者検出部は、顔特徴判定部343により「フルフェイス」属性以外による顔の隠蔽と判定された頭部領域については(ステップST7−No)、当該属性による不審者であると判定する。   The suspicious person detection unit 345 refers to the result of the face feature determination process, and when there is a head region having an attribute that conceals a face that does not have facial feature information (step ST6-Yes), the head region is It is determined whether or not the face is hidden by the “full face” attribute (step ST7). If the face is concealed by the “full face” attribute (step ST7—Yes), it is checked whether or not the presence of a high brightness area is determined in the head area in the high brightness area determination process. If a high brightness area exists (step ST8-Yes), the head area is determined to be a suspicious person (step ST9). On the other hand, if it is not determined in step ST8 that a high-luminance region is present in the head region (step ST8-No), it is determined that the head region is not a full-face helmet such as the back of the head and a suspicious person is determined. Do not do. Further, the suspicious person detection unit determines that the head region determined to be masked by the face feature determination unit 343 other than the “full face” attribute (step ST7—No) is a suspicious person based on the attribute. .

不審者検出部345は、入力画像中の全ての頭部領域についてステップST6からST9の処理を行い不審者か否かを判定し(ステップST10)、入力画像中に不審者が存在すると判定すれば(ステップST11−Yes)、不審者の存在を判定した画像データと共に自己のアドレス情報を含む非常信号を通信部32より送信する(ステップST12)。   The suspicious person detection unit 345 determines whether or not there is a suspicious person in the input image by performing the processes of steps ST6 to ST9 for all the head regions in the input image to determine whether or not the suspicious person is present (step ST10). (Step ST11-Yes), an emergency signal including its own address information is transmitted from the communication unit 32 together with the image data for which the presence of the suspicious person is determined (Step ST12).

以上に、画像監視装置3の基本的な動作について説明した。
次に、図4のステップST5における高輝度領域判定処理について図5を参照して説明する。図5は高輝度領域抽出部344による高輝度領域判定処理のフローチャートである。図5において、高輝度領域抽出部344は、入力画像を白黒2値化し、この白黒画像に対し膨張収縮処理などによりノイズ除去を行う(ステップST21)。次に、白黒画像内における頭部領域の外接矩形が、予め設定された固定サイズ(例えば64ピクセル×64ピクセル)となるよう頭部領域ごとに画像を拡大又は縮小処理して、正規化頭部画像を生成する(ステップST22)。
The basic operation of the image monitoring apparatus 3 has been described above.
Next, the high brightness area determination process in step ST5 of FIG. 4 will be described with reference to FIG. FIG. 5 is a flowchart of the high brightness area determination process performed by the high brightness area extraction unit 344. In FIG. 5, the high brightness area extraction unit 344 binarizes the input image and performs noise removal on the black and white image by expansion / contraction processing or the like (step ST21). Next, the image is enlarged or reduced for each head region so that the circumscribed rectangle of the head region in the monochrome image becomes a preset fixed size (for example, 64 pixels × 64 pixels), and the normalized head An image is generated (step ST22).

ステップST23において、高輝度領域抽出部344は、正規化頭部画像における垂直方向下方1/4を除いた上部部分(つまり上部64ピクセル×48ピクセル)に探索領域を設定する。そして、高輝度領域抽出部344は、正規化頭部画像の探索領域内における白色領域を高輝度候補領域として抽出する(ステップST24)。なお、このとき、一つの正規化頭部画像内に複数の白色領域が抽出されていれば、面積が大きいものから所定個数(例えば2つ)のみを当該頭部領域の高輝度候補領域とする。   In step ST23, the high-intensity region extraction unit 344 sets a search region in the upper portion (that is, upper 64 pixels × 48 pixels) excluding the lower 1/4 in the vertical direction in the normalized head image. Then, the high brightness area extraction unit 344 extracts a white area in the search area of the normalized head image as a high brightness candidate area (step ST24). At this time, if a plurality of white areas are extracted in one normalized head image, only a predetermined number (for example, two) of areas having a large area is set as a high brightness candidate area of the head area. .

高輝度領域抽出部344は、正規化頭部画像ごとに、高輝度候補領域の面積(複数ある場合は面積の合計)が予め設定された判定面積(例えば20ピクセル)以上か判定し(ステップST25)、判定面積以上であれば当該高輝度候補領域を高輝度領域と判定し、頭部領域に高輝度領域が存在すると判定する(ステップST26)。他方、高輝度候補領域の面積が判定面積未満であれば(ステップST25−No)、当該高輝度候補領域を高輝度領域と判定しない。
高輝度領域抽出部344は、入力画像中の全ての頭部領域(正規化頭部画像)についてステップST23からST26の処理を行い高輝度領域が存在するか否かを判定し(ステップST27)、処理を終了する。
The high luminance area extraction unit 344 determines, for each normalized head image, whether the area of the high luminance candidate area (the total of the areas when there are plural areas) is equal to or larger than a predetermined determination area (for example, 20 pixels) (step ST25). If it is equal to or larger than the determination area, the high brightness candidate area is determined as a high brightness area, and it is determined that the high brightness area exists in the head area (step ST26). On the other hand, if the area of the high brightness candidate area is less than the determination area (step ST25-No), the high brightness candidate area is not determined as the high brightness area.
The high-intensity area extraction unit 344 determines whether or not there is a high-intensity area by performing the processing of steps ST23 to ST26 for all head areas (normalized head images) in the input image (step ST27). The process ends.

以上のように、高輝度領域抽出部344は、入力画像に含まれる頭部領域について所定面積以上の高輝度領域が存在するか判定し、不審者検出部345は、顔の隠蔽が判断された頭部領域について高輝度領域が存在すると判定された場合にのみフルフェイスヘルメットによる不審者が存在することを判定する。他方、フルフェイスヘルメットに類似した頭部領域であっても高輝度領域が存在しない場合には不審者と判定しない。
これにより、頭髪による微細な凹凸を有しているため照明などの環境光が拡散し光沢としてのテカリが生じ難い人物の後頭部をフルフェイスヘルメットとして誤検出することを防止して、平滑な湾曲面が照明など環境光を反射し光沢としての一定大のテカリが生じるフルフェイスヘルメットを高精度に検出することが可能となる。
As described above, the high-intensity region extraction unit 344 determines whether a high-intensity region having a predetermined area or more exists in the head region included in the input image, and the suspicious person detection unit 345 determines that the face is concealed. Only when it is determined that there is a high-luminance region for the head region, it is determined that there is a suspicious person with a full-face helmet. On the other hand, even if it is a head region similar to a full-face helmet, it is not determined as a suspicious person when there is no high luminance region.
As a result, it has a smooth curved surface that prevents the back of the human head from being misdetected as a full-face helmet because it has minute irregularities due to hair and diffuses ambient light such as lighting and does not easily cause glossy shine. However, it is possible to accurately detect a full-face helmet that reflects ambient light such as lighting and generates a certain amount of glossy luster.

以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。   The embodiments of the present invention have been described above by way of example, but the scope of the present invention is not limited to these embodiments, and can be changed or modified according to the purpose within the scope of the claims. is there.

1 監視システム
2 保管庫
3 画像監視装置
31 監視カメラ
32 通信部
33 記憶部
34 制御部
341変動領域抽出部
342頭部抽出部
343顔特徴判定部
344高輝度領域抽出部
345不審者検出部
4 通信回線網
5 監視センタ
51 センタ装置
52 ディスプレイ
DESCRIPTION OF SYMBOLS 1 Monitoring system 2 Storage 3 Image monitoring apparatus 31 Monitoring camera 32 Communication part 33 Storage part 34 Control part 341 Fluctuation area extraction part 342 Head extraction part 343 Face feature determination part 344 High brightness area extraction part 345 Suspicious person detection part 4 Communication Network 5 Monitoring center 51 Center device 52 Display

Claims (3)

監視空間においてヘルメットにより顔を隠蔽した不審者を検出する画像監視装置であって、
周期的に前記監視空間を撮像して監視画像を取得する撮像部と、
予め人物の顔特徴情報を記憶する記憶部と、
前記監視画像から人物の頭部に相当する入力頭部領域を抽出する頭部抽出部と、
前記入力頭部領域が顔の特徴情報を有しているか前記顔特徴情報を用いて判定する顔特徴判定部と、
前記入力頭部領域に所定面積以上の高輝度領域が存在するか判定する高輝度領域抽出部と、
前記顔特徴判定部にて顔の特徴情報無しと判定され、且つ前記高輝度領域抽出部にて前記高輝度領域の存在が判定されると、顔を隠蔽した不審者と判定する不審者検出部と、
を備えることを特徴とした画像監視装置。
An image surveillance apparatus for detecting a suspicious individual concealed more face helmet in the monitoring space,
An imaging unit that periodically images the monitoring space to obtain a monitoring image;
A storage unit for storing face feature information of a person in advance;
A head extraction unit that extracts an input head region corresponding to a person's head from the monitoring image;
A facial feature determination unit that determines whether the input head region has facial feature information using the facial feature information;
A high-intensity region extraction unit that determines whether a high-intensity region of a predetermined area or more exists in the input head region;
A suspicious person detection unit that determines that there is no facial feature information in the face characteristic determination unit and that the high luminance region extraction unit determines the presence of the high luminance region is a suspicious person who conceals the face. When,
An image monitoring apparatus comprising:
前記高輝度領域抽出部は、前記入力頭部領域の面積に対して所定割合以上となる面積の高輝度領域が存在するかを判定する請求項1に記載の画像監視装置。
The image monitoring apparatus according to claim 1, wherein the high-intensity region extraction unit determines whether there is a high-intensity region having an area that is a predetermined ratio or more with respect to the area of the input head region.
前記高輝度領域抽出部は、前記入力頭部領域の上部所定範囲を探索領域として設定し、該探索領域内において前記高輝度領域を抽出する請求項1または2に記載の画像監視装置。
The image monitoring apparatus according to claim 1, wherein the high-intensity region extraction unit sets a predetermined upper range of the input head region as a search region, and extracts the high-intensity region in the search region.
JP2011076328A 2011-03-30 2011-03-30 Image monitoring device Active JP5851108B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076328A JP5851108B2 (en) 2011-03-30 2011-03-30 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076328A JP5851108B2 (en) 2011-03-30 2011-03-30 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2012212967A JP2012212967A (en) 2012-11-01
JP5851108B2 true JP5851108B2 (en) 2016-02-03

Family

ID=47266600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076328A Active JP5851108B2 (en) 2011-03-30 2011-03-30 Image monitoring device

Country Status (1)

Country Link
JP (1) JP5851108B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235607B2 (en) 2016-05-30 2019-03-19 Kabushiki Kaisha Toshiba Control device, control method, and computer program product

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003929B2 (en) * 2013-11-20 2021-05-11 Nec Corporation Helmet wearing determination method, helmet wearing determination system, helmet wearing determination apparatus, and program
JP7083488B2 (en) * 2018-07-27 2022-06-13 株式会社システック Mobile suspicious person judgment device and suspicious person judgment method
WO2021062064A1 (en) * 2019-09-24 2021-04-01 Nuvasive, Inc. Systems and methods for adjusting appearance of objects in medical images
JPWO2021250805A1 (en) * 2020-06-10 2021-12-16

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003244829A1 (en) * 2002-02-05 2003-09-04 Chen, Yuling An automated teller machine system having function of digit photograph, record and recognition
JP4448304B2 (en) * 2003-09-11 2010-04-07 セコム株式会社 Face detection device
JP2010199865A (en) * 2009-02-24 2010-09-09 Nec Corp Abnormality detection system, abnormality detection method, and abnormality detection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235607B2 (en) 2016-05-30 2019-03-19 Kabushiki Kaisha Toshiba Control device, control method, and computer program product

Also Published As

Publication number Publication date
JP2012212967A (en) 2012-11-01

Similar Documents

Publication Publication Date Title
US9323979B2 (en) Face recognition performance using additional image features
JP5726596B2 (en) Image monitoring device
JP4187651B2 (en) Near-infrared method and system for use in face detection
JP5955133B2 (en) Face image authentication device
JP5106356B2 (en) Image monitoring device
JP2018032391A (en) Liveness test method and apparatus
CN109101871A (en) A kind of living body detection device based on depth and Near Infrared Information, detection method and its application
KR100983346B1 (en) System and method for recognition faces using a infra red light
US20070291983A1 (en) Method of tracking a human eye in a video image
JP5851108B2 (en) Image monitoring device
Suma et al. Real time face recognition of human faces by using LBPH and Viola Jones algorithm
KR100824757B1 (en) Gait recognition method
JP5726595B2 (en) Image monitoring device
CN107862298B (en) Winking living body detection method based on infrared camera device
JP5752977B2 (en) Image monitoring device
JP2012212216A (en) Image monitoring device
Gangopadhyay et al. FACE DETECTION AND RECOGNITION USING HAAR CLASSIFIER AND LBP HISTOGRAM.
Srinivas et al. Human identification using automatic and semi‐automatically detected facial Marks
JP5752975B2 (en) Image monitoring device
Vincenzo et al. An improvement of adaboost for face-detection with motion and color information
JP2021060866A (en) Information processing apparatus, information processing method, and program
KR101280439B1 (en) Method for recognizability assessment of facial images acquired by cameras on automated teller machines
KR102423934B1 (en) Smart human search integrated solution through face recognition and multiple object tracking technology of similar clothes color
KR20160017152A (en) Gender Classification Based on Binary Haar Cascade
Guan et al. An unsupervised face detection based on skin color and geometric information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151202

R150 Certificate of patent or registration of utility model

Ref document number: 5851108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250