JP2019110474A - Suspicious person detection device - Google Patents

Suspicious person detection device Download PDF

Info

Publication number
JP2019110474A
JP2019110474A JP2017243142A JP2017243142A JP2019110474A JP 2019110474 A JP2019110474 A JP 2019110474A JP 2017243142 A JP2017243142 A JP 2017243142A JP 2017243142 A JP2017243142 A JP 2017243142A JP 2019110474 A JP2019110474 A JP 2019110474A
Authority
JP
Japan
Prior art keywords
person
face
face image
image
suspicious
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017243142A
Other languages
Japanese (ja)
Other versions
JP7102137B2 (en
Inventor
高田 直幸
Naoyuki Takada
直幸 高田
友祐 佐野
Yusuke Sano
友祐 佐野
健 糸賀
Takeshi Itoga
健 糸賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017243142A priority Critical patent/JP7102137B2/en
Publication of JP2019110474A publication Critical patent/JP2019110474A/en
Application granted granted Critical
Publication of JP7102137B2 publication Critical patent/JP7102137B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

To provide a suspicious person detection device capable of detecting a suspicious person in consideration of privacy as well as reducing the amount of processing of verification processing in a region where many unspecified persons gather.SOLUTION: A person tracking unit 32 detects one or more persons from each of a plurality of images included in a time-series image to set a person region, and performs tracking processing of each person region between the plurality of images included in the time-series image. A face detection unit 34 analyzes each of the person regions in each of the images to detect a face image of a person included in the person region, and determines whether the type of the face image is a hidden face image or a bare face image, or a determinable image. A face image comparison unit 36 performs verification processing of checking the feature amount of the bare face image of only a face state change person who is a person in which both the hidden face image and the bare face image are detected from the plurality of images included in the time-series image 40 against the face feature amount of the suspicious person stored in a suspicious person information DB26.SELECTED DRAWING: Figure 1

Description

本発明は、顔画像を照合することによって不審者を検知する不審者検知装置に関する。   The present invention relates to a suspicious person detection device that detects a suspicious person by collating a face image.

昨今、空港、駅、イベント会場のように不特定多数の人物が集まるエリアにおいて監視すべき対象のひとつとして、手配者などの不審者が挙げられる。   Recently, one of the targets to be monitored in an area where an unspecified number of people gather such as an airport, a station, and an event hall, there is a suspicious person such as an arranger.

従来、監視を強化しているエリアに存在するすべての人物の顔画像と、既知の不審者の顔特徴情報とを照合して不審者の検出を行っていた。   Conventionally, detection of a suspicious person has been performed by collating face images of all persons present in an area where surveillance is intensified with face feature information of a known suspicious person.

例えば、特許文献1に記載の画像監視システムにおいては、特に監視の必要がある詳細監視エリアの設定を含んだエリア情報を記憶させておくと共に、指名手配犯(すなわち不審者)の顔画像などを異常判定データとして記憶させておき、個体特徴抽出手段が詳細監視エリア内に存在する人物の顔画像を抽出し、判定手段が、抽出された顔画像と異常判定データとして記憶されている顔画像と照合し、照合一致した人物を不審者と判定していた。   For example, in the image monitoring system described in Patent Document 1, area information including the setting of a detailed monitoring area which needs to be particularly monitored is stored, and a face image of a wanted offender (that is, a suspicious person) The individual feature extraction unit extracts the face image of the person present in the detail monitoring area, and the determination unit extracts the extracted face image and the face image stored as the abnormality determination data. The person who matched and matched was judged to be a suspicious person.

また、この画像監視システムにおいては、詳細監視エリアでない通常監視エリア内の人物については、顔画像の照合などの個体特徴の解析を行わずに移動速度などの移動特徴の解析に留めることによって、処理量を低減しつつプライバシーに配慮している。   Also, in this image monitoring system, processing is performed for the person in the normal monitoring area that is not the detail monitoring area, by analyzing the moving features such as the moving speed without performing analysis of individual features such as matching of face images. We consider the privacy while reducing the amount.

特開2015−088816号公報JP, 2015-888816, A

しかしながら、監視を強化しているエリアであっても、その中に存在する人物の大多数は不審者ではないため、不要な照合処理が多く生じるという問題があった。そのため、照合処理の処理量の低減、及びプライバシーへの配慮について改善の余地があった。   However, even in an area where surveillance is intensified, the majority of the persons present in the area are not suspicious persons, so there is a problem that many unnecessary collation processes occur. Therefore, there is room for improvement in the reduction of the processing amount of the matching process and the consideration for privacy.

本発明の目的は、不特定多数の人物が集まるエリアにおいて、照合処理の処理量を低減すると共に、プライバシーに配慮して不審者を検知できる不審者検知装置を提供することにある。   An object of the present invention is to provide a suspicious person detection device capable of detecting a suspicious person in consideration of privacy while reducing the processing amount of collation processing in an area where a large number of unspecified persons gather.

本発明は、所定のエリアが撮影された時系列に並ぶ複数の画像から1又は複数の人物を検出して、前記複数の画像間において前記人物それぞれの人物領域を追跡する人物追跡部と、前記複数の画像における前記人物領域から前記人物の顔画像を検出し、検出した顔画像の種類が隠蔽顔画像であるか素顔画像であるかを判定する顔検出部と、前記顔検出部による顔画像の種類の判定結果と、前記顔検出部が検出した前記素顔画像を前記人物毎に区別して記憶する顔画像記憶部と、不審者の顔特徴量を記憶する不審者情報記憶部と、前記人物のうち、前記複数の画像から前記隠蔽顔画像と前記素顔画像の両方が検出された顔状態変化人物について、前記素顔画像の特徴量と前記不審者の顔特徴量を照合して照合結果を出力し、前記顔状態変化人物以外の人物である顔状態不変化人物については、前記不審者の顔特徴量との照合を行わない顔画像照合部と、を備えることを特徴とする不審者検知装置である。   The present invention detects a person or a plurality of persons from a plurality of images arranged in time series in which a predetermined area is photographed, and tracks a person area of each of the persons among the plurality of images; A face detection unit that detects a face image of the person from the person area in a plurality of images and determines whether the detected face image type is a hidden face image or a bare face image; and a face image by the face detection unit A face image storage unit that distinguishes and stores the bare face image detected by the face detection unit for each person, a suspicious person information storage unit that stores a facial feature amount of a suspicious person, and the person Out of the plurality of images, for the face state change person in which both the concealed face image and the bare face image are detected, the feature amount of the bare face image and the face feature amount of the suspicious person are compared and the matching result is output And said face state change person The face state immutabilization person is outside of a person, a suspicious person detection apparatus characterized by comprising, a face image collation unit which does not perform collation between the face feature amount of the suspicious person.

望ましくは、前記顔画像記憶部は、さらに、前記顔検出部が検出した前記隠蔽顔画像を前記人物毎に区別して記憶し、前記顔画像照合部は、前記照合結果として、前記顔状態変化人物の前記隠蔽顔画像及び前記素顔画像を出力する、ことを特徴とする。   Desirably, the face image storage unit further distinguishes and stores the concealed face image detected by the face detection unit for each person, and the face image comparison unit stores the face state change person as the comparison result. Outputting the concealed face image and the bare face image.

望ましくは、前記不審者情報記憶部は、前記不審者の顔特徴量と対応付けて当該不審者の顔画像を記憶し、前記顔画像照合部は、前記照合結果として、前記顔状態変化人物と照合一致した不審者の顔画像を出力する、ことを特徴とする。   Desirably, the suspicious person information storage unit stores a face image of the suspicious person in association with the face feature amount of the suspicious person, and the face image comparison unit matches the face state change person as the comparison result. And outputting a face image of the match-matched suspicious person.

本発明によれば、不特定多数の人物が集まるエリアにおいて、照合処理の処理量を低減すると共に、プライバシーに配慮して不審者を検知できる不審者検知装置を提供することができる。   According to the present invention, it is possible to provide a suspicious person detection device capable of detecting a suspicious person in consideration of privacy while reducing the processing amount of collation processing in an area where many unspecified persons gather.

本実施形態に係る不審者検知システムの構成概略図である。BRIEF DESCRIPTION OF THE DRAWINGS It is the structure schematic of the suspicious person detection system which concerns on this embodiment. 時系列画像から顔画像を検出し、各顔画像の顔状態が検出される様子を示す概念図である。It is a conceptual diagram which shows a mode that a face image is detected from a time-sequential image, and the face state of each face image is detected. 顔画像ログのデータ構造の例を示す概念図である。It is a conceptual diagram which shows the example of the data structure of a face image log. 本実施形態に係る不審者検知装置の処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of a suspicious person detection device concerning this embodiment. 顔画像の種類の判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of determination processing of the kind of face image.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図1は、本実施形態に係る不審者検知システムの構成概略図である。本実施形態に係る不審者検知システムは、カメラ10及び不審者検知装置12を含んで構成される。   FIG. 1 is a schematic configuration diagram of a suspicious person detection system according to the present embodiment. The suspicious person detection system according to the present embodiment is configured to include the camera 10 and the suspicious person detection device 12.

カメラ10は、CCDイメージセンサあるいはCMOSイメージセンサなどから構成される。カメラ10は所定のエリアに向けて設置され、すなわち所定のエリアを撮影する。本実施形態における所定のエリアとは、不特定多数の人物が集まるエリアであって、特に不審者の監視が必要なエリアであり、例えば、空港、駅、イベント会場などである。   The camera 10 is configured of a CCD image sensor or a CMOS image sensor. The camera 10 is installed toward a predetermined area, that is, images a predetermined area. The predetermined area in the present embodiment is an area where a large number of unspecified persons gather, and in particular, an area where it is necessary to monitor a suspicious person, for example, an airport, a station, an event hall or the like.

カメラ10は、時系列に並ぶ複数の画像(以下「時系列画像」と記載する)を取得する。カメラ10は、所定の間隔(例えば200[ms]間隔)で静止画を撮影することで時系列画像を取得してもよいし、動画像を撮影することで時系列画像を取得してもよい。動画像を撮影する場合は、各フレーム画像あるいは数フレーム間隔の各画像が時系列画像を構成する。   The camera 10 acquires a plurality of images arranged in time series (hereinafter referred to as “time series images”). The camera 10 may acquire a time-series image by photographing a still image at predetermined intervals (for example, an interval of 200 ms), or may acquire a time-series image by photographing a moving image. . When a moving image is taken, each frame image or each image of several frame intervals constitutes a time-series image.

カメラ10は通信部(図1において不図示)を有しており、時系列画像に含まれる各画像を順次、インターネットあるいはLANなどの通信回線を介して不審者検知装置12に送信する。なお、カメラ10は1台のカメラで構成してもよいが、複数台のカメラによって構成することもできる。この場合、時系列に並ぶ複数の画像のそれぞれは、複数台のカメラによって略同時刻に撮影された複数の画像から構成される。   The camera 10 has a communication unit (not shown in FIG. 1), and sequentially transmits each image included in the time-series image to the suspicious person detection device 12 via a communication line such as the Internet or LAN. In addition, although the camera 10 may be comprised by one camera, it can also be comprised by two or more cameras. In this case, each of the plurality of images arranged in time series is composed of a plurality of images captured at substantially the same time by a plurality of cameras.

不審者検知装置12は、例えば、空港、駅、イベント会場などに設置される中央監視室に設置されるコンピュータにより構成される。なお、不審者検知装置12としては、以下に説明する機能を発揮可能な限りにおいてどのような装置であってもよい。   The suspicious person detection device 12 is constituted by, for example, a computer installed in a central monitoring room installed in an airport, a station, an event hall or the like. The suspicious person detection device 12 may be any device as long as it can exhibit the function described below.

通信部20は、例えばネットワークアダプタなどを含んで構成される。通信部20は、通信回線を介してカメラ10と通信する機能を発揮する。具体的には、通信部20は、カメラ10が取得した時系列画像を順次受信する。   The communication unit 20 includes, for example, a network adapter. The communication unit 20 exhibits a function of communicating with the camera 10 via a communication line. Specifically, the communication unit 20 sequentially receives the time-series images acquired by the camera 10.

表示部22は、例えば液晶ディスプレイなどを含んで構成される。表示部22には、カメラ10が取得した時系列画像がリアルタイムで表示される。あるいは、表示部22には、後述の制御部30による、時系列画像からの不審者の検出結果などが表示される。   The display unit 22 includes, for example, a liquid crystal display. The display unit 22 displays a time-series image acquired by the camera 10 in real time. Alternatively, the display unit 22 displays a detection result of a suspicious person from a time-series image by the control unit 30 described later.

記憶部24は、ROMやRAMなどの半導体メモリ、あるいはハードディスクなどの磁気記憶媒体などを含んで構成される。記憶部24には、不審者検知装置12の各部を動作させるための不審者検知プログラムが記憶される。また、図1に示される通り、記憶部24には、不審者情報DB26及び顔画像ログ28が記憶される。   The storage unit 24 is configured to include a semiconductor memory such as a ROM or a RAM, or a magnetic storage medium such as a hard disk. The storage unit 24 stores a suspicious person detection program for operating the respective units of the suspicious person detection device 12. Further, as shown in FIG. 1, the storage unit 24 stores a suspicious person information DB 26 and a face image log 28.

不審者情報DB26には、不審者の顔特徴量が記憶される。したがって、記憶部24は、不審者情報記憶部としても機能する。不審者の顔特徴量とは、例えば、不審者の顔画像から抽出された特徴点及び/又は領域単位の特徴量などを含んで構成されるものである。顔特徴量としての特徴点は、例えば、不審者の素顔から抽出された特徴点であってよい。不審者の顔特徴量は予め提供されて不審者情報DB26に記憶される。もちろん、不審者情報DB26は複数の不審者の顔特徴量が記憶されていてよい。   The suspicious person information DB 26 stores facial feature amounts of the suspicious person. Therefore, the storage unit 24 also functions as a suspicious person information storage unit. The face feature amount of the suspicious person includes, for example, a feature point extracted from the face image of the suspicious person and / or a feature amount in area units. The feature point as the face feature amount may be, for example, a feature point extracted from the bare face of the suspicious person. The facial feature amounts of the suspicious person are provided in advance and stored in the suspicious person information DB 26. Of course, the suspicious person information DB 26 may store face feature amounts of a plurality of suspicious persons.

また、不審者情報DB26には、不審者の顔特徴量に対応付けて、当該不審者の顔画像が記憶されていてもよい。顔特徴量は監視員が不審者の顔を視認不能な情報であり、顔画像は監視員が不審者の顔を視認可能な情報である。   Further, the suspicious person information DB 26 may store the face image of the suspicious person in association with the face feature amount of the suspicious person. The face feature amount is information in which the observer can not visually recognize the suspicious person's face, and the face image is information in which the observer can visually recognize the suspicious person's face.

顔画像ログ28には、カメラ10が取得した時系列画像に対する、後述の制御部30による処理結果などが記憶される。顔画像ログ28に記憶されるデータの詳細については後述する。   The face image log 28 stores, for example, processing results by the control unit 30 described later on the time-series images acquired by the camera 10. Details of data stored in the face image log 28 will be described later.

制御部30は、例えばCPUや画像処理ICなどを含んで構成される。制御部30は、記憶部24に記憶された不審者検知プログラムに従って、不審者検知装置12の各部を制御する。また、図1に示される通り、制御部30は、人物追跡部32、顔検出部34、顔画像照合部36、及び出力処理部38としても機能する。   The control unit 30 includes, for example, a CPU and an image processing IC. The control unit 30 controls each unit of the suspicious person detection device 12 in accordance with the suspicious person detection program stored in the storage unit 24. Further, as shown in FIG. 1, the control unit 30 also functions as a person tracking unit 32, a face detection unit 34, a face image comparison unit 36, and an output processing unit 38.

人物追跡部32は、所定のエリアが撮影された時系列画像に含まれる複数の画像それぞれから当該エリアに現れた1又は複数の人物を検出し、人物毎に、人物が写っている領域である人物領域を設定する。   The person tracking unit 32 detects one or more persons appearing in the area from each of a plurality of images included in a time-series image in which a predetermined area is photographed, and is an area in which a person is photographed for each person. Set the person area.

具体的には、本実施形態では、人物追跡部32は、時系列画像に含まれる注目画像と、時系列画像において注目画像の直前の画像である直前画像との差分を抽出し、変化領域の大きさや縦横比などが人間らしい形状であるかに基づいて、注目画像において人物が写っている領域(すなわち人物領域)が存在するか否か判定する。なお、人物領域の検出方法としては、このフレーム差分法による人物領域抽出方法に代えて、移動物体が存在しない状態で撮影された背景画像との差分抽出を行う背景差分法、様々な人の画像と無人画像とを学習データとして用いて人の画像の識別モデルを学習させた学習識別器(人識別器)を利用した方法など、種々の方法を選択できる。   Specifically, in the present embodiment, the person tracking unit 32 extracts the difference between the target image included in the time-series image and the immediately preceding image that is the image immediately before the target image in the time-series image, Based on whether the size, aspect ratio, or the like is a human-like shape, it is determined whether or not there is a region (that is, a person region) in which a person appears in the image of interest. In addition, as a method of detecting a person area, a background subtraction method which performs difference extraction with a background image photographed in a state where there is no moving object, instead of the person area extraction method by this frame subtraction method It is possible to select various methods such as a method using a learning discriminator (person discriminator) in which a discriminant model of a person's image is learned using C. and unmanned images as learning data.

さらに、人物追跡部32は、時系列画像に含まれる複数の画像間において、人物それぞれの人物領域を追跡する。ここで、人物領域の追跡とは、複数の画像間において、直前画像における特定の人物領域と同じ人物に対応する人物領域を注目画像において特定する処理である。   Furthermore, the person tracking unit 32 tracks the person region of each person among a plurality of images included in the time-series images. Here, tracking of a person area is a process of specifying a person area corresponding to the same person as a specific person area in an immediately preceding image in a focused image among a plurality of images.

具体的には、本実施形態では、人物追跡部32は、注目画像から抽出した人物領域(人物領域A)と直前画像の人物領域(人物領域B)との同一性を、注目画像における人物領域Aの位置と直前画像における人物領域Bの位置の距離に基づいて判定する。人物領域の位置とは、例えば、人物領域の重心位置や足元位置を採用することができる。直前画像において、人物領域Aからの距離が閾値未満の人物領域Bが存在する場合には、人物領域Aと人物領域Bに含まれる人物は同一の人物であるとみなし、人物領域Aに対して、人物領域Bに付されている系列IDと同じ系列IDを付与する。すなわち、人物追跡部32は、各人物領域に対し系列IDを付し、同じ系列IDが付された人物領域が同一の人物に対応する人物領域を示すこととなる。一方、直前画像において、人物領域Aからの距離が所定の閾値未満となる人物領域Bが存在しない場合、人物領域Aに含まれる人物は、注目画像から新たに撮影領域内に入ってきた人物とみなし、新たな系列IDを付与する。なお、同一性の判定は、人物領域の位置に代えて、又は人物領域の位置に加えて、人物領域における色ヒストグラムなどの画像特徴量を用いて行うこともできる。なお、この場合、変化し得る顔領域を除いた人物領域の画像特徴量とすることによって追跡精度を向上させることができる。例えば人物領域の上4分の1を除いて下4分の3の領域の画像特徴量を用いる。また、視野を共有しないカメラの間で追跡する場合は、直前画像に限定せずに当該カメラ間の移動に要する時間範囲の過去画像において抽出された人物領域を対象として画像特徴量を用いた同一性の判定を行えばよい。   Specifically, in the present embodiment, the person tracking unit 32 identifies the identity between the person area (person area A) extracted from the image of interest and the person area (person area B) of the immediately preceding image in the person area in the image of interest. The determination is made based on the distance between the position of A and the position of the person area B in the immediately preceding image. The position of the person area may be, for example, the position of the center of gravity or the position of the foot of the person area. If there is a person area B in which the distance from the person area A is less than the threshold in the previous image, the persons included in the person area A and the person area B are considered to be the same person. The same sequence ID as the sequence ID assigned to the person area B is assigned. That is, the person tracking unit 32 adds a series ID to each person area, and the person area to which the same series ID is attached indicates the person area corresponding to the same person. On the other hand, when there is no person area B in which the distance from the person area A is less than the predetermined threshold in the previous image, the person included in the person area A is the person newly entering the shooting area from the image of interest. Assume that a new sequence ID is assigned. The determination of the identity may be performed using an image feature amount such as a color histogram in the person area instead of or in addition to the position of the person area. In this case, the tracking accuracy can be improved by using the image feature quantity of the person area excluding the changeable face area. For example, the image feature quantities of the lower third quarter area are used except for the upper quarter of the person area. In addition, when tracking between cameras that do not share a field of view, the image feature amount is the same for a person region extracted in a past image of a time range required for movement between the cameras without being limited to the previous image. The sex determination may be performed.

顔検出部34は、時系列画像に含まれる複数の画像において、人物追跡部32によって検出されたそれぞれの人物領域を解析して、各人物領域に含まれる人物の顔画像を検出する。   The face detection unit 34 analyzes each person area detected by the person tracking unit 32 in a plurality of images included in the time-series image, and detects a face image of a person included in each person area.

具体的には、本実施形態では、顔検出部34は、人物領域から人物の顔を示す顔領域を検出し、顔領域を含む矩形状の領域を切り出し、それを顔画像として検出する。そして、検出した顔画像を当該人物領域に対応する系列IDと対応付けて顔画像ログ28に記憶させる。   Specifically, in the present embodiment, the face detection unit 34 detects a face area indicating the face of a person from the human area, cuts out a rectangular area including the face area, and detects it as a face image. Then, the detected face image is stored in the face image log 28 in association with the sequence ID corresponding to the person area.

詳しくは、顔検出部34は、予め用意され記憶部24に記憶された顔形状モデルを用いて人物領域上で顔領域を探索する。具体的には、人物領域においてエッジ画素を抽出する処理を施し、抽出したエッジ画素からなる画像から頭部の輪郭形状と近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を顔領域として抽出する。ここで、所定の抽出基準以上の大きさ(面積)である楕円領域を抽出対象とするようにしてもよい。ちなみに、楕円領域の大きさは、長軸の長さと短軸の長さを用いて算出される。あるいは、例えば、素顔時の頭部、顔隠蔽状態の頭部、後ろ向きの頭部を含む様々な頭部画像と頭部が写っていない画像とを学習データとして用いて頭部の画像の識別モデルが学習された学習識別器(頭部識別器)を用いて、顔領域を抽出する。   Specifically, the face detection unit 34 searches for a face area on the person area using the face shape model prepared in advance and stored in the storage unit 24. Specifically, processing for extracting edge pixels in a human region is performed, and an edge distribution of an elliptical shape similar to the outline shape of the head is detected from an image composed of the extracted edge pixels, and a region surrounded by the edge distribution Is extracted as a face area. Here, an elliptical area having a size (area) equal to or larger than a predetermined extraction criterion may be set as an extraction target. Incidentally, the size of the elliptical area is calculated using the length of the major axis and the length of the minor axis. Alternatively, for example, a discrimination model of an image of a head using various head images including a head in bare face, a head in a face concealed state, a head facing backward, and an image in which the head is not shown as learning data. The face region is extracted using a learning discriminator (head discriminator) which has been learned.

さらに、顔検出部34は、各画像の各人物領域から検出した顔画像の種類が、隠蔽顔画像であるか、素顔画像であるのか、あるいは判定不能画像であるのかを判定する。   Furthermore, the face detection unit 34 determines whether the type of face image detected from each person area of each image is a hidden face image, a bare face image, or an undecidable image.

ここで、隠蔽顔画像とは、後述の顔画像照合部36が、不審者情報DB26に記憶された不審者の顔特徴量との間で照合不可能な程度に素顔が隠蔽された状態の顔画像を意味する。例えば、隠蔽顔画像としては、予め指定した装飾品を所定数以上(例えば2つ以上)装着しており、且つ/又は、顔のパーツが一定の割合以上(例えば半分以上)隠蔽された顔画像が挙げられる。装飾品とは、例えば、マスク、サングラス、帽子などである。   Here, the concealed face image is a face in a state in which the bare face is concealed to such an extent that it can not be compared with the face feature amount of the suspicious person stored in the suspicious person information DB 26 by the face image comparison unit 36 described later. Means an image. For example, as the concealed face image, a face image in which a predetermined number or more (for example, two or more) of ornaments designated in advance are attached and / or face parts are concealed at a certain rate or more (for example, half or more) Can be mentioned. The accessories are, for example, masks, sunglasses, hats and the like.

また、素顔画像とは、後述の顔画像照合部36が、不審者情報DB26に記憶された不審者の顔特徴量との間で照合可能な程度に素顔が露出した状態の顔画像を意味する。なお、メガネや髭などは、素顔の一部としてみなすようにしてもよい。   Further, the bare face image means a face image in a state in which the bare face is exposed to such an extent that the face image comparing unit 36 described later can compare with the suspicious person's face feature stored in the suspicious person information DB 26. . The glasses and eyebrows may be regarded as part of the bare face.

また、判定不能画像とは、顔検出部34が隠蔽顔画像であるか素顔画像であるか識別できない画像を意味する。判定不能画像とは、例えば人物の後頭部を表す画像が挙げられる。   Further, the undecidable image means an image that can not be identified whether the face detection unit 34 is a hidden face image or a bare face image. Examples of the undecidable image include an image representing the back of the head of a person.

顔検出部34による顔画像の種類の判定処理は、例えば以下のように実行される。まず、顔検出部34は、顔画像が前向きであるか否かを判定する。前向き判定処理としては、例えば、顔画像から額、眼、鼻、口、顎といった顔を構成する部位の形状と近似するエッジ分布を検出し、楕円領域における額、眼、鼻、口、顎の大まかな位置関係が顔形状モデルと類似する場合に前向きと判定することができる。そうでない場合、例えば額、眼、鼻、口、顎といった顔を構成する部位が顔画像から検出されなかった場合に、後向きと判定することができる。あるいは、例えば、様々な方向を向いた顔を含む画像と当該顔の向きを示す情報との組を学習データとして用いて顔の向き毎の画像の識別モデルが学習された学習識別器(顔方向識別器)を用いて、顔画像が前向きであるのか後向きであるのかを判定するようにしてもよい。顔検出部34は、顔画像を後向きと判定した場合、当該顔画像を判定不能画像と判定する。   The determination process of the type of face image by the face detection unit 34 is executed, for example, as follows. First, the face detection unit 34 determines whether the face image is forward. As the forward determination process, for example, an edge distribution similar to the shape of a part constituting a face such as a forehead, an eye, a nose, a mouth, and a chin is detected from a face image. If the rough positional relationship is similar to the face shape model, it can be determined to be forward. If this is not the case, for example, it can be determined that the face is facing backward if a part constituting the face such as the forehead, eyes, nose, mouth, and chin is not detected from the face image. Alternatively, for example, a learning discriminator (a face direction in which a discrimination model of an image for each face direction is learned using a pair of an image including faces facing various directions and information indicating the direction of the face as learning data) A classifier may be used to determine whether the face image is forward or backward. When the face detection unit 34 determines that the face image is backward, the face detection unit 34 determines that the face image is an undeterminable image.

顔画像が前向きであると判定した場合、次いで、顔検出部34は、顔画像から装飾品を検出する装飾品検出処理を行う。顔検出部34は、マスクやサングラスといった各種装飾品を着用した状態の顔画像と着用した装飾品を示す情報との組を学習データとして用いて装飾品毎の及び/又は装飾品の組み合わせ毎の画像の識別モデルが学習された学習識別器(装飾品識別器)に顔画像を入力することで、顔画像から装飾品を検出することができる。装飾品識別器は、例えば、サポートベクタマシン、又は、1又は複数の畳み込みニューラルネットワークなどでモデル化された学習識別器とすることができる。   If it is determined that the face image is forward, then the face detection unit 34 performs an ornament detection process of detecting an ornament from the face image. The face detection unit 34 uses, as learning data, a set of face images in the state of wearing various accessories such as a mask and sunglasses and information indicating the worn accessories as learning data, and for each combination of accessories and / or for each combination of accessories. By inputting a face image to a learning discriminator (decorative article discriminator) in which a discriminant model of an image is learned, it is possible to detect a decorative article from the face image. The accessory identifier may be, for example, a support vector machine or a learning identifier modeled by one or more convolutional neural networks.

顔検出部34は、装飾品検出処理により、顔画像から所定数以上(本実施形態では2つ以上)の装飾品を検出した場合は、当該顔画像を隠蔽顔画像と判定し、所定数未満の装飾品が検出された場合、あるいは装飾品を検出しなかった場合には、当該顔画像を素顔画像と判定する。   If the face detection unit 34 detects a predetermined number or more (two or more in the present embodiment) of ornaments from the face image by the ornament detection process, the face detection unit 34 determines that the face image is a hidden face image. When a decorative item is detected or no decorative item is detected, the face image is determined to be a bare face image.

図2は、時系列画像40に含まれる各画像40a〜40cに対する、人物追跡部32及び顔検出部34の処理結果を示す図である。図2の例では、人物追跡部32により、各画像40a〜40cにおいて、人物1に関する人物領域42−1が検出及び追跡され、人物2に関する人物領域42−2が検出及び追跡され、人物3に関する人物領域42−3が検出及び追跡されている。   FIG. 2 is a diagram showing processing results of the person tracking unit 32 and the face detection unit 34 on the images 40 a to 40 c included in the time-series image 40. In the example of FIG. 2, the person tracking unit 32 detects and tracks the person area 42-1 related to the person 1 in each of the images 40 a to 40 c, and detects and tracks the person area 42-2 related to the person 2. A person area 42-3 has been detected and tracked.

また、顔検出部34により、各画像40a〜40cの人物領域42−1から人物1の顔画像44a〜44cが検出され、各画像40a〜40cの人物領域42−2から人物2の顔画像46a〜46cが検出され、各画像40a〜40cの人物領域42−3から人物3の顔画像48a〜48cが検出されている。   Further, the face detection unit 34 detects face images 44a to 44c of the person 1 from the person area 42-1 of each of the images 40a to 40c, and a face image 46a of the person 2 from the person area 42-2 of each of the images 40a to 40c. To 46c are detected, and face images 48a to 48c of the person 3 are detected from the person area 42-3 of each of the images 40a to 40c.

さらに、顔検出部34により、顔画像44a〜44c、顔画像46a〜46c、及び顔画像48a〜48cの種類が判定されている。図2の例では、人物1の顔画像44a、44bは素顔画像であり、顔画像44cは隠蔽顔画像となっている。また、人物2の顔画像46a及び46cは素顔画像であり、顔画像46bは判定不能画像となっている。また、人物3の顔画像48a〜48cはいずれも隠蔽顔画像となっている。   Furthermore, the face detection unit 34 determines the types of the face images 44a to 44c, the face images 46a to 46c, and the face images 48a to 48c. In the example of FIG. 2, the face images 44a and 44b of the person 1 are bare face images, and the face image 44c is a hidden face image. The face images 46a and 46c of the person 2 are bare face images, and the face image 46b is an undecidable image. Further, face images 48a to 48c of the person 3 are all concealed face images.

人物追跡部32及び顔検出部34の処理結果は、顔画像ログ28に記憶される。具体的には、顔画像ログ28には、系列ID毎に(すなわち人物毎に)区別して、時系列画像40に含まれる各画像から検出された顔画像の種類の判定結果が記憶される。   Processing results of the person tracking unit 32 and the face detection unit 34 are stored in the face image log 28. Specifically, the face image log 28 stores the determination result of the type of the face image detected from each image included in the time-series image 40 in distinction for each series ID (that is, for each person).

図3は、顔画像ログ28のデータ構造の例を示す図である。図3の例は、図2に示す時系列画像40に対する人物追跡部32及び顔検出部34の処理結果である。顔画像ログ28は、時系列画像40に含まれる各画像における、各人物の顔画像の種類の履歴を示すものであるといえる。例えば、系列ID1(人物1)については、画像40cの直前の画像までは素顔画像であったが画像40cから隠蔽顔画像に変化したことが示されている。また、系列ID2(人物2)については、画像40bで一旦判定不能画像となったが、その他は素顔画像であることが示されている。また、系列ID3(人物3)については、一貫して隠蔽顔画像であることが示されている。   FIG. 3 is a view showing an example of the data structure of the face image log 28. As shown in FIG. The example of FIG. 3 is the processing result of the person tracking unit 32 and the face detection unit 34 with respect to the time-series image 40 illustrated in FIG. 2. The face image log 28 can be said to indicate the history of the type of face image of each person in each image included in the time-series image 40. For example, with regard to the sequence ID 1 (person 1), it is shown that up to the image immediately before the image 40c was a bare face image, but the image 40c has changed to a hidden face image. Further, with regard to the sequence ID 2 (person 2), although the image 40 b has become an undecidable image once, it is shown that the others are bare-face images. In addition, the sequence ID 3 (person 3) is consistently shown to be a hidden face image.

また、顔画像ログ28には、時系列画像40から顔検出部34が検出した、少なくとも素顔画像が記憶される。図2の例では、顔画像44a、44b、46a、及び46cが記憶される。各素顔画像は、系列ID毎、すなわち人物毎に区別されて記憶される。好適には、顔画像ログ28には、素顔画像のみならず隠蔽顔画像(図2の例では、顔画像44c、48a〜48c)も記憶される。隠蔽顔画像も系列ID、すなわち人物毎に区別されて記憶される。以上のように、記憶部24は顔画像記憶部としても機能する。   Further, the face image log 28 stores at least the raw face image detected by the face detection unit 34 from the time-series image 40. In the example of FIG. 2, face images 44a, 44b, 46a and 46c are stored. Each bare face image is stored separately for each sequence ID, that is, for each person. Preferably, not only the raw face image but also the concealed face image (face images 44c and 48a to 48c in the example of FIG. 2) are stored in the face image log 28. The hidden face image is also stored separately for each sequence ID, that is, for each person. As described above, the storage unit 24 also functions as a face image storage unit.

図1に戻り、顔画像照合部36は、顔検出部34が時系列画像40から検出した素顔画像の特徴量と、不審者情報DB26に記憶されている不審者の顔特徴量とを照合する照合処理を実行する。特に、本実施形態では、顔画像照合部36は、時系列画像40から検出された素顔画像全てに対して照合処理を実行するのではなく、時系列画像40から隠蔽顔画像と素顔画像の両方が検出された人物である顔状態変化人物についてのみ、照合処理を実行する。換言すれば、顔画像照合部36は、時系列画像40に含まれる複数の画像から隠蔽顔画像と素顔画像の両方が検出されなかった人物である顔状態不変化人物については、照合処理を実行しない。   Returning to FIG. 1, the face image matching unit 36 matches the feature amount of the bare face image detected from the time-series image 40 by the face detection unit 34 with the face feature amount of the suspicious person stored in the suspicious person information DB 26. Execute the matching process. In particular, in the present embodiment, the face image matching unit 36 does not execute the matching process on all the raw face images detected from the time-series image 40, but both the hidden face image and the raw face image from the time-series image 40. The matching process is performed only for the face state change person who is the person who is detected. In other words, the face image matching unit 36 performs the matching process on a face state invariant person who is a person for whom both the concealed face image and the bare face image are not detected from the plurality of images included in the time-series image 40 do not do.

ここで、顔状態不変化人物としては、時系列画像40に含まれる複数の画像から、隠蔽顔画像と素顔画像の一方のみが検出された人物、隠蔽顔画像と判定不能画像が検出された人物、あるいは、素顔画像と判定不能画像が検出された人物を含む。   Here, as the face state non-changing person, a person in which only one of the hidden face image and the bare face image is detected from a plurality of images included in the time-series image 40, and a person in which the hidden face image and the undecidable image are detected. Or, it includes a person whose bare face image and undecidable image are detected.

顔画像照合部36は、顔画像ログ28を参照して、照合処理の対象となる系列ID(すなわち人物)を特定する。図3の例においては、顔画像照合部36は、顔状態変化人物である系列ID1(人物1)については照合処理の対象とし、顔状態不変化人物である系列ID2(人物2)及び系列ID3(人物3)については照合処理の対象としない。   The face image matching unit 36 refers to the face image log 28 to identify a series ID (that is, a person) to be subjected to the matching process. In the example of FIG. 3, the face image collation unit 36 targets the series ID 1 (person 1) that is a person with a face state change as a target of the collation process, and the series ID 2 (person 2) and a line ID 3 that is a person with no face state change. The (person 3) is not subjected to the matching process.

これは、カメラ10の撮影領域である監視エリアにおいて、素顔だった人物があるタイミングから隠蔽顔となった場合、あるいは、隠蔽顔だった人物が素顔となった場合には、当該人物は不審者である可能性が高いという知見に基づくものである。すなわち、本実施形態では、不審者である可能性が高い人物に絞って、当該人物の素顔画像の特徴量と不審者の顔特徴量とを照合する。   This is because, in the monitoring area which is the shooting area of the camera 10, when the bare-faced person becomes a hidden face from the timing when there is a bare-faced person, or when the bare-faced person becomes a bare-face, the person is a suspicious person It is based on the finding that the possibility of being That is, in the present embodiment, the feature amount of the bare face image of the person is collated with the face feature amount of the suspicious person, focusing on the person who is likely to be a suspicious person.

なお、時系列画像40に含まれる複数の画像において、隠蔽顔画像のみが検出された人物、あるいは隠蔽顔画像と判定不能画像が検出された人物も、不審者である可能性が高いといえる。しかしながら、隠蔽顔画像あるいは判定不能画像では、不審者の顔特徴量との間で照合処理を行うことができないから、本実施形態においては、このような人物については照合処理を実行しない。しかしながら、このような人物については、要監視人物としてラベル付けした上で追跡を継続し、後に、当該人物の素顔画像が検出された場合には、当該素顔画像の特徴量と不審者の顔特徴量との間で照合を行う。   In addition, in a plurality of images included in the time-series image 40, it can be said that there is a high possibility that a person in which only the concealed face image is detected or a person in which the concealed face image and the undecidable image are detected is a suspicious person. However, in the concealed face image or the undecidable image, since the matching process can not be performed with the face feature amount of the suspicious person, in the present embodiment, the matching process is not performed for such a person. However, such a person is labeled as a person who needs to be monitored and tracking is continued, and if a bare face image of the person is detected later, the feature amount of the bare face image and the face feature of the suspicious person Make a match between the quantities.

顔画像照合部36は、不審者情報DB26に記憶された複数の不審者の顔特徴量の中に、顔状態変化人物の素顔画像の特徴量との類似度が所定値以上であるものが存在する場合には、当該顔状態変化人物を不審者として特定する。一方、不審者情報DB26に記憶された複数の不審者の顔特徴量の中に、顔状態変化人物の素顔画像の特徴量との類似度が所定値以上であるものが存在しない場合には、当該顔状態変化人物を不審者情報DB26に記憶された不審者ではないと特定する。なお、類似度の算出方法としては、既知の方法を採用することができる。   Among the face feature amounts of a plurality of suspicious persons stored in the suspicious person information DB 26, the face image matching unit 36 has a face status changing person whose similarity to the feature amount of the bare face image of a person whose face state has changed is equal to or more than a predetermined value In the case where the face state change person is identified as a suspicious person. On the other hand, if there is no face feature amount of a plurality of suspicious persons stored in the suspicious person information DB 26, the degree of similarity with the feature amount of the bare face image of the face state change person is not less than a predetermined value It specifies that the said face state change person is not a suspicious person memorized by suspicious person information DB26. In addition, as a calculation method of the degree of similarity, a known method can be adopted.

出力処理部38は、照合処理の結果を出力(報知)する。本実施形態では、照合処理の結果は表示部22に表示される。上述のように、表示部22には、カメラ10が取得した時系列画像がリアルタイムで表示されるから、顔画像照合部36の照合処理の結果を当該時系列画像に重ねて表示するようにしてもよい。例えば、不審者として特定された人物の人物領域を着色し、不審者ではない人物の人物領域には着色しないなどの表示態様で両者を区別可能に表示することができる。なお、不審者が検出された場合には、表示部22への表示に加えて、音声による報知がなされてもよい。   The output processing unit 38 outputs (informs) the result of the matching process. In the present embodiment, the result of the matching process is displayed on the display unit 22. As described above, since the time-series image acquired by the camera 10 is displayed in real time on the display unit 22, the result of the matching process of the face image matching unit 36 is displayed superimposed on the time-series image. It is also good. For example, the person area of the person specified as the suspicious person can be colored, and the person areas of the person who is not the suspicious person can be displayed distinguishably in a display manner such as not coloring. When a suspicious person is detected, in addition to the display on the display unit 22, notification by voice may be performed.

また、出力処理部38は、要監視人物(すなわち時系列画像40に含まれる複数の画像において、隠蔽顔画像のみが検出された人物、あるいは隠蔽顔画像と判定不能画像が検出された人物)が検出されたことを出力するようにしてもよい。その場合においては、例えば、表示部22において、不審者同様、要監視人物として特定された人物の人物領域を不審者とは異なる色で着色し、要監視人物ではない人物の人物領域には着色しないなどの表示態様で両者を区別可能に表示することができる。また、要監視人物が検出された場合にも、表示部22への表示に加えて、音声による報知がなされてもよい。   In addition, the output processing unit 38 is a person who needs monitoring (that is, a person in which only the concealed face image is detected in a plurality of images included in the time-series image 40) It may be made to output what was detected. In such a case, for example, as in the case of the suspicious person, the person area of the person identified as the person in need of monitoring is colored in a color different from that of the suspicious person, and the person area of the person who is not in need of It is possible to distinguishably display both in a display mode such as not. In addition to the display on the display unit 22, a notification by voice may be made even when a person who needs monitoring is detected.

また、好適には、出力処理部38は、照合結果として、時系列画像から検出された、顔状態変化人物の隠蔽顔画像及び素顔画像を出力するようにしてもよい。出力された隠蔽顔画像及び素顔画像は、例えば、監視エリアを監視する監視員に提供される。監視員は、提供された隠蔽顔画像及び素顔画像を参照することで、当該顔状態変化人物を探し出す作業がより容易になる。   In addition, preferably, the output processing unit 38 may output, as a matching result, a hidden face image and a bare face image of a face state-changed person detected from the time-series image. The output concealed face image and bare face image are provided, for example, to a monitoring person who monitors the monitoring area. By referring to the provided concealed face image and bare face image, the surveillance staff can more easily search for the person whose face state has changed.

なお、出力処理部38は、不審者と特定された顔状態変化人物のみの隠蔽顔画像及び素顔画像を出力するようにしてもよいが、不審者検知装置12と監視員による不審者のダブルチェックを可能にするために、出力処理部38は、不審者と特定された顔状態変化人物のみならず、不審者ではないと特定された顔状態変化人物の隠蔽顔画像及び素顔画像を出力するようにしてもよい。   The output processing unit 38 may output the concealed face image and the bare face image of only the face state change person identified as the suspicious person, but the suspicious person detection device 12 and a double check of the suspicious person by the surveillance staff In order to enable the output processing unit 38, not only the face state change person specified as the suspicious person but also the concealed face image and the bare face image of the face state change person specified as not the suspicious person are output You may

また、出力処理部38は、照合結果として、顔状態変化人物の素顔画像の特徴量と照合一致した不審者の顔特徴量に関連付けられた不審者の顔画像を出力するようにしてもよい。当該不審者の顔画像も、例えば、監視エリアを監視する監視員に提供される。監視員は、提供された不審者の顔画像を参照することで、当該顔状態変化人物を容易に探し出すことができる。   Further, the output processing unit 38 may output the face image of the suspicious person associated with the face feature amount of the suspicious person who has matched the feature amount of the bare face image of the face state change person as the matching result. The face image of the suspicious person is also provided, for example, to a surveillance person who monitors the surveillance area. The surveillance officer can easily find out the person whose face state has changed by referring to the provided face image of the suspicious person.

以上説明したように、本実施形態に係る不審者検知装置12によれば、不審者である可能性が高い人物に絞って不審者の顔特徴量と照合するから、照合処理の処理量を低減することができる。また、時系列画像40に含まれる人物(不審者である可能性が高くない人物)のプライバシーに配慮した上で、不審者を検知することができる。   As described above, according to the suspicious person detection device 12 according to the present embodiment, the processing amount of the verification process is reduced because the person with high possibility of being a suspicious person is narrowed down and compared with the face feature amount of the suspicious person. can do. Further, in consideration of the privacy of a person (a person who is unlikely to be a suspicious person) included in the time-series image 40, a suspicious person can be detected.

以下、図4のフローチャートを参照して、本実施形態に係る不審者検知装置12の処理の流れを説明する。図4のフローチャートは、カメラ10から時系列画像に含まれる1つの画像を受信した際に実行される処理の流れが示されている。すなわち、本実施形態では、不審者検知装置12は、カメラ10から画像を受信する度に、図4のフローチャートの処理を実行する。   Hereinafter, the flow of processing of the suspicious person detection device 12 according to the present embodiment will be described with reference to the flowchart of FIG. 4. The flowchart of FIG. 4 shows the flow of processing executed when one image included in the time-series image is received from the camera 10. That is, in the present embodiment, the suspicious person detection device 12 executes the process of the flowchart of FIG. 4 each time an image is received from the camera 10.

ステップS10において、不審者検知装置12は、カメラ10が撮影した画像(時系列画像の1つ)を取得する。ここでは、不審者検知装置12は、既に時系列画像に含まれる複数の画像を取得済みであるとする。   In step S10, the suspicious person detection device 12 acquires an image (one of time-series images) captured by the camera 10. Here, it is assumed that the suspicious person detection device 12 has already acquired a plurality of images included in the time-series image.

ステップS12において、人物追跡部32は、ステップS10で取得した画像(注目画像)から1又は複数の人物領域を検出し、検出された各人物領域について追跡処理を実行する。すなわち、人物追跡部32は、検出された各人物領域に系列IDを付与する処理を実行する。   In step S12, the person tracking unit 32 detects one or more person regions from the image (the image of interest) acquired in step S10, and performs tracking processing on each of the detected person regions. That is, the person tracking unit 32 executes a process of giving a series ID to each of the detected person areas.

ステップS14以下の処理は、ステップS12で検出された人物(人物領域)毎に実行される。   The processes in step S14 and the subsequent steps are performed for each person (person area) detected in step S12.

ステップS14において、顔検出部34は、ステップS12で検出された複数の人物領域から注目人物領域を特定し、注目人物領域内から注目人物の顔画像を検出する。その上で、当該顔画像の種類を判定する。すなわち、注目人物の顔画像が、隠蔽顔画像か、素顔画像か、あるいは判定不能画像かを判定する。   In step S14, the face detection unit 34 identifies a notable person region from the plurality of person regions detected in step S12, and detects a face image of the notable person from within the notable person region. Then, the type of the face image is determined. That is, it is determined whether the face image of the person of interest is a hidden face image, a bare face image, or an undecidable image.

ステップS16において、人物追跡部32及び顔検出部34は、人物検出と追跡処理の結果(注目人物領域に付された系列ID)、及び、注目人物の顔画像の種類の判定結果を顔画像ログ28に記憶する。   In step S16, the person tracking unit 32 and the face detection unit 34 detect the result of person detection and tracking processing (sequence ID attached to the attention person area) and the determination result of the type of the face image of the attention person as the face image log Store in 28.

ステップS18において、人物追跡部32は、注目人物領域が追跡状態であるか否かを判定する。本実施形態では、人物追跡部32は、各系列IDに対して注目人物領域の系列IDが、注目画像より過去の画像に含まれるいずれかの人物領域の系列IDと同じ(すなわち注目人物が過去の画像にも映っている場合)には、注目人物領域が追跡状態と判定され、注目人物領域の系列IDが注目画像において新たに付与されたIDである場合(すなわち注目人物が注目画像から新たに映りこんできた場合)には、注目人物領域は追跡状態ではないと判定される。   In step S18, the person tracking unit 32 determines whether the attention person area is in the tracking state. In the present embodiment, for each series ID, the person tracking unit 32 has the same sequence ID of the noted person region as that of any person region included in the image past the noted image (ie, the noted person is in the past If the attention person area is determined to be in the tracking state and the series ID of the attention person area is an ID newly assigned to the attention image (ie, the attention person is new from the attention image) When it is reflected on the screen, it is determined that the attention person area is not in the tracking state.

注目人物領域が追跡状態でない場合、ステップS20に進み、ステップS20において、注目人物領域が追跡状態とされる。   If the focused person area is not in the tracking state, the process proceeds to step S20, and in step S20, the focused person area is set in the tracking state.

ステップS22において、顔検出部34は、ステップS14で判定された注目人物の顔画像の種類が隠蔽顔画像であるか否かを判定する。当該顔画像が隠蔽顔画像である場合、ステップS24に進む。ステップS24において、顔検出部34は、注目人物領域に含まれる注目人物を要監視人物に設定(この設定は顔画像ログ28に記憶される)し、出力処理部38は、要監視人物が検出されたことを報知する。当該顔画像が隠蔽顔画像でない場合、すなわち素顔画像あるいは判定不能画像である場合は、何も処理を行わずに、注目人物領域に関する処理を終了する。その後、注目画像に含まれる他の人物領域についてステップS14からの処理を繰り返す。   In step S22, the face detection unit 34 determines whether the type of the face image of the person of interest determined in step S14 is a hidden face image. If the face image is a hidden face image, the process proceeds to step S24. In step S24, the face detection unit 34 sets the watched person included in the watched person area to the watched person (this setting is stored in the face image log 28), and the output processing unit 38 detects the watched person. Report that it was done. If the face image is not a hidden face image, that is, if it is a bare face image or an undecidable image, no processing is performed and the processing relating to the target person area is ended. Thereafter, the processing from step S14 is repeated for other person regions included in the image of interest.

ステップS18に戻り、注目人物領域が追跡状態であると判定された場合、ステップS26に進み、ステップS26において、人物追跡部32は、注目人物が要監視人物であるか否かを判定する。過去に取得した複数の画像において、注目人物の隠蔽顔画像が検出されている場合は、当該注目人物が要監視人物に設定されているから、ステップS28に進む。   Returning to step S18, if it is determined that the attention person area is in the tracking state, the process proceeds to step S26, and in step S26, the person tracking unit 32 determines whether the attention person is a person who needs monitoring. If the concealed face image of the person of interest is detected in the plurality of images acquired in the past, the person of interest is set as the person who needs to be monitored, so the process proceeds to step S28.

ステップS28において、顔検出部34は、ステップS14で判定された顔画像の種類が素顔画像であるか否かを判定する。当該顔画像が素顔画像でない場合、すなわち、過去に取得した複数の画像において注目人物の顔画像が隠蔽顔画像あるいは判定不能画像であり、注目画像においても、注目人物の顔画像が引き続き隠蔽顔画像あるいは判定不能画像である場合は、何も処理を行わずに、注目人物領域に関する処理を終了する。その後、注目画像に含まれる他の人物領域についてステップS14からの処理を繰り返す。   In step S28, the face detection unit 34 determines whether the type of face image determined in step S14 is a bare face image. If the face image is not a bare face image, that is, the face image of the noted person is a hidden face image or an undecidable image in a plurality of images acquired in the past, and the face image of the noted person continues to be a hidden face image even in the noted image Alternatively, if the image is an undecidable image, the process related to the focused person area is ended without performing any process. Thereafter, the processing from step S14 is repeated for other person regions included in the image of interest.

ステップS28において当該顔画像が素顔画像であると判定された場合、すなわち、過去に取得した複数の画像において注目人物の顔画像が隠蔽顔画像あるいは判定不能画像であったが、注目画像において注目人物の顔画像が素顔画像に変化した場合には、ステップS30に進む。   If it is determined in step S28 that the face image is a bare face image, that is, the face images of the noted person in the plurality of images acquired in the past are the concealed face image or the undecidable image, but the noted person in the noted image If the face image of has changed to a bare face image, the process proceeds to step S30.

ステップS30において、顔画像照合部36は、ステップS14で取得した素顔画像の特徴量と、不審者情報DB26に含まれる複数の不審者の顔特徴量との間でそれぞれ照合処理を実行する。   In step S30, the face image matching unit 36 performs matching processing between the feature amount of the bare face image acquired in step S14 and the face feature amounts of a plurality of suspicious persons included in the suspicious person information DB 26.

ステップS32において、顔画像照合部36は、不審者情報DB26に含まれる複数の不審者の顔特徴量の中に、ステップS14で取得した素顔画像の特徴量と照合一致した顔特徴量が有るか否かを判定する。照合一致した場合は、ステップS34に進み、ステップS34において、出力処理部38は注目人物を不審者として報知する。一方、照合一致しなかった場合は、何も処理を行わずに、注目人物領域に関する処理を終了する。その後、注目画像に含まれる他の人物領域についてステップS14からの処理を繰り返す。なお、ステップS32で照合一致しなかった場合は、注目人物は不審者ではないと特定し、以後の照合処理の候補から除外するようにしてもよい。   In step S32, the face image matching unit 36 determines whether the face feature amounts of the plurality of suspicious persons included in the suspicious person information DB 26 have a face feature amount that matches the feature amount of the bare face image acquired in step S14. It is determined whether or not. If there is a match, the process proceeds to step S34, and in step S34, the output processing unit 38 reports the person of interest as a suspicious person. On the other hand, if there is no match, the process on the person-of-interest area is ended without performing any process. Thereafter, the processing from step S14 is repeated for other person regions included in the image of interest. If the match does not match in step S32, it may be specified that the person of interest is not a suspicious person and may be excluded from the candidates for the matching process thereafter.

ステップS26に戻り、注目人物が要監視人物でない場合、すなわち、過去に取得した複数の画像において、注目人物の隠蔽顔画像が検出されていない場合は、ステップS36に進む。   Returning to step S26, if the focused person is not the person who needs to be monitored, that is, if the concealed face images of the focused person are not detected in a plurality of images acquired in the past, the process proceeds to step S36.

ステップS36において、顔検出部34は、ステップS14で判定された顔画像の種類が隠蔽顔画像であるか否かを判定する。当該顔画像が隠蔽顔画像でない場合、すなわち、過去に取得した複数の画像において注目人物の顔画像が素顔画像あるいは判定不能画像であり、注目画像においても、注目人物の顔画像が引き続き素顔画像あるいは判定不能画像である場合は、何も処理を行わずに、注目人物領域に関する処理を終了する。その後、注目画像に含まれる他の人物領域についてステップS14からの処理を繰り返す。   In step S36, the face detection unit 34 determines whether the type of face image determined in step S14 is a hidden face image. If the face image is not a concealed face image, that is, the face image of the noted person is a bare face image or an undecidable image in a plurality of images acquired in the past, and the face image of the noted person continues a bare face image or even in the noted image. If the image is an undecidable image, the process related to the person-of-interest area is ended without performing any process. Thereafter, the processing from step S14 is repeated for other person regions included in the image of interest.

ステップS36において当該顔画像が隠蔽顔画像であると判定された場合、すなわち、過去に取得した複数の画像において注目人物の顔画像が素顔画像あるいは判定不能画像であったが、注目画像において注目人物の顔画像が隠蔽顔画像に変化した場合には、ステップS38に進む。   When it is determined in step S36 that the face image is a concealed face image, that is, the face images of the noted person in the plurality of images acquired in the past are bare face images or undecidable images, but the noted person in the noted image If the face image of has changed to a hidden face image, the process proceeds to step S38.

ステップS38において、顔検出部34は、顔画像ログ28を参照して、過去に取得した複数の画像のうちの1つの画像における注目人物の顔画像の種類の判定結果を参照する。当該画像における注目人物の顔画像の判定結果が素顔画像でない場合は、再度のステップS38において、過去に取得した複数の画像の他の画像における注目人物の顔画像の判定結果が素顔画像であるか否かを判定する。このように、顔検出部34は、過去に取得した複数の画像から、注目人物の顔画像が素顔画像だと判定された画像を探していく。   In step S38, the face detection unit 34 refers to the face image log 28 and refers to the determination result of the type of the face image of the person of interest in one of the plurality of images acquired in the past. If the determination result of the face image of the noted person in the image is not a bare face image, whether the determined result of the face image of the noted person in the other images of the plurality of images acquired in the past is a bare face image in step S38 again It is determined whether or not. As described above, the face detection unit 34 searches the plurality of images acquired in the past for an image determined that the face image of the person of interest is a bare face image.

過去に取得した画像の中から、注目人物の顔画像が素顔画像であると判定された画像が検出された場合はステップS40に進み、ステップS40において、顔画像照合部36は、ステップS38で判定された画像から検出された注目人物の素顔画像(これは顔画像ログ28に記憶されている)を取得し、当該素顔画像の特徴量と、不審者情報DB26に含まれる複数の不審者の顔特徴量との間でそれぞれ照合処理を実行する。   If an image in which the face image of the person of interest is determined to be a bare face image is detected from the images acquired in the past, the process proceeds to step S40, and in step S40, the face image comparison unit 36 determines in step S38. The bare face image (this is stored in the face image log 28) of the noted person detected from the captured image is acquired, and the feature amount of the bare face image and the faces of a plurality of suspicious persons included in the suspicious person information DB 26 A matching process is performed on each of the feature quantities.

ステップS42において、顔画像照合部36は、不審者情報DB26に含まれる複数の不審者の顔特徴量の中に、ステップS40で取得した素顔画像の特徴量と照合一致した顔特徴量が有るか否かを判定する。照合一致した場合は、ステップS44に進み、出力処理部38は、注目人物を不審者として報知する。   In step S42, the face image matching unit 36 determines whether the face feature amounts of the plurality of suspicious persons included in the suspicious person information DB 26 have a face feature amount that matches the feature amount of the bare face image obtained in step S40. It is determined whether or not. If the collation matches, the process proceeds to step S44, and the output processing unit 38 notifies the person of interest as a suspicious person.

一方、ステップS42において照合一致しなかったと判定された場合は、再度ステップS38のループに戻り、顔画像ログ28を参照して、過去に取得した複数の画像の中から、注目人物の顔画像が素顔画像であると判定された画像が他にないかどうか探していく。これは、例えば、前回の照合処理の対象となった注目人物の素顔画像の条件が悪かったことなどによって、顔画像照合部36の照合処理が適切に行えない場合が考えられるため、過去に取得した複数の画像からより条件のよい素顔画像を探すためである。   On the other hand, when it is determined in step S42 that the matching is not determined, the process returns to the loop of step S38 again, and the face image log 28 is referred to, and the face image of the person of interest is selected from a plurality of images acquired in the past. It is searched whether there is any other image determined to be a bare face image. This may be the case, for example, because the matching process of the face image matching unit 36 can not be appropriately performed because the condition of the bare face image of the noted person who was the target of the matching process of the previous time was bad. This is in order to search for a better bare face image from a plurality of images.

過去に取得した複数の画像の中に、不審者と照合一致した注目人物の素顔画像が発見されなかった場合には、ステップS46に進む。ステップS46において、顔検出部34は、注目人物を要監視人物に設定し、出力処理部38は、要監視人物が検出されたことを報知する。   If a bare face image of a noted person who matched the suspicious person is not found among the plurality of images acquired in the past, the process proceeds to step S46. In step S46, the face detection unit 34 sets the watched person to the watched person, and the output processing unit 38 notifies that the watched person has been detected.

以下、図5のフローチャートを参照して、顔検出部34による顔状態の判定処理の流れを説明する。   Hereinafter, with reference to the flowchart of FIG. 5, the flow of the face state determination process by the face detection unit 34 will be described.

ステップS50において、顔検出部34は、顔画像に対して前向き判定処理を行う。前向き判定処理は、上述のように、顔画像から検出された顔を構成する部位の形状と、顔形状モデルとの比較により行う。あるいは、顔方向識別器を用いて判定を行う。   In step S50, the face detection unit 34 performs a forward determination process on the face image. As described above, the forward determination process is performed by comparing the shape of the part of the face detected from the face image with the face shape model. Alternatively, the determination is performed using a face direction identifier.

ステップS52において、顔検出部34は、顔画像の前向き判定処理の結果、顔画像が前向きであるか否かを判定する。顔画像が前向きでない場合、例えば顔画像が後向きである場合、ステップS54に進み、顔検出部34は、当該顔画像を判定不能画像と判定する。   In step S52, the face detection unit 34 determines whether or not the face image is forward as a result of the forward determination process of the face image. If the face image is not forward, for example, if the face image is backward, the process proceeds to step S54, and the face detection unit 34 determines that the face image is an undeterminable image.

ステップS52で顔画像が前向きであると判定された場合、ステップS56に進み、ステップS56において、顔検出部34は、顔画像に対して装飾品検出処理を行う。装飾品検出処理は、上述のように装飾品識別器を用いて実行する。   If it is determined in step S52 that the face image is forward, the process proceeds to step S56, and in step S56, the face detection unit 34 performs an ornament detection process on the face image. The ornament detection process is performed using the ornament identifier as described above.

ステップS58において、顔検出部34は、装飾品検出処理の結果に基づいて、当該顔画像が隠蔽顔画像であるか否かを判定する。本実施形態では、顔画像から2つ以上の装飾品が検出された場合には、当該顔画像は隠蔽状態であると判定し、ステップS60に進む。ステップS60において、顔検出部34は当該顔画像を隠蔽顔画像と判定する。   In step S58, the face detection unit 34 determines whether the face image is a hidden face image based on the result of the ornament detection process. In the present embodiment, when two or more ornaments are detected from the face image, it is determined that the face image is in the concealed state, and the process proceeds to step S60. In step S60, the face detection unit 34 determines that the face image is a hidden face image.

顔画像から1つの装飾品が検出された場合、あるいは顔画像から装飾品が検出されなかった場合には、当該顔画像は隠蔽状態ではないと判定し、ステップS62に進む。ステップS62において、顔検出部34は当該顔画像を素顔画像と判定する。   If one decorative item is detected from the face image or no decorative item is detected from the face image, it is determined that the face image is not in the concealed state, and the process proceeds to step S62. In step S62, the face detection unit 34 determines that the face image is a bare face image.

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。   As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning of this invention.

10 カメラ、12 不審者検知装置、20 通信部、22 表示部、24 記憶部、26 不審者情報DB、28 顔画像ログ、30 制御部、32 人物追跡部、34 顔検出部、36 顔画像照合部、38 出力処理部。
Reference Signs List 10 camera 12 suspicious person detection device 20 communication unit 22 display unit 24 storage unit 26 suspicious person information DB 28 face image log 30 control unit 32 person tracking unit 34 face detection unit 36 face image collation Part, 38 output processing part.

Claims (3)

所定のエリアが撮影された時系列に並ぶ複数の画像から1又は複数の人物を検出して、前記複数の画像間において前記人物それぞれの人物領域を追跡する人物追跡部と、
前記複数の画像における前記人物領域から前記人物の顔画像を検出し、検出した顔画像の種類が隠蔽顔画像であるか素顔画像であるかを判定する顔検出部と、
前記顔検出部による顔画像の種類の判定結果と、前記顔検出部が検出した前記素顔画像を前記人物毎に区別して記憶する顔画像記憶部と、
不審者の顔特徴量を記憶する不審者情報記憶部と、
前記人物のうち、前記複数の画像から前記隠蔽顔画像と前記素顔画像の両方が検出された顔状態変化人物について、前記素顔画像の特徴量と前記不審者の顔特徴量を照合して照合結果を出力し、前記顔状態変化人物以外の人物である顔状態不変化人物については、前記不審者の顔特徴量との照合を行わない顔画像照合部と、
を備えることを特徴とする不審者検知装置。
A person tracking unit that detects one or a plurality of persons from a plurality of images arranged in time series in which a predetermined area is photographed, and tracks a person area of each of the persons among the plurality of images;
A face detection unit that detects a face image of the person from the person area in the plurality of images, and determines whether the detected face image is a hidden face image or a bare face image;
A face image storage unit that stores the result of determination of the type of face image by the face detection unit and the bare face image detected by the face detection unit for each of the persons;
A suspicious person information storage unit that stores a facial feature amount of the suspicious person;
Among the persons, for a face state change person in which both the hidden face image and the bare face image are detected from the plurality of images, the feature amount of the bare face image is compared with the face feature amount of the suspicious person A face image comparing unit that outputs the face state non-changing person who is a person other than the face state changing person, and does not check the face feature amount of the suspicious person;
An apparatus for detecting a suspicious person, comprising:
前記顔画像記憶部は、さらに、前記顔検出部が検出した前記隠蔽顔画像を前記人物毎に区別して記憶し、
前記顔画像照合部は、前記照合結果として、前記顔状態変化人物の前記隠蔽顔画像及び前記素顔画像を出力する、
ことを特徴とする請求項1に記載の不審者検知装置。
The face image storage unit further stores the concealed face image detected by the face detection unit separately for each person.
The face image matching unit outputs the hidden face image and the bare face image of the face state change person as the matching result.
The suspicious person detection device according to claim 1, characterized in that:
前記不審者情報記憶部は、前記不審者の顔特徴量と対応付けて当該不審者の顔画像を記憶し、
前記顔画像照合部は、前記照合結果として、前記顔状態変化人物と照合一致した不審者の顔画像を出力する、
ことを特徴とする請求項1又は2に記載の不審者検知装置。
The suspicious person information storage unit stores a face image of the suspicious person in association with the face feature amount of the suspicious person,
The face image matching unit outputs, as the matching result, a face image of a suspicious person who has matched the face state change person.
The suspicious person detection device according to claim 1 or 2, characterized in that.
JP2017243142A 2017-12-19 2017-12-19 Suspicious person detection device Active JP7102137B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017243142A JP7102137B2 (en) 2017-12-19 2017-12-19 Suspicious person detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017243142A JP7102137B2 (en) 2017-12-19 2017-12-19 Suspicious person detection device

Publications (2)

Publication Number Publication Date
JP2019110474A true JP2019110474A (en) 2019-07-04
JP7102137B2 JP7102137B2 (en) 2022-07-19

Family

ID=67180249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017243142A Active JP7102137B2 (en) 2017-12-19 2017-12-19 Suspicious person detection device

Country Status (1)

Country Link
JP (1) JP7102137B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112330715A (en) * 2020-10-09 2021-02-05 深圳英飞拓科技股份有限公司 Tracking method, tracking device, terminal equipment and readable storage medium
KR20220043004A (en) * 2020-09-28 2022-04-05 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Method and apparatus for detecting occluded image and medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108243A (en) * 2006-09-28 2008-05-08 Toshiba Corp Person recognition device and person recognition method
JP2012212969A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Image monitoring apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108243A (en) * 2006-09-28 2008-05-08 Toshiba Corp Person recognition device and person recognition method
JP2012212969A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Image monitoring apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220043004A (en) * 2020-09-28 2022-04-05 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Method and apparatus for detecting occluded image and medium
JP2022055302A (en) * 2020-09-28 2022-04-07 ペキン シャオミ パインコーン エレクトロニクス カンパニー, リミテッド Method and apparatus for detecting occluded image and medium
JP7167244B2 (en) 2020-09-28 2022-11-08 ペキン シャオミ パインコーン エレクトロニクス カンパニー, リミテッド Occluded Image Detection Method, Apparatus, and Medium
KR102545408B1 (en) * 2020-09-28 2023-06-20 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Method and apparatus for detecting occluded image and medium
US11961278B2 (en) 2020-09-28 2024-04-16 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and apparatus for detecting occluded image and medium
CN112330715A (en) * 2020-10-09 2021-02-05 深圳英飞拓科技股份有限公司 Tracking method, tracking device, terminal equipment and readable storage medium

Also Published As

Publication number Publication date
JP7102137B2 (en) 2022-07-19

Similar Documents

Publication Publication Date Title
JP7375101B2 (en) Information processing device, information processing method and program
JP5793353B2 (en) Face image search system and face image search method
US11179064B2 (en) Method and system for privacy-preserving fall detection
US20200202113A1 (en) Object tracking and best shot detection system
US10445565B2 (en) Crowd analytics via one shot learning
JP5740210B2 (en) Face image search system and face image search method
CN106682578B (en) Weak light face recognition method based on blink detection
JP2008146356A (en) Visual line direction predicting device and visual line direction predicting method
KR20110090731A (en) Fake video detecting apparatus and method
JP5726596B2 (en) Image monitoring device
KR20190093799A (en) Real-time missing person recognition system using cctv and method thereof
RU2315352C2 (en) Method and system for automatically finding three-dimensional images
JP4862518B2 (en) Face registration device, face authentication device, and face registration method
Sanyal et al. Two stream deep convolutional neural network for eye state recognition and blink detection
JP5971712B2 (en) Monitoring device and method
Saif et al. Robust drowsiness detection for vehicle driver using deep convolutional neural network
JP2019110474A (en) Suspicious person detection device
Zhang et al. A novel efficient method for abnormal face detection in ATM
Yuan et al. Ear detection based on CenterNet
WO2023093241A1 (en) Pedestrian re-identification method and apparatus, and storage medium
Akhdan et al. Face recognition with anti spoofing eye blink detection
KR101539944B1 (en) Object identification method
Lin et al. A network for detecting facial features during the COVID-19 epidemic
Golda Image-based Anomaly Detection within Crowds
Nagalakshmi Human Activity Detection Events Through Human Eye Reflection using Bystander Analyzer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7102137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150