JP6739459B2 - Person matching device - Google Patents

Person matching device Download PDF

Info

Publication number
JP6739459B2
JP6739459B2 JP2018050613A JP2018050613A JP6739459B2 JP 6739459 B2 JP6739459 B2 JP 6739459B2 JP 2018050613 A JP2018050613 A JP 2018050613A JP 2018050613 A JP2018050613 A JP 2018050613A JP 6739459 B2 JP6739459 B2 JP 6739459B2
Authority
JP
Japan
Prior art keywords
person
image
quality
input
image quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018050613A
Other languages
Japanese (ja)
Other versions
JP2019164422A (en
Inventor
朋之 木谷
朋之 木谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2018050613A priority Critical patent/JP6739459B2/en
Publication of JP2019164422A publication Critical patent/JP2019164422A/en
Application granted granted Critical
Publication of JP6739459B2 publication Critical patent/JP6739459B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、人物照合装置に係り、特に、入力人物画像に対象人物が撮影されているか否かを判定する人物照合装置に関する。 The present invention relates to a person matching device, and more particularly to a person matching device that determines whether or not a target person is photographed in an input person image.

顔画像をはじめとする生体情報の照合技術では、予め登録された登録者以外の他人をその登録者として認証してしまう他人受理と、登録者本人の認証に失敗する本人棄却の両方を低減することが求められる。特許文献1には、顔画像照合向けに、照合精度向上を目的としてホクロやしみ、しわなどの微細構造を活用すべくその特徴量を抽出することが開示されている。 Biometric information matching technology such as face images reduces both the acceptance of others who authenticate other people other than pre-registered registrants as the registrant and the rejection of the registrant who fails to authenticate the registrant himself. Is required. Patent Document 1 discloses, for face image matching, extracting the feature amount so as to utilize fine structures such as moles, stains, and wrinkles for the purpose of improving matching accuracy.

特開2017−182606号公報JP, 2017-182606, A

顔画像照合技術では、解像度やコントラストの高低をはじめとする画像の質の程度である画質が登録顔画像と入力顔画像との類似の程度に大きな影響を与えることが知られている。 In the face image matching technique, it is known that the image quality, which is the degree of image quality such as high and low resolution and contrast, greatly affects the degree of similarity between the registered face image and the input face image.

ここで、顔画像照合技術を応用し、事前登録した不審人物を監視画像から発見する監視カメラシステムにおいては、撮影された不審者らしき人物とカメラとが離れており、顔部分が小さく写って画素数が少ない場合や、帽子や建物の影が顔にかかって顔部分のコントラストが不足する場合がある。これはいわば顔画像照合においては顔画像の画質が低い状態であり、顔が不鮮明に写り込むあまり顔の微細構造に関する特徴量を正確に抽出するのが困難となる。すると微細構造の特徴量を用いて算出した類似度が低くなることが影響して検知性能が低下し、失報、即ち不審者の見逃しを招きかねない。 Here, in a surveillance camera system that applies face image matching technology to detect a pre-registered suspicious person from the surveillance image, the photographed person who seems to be a suspicious person and the camera are separated, and the face part is small and pixel There may be a small number, or the shadow of a hat or a building may hang on the face and the contrast of the face part may be insufficient. This is, so to speak, a state in which the image quality of the face image is low in face image matching, and it is difficult to accurately extract the feature amount related to the fine structure of the face because the face is unclearly reflected. Then, the lowering of the degree of similarity calculated using the feature amount of the fine structure affects the detection performance, which may cause a false alarm, that is, a suspicious person may miss it.

一方で不審者について鮮明に真正面から撮影した顔画像が得られるとは限らず、過去の監視画像から自動または手動で抽出した顔画像を登録人物画像として用いざるを得ないことがある。すると登録人物画像の画質が高い登録者(不審者)と、画質が低い登録者(不審者)が混在することになるが、後者は微細構造の特徴量を用いて算出した類似度が低くなるため、それを考慮して不審者の見逃しを防ぐべく閾値を低く設定してしまうと、不審者でない人物を不審者と判定して不要な警報を発する誤報が発生する畏れがあった。 On the other hand, it is not always possible to obtain a face image of a suspicious person clearly captured from the front, and there is no choice but to use a face image automatically or manually extracted from past monitoring images as a registered person image. Then, a registrant with a high image quality of the registered person image (a suspicious person) and a registrant with a low image quality (a suspicious person) coexist, but the latter has a low degree of similarity calculated using the feature amount of the fine structure. Therefore, if the threshold value is set low in order to prevent the suspicious person from overlooking in consideration of this, there is a fear that a person who is not a suspicious person is determined to be a suspicious person and an erroneous alarm is issued to issue an unnecessary warning.

本発明は、精度良く人物判定ができる人物照合装置を提供することを目的とする。 It is an object of the present invention to provide a person matching device that can accurately determine a person.

上記の目的を達成するために本発明に係る人物照合装置は、所定の領域を撮影した撮影画像を取得する画像取得手段と、前記撮影画像から入力人物画像を検出する検出手段と、人物を構成している粗い構造に関する画像特徴を表す粗構造特徴量、及び人物における細かい微細構造に関する画像特徴を表す微細構造特徴量であって、対象人物を撮影した登録人物画像から抽出された前記粗構造特徴量及び前記微細構造特徴量を前記対象人物ごとに記憶している記憶手段と、前記入力人物画像の質の程度を表す入力人物画質を評価する品質評価手段と、前記入力人物画像から前記粗構造特徴量を抽出して前記記憶手段に記憶されている粗構造特徴量との粗構造一致度を算出する粗構造照合手段と、前記入力人物画像から前記微細構造特徴量を抽出して前記記憶手段に記憶されている微細構造特徴量との微細構造一致度を算出する微細構造照合手段と、前記粗構造一致度を少なくとも用いて前記入力人物画像に前記対象人物が撮影されているか否かを判定する人物判定手段と、を備え、前記人物判定手段は、前記入力人物画質及び前記登録人物画像の質の程度を表す登録人物画質のいずれもが画質閾値以上の高品質であると前記粗構造一致度と前記微細構造一致度とを用いて当該入力人物画像に前記対象人物が撮影されているか否かを判定することを特徴としている。 In order to achieve the above-mentioned object, a person collation device according to the present invention comprises an image acquisition means for acquiring a photographed image of a predetermined area, a detection means for detecting an input person image from the photographed image, and a person. A coarse structure feature amount representing an image feature relating to a rough structure and a fine structure feature amount representing an image feature relating to a fine fine structure in a person, the rough structure feature being extracted from a registered person image of a target person. Amount and the fine structure feature amount are stored for each of the target persons, quality evaluation means for evaluating an input person image quality indicating the degree of quality of the input person image, and the rough structure from the input person image. A coarse structure matching unit that extracts a feature amount and calculates a coarse structure matching degree with a rough structure feature amount stored in the storage unit; and a storage unit that extracts the fine structure feature amount from the input person image. A fine structure matching means for calculating a fine structure matching degree with a fine structure feature amount stored in, and it is determined whether or not the target person is photographed in the input person image using at least the rough structure matching degree. The person determination means for performing the rough structure matching, wherein the person determination means determines that both the input person image quality and the registered person image quality indicating the degree of quality of the registered person image are high quality equal to or higher than an image quality threshold value. It is characterized in that whether or not the target person is photographed in the input person image is determined using the degree and the degree of fine structure matching.

本発明に係る人物判定手段は、前記入力人物画質と前記登録人物画質のいずれもが前記高品質である場合は前記粗構造一致度が第一閾値以上であり且つ前記微細構造一致度が前記第二閾値以上である場合に前記入力人物画像に前記対象人物が撮影されていると判定し、前記入力人物画質が前記高品質であるが前記登録人物画像が前記画質閾値未満の低品質である場合は前記粗構造一致度が前記第一閾値よりも高い第三閾値以上である場合に前記入力人物画像に前記対象人物が撮影されていると判定する。 In the person determination means according to the present invention, when both the input person image quality and the registered person image quality are the high quality, the coarse structure coincidence is equal to or higher than a first threshold and the fine structure coincidence is the first degree. When it is determined that the target person is photographed in the input person image when it is two thresholds or more, the input person image quality is the high quality, but the registered person image is low quality less than the image quality threshold value. Determines that the target person is captured in the input person image when the coarse structure matching degree is equal to or higher than a third threshold value higher than the first threshold value.

本発明に係る人物判定手段は、前記入力人物画質と前記登録人物画質のいずれもが前記高品質である場合は前記粗構造一致度と前記微細構造一致度とを統合した統合一致度を算出し、当該統合一致度から当該入力人物画像に前記対象人物が撮影されているか否かを判定し、前記入力人物画質が前記高品質であるが前記登録人物画像が前記画質閾値未満の低品質である場合は前記粗構造一致度から当該入力人物画像に前記対象人物が撮影されているか否かを判定する。 The person determination means according to the present invention calculates an integrated coincidence degree that integrates the coarse structure coincidence degree and the fine structure coincidence degree when both the input person image quality and the registered person image quality are the high quality. , It is determined whether or not the target person is photographed in the input person image based on the integrated coincidence degree, and the input person image quality is the high quality, but the registered person image is low quality less than the image quality threshold value. In this case, it is determined from the rough structure matching degree whether or not the target person is photographed in the input person image.

本発明に係る人物判定手段は、前記入力人物画質と前記登録人物画質のいずれもが前記高品質である場合は前記登録人物画質が高いほど前記統合一致度に対する前記微細構造一致度の寄与を高くして前記統合一致度を算出する。 The person determination means according to the present invention, when both the input person image quality and the registered person image quality are the high quality, the higher the registered person image quality, the higher the contribution of the fine structure matching degree to the integrated matching degree. Then, the integrated coincidence degree is calculated.

本発明に係る人物照合装置は、さらに、順次取得される複数の前記撮影画像から検出された前記入力人物画像を同一人物について追跡し、追跡できた入力人物画像を対応付けた系列データを生成する追跡手段を備え、前記人物判定手段は、前記系列データごとに、当該系列データに含まれる前記入力人物画像についての前記入力人物画質のうち最高の前記入力人物画質が前記画質閾値未満の低品質であると前記粗構造一致度が前記第一閾値よりも高い第三閾値以上である場合に当該系列データに含まれる入力人物画像に前記対象人物が撮影されていると判定する。 The person matching apparatus according to the present invention further traces the input person images detected from the plurality of captured images sequentially acquired for the same person, and generates series data in which the traceable input person images are associated with each other. A tracking means, and the person determination means, for each of the series data, the highest input person image quality among the input person image quality of the input person image included in the series data is a low quality less than the image quality threshold value. If there is, it is determined that the target person is photographed in the input person image included in the series data when the degree of coarse structure matching is equal to or higher than the third threshold that is higher than the first threshold.

以上説明したように、本発明の人物照合装置によれば、精度良く人物判定ができる、という効果が得られる。 As described above, according to the person matching device of the present invention, it is possible to obtain the effect that the person determination can be performed accurately.

本発明の実施の形態に係る画像監視装置を監視領域に設置し、運用している様子を示す模式図である。It is a schematic diagram which shows a mode that the image monitoring apparatus which concerns on embodiment of this invention is installed in the monitoring area|region, and is operating. 本発明の実施の形態に係る画像監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image monitoring apparatus which concerns on embodiment of this invention. 登録データの一例を示す図である。It is a figure which shows an example of registration data. (a)鮮鋭な顔画像の一例を示す図、及び(b)ボケ気味の顔画像の一例を示す図である。(A) It is a figure which shows an example of a sharp face image, and (b) It is a figure which shows an example of a defocused face image. 系列データの一例を示す図である。It is a figure which shows an example of series data. 系列データの入力人物画質の変化の一例を示す図である。It is a figure which shows an example of the change of the input person image quality of series data. 本発明の実施の形態に係る画像監視装置による画像監視処理の動作を示すフローチャートである。5 is a flowchart showing an operation of image monitoring processing by the image monitoring device according to the embodiment of the present invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、顔照合装置に本発明を適用し、入力人物画像と登録人物画像との人物を照合する場合を例に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case will be described as an example in which the present invention is applied to a face matching device and a person between an input person image and a registered person image is matched.

<システム構成>
図1には、本実施の形態における画像監視装置を監視領域100に設置し、運用している様子を模式的に示している。
<System configuration>
FIG. 1 schematically shows a state in which the image monitoring apparatus according to the present embodiment is installed and operated in the monitoring area 100.

図1に示すように、監視領域100には人物が写っており、その中に不審者が含まれる場合には外部へ、例えば警備センターなどに通報する。 As shown in FIG. 1, a person is photographed in the monitoring area 100, and when a suspicious person is included therein, the person is notified to the outside, for example, a security center.

図1には人物101と、人物102と、その2人を撮影するための撮像装置(撮影手段)2が示されている。 FIG. 1 shows a person 101, a person 102, and an imaging device (imaging means) 2 for photographing the two persons.

図2に、本実施例における画像監視装置20の構成をブロック図として模式的に示す。 FIG. 2 schematically shows the configuration of the image monitoring device 20 in this embodiment as a block diagram.

撮像装置2は、監視カメラであり、図1のように天井からやや下向きに設置するのが好適である。複数用意しても良いが、視野を確保するため望遠よりも広角レンズを用いるのが好適である。 The image pickup device 2 is a surveillance camera, and is preferably installed slightly downward from the ceiling as shown in FIG. A plurality of lenses may be prepared, but it is preferable to use a wide-angle lens rather than a telephoto lens to secure the field of view.

通報装置3は、顔照合装置1から不審者の存在を示す信号を受け取ると、警報音鳴動や表示灯点灯などを行う。あるいは通報装置3は警備センターに設置されるものとして、出力部13からの信号をネットワーク越しに受け取ることとしても良い。 When the notification device 3 receives a signal indicating the presence of a suspicious person from the face matching device 1, the notification device 3 sounds an alarm sound or lights an indicator light. Alternatively, the notification device 3 may be installed in the security center and receive the signal from the output unit 13 via the network.

顔照合装置1は、画像取得部10、画像処理部11、記憶部12、及び出力部13を備えている。なお、顔照合装置1は、人物照合装置の一例である。 The face matching device 1 includes an image acquisition unit 10, an image processing unit 11, a storage unit 12, and an output unit 13. The face matching device 1 is an example of a person matching device.

画像取得部10(画像取得手段)は、撮像装置2から入力画像を受け取るI/F回路である。 The image acquisition unit 10 (image acquisition means) is an I/F circuit that receives an input image from the imaging device 2.

出力部13は、画像処理部11からの不審者の存在を外部の機器、通報装置3に出力するI/F回路である。 The output unit 13 is an I/F circuit that outputs the presence of a suspicious person from the image processing unit 11 to an external device or the notification device 3.

記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ、又は磁気記録媒体及びそのアクセス装置若しくは光記録媒体及びそのアクセス装置などを有する。記憶部12は、顔照合装置1を制御するためのコンピュータプログラム及び各種データを記憶し、画像処理部11との間でこれらの情報を入出力する。各種データには、事前にしかるべき権限を持つ者から情報を受けた不審者について、その人物画像をはじめとした登録者データ121、および後述する追跡手段114により同一人物についてまとめられた系列データ122が含まれる。 The storage unit 12 has a semiconductor memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory), or a magnetic recording medium and its access device or an optical recording medium and its access device. The storage unit 12 stores a computer program for controlling the face matching device 1 and various data, and inputs/outputs these pieces of information with the image processing unit 11. The various data includes registrant data 121 including a person image of a suspicious person who has received information from a person who has an appropriate authority in advance, and series data 122 of the same person summarized by a tracking unit 114 described later. Is included.

登録者データ121の内容を、図3を用いて説明する。 The contents of the registrant data 121 will be described with reference to FIG.

図3には、登録者データ121の内容がテーブル化して模式的に示されている。 FIG. 3 schematically shows the contents of the registrant data 121 in the form of a table.

登録者データ121は、ID1211、登録人物画像1212、粗構造特徴量1213、微細構造特徴量1214、及び登録人物画質1215から構成されている。このほか、個別具体的な事情に応じて他の要素、例えば判明しているならば名前や不審者と判定された理由などを追加してもよい。 The registrant data 121 includes an ID 1211, a registered person image 1212, a coarse structure feature amount 1213, a fine structure feature amount 1214, and a registered person image quality 1215. In addition, other factors such as a name and a reason for determining a suspicious person, if known, may be added depending on individual specific circumstances.

ID1211は、不審者それぞれについて一意に付与された識別番号である。不審者1人について複数の人物画像が登録されていても良い。その場合、同じ不審者について複数の人物画像が登録されていることを示すべく枝番号を追加したり(例えばID1211が「150」に対して「150−1」「150−2」)、不審者についてのIDと人物画像についてのIDを別に付与して対応付けてもよい。 The ID 1211 is an identification number uniquely assigned to each suspicious individual. Multiple person images may be registered for one suspicious person. In that case, a branch number may be added to indicate that a plurality of person images are registered for the same suspicious person (for example, “150-1” and “150-2” with respect to the ID 1211 of “150”). It is also possible to separately give an ID for the image and an ID for the person image and associate them.

登録人物画像1212は、各不審者、例えば過去に万引きを行った人物について、その際の監視画像から画像監視装置20の管理者が手動にて抽出した顔画像、または後述する画像処理部11の顔検出手段111が抽出した顔画像である。 The registered person image 1212 is a face image manually extracted by the administrator of the image monitoring device 20 from the monitoring image at that time for each suspicious person, for example, a person who shoplifted in the past, or the image processing unit 11 described later. It is a face image extracted by the face detection means 111.

登録人物画像1212自体は、本実施の形態では画像監視装置20の動作には直接使用されなくてもよいので、後述の粗構造特徴量1213や微細構造特徴量1214、登録人物画質1215が決定された後に記憶せずに削除されることとしても良い。 Since the registered person image 1212 itself does not have to be directly used for the operation of the image monitoring apparatus 20 in this embodiment, a coarse structure feature amount 1213, a fine structure feature amount 1214, and a registered person image quality 1215, which will be described later, are determined. After that, it may be deleted without being remembered.

粗構造特徴量1213は、登録人物画像1212について、その登録時の作業において粗構造照合手段115が抽出した特徴量である。特徴量は画像照合の分野において各種のものが周知なので適宜採用すればよいが、例えば、人物画像を小領域に分割して得られるHoG特徴量や、特徴点を抽出してその周囲の局所領域から求められたウェーブレット特徴量などとすれば良く、それら特徴量を並べた特徴量ベクトルとして記憶しておけばよい。なお、特徴量自体を図示するのは困難であるので、図3では“*”にて代用して示している。 The rough structure feature amount 1213 is a feature amount of the registered person image 1212 extracted by the rough structure matching unit 115 in the work at the time of registration. Various kinds of feature amounts are well known in the field of image matching and may be appropriately adopted. For example, a HoG feature amount obtained by dividing a human image into small regions or a local region around the extracted feature points. The wavelet feature amount obtained from the above may be used, and these feature amounts may be stored as a feature amount vector. Since it is difficult to illustrate the feature amount itself, “*” is used instead in FIG.

微細構造特徴量1214は、登録人物画像1212について、その登録時の作業において微細構造照合手段116が抽出した特徴量である。特徴量は、シミ、ほくろ、しわなど肌の微細な特徴を参照して得られる特徴量とし、例えば特許文献1(特開2017-182606)に開示されている方法に倣い求めればよく、例えば、特徴量ベクトルとして記憶しておけばよい。なお、特徴量自体を図示するのは困難であるので、図3では“*”にて代用して示している。 The fine structure feature amount 1214 is a feature amount of the registered person image 1212 extracted by the fine structure matching unit 116 during the work at the time of registration. The feature amount is a feature amount obtained by referring to minute features of the skin such as spots, moles, and wrinkles, and may be obtained by following the method disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2017-182606). It may be stored as a feature vector. Since it is difficult to illustrate the feature amount itself, “*” is used instead in FIG.

登録人物画質1215は、登録人物画像1212について、その登録時の作業において品質評価手段113が評価した画質である。登録作業を担当する管理者が目視確認により決定しても良い。 The registered person image quality 1215 is the image quality of the registered person image 1212 evaluated by the quality evaluation unit 113 in the work at the time of registration. The administrator in charge of registration work may make the decision by visual confirmation.

登録人物画質1215としては、図3に示すように、画質を判定してレベル化した数字が記憶される。他の画質に関する評価値を直接記憶してもよい。あるいは画質評価を3段階とする場合には“高”“中”“低”の文字列を記憶しても良い。 As the registered person image quality 1215, as shown in FIG. 3, a number obtained by determining the image quality and leveling is stored. Evaluation values regarding other image quality may be directly stored. Alternatively, when the image quality evaluation has three levels, the character strings of “high”, “medium”, and “low” may be stored.

例えば、最低のレベル0は全く照合には用を成さない程度、最高のレベル10は証明写真のような高品質であるとする。 For example, it is assumed that the lowest level 0 is completely useless for collation and the highest level 10 is high quality like an ID photograph.

図3では、ID1211が“101”の登録人物画像1212は、鮮鋭さや明るさなどの条件が照合処理には好適な状態であるので、登録人物画質1215として、品質評価手段113が評価した結果である“レベル9”が記憶されている。 In FIG. 3, the registered person image 1212 with the ID 1211 of “101” has a condition such as sharpness and brightness that is suitable for the matching process. Therefore, the quality evaluation means 113 evaluates the registered person image 1215 as the registered person image quality 1215. A certain "level 9" is stored.

同様にID1211が“102”の登録人物画像1212は、鮮鋭さが照合処理にはやや不適当な状態であるので、登録人物画質1215として、品質評価手段113が評価した結果である“レベル6”が記憶されている。 Similarly, since the sharpness of the registered person image 1212 having the ID 1211 of "102" is somewhat unsuitable for the collation processing, "level 6" which is the result of evaluation by the quality evaluation means 113 as the registered person image quality 1215. Is remembered.

同様にID1211が“103”の登録人物画像1212は、鮮鋭さが辛うじて照合処理ができる程度の状態であるので、登録人物画質1215として、品質評価手段113が判定した結果である“レベル3”が記憶されている。 Similarly, the registered person image 1212 with the ID 1211 of "103" is in a state in which the sharpness can barely be subjected to the collation processing, and therefore, as the registered person image quality 1215, "level 3" which is the result determined by the quality evaluation unit 113 is Remembered

同様にID1211が“104”の登録人物画像1212は、コントラストが照合処理にはやや不適当な状態であるので、登録人物画質1215として、品質評価手段113が評価した結果である“レベル7”が記憶されている。 Similarly, the registered person image 1212 having the ID 1211 of “104” has a contrast that is slightly unsuitable for the matching process, and therefore the registered person image quality 1215 is “level 7” which is the result evaluated by the quality evaluation unit 113. Remembered

図2に戻り、顔検出手段111は、入力画像から入力人物画像として顔画像を検出して特徴点抽出手段112に出力する。 Returning to FIG. 2, the face detection unit 111 detects a face image as an input person image from the input image and outputs it to the feature point extraction unit 112.

顔画像の検出には周知の方法を採用すれば良い。例えば、顔画像を学習した識別器と呼ばれるフィルタにて抽出する方法や、入力画像の二値化エッジ画像を生成し、当該エッジ画像において顔の形状である楕円形状部分を顔領域として、その内部を入力人物画像とすれば良い。 A known method may be used to detect the face image. For example, a method of extracting a face image with a filter called a discriminator that has been learned, or generating a binarized edge image of an input image, and defining an elliptical portion that is the shape of the face in the edge image as a face region, May be the input person image.

さらに、不審者の顔画像を登録人物画像として登録をする際、その顔画像について平均輝度や輝度の分散などを求めて顔画像のコントラストとして品質評価手段113に出力する機能を有する。 Further, when a face image of a suspicious individual is registered as a registered person image, the face image of the suspicious individual has a function of obtaining the average brightness and the variance of the brightness and outputting the result to the quality evaluation unit 113 as the contrast of the face image.

特徴点抽出手段112は、顔検出手段111にて抽出された入力人物画像から目、鼻、口、眉、顔の輪郭などの各部位に対応する複数の顔特徴点を抽出し、入力人物画像上の位置座標を求める手段である。なお、目、鼻、口、眉、顔の輪郭などの各部位が、粗構造の一例である。 The feature point extraction unit 112 extracts a plurality of face feature points corresponding to respective parts such as eyes, nose, mouth, eyebrows, and face outlines from the input person image extracted by the face detection unit 111, and the input person image. It is a means for obtaining the upper position coordinates. Each part such as eyes, nose, mouth, eyebrows, and face contour is an example of the rough structure.

顔特徴点の抽出方法は従来から多数提案されており、適宜公知の方法を採用すれば良い。例えば、顔特徴点周辺の画像を学習した識別器と呼ばれるフィルタにて抽出する方法や、入力画像の二値化エッジ画像を生成し、当該エッジ画像において顔特徴点周辺の特徴的な形状を検出する方法を採用すれば良い。 Many methods for extracting facial feature points have been proposed in the past, and known methods may be adopted as appropriate. For example, a method of extracting an image around a facial feature point with a filter called a discriminator, or generating a binarized edge image of an input image and detecting a characteristic shape around the facial feature point in the edge image The method of doing is good.

さらに、不審者の顔画像を登録人物画像として登録をする際、その顔画像について抽出された特徴点の座標情報を、登録人物画像の画質を評価するためのデータとして品質評価手段113に出力する機能を有する。 Further, when the face image of the suspicious individual is registered as the registered person image, the coordinate information of the feature points extracted for the face image is output to the quality evaluation unit 113 as data for evaluating the image quality of the registered person image. Have a function.

品質評価手段113は、登録作業時に顔検出手段111、特徴点抽出手段112から出力されたデータに基づいて、登録人物画像の質の程度である画質を評価し、記憶部12の登録者データ121の登録人物画質1215に記憶させる手段である。また監視中に取得される入力人物画像の画質をその都度評価する。 The quality evaluation unit 113 evaluates the image quality, which is the quality level of the registered person image, based on the data output from the face detection unit 111 and the feature point extraction unit 112 during the registration work, and the registered person data 121 in the storage unit 12. The registered person image quality 1215 of FIG. In addition, the image quality of the input person image acquired during monitoring is evaluated each time.

画質の高低が、照合処理に微細特徴の活用の可否について影響を与えることを図4に示す模式図を用いて説明する。 It will be described using the schematic diagram shown in FIG. 4 that the level of the image quality affects whether or not the fine feature can be utilized in the matching process.

図4(a)には、鮮鋭な顔画像300が示されている。鮮鋭であるので、通常の顔照合に用いる目や口などの大きな部位のほか、目尻の皺303、顔のシミ301、ホクロ302などの微細構造もはっきりと写っており、個人性を表す情報として十分に活用できる。 A sharp face image 300 is shown in FIG. As it is sharp, large parts such as eyes and mouth that are used for normal face matching, as well as fine structures such as wrinkles 303 on the outer corners of the eyes, spots 301 on the face, and moles 302 are clearly shown, and as information showing individuality. It can be fully utilized.

図4(b)には、ボケ気味の顔画像310が示されている。目や口などの大きな部位は、通常通りの顔照合に用いることができても、目尻の皺313、顔のシミ311、ホクロ312などの微細構造はボケてしまい、例えばエッジ抽出処理などによりそれらの微細特徴を照合に活用しようにも困難である。 FIG. 4B shows a face image 310 with a slight blur. Even if large parts such as eyes and mouth can be used for face matching as usual, fine structures such as wrinkles 313 on the outer corners of the eyes, spots 311 on the face, and moles 312 will be blurred. It is also difficult to use the fine features of for matching.

上記では、鮮鋭さの有無として説明したが、実際には入力画像中での顔画像の解像度、即ち、大きさが問題となる。これは、画像監視においては視野内に存在する人物の大きさは事前には仮定できず、顔部分が小さくしか写らないこともあり得る。一方で照合処理においては大きさを揃えて処理を行うべく、いわゆる正規化処理を行うが、小さくしか写らなかった顔画像は拡大されることになる。その場合、拡大した結果は図4(b)に示したようにボケた顔画像となってしまう。特に画像監視の分野では、少ないカメラで広い範囲を撮影対象とすべく広角レンズを使うのが一般的であるため、正規化するとボケた顔画像となることが多い。 In the above description, the presence or absence of sharpness is described, but in reality, the resolution of the face image in the input image, that is, the size, becomes a problem. This is because in image monitoring, the size of a person present in the field of view cannot be assumed in advance, and the face portion may only appear small. On the other hand, in the collation processing, so-called normalization processing is performed in order to make the processing uniform in size, but the face image that appears only small is enlarged. In that case, the enlarged result will be a blurred face image as shown in FIG. Particularly in the field of image monitoring, since it is common to use a wide-angle lens to target a wide range with a small number of cameras, normalization often results in a blurred face image.

コントラストについては、好適な照明条件の下で取得された顔画像からは微細構造の情報を活用でき、薄暗い条件下で取得されると活用が難しい。鮮鋭さの有無などの画像の画質の高低は照合処理に影響を与えるが、画像の画質の高低を考慮せずに照合処理を行うと精度低下を招きかねない。 Regarding the contrast, it is difficult to use the information of the fine structure from the face image acquired under the suitable lighting condition, and it is difficult to use the information under the dark condition. The quality of the image, such as the presence/absence of sharpness, affects the matching process, but if the matching process is performed without considering the quality of the image, the accuracy may be deteriorated.

そこで品質評価手段113は、不審者の登録人物画像の登録時において、顔検出手段111、特徴点抽出手段112から出力されたデータを基に登録人物画像の画質を評価して登録者データ121に記憶させる。入力人物画像については、得られるたびに画質評価をして、後述する系列データに記憶させる。 Therefore, when the registered person image of the suspicious person is registered, the quality evaluation means 113 evaluates the image quality of the registered person image based on the data output from the face detection means 111 and the feature point extraction means 112, and sets it as the registered person data 121. Remember. The image quality of the input person image is evaluated each time it is obtained and stored in the series data described later.

品質評価手段113は、例えば、登録人物画質として登録人物画像の解像度を推定して解像度が所定値以上である場合には高品質であるとして解像度に応じてレベル8〜10、解像度が所定値よりも低い場合には中品質であるとして解像度に応じてレベル4〜7、解像度が更に低い場合には低品質として解像度に応じてレベル0〜4と評価して登録人物画質1215に記憶する。すなわち、登録人物画像における顔画像の検出サイズが大きければ、登録人物画像を高品質と評価し、登録人物画像における顔画像の検出サイズが小さければ、登録人物画像を低品質と評価する。 The quality evaluation unit 113 estimates, for example, the resolution of the registered person image as the registered person image quality, and if the resolution is equal to or higher than a predetermined value, the quality evaluation unit 113 determines that the quality is high and the level is 8 to 10 depending on the resolution, and the resolution is higher than the predetermined value. If it is low, medium quality is evaluated as levels 4 to 7 depending on the resolution, and if the resolution is lower, it is evaluated as low quality and levels 0 to 4 are stored according to the resolution and stored in the registered person image quality 1215. That is, if the detected size of the face image in the registered person image is large, the registered person image is evaluated as high quality, and if the detected size of the face image in the registered person image is small, the registered person image is evaluated as low quality.

ここで、品質評価手段113は、特徴点抽出手段112から粗構造特徴量の特徴点の位置情報が入力された場合には、その特徴点のうち、例えば右目中心と左目中心の間の画素数(目間距離)を計数して解像度の推定に用いてもよい。即ち、特徴点どうしの間の画素数が一定以上である場合には高品質であるとして目間距離に応じてレベル8〜10、それよりも少ない場合には中品質であるとしてレベル4〜7、さらに少ない場合には低品質としてレベル0〜3と評価して登録人物画質1215に記憶する。 Here, when the position information of the feature points of the rough structure feature amount is input from the feature point extraction unit 112, the quality evaluation unit 113 selects, for example, the number of pixels between the center of the right eye and the center of the left eye among the feature points. The (eye distance) may be counted and used to estimate the resolution. That is, if the number of pixels between the characteristic points is equal to or greater than a certain level, the quality is high and the level is 8 to 10 in accordance with the distance between eyes. If the number is smaller, the quality is evaluated as levels 0 to 3 and stored in the registered person image quality 1215.

解像度の推定に目間距離などの特徴点どうしの間の画素値を用いるのが好適なのは、顔の検出にあたり、例えば帽子をかぶっていたり背景となる壁や床の色や模様が髪や肌と類似していると顔の大きさが画像中での実際の大きさとは異なりかねず、解像度を推定するのが不適切になることも考えられるからである。その点、目の中心などはその周りが明るい肌色として写り込むことが多く、瞳の色とのコントラストが明確で安定して特徴点の抽出と解像度の推定が期待できる。 It is preferable to use the pixel value between feature points such as the distance between eyes to estimate the resolution when detecting a face, for example, when wearing a hat and the color or pattern of the background wall or floor is different from hair or skin. This is because if they are similar, the size of the face may differ from the actual size in the image, and it may be inappropriate to estimate the resolution. In that respect, the center of the eye is often reflected as a light skin color around it, and the contrast with the color of the pupil is clear and stable, and extraction of feature points and estimation of resolution can be expected.

あるいは、品質評価手段113は、顔検出手段111から登録人物画像の平均輝度や輝度の分散の情報が入力された場合、それらが照合処理に十分適した範囲であれば、高品質であるとしてそれら情報に応じてレベル8〜10、その範囲からやや外れれば、中品質であるとしてレベル4〜7、大きく外れるのであれば、低品質としてレベル0〜3と評価して登録人物画質1215に記憶する。 Alternatively, when the information about the average brightness of the registered person image or the distribution of the brightness is input from the face detection unit 111, the quality evaluation unit 113 determines that the quality is high if they are in a range suitable for the matching process. Levels 8 to 10 according to the information, levels 4 to 7 as medium quality if slightly out of the range, and levels 0 to 3 as low quality if significantly out of range, and stored in the registered person image quality 1215. ..

または、品質評価手段113は、登録人物画像に対して周知の鮮明度判定処理を行ってブレを推定し、推定されたブレに応じて画質を評価しても良い。 Alternatively, the quality evaluation unit 113 may perform well-known sharpness determination processing on the registered person image to estimate blurring, and evaluate the image quality according to the estimated blurring.

また、品質評価手段113は、上記の評価結果を組み合わせて、登録人物画像の画質を評価してもよい。例えば、上記のように解像度とコントラストを測る場合、それぞれのレベル数を平均すればよい。 The quality evaluation unit 113 may evaluate the image quality of the registered person image by combining the above evaluation results. For example, when measuring the resolution and the contrast as described above, the number of levels may be averaged.

あるいはそれぞれの評価結果を“高”“中”“低”とするならば、両者が“高”のときに“高”を登録人物画質1215に記憶して、両者が“低”のときに“低”を登録人物画質1215に記憶し、それ以外のときは“中”を記憶するようにしても良い。 Alternatively, if each evaluation result is “high”, “medium”, and “low”, “high” is stored in the registered person image quality 1215 when both are “high”, and “high” is stored when both are “low”. “Low” may be stored in the registered person image quality 1215, and in other cases, “medium” may be stored.

また、品質評価手段113は、入力人物画像の質の程度を表す入力人物画質を、登録人物画質と同様に評価する。なお、登録人物画質については、手入力により与えるようにしてもよい。 Further, the quality evaluation unit 113 evaluates the image quality of the input person, which represents the degree of quality of the input image of the person, in the same manner as the image quality of the registered person. The registered person image quality may be manually input.

追跡手段114は、顔検出手段111から抽出された時刻ごとの入力人物画像を同一人物について対応付けて記憶部12の系列データ122として記憶させる手段である。対応付けのためには公知の顔画像の追跡処理を適宜採用すればよい。例えば連続する時刻において、画像取得部10が取得した入力画像における入力人物画像の座標を参照し、重心座標同士が一定以上近いという条件で系列化できる。あるいはオプティカルフローやパーティクルフィルターなどの方法も用いても追跡可能であり、さらには入力人物画像同士を直接照合して同一人物のものであるとして追跡しても良い。 The tracking unit 114 is a unit that stores the input person image extracted by the face detection unit 111 at each time as the series data 122 of the storage unit 12 in association with each other for the same person. A known face image tracking process may be appropriately adopted for association. For example, at successive times, the coordinates of the input person image in the input image acquired by the image acquisition unit 10 are referred to, and the barycentric coordinates can be grouped under the condition that they are close to each other by a certain amount or more. Alternatively, it can be tracked by using a method such as an optical flow or a particle filter, and further, the input person images may be directly collated to be tracked as belonging to the same person.

系列データ122の内容を図5の模式図を用いて説明する。 The contents of the series data 122 will be described with reference to the schematic diagram of FIG.

図5には系列データが表形式で示されている。各段が1つの系列データを示している。1つの系列データとは、顔検出手段111が入力画像からある人物について追跡を開始し、その人物が入力画像から外れるなどにより追跡終了となるまで追跡手段114が追跡して一まとめにするか、追跡途中で照合結果が確定したのでそれ以上の処理が不要になったデータ群である。 FIG. 5 shows the series data in a tabular format. Each row shows one series of data. One piece of series data means that the face detection means 111 starts tracking for a certain person from the input image, and the tracking means 114 tracks the person until the person ends the tracking because the person is deviated from the input image. This is a data group that does not require further processing because the verification result has been finalized during tracking.

系列番号1221は、各系列データについて一意に付与されるIDである。 The sequence number 1221 is an ID uniquely assigned to each sequence data.

入力人物画像1222は、顔検出手段111により抽出された顔画像である。 The input person image 1222 is a face image extracted by the face detection unit 111.

追跡情報1223は、入力人物画像1222のそれぞれについての、入力画像における座標値、および品質評価手段113により判定された入力人物画質である。 The tracking information 1223 is the coordinate value in the input image for each of the input person images 1222 and the input person image quality determined by the quality evaluation unit 113.

このほか、追跡処理に用いるために、追跡中であることを示すフラグや、何らかの通報処理を行ったことを示すフラグなどを必要に応じて追加してもよい。 In addition to this, a flag indicating that tracking is in progress, a flag indicating that some kind of notification processing has been performed, and the like may be added as necessary for use in tracking processing.

系列データにおける入力人物画質の参照方法について、図6を用いて説明する。 A method of referring to the input person image quality in the series data will be described with reference to FIG.

図6(a)には、図5における系列番号1221が“12”の系列データの入力人物画質が模式的に示されている。当該系列データにおいて、符号600に示す入力人物画像の入力人物画質は、いずれも画質閾値620を越えておらず、認証判定処理には不向きである。よって、それらの入力人物画像が得られている間は認証判定結果を出力しない。 In FIG. 6A, the image quality of the input person of the series data whose series number 1221 in FIG. 5 is “12” is schematically shown. In the series data, the input person image quality of the input person image denoted by reference numeral 600 does not exceed the image quality threshold value 620, and is not suitable for the authentication determination process. Therefore, the authentication determination result is not output while the input person images are obtained.

入力人物画像610の入力人物画質は画質閾値620を超えているので、この入力人物画像を用い、後述する手段にて一致度(類似度)を算出するなどして認証判定結果を決定して出力する。 Since the input person image quality of the input person image 610 exceeds the image quality threshold 620, the authentication determination result is determined and output by using this input person image and calculating the degree of coincidence (similarity degree) by means described later. To do.

一方図6(b)には、図5における系列番号1221が“25”の系列データの入力人物画質が模式的に示されている。当該系列データでは、いずれの入力人物画像の入力人物画質も画質閾値620を超えず、追跡終了となった場合を示している。この場合はいずれも認証判定処理には不適であり、結果を出さないのが原則ではあるが、それでは不審者の検出漏れ(失報)を招きかねない。一方で、単純に画質が低いとして判定閾値を下げると似ていない他人を本人と誤判定する誤報の危険性がある。 On the other hand, in FIG. 6B, the image quality of the input person of the series data having the series number 1221 of “25” in FIG. 5 is schematically shown. The series data shows a case where the input person image quality of any of the input person images does not exceed the image quality threshold value 620 and the tracking ends. In this case, all of them are unsuitable for the authentication determination process and in principle do not produce a result, but this may lead to omission (unreporting) of a suspicious person. On the other hand, if the image quality is simply low and the determination threshold is lowered, there is a risk of falsely erroneously determining another person who is not similar to the person.

そこで後述する手段では、その中でも最高の入力人物画質を示した入力人物画像630を用いて一致度(類似度)を求めて認証判定結果を求める。 Therefore, in the means to be described later, the degree of coincidence (similarity) is obtained using the input person image 630 showing the highest input person image quality, and the authentication determination result is obtained.

粗構造照合手段115は、入力人物画像から抽出された各特徴点の相対的な位置や目、鼻、口等の顔の粗構造の構成要素の大きさや色等を特徴量化して、登録者データ121に記憶されている粗構造特徴量1213との類似の程度を表す粗構造一致度Saを求める。特徴量は顔画像認証の分野で周知のものを適宜選択して用いることができ、並べて成分に持つ特徴量ベクトルとするが、粗構造一致度は特徴量ベクトルの差分のノルムについて、ゼロ割に留意しつつ最大値を設定して逆数とすることができる。 The coarse structure matching unit 115 characterizes the relative positions of the respective feature points extracted from the input person image and the sizes and colors of the components of the coarse structure of the face such as eyes, nose, mouth, etc. A coarse structure matching degree Sa representing the degree of similarity with the coarse structure feature amount 1213 stored in the data 121 is obtained. As the feature amount, ones well known in the field of face image authentication can be appropriately selected and used, and the feature amount vectors that are arranged in the components are used, but the coarse structure matching degree is set to 0% for the norm of the difference between the feature amount vectors. The maximum value can be set with care and can be the reciprocal.

登録人物画像の登録時においては、登録人物画像から求めた粗構造特徴量を登録者データ121の粗構造特徴量1213に記憶させる。 At the time of registration of the registered person image, the coarse structure feature amount obtained from the registered person image is stored in the coarse structure feature amount 1213 of the registrant data 121.

微細構造照合手段116は、入力人物画像から抽出された皺などの顔の微細構造の特徴について特徴量化して、登録者データ121に記憶されている微細構造特徴量1214との類似の程度を表す微細構造一致度Smを求める。特徴量は、前述のように特許文献1(特開2017-182606)に開示されているものを用いればよく、並べて成分に持つ特徴量ベクトルとするが、微細構造一致度は特徴量ベクトルの差分のノルムについて、ゼロ割に留意しつつ最大値を設定して逆数とすることができる。 The fine structure matching unit 116 characterizes the features of the fine structure of the face such as wrinkles extracted from the input person image, and represents the degree of similarity with the fine structure feature amount 1214 stored in the registrant data 121. The fine structure matching degree Sm is obtained. As the feature amount, the one disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2017-182606) may be used as described above, and the feature amount vector that is included in the components is arranged, but the fine structure matching degree is the difference between the feature amount vectors. Regarding the norm of, it is possible to set the maximum value and take the reciprocal while paying attention to zero percent.

登録人物画像の登録時においては、登録人物画像から求めた微細構造特徴量を登録者データ121の微細構造特徴量1214に記憶させる。 At the time of registration of the registered person image, the fine structure feature amount obtained from the registered person image is stored in the fine structure feature amount 1214 of the registrant data 121.

人物判定手段117は、品質評価手段113が評価し、系列データ122に記憶されている入力人物画質と登録人物画質1215を参照して、粗構造一致度Sa、微細構造一致度Smを用い、入力人物画像の人物がいずれの登録人物画像1212の不審者かを判定する。 The person determining unit 117 refers to the input person image quality and the registered person image quality 1215 evaluated by the quality evaluating unit 113 and stored in the series data 122, and uses the coarse structure coincidence degree Sa and the fine structure coincidence degree Sm to input. It is determined which registered person image 1212 the person in the person image is a suspicious person.

入力人物画質が所定の画質閾値以上の高品質である場合(図6(a)における入力人物画像610に相当、例えば“レベル7”以上)、比較対象となる登録人物画像の登録人物画質1215を記憶部12から読み出す。 When the input person image quality is high quality equal to or higher than a predetermined image quality threshold value (corresponding to the input person image 610 in FIG. 6A, for example, “level 7” or higher), the registered person image quality 1215 of the registered person image to be compared is set. It is read from the storage unit 12.

そして登録人物画質1215も高品質である、例えば図3でいうと“レベル7”以上の場合には、入力人物画像も登録人物画像も高品質で照合には好適な条件であるので、粗構造一致度Saと微細構造一致度Smの両方を用いる。即ち人物判定手段117は、粗構造一致度Saが第一の閾値以上、かつ、微細構造一致度Smが第二の閾値以上の場合に、その登録人物画像の人物が入力人物画像に写っていると判定する。これは粗構造である部位のみならず、皺などの微細構造についても良好に情報が得られているので、微細構造についても一致の程度を調べることで本人棄却を防止する意図である。 The registered person image quality 1215 is also of high quality, for example, in the case of "level 7" or higher in FIG. 3, both the input person image and the registered person image are of high quality, which is a suitable condition for matching, and therefore the rough structure Both the coincidence degree Sa and the fine structure coincidence degree Sm are used. That is, when the coarse structure matching degree Sa is equal to or higher than the first threshold value and the fine structure matching degree Sm is equal to or higher than the second threshold value, the person determination means 117 shows the person of the registered person image in the input person image. To determine. This is because the information is obtained not only about the part having a rough structure but also about the fine structure such as wrinkles. Therefore, the intention is to prevent the person from rejecting the person by checking the degree of agreement of the fine structure.

複数の登録人物画像がその人物判定条件を満たした場合は2つの一致度が同時に最高の一致度を示した登録人物画像を、照合結果として採用する。1枚の登録人物画像が2つの一致度について同時に閾値の条件を満たしたものの、同時に最高値を示さなかった場合には、微細構造一致度Smの最高値のものを採用する。これは粗構造である部位について十分に類似しているという条件下、より個人性を表す微細構造についての類似を重視するのが好適という考えに基づく。 When a plurality of registered person images satisfy the person determination condition, the registered person images showing the highest degree of coincidence between the two registered person images are adopted as the matching results. If one registered person image simultaneously satisfies the threshold conditions for the two matching degrees but does not simultaneously show the highest value, the one having the highest fine structure matching degree Sm is adopted. This is based on the idea that it is preferable to attach importance to the similarity of the fine structure that represents individuality, under the condition that the rough structure is sufficiently similar.

入力人物画質が高品質であるものの、比較対象の登録人物画像の登録人物画質1215が高品質ではなく、例えば図3でいうと“レベル5”の場合には、登録人物画像については照合には好適な条件ではない。この条件においては、登録人物画像から微細構造についての特徴量を求めても、登録人物画像がぼやけているがゆえに必要な情報が欠落しているため、微細構造一致度Smを使うのは不適切であるといえる。そこで、人物判定手段117は粗構造一致度Saのみから判定することとして、粗構造一致度Saが第三の閾値以上の場合に、その登録人物画像の人物が入力人物画像に写っていると判定する。ただし第三の閾値を、上記第一の閾値よりも高い値に設定し、判定条件を厳しくする。これは良好な条件で照合するよりも、より顔画像どうしが似ていることを厳しく要求する意図である。例えば粗構造一致度、微細構造一致度が取り得る値について、事前に実験で最大値を把握しておき、その80%を第一の閾値とするならば、第三の閾値は同じく90%とする。 Although the input person image quality is high quality, the registered person image quality 1215 of the registered person image to be compared is not high quality. For example, in the case of “level 5” in FIG. Not a suitable condition. Under this condition, even if the feature amount for the fine structure is obtained from the registered person image, necessary information is missing because the registered person image is blurred, so it is inappropriate to use the fine structure matching degree Sm. You can say that. Therefore, the person determination means 117 determines only from the coarse structure coincidence degree Sa, and determines that the person of the registered person image appears in the input person image when the coarse structure coincidence degree Sa is equal to or larger than the third threshold value. To do. However, the third threshold value is set to a value higher than the first threshold value, and the determination condition is made strict. This is an intention to strictly require that face images are more similar to each other than matching under good conditions. For example, regarding the values that the coarse structure matching degree and the fine structure matching degree can take, if the maximum value is grasped in advance by an experiment and 80% thereof is set as the first threshold value, the third threshold value is also 90%. To do.

一方で、ある時刻での入力人物画質が高品質ではない場合には、照合には好適な条件ではない。この場合には、その入力人物画像を用いて照合結果を求めるのは不適切であるので、図5の系列データ122に示すように入力人物画質を記憶しつつ、照合結果の出力はしないこととする。そして、ある人物についての入力人物画像の追跡が終了した後に、その人物の系列データ122に含まれる入力人物画質がいずれも画質閾値未満であると、その系列データ122の中でも最高の画質の入力人物画像を用い、粗構造一致度Saと第三の閾値とを比較して照合結果を求める。また、入力人物画質のいずれかが画質閾値を超えるならば、高品質であるので、既述の場合に帰着される。 On the other hand, if the image quality of the input person at a certain time is not high, the condition is not suitable for the matching. In this case, since it is inappropriate to obtain the matching result using the input person image, it is necessary to store the input person image quality as shown in the series data 122 of FIG. 5 and not output the matching result. To do. When the input person image quality included in the series data 122 of the person is less than the image quality threshold value after the tracking of the input person image of the person is completed, the input person having the highest image quality in the series data 122 is obtained. Using the image, the rough structure matching degree Sa and the third threshold value are compared to obtain a matching result. If any of the image quality of the input person exceeds the image quality threshold value, it means that the image quality is high.

本来、入力人物画像の画質が確保されない場合には、照合不適とも考えられるが、ある程度の追跡がされる状況では、不審者が撮影領域を滞留する(うろつく)状況である場合もあり得る。そこで不審者が写っているにもかかわらず通報しないという状況(失報)を防ぐために、照合判定処理は敢行するものとしている。 Originally, if the image quality of the input person image is not ensured, it may be considered as unsuitable for collation, but in a situation where tracking is performed to some extent, a suspicious person may stay (wander around) in the imaging region. Therefore, in order to prevent a situation in which a suspicious individual is not reported even though the suspicious person is shown (missing report), the collation determination process is performed aggressively.

ただし、判定条件としては既述の場合と同様に、粗構造一致度のみからとして第三の閾値を用いることとする。 However, as in the case described above, the third threshold is used as the determination condition based only on the rough structure matching degree.

統合一致度算出手段118は、上述の人物判定手段117における判定処理に代え、以下のように粗構造一致度Saと微細構造一致度Smとから統合一致度を求める手段である。 The integrated coincidence degree calculating means 118 is a means for obtaining the integrated coincidence degree from the coarse structure coincidence degree Sa and the fine structure coincidence degree Sm as described below, instead of the determination processing in the person determining means 117 described above.

この統合一致度算出手段118は、本発明の人物照合装置においては必須ではなく、別の実施形態を採用する際に用いられることになる。またこの場合には、人物判定手段117は、既述のような粗構造一致度Saと微細構造一致度Smのそれぞれを独立に閾値処理するのではなく、求めた統合一致度を閾値処理して入力人物画像の人物がいずれの登録人物画像1212の不審者かを判定する。 This integrated coincidence degree calculating means 118 is not essential in the person collation device of the present invention, and will be used when another embodiment is adopted. Further, in this case, the person determination means 117 does not perform threshold processing on the coarse structure coincidence degree Sa and the fine structure coincidence degree Sm independently as described above, but performs threshold processing on the obtained integrated coincidence degree. It is determined which registered person image 1212 the person in the input person image is a suspicious person.

統合一致度算出手段118は、読み出した登録人物画質1215を参照して、重みwを決定する。登録人物画質1215が画質閾値である“レベル7”以上で高品質の場合には大きなwを設定し、さもなくば小さなwを設定する。 The integrated coincidence degree calculating means 118 determines the weight w by referring to the read registered person image quality 1215. If the registered person image quality 1215 is higher than the image quality threshold “level 7” and high in quality, a large w is set, otherwise a small w is set.

あるいは、登録人物画質1215が高いほど、大きなwを決定しても良い。この場合、登録人物画質1215に対する重みの値は、グラフ化した場合に単純な直線形状(比例関係)として決定すればよいが、対数関数のように上に凸の曲線形状、指数関数のように下に凸の曲線形状として決定してもよい。なお、重みwの最大値は、例えば、0.5である。 Alternatively, a larger w may be determined as the registered person image quality 1215 is higher. In this case, the weight value for the registered person image quality 1215 may be determined as a simple straight line shape (proportional relationship) in the case of graphing, but as in a logarithmic function, an upward convex curve shape or an exponential function is used. You may determine as a downward convex curve shape. The maximum value of the weight w is 0.5, for example.

そして統合一致度算出手段118は、重みwを用い、次式により統合一致度Sを求める。 Then, the integrated coincidence degree calculating means 118 obtains the integrated coincidence degree S by the following equation using the weight w.

(式1) S=(1−w)×Sa+w×Sm (Formula 1) S=(1−w)×Sa+w×Sm

即ち登録人物画像の画質が高いほど微細構造一致度の寄与を高くした統合一致度を求める。 That is, the higher the image quality of the registered person image is, the higher the contribution of the fine structure matching degree is to the integrated matching degree.

そして人物判定手段117は、統合一致度Sを閾値処理して、その登録人物画像の人物が入力人物画像に写っていると判定する。閾値は統合一致度が取り得る値を事前に実験で最大値を把握しておき、その80%とすることができる。 Then, the person determination unit 117 performs threshold processing on the integrated coincidence degree S and determines that the person of the registered person image is included in the input person image. The threshold value can be set to 80% of the maximum value that the integrated coincidence can take by previously knowing the maximum value through experiments.

あるいは、入力人物画像の画質に応じて重みwを設定してもよい。この場合は実際に撮影された入力人物画像の画質を直接反映させて統合一致度の値を算出することができる。 Alternatively, the weight w may be set according to the image quality of the input person image. In this case, the value of the integrated coincidence degree can be calculated by directly reflecting the image quality of the actually photographed input person image.

<画像監視装置の動作>
以下、図7(a)に示したフローチャートを参照しつつ、本発明を適用した画像監視装置20による画像監視処理の動作を説明する。なお、以下に説明する動作は、入力画像を1つ取得するごとに実行される。
<Operation of image monitoring device>
Hereinafter, the operation of the image monitoring process by the image monitoring apparatus 20 to which the present invention is applied will be described with reference to the flowchart shown in FIG. The operation described below is executed each time one input image is acquired.

ステップS100にて、撮像装置2は、監視領域100を撮影して入力画像を取得し、画像取得部10に入力する。 In step S100, the imaging device 2 captures an input image by capturing an image of the monitoring area 100 and inputs the input image to the image acquisition unit 10.

ステップS110にて、顔検出手段111は、入力画像から適宜周知な方法にて顔領域の検出を試みる。入力画像に人が写っておらず、顔領域が検出できない場合には(ステップS120のNoの分岐)、次の時刻の入力画像の取得を行うべくステップS100に処理を戻す。 In step S110, the face detection unit 111 attempts to detect a face area from the input image by a well-known method. If no person is included in the input image and the face area cannot be detected (No branch of step S120), the process returns to step S100 to acquire the input image at the next time.

顔領域が存在した場合には(ステップS120のYesの分岐)、顔検出手段111は、検出された顔領域の内部から入力人物画像を抽出する(ステップS130)。 When the face area exists (Yes branch of step S120), the face detection unit 111 extracts the input human image from the inside of the detected face area (step S130).

ステップS140にて、顔検出手段111が検出した顔画像の検出サイズを調べて入力人物画像の画質を判定してレベル分けをする。 In step S140, the detected size of the face image detected by the face detection unit 111 is checked to determine the image quality of the input person image and the levels are classified.

画質の評価は、前述のように顔の検出サイズに限られず、他の特徴的な部位どうしの距離や、平均輝度と輝度分散を調べてコントラストを判定しても良い。 The image quality evaluation is not limited to the face detection size as described above, and the contrast may be determined by examining the distance between other characteristic parts, the average brightness and the brightness dispersion.

ステップS150にて、追跡手段114は同一人物と判定できる顔画像を入力画像中で追跡して一まとめにし、系列データとして記憶部12に記憶させる。 In step S150, the tracking unit 114 tracks the face images that can be determined to be the same person in the input image, collects them, and stores them in the storage unit 12 as series data.

ステップS160にて、ステップS140で求めた入力人物画質が閾値を越えずに低品質の場合には、その入力人物画像からは照合結果を出さずに前のステップでの系列データへの追加蓄積に留めることとする(Noの分岐)。 In step S160, when the image quality of the input person obtained in step S140 does not exceed the threshold value and is of low quality, the collation result is not output from the input image of the person and additional accumulation is performed in the series data in the previous step. It will be stopped (No branch).

ただし、図には示さなかったが、図6を用いて説明したように、その系列データの入力人物画質が高品質とならずに追跡が終了した場合には、その中でも最高の入力人物画質の入力人物画像を用いて、以下のステップS170〜S200を行うものとする。 Although not shown in the figure, as described with reference to FIG. 6, when the input person image quality of the series data does not become high quality and the tracking ends, the highest input person image quality among them is obtained. It is assumed that the following steps S170 to S200 are performed using the input person image.

なお、その場合でも不自然なほどに長時間追跡が継続し、入力人物画質が高品質とならないときは、例えば敢えて撮像装置2から遠い位置で周りの状況をうかがうなどのいわゆる不審行動を行う人物である可能性があるので、追跡終了を待たずに、それまでの最高の入力人物画質の入力人物画像を用いてステップS170〜S200を行ってもよい。 Even in that case, if the tracking continues unnaturally for a long time and the image quality of the input person does not become high, for example, a person who performs a so-called suspicious behavior, such as intentionally listening to the surroundings at a position far from the imaging device 2. Therefore, steps S170 to S200 may be performed using the input person image having the highest input person image quality up to that point, without waiting for the end of tracking.

ステップS170〜S200は、入力人物画像が高品質の場合に、照合対象となる登録人物画像ごとに繰り返し実行される。 Steps S170 to S200 are repeatedly executed for each registered person image to be matched when the input person image has high quality.

ステップS170にて、粗構造照合手段115は入力人物画像から粗構造特徴量を求め、微細構造照合手段116は入力人物画像から微細構造特徴量を求め、処理対象となっている登録人物画像について記憶部12の登録者データ121から粗構造特徴量1213、微細構造特徴量1214を読み出し、類似の程度をあらわす粗構造一致度、微細構造一致度を求める。 In step S170, the coarse structure matching unit 115 obtains the coarse structure feature amount from the input human image, the fine structure comparison unit 116 obtains the fine structure feature amount from the input human image, and stores the registered human image to be processed. The coarse structure feature amount 1213 and the fine structure feature amount 1214 are read from the registrant data 121 of the part 12, and the coarse structure coincidence degree and the fine structure coincidence degree representing the degree of similarity are obtained.

処理対象となっている登録人物画像の登録人物画質1215が高品質の場合には(ステップS180のYesの分岐)、人物判定手段117は粗構造一致度が第一の閾値以上であり、かつ微細構造一致度が第二の閾値以上である場合に不審者検知の判定をすることとする(ステップS190、S210、S220)。 When the registered person image quality 1215 of the registered person image to be processed is of high quality (Yes branch of step S180), the person determination unit 117 determines that the coarse structure matching degree is equal to or higher than the first threshold value and is fine. When the structural matching degree is equal to or higher than the second threshold value, the suspicious individual detection is determined (steps S190, S210, S220).

一方で、低品質の場合には(ステップS180のNoの分岐)、人物判定手段117は粗構造一致度が、第一の閾値より大きな第三の閾値以上の場合に不審者の判定をすることとする(ステップS200、S210、S220)。 On the other hand, when the quality is low (No branch of step S180), the person determination means 117 determines the suspicious person when the rough structure matching degree is equal to or higher than the third threshold value larger than the first threshold value. (Steps S200, S210, S220).

ステップS190の代わりに図7(b)に示す動作としても良い。これは統合一致度算出手段118による統合一致度を求める場合である。 The operation shown in FIG. 7B may be performed instead of step S190. This is a case where the integrated coincidence degree calculation unit 118 obtains the integrated coincidence degree.

ステップS300において、統合一致度算出手段118は、粗構造一致度と微細構造一致度とから(式1)により統合一致度を求めるために用いる重みwを決定する。 In step S300, the integrated coincidence degree calculating means 118 determines the weight w used to obtain the integrated coincidence degree from (Equation 1) from the coarse structure coincidence degree and the fine structure coincidence degree.

そしてステップS310において、統合一致度算出手段118は(式1)により統合一致度を求め、ステップS210において、求めた統合一致度を閾値処理して、不審者の判定をすることとし、統合一致度が閾値未満であれば、上記ステップS100へ戻る。一方、統合一致度が閾値以上であれば、登録人物画像の不審者を検知した信号を通報装置3へ出力して、上記ステップS100へ戻る(ステップS220)。 Then, in step S310, the integrated coincidence degree calculating unit 118 obtains the integrated coincidence degree by (Equation 1), and in step S210, the obtained integrated coincidence degree is subjected to threshold processing to determine a suspicious individual. If is less than the threshold value, the process returns to step S100. On the other hand, if the degree of integration coincidence is equal to or more than the threshold value, a signal for detecting a suspicious person in the registered person image is output to the notification device 3, and the process returns to step S100 (step S220).

以上説明してきたように、本発明の実施の形態に係る画像監視装置は、入力人物画質及び登録人物画像の質の程度を表す登録人物画質のいずれもが画質閾値以上の高品質であると粗構造一致度と微細構造一致度とを用いて当該入力人物画像に登録人物画像の人物が撮影されているか否かを判定することにより、精度良く人物判定ができる。 As described above, in the image monitoring apparatus according to the embodiment of the present invention, it is rough that both the input person image quality and the registered person image quality indicating the degree of the quality of the registered person image are high quality equal to or higher than the image quality threshold value. By determining whether or not the person of the registered person image is photographed in the input person image using the degree of structure agreement and the degree of fine structure agreement, it is possible to perform person determination with high accuracy.

また、各登録人物画像および入力人物画像についてその画質を評価して、照合の際に参照し、その画質の高低に応じて、粗構造一致度と微細構造一致度とを用いた統合一致度の算出方法を異ならせることで、他人受理と本人棄却を抑制して精度良く人物判定が出来る。これによって、登録人物画像の画質が低い場合であっても、精度良く人物判定が出来る。また、登録人物画像が低品質ならば微細構造一致度を使わずに、粗構造一致度だけを使って人物判定を行う。このため、人物判定の拠り所となる情報が少ないので、人物判定に用いる閾値として厳しい閾値を用いることにより、他人受理を抑制することができる。 Further, the image quality of each registered person image and the input person image is evaluated, and referred to at the time of matching, and the integrated matching degree using the coarse structure matching degree and the fine structure matching degree is determined according to the level of the image quality. By making the calculation method different, it is possible to suppress the acceptance of others and the rejection of the person and to accurately determine the person. As a result, even if the image quality of the registered person image is low, the person can be accurately determined. If the registered person image is of low quality, the person determination is performed using only the coarse structure matching degree without using the fine structure matching degree. Therefore, since there is little information on which the person determination is based, it is possible to suppress the acceptance of others by using a strict threshold as the threshold used for the person determination.

また、統合一致度を求める場合、登録人物画像および入力人物画像のそれぞれが高品質であるほど微細構造一致度の情報を有効活用できるため、他人受理を抑制することができる。 Further, when obtaining the integrated coincidence degree, the higher the quality of each of the registered person image and the input person image, the more effectively the information of the fine structure coincidence degree can be used, so that the acceptance of others can be suppressed.

また、入力人物画像で追跡している人物を表す入力人物画像がどこかの時点で高品質になることを想定して、高品質でない入力人物画像を用いた人物判定は行わないようにするが、高品質の入力人物画像が得られなかった場合、単純に人物判定をしないのは、それが目的の不審者であった場合には見逃しになる。そこで、系列データの中で最高の画質の入力人物画像を用いて人物判定を行うことにより、なるべく信用できる人物判定結果を得ることができる。 In addition, assuming that the input person image representing the person tracked by the input person image becomes high quality at some point, the person determination using the input person image that is not high quality is not performed. If the high-quality input person image is not obtained, the person determination is not simply performed, but if the person is a target suspicious person, it is overlooked. Therefore, by performing the person determination using the input person image having the highest image quality in the series of data, it is possible to obtain a person determination result that is as trustworthy as possible.

<変形例>
以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、本実施形態では、顔の粗構造としての顔部位に関する粗構造特徴量と、顔部位より微細な構造に関する微細構造特徴量とを用いた顔照合を行う例について説明したが、これに限定されるものではない。
<Modification>
Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments. For example, in the present embodiment, an example has been described in which face matching is performed using a rough structure feature amount regarding a face part as a rough face structure and a fine structure feature amount regarding a structure finer than the face part. However, the present invention is not limited to this. It is not something that will be done.

例えば、入力人物画像、登録人物画像のそれぞれから、人物の全身を表す全身画像を検出し、全身の粗構造に関する粗構造特徴量とそれより微細な構造に関する微細構造特徴量とを抽出して、人物照合を行うようにしてもよい。具体的には、全身の粗構造としての、背格好、体型(肥満型、痩身型、スポーツマン型、など)、身長(小柄、中背、大柄)、服の色や上下の組み合わせなどに関する粗構造特徴量を抽出すると共に、それより微細な構造としての、顔つき(目鼻口の形、顔の輪郭(丸顔、面長))、服やネクタイの柄に関する微細特徴量を抽出して、人物照合を行ってもよい。 For example, from each of the input person image and the registered person image, a whole-body image representing the whole body of the person is detected, and a coarse structure feature amount related to a coarse structure of the whole body and a fine structure feature amount related to a finer structure thereof are extracted, Person verification may be performed. Specifically, as a rough structure of the whole body, the rough shape, body type (obesity type, slimming type, sportsman type, etc.), height (small size, middle height, large size), color of clothes and combination of upper and lower clothes, etc. In addition to extracting the structural features, the facial features (eye nose and mouth shape, face outline (round face, face length)), and the fine features related to the pattern of clothes and neckties as finer structures are also extracted, You may collate.

以上のように、当業者は本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications according to the embodiment within the scope of the present invention.

1 顔照合装置
2 撮像装置
3 通報装置
10 画像取得部
11 画像処理部
12 記憶部
13 出力部
20 画像監視装置
111 顔検出手段
112 特徴点抽出手段
113 品質評価手段
114 追跡手段
115 粗構造照合手段
116 微細構造照合手段
117 人物判定手段
118 統合一致度算出手段
DESCRIPTION OF SYMBOLS 1 Face collation device 2 Imaging device 3 Notification device 10 Image acquisition unit 11 Image processing unit 12 Storage unit 13 Output unit 20 Image monitoring device 111 Face detection means 112 Feature point extraction means 113 Quality evaluation means 114 Tracking means 115 Rough structure matching means 116 Fine structure collating means 117 Person judging means 118 Integrated coincidence degree calculating means

Claims (5)

所定の領域を撮影した撮影画像を取得する画像取得手段と、
前記撮影画像から入力人物画像を検出する検出手段と、
人物を構成している粗い構造に関する画像特徴を表す粗構造特徴量、及び人物における細かい微細構造に関する画像特徴を表す微細構造特徴量であって、対象人物を撮影した登録人物画像から抽出された前記粗構造特徴量及び前記微細構造特徴量を前記対象人物ごとに記憶している記憶手段と、
前記入力人物画像の質の程度を表す入力人物画質を評価する品質評価手段と、
前記入力人物画像から前記粗構造特徴量を抽出して前記記憶手段に記憶されている粗構造特徴量との粗構造一致度を算出する粗構造照合手段と、
前記入力人物画像から前記微細構造特徴量を抽出して前記記憶手段に記憶されている微細構造特徴量との微細構造一致度を算出する微細構造照合手段と、
前記粗構造一致度を少なくとも用いて前記入力人物画像に前記対象人物が撮影されているか否かを判定する人物判定手段と、
を備え、
前記人物判定手段は、
前記入力人物画質及び前記登録人物画像の質の程度を表す登録人物画質のいずれもが画質閾値以上の高品質であると前記粗構造一致度と前記微細構造一致度とを用いて当該入力人物画像に前記対象人物が撮影されているか否かを判定する
ことを特徴とする人物照合装置。
An image acquisition unit that acquires a captured image of a predetermined area,
Detecting means for detecting an input person image from the photographed image;
A coarse structure feature amount representing image features relating to a coarse structure forming a person, and a fine structure feature amount representing image features relating to a fine fine structure in the person, which are extracted from a registered person image of a target person. Storage means for storing the coarse structure feature amount and the fine structure feature amount for each of the target persons,
A quality evaluation means for evaluating the image quality of the input person, which represents the degree of quality of the input person image;
A rough structure matching unit that extracts the rough structure feature amount from the input person image and calculates a rough structure matching degree with the rough structure feature amount stored in the storage unit;
A fine structure matching unit that extracts the fine structure feature amount from the input human image and calculates a fine structure matching degree with the fine structure feature amount stored in the storage unit;
A person determination unit that determines whether or not the target person is photographed in the input person image using at least the rough structure matching degree,
Equipped with
The person determination means,
If both the input person image quality and the registered person image quality indicating the degree of quality of the registered person image are high quality equal to or higher than the image quality threshold value, the input person image is calculated using the coarse structure coincidence degree and the fine structure coincidence degree. A person collation apparatus for determining whether or not the target person is photographed.
前記人物判定手段は、
前記入力人物画質と前記登録人物画質のいずれもが前記高品質である場合は前記粗構造一致度が第一閾値以上であり且つ前記微細構造一致度が第二閾値以上である場合に前記入力人物画像に前記対象人物が撮影されていると判定し、
前記入力人物画質が前記高品質であるが前記登録人物画像が前記画質閾値未満の低品質である場合は前記粗構造一致度が前記第一閾値よりも高い第三閾値以上である場合に前記入力人物画像に前記対象人物が撮影されていると判定する
ことを特徴とした請求項1に記載の人物照合装置。
The person determination means,
When both of the input person image quality and the registered person image quality are the high quality, the input person when the coarse structure matching degree is a first threshold value or more and the fine structure matching degree is a second threshold value or more It is determined that the target person is photographed in the image,
If the input person image quality is the high quality but the registered person image is of a low quality less than the image quality threshold value, the input is performed when the coarse structure matching degree is equal to or higher than a third threshold value higher than the first threshold value. The person matching apparatus according to claim 1, wherein the person matching unit determines that the target person is photographed in the person image.
前記人物判定手段は、
前記入力人物画質と前記登録人物画質のいずれもが前記高品質である場合は前記粗構造一致度と前記微細構造一致度とを統合した統合一致度を算出し、当該統合一致度から当該入力人物画像に前記対象人物が撮影されているか否かを判定し、
前記入力人物画質が前記高品質であるが前記登録人物画像が前記画質閾値未満の低品質である場合は前記粗構造一致度から当該入力人物画像に前記対象人物が撮影されているか否かを判定する
ことを特徴とした請求項1に記載の人物照合装置。
The person determination means,
When both the input person image quality and the registered person image quality are the high quality, an integrated coincidence degree obtained by integrating the coarse structure coincidence degree and the fine structure coincidence degree is calculated, and the input person image is calculated from the integrated coincidence degree. Determine whether the target person is photographed in the image,
If the image quality of the input person is the high quality, but the registered person image is of a low quality less than the image quality threshold value, it is determined from the rough structure matching degree whether or not the target person is photographed in the input person image. The person verification apparatus according to claim 1, wherein
前記人物判定手段は、
前記入力人物画質と前記登録人物画質のいずれもが前記高品質である場合は前記登録人物画質が高いほど前記統合一致度に対する前記微細構造一致度の寄与を高くして前記統合一致度を算出する
ことを特徴とする請求項3に記載の人物照合装置。
The person determination means,
When both the input person image quality and the registered person image quality are the high quality, the higher the registered person image quality, the higher the contribution of the fine structure coincidence degree to the integrated coincidence degree is to calculate the integrated coincidence degree. The person verification apparatus according to claim 3, wherein the person verification apparatus is a person verification apparatus.
前記人物照合装置は、さらに、
順次取得される複数の前記撮影画像から検出された前記入力人物画像を同一人物について追跡し、追跡できた入力人物画像を対応付けた系列データを生成する追跡手段
を備え、
前記人物判定手段は、
前記系列データごとに、当該系列データに含まれる前記入力人物画像についての前記入力人物画質のうち最高の前記入力人物画質が前記画質閾値未満の低品質であると前記粗構造一致度が前記第一閾値よりも高い第三閾値以上である場合に当該系列データに含まれる入力人物画像に前記対象人物が撮影されていると判定する
ことを特徴とする請求項に記載の人物照合装置。
The person verification device further includes
Tracking means for tracking the input person images detected from the plurality of captured images sequentially acquired for the same person, and generating series data in which the traceable input person images are associated with each other,
The person determination means,
For each of the series data, if the highest input person image quality of the input person image quality of the input person image included in the series data is low quality that is less than the image quality threshold, the coarse structure matching degree is the first. The person collation apparatus according to claim 2 , wherein when the number is equal to or more than a third threshold value higher than the threshold value, it is determined that the target person is captured in the input person image included in the series data.
JP2018050613A 2018-03-19 2018-03-19 Person matching device Active JP6739459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018050613A JP6739459B2 (en) 2018-03-19 2018-03-19 Person matching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018050613A JP6739459B2 (en) 2018-03-19 2018-03-19 Person matching device

Publications (2)

Publication Number Publication Date
JP2019164422A JP2019164422A (en) 2019-09-26
JP6739459B2 true JP6739459B2 (en) 2020-08-12

Family

ID=68065622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018050613A Active JP6739459B2 (en) 2018-03-19 2018-03-19 Person matching device

Country Status (1)

Country Link
JP (1) JP6739459B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228731A1 (en) * 2022-05-26 2023-11-30 日本電気株式会社 Information processing device, authentication system, information processing method, non-transitory computer-readable medium, trained model, and method for generating trained model
CN116311383B (en) * 2023-05-16 2023-07-25 成都航空职业技术学院 Intelligent building power consumption management system based on image processing
KR102638382B1 (en) * 2023-07-04 2024-02-20 주식회사 포딕스시스템 System and method for object identification using region-of-interest super-resolution

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2866461B2 (en) * 1990-09-14 1999-03-08 富士通株式会社 Fingerprint collation device
EP1636734A2 (en) * 2003-06-21 2006-03-22 Aprilis, Inc. Method and apparatus for processing biometric images
JP4992289B2 (en) * 2006-05-11 2012-08-08 コニカミノルタホールディングス株式会社 Authentication system, authentication method, and program

Also Published As

Publication number Publication date
JP2019164422A (en) 2019-09-26

Similar Documents

Publication Publication Date Title
US7970180B2 (en) Method, apparatus, and program for processing red eyes
US8891819B2 (en) Line-of-sight detection apparatus and method thereof
KR101280920B1 (en) Image recognition apparatus and method
KR101108835B1 (en) Face authentication system and the authentication method
JP5076563B2 (en) Face matching device
CN110059644A (en) A kind of biopsy method based on facial image, system and associated component
JP6739459B2 (en) Person matching device
JP5106356B2 (en) Image monitoring device
KR20190089387A (en) Liveness test method and apparatus
JP6222948B2 (en) Feature point extraction device
JP2008146539A (en) Face authentication device
JP2007094637A (en) Face image authentication device
JP5955031B2 (en) Face image authentication device
JP5726596B2 (en) Image monitoring device
JP2003150942A (en) Eye position tracing method
JP6396357B2 (en) Face image authentication device
JPWO2019017080A1 (en) Verification device and verification method
JP4862518B2 (en) Face registration device, face authentication device, and face registration method
JP5730044B2 (en) Face image authentication device
JP2010014783A (en) Photographing device
JP5101429B2 (en) Image monitoring device
JP2008090452A (en) Detection device, method and program
JP2005149370A (en) Imaging device, personal authentication device and imaging method
JP6150509B2 (en) Face recognition device
JP5726595B2 (en) Image monitoring device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200721

R150 Certificate of patent or registration of utility model

Ref document number: 6739459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250