JP2017062633A - Image collation device and image collation method - Google Patents

Image collation device and image collation method Download PDF

Info

Publication number
JP2017062633A
JP2017062633A JP2015187517A JP2015187517A JP2017062633A JP 2017062633 A JP2017062633 A JP 2017062633A JP 2015187517 A JP2015187517 A JP 2015187517A JP 2015187517 A JP2015187517 A JP 2015187517A JP 2017062633 A JP2017062633 A JP 2017062633A
Authority
JP
Japan
Prior art keywords
image data
weight
input image
registered
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015187517A
Other languages
Japanese (ja)
Other versions
JP6671133B2 (en
Inventor
中嶋 康博
Yasuhiro Nakajima
康博 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2015187517A priority Critical patent/JP6671133B2/en
Publication of JP2017062633A publication Critical patent/JP2017062633A/en
Application granted granted Critical
Publication of JP6671133B2 publication Critical patent/JP6671133B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To conduct correct and efficient image collation even when a mode of an object included in input image data and registration image data is different.SOLUTION: When a front face image of a person is included in registration image data A1, and a front face image of a person is included in input image data B1, a part of a front face upper part shown by a slant line in FIG. is made more weighted as a characteristic part. When the front face image of the person is included in the registration image data A1, and a lateral face image of the person is included in input image data B2, a characteristic part of the person shown by a white area in FIG. is made less weighted. Accordingly, on the basis of a direction of the person in the registration image data A and the input image data B, the weight of the characteristic part is varied to thereby conduct correct collation processing with the characteristic part taken into consideration.SELECTED DRAWING: Figure 1

Description

本発明は、監視カメラ等で撮影された入力画像データに含まれる人物や車両等の対象物と登録画像データに含まれる対象物の態様が異なる場合に、正確かつ効率的に画像照合を行う画像照合装置及び画像照合方法に関する。   The present invention provides an image for accurately and efficiently performing image matching when the object such as a person or vehicle included in the input image data photographed by a monitoring camera or the like and the object included in the registered image data are different from each other. The present invention relates to a collation device and an image collation method.

従来、入力画像データに含まれる対象物と、あらかじめ登録された登録画像データに含まれる対象物とを色特徴を用いて照合することで、入力画像データから特定の対象物を検出する技術が知られている。   Conventionally, a technique for detecting a specific object from input image data by comparing an object included in input image data with an object included in registered image data registered in advance using color features is known. It has been.

例えば、特許文献1には、物体の領域全体を高さ毎の領域に分割し、分割された各領域の色を抽出して平均化し、平均化された高さ毎の領域の色に基づいて物体全体の高さ毎の色特徴分布を作成し、各物体の色特徴分布と比較すべき物体の色特徴分布との比較に基づいて物体と比較すべき物体の同定を行う物体の同定方法が開示されている。   For example, in Patent Document 1, the entire region of an object is divided into regions for each height, the colors of the divided regions are extracted and averaged, and based on the averaged region colors for each height. There is an object identification method that creates a color feature distribution for each height of the entire object and identifies the object to be compared with the object based on the comparison of the color feature distribution of each object with the color feature distribution of the object to be compared. It is disclosed.

また、特許文献2には、第1の撮影手段で撮影された登録画像データに基づいて人物の衣服特徴に関する情報を抽出してデータベース化しておき、他の環境において、1または2以上の第2の撮影手段で撮影された入力画像データに基づいて人物の衣服特徴に関する情報を抽出し、データベースとの照合を行って入力画像データに含まれる所定の人物を検索する人物検索システムが開示されている。   Further, in Patent Document 2, information related to the clothing characteristics of a person is extracted based on the registered image data photographed by the first photographing means and stored in a database. In other environments, one or two or more second A person search system is disclosed that extracts information on clothes characteristics of a person based on input image data photographed by the photographing means and searches a predetermined person included in the input image data by collating with the database. .

特開2005−250692号公報Japanese Patent Laid-Open No. 2005-250692 特開2013−186546号公報JP 2013-186546 A

しかしながら、上記特許文献1及び2に代表される従来技術のものは、入力画像データに含まれる人物の向きや姿勢が登録画像データに含まれる人物の向きや姿勢と異なる場合には、人物を正確に同定できない可能性がある。人物の向きや姿勢が異なると、色特徴分布や衣服特徴が異なってしまうからである。   However, in the related art represented by Patent Documents 1 and 2, when the orientation and orientation of the person included in the input image data are different from the orientation and orientation of the person included in the registered image data, the person is accurately identified. May not be identified. This is because the color feature distribution and clothing features differ if the orientation and posture of the person differ.

また、入力画像データに含まれる人物がカバンや杖などの所持品を所持しているにも関わらず、登録画像データに含まれる人物が所持品を所持していない場合には、同一人であっても色特徴分布や衣服特徴に差違が生じ、誤って他人であると判定される可能性がある。   In addition, if the person included in the input image data has personal belongings such as a bag or a cane but the person included in the registered image data does not have personal belongings, the person is the same person. However, there may be a difference in color feature distribution and clothing features, and it may be erroneously determined that the person is another person.

これらのことから、入力画像データと登録画像データに含まれる人物等の向き、姿勢、所持品等の態様が異なる場合に、いかに正確かつ効率的に画像照合を行うかが重要な課題となっている。かかる課題は、人物を対象とする場合にのみ生ずる課題ではなく、車両等の他の対象物を対象とする場合にも同様に生ずる課題である。   For these reasons, it is an important issue how to perform image matching accurately and efficiently when the input image data and registered image data have different orientations, postures, belongings, etc. Yes. Such a problem is not only a problem that occurs only when a person is targeted, but also a problem that occurs when another object such as a vehicle is targeted.

本発明は、上記従来技術の課題を解決するためになされたものであって、入力画像データと登録画像データに含まれる対象物の態様が異なる場合であっても、正確かつ効率的に画像照合を行うことができる画像照合装置及び画像照合方法を提供することを目的とする。   The present invention has been made in order to solve the above-described problems of the prior art, and is capable of accurately and efficiently performing image verification even when input image data and registered image data have different object forms. An object of the present invention is to provide an image collation apparatus and an image collation method capable of performing the above.

上記の課題を解決するため、本発明は、所定の対象物が映り込んだ入力画像データと、あらかじめ登録された登録画像データとを照合処理する画像照合装置であって、前記入力画像データ及び/又は前記登録画像データの対象物の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定部と、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部とを備えたことを特徴とする。   In order to solve the above-described problems, the present invention provides an image collation apparatus that collates input image data in which a predetermined object is reflected and registered image data registered in advance, and the input image data and / or Alternatively, based on the correspondence relationship between the input image data and the registered image data, the weight target region specifying unit that divides the target object region of the registered image data and specifies the weight target region that forms a part of the divided region. A weight determination unit that determines a weight to be given to the weight target region, and a verification that applies the weight determined by the weight determination unit to the weight target region and performs a verification process on the input image data and the registered image data And a processing unit.

また、本発明は、上記の発明において、前記重み決定部は、前記入力画像データに含まれる対象物の態様と、前記登録画像データに含まれる対象物の態様とが一致又は類似する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる対象物の態様と、前記登録画像データに含まれる対象物の態様とが類似しない場合には、前記重み対象領域に付与する重みを下げることを特徴とする。   Also, in the present invention according to the above invention, the weight determination unit may be configured such that the aspect of the object included in the input image data and the aspect of the object included in the registered image data match or are similar to each other. , Increase the weight to be given to the weight target area, and if the aspect of the target object included in the input image data and the aspect of the target object included in the registered image data are not similar, give to the weight target area It is characterized by lowering the weight to be performed.

また、本発明は、上記の発明において、前記重み決定部は、前記入力画像データに含まれる対象物の向きと、前記登録画像データに含まれる対象物の向きとが一致する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる対象物の向きと、前記登録画像データに含まれる対象物の向きとが一致しない場合には、前記重み対象領域に付与する重みを下げることを特徴とする。   Further, the present invention is the above invention, wherein the weight determination unit, when the direction of the object included in the input image data and the direction of the object included in the registered image data match, The weight given to the weight target area is increased when the weight given to the weight target area is increased, and the direction of the target included in the input image data does not match the direction of the target included in the registered image data It is characterized by lowering.

また、本発明は、上記の発明において、前記重み決定部は、前記入力画像データに含まれる前記対象物に特徴部が存在し、かつ、前記登録画像データに含まれる前記対象物に前記特徴部が存在する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に特徴部が存在しない場合には、前記重み対象領域に付与する重みを下げることを特徴とする。   Also, in the present invention according to the above invention, the weight determination unit includes a feature in the object included in the input image data, and the feature in the object included in the registered image data. If there is a feature in one of the input image data or the registered image data, the weight to be given to the weight target area is lowered. It is characterized by.

また、本発明は、上記の発明において、前記照合処理部は、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データの重み付きヒストグラムをそれぞれ算定し、算定した重み付きヒストグラムに基づいて、前記入力画像データ及び前記登録画像データを照合処理することを特徴とする。   Further, according to the present invention, in the above invention, the collation processing unit applies a weighted histogram of the input image data and the registered image data while applying the weight determined by the weight determination unit to the weight target region. The input image data and the registered image data are collated based on the calculated weighted histograms.

また、本発明は、上記の発明において、前記照合処理部は、前記入力画像データ及び前記登録画像データをそれぞれ色又は濃淡が類似する小領域に分割し、前記重み対象領域に対応する小領域に対して前記重み決定部により決定された重みを適用しつつ、前記入力画像データの小領域と前記登録画像データの小領域とを照合処理することを特徴とする。   Further, according to the present invention, in the above invention, the collation processing unit divides the input image data and the registered image data into small regions having similar colors or shades, and defines the small regions corresponding to the weight target regions. On the other hand, the small area of the input image data and the small area of the registered image data are collated while applying the weight determined by the weight determining unit.

また、本発明は、所定の対象物が映り込んだ入力画像データと、あらかじめ登録された登録画像データとを照合処理する画像照合装置における画像照合方法であって、前記入力画像データ及び/又は前記登録画像データの対象物の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定ステップと、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定ステップと、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理ステップとを含んだことを特徴とする。   Further, the present invention is an image collating method in an image collating apparatus for collating input image data in which a predetermined object is reflected and registered image data registered in advance, wherein the input image data and / or the input image data Based on the correspondence relationship between the input image data and the registered image data, the weight target region specifying step for dividing the region of the object of the registered image data and specifying the weight target region that forms a part of the divided region, A weight determining step for determining a weight to be given to the weight target region; and a collation processing step for performing the collation processing on the input image data and the registered image data while applying the weight determined by the weight determining unit to the weight target region. It is characterized by including.

本発明によれば、所定の対象物が映り込んだ入力画像データと、あらかじめ登録された登録画像データとを照合処理する画像照合装置であって、前記入力画像データ及び/又は前記登録画像データの一部をなす重み対象領域を特定する重み対象領域特定部と、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部とを備えるよう構成したので、入力画像と登録画像に含まれる対象物の態様が異なる場合であっても、正確かつ効率的に画像照合を行うことができる。   According to the present invention, there is provided an image collation apparatus that collates input image data in which a predetermined object is reflected and registered image data registered in advance, wherein the input image data and / or the registered image data A weight target area specifying unit for specifying a part of the weight target area; a weight determining unit for determining a weight to be given to the weight target area based on a correspondence relationship between the input image data and the registered image data; The input image and the registered image are included because the input image data and the registered image data are collated while applying the weight determined by the weight determining unit to the weight target area. Even if the object has a different aspect, image collation can be performed accurately and efficiently.

図1は、実施例1に係る画像照合装置の特徴を説明するための説明図である。FIG. 1 is an explanatory diagram for explaining the features of the image matching apparatus according to the first embodiment. 図2は、実施例1に係る画像照合装置の構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating the configuration of the image collating apparatus according to the first embodiment. 図3は、図1に示した画像照合装置の処理手順を示すフローチャートである。FIG. 3 is a flowchart showing a processing procedure of the image collating apparatus shown in FIG. 図4は、図3に示した前処理の処理手順を示すフローチャートである。FIG. 4 is a flowchart showing a processing procedure of the preprocessing shown in FIG. 図5は、図4に示した前処理を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining the preprocessing shown in FIG. 図6は、図4に示したヒストグラムの平坦化を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining the flattening of the histogram shown in FIG. 図7は、ヒストグラムの平坦化の概念を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining the concept of histogram flattening. 図8は、図3に示した重み設定処理の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure of the weight setting process shown in FIG. 図9は、重み対象領域特定部による部位の推定についての説明図である。FIG. 9 is an explanatory diagram for estimating a part by the weight target area specifying unit. 図10は、重み対象領域の特定についての説明図である。FIG. 10 is an explanatory diagram for specifying the weight target area. 図11は、重み決定部による重みの決定についての説明図である。FIG. 11 is an explanatory diagram for determining the weight by the weight determination unit. 図12は、図3に示した照合スコアSHSVの算定の処理手順を示すフローチャートである。FIG. 12 is a flowchart showing a processing procedure for calculating the matching score S HSV shown in FIG. 図13は、照合スコアSHSVの算定についての説明図である。FIG. 13 is an explanatory diagram for calculating the matching score S HSV . 図14は、図3に示した照合スコアSSEGの算定の処理手順を示すフローチャートである。FIG. 14 is a flowchart showing a processing procedure for calculating the matching score S SEG shown in FIG. 図15は、照合スコアSSEGの算定についての説明図である。FIG. 15 is an explanatory diagram for calculating the matching score S SEG . 図16は、実施例2に係る画像照合装置の特徴を説明するための説明図である。FIG. 16 is an explanatory diagram for explaining the features of the image matching apparatus according to the second embodiment. 図17は、実施例2に係る画像照合装置の構成を示す機能ブロック図である。FIG. 17 is a functional block diagram illustrating the configuration of the image collating apparatus according to the second embodiment. 図18は、図17に示した画像照合装置の処理手順を示すフローチャートである。FIG. 18 is a flowchart showing a processing procedure of the image collating apparatus shown in FIG.

以下、添付図面を参照して、本発明に係る画像照合装置及び画像照合方法の実施例を説明する。なお、以下に示す実施例1では、登録画像データ及び入力画像データにそれぞれ含まれる人物の向きを利用して重みを決定する場合について説明し、実施例2では、登録画像データ及び入力画像データにそれぞれ含まれる人物の所持品を利用して重みを決定する場合について説明することとする。   Embodiments of an image matching apparatus and an image matching method according to the present invention will be described below with reference to the accompanying drawings. In the first embodiment described below, a case where weights are determined using the orientations of persons included in registered image data and input image data will be described. In the second embodiment, registered image data and input image data A case will be described in which the weight is determined using the personal belongings included in each.

まず、本実施例1に係る画像照合装置の特徴について説明する。図1は、本実施例1に係る画像照合装置の特徴を説明するための説明図である。なお、ここでは登録画像データA及び入力画像データBを人物の洋服など外観上の色の一致度を用いて照合処理する場合を示すこととする。監視カメラから取得された画像データからは、十分な解像度を持った画像データが得られない場合があり、顔照合等の詳細な形状特徴に基づく照合処理を行えない場合があるためである。   First, features of the image collating apparatus according to the first embodiment will be described. FIG. 1 is an explanatory diagram for explaining the features of the image matching apparatus according to the first embodiment. Here, a case is shown in which the registered image data A and the input image data B are collated using the degree of matching of appearance colors such as a person's clothes. This is because there may be cases where image data having sufficient resolution cannot be obtained from the image data acquired from the surveillance camera, and collation processing based on detailed shape features such as face collation may not be performed.

図1(a)に示すように、登録画像データA1には人物の正面像が含まれ、入力画像データB1には人物の正面像が含まれている場合には、図中に斜線で示す人物の正面上部を特徴部分としてその重みを大きくする。図中に斜線で示す人物の正面上部は、特徴的な色合いが現れることが多いためである。ただし、人物の正面上部以外の他の部分を特徴部分とすることもできる。   As shown in FIG. 1A, when the registered image data A1 includes a front image of a person and the input image data B1 includes a front image of a person, the person indicated by diagonal lines in the figure. The weight is increased with the upper part of the front as a characteristic part. This is because the upper part of the front of the person indicated by hatching in the figure often has a characteristic hue. However, a portion other than the upper front portion of the person can be used as the characteristic portion.

一方、図1(b)に示すように、登録画像データA1には人物の正面像が含まれ、入力画像データB2には人物の側面像が含まれている場合には、図中に白領域で示す人物の特徴部分の重みを小さくする。入力画像データB2には人物の正面上部が現れないためである。   On the other hand, as shown in FIG. 1B, when the registered image data A1 includes a front image of a person and the input image data B2 includes a side image of a person, The weight of the characteristic part of the person indicated by is reduced. This is because the upper front part of the person does not appear in the input image data B2.

このように、登録画像データA及び入力画像データBを人物の向きに基づいて、特徴部分の重みを変化させることにより、特徴部分を考慮した正確な照合処理を行うことが可能となる。   As described above, the registered image data A and the input image data B can be accurately collated in consideration of the feature portion by changing the weight of the feature portion based on the orientation of the person.

次に、本実施例1に係る画像照合装置の構成について説明する。図2は、本実施例1に係る画像照合装置の構成を示す機能ブロック図である。図2に示すように画像照合装置20は、カメラ10、操作部30及び表示部40と接続される。   Next, the configuration of the image matching device according to the first embodiment will be described. FIG. 2 is a functional block diagram illustrating the configuration of the image collating apparatus according to the first embodiment. As shown in FIG. 2, the image matching device 20 is connected to the camera 10, the operation unit 30, and the display unit 40.

カメラ10は、周囲を撮像する監視カメラなどの撮像装置である。画像照合装置20は、カメラ10により撮像された撮像データから人物の像を含む領域を切り出して、入力画像データBとして用いる。カメラ10は、1つである必要は無く、複数の撮像装置をそれぞれカメラ10として利用することができる。   The camera 10 is an imaging device such as a surveillance camera that images the surroundings. The image collation device 20 cuts out a region including a human image from the image data captured by the camera 10 and uses it as input image data B. The number of cameras 10 is not necessarily one, and a plurality of imaging devices can be used as each camera 10.

操作部30は、キーボード、マウス、専用の操作パネルなど、操作者の操作入力を受け付ける入力インタフェースである。表示部40は、液晶ディスプレイ等の表示出力を行う出力インタフェースである。   The operation unit 30 is an input interface that receives an operation input from an operator, such as a keyboard, a mouse, and a dedicated operation panel. The display unit 40 is an output interface that performs display output of a liquid crystal display or the like.

画像照合装置20は、その内部に記憶部21及び制御部22を有する。記憶部21は、ハードディスク装置や不揮発性メモリ等の記憶デバイスであり、登録データ21aを記憶する。また、記憶部21は、照合の過程において生成される候補画像リスト21bの記憶に用いられる。   The image matching device 20 includes a storage unit 21 and a control unit 22 therein. The storage unit 21 is a storage device such as a hard disk device or a nonvolatile memory, and stores registration data 21a. The storage unit 21 is used to store a candidate image list 21b generated in the verification process.

登録データ21aは、複数の登録画像データAを有し、各登録画像データAには向きデータが対応付けられている。複数の登録画像データAは、例えば異なる人物についてそれぞれ生成したものであり、1つの登録画像データAには人物の像が1つ含まれている。向きデータは、対応する登録画像データAにおける人物の向きを示す。図2では、登録画像データA1に向きデータA1aを対応付けた状態を示している。   The registered data 21a has a plurality of registered image data A, and each registered image data A is associated with orientation data. The plurality of registered image data A are generated for different persons, for example, and one registered image data A includes one person image. The orientation data indicates the orientation of the person in the corresponding registered image data A. FIG. 2 shows a state in which the orientation data A1a is associated with the registered image data A1.

候補画像リスト21bは、後述する照合において、入力画像データBとの類似度がしきい値以上となる登録画像データAのリストである。すなわち、候補画像リスト21bは、入力画像データBに示された人物と一致する可能性のある人物の候補を示す。   The candidate image list 21b is a list of registered image data A whose similarity with the input image data B is equal to or greater than a threshold value in the collation described later. In other words, the candidate image list 21b indicates candidates for a person who may match the person shown in the input image data B.

制御部22は、画像照合装置20を全体制御する制御部であり、前処理部22a、重み対象領域特定部22b、重み決定部22c、トータルスコア算出部22d、判定処理部22e及び表示制御部22fを有する。実際には、これらの機能部に対応するプログラムを図示しないROMや不揮発性メモリに記憶しておき、これらのプログラムをCPU(Central Processing Unit)にロードして実行することにより、前処理部22a、重み対象領域特定部22b、重み決定部22c、トータルスコア算出部22d、判定処理部22e及び表示制御部22fにそれぞれ対応するプロセスを実行させることになる。   The control unit 22 is a control unit that controls the entire image collating apparatus 20, and includes a pre-processing unit 22a, a weight target region specifying unit 22b, a weight determining unit 22c, a total score calculating unit 22d, a determination processing unit 22e, and a display control unit 22f. Have. Actually, programs corresponding to these functional units are stored in a ROM or a non-volatile memory (not shown), and these programs are loaded into a CPU (Central Processing Unit) and executed, whereby the preprocessing unit 22a, Processes corresponding to the weight target area specifying unit 22b, the weight determining unit 22c, the total score calculating unit 22d, the determination processing unit 22e, and the display control unit 22f are executed.

前処理部22aは、照合の前処理として、カメラ10により撮像された撮像データから入力画像データBを生成する処理部である。具体的には、前処理部22aは、撮像データから人物の像を検出し、人物の向きを推定し、人物の像を含む領域を人物領域として切り出す。そして、切り出した人物領域の大きさを正規化し、画素のヒストグラムを平坦化して入力画像データBを生成する。   The preprocessing unit 22a is a processing unit that generates input image data B from imaged data captured by the camera 10 as preprocessing for collation. Specifically, the pre-processing unit 22a detects a person image from the imaging data, estimates the direction of the person, and cuts out an area including the person image as a person area. Then, the size of the cut-out human region is normalized, and the input image data B is generated by flattening the pixel histogram.

重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について、人物の部位を推定し、推定した部位から重み対象領域を特定する処理部である。重み対象領域としては、人物の部位のうち、人物の特徴を多く含む特徴部分を用いる。例えば、人物の正面上部は、人物の特徴を多く含む特徴部分であり、この特徴部分を重み対象領域とする。   The weight target area specifying unit 22b is a processing unit that estimates a human part of a person image included in the registered image data A and the input image data B, and specifies a weight target area from the estimated part. As the weight target region, a feature portion including many features of the person among the portions of the person is used. For example, the upper front part of the person is a feature part including many features of the person, and this feature part is set as a weight target region.

重み決定部22cは、登録画像データA及び入力画像データBの対応関係に基づいて、重み対象領域に付与する重みを決定する処理部である。ここで、重み決定部22cは、登録画像データA及び入力画像データBの対応関係に、人物の向きを利用する。   The weight determination unit 22c is a processing unit that determines the weight to be given to the weight target region based on the correspondence relationship between the registered image data A and the input image data B. Here, the weight determination unit 22c uses the orientation of the person for the correspondence between the registered image data A and the input image data B.

具体的には、重み決定部22cは、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きとが一致する場合には、重み対象領域に付与する重みを上げる。一方、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きとが一致しない場合には、重み対象領域に付与する重みを下げる。   Specifically, the weight determination unit 22c sets the weight target area when the orientation of the person estimated for the input image data B matches the orientation indicated in the orientation data corresponding to the registered image data A. Increase the weight to be given. On the other hand, if the orientation of the person estimated for the input image data B does not match the orientation indicated in the orientation data corresponding to the registered image data A, the weight assigned to the weight target area is lowered.

トータルスコア算出部22dは、重み決定部22cにより決定された重みを重み対象領域に適用し、適用した重みに基づき入力画像データBと登録画像データAを照合処理し、一致度合を示すトータルスコアを算出する処理部である。   The total score calculation unit 22d applies the weight determined by the weight determination unit 22c to the weight target region, collates the input image data B and the registered image data A based on the applied weight, and calculates a total score indicating the degree of matching. It is a processing unit.

具体的には、トータルスコア算出部22dは、人物の部位毎に一致度合を評価した評価値である照合スコアSHSVと、色が類似する小領域毎に一致度合を評価した評価値である照合スコアSSEGとを算定し、照合スコアSHSVと照合スコアSSEGの合計をトータルスコアとして算出する。照合スコアSHSV及び照合スコアSSEGの具体的な算出処理については後述する。 Specifically, the total score calculation unit 22d has a matching score S HSV that is an evaluation value obtained by evaluating the degree of matching for each part of the person and a matching score that is an evaluation value obtained by evaluating the degree of matching for each small region having a similar color. S SEG is calculated, and the total of the matching score S HSV and the matching score S SEG is calculated as a total score. Specific calculation processing of the matching score S HSV and the matching score S SEG will be described later.

判定処理部22eは、トータルスコアとしきい値とを比較することで、入力画像データBに示された人物と登録画像データAに示された人物とが同一人物である可能性が高いか否かを判定する処理部である。判定処理部22eは、判定の結果、トータルスコアがしきい値以上となった登録画像データAを候補画像リスト21bに登録する。   The determination processing unit 22e compares the total score with the threshold value to determine whether or not there is a high possibility that the person shown in the input image data B and the person shown in the registered image data A are the same person. It is a processing part to determine. As a result of the determination, the determination processing unit 22e registers the registered image data A whose total score is equal to or greater than the threshold value in the candidate image list 21b.

表示制御部22fは、候補画像リスト21bに登録された登録画像データAを表示部40に表示制御する処理部である。操作者は、この表示制御により、入力画像データBに示された人物と一致する人物の候補を確認することができる。   The display control unit 22f is a processing unit that controls the display of the registered image data A registered in the candidate image list 21b on the display unit 40. The operator can confirm a candidate for a person that matches the person shown in the input image data B by this display control.

次に、画像照合装置20の処理手順について説明する。図3は、画像照合装置20の処理手順を示すフローチャートである。まず、カメラ10から撮像データを受け付けると(ステップS101)、画像照合装置20の前処理部22aは、撮像データに対して前処理を行い、入力画像データBを生成する(ステップS102)。   Next, the processing procedure of the image collation apparatus 20 will be described. FIG. 3 is a flowchart showing a processing procedure of the image collating apparatus 20. First, when imaging data is received from the camera 10 (step S101), the preprocessing unit 22a of the image collating device 20 performs preprocessing on the imaging data to generate input image data B (step S102).

また、判定処理部22eは、複数の登録画像データAからいずれかを選択する(ステップS103)。重み対象領域特定部22b及び重み決定部22cは、ステップS102で生成された入力画像データBと、ステップS103で選択された登録画像データAとを用いて重み設定処理を行う(ステップS104)。   Further, the determination processing unit 22e selects one of the plurality of registered image data A (step S103). The weight target area specifying unit 22b and the weight determining unit 22c perform weight setting processing using the input image data B generated in step S102 and the registered image data A selected in step S103 (step S104).

トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを人物の部位毎に照合し、照合スコアSHSVを算出する(ステップS105)。 The total score calculation unit 22d collates the input image data B and the registered image data A for each part of the person while applying the weight set in step S104 to the weight target region, and calculates a collation score S HSV (step S105). ).

また、トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを色が類似する小領域毎に照合し、照合スコアSSEGを算出する(ステップS106)。 Further, the total score calculation unit 22d collates the input image data B and the registered image data A for each small region having similar colors while applying the weight set in step S104 to the weight target region, and obtains the collation score S SEG . Calculate (step S106).

トータルスコア算出部22dは、照合スコアSHSVと照合スコアSSEGとを合計し、トータルスコアSを算出する(ステップS107)。判定処理部22eは、トータルスコアSとしきい値Tとを比較する(ステップS107)。 The total score calculation unit 22d calculates the total score S by summing the matching score S HSV and the matching score S SEG (step S107). The determination processing unit 22e compares the total score S with the threshold value T (step S107).

その結果、トータルスコアSがしきい値T以上であるならば(ステップS108;Yes)、判定処理部22eは、ステップS103で選択された登録画像データAを候補画像リスト21bに登録する(ステップS109)。   As a result, if the total score S is equal to or greater than the threshold value T (step S108; Yes), the determination processing unit 22e registers the registered image data A selected in step S103 in the candidate image list 21b (step S109). .

ステップS109の後、若しくはトータルスコアSがしきい値T未満である場合(ステップS108;No)、判定処理部22eは、ステップS103で選択されていない未処理の登録画像データAが残っているか否かを判定する(ステップS110)。未処理の登録画像データAが残っているならば(ステップS110;Yes)、判定処理部22eは、ステップS103に移行し、未処理の登録画像データAからいずれかを選択する。   After step S109 or when the total score S is less than the threshold value T (step S108; No), the determination processing unit 22e determines whether or not unprocessed registered image data A that has not been selected in step S103 remains. Is determined (step S110). If unprocessed registered image data A remains (step S110; Yes), the determination processing unit 22e proceeds to step S103 and selects one of the unprocessed registered image data A.

未処理の登録画像データAが残っていなければ(ステップS110;No)、表示制御部22fは、候補画像リスト21bに登録された登録画像データAを表示部40に表示し(ステップS111)、処理を終了する。   If unprocessed registered image data A does not remain (step S110; No), the display control unit 22f displays the registered image data A registered in the candidate image list 21b on the display unit 40 (step S111). Exit.

次に、図3のステップS102に示した前処理について詳細に説明する。図4は、図3に示した前処理の処理手順を示すフローチャートである。前処理部22aは、まず、撮像データから人物の像を検出し(ステップS201)、人物の向きを推定する(ステップS202)。人物の像の検出と人物の向きの推定には、例えば向きの異なる人物の形状をそれぞれモデル化した複数のテンプレートを用意し、パターンマッチングで対象を探せばよい。なお、パターンマッチングの手法については、SVMなどの機械学習や部分空間法など、任意の手法を用いることができる。   Next, the preprocessing shown in step S102 of FIG. 3 will be described in detail. FIG. 4 is a flowchart showing a processing procedure of the preprocessing shown in FIG. First, the preprocessing unit 22a detects an image of a person from the imaging data (step S201), and estimates the direction of the person (step S202). For detection of a person's image and estimation of a person's orientation, for example, a plurality of templates each modeling the shape of a person with a different orientation may be prepared, and a target may be found by pattern matching. As a pattern matching method, an arbitrary method such as machine learning such as SVM or a subspace method can be used.

前処理部22aは、検出した人物の像を含む領域を人物領域として切り出し(ステップS203)、切り出した人物領域の大きさを正規化し(ステップS204)、画素のヒストグラムを平坦化する(ステップS205)。これらの処理により得られた画像データが入力画像データBであり、ステップS205の後、前処理部22aは前処理を終了して図3の処理に戻る。   The pre-processing unit 22a cuts out a region including the detected human image as a human region (step S203), normalizes the size of the cut-out human region (step S204), and flattens the pixel histogram (step S205). . The image data obtained by these processes is the input image data B. After step S205, the preprocessing unit 22a ends the preprocessing and returns to the process of FIG.

図5は、図4に示した前処理を説明するための説明図である。図5に示した画像データC1は、カメラ10が撮像した撮像データに対応する。パターンマッチング等でこの画像データC1から人物領域を切り出して、大きさを正規化することにより、画像データC2が得られる。前処理部22aは、画像データC2から背景を除去して画像データC3を生成し、さらに画像データC3における画素のヒストグラムを平坦化することで画像データC4を生成する。この画像データC4が入力画像データBに対応する。   FIG. 5 is an explanatory diagram for explaining the preprocessing shown in FIG. The image data C1 illustrated in FIG. 5 corresponds to the image data captured by the camera 10. Image data C2 is obtained by cutting out a person area from the image data C1 by pattern matching or the like and normalizing the size. The pre-processing unit 22a generates the image data C3 by removing the background from the image data C2, and further generates the image data C4 by flattening the pixel histogram in the image data C3. This image data C4 corresponds to the input image data B.

前処理部22aによるヒストグラムの平坦化についてさらに説明する。図6は、図4に示したヒストグラムの平坦化を説明するための説明図である。前処理部22aは、ヒストグラムの平坦化に際し、まず、画像データC3をHSV変換する。このHSV変換により、画像データC3の色相成分を示す画像データC3hと、画像データC3の彩度成分を示す画像データC3sと、画像データC3の明度成分を示す画像データC3vとが得られる。   The histogram flattening by the preprocessing unit 22a will be further described. FIG. 6 is an explanatory diagram for explaining the flattening of the histogram shown in FIG. The preprocessing unit 22a first performs HSV conversion on the image data C3 when the histogram is flattened. By this HSV conversion, image data C3h indicating the hue component of the image data C3, image data C3s indicating the saturation component of the image data C3, and image data C3v indicating the brightness component of the image data C3 are obtained.

前処理部22aは、画像データC3vの人物領域内の画素に対して次の変換を行って画像データC3v’を生成する。

Figure 2017062633
ここで、Vは変換前の画素値であり、V’は変換後の画素値である。また、HistはV成分のヒストグラムであり、SIZEは人物領域の画素数である。 The preprocessing unit 22a performs the following conversion on the pixels in the person area of the image data C3v to generate image data C3v ′.
Figure 2017062633
Here, V is a pixel value before conversion, and V ′ is a pixel value after conversion. Hist is a histogram of the V component, and SIZE is the number of pixels in the person area.

その後、前処理部22aは、画像データC3h、画像データC3s及び画像データC3v’をRGB画像に変換することで、入力画像データBに対応する画像データC4を生成する。   Thereafter, the preprocessing unit 22a generates image data C4 corresponding to the input image data B by converting the image data C3h, the image data C3s, and the image data C3v 'into RGB images.

図7は、ヒストグラムの平坦化の概念を説明するための説明図である。図7(a)は、平坦化前の画像データC3vにおける明度成分のヒストグラムであり、図7(b)は、平坦化後の画像データC3v’における明度成分のヒストグラムである。平坦化の前後を比較すると、平坦化前には明度値xが狭い範囲に偏っているのに対し、平坦化後には明度値xが偏り無く分布している。   FIG. 7 is an explanatory diagram for explaining the concept of histogram flattening. FIG. 7A is a histogram of lightness components in the image data C3v before flattening, and FIG. 7B is a histogram of lightness components in the image data C3v ′ after flattening. Comparing before and after flattening, the lightness value x is biased to a narrow range before flattening, whereas the lightness value x is distributed evenly after flattening.

このようにヒストグラムを平坦化することにより、入力画像データBにおける明るさの偏りを解消し、入力画像データBと登録画像データAとの間で明るさを揃えることができる。   By flattening the histogram in this way, it is possible to eliminate the unevenness of brightness in the input image data B and to align the brightness between the input image data B and the registered image data A.

次に、図3のステップS104に示した重み設定処理について詳細に説明する。図8は、図3に示した重み設定処理の処理手順を示すフローチャートである。まず、重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について人物の部位を推定する(ステップS301)。さらに、重み対象領域特定部22bは、推定した部位から重み対象領域を特定する(ステップS302)。   Next, the weight setting process shown in step S104 of FIG. 3 will be described in detail. FIG. 8 is a flowchart showing a processing procedure of the weight setting process shown in FIG. First, the weight target area specifying unit 22b estimates a human part for the human image included in the registered image data A and the input image data B (step S301). Furthermore, the weight target area specifying unit 22b specifies the weight target area from the estimated part (step S302).

重み決定部22cは、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きに基づいて、重み対象領域に付与する重みを決定する(ステップS303)。この重みの決定により重み設定処理は終了し、図3の処理に戻る。   The weight determination unit 22c determines the weight to be given to the weight target region based on the orientation of the person estimated for the input image data B and the orientation indicated in the orientation data corresponding to the registered image data A (step S303). ). The weight setting process ends by the determination of the weight, and the process returns to the process of FIG.

次に、重み対象領域特定部22bによる部位の推定について説明する。図9は、重み対象領域特定部22bによる部位の推定についての説明図である。まず、重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について、頭、体、足及び中心軸を推定する。なお、本実施例において「体」とは、身体のうち頭と足を除いた部分のことである。また、身体のうち頭と手足を除いた部分としてもよい。   Next, the part estimation by the weight target area specifying unit 22b will be described. FIG. 9 is an explanatory diagram for estimating a part by the weight target area specifying unit 22b. First, the weight target area specifying unit 22b estimates a head, a body, a foot, and a central axis for a person image included in the registered image data A and the input image data B. In the present embodiment, “body” refers to a portion of the body excluding the head and feet. Moreover, it is good also as a part except a head and limbs in the body.

図9(a)は、頭、体及び足の推定についての説明図である。重み対象領域特定部22bは、登録画像データA及び入力画像データBについて、足と体の境界を示すiTL、体と頭の境界示すiHLyをそれぞれ算出する。iTL及びiHLyは、登録画像データA及び入力画像データBにおける高さ方向、即ちY軸の値として求められる。   FIG. 9A is an explanatory diagram of head, body and foot estimation. For the registered image data A and the input image data B, the weight target area specifying unit 22b calculates iTL indicating a foot-body boundary and iHLy indicating a body-head boundary, respectively. iTL and iHLy are obtained as values in the height direction of the registered image data A and the input image data B, that is, the Y axis.

iTLyを算出する場合、重み対象領域特定部22bは、yをΔy内で走査しながら、σy1とσy2の間の以下の特徴Fを計算する。
F(y)=1−C(y,σ)+S(y,σ)
When iTLy is calculated, the weight target region specifying unit 22b calculates the following feature F between σy1 and σy2 while scanning y within Δy.
F (y) = 1−C (y, σ) + S (y, σ)

ここで、Δyは、登録画像データA及び入力画像データBにおいてiTLyが所在する可能性のある範囲を予め指定した指定範囲である。登録画像データA及び入力画像データBは人物領域として切り出されているため、足と体の境界が極端に高い位置や低い位置に所在することはない。そこで、足と体の境界が所在しない範囲を除外し、Δyを予め指定しているのである。   Here, Δy is a designated range in which a range where iTLy may be located in the registered image data A and the input image data B is designated in advance. Since the registered image data A and the input image data B are cut out as person regions, the boundary between the foot and the body is never located at an extremely high or low position. Therefore, the range where the foot-body boundary is not located is excluded and Δy is designated in advance.

また、σy1及びσy2は、登録画像データA及び入力画像データBにおいて、部分的な特徴を検知できる程度の面積が含まれるよう設定された部分領域である。σy1及びσy2のx軸方向の幅は登録画像データA及び入力画像データBのx軸方向の幅に等しい。また、σy1のy軸方向の高さとσy2のy軸方向の高さとは同一である。そしてσy1は下端が変数yの値であり、変数yの上方に設定される。σy2は上端が変数yの値であり、変数yの下方に設定される。   Further, σy1 and σy2 are partial regions set so that the registered image data A and the input image data B include an area that can detect a partial feature. The widths of σy1 and σy2 in the x-axis direction are equal to the widths of registered image data A and input image data B in the x-axis direction. Further, the height of σy1 in the y-axis direction is the same as the height of σy2 in the y-axis direction. The lower end of σy1 is the value of the variable y, and is set above the variable y. The upper end of σy2 is the value of the variable y, and is set below the variable y.

C(y,σ)はHSV色空間におけるσy1とσy2との間のユークリッド距離である。S(y,σ)は、σy1内における人物部分とσy2内における人物部分の面積の差である。重み対象領域特定部22bは、F(y)が最小となるy座標を求め、そのy座標をiTLyとする。   C (y, σ) is the Euclidean distance between σy1 and σy2 in the HSV color space. S (y, σ) is the difference in area between the person portion in σy1 and the person portion in σy2. The weight target area specifying unit 22b obtains the y coordinate that minimizes F (y), and sets the y coordinate to iTLy.

iHLを算出する場合には、重み対象領域特定部22bは、iTLyと同様にyを指定範囲内で走査しながら、以下の特徴Fを計算する。
F(y)=S(y,σ)
そして、F(y)が最大となるy座標を求め、そのy座標をiHLとする。なお、iHLを算出する場合の指定範囲は、iHLが所在する可能性のある範囲を予め指定したものである。
When calculating iHL, the weight target area specifying unit 22b calculates the following feature F while scanning y within the specified range in the same manner as iTLy.
F (y) = S (y, σ)
Then, the y coordinate at which F (y) is maximized is obtained, and the y coordinate is set to iHL. Note that the designated range when iHL is calculated is a range in which the iHL may be located in advance.

図9(b)は、中心軸の推定についての説明図である。重み対象領域特定部22bは、体の中心軸jLR1と、足の中心軸jLR2とをそれぞれ求める。体の中心軸を求める場合には、対象範囲はiTLからiHLyまでであり、足の中心軸を求める場合には、対象範囲は下端(y=0)からiHLyまでである。jLR1及びjLR2は、登録画像データA及び入力画像データBにおける横方向、即ちx軸の値として求められる。   FIG. 9B is an explanatory diagram regarding the estimation of the central axis. The weight target area specifying unit 22b obtains a body center axis jLR1 and a foot center axis jLR2. When determining the center axis of the body, the target range is from iTL to iHLy, and when determining the center axis of the foot, the target range is from the lower end (y = 0) to iHLy. jLR1 and jLR2 are obtained as values in the horizontal direction in the registered image data A and the input image data B, that is, the x-axis.

中心軸を算出する場合、重み対象領域特定部22bは、xを走査しながら、σx1とσx2の間の以下の特徴Fを計算する。
F(x)=C(x,σ)+S(x,σ)
そして、F(x)が最小となるx座標を中心軸とする。
When calculating the central axis, the weight target region specifying unit 22b calculates the following feature F between σx1 and σx2 while scanning x.
F (x) = C (x, σ) + S (x, σ)
Then, the x-coordinate at which F (x) is minimum is set as the central axis.

ここで、σx1を変数xの左側の部分領域、σx2を変数xの右側の部分領域とする。図9(b)では、足の中心軸jLR2を求める場合のσx1及びσx2を示している。σx1及びσx2のy軸方向の高さは対象範囲の高さに等しい。また、σx1のx軸方向の幅とσx2のx軸方向の幅とは同一である。この幅は、対象範囲における人物部分の半分以上を含むように設定することが好適である。そしてσx1は右端が変数xの値であり、σx2は左端が変数xの値である。   Here, σx1 is a partial region on the left side of the variable x, and σx2 is a partial region on the right side of the variable x. FIG. 9B shows σx1 and σx2 when the center axis jLR2 of the foot is obtained. The height of σx1 and σx2 in the y-axis direction is equal to the height of the target range. Also, the width of σx1 in the x-axis direction and the width of σx2 in the x-axis direction are the same. This width is preferably set to include more than half of the person portion in the target range. Σx1 is the value of the variable x at the right end, and σx2 is the value of the variable x at the left end.

重み対象領域特定部22bは、iTL、iHLy、jLR1、jLR2に加え、登録画像データA及び入力画像データBの向きを用いて重み対象領域を特定する。図10は、重み対象領域の特定についての説明図である。   The weight target area specifying unit 22b specifies the weight target area using the orientations of the registered image data A and the input image data B in addition to iTL, iHLy, jLR1, and jLR2. FIG. 10 is an explanatory diagram for specifying the weight target area.

まず、登録画像データAや入力画像データBにおける人物の向きが正面である場合には、重み対象領域特定部22bは、頭、足、体の左、体の中央、体の右の5つのエリアを設定する。一方、人物の向きが側面や背面である場合には、頭、足、体の3つのエリアを設定する。   First, when the orientation of the person in the registered image data A and the input image data B is the front, the weight target area specifying unit 22b includes five areas: head, foot, left of the body, center of the body, and right of the body. Set. On the other hand, when the orientation of the person is the side or the back, three areas of the head, feet, and body are set.

図10(a)では、登録画像データA2の人物の向きが正面である。このため、エリアデータPA2に示すように、頭、足、体の左、体の中央、体の右の5つのエリアが設定される。一方、図10(b)では、入力画像データB3の人物の向きが背面である。このため、エリアデータPB3に示すように、頭、足、体の3つのエリアが設定される。   In FIG. 10A, the orientation of the person in the registered image data A2 is the front. For this reason, as shown in the area data PA2, five areas of the head, the foot, the left of the body, the center of the body, and the right of the body are set. On the other hand, in FIG. 10B, the orientation of the person in the input image data B3 is the back side. For this reason, as shown in the area data PB3, three areas of a head, a foot, and a body are set.

なお、体の部位を体の左、体の中央、体の右の3つに分割する位置は、体の中心軸jLR1から左右にwだけ離れた位置とする。ここで、wについては、画像データの幅と正規化された人物の大きさから、予め適切な値を設定しておく。   Note that the position where the body part is divided into the left part of the body, the center of the body, and the right part of the body is a position separated by w from the center axis jLR1 of the body. Here, for w, an appropriate value is set in advance from the width of the image data and the normalized size of the person.

重み対象領域特定部22bは、設定したエリアから重み対象領域の選択を行う。例えば、体の中央は人物の特徴を多く含む特徴部分であり、重み対象領域として好適である。また、設定した全てのエリアを重み対象領域とし、各エリアに対して重み設定を行うことも可能である。   The weight target area specifying unit 22b selects a weight target area from the set area. For example, the center of the body is a feature portion that includes many human features and is suitable as a weight target region. It is also possible to set all the set areas as weight target areas and set the weight for each area.

次に、重み決定部22cによる重みの決定について説明する。図11は、重み決定部22cによる重みの決定についての説明図である。重み決定部22cは、登録画像データA及び入力画像データBにおける人物の向きの組合せに基づいて重みを決定する。   Next, determination of the weight by the weight determination unit 22c will be described. FIG. 11 is an explanatory diagram for determining weights by the weight determination unit 22c. The weight determination unit 22c determines a weight based on a combination of person orientations in the registered image data A and the input image data B.

図11には、人物の向きの組合せと重みとの対応関係を示している。なお、図11の斜線領域は重みを上げることで強調して特徴抽出を行うことを示し、白領域は重みを下げて特徴抽出を行うことを示す。   FIG. 11 shows a correspondence relationship between combinations of person orientations and weights. 11 indicates that feature extraction is performed with emphasis by increasing the weight, and white region indicates that feature extraction is performed with the weight reduced.

図11に示したように、重み決定部22cは、人物の向きの組合せが「正面−正面」である場合には、体の中央の重みを上げる。服のデザインやネクタイやスカーフの着用により、体の中央に特徴がある場合が多いためである。一方、人物の向きの組合せが「正面−側面」である場合には、体の中央の重みを下げる。また、人物の向きの組合せが「正面−背面」である場合には、体の中央と頭の重みを下げる。体の中央の特徴が側面や背面には現れない場合が多いためである。また頭は、正面と側面と背面の特徴は大きく異なるためである。そして人物の向きの組合せが「側面−背面」である場合には、頭の重みを下げる。なお、図示は省略したが、人物の向きの組合せが「背面−背面」である場合には、重みを付与しない。   As illustrated in FIG. 11, the weight determination unit 22 c increases the weight of the center of the body when the combination of the person orientations is “front-front”. This is because there are many features in the center of the body due to the design of clothes and the wearing of ties and scarves. On the other hand, if the combination of person orientations is “front-side”, the weight of the center of the body is lowered. Further, when the combination of person orientations is “front-back”, the weight of the center of the body and the head are lowered. This is because the central feature of the body often does not appear on the side or back. Moreover, it is because the characteristics of a front, a side, and a back differ greatly. If the combination of the orientations of the persons is “side-back”, the weight of the head is lowered. Although illustration is omitted, no weight is given when the combination of the orientations of the persons is “back-back”.

図11では、人物の向きが正面であれば、体の部位を中央と左右にエリア分けして異なる重みを付け、人物の向きが正面以外であれば、体の部位全体を1つのエリアとして同一の重みを付けている。このエリア分けは重みを付与する範囲を定めるものであり、照合の単位として用いるものではない。すなわち、体の部位について照合を行う場合には、3つのエリアに分けられた体の部位と、1つのエリアである体の部位とが照合されることになる。   In FIG. 11, if the person's orientation is the front, the body part is divided into areas of the center and the left and right, and different weights are given. If the person's orientation is other than the front, the entire body part is the same as one area. Is weighted. This area division defines a range to which weight is given, and is not used as a unit of collation. That is, when collating the body part, the body part divided into three areas and the body part that is one area are collated.

なお、本実施例では、正面、側面、背面それぞれの立位の3つの態様を用い、その組合せ毎に重み付けを定めたが、用いる態様は3つに限定されない。例えば、左斜め前方、右斜め前方などの方向や座位など姿勢について、さらに態様を追加することができる。その場合は、それぞれの態様に応じたテンプレートを用意して検出する。また、それぞれの態様の組合せ毎に、重み付けを定める。   In this embodiment, three modes of standing on the front, side, and back are used and weights are determined for each combination. However, the modes to be used are not limited to three. For example, it is possible to further add a mode for a posture such as a diagonally forward left direction and a diagonally forward right direction and a sitting position. In that case, a template corresponding to each aspect is prepared and detected. Further, a weight is determined for each combination of modes.

このように、重み決定部22cは、特徴部分が登録画像データA及び入力画像データBの双方に含まれていれば重みを上げ、一方にしか含まれない場合には重みを下げる。特徴部分が登録画像データA及び入力画像データBの双方に含まれていれば、その特徴部分は照合精度の向上に寄与するが、一方にしか含まれていない特徴部分はむしろ照合の精度を低下させるおそれがあり、特徴部分以外に注目した方が照合精度の向上が期待できるためである。   As described above, the weight determination unit 22c increases the weight if the feature portion is included in both the registered image data A and the input image data B, and decreases the weight if the feature portion is included in only one of them. If the feature part is included in both the registered image data A and the input image data B, the feature part contributes to the improvement of the collation accuracy, but the feature part included only in one side rather lowers the collation accuracy. This is because the collation accuracy can be expected to improve if attention is paid to areas other than the characteristic part.

次に、図3のステップS105に示した照合スコアSHSVの算定について詳細に説明する。図12は、図3に示した照合スコアSHSVの算定の処理手順を示すフローチャートである。 Next, the calculation of the matching score S HSV shown in step S105 of FIG. 3 will be described in detail. FIG. 12 is a flowchart showing a processing procedure for calculating the matching score S HSV shown in FIG.

トータルスコア算出部22dは、まず、登録画像データAの部位毎に重み付き3次元HSVヒストグラムを算定する(ステップS401)。また、入力画像データBの部位毎に重み付き3次元HSVヒストグラムを算定する(ステップS402)。そして、各部位についてバチャタリヤ距離を算定し、その平均を照合スコアSHSVとして(ステップS403)、図3の処理に戻る。 First, the total score calculation unit 22d calculates a weighted three-dimensional HSV histogram for each part of the registered image data A (step S401). Also, a weighted three-dimensional HSV histogram is calculated for each part of the input image data B (step S402). Then, the Bachata rear distance is calculated for each part, the average is set as the matching score S HSV (step S403), and the process returns to FIG.

ここで、3次元HSVヒストグラムを算定における重みは、重み決定部22cにより決定された重みと、中心軸からの距離に応じたガウス分布による重みを乗算したものを用いる。なお、向きが正面である場合には、体の部位が3つのエリアに分かれているが、体の部位について3次元HSVヒストグラムを算定する際にはその全てのエリアが用いられる。   Here, as the weight in calculating the three-dimensional HSV histogram, a weight obtained by multiplying the weight determined by the weight determining unit 22c and the weight based on the Gaussian distribution according to the distance from the central axis is used. When the orientation is the front, the body part is divided into three areas, but all areas are used when calculating the three-dimensional HSV histogram for the body part.

また、ヒストグラムh1とヒストグラムh2のバチャタリヤ距離は、ヒストグラムのビン数をnとして以下の式により求められる。

Figure 2017062633
Further, the Bachata rear distance between the histograms h 1 and h 2 can be obtained by the following equation, where n is the number of bins in the histogram.
Figure 2017062633

図13は、照合スコアSHSVの算定についての説明図である。図13では、登録画像データA2の人物の向きが正面であり、入力画像データB3の人物の向きが背面である。トータルスコア算出部22dは、登録画像データA2に対しては対応するエリアデータPA2を重み付けに用い、入力画像データB3に対しては対応するエリアデータPB3を重み付けに用いる。 FIG. 13 is an explanatory diagram for calculating the matching score S HSV . In FIG. 13, the orientation of the person in the registered image data A2 is the front, and the orientation of the person in the input image data B3 is the back. The total score calculation unit 22d uses the corresponding area data PA2 for weighting for the registered image data A2, and uses the corresponding area data PB3 for weighting for the input image data B3.

トータルスコア算出部22dは、エリアデータPA2及びエリアデータPB3にもとづく重みをそれぞれ登録画像データA2と入力画像データB3とに適用し、登録画像データA2と入力画像データB3との部位別のヒストグラム照合を行い、照合スコアSHSVを算定する。 The total score calculation unit 22d applies weights based on the area data PA2 and the area data PB3 to the registered image data A2 and the input image data B3, respectively, and performs histogram matching for each part of the registered image data A2 and the input image data B3. The collation score S HSV is calculated.

次に、図3のステップS106に示した照合スコアSSEGの算定について詳細に説明する。図14は、図3に示した照合スコアSSEGの算定の処理手順を示すフローチャートである。 Next, the calculation of the matching score S SEG shown in step S106 of FIG. 3 will be described in detail. FIG. 14 is a flowchart showing a processing procedure for calculating the matching score S SEG shown in FIG.

トータルスコア算出部22dは、まず、登録画像データAを色領域に分割する(ステップS501)。色領域は、類似色で連続する画素からなる小領域である。同様に、トータルスコア算出部22dは、入力画像データBを色領域に分割する(ステップS502)。そして、色領域同士の照合スコアSSEGを算出し(ステップS503)、図3の処理に戻る。 First, the total score calculation unit 22d divides the registered image data A into color regions (step S501). The color area is a small area composed of continuous pixels with similar colors. Similarly, the total score calculation unit 22d divides the input image data B into color regions (step S502). Then, a collation score S SEG between the color regions is calculated (step S503), and the process returns to the process of FIG.

色領域同士の照合スコアSSEGは、次の式により求められる。

Figure 2017062633
ここで、Sseg1は、
Figure 2017062633
であり、Sseg2は、
Figure 2017062633
である。なお、Tpは登録画像データAから分割した色領域の集合であり、Inは入力画像データBから分割した色領域の集合である。i,jは、色領域の選択に用いる変数である。Sseg1の算出時にはi∈In、j∈Tpとし、Sseg2の算出時にはi∈Tp、j∈Inとしている。すなわち、Sseg1及びSseg2は、wij(γdij y+(1−γ)dij c)が最小となるjを各iについて求めている。 The matching score S SEG between the color areas is obtained by the following equation.
Figure 2017062633
Where S seg1 is
Figure 2017062633
And S seg2 is
Figure 2017062633
It is. Tp is a set of color areas divided from the registered image data A, and In is a set of color areas divided from the input image data B. i and j are variables used to select a color region. When S seg1 is calculated, iεIn and jεTp are set, and when S seg2 is calculated, iεTp and jεIn are set. That is, S seg1 and S seg2 obtain j for each i where wij (γd ij y + (1−γ) d ij c ) is minimum.

また、登録画像データAから分割した色領域について、その重心をgj、平均RGB値をcj、gjが属するエリアに設定された重みをwjとする。同様に、入力画像データBから分割した色領域について、その重心をgi、平均RGB値をci、giが属するエリアに設定された重みをwiとする。   For the color area divided from the registered image data A, the center of gravity is gj, the average RGB value is cj, and the weight set for the area to which gj belongs is wj. Similarly, regarding the color area divided from the input image data B, the center of gravity is set to gi, the average RGB value is set to ci, and the weight set to the area to which gi belongs is set to wi.

ij yは、重心のy座標の距離であり、
ij y=|giy-jy
により求める。
ij cは、平均RGBの距離であり、
ij c=|ci−cj
により求める。
d ij y is the y-coordinate distance of the center of gravity,
d ij y = | g iy- g jy |
Ask for.
d ij c is the average RGB distance,
d ij c = | c i −c j |
Ask for.

ijは重みであり、
ij=1/min(wi,wj
を用いる。なお、γは所定のパラメータである。また、ninはSseg1において用いた重みの和であり、ntpはSseg2において用いた重みの和である。そして、numinは入力画像データBから分割した色領域の数であり、numtpは登録画像データAから分割した色領域の数である。
w ij is the weight,
w ij = 1 / min (w i , w j )
Is used. Note that γ is a predetermined parameter. Further, n in is the sum of weights used in S seg1 , and n tp is the sum of weights used in S seg2 . Num in is the number of color areas divided from the input image data B, and num tp is the number of color areas divided from the registered image data A.

図15は、照合スコアSSEGの算定についての説明図である。図15では、登録画像データA2の人物の向きが正面であり、入力画像データB3の人物の向きが背面である。トータルスコア算出部22dは、登録画像データA2を色領域に分割して色領域データQA2を生成する。同様に、入力画像データB3を色領域に分割して色領域データQB3を生成する。 FIG. 15 is an explanatory diagram for calculating the matching score S SEG . In FIG. 15, the orientation of the person in the registered image data A2 is the front, and the orientation of the person in the input image data B3 is the back. The total score calculation unit 22d divides the registered image data A2 into color areas to generate color area data QA2. Similarly, the input image data B3 is divided into color areas to generate color area data QB3.

トータルスコア算出部22dは、色領域データQA2に対しては対応するエリアデータPA2を重み付けに用い、色領域データQB3に対しては対応するエリアデータPB3を重み付けに用いる。   The total score calculation unit 22d uses the corresponding area data PA2 for weighting for the color area data QA2, and uses the corresponding area data PB3 for weighting for the color area data QB3.

トータルスコア算出部22dは、エリアデータPA2及びエリアデータPB3にもとづく重みを用いて、色領域データQA2と色領域データQB3との色領域同士の照合を行って、照合スコアSSEGを算定する。 The total score calculation unit 22d compares the color areas of the color area data QA2 and the color area data QB3 using the weights based on the area data PA2 and the area data PB3, and calculates a verification score S SEG .

次に、図3のステップS107に示したトータルスコアの算定について説明する。トータルスコア算出部22dは、照合スコアSHSVと照合スコアSSEGとを用い、トータルスコアSを
S=0.5×SHSV+0.5×SSEG
として算出する。ここでは、照合スコアSHSVと照合スコアSSEGにそれぞれ0.5を乗算した上で合計する場合を例示したが、この比率は適宜設定可能である。
Next, the calculation of the total score shown in step S107 in FIG. 3 will be described. The total score calculation unit 22d uses the matching score S HSV and the matching score S SEG and calculates the total score S as S = 0.5 × S HSV + 0.5 × S SEG
Calculate as Here, a case has been exemplified where the matching score S HSV and the matching score S SEG are multiplied by 0.5 and then summed, but this ratio can be set as appropriate.

上述してきたように、本実施例1に係る画像照合装置20は、登録画像データA及び入力画像データBから重み対象領域を特定し、登録画像データA及び入力画像データBに含まれる人物の向きの組合せに基づいて重み対象領域に付与する重みを決定し、決定された重みを重み対象領域に適用しつつ、登録画像データA及び入力画像データBを照合処理する。このため、登録画像データAと入力画像データBに含まれる人物の向きが異なる場合であっても、正確かつ効率的に画像照合を行うことができる。   As described above, the image collation apparatus 20 according to the first embodiment identifies the weight target area from the registered image data A and the input image data B, and the orientation of the person included in the registered image data A and the input image data B. The weight to be given to the weight target area is determined based on the combination of the registered image data A and the input image data B while applying the determined weight to the weight target area. For this reason, even when the orientations of the persons included in the registered image data A and the input image data B are different, image verification can be performed accurately and efficiently.

実施例1では、登録画像データ及び入力画像データにそれぞれ含まれる人物の向きを利用して重みを決定する場合について説明したが、本実施例2では、登録画像データ及び入力画像データにそれぞれ含まれる人物の所持品を利用して重みを決定する場合について説明する。   In the first embodiment, the case where the weights are determined using the orientations of persons included in the registered image data and the input image data has been described. In the second embodiment, the weights are included in the registered image data and the input image data, respectively. A case where the weight is determined using the personal belongings will be described.

図16は、本実施例2に係る画像照合装置の特徴を説明するための説明図である。なお、ここでは登録画像データA及び入力画像データBを人物の洋服や所持品の色の一致度を用いて照合処理する場合を示すこととする。   FIG. 16 is an explanatory diagram for explaining the features of the image collating apparatus according to the second embodiment. Here, it is assumed that the registered image data A and the input image data B are collated using the color matching degree of the person's clothes and personal belongings.

図16(a)に示すように、登録画像データA3に鞄を所持した人物の像が含まれ、入力画像データB4にも鞄を所持した人物の像が含まれている場合には、図中に斜線で示すように鞄に対応する領域を特徴部分としてその重みを大きくする。鞄などの所持品が同一であれば、同一人物である可能性が高く、その色合いを特徴部分とすることで照合精度を高めることができるためである。なお、鞄に限らず、他の所持品や帽子等を特徴部分とすることもできる。   As shown in FIG. 16A, when the registered image data A3 includes an image of a person who possesses a heel and the input image data B4 includes an image of a person who possesses a heel, As indicated by the hatched area, the area corresponding to the ridge is used as a characteristic part to increase its weight. This is because if the belongings such as a bag are the same, there is a high possibility that they are the same person, and the matching accuracy can be improved by using the color as a characteristic part. In addition, not only a bag but other personal belongings, a hat, etc. can also be made into a characteristic part.

一方、図16(b)に示すように、登録画像データA3には鞄を所持した人物の像が含まれ、入力画像データB5には鞄を持たない人物の像が含まれている場合には、図中に白領域で示すように鞄に対応する領域の重みを小さくする。鞄などの所持品は途中で手放す可能性があり、所持品が同一でないことは同一人物でないことの根拠とはならないので、所持品の特徴に注目して照合を行うとかえって照合精度が低下するおそれがあるためである。   On the other hand, as shown in FIG. 16B, when the registered image data A3 includes an image of a person with a heel and the input image data B5 includes an image of a person without a heel. As shown by the white area in the figure, the weight of the area corresponding to the eyelid is reduced. There is a possibility that items such as bags may be left in the middle, and if the items are not the same, it is not the basis for not being the same person. This is because there is a fear.

このように、登録画像データA及び入力画像データBにおける人物の所持品の有無により、所持品に対応する領域の重みを変化させることで、所持品の特徴を有効に利用して正確な照合処理を行うことが可能となる。   In this way, by accurately changing the weight of the area corresponding to the possessed item according to the presence or absence of the possessed item of the person in the registered image data A and the input image data B, an accurate matching process can be performed by effectively using the characteristics of the possessed item. Can be performed.

次に、本実施例2に係る画像照合装置の構成について説明する。図17は、本実施例2に係る画像照合装置の構成を示す機能ブロック図である。図17に示すように画像照合装置50は、記憶部21に記憶される登録データ54が実施例1に示した登録データ21aと異なる。また、前処理部51、重み対象領域特定部52及び重み決定部53の動作が実施例1に示した前処理部22a、重み対象領域特定部22b及び重み決定部22cと異なる。その他の構成及び動作については、実施例1に示した画像照合装置20と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。   Next, the configuration of the image collating apparatus according to the second embodiment will be described. FIG. 17 is a functional block diagram illustrating the configuration of the image collating apparatus according to the second embodiment. As shown in FIG. 17, in the image matching device 50, the registration data 54 stored in the storage unit 21 is different from the registration data 21a shown in the first embodiment. The operations of the preprocessing unit 51, the weight target region specifying unit 52, and the weight determining unit 53 are different from those of the preprocessing unit 22a, the weight target region specifying unit 22b, and the weight determining unit 22c shown in the first embodiment. Since other configurations and operations are the same as those of the image collating apparatus 20 shown in the first embodiment, the same components are denoted by the same reference numerals and description thereof is omitted.

登録データ54は、複数の登録画像データAを有し、各登録画像データAには所持品データが対応付けられている。複数の登録画像データAは、例えば異なる人物についてそれぞれ生成したものであり、1つの登録画像データAには人物の像が1つ含まれている。所持品データは、対応する登録画像データAにおける人物の所持品を示す。図17では、登録画像データA3に所持品データA3bを対応付けた状態を示している。   The registered data 54 has a plurality of registered image data A, and each registered image data A is associated with personal belongings data. The plurality of registered image data A are generated for different persons, for example, and one registered image data A includes one person image. The personal belongings data indicates personal personal belongings in the corresponding registered image data A. FIG. 17 shows a state in which the belongings data A3b is associated with the registered image data A3.

前処理部51は、照合の前処理として、カメラ10により撮像された撮像データから入力画像データBを生成する処理部である。具体的には、前処理部51は、撮像データから人物の像を検出し、人物の所持品の有無を推定し、人物の像を含む領域を人物領域として切り出す。そして、切り出した人物領域の大きさを正規化し、画素のヒストグラムを平坦化して入力画像データBを生成する。なお、人物と所持品の像の検知には、任意の手法を用いることができる。例えば、連続して撮像された撮像データの差分から人物と所持品の双方を含む画像を切り出し、この画像に人物のパターンマッチングを行うことで人物の像を抽出することができる。そして、人物と所持品の双方を含む画像から人物の像を除外すれば、所持品の像が得られる。   The preprocessing unit 51 is a processing unit that generates input image data B from imaged data captured by the camera 10 as preprocessing for collation. Specifically, the pre-processing unit 51 detects a human image from the imaging data, estimates the presence or absence of personal belongings, and cuts out a region including the human image as a human region. Then, the size of the cut-out human region is normalized, and the input image data B is generated by flattening the pixel histogram. It should be noted that any method can be used to detect images of persons and personal belongings. For example, it is possible to extract an image of a person by cutting out an image including both a person and personal belongings from the difference between captured image data that have been continuously captured and performing pattern matching of the person on this image. If an image of a person is excluded from an image including both the person and the belongings, an image of the belongings can be obtained.

重み対象領域特定部52は、登録画像データA及び入力画像データBに含まれる人物の像について、所持品がある場合には所持品に対応する領域を重み対象領域として特定する処理を行う。   The weight target area specifying unit 52 performs processing for specifying, as a weight target area, an area corresponding to a possessed item when there is a possessed item with respect to a person image included in the registered image data A and the input image data B.

重み決定部53は、登録画像データA及び入力画像データBの対応関係に基づいて、重み対象領域に付与する重みを決定する。ここで、重み決定部53は、登録画像データA及び入力画像データBの対応関係に、人物の所持品を利用する。具体的には、重み決定部53は、入力画像データBに含まれる人物について所持品があると推定され、かつ、登録画像データAに対応付けられた所持品データにより所持品があることが示されている場合には、重み対象領域に付与する重みを上げる。一方、入力画像データB又は登録画像データAの一方に所持品がない場合には、重み対象領域に付与する重みを下げる。   The weight determination unit 53 determines the weight to be given to the weight target area based on the correspondence relationship between the registered image data A and the input image data B. Here, the weight determination unit 53 uses personal belongings for the correspondence between the registered image data A and the input image data B. Specifically, the weight determination unit 53 estimates that a person included in the input image data B has a belonging and indicates that the person has the possession based on the possession data associated with the registered image data A. If so, the weight given to the weight target area is increased. On the other hand, when there is no possession in one of the input image data B or the registered image data A, the weight to be given to the weight target area is lowered.

次に、画像照合装置50の処理手順について説明する。図18は、画像照合装置50の処理手順を示すフローチャートである。まず、カメラ10から撮像データを受け付けると(ステップS101)、画像照合装置50の前処理部51は、撮像データに対して前処理を行い、入力画像データBを生成する(ステップS602)。この前処理により、入力画像データBにおける所持品の有無が推定される。   Next, the processing procedure of the image collation apparatus 50 will be described. FIG. 18 is a flowchart showing the processing procedure of the image collating apparatus 50. First, when imaging data is received from the camera 10 (step S101), the preprocessing unit 51 of the image matching device 50 performs preprocessing on the imaging data to generate input image data B (step S602). By this preprocessing, the presence / absence of belongings in the input image data B is estimated.

また、判定処理部22eは、複数の登録画像データAからいずれかを選択する(ステップS103)。重み対象領域特定部52及び重み決定部53は、ステップS602で生成された入力画像データBと、ステップS103で選択された登録画像データAとを用いて重み設定処理を行う(ステップS604)。この重み設定では、所持品に対応する領域が重み対象領域として特定され、入力画像データBと登録画像データAにおける所持品の有無の組合せにより重みが決定されることになる。   Further, the determination processing unit 22e selects one of the plurality of registered image data A (step S103). The weight target area specifying unit 52 and the weight determining unit 53 perform a weight setting process using the input image data B generated in step S602 and the registered image data A selected in step S103 (step S604). In this weight setting, an area corresponding to the possessed item is specified as a weight target region, and the weight is determined by a combination of presence / absence of the possessed item in the input image data B and the registered image data A.

トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを照合し、照合スコアSHSVを算出する(ステップS605)。ここで、入力画像データB及び登録画像データAは、所持品に対応する重み対象領域と所持品以外の人物領域とに分割され、トータルスコア算出部22dは、それぞれの領域について照合を行って照合スコアSHSVを算出することになる。以降の処理は、図3に示したフローチャートと同様であるので、説明を省略する。 The total score calculation unit 22d collates the input image data B and the registered image data A while applying the weight set in step S104 to the weight target region, and calculates a collation score S HSV (step S605). Here, the input image data B and the registered image data A are divided into a weight target region corresponding to the possessed item and a person region other than the possessed item, and the total score calculation unit 22d performs collation for each region and performs a collation score. S HSV is calculated. The subsequent processing is the same as that in the flowchart shown in FIG.

上述してきたように、本実施例2に係る画像照合装置50は、登録画像データA及び入力画像データBから所持品に対応する重み対象領域を特定し、登録画像データA及び入力画像データBに含まれる人物の所持品の有無の組合せに基づいて重み対象領域に付与する重みを決定し、決定された重みを重み対象領域に適用しつつ、登録画像データA及び入力画像データBを照合処理する。このため、登録画像データAと入力画像データBに含まれる人物の所持品の有無に関わらず、正確かつ効率的に画像照合を行うことができる。   As described above, the image collation apparatus 50 according to the second embodiment specifies the weight target area corresponding to the belongings from the registered image data A and the input image data B, and the registered image data A and the input image data B are identified. The weight to be given to the weight target area is determined based on the combination of presence / absence of personal belongings included, and the registered image data A and the input image data B are collated while applying the determined weight to the weight target area. . Therefore, image verification can be performed accurately and efficiently regardless of the presence or absence of personal belongings included in the registered image data A and the input image data B.

なお、上記の実施例1及び2では、人物の照合を例に説明を行ったが、本発明は人物の照合に限定されるものではなく、車両等の他の対象物を照合する場合にも適用することができる。   In the first and second embodiments described above, the verification of the person has been described as an example. However, the present invention is not limited to the verification of the person, and the case where other objects such as a vehicle are compared is also described. Can be applied.

また、上記の実施例1及び2では、人物の外観上の色の一致度を用いて照合処理する場合を示したが、監視カメラ等の性能が向上し、解像度の高い画像データが取得できる場合は、例えば服の模様や装着物による形状特徴に基づく照合処理を行うことも可能である。本発明は、入力画像データと登録画像データ照合処理に際して、両画像の態様に応じた重み付けを行うものであり、照合処理の方式にはこだわらない。   In the first and second embodiments, the case where the matching process is performed using the color matching degree on the appearance of the person is shown. However, when the performance of the monitoring camera or the like is improved and high-resolution image data can be acquired. For example, it is also possible to perform a collation process based on a pattern of clothes or a shape feature depending on an attachment. In the present invention, the input image data and the registered image data are collated by weighting according to the mode of both images, and the collation processing method is not particular.

また、上記の実施例2では、所持品を対象物の特徴部として用いる場合を例に説明を行ったが、帽子や杖、車両のオプションパーツなど、対象物の態様に影響を与え、かつ着脱等が比較的容易であれば、任意の特徴部を用いることができる。   In the second embodiment, the case where the belongings are used as the characteristic part of the target object has been described as an example. Any feature can be used if it is relatively easy.

また、本実施例に図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部または一部を各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Each configuration illustrated in the present embodiment is functionally schematic and does not necessarily need to be physically configured as illustrated. In other words, the form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally / physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured.

本発明に係る画像照合装置及び画像照合方法は、入力画像と登録画像に含まれる対象物の態様が異なるときに、正確かつ効率的に画像照合を行う場合に適している。   The image collation apparatus and the image collation method according to the present invention are suitable for accurately and efficiently performing image collation when the input image and the registration object include different objects.

10 カメラ
20 画像照合装置
21 記憶部
21a,54 登録データ
21b 候補画像リスト
22 制御部
22a,51 前処理部
22b,52 重み対象領域特定部
22c,53 重み決定部
23d トータルスコア算出部
22e 判定処理部
22f 表示制御部
30 操作部
40 表示部
A,A1〜A3 登録画像データ
A1a 向きデータ
A1b 所持品データ
B,B1〜B5 入力画像データ
DESCRIPTION OF SYMBOLS 10 Camera 20 Image collation apparatus 21 Memory | storage part 21a, 54 Registration data 21b Candidate image list 22 Control part 22a, 51 Pre-processing part 22b, 52 Weight object area | region specific | specification part 22c, 53 Weight determination part 23d Total score calculation part 22e Determination processing part 22f Display control unit 30 Operation unit 40 Display unit A, A1 to A3 Registered image data A1a Orientation data A1b Inventory data B, B1 to B5 Input image data

Claims (7)

所定の対象物が映り込んだ入力画像データと、あらかじめ登録された登録画像データとを照合処理する画像照合装置であって、
前記入力画像データ及び/又は前記登録画像データの対象物の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定部と、
前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、
前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部と
を備えたことを特徴とする画像照合装置。
An image collation device that collates input image data in which a predetermined object is reflected and registered image data registered in advance,
A weight target area specifying unit that divides a target area of the input image data and / or the registered image data and specifies a weight target area that forms a part of the divided area;
A weight determining unit that determines a weight to be given to the weight target region based on a correspondence relationship between the input image data and the registered image data;
An image collation apparatus comprising: a collation processing unit that collates the input image data and the registered image data while applying the weight determined by the weight determination unit to the weight target region.
前記重み決定部は、
前記入力画像データに含まれる対象物の態様と、前記登録画像データに含まれる対象物の態様とが一致又は類似する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる対象物の態様と、前記登録画像データに含まれる対象物の態様とが類似しない場合には、前記重み対象領域に付与する重みを下げる
ことを特徴とする請求項1に記載の画像照合装置。
The weight determination unit
When the aspect of the object included in the input image data and the aspect of the object included in the registered image data match or are similar, the weight given to the weight target area is increased, and the input image data The image verification according to claim 1, wherein when the aspect of the object included is not similar to the aspect of the object included in the registered image data, the weight assigned to the weight target area is reduced. apparatus.
前記重み決定部は、
前記入力画像データに含まれる対象物の向きと、前記登録画像データに含まれる対象物の向きとが一致する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる対象物の向きと、前記登録画像データに含まれる対象物の向きとが一致しない場合には、前記重み対象領域に付与する重みを下げる
ことを特徴とする請求項2に記載の画像照合装置。
The weight determination unit
When the direction of the object included in the input image data matches the direction of the object included in the registered image data, the weight to be given to the weight target area is increased and included in the input image data The image collating apparatus according to claim 2, wherein when the direction of the object does not match the direction of the object included in the registered image data, the weight to be given to the weight target area is reduced.
前記重み決定部は、
前記入力画像データに含まれる前記対象物に特徴部が存在し、かつ、前記登録画像データに含まれる前記対象物に前記特徴部が存在する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に特徴部が存在しない場合には、前記重み対象領域に付与する重みを下げる
ことを特徴とする請求項2に記載の画像照合装置。
The weight determination unit
When the feature part exists in the target object included in the input image data and the feature part exists in the target object included in the registered image data, the weight to be given to the weight target region is increased. The image collating apparatus according to claim 2, wherein when one of the input image data and the registered image data does not have a characteristic portion, a weight to be given to the weight target region is lowered.
前記照合処理部は、
前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データの重み付きヒストグラムをそれぞれ算定し、算定した重み付きヒストグラムに基づいて、前記入力画像データ及び前記登録画像データを照合処理する
ことを特徴とする請求項3に記載の画像照合装置。
The collation processing unit
While applying the weight determined by the weight determination unit to the weight target area, the weighted histograms of the input image data and the registered image data are calculated, and the input image data is based on the calculated weighted histograms. The image collating apparatus according to claim 3, wherein collation processing is performed on the registered image data.
前記照合処理部は、
前記入力画像データ及び前記登録画像データをそれぞれ色又は濃淡が類似する小領域に分割し、前記重み対象領域に対応する小領域に対して前記重み決定部により決定された重みを適用しつつ、前記入力画像データの小領域と前記登録画像データの小領域とを照合処理する
ことを特徴とする請求項3に記載の画像照合装置。
The collation processing unit
The input image data and the registered image data are each divided into small regions having similar colors or shades, and the weights determined by the weight determination unit are applied to the small regions corresponding to the weight target regions. The image collating apparatus according to claim 3, wherein a collation process is performed between the small area of the input image data and the small area of the registered image data.
所定の対象物が映り込んだ入力画像データと、あらかじめ登録された登録画像データとを照合処理する画像照合装置における画像照合方法であって、
前記入力画像データ及び/又は前記登録画像データの対象物の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定ステップと、
前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定ステップと、
前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理ステップと
を含んだことを特徴とする画像照合方法。
An image collation method in an image collation apparatus for collating input image data in which a predetermined object is reflected and registered image data registered in advance,
A weight target area specifying step of dividing a target area of the input image data and / or the registered image data and specifying a weight target area forming a part of the divided area;
A weight determination step for determining a weight to be given to the weight target region based on a correspondence relationship between the input image data and the registered image data;
An image collation method comprising: a collation processing step of collating the input image data and the registered image data while applying the weight determined by the weight determination unit to the weight target region.
JP2015187517A 2015-09-24 2015-09-24 Image matching device and image matching method Active JP6671133B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015187517A JP6671133B2 (en) 2015-09-24 2015-09-24 Image matching device and image matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015187517A JP6671133B2 (en) 2015-09-24 2015-09-24 Image matching device and image matching method

Publications (2)

Publication Number Publication Date
JP2017062633A true JP2017062633A (en) 2017-03-30
JP6671133B2 JP6671133B2 (en) 2020-03-25

Family

ID=58428844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187517A Active JP6671133B2 (en) 2015-09-24 2015-09-24 Image matching device and image matching method

Country Status (1)

Country Link
JP (1) JP6671133B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210106914A (en) * 2020-02-21 2021-08-31 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Image recognition method and apparatus, electronic device, and medium
US11495057B2 (en) 2017-12-08 2022-11-08 Nec Corporation Person verification device and method and non-transitory computer readable media

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128262A (en) * 2005-11-02 2007-05-24 Omron Corp Face collation device
JP2012128692A (en) * 2010-12-15 2012-07-05 Canon Inc Video processing device, video processing method and program
JP2014142817A (en) * 2013-01-24 2014-08-07 Fujitsu Ltd Image processing apparatus, image processing method, and image processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128262A (en) * 2005-11-02 2007-05-24 Omron Corp Face collation device
JP2012128692A (en) * 2010-12-15 2012-07-05 Canon Inc Video processing device, video processing method and program
JP2014142817A (en) * 2013-01-24 2014-08-07 Fujitsu Ltd Image processing apparatus, image processing method, and image processing program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11495057B2 (en) 2017-12-08 2022-11-08 Nec Corporation Person verification device and method and non-transitory computer readable media
US11748864B2 (en) 2017-12-08 2023-09-05 Nec Corporation Person verification device and method and non-transitory computer readable media
US11763435B2 (en) 2017-12-08 2023-09-19 Nec Corporation Person verification device and method and non-transitory computer readable media
US11776098B2 (en) 2017-12-08 2023-10-03 Nec Corporation Person verification device and method and non-transitory computer readable media
KR20210106914A (en) * 2020-02-21 2021-08-31 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Image recognition method and apparatus, electronic device, and medium
JP2021136004A (en) * 2020-02-21 2021-09-13 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Image recognition method, apparatus, electronic device, and medium
JP7096302B2 (en) 2020-02-21 2022-07-05 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Image recognition methods, devices, electronic devices and media
US11789997B2 (en) 2020-02-21 2023-10-17 Beijing Baidu Netcom Science And Technology Co., Ltd. Image recognition method and apparatus, electronic device, and medium
KR102642866B1 (en) * 2020-02-21 2024-03-04 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Image recognition method and apparatus, electronic device, and medium

Also Published As

Publication number Publication date
JP6671133B2 (en) 2020-03-25

Similar Documents

Publication Publication Date Title
US11087169B2 (en) Image processing apparatus that identifies object and method therefor
US8891819B2 (en) Line-of-sight detection apparatus and method thereof
US11915518B2 (en) Facial authentication device, facial authentication method, and program recording medium
KR101035055B1 (en) System and method of tracking object using different kind camera
US11380010B2 (en) Image processing device, image processing method, and image processing program
US20130329970A1 (en) Image authentication apparatus, image processing system, control program for image authentication apparatus, computer-readable recording medium, and image authentication method
JP2017033469A (en) Image identification method, image identification device and program
CA2794659A1 (en) Apparatus and method for iris recognition using multiple iris templates
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP6265592B2 (en) Facial feature extraction apparatus and face authentication system
JP2012190159A (en) Information processing device, information processing method, and program
US20150356346A1 (en) Feature point position detecting appararus, feature point position detecting method and feature point position detecting program
WO2016067573A1 (en) Orientation estimation method and orientation estimation device
US10872268B2 (en) Information processing device, information processing program, and information processing method
JP2017211938A (en) Biological information processor, biological information processing method and biological information processing program
JP2014021602A (en) Image processor and image processing method
JP6671133B2 (en) Image matching device and image matching method
JP6497007B2 (en) Information processing apparatus, information processing method, and program
JP2017084065A (en) Identity theft detection device
JP2015187769A (en) Object detection device, object detection method, and program
JP6789676B2 (en) Image processing equipment, image processing methods and programs
JP2017004512A (en) Image processing apparatus, image processing method, and program
JP4812743B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
EP3168780B1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
Zhao et al. A novel complete face detection method in color images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200303

R150 Certificate of patent or registration of utility model

Ref document number: 6671133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150