JP2017062633A - Image collation device and image collation method - Google Patents
Image collation device and image collation method Download PDFInfo
- Publication number
- JP2017062633A JP2017062633A JP2015187517A JP2015187517A JP2017062633A JP 2017062633 A JP2017062633 A JP 2017062633A JP 2015187517 A JP2015187517 A JP 2015187517A JP 2015187517 A JP2015187517 A JP 2015187517A JP 2017062633 A JP2017062633 A JP 2017062633A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- weight
- input image
- registered
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、監視カメラ等で撮影された入力画像データに含まれる人物や車両等の対象物と登録画像データに含まれる対象物の態様が異なる場合に、正確かつ効率的に画像照合を行う画像照合装置及び画像照合方法に関する。 The present invention provides an image for accurately and efficiently performing image matching when the object such as a person or vehicle included in the input image data photographed by a monitoring camera or the like and the object included in the registered image data are different from each other. The present invention relates to a collation device and an image collation method.
従来、入力画像データに含まれる対象物と、あらかじめ登録された登録画像データに含まれる対象物とを色特徴を用いて照合することで、入力画像データから特定の対象物を検出する技術が知られている。 Conventionally, a technique for detecting a specific object from input image data by comparing an object included in input image data with an object included in registered image data registered in advance using color features is known. It has been.
例えば、特許文献1には、物体の領域全体を高さ毎の領域に分割し、分割された各領域の色を抽出して平均化し、平均化された高さ毎の領域の色に基づいて物体全体の高さ毎の色特徴分布を作成し、各物体の色特徴分布と比較すべき物体の色特徴分布との比較に基づいて物体と比較すべき物体の同定を行う物体の同定方法が開示されている。 For example, in Patent Document 1, the entire region of an object is divided into regions for each height, the colors of the divided regions are extracted and averaged, and based on the averaged region colors for each height. There is an object identification method that creates a color feature distribution for each height of the entire object and identifies the object to be compared with the object based on the comparison of the color feature distribution of each object with the color feature distribution of the object to be compared. It is disclosed.
また、特許文献2には、第1の撮影手段で撮影された登録画像データに基づいて人物の衣服特徴に関する情報を抽出してデータベース化しておき、他の環境において、1または2以上の第2の撮影手段で撮影された入力画像データに基づいて人物の衣服特徴に関する情報を抽出し、データベースとの照合を行って入力画像データに含まれる所定の人物を検索する人物検索システムが開示されている。 Further, in Patent Document 2, information related to the clothing characteristics of a person is extracted based on the registered image data photographed by the first photographing means and stored in a database. In other environments, one or two or more second A person search system is disclosed that extracts information on clothes characteristics of a person based on input image data photographed by the photographing means and searches a predetermined person included in the input image data by collating with the database. .
しかしながら、上記特許文献1及び2に代表される従来技術のものは、入力画像データに含まれる人物の向きや姿勢が登録画像データに含まれる人物の向きや姿勢と異なる場合には、人物を正確に同定できない可能性がある。人物の向きや姿勢が異なると、色特徴分布や衣服特徴が異なってしまうからである。 However, in the related art represented by Patent Documents 1 and 2, when the orientation and orientation of the person included in the input image data are different from the orientation and orientation of the person included in the registered image data, the person is accurately identified. May not be identified. This is because the color feature distribution and clothing features differ if the orientation and posture of the person differ.
また、入力画像データに含まれる人物がカバンや杖などの所持品を所持しているにも関わらず、登録画像データに含まれる人物が所持品を所持していない場合には、同一人であっても色特徴分布や衣服特徴に差違が生じ、誤って他人であると判定される可能性がある。 In addition, if the person included in the input image data has personal belongings such as a bag or a cane but the person included in the registered image data does not have personal belongings, the person is the same person. However, there may be a difference in color feature distribution and clothing features, and it may be erroneously determined that the person is another person.
これらのことから、入力画像データと登録画像データに含まれる人物等の向き、姿勢、所持品等の態様が異なる場合に、いかに正確かつ効率的に画像照合を行うかが重要な課題となっている。かかる課題は、人物を対象とする場合にのみ生ずる課題ではなく、車両等の他の対象物を対象とする場合にも同様に生ずる課題である。 For these reasons, it is an important issue how to perform image matching accurately and efficiently when the input image data and registered image data have different orientations, postures, belongings, etc. Yes. Such a problem is not only a problem that occurs only when a person is targeted, but also a problem that occurs when another object such as a vehicle is targeted.
本発明は、上記従来技術の課題を解決するためになされたものであって、入力画像データと登録画像データに含まれる対象物の態様が異なる場合であっても、正確かつ効率的に画像照合を行うことができる画像照合装置及び画像照合方法を提供することを目的とする。 The present invention has been made in order to solve the above-described problems of the prior art, and is capable of accurately and efficiently performing image verification even when input image data and registered image data have different object forms. An object of the present invention is to provide an image collation apparatus and an image collation method capable of performing the above.
上記の課題を解決するため、本発明は、所定の対象物が映り込んだ入力画像データと、あらかじめ登録された登録画像データとを照合処理する画像照合装置であって、前記入力画像データ及び/又は前記登録画像データの対象物の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定部と、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部とを備えたことを特徴とする。 In order to solve the above-described problems, the present invention provides an image collation apparatus that collates input image data in which a predetermined object is reflected and registered image data registered in advance, and the input image data and / or Alternatively, based on the correspondence relationship between the input image data and the registered image data, the weight target region specifying unit that divides the target object region of the registered image data and specifies the weight target region that forms a part of the divided region. A weight determination unit that determines a weight to be given to the weight target region, and a verification that applies the weight determined by the weight determination unit to the weight target region and performs a verification process on the input image data and the registered image data And a processing unit.
また、本発明は、上記の発明において、前記重み決定部は、前記入力画像データに含まれる対象物の態様と、前記登録画像データに含まれる対象物の態様とが一致又は類似する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる対象物の態様と、前記登録画像データに含まれる対象物の態様とが類似しない場合には、前記重み対象領域に付与する重みを下げることを特徴とする。 Also, in the present invention according to the above invention, the weight determination unit may be configured such that the aspect of the object included in the input image data and the aspect of the object included in the registered image data match or are similar to each other. , Increase the weight to be given to the weight target area, and if the aspect of the target object included in the input image data and the aspect of the target object included in the registered image data are not similar, give to the weight target area It is characterized by lowering the weight to be performed.
また、本発明は、上記の発明において、前記重み決定部は、前記入力画像データに含まれる対象物の向きと、前記登録画像データに含まれる対象物の向きとが一致する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる対象物の向きと、前記登録画像データに含まれる対象物の向きとが一致しない場合には、前記重み対象領域に付与する重みを下げることを特徴とする。 Further, the present invention is the above invention, wherein the weight determination unit, when the direction of the object included in the input image data and the direction of the object included in the registered image data match, The weight given to the weight target area is increased when the weight given to the weight target area is increased, and the direction of the target included in the input image data does not match the direction of the target included in the registered image data It is characterized by lowering.
また、本発明は、上記の発明において、前記重み決定部は、前記入力画像データに含まれる前記対象物に特徴部が存在し、かつ、前記登録画像データに含まれる前記対象物に前記特徴部が存在する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に特徴部が存在しない場合には、前記重み対象領域に付与する重みを下げることを特徴とする。 Also, in the present invention according to the above invention, the weight determination unit includes a feature in the object included in the input image data, and the feature in the object included in the registered image data. If there is a feature in one of the input image data or the registered image data, the weight to be given to the weight target area is lowered. It is characterized by.
また、本発明は、上記の発明において、前記照合処理部は、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データの重み付きヒストグラムをそれぞれ算定し、算定した重み付きヒストグラムに基づいて、前記入力画像データ及び前記登録画像データを照合処理することを特徴とする。 Further, according to the present invention, in the above invention, the collation processing unit applies a weighted histogram of the input image data and the registered image data while applying the weight determined by the weight determination unit to the weight target region. The input image data and the registered image data are collated based on the calculated weighted histograms.
また、本発明は、上記の発明において、前記照合処理部は、前記入力画像データ及び前記登録画像データをそれぞれ色又は濃淡が類似する小領域に分割し、前記重み対象領域に対応する小領域に対して前記重み決定部により決定された重みを適用しつつ、前記入力画像データの小領域と前記登録画像データの小領域とを照合処理することを特徴とする。 Further, according to the present invention, in the above invention, the collation processing unit divides the input image data and the registered image data into small regions having similar colors or shades, and defines the small regions corresponding to the weight target regions. On the other hand, the small area of the input image data and the small area of the registered image data are collated while applying the weight determined by the weight determining unit.
また、本発明は、所定の対象物が映り込んだ入力画像データと、あらかじめ登録された登録画像データとを照合処理する画像照合装置における画像照合方法であって、前記入力画像データ及び/又は前記登録画像データの対象物の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定ステップと、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定ステップと、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理ステップとを含んだことを特徴とする。 Further, the present invention is an image collating method in an image collating apparatus for collating input image data in which a predetermined object is reflected and registered image data registered in advance, wherein the input image data and / or the input image data Based on the correspondence relationship between the input image data and the registered image data, the weight target region specifying step for dividing the region of the object of the registered image data and specifying the weight target region that forms a part of the divided region, A weight determining step for determining a weight to be given to the weight target region; and a collation processing step for performing the collation processing on the input image data and the registered image data while applying the weight determined by the weight determining unit to the weight target region. It is characterized by including.
本発明によれば、所定の対象物が映り込んだ入力画像データと、あらかじめ登録された登録画像データとを照合処理する画像照合装置であって、前記入力画像データ及び/又は前記登録画像データの一部をなす重み対象領域を特定する重み対象領域特定部と、前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部とを備えるよう構成したので、入力画像と登録画像に含まれる対象物の態様が異なる場合であっても、正確かつ効率的に画像照合を行うことができる。 According to the present invention, there is provided an image collation apparatus that collates input image data in which a predetermined object is reflected and registered image data registered in advance, wherein the input image data and / or the registered image data A weight target area specifying unit for specifying a part of the weight target area; a weight determining unit for determining a weight to be given to the weight target area based on a correspondence relationship between the input image data and the registered image data; The input image and the registered image are included because the input image data and the registered image data are collated while applying the weight determined by the weight determining unit to the weight target area. Even if the object has a different aspect, image collation can be performed accurately and efficiently.
以下、添付図面を参照して、本発明に係る画像照合装置及び画像照合方法の実施例を説明する。なお、以下に示す実施例1では、登録画像データ及び入力画像データにそれぞれ含まれる人物の向きを利用して重みを決定する場合について説明し、実施例2では、登録画像データ及び入力画像データにそれぞれ含まれる人物の所持品を利用して重みを決定する場合について説明することとする。 Embodiments of an image matching apparatus and an image matching method according to the present invention will be described below with reference to the accompanying drawings. In the first embodiment described below, a case where weights are determined using the orientations of persons included in registered image data and input image data will be described. In the second embodiment, registered image data and input image data A case will be described in which the weight is determined using the personal belongings included in each.
まず、本実施例1に係る画像照合装置の特徴について説明する。図1は、本実施例1に係る画像照合装置の特徴を説明するための説明図である。なお、ここでは登録画像データA及び入力画像データBを人物の洋服など外観上の色の一致度を用いて照合処理する場合を示すこととする。監視カメラから取得された画像データからは、十分な解像度を持った画像データが得られない場合があり、顔照合等の詳細な形状特徴に基づく照合処理を行えない場合があるためである。 First, features of the image collating apparatus according to the first embodiment will be described. FIG. 1 is an explanatory diagram for explaining the features of the image matching apparatus according to the first embodiment. Here, a case is shown in which the registered image data A and the input image data B are collated using the degree of matching of appearance colors such as a person's clothes. This is because there may be cases where image data having sufficient resolution cannot be obtained from the image data acquired from the surveillance camera, and collation processing based on detailed shape features such as face collation may not be performed.
図1(a)に示すように、登録画像データA1には人物の正面像が含まれ、入力画像データB1には人物の正面像が含まれている場合には、図中に斜線で示す人物の正面上部を特徴部分としてその重みを大きくする。図中に斜線で示す人物の正面上部は、特徴的な色合いが現れることが多いためである。ただし、人物の正面上部以外の他の部分を特徴部分とすることもできる。 As shown in FIG. 1A, when the registered image data A1 includes a front image of a person and the input image data B1 includes a front image of a person, the person indicated by diagonal lines in the figure. The weight is increased with the upper part of the front as a characteristic part. This is because the upper part of the front of the person indicated by hatching in the figure often has a characteristic hue. However, a portion other than the upper front portion of the person can be used as the characteristic portion.
一方、図1(b)に示すように、登録画像データA1には人物の正面像が含まれ、入力画像データB2には人物の側面像が含まれている場合には、図中に白領域で示す人物の特徴部分の重みを小さくする。入力画像データB2には人物の正面上部が現れないためである。 On the other hand, as shown in FIG. 1B, when the registered image data A1 includes a front image of a person and the input image data B2 includes a side image of a person, The weight of the characteristic part of the person indicated by is reduced. This is because the upper front part of the person does not appear in the input image data B2.
このように、登録画像データA及び入力画像データBを人物の向きに基づいて、特徴部分の重みを変化させることにより、特徴部分を考慮した正確な照合処理を行うことが可能となる。 As described above, the registered image data A and the input image data B can be accurately collated in consideration of the feature portion by changing the weight of the feature portion based on the orientation of the person.
次に、本実施例1に係る画像照合装置の構成について説明する。図2は、本実施例1に係る画像照合装置の構成を示す機能ブロック図である。図2に示すように画像照合装置20は、カメラ10、操作部30及び表示部40と接続される。
Next, the configuration of the image matching device according to the first embodiment will be described. FIG. 2 is a functional block diagram illustrating the configuration of the image collating apparatus according to the first embodiment. As shown in FIG. 2, the image matching device 20 is connected to the
カメラ10は、周囲を撮像する監視カメラなどの撮像装置である。画像照合装置20は、カメラ10により撮像された撮像データから人物の像を含む領域を切り出して、入力画像データBとして用いる。カメラ10は、1つである必要は無く、複数の撮像装置をそれぞれカメラ10として利用することができる。
The
操作部30は、キーボード、マウス、専用の操作パネルなど、操作者の操作入力を受け付ける入力インタフェースである。表示部40は、液晶ディスプレイ等の表示出力を行う出力インタフェースである。
The
画像照合装置20は、その内部に記憶部21及び制御部22を有する。記憶部21は、ハードディスク装置や不揮発性メモリ等の記憶デバイスであり、登録データ21aを記憶する。また、記憶部21は、照合の過程において生成される候補画像リスト21bの記憶に用いられる。
The image matching device 20 includes a
登録データ21aは、複数の登録画像データAを有し、各登録画像データAには向きデータが対応付けられている。複数の登録画像データAは、例えば異なる人物についてそれぞれ生成したものであり、1つの登録画像データAには人物の像が1つ含まれている。向きデータは、対応する登録画像データAにおける人物の向きを示す。図2では、登録画像データA1に向きデータA1aを対応付けた状態を示している。
The registered
候補画像リスト21bは、後述する照合において、入力画像データBとの類似度がしきい値以上となる登録画像データAのリストである。すなわち、候補画像リスト21bは、入力画像データBに示された人物と一致する可能性のある人物の候補を示す。
The
制御部22は、画像照合装置20を全体制御する制御部であり、前処理部22a、重み対象領域特定部22b、重み決定部22c、トータルスコア算出部22d、判定処理部22e及び表示制御部22fを有する。実際には、これらの機能部に対応するプログラムを図示しないROMや不揮発性メモリに記憶しておき、これらのプログラムをCPU(Central Processing Unit)にロードして実行することにより、前処理部22a、重み対象領域特定部22b、重み決定部22c、トータルスコア算出部22d、判定処理部22e及び表示制御部22fにそれぞれ対応するプロセスを実行させることになる。
The
前処理部22aは、照合の前処理として、カメラ10により撮像された撮像データから入力画像データBを生成する処理部である。具体的には、前処理部22aは、撮像データから人物の像を検出し、人物の向きを推定し、人物の像を含む領域を人物領域として切り出す。そして、切り出した人物領域の大きさを正規化し、画素のヒストグラムを平坦化して入力画像データBを生成する。
The
重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について、人物の部位を推定し、推定した部位から重み対象領域を特定する処理部である。重み対象領域としては、人物の部位のうち、人物の特徴を多く含む特徴部分を用いる。例えば、人物の正面上部は、人物の特徴を多く含む特徴部分であり、この特徴部分を重み対象領域とする。
The weight target
重み決定部22cは、登録画像データA及び入力画像データBの対応関係に基づいて、重み対象領域に付与する重みを決定する処理部である。ここで、重み決定部22cは、登録画像データA及び入力画像データBの対応関係に、人物の向きを利用する。
The
具体的には、重み決定部22cは、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きとが一致する場合には、重み対象領域に付与する重みを上げる。一方、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きとが一致しない場合には、重み対象領域に付与する重みを下げる。
Specifically, the
トータルスコア算出部22dは、重み決定部22cにより決定された重みを重み対象領域に適用し、適用した重みに基づき入力画像データBと登録画像データAを照合処理し、一致度合を示すトータルスコアを算出する処理部である。
The total
具体的には、トータルスコア算出部22dは、人物の部位毎に一致度合を評価した評価値である照合スコアSHSVと、色が類似する小領域毎に一致度合を評価した評価値である照合スコアSSEGとを算定し、照合スコアSHSVと照合スコアSSEGの合計をトータルスコアとして算出する。照合スコアSHSV及び照合スコアSSEGの具体的な算出処理については後述する。
Specifically, the total
判定処理部22eは、トータルスコアとしきい値とを比較することで、入力画像データBに示された人物と登録画像データAに示された人物とが同一人物である可能性が高いか否かを判定する処理部である。判定処理部22eは、判定の結果、トータルスコアがしきい値以上となった登録画像データAを候補画像リスト21bに登録する。
The
表示制御部22fは、候補画像リスト21bに登録された登録画像データAを表示部40に表示制御する処理部である。操作者は、この表示制御により、入力画像データBに示された人物と一致する人物の候補を確認することができる。
The
次に、画像照合装置20の処理手順について説明する。図3は、画像照合装置20の処理手順を示すフローチャートである。まず、カメラ10から撮像データを受け付けると(ステップS101)、画像照合装置20の前処理部22aは、撮像データに対して前処理を行い、入力画像データBを生成する(ステップS102)。
Next, the processing procedure of the image collation apparatus 20 will be described. FIG. 3 is a flowchart showing a processing procedure of the image collating apparatus 20. First, when imaging data is received from the camera 10 (step S101), the
また、判定処理部22eは、複数の登録画像データAからいずれかを選択する(ステップS103)。重み対象領域特定部22b及び重み決定部22cは、ステップS102で生成された入力画像データBと、ステップS103で選択された登録画像データAとを用いて重み設定処理を行う(ステップS104)。
Further, the
トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを人物の部位毎に照合し、照合スコアSHSVを算出する(ステップS105)。
The total
また、トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを色が類似する小領域毎に照合し、照合スコアSSEGを算出する(ステップS106)。
Further, the total
トータルスコア算出部22dは、照合スコアSHSVと照合スコアSSEGとを合計し、トータルスコアSを算出する(ステップS107)。判定処理部22eは、トータルスコアSとしきい値Tとを比較する(ステップS107)。
The total
その結果、トータルスコアSがしきい値T以上であるならば(ステップS108;Yes)、判定処理部22eは、ステップS103で選択された登録画像データAを候補画像リスト21bに登録する(ステップS109)。
As a result, if the total score S is equal to or greater than the threshold value T (step S108; Yes), the
ステップS109の後、若しくはトータルスコアSがしきい値T未満である場合(ステップS108;No)、判定処理部22eは、ステップS103で選択されていない未処理の登録画像データAが残っているか否かを判定する(ステップS110)。未処理の登録画像データAが残っているならば(ステップS110;Yes)、判定処理部22eは、ステップS103に移行し、未処理の登録画像データAからいずれかを選択する。
After step S109 or when the total score S is less than the threshold value T (step S108; No), the
未処理の登録画像データAが残っていなければ(ステップS110;No)、表示制御部22fは、候補画像リスト21bに登録された登録画像データAを表示部40に表示し(ステップS111)、処理を終了する。
If unprocessed registered image data A does not remain (step S110; No), the
次に、図3のステップS102に示した前処理について詳細に説明する。図4は、図3に示した前処理の処理手順を示すフローチャートである。前処理部22aは、まず、撮像データから人物の像を検出し(ステップS201)、人物の向きを推定する(ステップS202)。人物の像の検出と人物の向きの推定には、例えば向きの異なる人物の形状をそれぞれモデル化した複数のテンプレートを用意し、パターンマッチングで対象を探せばよい。なお、パターンマッチングの手法については、SVMなどの機械学習や部分空間法など、任意の手法を用いることができる。
Next, the preprocessing shown in step S102 of FIG. 3 will be described in detail. FIG. 4 is a flowchart showing a processing procedure of the preprocessing shown in FIG. First, the
前処理部22aは、検出した人物の像を含む領域を人物領域として切り出し(ステップS203)、切り出した人物領域の大きさを正規化し(ステップS204)、画素のヒストグラムを平坦化する(ステップS205)。これらの処理により得られた画像データが入力画像データBであり、ステップS205の後、前処理部22aは前処理を終了して図3の処理に戻る。
The
図5は、図4に示した前処理を説明するための説明図である。図5に示した画像データC1は、カメラ10が撮像した撮像データに対応する。パターンマッチング等でこの画像データC1から人物領域を切り出して、大きさを正規化することにより、画像データC2が得られる。前処理部22aは、画像データC2から背景を除去して画像データC3を生成し、さらに画像データC3における画素のヒストグラムを平坦化することで画像データC4を生成する。この画像データC4が入力画像データBに対応する。
FIG. 5 is an explanatory diagram for explaining the preprocessing shown in FIG. The image data C1 illustrated in FIG. 5 corresponds to the image data captured by the
前処理部22aによるヒストグラムの平坦化についてさらに説明する。図6は、図4に示したヒストグラムの平坦化を説明するための説明図である。前処理部22aは、ヒストグラムの平坦化に際し、まず、画像データC3をHSV変換する。このHSV変換により、画像データC3の色相成分を示す画像データC3hと、画像データC3の彩度成分を示す画像データC3sと、画像データC3の明度成分を示す画像データC3vとが得られる。
The histogram flattening by the
前処理部22aは、画像データC3vの人物領域内の画素に対して次の変換を行って画像データC3v’を生成する。
その後、前処理部22aは、画像データC3h、画像データC3s及び画像データC3v’をRGB画像に変換することで、入力画像データBに対応する画像データC4を生成する。
Thereafter, the
図7は、ヒストグラムの平坦化の概念を説明するための説明図である。図7(a)は、平坦化前の画像データC3vにおける明度成分のヒストグラムであり、図7(b)は、平坦化後の画像データC3v’における明度成分のヒストグラムである。平坦化の前後を比較すると、平坦化前には明度値xが狭い範囲に偏っているのに対し、平坦化後には明度値xが偏り無く分布している。 FIG. 7 is an explanatory diagram for explaining the concept of histogram flattening. FIG. 7A is a histogram of lightness components in the image data C3v before flattening, and FIG. 7B is a histogram of lightness components in the image data C3v ′ after flattening. Comparing before and after flattening, the lightness value x is biased to a narrow range before flattening, whereas the lightness value x is distributed evenly after flattening.
このようにヒストグラムを平坦化することにより、入力画像データBにおける明るさの偏りを解消し、入力画像データBと登録画像データAとの間で明るさを揃えることができる。 By flattening the histogram in this way, it is possible to eliminate the unevenness of brightness in the input image data B and to align the brightness between the input image data B and the registered image data A.
次に、図3のステップS104に示した重み設定処理について詳細に説明する。図8は、図3に示した重み設定処理の処理手順を示すフローチャートである。まず、重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について人物の部位を推定する(ステップS301)。さらに、重み対象領域特定部22bは、推定した部位から重み対象領域を特定する(ステップS302)。
Next, the weight setting process shown in step S104 of FIG. 3 will be described in detail. FIG. 8 is a flowchart showing a processing procedure of the weight setting process shown in FIG. First, the weight target
重み決定部22cは、入力画像データBについて推定された人物の向きと、登録画像データAに対応する向きデータに示された向きに基づいて、重み対象領域に付与する重みを決定する(ステップS303)。この重みの決定により重み設定処理は終了し、図3の処理に戻る。
The
次に、重み対象領域特定部22bによる部位の推定について説明する。図9は、重み対象領域特定部22bによる部位の推定についての説明図である。まず、重み対象領域特定部22bは、登録画像データA及び入力画像データBに含まれる人物の像について、頭、体、足及び中心軸を推定する。なお、本実施例において「体」とは、身体のうち頭と足を除いた部分のことである。また、身体のうち頭と手足を除いた部分としてもよい。
Next, the part estimation by the weight target
図9(a)は、頭、体及び足の推定についての説明図である。重み対象領域特定部22bは、登録画像データA及び入力画像データBについて、足と体の境界を示すiTL、体と頭の境界示すiHLyをそれぞれ算出する。iTL及びiHLyは、登録画像データA及び入力画像データBにおける高さ方向、即ちY軸の値として求められる。
FIG. 9A is an explanatory diagram of head, body and foot estimation. For the registered image data A and the input image data B, the weight target
iTLyを算出する場合、重み対象領域特定部22bは、yをΔy内で走査しながら、σy1とσy2の間の以下の特徴Fを計算する。
F(y)=1−C(y,σ)+S(y,σ)
When iTLy is calculated, the weight target
F (y) = 1−C (y, σ) + S (y, σ)
ここで、Δyは、登録画像データA及び入力画像データBにおいてiTLyが所在する可能性のある範囲を予め指定した指定範囲である。登録画像データA及び入力画像データBは人物領域として切り出されているため、足と体の境界が極端に高い位置や低い位置に所在することはない。そこで、足と体の境界が所在しない範囲を除外し、Δyを予め指定しているのである。 Here, Δy is a designated range in which a range where iTLy may be located in the registered image data A and the input image data B is designated in advance. Since the registered image data A and the input image data B are cut out as person regions, the boundary between the foot and the body is never located at an extremely high or low position. Therefore, the range where the foot-body boundary is not located is excluded and Δy is designated in advance.
また、σy1及びσy2は、登録画像データA及び入力画像データBにおいて、部分的な特徴を検知できる程度の面積が含まれるよう設定された部分領域である。σy1及びσy2のx軸方向の幅は登録画像データA及び入力画像データBのx軸方向の幅に等しい。また、σy1のy軸方向の高さとσy2のy軸方向の高さとは同一である。そしてσy1は下端が変数yの値であり、変数yの上方に設定される。σy2は上端が変数yの値であり、変数yの下方に設定される。 Further, σy1 and σy2 are partial regions set so that the registered image data A and the input image data B include an area that can detect a partial feature. The widths of σy1 and σy2 in the x-axis direction are equal to the widths of registered image data A and input image data B in the x-axis direction. Further, the height of σy1 in the y-axis direction is the same as the height of σy2 in the y-axis direction. The lower end of σy1 is the value of the variable y, and is set above the variable y. The upper end of σy2 is the value of the variable y, and is set below the variable y.
C(y,σ)はHSV色空間におけるσy1とσy2との間のユークリッド距離である。S(y,σ)は、σy1内における人物部分とσy2内における人物部分の面積の差である。重み対象領域特定部22bは、F(y)が最小となるy座標を求め、そのy座標をiTLyとする。
C (y, σ) is the Euclidean distance between σy1 and σy2 in the HSV color space. S (y, σ) is the difference in area between the person portion in σy1 and the person portion in σy2. The weight target
iHLを算出する場合には、重み対象領域特定部22bは、iTLyと同様にyを指定範囲内で走査しながら、以下の特徴Fを計算する。
F(y)=S(y,σ)
そして、F(y)が最大となるy座標を求め、そのy座標をiHLとする。なお、iHLを算出する場合の指定範囲は、iHLが所在する可能性のある範囲を予め指定したものである。
When calculating iHL, the weight target
F (y) = S (y, σ)
Then, the y coordinate at which F (y) is maximized is obtained, and the y coordinate is set to iHL. Note that the designated range when iHL is calculated is a range in which the iHL may be located in advance.
図9(b)は、中心軸の推定についての説明図である。重み対象領域特定部22bは、体の中心軸jLR1と、足の中心軸jLR2とをそれぞれ求める。体の中心軸を求める場合には、対象範囲はiTLからiHLyまでであり、足の中心軸を求める場合には、対象範囲は下端(y=0)からiHLyまでである。jLR1及びjLR2は、登録画像データA及び入力画像データBにおける横方向、即ちx軸の値として求められる。
FIG. 9B is an explanatory diagram regarding the estimation of the central axis. The weight target
中心軸を算出する場合、重み対象領域特定部22bは、xを走査しながら、σx1とσx2の間の以下の特徴Fを計算する。
F(x)=C(x,σ)+S(x,σ)
そして、F(x)が最小となるx座標を中心軸とする。
When calculating the central axis, the weight target
F (x) = C (x, σ) + S (x, σ)
Then, the x-coordinate at which F (x) is minimum is set as the central axis.
ここで、σx1を変数xの左側の部分領域、σx2を変数xの右側の部分領域とする。図9(b)では、足の中心軸jLR2を求める場合のσx1及びσx2を示している。σx1及びσx2のy軸方向の高さは対象範囲の高さに等しい。また、σx1のx軸方向の幅とσx2のx軸方向の幅とは同一である。この幅は、対象範囲における人物部分の半分以上を含むように設定することが好適である。そしてσx1は右端が変数xの値であり、σx2は左端が変数xの値である。 Here, σx1 is a partial region on the left side of the variable x, and σx2 is a partial region on the right side of the variable x. FIG. 9B shows σx1 and σx2 when the center axis jLR2 of the foot is obtained. The height of σx1 and σx2 in the y-axis direction is equal to the height of the target range. Also, the width of σx1 in the x-axis direction and the width of σx2 in the x-axis direction are the same. This width is preferably set to include more than half of the person portion in the target range. Σx1 is the value of the variable x at the right end, and σx2 is the value of the variable x at the left end.
重み対象領域特定部22bは、iTL、iHLy、jLR1、jLR2に加え、登録画像データA及び入力画像データBの向きを用いて重み対象領域を特定する。図10は、重み対象領域の特定についての説明図である。
The weight target
まず、登録画像データAや入力画像データBにおける人物の向きが正面である場合には、重み対象領域特定部22bは、頭、足、体の左、体の中央、体の右の5つのエリアを設定する。一方、人物の向きが側面や背面である場合には、頭、足、体の3つのエリアを設定する。
First, when the orientation of the person in the registered image data A and the input image data B is the front, the weight target
図10(a)では、登録画像データA2の人物の向きが正面である。このため、エリアデータPA2に示すように、頭、足、体の左、体の中央、体の右の5つのエリアが設定される。一方、図10(b)では、入力画像データB3の人物の向きが背面である。このため、エリアデータPB3に示すように、頭、足、体の3つのエリアが設定される。 In FIG. 10A, the orientation of the person in the registered image data A2 is the front. For this reason, as shown in the area data PA2, five areas of the head, the foot, the left of the body, the center of the body, and the right of the body are set. On the other hand, in FIG. 10B, the orientation of the person in the input image data B3 is the back side. For this reason, as shown in the area data PB3, three areas of a head, a foot, and a body are set.
なお、体の部位を体の左、体の中央、体の右の3つに分割する位置は、体の中心軸jLR1から左右にwだけ離れた位置とする。ここで、wについては、画像データの幅と正規化された人物の大きさから、予め適切な値を設定しておく。 Note that the position where the body part is divided into the left part of the body, the center of the body, and the right part of the body is a position separated by w from the center axis jLR1 of the body. Here, for w, an appropriate value is set in advance from the width of the image data and the normalized size of the person.
重み対象領域特定部22bは、設定したエリアから重み対象領域の選択を行う。例えば、体の中央は人物の特徴を多く含む特徴部分であり、重み対象領域として好適である。また、設定した全てのエリアを重み対象領域とし、各エリアに対して重み設定を行うことも可能である。
The weight target
次に、重み決定部22cによる重みの決定について説明する。図11は、重み決定部22cによる重みの決定についての説明図である。重み決定部22cは、登録画像データA及び入力画像データBにおける人物の向きの組合せに基づいて重みを決定する。
Next, determination of the weight by the
図11には、人物の向きの組合せと重みとの対応関係を示している。なお、図11の斜線領域は重みを上げることで強調して特徴抽出を行うことを示し、白領域は重みを下げて特徴抽出を行うことを示す。 FIG. 11 shows a correspondence relationship between combinations of person orientations and weights. 11 indicates that feature extraction is performed with emphasis by increasing the weight, and white region indicates that feature extraction is performed with the weight reduced.
図11に示したように、重み決定部22cは、人物の向きの組合せが「正面−正面」である場合には、体の中央の重みを上げる。服のデザインやネクタイやスカーフの着用により、体の中央に特徴がある場合が多いためである。一方、人物の向きの組合せが「正面−側面」である場合には、体の中央の重みを下げる。また、人物の向きの組合せが「正面−背面」である場合には、体の中央と頭の重みを下げる。体の中央の特徴が側面や背面には現れない場合が多いためである。また頭は、正面と側面と背面の特徴は大きく異なるためである。そして人物の向きの組合せが「側面−背面」である場合には、頭の重みを下げる。なお、図示は省略したが、人物の向きの組合せが「背面−背面」である場合には、重みを付与しない。
As illustrated in FIG. 11, the
図11では、人物の向きが正面であれば、体の部位を中央と左右にエリア分けして異なる重みを付け、人物の向きが正面以外であれば、体の部位全体を1つのエリアとして同一の重みを付けている。このエリア分けは重みを付与する範囲を定めるものであり、照合の単位として用いるものではない。すなわち、体の部位について照合を行う場合には、3つのエリアに分けられた体の部位と、1つのエリアである体の部位とが照合されることになる。 In FIG. 11, if the person's orientation is the front, the body part is divided into areas of the center and the left and right, and different weights are given. If the person's orientation is other than the front, the entire body part is the same as one area. Is weighted. This area division defines a range to which weight is given, and is not used as a unit of collation. That is, when collating the body part, the body part divided into three areas and the body part that is one area are collated.
なお、本実施例では、正面、側面、背面それぞれの立位の3つの態様を用い、その組合せ毎に重み付けを定めたが、用いる態様は3つに限定されない。例えば、左斜め前方、右斜め前方などの方向や座位など姿勢について、さらに態様を追加することができる。その場合は、それぞれの態様に応じたテンプレートを用意して検出する。また、それぞれの態様の組合せ毎に、重み付けを定める。 In this embodiment, three modes of standing on the front, side, and back are used and weights are determined for each combination. However, the modes to be used are not limited to three. For example, it is possible to further add a mode for a posture such as a diagonally forward left direction and a diagonally forward right direction and a sitting position. In that case, a template corresponding to each aspect is prepared and detected. Further, a weight is determined for each combination of modes.
このように、重み決定部22cは、特徴部分が登録画像データA及び入力画像データBの双方に含まれていれば重みを上げ、一方にしか含まれない場合には重みを下げる。特徴部分が登録画像データA及び入力画像データBの双方に含まれていれば、その特徴部分は照合精度の向上に寄与するが、一方にしか含まれていない特徴部分はむしろ照合の精度を低下させるおそれがあり、特徴部分以外に注目した方が照合精度の向上が期待できるためである。
As described above, the
次に、図3のステップS105に示した照合スコアSHSVの算定について詳細に説明する。図12は、図3に示した照合スコアSHSVの算定の処理手順を示すフローチャートである。 Next, the calculation of the matching score S HSV shown in step S105 of FIG. 3 will be described in detail. FIG. 12 is a flowchart showing a processing procedure for calculating the matching score S HSV shown in FIG.
トータルスコア算出部22dは、まず、登録画像データAの部位毎に重み付き3次元HSVヒストグラムを算定する(ステップS401)。また、入力画像データBの部位毎に重み付き3次元HSVヒストグラムを算定する(ステップS402)。そして、各部位についてバチャタリヤ距離を算定し、その平均を照合スコアSHSVとして(ステップS403)、図3の処理に戻る。
First, the total
ここで、3次元HSVヒストグラムを算定における重みは、重み決定部22cにより決定された重みと、中心軸からの距離に応じたガウス分布による重みを乗算したものを用いる。なお、向きが正面である場合には、体の部位が3つのエリアに分かれているが、体の部位について3次元HSVヒストグラムを算定する際にはその全てのエリアが用いられる。
Here, as the weight in calculating the three-dimensional HSV histogram, a weight obtained by multiplying the weight determined by the
また、ヒストグラムh1とヒストグラムh2のバチャタリヤ距離は、ヒストグラムのビン数をnとして以下の式により求められる。
図13は、照合スコアSHSVの算定についての説明図である。図13では、登録画像データA2の人物の向きが正面であり、入力画像データB3の人物の向きが背面である。トータルスコア算出部22dは、登録画像データA2に対しては対応するエリアデータPA2を重み付けに用い、入力画像データB3に対しては対応するエリアデータPB3を重み付けに用いる。
FIG. 13 is an explanatory diagram for calculating the matching score S HSV . In FIG. 13, the orientation of the person in the registered image data A2 is the front, and the orientation of the person in the input image data B3 is the back. The total
トータルスコア算出部22dは、エリアデータPA2及びエリアデータPB3にもとづく重みをそれぞれ登録画像データA2と入力画像データB3とに適用し、登録画像データA2と入力画像データB3との部位別のヒストグラム照合を行い、照合スコアSHSVを算定する。
The total
次に、図3のステップS106に示した照合スコアSSEGの算定について詳細に説明する。図14は、図3に示した照合スコアSSEGの算定の処理手順を示すフローチャートである。 Next, the calculation of the matching score S SEG shown in step S106 of FIG. 3 will be described in detail. FIG. 14 is a flowchart showing a processing procedure for calculating the matching score S SEG shown in FIG.
トータルスコア算出部22dは、まず、登録画像データAを色領域に分割する(ステップS501)。色領域は、類似色で連続する画素からなる小領域である。同様に、トータルスコア算出部22dは、入力画像データBを色領域に分割する(ステップS502)。そして、色領域同士の照合スコアSSEGを算出し(ステップS503)、図3の処理に戻る。
First, the total
色領域同士の照合スコアSSEGは、次の式により求められる。
また、登録画像データAから分割した色領域について、その重心をgj、平均RGB値をcj、gjが属するエリアに設定された重みをwjとする。同様に、入力画像データBから分割した色領域について、その重心をgi、平均RGB値をci、giが属するエリアに設定された重みをwiとする。 For the color area divided from the registered image data A, the center of gravity is gj, the average RGB value is cj, and the weight set for the area to which gj belongs is wj. Similarly, regarding the color area divided from the input image data B, the center of gravity is set to gi, the average RGB value is set to ci, and the weight set to the area to which gi belongs is set to wi.
dij yは、重心のy座標の距離であり、
dij y=|giy-gjy|
により求める。
dij cは、平均RGBの距離であり、
dij c=|ci−cj|
により求める。
d ij y is the y-coordinate distance of the center of gravity,
d ij y = | g iy- g jy |
Ask for.
d ij c is the average RGB distance,
d ij c = | c i −c j |
Ask for.
wijは重みであり、
wij=1/min(wi,wj)
を用いる。なお、γは所定のパラメータである。また、ninはSseg1において用いた重みの和であり、ntpはSseg2において用いた重みの和である。そして、numinは入力画像データBから分割した色領域の数であり、numtpは登録画像データAから分割した色領域の数である。
w ij is the weight,
w ij = 1 / min (w i , w j )
Is used. Note that γ is a predetermined parameter. Further, n in is the sum of weights used in S seg1 , and n tp is the sum of weights used in S seg2 . Num in is the number of color areas divided from the input image data B, and num tp is the number of color areas divided from the registered image data A.
図15は、照合スコアSSEGの算定についての説明図である。図15では、登録画像データA2の人物の向きが正面であり、入力画像データB3の人物の向きが背面である。トータルスコア算出部22dは、登録画像データA2を色領域に分割して色領域データQA2を生成する。同様に、入力画像データB3を色領域に分割して色領域データQB3を生成する。
FIG. 15 is an explanatory diagram for calculating the matching score S SEG . In FIG. 15, the orientation of the person in the registered image data A2 is the front, and the orientation of the person in the input image data B3 is the back. The total
トータルスコア算出部22dは、色領域データQA2に対しては対応するエリアデータPA2を重み付けに用い、色領域データQB3に対しては対応するエリアデータPB3を重み付けに用いる。
The total
トータルスコア算出部22dは、エリアデータPA2及びエリアデータPB3にもとづく重みを用いて、色領域データQA2と色領域データQB3との色領域同士の照合を行って、照合スコアSSEGを算定する。
The total
次に、図3のステップS107に示したトータルスコアの算定について説明する。トータルスコア算出部22dは、照合スコアSHSVと照合スコアSSEGとを用い、トータルスコアSを
S=0.5×SHSV+0.5×SSEG
として算出する。ここでは、照合スコアSHSVと照合スコアSSEGにそれぞれ0.5を乗算した上で合計する場合を例示したが、この比率は適宜設定可能である。
Next, the calculation of the total score shown in step S107 in FIG. 3 will be described. The total
Calculate as Here, a case has been exemplified where the matching score S HSV and the matching score S SEG are multiplied by 0.5 and then summed, but this ratio can be set as appropriate.
上述してきたように、本実施例1に係る画像照合装置20は、登録画像データA及び入力画像データBから重み対象領域を特定し、登録画像データA及び入力画像データBに含まれる人物の向きの組合せに基づいて重み対象領域に付与する重みを決定し、決定された重みを重み対象領域に適用しつつ、登録画像データA及び入力画像データBを照合処理する。このため、登録画像データAと入力画像データBに含まれる人物の向きが異なる場合であっても、正確かつ効率的に画像照合を行うことができる。 As described above, the image collation apparatus 20 according to the first embodiment identifies the weight target area from the registered image data A and the input image data B, and the orientation of the person included in the registered image data A and the input image data B. The weight to be given to the weight target area is determined based on the combination of the registered image data A and the input image data B while applying the determined weight to the weight target area. For this reason, even when the orientations of the persons included in the registered image data A and the input image data B are different, image verification can be performed accurately and efficiently.
実施例1では、登録画像データ及び入力画像データにそれぞれ含まれる人物の向きを利用して重みを決定する場合について説明したが、本実施例2では、登録画像データ及び入力画像データにそれぞれ含まれる人物の所持品を利用して重みを決定する場合について説明する。 In the first embodiment, the case where the weights are determined using the orientations of persons included in the registered image data and the input image data has been described. In the second embodiment, the weights are included in the registered image data and the input image data, respectively. A case where the weight is determined using the personal belongings will be described.
図16は、本実施例2に係る画像照合装置の特徴を説明するための説明図である。なお、ここでは登録画像データA及び入力画像データBを人物の洋服や所持品の色の一致度を用いて照合処理する場合を示すこととする。 FIG. 16 is an explanatory diagram for explaining the features of the image collating apparatus according to the second embodiment. Here, it is assumed that the registered image data A and the input image data B are collated using the color matching degree of the person's clothes and personal belongings.
図16(a)に示すように、登録画像データA3に鞄を所持した人物の像が含まれ、入力画像データB4にも鞄を所持した人物の像が含まれている場合には、図中に斜線で示すように鞄に対応する領域を特徴部分としてその重みを大きくする。鞄などの所持品が同一であれば、同一人物である可能性が高く、その色合いを特徴部分とすることで照合精度を高めることができるためである。なお、鞄に限らず、他の所持品や帽子等を特徴部分とすることもできる。 As shown in FIG. 16A, when the registered image data A3 includes an image of a person who possesses a heel and the input image data B4 includes an image of a person who possesses a heel, As indicated by the hatched area, the area corresponding to the ridge is used as a characteristic part to increase its weight. This is because if the belongings such as a bag are the same, there is a high possibility that they are the same person, and the matching accuracy can be improved by using the color as a characteristic part. In addition, not only a bag but other personal belongings, a hat, etc. can also be made into a characteristic part.
一方、図16(b)に示すように、登録画像データA3には鞄を所持した人物の像が含まれ、入力画像データB5には鞄を持たない人物の像が含まれている場合には、図中に白領域で示すように鞄に対応する領域の重みを小さくする。鞄などの所持品は途中で手放す可能性があり、所持品が同一でないことは同一人物でないことの根拠とはならないので、所持品の特徴に注目して照合を行うとかえって照合精度が低下するおそれがあるためである。 On the other hand, as shown in FIG. 16B, when the registered image data A3 includes an image of a person with a heel and the input image data B5 includes an image of a person without a heel. As shown by the white area in the figure, the weight of the area corresponding to the eyelid is reduced. There is a possibility that items such as bags may be left in the middle, and if the items are not the same, it is not the basis for not being the same person. This is because there is a fear.
このように、登録画像データA及び入力画像データBにおける人物の所持品の有無により、所持品に対応する領域の重みを変化させることで、所持品の特徴を有効に利用して正確な照合処理を行うことが可能となる。 In this way, by accurately changing the weight of the area corresponding to the possessed item according to the presence or absence of the possessed item of the person in the registered image data A and the input image data B, an accurate matching process can be performed by effectively using the characteristics of the possessed item. Can be performed.
次に、本実施例2に係る画像照合装置の構成について説明する。図17は、本実施例2に係る画像照合装置の構成を示す機能ブロック図である。図17に示すように画像照合装置50は、記憶部21に記憶される登録データ54が実施例1に示した登録データ21aと異なる。また、前処理部51、重み対象領域特定部52及び重み決定部53の動作が実施例1に示した前処理部22a、重み対象領域特定部22b及び重み決定部22cと異なる。その他の構成及び動作については、実施例1に示した画像照合装置20と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。
Next, the configuration of the image collating apparatus according to the second embodiment will be described. FIG. 17 is a functional block diagram illustrating the configuration of the image collating apparatus according to the second embodiment. As shown in FIG. 17, in the
登録データ54は、複数の登録画像データAを有し、各登録画像データAには所持品データが対応付けられている。複数の登録画像データAは、例えば異なる人物についてそれぞれ生成したものであり、1つの登録画像データAには人物の像が1つ含まれている。所持品データは、対応する登録画像データAにおける人物の所持品を示す。図17では、登録画像データA3に所持品データA3bを対応付けた状態を示している。
The registered
前処理部51は、照合の前処理として、カメラ10により撮像された撮像データから入力画像データBを生成する処理部である。具体的には、前処理部51は、撮像データから人物の像を検出し、人物の所持品の有無を推定し、人物の像を含む領域を人物領域として切り出す。そして、切り出した人物領域の大きさを正規化し、画素のヒストグラムを平坦化して入力画像データBを生成する。なお、人物と所持品の像の検知には、任意の手法を用いることができる。例えば、連続して撮像された撮像データの差分から人物と所持品の双方を含む画像を切り出し、この画像に人物のパターンマッチングを行うことで人物の像を抽出することができる。そして、人物と所持品の双方を含む画像から人物の像を除外すれば、所持品の像が得られる。
The preprocessing
重み対象領域特定部52は、登録画像データA及び入力画像データBに含まれる人物の像について、所持品がある場合には所持品に対応する領域を重み対象領域として特定する処理を行う。
The weight target
重み決定部53は、登録画像データA及び入力画像データBの対応関係に基づいて、重み対象領域に付与する重みを決定する。ここで、重み決定部53は、登録画像データA及び入力画像データBの対応関係に、人物の所持品を利用する。具体的には、重み決定部53は、入力画像データBに含まれる人物について所持品があると推定され、かつ、登録画像データAに対応付けられた所持品データにより所持品があることが示されている場合には、重み対象領域に付与する重みを上げる。一方、入力画像データB又は登録画像データAの一方に所持品がない場合には、重み対象領域に付与する重みを下げる。
The
次に、画像照合装置50の処理手順について説明する。図18は、画像照合装置50の処理手順を示すフローチャートである。まず、カメラ10から撮像データを受け付けると(ステップS101)、画像照合装置50の前処理部51は、撮像データに対して前処理を行い、入力画像データBを生成する(ステップS602)。この前処理により、入力画像データBにおける所持品の有無が推定される。
Next, the processing procedure of the
また、判定処理部22eは、複数の登録画像データAからいずれかを選択する(ステップS103)。重み対象領域特定部52及び重み決定部53は、ステップS602で生成された入力画像データBと、ステップS103で選択された登録画像データAとを用いて重み設定処理を行う(ステップS604)。この重み設定では、所持品に対応する領域が重み対象領域として特定され、入力画像データBと登録画像データAにおける所持品の有無の組合せにより重みが決定されることになる。
Further, the
トータルスコア算出部22dは、ステップS104で設定された重みを重み対象領域に適用しつつ、入力画像データB及び登録画像データAを照合し、照合スコアSHSVを算出する(ステップS605)。ここで、入力画像データB及び登録画像データAは、所持品に対応する重み対象領域と所持品以外の人物領域とに分割され、トータルスコア算出部22dは、それぞれの領域について照合を行って照合スコアSHSVを算出することになる。以降の処理は、図3に示したフローチャートと同様であるので、説明を省略する。
The total
上述してきたように、本実施例2に係る画像照合装置50は、登録画像データA及び入力画像データBから所持品に対応する重み対象領域を特定し、登録画像データA及び入力画像データBに含まれる人物の所持品の有無の組合せに基づいて重み対象領域に付与する重みを決定し、決定された重みを重み対象領域に適用しつつ、登録画像データA及び入力画像データBを照合処理する。このため、登録画像データAと入力画像データBに含まれる人物の所持品の有無に関わらず、正確かつ効率的に画像照合を行うことができる。
As described above, the
なお、上記の実施例1及び2では、人物の照合を例に説明を行ったが、本発明は人物の照合に限定されるものではなく、車両等の他の対象物を照合する場合にも適用することができる。 In the first and second embodiments described above, the verification of the person has been described as an example. However, the present invention is not limited to the verification of the person, and the case where other objects such as a vehicle are compared is also described. Can be applied.
また、上記の実施例1及び2では、人物の外観上の色の一致度を用いて照合処理する場合を示したが、監視カメラ等の性能が向上し、解像度の高い画像データが取得できる場合は、例えば服の模様や装着物による形状特徴に基づく照合処理を行うことも可能である。本発明は、入力画像データと登録画像データ照合処理に際して、両画像の態様に応じた重み付けを行うものであり、照合処理の方式にはこだわらない。 In the first and second embodiments, the case where the matching process is performed using the color matching degree on the appearance of the person is shown. However, when the performance of the monitoring camera or the like is improved and high-resolution image data can be acquired. For example, it is also possible to perform a collation process based on a pattern of clothes or a shape feature depending on an attachment. In the present invention, the input image data and the registered image data are collated by weighting according to the mode of both images, and the collation processing method is not particular.
また、上記の実施例2では、所持品を対象物の特徴部として用いる場合を例に説明を行ったが、帽子や杖、車両のオプションパーツなど、対象物の態様に影響を与え、かつ着脱等が比較的容易であれば、任意の特徴部を用いることができる。 In the second embodiment, the case where the belongings are used as the characteristic part of the target object has been described as an example. Any feature can be used if it is relatively easy.
また、本実施例に図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部または一部を各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Each configuration illustrated in the present embodiment is functionally schematic and does not necessarily need to be physically configured as illustrated. In other words, the form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part thereof may be functionally / physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured.
本発明に係る画像照合装置及び画像照合方法は、入力画像と登録画像に含まれる対象物の態様が異なるときに、正確かつ効率的に画像照合を行う場合に適している。 The image collation apparatus and the image collation method according to the present invention are suitable for accurately and efficiently performing image collation when the input image and the registration object include different objects.
10 カメラ
20 画像照合装置
21 記憶部
21a,54 登録データ
21b 候補画像リスト
22 制御部
22a,51 前処理部
22b,52 重み対象領域特定部
22c,53 重み決定部
23d トータルスコア算出部
22e 判定処理部
22f 表示制御部
30 操作部
40 表示部
A,A1〜A3 登録画像データ
A1a 向きデータ
A1b 所持品データ
B,B1〜B5 入力画像データ
DESCRIPTION OF
Claims (7)
前記入力画像データ及び/又は前記登録画像データの対象物の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定部と、
前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定部と、
前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理部と
を備えたことを特徴とする画像照合装置。 An image collation device that collates input image data in which a predetermined object is reflected and registered image data registered in advance,
A weight target area specifying unit that divides a target area of the input image data and / or the registered image data and specifies a weight target area that forms a part of the divided area;
A weight determining unit that determines a weight to be given to the weight target region based on a correspondence relationship between the input image data and the registered image data;
An image collation apparatus comprising: a collation processing unit that collates the input image data and the registered image data while applying the weight determined by the weight determination unit to the weight target region.
前記入力画像データに含まれる対象物の態様と、前記登録画像データに含まれる対象物の態様とが一致又は類似する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる対象物の態様と、前記登録画像データに含まれる対象物の態様とが類似しない場合には、前記重み対象領域に付与する重みを下げる
ことを特徴とする請求項1に記載の画像照合装置。 The weight determination unit
When the aspect of the object included in the input image data and the aspect of the object included in the registered image data match or are similar, the weight given to the weight target area is increased, and the input image data The image verification according to claim 1, wherein when the aspect of the object included is not similar to the aspect of the object included in the registered image data, the weight assigned to the weight target area is reduced. apparatus.
前記入力画像データに含まれる対象物の向きと、前記登録画像データに含まれる対象物の向きとが一致する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データに含まれる対象物の向きと、前記登録画像データに含まれる対象物の向きとが一致しない場合には、前記重み対象領域に付与する重みを下げる
ことを特徴とする請求項2に記載の画像照合装置。 The weight determination unit
When the direction of the object included in the input image data matches the direction of the object included in the registered image data, the weight to be given to the weight target area is increased and included in the input image data The image collating apparatus according to claim 2, wherein when the direction of the object does not match the direction of the object included in the registered image data, the weight to be given to the weight target area is reduced.
前記入力画像データに含まれる前記対象物に特徴部が存在し、かつ、前記登録画像データに含まれる前記対象物に前記特徴部が存在する場合には、前記重み対象領域に付与する重みを上げ、前記入力画像データ又は前記登録画像データの一方に特徴部が存在しない場合には、前記重み対象領域に付与する重みを下げる
ことを特徴とする請求項2に記載の画像照合装置。 The weight determination unit
When the feature part exists in the target object included in the input image data and the feature part exists in the target object included in the registered image data, the weight to be given to the weight target region is increased. The image collating apparatus according to claim 2, wherein when one of the input image data and the registered image data does not have a characteristic portion, a weight to be given to the weight target region is lowered.
前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データの重み付きヒストグラムをそれぞれ算定し、算定した重み付きヒストグラムに基づいて、前記入力画像データ及び前記登録画像データを照合処理する
ことを特徴とする請求項3に記載の画像照合装置。 The collation processing unit
While applying the weight determined by the weight determination unit to the weight target area, the weighted histograms of the input image data and the registered image data are calculated, and the input image data is based on the calculated weighted histograms. The image collating apparatus according to claim 3, wherein collation processing is performed on the registered image data.
前記入力画像データ及び前記登録画像データをそれぞれ色又は濃淡が類似する小領域に分割し、前記重み対象領域に対応する小領域に対して前記重み決定部により決定された重みを適用しつつ、前記入力画像データの小領域と前記登録画像データの小領域とを照合処理する
ことを特徴とする請求項3に記載の画像照合装置。 The collation processing unit
The input image data and the registered image data are each divided into small regions having similar colors or shades, and the weights determined by the weight determination unit are applied to the small regions corresponding to the weight target regions. The image collating apparatus according to claim 3, wherein a collation process is performed between the small area of the input image data and the small area of the registered image data.
前記入力画像データ及び/又は前記登録画像データの対象物の領域を分割し、分割した領域の一部をなす重み対象領域を特定する重み対象領域特定ステップと、
前記入力画像データ及び前記登録画像データの対応関係に基づいて、前記重み対象領域に付与する重みを決定する重み決定ステップと、
前記重み決定部により決定された重みを前記重み対象領域に適用しつつ、前記入力画像データ及び前記登録画像データを照合処理する照合処理ステップと
を含んだことを特徴とする画像照合方法。 An image collation method in an image collation apparatus for collating input image data in which a predetermined object is reflected and registered image data registered in advance,
A weight target area specifying step of dividing a target area of the input image data and / or the registered image data and specifying a weight target area forming a part of the divided area;
A weight determination step for determining a weight to be given to the weight target region based on a correspondence relationship between the input image data and the registered image data;
An image collation method comprising: a collation processing step of collating the input image data and the registered image data while applying the weight determined by the weight determination unit to the weight target region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015187517A JP6671133B2 (en) | 2015-09-24 | 2015-09-24 | Image matching device and image matching method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015187517A JP6671133B2 (en) | 2015-09-24 | 2015-09-24 | Image matching device and image matching method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017062633A true JP2017062633A (en) | 2017-03-30 |
JP6671133B2 JP6671133B2 (en) | 2020-03-25 |
Family
ID=58428844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015187517A Active JP6671133B2 (en) | 2015-09-24 | 2015-09-24 | Image matching device and image matching method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6671133B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210106914A (en) * | 2020-02-21 | 2021-08-31 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Image recognition method and apparatus, electronic device, and medium |
US11495057B2 (en) | 2017-12-08 | 2022-11-08 | Nec Corporation | Person verification device and method and non-transitory computer readable media |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007128262A (en) * | 2005-11-02 | 2007-05-24 | Omron Corp | Face collation device |
JP2012128692A (en) * | 2010-12-15 | 2012-07-05 | Canon Inc | Video processing device, video processing method and program |
JP2014142817A (en) * | 2013-01-24 | 2014-08-07 | Fujitsu Ltd | Image processing apparatus, image processing method, and image processing program |
-
2015
- 2015-09-24 JP JP2015187517A patent/JP6671133B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007128262A (en) * | 2005-11-02 | 2007-05-24 | Omron Corp | Face collation device |
JP2012128692A (en) * | 2010-12-15 | 2012-07-05 | Canon Inc | Video processing device, video processing method and program |
JP2014142817A (en) * | 2013-01-24 | 2014-08-07 | Fujitsu Ltd | Image processing apparatus, image processing method, and image processing program |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11495057B2 (en) | 2017-12-08 | 2022-11-08 | Nec Corporation | Person verification device and method and non-transitory computer readable media |
US11748864B2 (en) | 2017-12-08 | 2023-09-05 | Nec Corporation | Person verification device and method and non-transitory computer readable media |
US11763435B2 (en) | 2017-12-08 | 2023-09-19 | Nec Corporation | Person verification device and method and non-transitory computer readable media |
US11776098B2 (en) | 2017-12-08 | 2023-10-03 | Nec Corporation | Person verification device and method and non-transitory computer readable media |
KR20210106914A (en) * | 2020-02-21 | 2021-08-31 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Image recognition method and apparatus, electronic device, and medium |
JP2021136004A (en) * | 2020-02-21 | 2021-09-13 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Image recognition method, apparatus, electronic device, and medium |
JP7096302B2 (en) | 2020-02-21 | 2022-07-05 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Image recognition methods, devices, electronic devices and media |
US11789997B2 (en) | 2020-02-21 | 2023-10-17 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Image recognition method and apparatus, electronic device, and medium |
KR102642866B1 (en) * | 2020-02-21 | 2024-03-04 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Image recognition method and apparatus, electronic device, and medium |
Also Published As
Publication number | Publication date |
---|---|
JP6671133B2 (en) | 2020-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11087169B2 (en) | Image processing apparatus that identifies object and method therefor | |
US8891819B2 (en) | Line-of-sight detection apparatus and method thereof | |
US11915518B2 (en) | Facial authentication device, facial authentication method, and program recording medium | |
KR101035055B1 (en) | System and method of tracking object using different kind camera | |
US11380010B2 (en) | Image processing device, image processing method, and image processing program | |
US20130329970A1 (en) | Image authentication apparatus, image processing system, control program for image authentication apparatus, computer-readable recording medium, and image authentication method | |
JP2017033469A (en) | Image identification method, image identification device and program | |
CA2794659A1 (en) | Apparatus and method for iris recognition using multiple iris templates | |
US10496874B2 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
JP6265592B2 (en) | Facial feature extraction apparatus and face authentication system | |
JP2012190159A (en) | Information processing device, information processing method, and program | |
US20150356346A1 (en) | Feature point position detecting appararus, feature point position detecting method and feature point position detecting program | |
WO2016067573A1 (en) | Orientation estimation method and orientation estimation device | |
US10872268B2 (en) | Information processing device, information processing program, and information processing method | |
JP2017211938A (en) | Biological information processor, biological information processing method and biological information processing program | |
JP2014021602A (en) | Image processor and image processing method | |
JP6671133B2 (en) | Image matching device and image matching method | |
JP6497007B2 (en) | Information processing apparatus, information processing method, and program | |
JP2017084065A (en) | Identity theft detection device | |
JP2015187769A (en) | Object detection device, object detection method, and program | |
JP6789676B2 (en) | Image processing equipment, image processing methods and programs | |
JP2017004512A (en) | Image processing apparatus, image processing method, and program | |
JP4812743B2 (en) | Face recognition device, face recognition method, face recognition program, and recording medium recording the program | |
EP3168780B1 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
Zhao et al. | A novel complete face detection method in color images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6671133 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |