JP6460332B2 - Feature value generation unit, collation device, feature value generation method, and feature value generation program - Google Patents
Feature value generation unit, collation device, feature value generation method, and feature value generation program Download PDFInfo
- Publication number
- JP6460332B2 JP6460332B2 JP2015085950A JP2015085950A JP6460332B2 JP 6460332 B2 JP6460332 B2 JP 6460332B2 JP 2015085950 A JP2015085950 A JP 2015085950A JP 2015085950 A JP2015085950 A JP 2015085950A JP 6460332 B2 JP6460332 B2 JP 6460332B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- vector
- global
- autocorrelation matrix
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 34
- 239000013598 vector Substances 0.000 claims description 145
- 239000011159 matrix material Substances 0.000 claims description 102
- 238000000605 extraction Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 7
- 238000004519 manufacturing process Methods 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 65
- 238000012545 processing Methods 0.000 description 31
- 238000003384 imaging method Methods 0.000 description 17
- 238000009826 distribution Methods 0.000 description 13
- 238000003860 storage Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000010606 normalization Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
Images
Description
この発明は、オブジェクトの照合に用いる特徴量を、このオブジェクトが撮像されているオブジェクト画像を処理して生成する技術に関する。 The present invention relates to a technique for generating a feature amount used for object matching by processing an object image in which the object is captured.
従来、カメラで撮像したフレーム画像に撮像されているオブジェクト(被検索対象オブジェクト)の中から、特定のオブジェクト(検索対象オブジェクト)を検出する画像処理の技術が様々な分野で利用されている。例えば、犯罪捜査等では、様々な場所に設置されている防犯カメラによって撮像された動画像に対して、犯罪に関係する人(容疑者)が撮像されているかどうかの検索に利用している。また、製造ラインでは、この製造ラインを流れる物品を撮像した画像を処理して、異種物品や不良品(検索対象オブジェクトでない物品)の検出に利用している。 Conventionally, image processing techniques for detecting a specific object (search target object) from objects (search target objects) captured in a frame image captured by a camera have been used in various fields. For example, in criminal investigations, etc., it is used for searching whether or not a person (suspect) related to a crime is captured with respect to a moving image captured by a security camera installed in various places. Further, in the production line, an image obtained by imaging an article flowing through the production line is processed and used to detect different kinds of articles and defective articles (articles that are not search target objects).
被検索対象オブジェクトが検索対象のオブジェクトであるかどうかの判定は、検索対象オブジェクトが撮像された画像から生成した検索対象オブジェクトの特徴量と、被検索対象オブジェクトが撮像された画像から生成した被検索対象オブジェクトの特徴量と、を照合し、その類似度によって行っている。したがって、オブジェクトの照合精度の向上を図る上で、オブジェクトが撮像された画像から照合に適したオブジェクトの特徴量を生成することが重要である。 Whether or not the search target object is a search target object is determined based on the feature amount of the search target object generated from the image in which the search target object is captured and the search target generated from the image in which the search target object is captured. The feature amount of the target object is collated and the degree of similarity is used. Therefore, in order to improve the accuracy of object collation, it is important to generate an object feature value suitable for collation from an image obtained by capturing the object.
例えば、特許文献1、2は、オブジェクトが撮像された画像から、このオブジェクトの色と形状の情報を含む特徴量を生成する手法を開示している。具体的には、オブジェクトが撮像された画像の画素の2値化された濃淡値や量子化された色ベクトルの局所自己相関によって、オブジェクトの特徴量を生成している。
For example,
最近では、テロリズムによる事件や、凶悪犯罪等に対する対策として、容疑者の探索が広域にわたって行われることがある。この場合、撮像エリアが異なる多数の防犯カメラの撮像画像を確認することになる。すなわち、防犯カメラ間で容疑者の照合を行うことになる。異なる防犯カメラ間においては、解像度等の性能の違いや、撮像エリアに対するアングルや周辺の明るさ等の撮像環境の違いがあるので、性能や撮像環境が違う防犯カメラで撮像された撮像画像間で容疑者を照合することになる。このようなことから、オブジェクトの撮像画像から、カメラの性能や撮像環境の違いに対して頑健性を持つオブジェクトの特徴量を生成する技術の開発が要望されている。 Recently, suspects may be searched over a wide area as a countermeasure against terrorism incidents, violent crimes, and the like. In this case, the captured images of a number of security cameras with different imaging areas are confirmed. That is, a suspect is collated between security cameras. Between different security cameras, there are differences in performance such as resolution and imaging environments such as the angle to the imaging area and surrounding brightness. The suspect will be collated. For this reason, there is a demand for development of a technique for generating feature quantities of objects that are robust against differences in camera performance and imaging environment from captured images of objects.
この発明の目的は、オブジェクトの撮像画像から、カメラの性能や撮像環境の違いに対して頑健性を持つオブジェクトの特徴量を生成し、オブジェクトの照合精度を向上させる技術を提供することを目的にする。 An object of the present invention is to provide a technique for generating object feature quantities that are robust against differences in camera performance and imaging environment from captured images of an object, and improving the accuracy of object collation. To do.
この発明の特徴量生成ユニットは、上記目的を達するため、以下のように構成されている。 In order to achieve the above object, the feature value generation unit of the present invention is configured as follows.
この特徴量生成ユニットは、オブジェクトが撮像されているオブジェクト画像に対して設定した大域領域の特徴量を生成する。 The feature value generation unit generates a feature value of the global region set for the object image in which the object is captured.
オブジェクト画像は、オブジェクトが撮像されているフレーム画像から、このオブジェクトが撮像されている領域を切り出し、切り出した領域を予め定めた画素数に変換した画像である。これにより、大域領域の特徴量を生成するオブジェクト画像のサイズが均一になる。また、オブジェクト画像全体を1つの大域領域としてもよいし、オブジェクト画像に対して複数の大域領域を設定してもよい。また、オブジェクト画像に対して複数の大域領域を設定する場合には、各大域領域が他の大域領域に重ならないように設定してもよいし、他の大域領域に重なるように設定してもよい。オブジェクト画像に撮像されているオブジェクトの特徴量は、このオブジェクト画像に対して設定した各大域領域の特徴量である。 The object image is an image obtained by cutting out an area where the object is imaged from the frame image where the object is imaged and converting the extracted area into a predetermined number of pixels . Thereby, the size of the object image for generating the feature amount of the global region becomes uniform. The entire object image may be a single global area, or a plurality of global areas may be set for the object image. In the case of setting a plurality of global areas for the object image, to each global area may be set so as not to overlap the other global areas, be set to overlap the other global areas Good. The feature amount of the object captured in the object image is the feature amount of each global area set for the object image.
画素特徴ベクトル抽出部は、オブジェクトが撮像されているオブジェクト画像の各画素について、画素特徴ベクトルを抽出する。画素特徴ベクトルの要素としては、輝度値にかかる要素や、エッジにかかる要素や、色相にかかる要素等がある。 The pixel feature vector extraction unit extracts a pixel feature vector for each pixel of the object image in which the object is captured. The element of the pixel feature vector includes an element related to a luminance value, an element related to an edge, an element related to a hue, and the like.
第1の自己相関行列算出部は、大域領域内に設定した複数の局所領域毎に、その局所領域内に位置する画素の画素特徴ベクトルの自己相関行列を算出する。自己相関行列は、画素特徴ベクトルの平均の情報を含んでいる(自己相関行列は、平均をゼロとした場合の共分散行列である。)。 The first autocorrelation matrix calculation unit calculates an autocorrelation matrix of pixel feature vectors of pixels located in the local region for each of the plurality of local regions set in the global region. The autocorrelation matrix includes information on the average of the pixel feature vectors (the autocorrelation matrix is a covariance matrix when the average is zero).
局所領域ベクトル生成部は、局所領域毎に、第1の自己相関行列算出部で算出した画素特徴ベクトルの自己相関行列から局所領域ベクトルを生成する。例えば、自己相関行列同士の距離を適切に計算するため、行列に対して定義される対数変換(行列対数変換)を行った後、画像特徴ベクトルの自己相関行列をベクトルに並び替えることで、局所領域ベクトルを生成する。 The local region vector generation unit generates a local region vector from the autocorrelation matrix of the pixel feature vector calculated by the first autocorrelation matrix calculation unit for each local region. For example, in order to appropriately calculate the distance between autocorrelation matrices, after performing logarithmic transformation (matrix logarithmic transformation) defined for the matrix, the autocorrelation matrix of the image feature vector is rearranged into a vector, Generate a region vector.
第2の自己相関行列算出部は、大域領域に位置する局所領域の局所領域ベクトルの自己相関行列を算出する。そして、大域領域ベクトル生成部は、大域領域の特徴量として、第2の自己相関行列算出部で算出した局所領域ベクトルの自己相関行列から大域領域ベクトルを生成する。大域領域ベクトル生成部も、例えば、局所領域ベクトルの自己相関行列に対して行列対数変換を行い、ベクトルへ並び替えることで、大域領域ベクトルを生成する。 The second autocorrelation matrix calculation unit calculates an autocorrelation matrix of a local region vector of a local region located in the global region. Then, the global region vector generation unit generates a global region vector from the autocorrelation matrix of the local region vector calculated by the second autocorrelation matrix calculation unit as a feature amount of the global region. The global region vector generation unit also generates a global region vector, for example, by performing matrix logarithmic transformation on the autocorrelation matrix of the local region vector and rearranging the vectors into vectors.
このように、局所領域における画素の特徴量の分布(自己相関行列)を一旦局所領域の特徴量として算出し、その後大域領域における局所領域の特徴量の分布(自己相関行列)を大域領域の特徴量として算出する。大域領域の特徴量は、大域領域内に位置する局所領域の特徴分布である。したがって、大域領域において、色や勾配等の特徴量(画素特徴ベクトル)の分布量が類似しているオブジェクトであっても、局所領域における画素の分布が異なっているオブジェクトであれば、異なる大域領域の特徴ベクトルを生成でき、対象の判別性が向上する。また、画像の局所領域における画素の特徴分布は、カメラの性能や撮像環境の違いに対して頑健性を持つ。したがって、画像の局所領域における画素の特徴分布を統合した大域領域の特徴量も、カメラの性能や撮像環境の違いに対して頑健性を持つ。 In this way, the pixel feature distribution (autocorrelation matrix) in the local region is once calculated as the local feature, and then the local feature distribution (autocorrelation matrix) in the global region is calculated as the global feature. Calculate as a quantity. The feature amount of the global region is a feature distribution of a local region located in the global region. Therefore, even if an object having a similar distribution amount of a feature amount (pixel feature vector) such as a color or gradient in the global region is an object having a different pixel distribution in the local region, the different global region Feature vectors can be generated, and the discriminability of the object is improved. Also, the pixel feature distribution in the local region of the image is robust against differences in camera performance and imaging environment. Therefore, the feature amount of the global region obtained by integrating the pixel feature distribution in the local region of the image is also robust against differences in camera performance and imaging environment.
また、この発明にかかる照合装置は、特徴量生成ユニットが検索対象オブジェクトについて生成した大域領域ベクトルと、被検索対象オブジェクトについて生成した大域領域ベクトルとを用いて、被検索対象オブジェクトが検索対象オブジェクトであるかどうかを判定する。上述したように、大域領域の特徴量は、カメラの性能や撮像環境の違いに対して頑健性を持つので、オブジェクトの照合精度を向上させることができる。 Further, the collation device according to the present invention uses the global area vector generated for the search target object by the feature quantity generation unit and the global area vector generated for the search target object, and the search target object is the search target object. Determine if it exists. As described above, the feature quantity in the global area is robust against differences in camera performance and imaging environment, and therefore the object collation accuracy can be improved.
この発明によれば、オブジェクトの撮像画像から、カメラの性能や撮像環境の違いに対して頑健性を持つオブジェクトの特徴量を生成することができる。 According to the present invention, it is possible to generate a feature quantity of an object that is robust against differences in camera performance and imaging environment from a captured image of the object.
以下、この発明の実施形態である照合装置について説明する。 Hereinafter, a collation device according to an embodiment of the present invention will be described.
図1は、この例にかかる照合装置の主要部の構成を示すブロック図である。照合装置1は、画像入力部2と、画像処理部3と、照合部4と、出力部5と、特徴量記憶部6と、を備えている。
FIG. 1 is a block diagram showing a configuration of a main part of a collation device according to this example. The collation apparatus 1 includes an
この例にかかる照合装置1は、フレーム画像に撮像されている人を対象者とし、この対象者の特徴量を生成する特徴量生成処理を行う。また、照合装置1は、特徴量生成処理で生成した対象者(検索対象者)の特徴量と、特徴量生成処理で生成した他の対象者(被検索対象者)の特徴量とを照合し、被検索対象者が検索対象者であるかどうかを判定する照合処理を行う。 The collation apparatus 1 according to this example performs a feature amount generation process for generating a feature amount of a subject who is a person captured in a frame image. The collation device 1 collates the feature quantity of the target person (search target person) generated by the feature quantity generation process with the feature quantity of another target person (search target person) generated by the feature quantity generation process. A collation process for determining whether the search target person is a search target person is performed.
画像入力部2には、接続された外部機器から対象者が撮像されている静止画像や、動画像が入力される。外部機器は、静止画像や、動画像を画像入力部2に入力する機能を備える装置であれば、どのような機器であってもよい。例えば、外部機器は、監視エリアを撮像している防犯カメラあってもよいし、防犯カメラが監視エリアを撮像した動画像にかかる動画像ファイルを再生する再生装置であってもよいし、撮像した静止画像を記憶しているデジタルスチルカメラであってもよい。
The
画像処理部3は、画像入力部2に入力されたフレーム画像に撮像されている人を対象者とし、この対象者の特徴量を生成する特徴量生成処理を行う。画像処理部3が、この発明にかかる特徴量生成方法を実行する。また、この発明にかかる特徴量生成プログラムは、各ステップを画像処理部3が備える画像処理プロセッサ(コンピュータ)に実行させる。画像処理部3が実行する特徴量生成処理の詳細については後述する。
The
照合部4は、対象者(検索対象者)の特徴量と、他の対象者(被検索対象者)の特徴量とを照合し、被検索対象者が検索対象者であるかどうかを判定する照合処理を行う。照合部4が実行する照合処理の詳細については後述する。
The
出力部5は、照合部における照合処理の結果を上位装置等に出力する。 The output unit 5 outputs the result of the collation process in the collation unit to a higher-level device or the like.
特徴量記憶部6は、画像処理部3が特徴量を生成した対象者毎に、対象者を識別するID、この対象者について生成した特徴量、特徴量の生成に用いたフレーム画像の撮像日時、特徴量の生成に用いたフレーム画像の撮像場所等を対応付けた照合用データを記憶する。特徴量記憶部6は、対象者の特徴量を生成したフレーム画像毎に、その対象者の照合用データを特徴量記憶部6に記憶する。したがって、同一人物であっても、特徴量を生成したフレーム画像が異なる場合には、IDが異なる照合用データが特徴量記憶部6に記憶される。
The feature amount storage unit 6 identifies, for each target person for which the
図2は、画像処理部の機能構成を示す概略の機能ブロック図である。画像処理部3は、オブジェクト検出機能部31と、オブジェクト領域切出機能部32と、画像サイズ正規化機能部33と、画素特徴ベクトルマップ生成機能部34と、領域設定機能部35と、局所領域ベクトル生成機能部36と、大域領域ベクトル生成機能部37と、特徴量生成機能部38とを有する。
FIG. 2 is a schematic functional block diagram showing a functional configuration of the image processing unit. The
オブジェクト検出機能部31は、画像入力部2に入力されたフレーム画像に撮像されている人物(対象者)を検出する。また、オブジェクト検出機能部31は、対象者が撮像されているフレーム画像の中から処理対象フレーム画像を選択する機能を有する。
The object
オブジェクト領域切出機能部32は、オブジェクト検出機能部31が選択した処理対象フレーム画像上において、オブジェクト検出機能部31が検出した対象者を囲む矩形領域をオブジェクト領域として切り出す。
The object area
画像サイズ正規化機能部33は、オブジェクト領域切出機能部32が切り出したオブジェクト領域の画像を予め定めた画素数の画像に変換する。画像サイズ正規化機能部33は、オブジェクト領域切出機能部32が切り出したオブジェクト領域の画像を、公知のニアレストネイバー法、バイリニア法、バイキュービック法等で予め定めた画素数の画像に変換する。画像サイズ正規化機能部33が予め定めた画素数に変換したオブジェクト領域の画像を、ここでは正規化画像と言う。
The image size
オブジェクト領域切出機能部32、および画像サイズ正規化機能部33が、この発明で言うオブジェクト画像生成部に相当する。
The object area
画素特徴ベクトルマップ生成機能部34は、正規化画像の画素毎に画素特徴ベクトルを生成する。画素特徴ベクトルは、d次元のベクトルである(d>1)。画素特徴ベクトルマップ生成機能部34が、この発明で言う画素特徴ベクトル抽出部に相当する。
The pixel feature vector map
領域設定機能部35は、正規化画像に対して、局所領域と、大域領域と、を設定する。局所領域は、複数の画素からなる領域である。大域領域は、複数の局所領域が位置する領域である。すなわち、大域領域は、局所領域よりも大きい。また、この例では、正規化画像に対して、大域領域を複数設定する。複数の大域領域は、他の大域領域と重ならないように設定してもよいし、他の大域領域と重なるように設定してもよい。また、局所領域も他の局所領域と重ならないように設定してもよいし、他の局所領域と重なるように設定してもよい。
The area setting
局所領域ベクトル生成機能部36は、領域設定機能部35によって設定された局所領域毎に、その局所領域内に位置する画素の画素特徴ベクトルの自己相関行列を算出する。局所領域内に位置する画素の画素特徴ベクトルの自己相関行列が、この発明で言う第1の自己相関行列に相当する。
For each local region set by the region setting
また、局所領域ベクトル生成機能部36は、局所領域毎に、その局所領域について算出した画素の画素特徴ベクトルの自己相関行列をベクトル化した局所領域ベクトルを生成する。局所領域ベクトルが、局所領域の特徴量である。局所領域ベクトル生成機能部36が、この発明で言う第1の自己相関行列算出部、および局所領域ベクトル生成部に相当する。
Further, the local region vector
大域領域ベクトル生成機能部37は、領域設定機能部35によって設定された大域領域毎に、その大域領域内に位置する局所領域の局所領域ベクトルの自己相関行列を算出する。大域領域内に位置する局所領域の局所領域ベクトルの自己相関行列が、この発明で言う第2の自己相関行列に相当する。
For each global region set by the region setting
また、大域領域ベクトル生成機能部37は、大域領域毎に算出した局所領域の局所領域ベクトルの自己相関行列をベクトル化した大域領域ベクトルを生成する。大域領域ベクトルが、大域領域の特徴量である。大域領域ベクトル生成機能部37が、この発明で言う第2の自己相関行列算出部、および大域領域ベクトル生成部に相当する。
The global area vector
特徴量生成機能部38は、各大域領域の大域領域ベクトルを対象者の特徴量にする。すなわち、対象者の特徴量は、複数(領域設定機能部35が正規化画像に対して設定した大域領域の個数)の大域領域ベクトルである。
The feature quantity
以下、この例にかかる照合装置1の動作について説明する。 Hereinafter, the operation of the verification device 1 according to this example will be described.
まず、照合装置1における特徴量生成処理について説明する。図3は、特徴量生成処理を示すフローチャートである。画像処理部3が、この特徴量生成処理を実行する。ここでは、画像入力部2に入力されるフレーム画像は、カラー画像である。また、照合装置1には、画像入力部2に入力されたフレーム画像の撮像日時や撮像場所等の情報が入力されている。
First, the feature value generation process in the verification device 1 will be described. FIG. 3 is a flowchart showing the feature amount generation processing. The
画像処理部3は、画像入力部2に入力されたフレーム画像の中から、処理対象フレーム画像を選択する(s1)。s1では、オブジェクト検出機能部31が、画像入力部2に入力されたフレーム画像に対象者(特徴量を生成する対象者)が撮像されているかどうかを、公知のパターンマッチング等の手法で判定する。オブジェクト検出機能部31は、対象者が撮像されているフレーム画像を処理対象フレーム画像として選択する。
The
なお、画像入力部2に入力されている画像が動画像であれば、対象者が時間的に連続する複数のフレーム画像に撮像されている場合がある。オブジェクト検出機能部31は、対象者が時間的に連続する複数のフレーム画像に撮像されている場合には、これらのフレーム画像の中で、この対象者の撮像状態が特徴量の生成に最適であるフレーム画像を処理対象フレーム画像として選択する。この例では、フレーム画像上における対象者の大きさが正規化サイズに最も近いフレーム画像を処理対象フレーム画像として選択する。
Note that if the image input to the
図4は、s1で選択された処理対象フレーム画像を示す図である。オブジェクト領域切出機能部32は、s1で選択した処理対象フレーム画像に撮像されている対象者を囲む矩形領域をオブジェクト領域に設定し、このオブジェクト領域を切り出す(s2)。図5は、処理対象フレーム画像上に設定したオブジェクト領域を示す図である。
FIG. 4 is a diagram illustrating the processing target frame image selected in s1. The object area
画像サイズ正規化機能部33は、s2で切り出したオブジェクト領域の画像を、予め定めた画素数の正規化画像(n(横)×m(縦)画素の画像)に変換する正規化画像生成処理を行う(s3)。s3では、公知のニアレストネイバー法、バイリニア法、バイキュービック法等で、s2で切り出したオブジェクト領域の画像を正規化画像に変換する。図6は正規化画像を示す図である。この例では、正規化画像は、48(=n)×128(=m)画素である。
The image size
上述したように、処理対象フレーム画像として、フレーム画像上における対象者の大きさが正規化サイズに最も近いフレーム画像を選択するので、s3にかかる正規化画像生成処理の影響が抑えられる。 As described above, since the frame image whose target person size on the frame image is closest to the normalized size is selected as the processing target frame image, the influence of the normalized image generation processing relating to s3 can be suppressed.
画素特徴ベクトルマップ生成機能部34は、正規化画像の画素毎に、その画素の画素特徴ベクトルを登録した画素特徴ベクトルマップを作成する(s4)。この例では、正規化画像の任意の画素rの画素特徴ベクトルx(r)は、[数1]に示す6次元のベクトルである。rは、正規化画像における画素の位置を示す。
The pixel feature vector map
[数1]においてR(r)は、その画素の赤の輝度値、G(r)は、その画素の緑の輝度値、B(r)は、その画素の青の輝度値、Ixは水平方向のエッジの強さ、Iyは垂直方向のエッジの強さである。また、||は絶対値である。[数1]に示す画素特徴ベクトルx(r)は、オブジェクトの色と模様にかかる情報を含んでいる。 In [Expression 1], R (r) is the red luminance value of the pixel, G (r) is the green luminance value of the pixel, B (r) is the blue luminance value of the pixel, and I x is The horizontal edge strength, I y, is the vertical edge strength. || is an absolute value. The pixel feature vector x (r) shown in [Expression 1] includes information regarding the color and pattern of the object.
なお、画素特徴ベクトルは、[数1]に示した6次元のベクトルに限らず、色相(H)、彩度(S)、明度(V)にかかる要素も加えた9次元のベクトルにしてもよいし、RGBの輝度値にかかる要素を色相(H)、彩度(S)、明度(V)にかかる要素に置き換えた6次元のベクトルにしてもよい。さらには、画像入力部2に入力されている画像がカラー画像でない場合(モノクロ画像である場合)には、RGBの輝度値にかかる要素をその画素の輝度値に置き換えた4次元のベクトルにしてもよい。
The pixel feature vector is not limited to the 6-dimensional vector shown in [Equation 1], but may be a 9-dimensional vector including elements related to hue (H), saturation (S), and brightness (V). Alternatively, a 6-dimensional vector in which elements relating to RGB luminance values are replaced with elements relating to hue (H), saturation (S), and brightness (V) may be used. Furthermore, when the image input to the
また、水平方向のエッジの強さや、垂直方向のエッジの強さは、公知のPrewittフィルタや、Sobelフィルタ等を用いることによって検出できる。 Further, the strength of the edge in the horizontal direction and the strength of the edge in the vertical direction can be detected by using a known Prewitt filter, Sobel filter, or the like.
また、領域設定機能部35が、s3で生成した正規化画像に対して、大域領域、および局所領域を設定する領域設定処理を行う(s5)。このs5にかかる処理は、s4にかかる処理よりも先に行ってもよい。図7は、正規化画像に対して設定される大域領域を示す図である。この例では、図7に示すように、正規化画像に対して7つの大域領域A〜Gを設定する。大域領域A〜Gのサイズは同じである。この例では、大域領域のサイズは、48×32画素(1536画素)である。領域設定機能部35は、正規化画像を縦方向(図7に示す上下方向)に均等に4分割し、上から順番に大域領域A,大域領域C、大域領域E、大域領域Gを設定する。また、領域設定機能部35は、上半分が大域領域Aに重なり、下半分が大域領域Cに重なる大域領域B、上半分が大域領域Cに重なり、下半分が大域領域Eに重なる大域領域D、および上半分が大域領域Eに重なり、下半分が大域領域Gに重なる大域領域Fを設定する。
The area setting
なお、正規化画像に対して設定する大域領域の個数は、図7に示した7つに限らず、いくつであってもよい。また、正規化画像に対していずれかの大域領域が、他の大域領域と重なるように設定してもよいし、重ならないように設定してもよい。 Note that the number of global regions set for the normalized image is not limited to seven shown in FIG. 7 and may be any number. Also, one of the global areas may be set so as to overlap with another global area with respect to the normalized image, or may be set so as not to overlap.
また、領域設定機能部35は、正規化画像に対して複数の参照画素pを設定することにより、複数の局所領域を設定する。局所領域は、設定した参照画素p毎に、その参照画素pを中心とするα×β画素の領域である。この例では、局所領域は、参照画素pを中心とする7(=α)×7(=β)画素(49画素)の領域である。領域設定機能部35は、図8に示すように、正規化画像に対して、横方向、および縦方向に2画素間隔で参照画素pを設定する。図8において、ハッチングで示すそれぞれの画素が、参照画素pである。また、図8では、1つの参照画素pについて設定される1つの局所領域を図示している。
The region
なお、領域設定機能部35は、正規化画像の全ての画素を参照画素pに設定してもよいし、横方向、および縦方向に3画素間隔等で参照画素pを設定してもよい。また、局所領域のサイズも、7×7画素に限らず、3×3画素や、4×4画素、11×11画素等に設定してもよい。さらには、この例では、局所領域が参照画素pを中心にして設定されるとしたが、参照画素pを中心とせず、参照画素pを局所領域の右上の角の画素にしてもよいし、左上の角の画素にしてもよい。すなわち、局所領域は、参照画素pを基準にして設定される領域であれば、どのように設定される領域であってもよい。
Note that the region setting
正規化画像に対する大域領域の設定条件、正規化画像に対する参照画素pの設定条件、参照画素pを基準にした局所領域の設定条件等は、予め設定されている。 The global region setting condition for the normalized image, the reference pixel p setting condition for the normalized image, the local region setting condition based on the reference pixel p, and the like are set in advance.
局所領域ベクトル生成機能部36は、s5で設定された参照画素p毎に、その参照画素pに対して設定される局所領域の自己相関行列Σ(p)を登録した自己相関局行列マップを作成する(s6)。s6で生成する自己相関行列マップは、参照画素pと、局所領域の自己相関局行列Σ(p)と、を対応づけたものである。
For each reference pixel p set in s5, the local region vector
参照画素pに対して設定される局所領域の自己相関行列Σ(p)は、 The autocorrelation matrix Σ (p) of the local region set for the reference pixel p is
により算出される。[数2]において、NL(p)は、参照画素pの局所領域内の画素数(この例では、49画素)であり、LocalArea(p)は、参照画素pに対して設定される局所領域を示す。 Is calculated by In [Expression 2], NL (p) is the number of pixels in the local area of the reference pixel p (49 pixels in this example), and LocalArea (p) is the local area set for the reference pixel p. Indicates.
局所領域ベクトル生成機能部36は、正規化画像の参照画素pについて設定される局所領域LocalArea(p)ごとに、自己相関行列Σ(p)を算出する。このとき、各局所領域の自己相関行列が対称行列であるので、重複する要素については、一方について演算し、他方については一方の演算結果を流用する。この例では、画素特徴ベクトルx(r)が6次元であるので、画素特徴ベクトルx(r)の自己相関行列は6行6列になる。また、重複する要素の組は、15組である。すなわち、この例では、1つの局所領域の自己相関行列の算出において、15個の要素について演算を省略できる。
The local area vector
また、局所領域ベクトル生成機能部36は、局所領域LocalArea(p)毎の自己相関行列Σ(p)に対して行列対数変換を行う(s7)。自己相関行列は正定値対象行列であるため、この行列の形成する空間は、ユークリッド空間でなく、リーマン多様体となっている。行列対数変換は、正定値対象行列をこの多様体の接空間へ射影することに相当し、これを行った後、行列をベクトル化することで、自己相関行列の多様体構造を配慮した演算が、通常のユークリッド空間の演算により実現可能となる。
The local region vector
s7では、各局所領域LocalArea(p)の自己相関行列Σ(p)を、 In s7, the autocorrelation matrix Σ (p) of each local area LocalArea (p) is
また、行列対数変換を、 Also, the matrix logarithmic transformation
さらに、局所領域ベクトル生成機能部36は、行列対数変換した行列Y(p)=log(Σ(p))を、要素の重複を考慮し、
Further, the local region vector
次に、大域領域ベクトル生成機能部37が、大域領域A〜G毎に、その大域領域A〜Gの自己相関行列M(M(A)〜M(G))を登録した自己相関局行列マップを作成する(s10)。大域領域A〜Gの自己相関局行列マップは、
Next, the autocorrelation station matrix map in which the global region vector
s9では、大域領域において、その領域内の局所領域LocalArea(p)の特徴ベクトルy(p)の自己相関行列Mを算出する。このとき、大域領域ベクトル生成機能部37は、大域領域の自己相関行列Mが対称行列であるので、重複する要素については、一方について演算し、他方については一方の演算結果を流用する。この例では、局所領域LocalArea(p)の特徴ベクトルy(p)は、21次元であるので、大域領域の自己相関行列Mは21行21列になる。また、重複する要素の組は、210組である。すなわち、この例では、大域領域の自己相関行列Mの算出において、210個の要素について演算を省略できる。
In s9, in the global region, the autocorrelation matrix M of the feature vector y (p) of the local region LocalArea (p) in the region is calculated. At this time, since the autocorrelation matrix M of the global region is a symmetric matrix, the global region vector
大域領域ベクトル生成機能部37は、大域領域A〜G毎に、自己相関行列M(M(A)〜M(G))を対応づけた大域領域の自己相関行列マップを作成する。
The global region vector
また、大域領域ベクトル生成機能部37は、大域領域A〜G毎に、その大域領域A〜Gの自己相関行列M(M(A)〜M(G))に対して行列対数変換を行う(s11)。上述したように、自己相関行列は、正定値対称行列であることから、行列の対数変換を行ってベクトル化することで、ユークリッド空間の演算に自己相関行列の多様体構造を配慮させる。
Further, the global region vector
s11では、s7と同様の手法で、各大域領域A〜Gの自己相関行列M(M(A)〜M(G))に対して行列対数変換を行う。 In s11, matrix logarithmic transformation is performed on the autocorrelation matrix M (M (A) to M (G)) of each of the global regions A to G in the same manner as s7.
さらに、大域領域ベクトル生成機能部37は、大域領域A〜G毎に、行列対数変換した行列を、要素の重複を考慮してベクトル化する(s12)。s12でベクトル化された、各大域領域A〜Gの特徴ベクトルz(A)〜z(G)は、画素特徴ベクトルがd次元のベクトルである場合、
((d×(d+1)/2)×((d×(d+1)/2)+1)/2)次元のベクトルになる。この例では、231次元のベクトルになる。各大域領域A〜Gの特徴ベクトルz(A)〜z(G)が、この発明で言う大域領域ベクトルに相当する。
Further, the global area vector
It becomes a ((d × (d + 1) / 2) × ((d × (d + 1) / 2) +1) / 2) -dimensional vector. In this example, it is a 231-dimensional vector. The feature vectors z (A) to z (G) of the respective global areas A to G correspond to the global area vector referred to in the present invention.
特徴量生成機能部38は、対象者を識別する対象者のID、各大域領域A〜Gの特徴ベクトルz(A)〜z(G)、処理対象フレーム画像の日時、撮像場所等を対応づけた照合用データを生成し、この照合用データを特徴量記憶部6に登録する(s13)。
The feature quantity
このように、画像処理部3は、局所領域LocalArea(p)における画素の特徴量の分布(自己相関行列)を、局所領域LocalArea(p)の特徴量として算出し、その後大域領域における局所領域LocalArea(p)の特徴量の分布を大域領域の特徴量として算出する。画像の局所領域LocalArea(p)における画素の特徴分布は、カメラの性能や撮像環境の違いに対して頑健性を持つ。また、大域領域の特徴量は、この大域領域内に位置する局所領域LocalArea(p)の特徴分布である。したがって、オブジェクト画像において、色や勾配等の特徴量(画素特徴ベクトル)が類似する画素の分布量が近似しているオブジェクトであっても、局所領域の画素の分布が異なっているオブジェクトであれば、異なる大域領域ベクトルが生成される。
As described above, the
次に、照合処理について説明する。図9は、照合処理を示すフローチャートである。 Next, the collation process will be described. FIG. 9 is a flowchart showing the matching process.
照合部4は、指定された検索対象者の照合用データを特徴量記憶部6から読み出すとともに(s21)、被検索対象者の照合用データを特徴量記憶部6から読み出す(s22)。検索対象者、および被検索対象者の照合用データは、上述した特徴量生成処理で生成され、特徴量記憶部6に記憶されている。
The
照合装置1は、オペレータ等が被検索対象者を指定する構成であってもよいし、照合部4が特徴量記憶部6に照合用データが記憶されている人物の中から被検索対象者を自動的に選択する構成であってもよい。
The collation device 1 may be configured such that an operator or the like designates a person to be searched, or the
照合部4は、大域領域A〜G毎に、検索対象者の特徴ベクトルz(A)〜z(G)と、被検索対象者の特徴ベクトルz(A)〜z(G)と、の距離を算出する(s23)。照合部4は、大域領域A〜G毎に算出した、特徴ベクトルz(A)〜z(G)の距離の総和を算出する(s24)。
For each of the global regions A to G, the
照合部4は、s24で算出した、距離の総和が予め定めた閾値以下であれば、s2で照合用データを読み出した被検索対象者を、s1で照合用データを読み出した検索対象であると判定する(s25、s26)。反対に、照合部4は、s25で算出した、距離の総和が予め定めた閾値以下でなければ、s2で照合用データを読み出した被検索対象者を、s1で照合用データを読み出した検索対象でないと判定する(s25、s27)。
If the sum of the distances calculated in s24 is equal to or less than a predetermined threshold, the
このように、この照合装置1は、上述した特徴量生成処理で生成した特徴量を用いて、オブジェクトの照合を行うので、照合精度の向上が図れる。 Thus, since this collation apparatus 1 collates an object using the feature-value produced | generated by the feature-value production | generation process mentioned above, it can aim at the improvement of collation precision.
1…照合装置
2…画像入力部
3…画像処理部
4…照合部
5…出力部
6…特徴量記憶部
31…オブジェクト検出機能部
32…オブジェクト領域切出機能部
33…画像サイズ正規化機能部
34…画素特徴ベクトルマップ生成機能部
35…領域設定機能部
36…局所領域ベクトル生成機能部
37…大域領域ベクトル生成機能部
38…特徴量生成機能部
DESCRIPTION OF SYMBOLS 1 ...
3 5 ... region setting
Claims (11)
前記オブジェクト画像内に設定した大域領域の内部に更に設定した複数の局所領域毎に、その局所領域に位置する画素の画素特徴ベクトルの自己相関行列を算出する第1の自己相関行列算出部と、
前記局所領域毎に、前記第1の自己相関行列算出部で算出した画素特徴ベクトルの自己相関行列から局所領域ベクトルを生成する局所領域ベクトル生成部と、
前記大域領域に位置する前記局所領域の局所領域ベクトルの自己相関行列を算出する第2の自己相関行列算出部と、
前記大域領域の特徴量として、前記第2の自己相関行列算出部で算出した局所領域ベクトルの自己相関行列から大域領域ベクトルを生成する大域領域ベクトル生成部と、を備えた特徴量生成ユニット。 Pixel feature vector extraction that extracts a pixel feature vector for each pixel of an object image obtained by cutting out a region where the object is photographed from a frame image in which the object is captured and converting the extracted region into a predetermined number of pixels And
A first autocorrelation matrix calculating unit that calculates an autocorrelation matrix of a pixel feature vector of a pixel located in the local region for each of a plurality of local regions further set inside the global region set in the object image ;
A local region vector generation unit that generates a local region vector from the autocorrelation matrix of the pixel feature vector calculated by the first autocorrelation matrix calculation unit for each local region;
A second autocorrelation matrix calculating unit that calculates an autocorrelation matrix of a local region vector of the local region located in the global region;
A feature quantity generation unit comprising: a global area vector generation section that generates a global area vector from the autocorrelation matrix of the local area vector calculated by the second autocorrelation matrix calculation section as the global area feature quantity.
前記特徴量生成ユニットが検索対象オブジェクトについて生成した前記大域領域ベクトルと、被検索対象オブジェクトについて生成した前記大域領域ベクトルと、を用いて、前記被検索対象オブジェクトが前記検索対象オブジェクトであるかどうかを判定する照合部を備えた照合装置。 A feature quantity generation unit according to any one of claims 1 to 8,
Whether the search target object is the search target object using the global region vector generated for the search target object by the feature quantity generation unit and the global region vector generated for the search target object. A collation device having a collation unit for judging.
前記オブジェクト画像内に設定した大域領域内に更に設定した複数の局所領域毎に、その局所領域に位置する画素の画素特徴ベクトルの自己相関行列を算出する第1の自己相関行列算出ステップと、
前記局所領域毎に、前記第1の自己相関行列算出ステップで算出した画素特徴ベクトルの自己相関行列から局所領域ベクトルを生成する局所領域ベクトル生成ステップと、
前記大域領域に位置する前記局所領域の局所領域ベクトルの自己相関行列を算出する第2の自己相関行列算出ステップと、
前記大域領域の特徴量として、前記第2の自己相関行列算出ステップで算出した局所領域ベクトルの自己相関行列から大域領域ベクトルを生成する大域領域ベクトル生成ステップと、を備えた特徴量生成方法。 Extract a pixel feature vector of a predetermined dimension from each pixel of the object image obtained by cutting out the region where the object is captured from the frame image where the object is captured and converting the extracted region into a predetermined number of pixels. A pixel feature vector extraction step;
A first autocorrelation matrix calculating step of calculating an autocorrelation matrix of a pixel feature vector of a pixel located in the local region for each of a plurality of local regions further set in the global region set in the object image ;
For each local region, a local region vector generation step for generating a local region vector from the autocorrelation matrix of the pixel feature vector calculated in the first autocorrelation matrix calculation step;
A second autocorrelation matrix calculating step of calculating an autocorrelation matrix of a local region vector of the local region located in the global region;
And a global region vector generation step of generating a global region vector from the autocorrelation matrix of the local region vector calculated in the second autocorrelation matrix calculation step as the global region feature amount.
前記オブジェクト画像内に設定した大域領域内に更に設定した複数の局所領域毎に、その局所領域に位置する画素の画素特徴ベクトルの自己相関行列を算出する第1の自己相関行列算出ステップと、
前記局所領域毎に、前記第1の自己相関行列算出ステップで算出した画素特徴ベクトルの自己相関行列から局所領域ベクトルを生成する局所領域ベクトル生成ステップと、
前記大域領域に位置する前記局所領域の局所領域ベクトルの自己相関行列を算出する第2の自己相関行列算出ステップと、
前記大域領域の特徴量として、前記第2の自己相関行列算出ステップで算出した局所領域ベクトルの自己相関行列から大域領域ベクトルを生成する大域領域ベクトル生成ステップと、をコンピュータに実行させる特徴量生成プログラム。 Extract a pixel feature vector of a predetermined dimension from each pixel of the object image obtained by cutting out the region where the object is captured from the frame image where the object is captured and converting the extracted region into a predetermined number of pixels. A pixel feature vector extraction step;
A first autocorrelation matrix calculating step of calculating an autocorrelation matrix of a pixel feature vector of a pixel located in the local region for each of a plurality of local regions further set in the global region set in the object image ;
For each local region, a local region vector generation step for generating a local region vector from the autocorrelation matrix of the pixel feature vector calculated in the first autocorrelation matrix calculation step;
A second autocorrelation matrix calculating step of calculating an autocorrelation matrix of a local region vector of the local region located in the global region;
A feature amount generation program for causing a computer to execute a global region vector generation step for generating a global region vector from the autocorrelation matrix of the local region vector calculated in the second autocorrelation matrix calculation step as the global region feature amount .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015085950A JP6460332B2 (en) | 2015-04-20 | 2015-04-20 | Feature value generation unit, collation device, feature value generation method, and feature value generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015085950A JP6460332B2 (en) | 2015-04-20 | 2015-04-20 | Feature value generation unit, collation device, feature value generation method, and feature value generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016206836A JP2016206836A (en) | 2016-12-08 |
JP6460332B2 true JP6460332B2 (en) | 2019-01-30 |
Family
ID=57489896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015085950A Active JP6460332B2 (en) | 2015-04-20 | 2015-04-20 | Feature value generation unit, collation device, feature value generation method, and feature value generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6460332B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11930830B2 (en) | 2011-03-11 | 2024-03-19 | Intercontinental Great Brands Llc | System and method of forming multilayer confectionery |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4222558B2 (en) * | 2004-01-15 | 2009-02-12 | Kddi株式会社 | Image recognition device |
JP5382786B2 (en) * | 2009-05-19 | 2014-01-08 | 国立大学法人 東京大学 | Feature quantity generation device, feature quantity generation method and feature quantity generation program, class discrimination device, class discrimination method, and class discrimination program |
JP4918615B2 (en) * | 2010-12-29 | 2012-04-18 | 独立行政法人産業技術総合研究所 | Object number detection device and object number detection method |
JP5870011B2 (en) * | 2012-11-27 | 2016-02-24 | 日本電信電話株式会社 | Point cloud analysis device, point cloud analysis method, and point cloud analysis program |
-
2015
- 2015-04-20 JP JP2015085950A patent/JP6460332B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11930830B2 (en) | 2011-03-11 | 2024-03-19 | Intercontinental Great Brands Llc | System and method of forming multilayer confectionery |
Also Published As
Publication number | Publication date |
---|---|
JP2016206836A (en) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6032921B2 (en) | Object detection apparatus and method, and program | |
US7689011B2 (en) | Extracting features from face regions and auxiliary identification regions of images for person recognition and other applications | |
JP4985993B2 (en) | Object area extraction device | |
KR101781358B1 (en) | Personal Identification System And Method By Face Recognition In Digital Image | |
US9208172B2 (en) | Method and system for vehicle identification | |
JP2015099559A (en) | Image processing apparatus, image processing method, and program | |
JP5936561B2 (en) | Object classification based on appearance and context in images | |
Bhuiyan et al. | Person re-identification by discriminatively selecting parts and features | |
KR20170077366A (en) | System and method for face recognition | |
JP6410450B2 (en) | Object identification device, object identification method, and program | |
US8923552B2 (en) | Object detection apparatus and object detection method | |
JP2011113313A (en) | Attitude estimation device | |
JPWO2012046426A1 (en) | Object detection apparatus, object detection method, and object detection program | |
JP5155250B2 (en) | Object detection device | |
CN111126102A (en) | Personnel searching method and device and image processing equipment | |
JP6460332B2 (en) | Feature value generation unit, collation device, feature value generation method, and feature value generation program | |
GB2457797A (en) | Associating face images using covariance matrices of extracted features | |
JP2013218605A (en) | Image recognition device, image recognition method, and program | |
Julliand et al. | Automated image splicing detection from noise estimation in raw images | |
Duan et al. | Local feature learning for face recognition under varying poses | |
JP6326622B2 (en) | Human detection device | |
JP6296769B2 (en) | Object detection device | |
JP2017175466A (en) | Video image processing device, video image processing system and control method | |
US20230259549A1 (en) | Extraction of feature point of object from image and image search system and method using same | |
WO2017179728A1 (en) | Image recognition device, image recognition method, and image recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6460332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |