JP6460332B2 - Feature value generation unit, collation device, feature value generation method, and feature value generation program - Google Patents

Feature value generation unit, collation device, feature value generation method, and feature value generation program Download PDF

Info

Publication number
JP6460332B2
JP6460332B2 JP2015085950A JP2015085950A JP6460332B2 JP 6460332 B2 JP6460332 B2 JP 6460332B2 JP 2015085950 A JP2015085950 A JP 2015085950A JP 2015085950 A JP2015085950 A JP 2015085950A JP 6460332 B2 JP6460332 B2 JP 6460332B2
Authority
JP
Japan
Prior art keywords
region
vector
global
autocorrelation matrix
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015085950A
Other languages
Japanese (ja)
Other versions
JP2016206836A (en
Inventor
佐藤 洋一
洋一 佐藤
徹 松川
徹 松川
世紅 労
世紅 労
海虹 張
海虹 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
University of Tokyo NUC
Original Assignee
Omron Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, University of Tokyo NUC filed Critical Omron Corp
Priority to JP2015085950A priority Critical patent/JP6460332B2/en
Publication of JP2016206836A publication Critical patent/JP2016206836A/en
Application granted granted Critical
Publication of JP6460332B2 publication Critical patent/JP6460332B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、オブジェクトの照合に用いる特徴量を、このオブジェクトが撮像されているオブジェクト画像を処理して生成する技術に関する。   The present invention relates to a technique for generating a feature amount used for object matching by processing an object image in which the object is captured.

従来、カメラで撮像したフレーム画像に撮像されているオブジェクト(被検索対象オブジェクト)の中から、特定のオブジェクト(検索対象オブジェクト)を検出する画像処理の技術が様々な分野で利用されている。例えば、犯罪捜査等では、様々な場所に設置されている防犯カメラによって撮像された動画像に対して、犯罪に関係する人(容疑者)が撮像されているかどうかの検索に利用している。また、製造ラインでは、この製造ラインを流れる物品を撮像した画像を処理して、異種物品や不良品(検索対象オブジェクトでない物品)の検出に利用している。   Conventionally, image processing techniques for detecting a specific object (search target object) from objects (search target objects) captured in a frame image captured by a camera have been used in various fields. For example, in criminal investigations, etc., it is used for searching whether or not a person (suspect) related to a crime is captured with respect to a moving image captured by a security camera installed in various places. Further, in the production line, an image obtained by imaging an article flowing through the production line is processed and used to detect different kinds of articles and defective articles (articles that are not search target objects).

被検索対象オブジェクトが検索対象のオブジェクトであるかどうかの判定は、検索対象オブジェクトが撮像された画像から生成した検索対象オブジェクトの特徴量と、被検索対象オブジェクトが撮像された画像から生成した被検索対象オブジェクトの特徴量と、を照合し、その類似度によって行っている。したがって、オブジェクトの照合精度の向上を図る上で、オブジェクトが撮像された画像から照合に適したオブジェクトの特徴量を生成することが重要である。   Whether or not the search target object is a search target object is determined based on the feature amount of the search target object generated from the image in which the search target object is captured and the search target generated from the image in which the search target object is captured. The feature amount of the target object is collated and the degree of similarity is used. Therefore, in order to improve the accuracy of object collation, it is important to generate an object feature value suitable for collation from an image obtained by capturing the object.

例えば、特許文献1、2は、オブジェクトが撮像された画像から、このオブジェクトの色と形状の情報を含む特徴量を生成する手法を開示している。具体的には、オブジェクトが撮像された画像の画素の2値化された濃淡値や量子化された色ベクトルの局所自己相関によって、オブジェクトの特徴量を生成している。   For example, Patent Documents 1 and 2 disclose a method of generating a feature amount including information on the color and shape of an object from an image obtained by capturing the object. Specifically, the feature amount of the object is generated by the binarized gray value of the pixel of the image in which the object is captured and the local autocorrelation of the quantized color vector.

特開2006−260310号公報JP 2006-260310 A 特開2010− 26712号公報JP 2010-26712 A

最近では、テロリズムによる事件や、凶悪犯罪等に対する対策として、容疑者の探索が広域にわたって行われることがある。この場合、撮像エリアが異なる多数の防犯カメラの撮像画像を確認することになる。すなわち、防犯カメラ間で容疑者の照合を行うことになる。異なる防犯カメラ間においては、解像度等の性能の違いや、撮像エリアに対するアングルや周辺の明るさ等の撮像環境の違いがあるので、性能や撮像環境が違う防犯カメラで撮像された撮像画像間で容疑者を照合することになる。このようなことから、オブジェクトの撮像画像から、カメラの性能や撮像環境の違いに対して頑健性を持つオブジェクトの特徴量を生成する技術の開発が要望されている。   Recently, suspects may be searched over a wide area as a countermeasure against terrorism incidents, violent crimes, and the like. In this case, the captured images of a number of security cameras with different imaging areas are confirmed. That is, a suspect is collated between security cameras. Between different security cameras, there are differences in performance such as resolution and imaging environments such as the angle to the imaging area and surrounding brightness. The suspect will be collated. For this reason, there is a demand for development of a technique for generating feature quantities of objects that are robust against differences in camera performance and imaging environment from captured images of objects.

この発明の目的は、オブジェクトの撮像画像から、カメラの性能や撮像環境の違いに対して頑健性を持つオブジェクトの特徴量を生成し、オブジェクトの照合精度を向上させる技術を提供することを目的にする。   An object of the present invention is to provide a technique for generating object feature quantities that are robust against differences in camera performance and imaging environment from captured images of an object, and improving the accuracy of object collation. To do.

この発明の特徴量生成ユニットは、上記目的を達するため、以下のように構成されている。   In order to achieve the above object, the feature value generation unit of the present invention is configured as follows.

この特徴量生成ユニットは、オブジェクトが撮像されているオブジェクト画像に対して設定した大域領域の特徴量を生成する。   The feature value generation unit generates a feature value of the global region set for the object image in which the object is captured.

オブジェクト画像は、オブジェクトが撮像されているフレーム画像から、このオブジェクトが撮像されている領域を切り出し、切り出した領域を予め定めた画素数に変換した画像である。これにより、大域領域の特徴量を生成するオブジェクト画像のサイズが均一になる。また、オブジェクト画像全体を1つの大域領域としてもよいし、オブジェクト画像に対して複数の大域領域を設定してもよい。また、オブジェクト画像に対して複数の大域領域を設定する場合には、各大域領域が他の大域領域に重ならないように設定してもよいし、他の大域領域に重なるように設定してもよい。オブジェクト画像に撮像されているオブジェクトの特徴量は、このオブジェクト画像に対して設定した各大域領域の特徴量である。 The object image is an image obtained by cutting out an area where the object is imaged from the frame image where the object is imaged and converting the extracted area into a predetermined number of pixels . Thereby, the size of the object image for generating the feature amount of the global region becomes uniform. The entire object image may be a single global area, or a plurality of global areas may be set for the object image. In the case of setting a plurality of global areas for the object image, to each global area may be set so as not to overlap the other global areas, be set to overlap the other global areas Good. The feature amount of the object captured in the object image is the feature amount of each global area set for the object image.

画素特徴ベクトル抽出部は、オブジェクトが撮像されているオブジェクト画像の各画素について、画素特徴ベクトルを抽出する。画素特徴ベクトルの要素としては、輝度値にかかる要素や、エッジにかかる要素や、色相にかかる要素等がある。   The pixel feature vector extraction unit extracts a pixel feature vector for each pixel of the object image in which the object is captured. The element of the pixel feature vector includes an element related to a luminance value, an element related to an edge, an element related to a hue, and the like.

第1の自己相関行列算出部は、大域領域内に設定した複数の局所領域毎に、その局所領域内に位置する画素の画素特徴ベクトルの自己相関行列を算出する。自己相関行列は、画素特徴ベクトルの平均の情報を含んでいる(自己相関行列は、平均をゼロとした場合の共分散行列である。)。   The first autocorrelation matrix calculation unit calculates an autocorrelation matrix of pixel feature vectors of pixels located in the local region for each of the plurality of local regions set in the global region. The autocorrelation matrix includes information on the average of the pixel feature vectors (the autocorrelation matrix is a covariance matrix when the average is zero).

局所領域ベクトル生成部は、局所領域毎に、第1の自己相関行列算出部で算出した画素特徴ベクトルの自己相関行列から局所領域ベクトルを生成する。例えば、自己相関行列同士の距離を適切に計算するため行列に対して定義される対数変換(行列対数変換)を行った後、画像特徴ベクトルの自己相関行列をベクトルに並び替えることで、局所領域ベクトルを生成する。 The local region vector generation unit generates a local region vector from the autocorrelation matrix of the pixel feature vector calculated by the first autocorrelation matrix calculation unit for each local region. For example, in order to appropriately calculate the distance between autocorrelation matrices, after performing logarithmic transformation (matrix logarithmic transformation) defined for the matrix, the autocorrelation matrix of the image feature vector is rearranged into a vector, Generate a region vector.

第2の自己相関行列算出部は、大域領域に位置する局所領域の局所領域ベクトルの自己相関行列を算出する。そして、大域領域ベクトル生成部は、大域領域の特徴量として、第2の自己相関行列算出部で算出した局所領域ベクトルの自己相関行列から大域領域ベクトルを生成する。大域領域ベクトル生成部も、例えば、局所領域ベクトルの自己相関行列に対して行列対数変換を行い、ベクトルへ並び替えることで、大域領域ベクトルを生成する。   The second autocorrelation matrix calculation unit calculates an autocorrelation matrix of a local region vector of a local region located in the global region. Then, the global region vector generation unit generates a global region vector from the autocorrelation matrix of the local region vector calculated by the second autocorrelation matrix calculation unit as a feature amount of the global region. The global region vector generation unit also generates a global region vector, for example, by performing matrix logarithmic transformation on the autocorrelation matrix of the local region vector and rearranging the vectors into vectors.

このように、局所領域における画素の特徴量の分布(自己相関行列)を一旦局所領域の特徴量として算出し、その後大域領域における局所領域の特徴量の分布(自己相関行列)を大域領域の特徴量として算出する。大域領域の特徴量は、大域領域内に位置する局所領域の特徴分布である。したがって、大域領域において、色や勾配等の特徴量(画素特徴ベクトル)の分布量が類似しているオブジェクトであっても、局所領域における画素の分布が異なっているオブジェクトであれば、異なる大域領域の特徴ベクトルを生成でき、対象の判別性が向上する。また、画像の局所領域における画素の特徴分布は、カメラの性能や撮像環境の違いに対して頑健性を持つ。したがって、画像の局所領域における画素の特徴分布を統合した大域領域の特徴量も、カメラの性能や撮像環境の違いに対して頑健性を持つ。   In this way, the pixel feature distribution (autocorrelation matrix) in the local region is once calculated as the local feature, and then the local feature distribution (autocorrelation matrix) in the global region is calculated as the global feature. Calculate as a quantity. The feature amount of the global region is a feature distribution of a local region located in the global region. Therefore, even if an object having a similar distribution amount of a feature amount (pixel feature vector) such as a color or gradient in the global region is an object having a different pixel distribution in the local region, the different global region Feature vectors can be generated, and the discriminability of the object is improved. Also, the pixel feature distribution in the local region of the image is robust against differences in camera performance and imaging environment. Therefore, the feature amount of the global region obtained by integrating the pixel feature distribution in the local region of the image is also robust against differences in camera performance and imaging environment.

また、この発明にかかる照合装置は、特徴量生成ユニットが検索対象オブジェクトについて生成した大域領域ベクトルと、被検索対象オブジェクトについて生成した大域領域ベクトルとを用いて、被検索対象オブジェクトが検索対象オブジェクトであるかどうかを判定する。上述したように、大域領域の特徴量は、カメラの性能や撮像環境の違いに対して頑健性を持つので、オブジェクトの照合精度を向上させることができる。   Further, the collation device according to the present invention uses the global area vector generated for the search target object by the feature quantity generation unit and the global area vector generated for the search target object, and the search target object is the search target object. Determine if it exists. As described above, the feature quantity in the global area is robust against differences in camera performance and imaging environment, and therefore the object collation accuracy can be improved.

この発明によれば、オブジェクトの撮像画像から、カメラの性能や撮像環境の違いに対して頑健性を持つオブジェクトの特徴量を生成することができる。   According to the present invention, it is possible to generate a feature quantity of an object that is robust against differences in camera performance and imaging environment from a captured image of the object.

照合装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of a collation apparatus. 画像処理部の機能構成を示す概略の機能ブロック図である。It is a schematic functional block diagram which shows the function structure of an image process part. 特徴量生成処理を示すフローチャートである。It is a flowchart which shows a feature-value production | generation process. 処理対象フレーム画像を示す図である。It is a figure which shows a process target frame image. 処理対象フレーム画像上に設定したオブジェクト領域を示す図である。It is a figure which shows the object area | region set on the process target frame image. 正規化画像を示す図である。It is a figure which shows a normalized image. 正規化画像に対して設定される大域領域示す図である。It is a figure which shows the global region set with respect to a normalized image. 正規化画像に対して設定される参照画素を示す図である。It is a figure which shows the reference pixel set with respect to a normalized image. 照合処理を示すフローチャートである。It is a flowchart which shows a collation process.

以下、この発明の実施形態である照合装置について説明する。   Hereinafter, a collation device according to an embodiment of the present invention will be described.

図1は、この例にかかる照合装置の主要部の構成を示すブロック図である。照合装置1は、画像入力部2と、画像処理部3と、照合部4と、出力部5と、特徴量記憶部6と、を備えている。   FIG. 1 is a block diagram showing a configuration of a main part of a collation device according to this example. The collation apparatus 1 includes an image input unit 2, an image processing unit 3, a collation unit 4, an output unit 5, and a feature amount storage unit 6.

この例にかかる照合装置1は、フレーム画像に撮像されている人を対象者とし、この対象者の特徴量を生成する特徴量生成処理を行う。また、照合装置1は、特徴量生成処理で生成した対象者(検索対象者)の特徴量と、特徴量生成処理で生成した他の対象者(被検索対象者)の特徴量とを照合し、被検索対象者が検索対象者であるかどうかを判定する照合処理を行う。   The collation apparatus 1 according to this example performs a feature amount generation process for generating a feature amount of a subject who is a person captured in a frame image. The collation device 1 collates the feature quantity of the target person (search target person) generated by the feature quantity generation process with the feature quantity of another target person (search target person) generated by the feature quantity generation process. A collation process for determining whether the search target person is a search target person is performed.

画像入力部2には、接続された外部機器から対象者が撮像されている静止画像や、動画像が入力される。外部機器は、静止画像や、動画像を画像入力部2に入力する機能を備える装置であれば、どのような機器であってもよい。例えば、外部機器は、監視エリアを撮像している防犯カメラあってもよいし、防犯カメラが監視エリアを撮像した動画像にかかる動画像ファイルを再生する再生装置であってもよいし、撮像した静止画像を記憶しているデジタルスチルカメラであってもよい。   The image input unit 2 receives a still image or a moving image in which the target person is captured from the connected external device. The external device may be any device as long as the device has a function of inputting a still image or a moving image to the image input unit 2. For example, the external device may be a security camera that captures an image of the monitoring area, or may be a playback device that plays back a moving image file related to a moving image in which the security camera images the monitoring area. It may be a digital still camera that stores still images.

画像処理部3は、画像入力部2に入力されたフレーム画像に撮像されている人を対象者とし、この対象者の特徴量を生成する特徴量生成処理を行う。画像処理部3が、この発明にかかる特徴量生成方法を実行する。また、この発明にかかる特徴量生成プログラムは、各ステップを画像処理部3が備える画像処理プロセッサ(コンピュータ)に実行させる。画像処理部3が実行する特徴量生成処理の詳細については後述する。   The image processing unit 3 performs a feature amount generation process for generating a feature amount of the target person who is a person captured in the frame image input to the image input unit 2. The image processing unit 3 executes the feature value generation method according to the present invention. Further, the feature value generation program according to the present invention causes an image processing processor (computer) included in the image processing unit 3 to execute each step. Details of the feature amount generation processing executed by the image processing unit 3 will be described later.

照合部4は、対象者(検索対象者)の特徴量と、他の対象者(被検索対象者)の特徴量とを照合し、被検索対象者が検索対象者であるかどうかを判定する照合処理を行う。照合部4が実行する照合処理の詳細については後述する。   The collation unit 4 collates the feature quantity of the target person (search target person) with the feature quantity of another target person (search target person), and determines whether or not the search target person is a search target person. Perform verification processing. Details of the matching process executed by the matching unit 4 will be described later.

出力部5は、照合部における照合処理の結果を上位装置等に出力する。   The output unit 5 outputs the result of the collation process in the collation unit to a higher-level device or the like.

特徴量記憶部6は、画像処理部3が特徴量を生成した対象者毎に、対象者を識別するID、この対象者について生成した特徴量、特徴量の生成に用いたフレーム画像の撮像日時、特徴量の生成に用いたフレーム画像の撮像場所等を対応付けた照合用データを記憶する。特徴量記憶部6は、対象者の特徴量を生成したフレーム画像毎に、その対象者の照合用データを特徴量記憶部6に記憶する。したがって、同一人物であっても、特徴量を生成したフレーム画像が異なる場合には、IDが異なる照合用データが特徴量記憶部6に記憶される。   The feature amount storage unit 6 identifies, for each target person for which the image processing unit 3 has generated the feature amount, an ID for identifying the target person, the feature amount generated for the target person, and the imaging date and time of the frame image used to generate the feature amount. The collation data in which the imaging location of the frame image used for generating the feature amount is associated is stored. The feature amount storage unit 6 stores the verification data of the target person in the feature amount storage unit 6 for each frame image in which the feature amount of the target person is generated. Therefore, even if the person is the same person, if the frame images in which the feature values are generated are different, matching data with different IDs is stored in the feature value storage unit 6.

図2は、画像処理部の機能構成を示す概略の機能ブロック図である。画像処理部3は、オブジェクト検出機能部31と、オブジェクト領域切出機能部32と、画像サイズ正規化機能部33と、画素特徴ベクトルマップ生成機能部34と、領域設定機能部35と、局所領域ベクトル生成機能部36と、大域領域ベクトル生成機能部37と、特徴量生成機能部38とを有する。   FIG. 2 is a schematic functional block diagram showing a functional configuration of the image processing unit. The image processing unit 3 includes an object detection function unit 31, an object region extraction function unit 32, an image size normalization function unit 33, a pixel feature vector map generation function unit 34, a region setting function unit 35, a local region A vector generation function unit 36, a global area vector generation function unit 37, and a feature amount generation function unit 38 are included.

オブジェクト検出機能部31は、画像入力部2に入力されたフレーム画像に撮像されている人物(対象者)を検出する。また、オブジェクト検出機能部31は、対象者が撮像されているフレーム画像の中から処理対象フレーム画像を選択する機能を有する。   The object detection function unit 31 detects a person (subject) captured in the frame image input to the image input unit 2. In addition, the object detection function unit 31 has a function of selecting a processing target frame image from frame images in which the target person is captured.

オブジェクト領域切出機能部32は、オブジェクト検出機能部31が選択した処理対象フレーム画像上において、オブジェクト検出機能部31が検出した対象者を囲む矩形領域をオブジェクト領域として切り出す。   The object area extraction function unit 32 extracts a rectangular area surrounding the target detected by the object detection function unit 31 as an object area on the processing target frame image selected by the object detection function unit 31.

画像サイズ正規化機能部33は、オブジェクト領域切出機能部32が切り出したオブジェクト領域の画像を予め定めた画素数の画像に変換する。画像サイズ正規化機能部33は、オブジェクト領域切出機能部32が切り出したオブジェクト領域の画像を、公知のニアレストネイバー法、バイリニア法、バイキュービック法等で予め定めた画素数の画像に変換する。画像サイズ正規化機能部33が予め定めた画素数に変換したオブジェクト領域の画像を、ここでは正規化画像と言う。   The image size normalization function unit 33 converts the image of the object area extracted by the object area extraction function unit 32 into an image having a predetermined number of pixels. The image size normalization function unit 33 converts the image of the object region cut out by the object region extraction function unit 32 into an image having a predetermined number of pixels by a known nearest neighbor method, bilinear method, bicubic method, or the like. . The image of the object area converted by the image size normalization function unit 33 to a predetermined number of pixels is referred to herein as a normalized image.

オブジェクト領域切出機能部32、および画像サイズ正規化機能部33が、この発明で言うオブジェクト画像生成部に相当する。   The object area extraction function unit 32 and the image size normalization function unit 33 correspond to the object image generation unit referred to in the present invention.

画素特徴ベクトルマップ生成機能部34は、正規化画像の画素毎に画素特徴ベクトルを生成する。画素特徴ベクトルは、d次元のベクトルである(d>1)。画素特徴ベクトルマップ生成機能部34が、この発明で言う画素特徴ベクトル抽出部に相当する。   The pixel feature vector map generation function unit 34 generates a pixel feature vector for each pixel of the normalized image. The pixel feature vector is a d-dimensional vector (d> 1). The pixel feature vector map generation function unit 34 corresponds to the pixel feature vector extraction unit referred to in the present invention.

領域設定機能部35は、正規化画像に対して、局所領域と、大域領域と、を設定する。局所領域は、複数の画素からなる領域である。大域領域は、複数の局所領域が位置する領域である。すなわち、大域領域は、局所領域よりも大きい。また、この例では、正規化画像に対して、大域領域を複数設定する。複数の大域領域は、他の大域領域と重ならないように設定してもよいし、他の大域領域と重なるように設定してもよい。また、局所領域も他の局所領域と重ならないように設定してもよいし、他の局所領域と重なるように設定してもよい。   The area setting function unit 35 sets a local area and a global area for the normalized image. The local area is an area composed of a plurality of pixels. The global region is a region where a plurality of local regions are located. That is, the global region is larger than the local region. In this example, a plurality of global regions are set for the normalized image. The plurality of global areas may be set so as not to overlap with other global areas, or may be set so as to overlap with other global areas. The local area may be set so as not to overlap with other local areas, or may be set so as to overlap with other local areas.

局所領域ベクトル生成機能部36は、領域設定機能部35によって設定された局所領域毎に、その局所領域内に位置する画素の画素特徴ベクトルの自己相関行列を算出する。局所領域内に位置する画素の画素特徴ベクトルの自己相関行列が、この発明で言う第1の自己相関行列に相当する。   For each local region set by the region setting function unit 35, the local region vector generation function unit 36 calculates an autocorrelation matrix of pixel feature vectors of pixels located in the local region. An autocorrelation matrix of pixel feature vectors of pixels located in the local region corresponds to the first autocorrelation matrix referred to in the present invention.

また、局所領域ベクトル生成機能部36は、局所領域毎に、その局所領域について算出した画素の画素特徴ベクトルの自己相関行列をベクトル化した局所領域ベクトルを生成する。局所領域ベクトルが、局所領域の特徴量である。局所領域ベクトル生成機能部36が、この発明で言う第1の自己相関行列算出部、および局所領域ベクトル生成部に相当する。   Further, the local region vector generation function unit 36 generates, for each local region, a local region vector obtained by vectorizing the autocorrelation matrix of the pixel feature vector of the pixel calculated for the local region. The local region vector is a feature amount of the local region. The local region vector generation function unit 36 corresponds to the first autocorrelation matrix calculation unit and the local region vector generation unit referred to in the present invention.

大域領域ベクトル生成機能部37は、領域設定機能部35によって設定された大域領域毎に、その大域領域内に位置する局所領域の局所領域ベクトルの自己相関行列を算出する。大域領域内に位置する局所領域の局所領域ベクトルの自己相関行列が、この発明で言う第2の自己相関行列に相当する。   For each global region set by the region setting function unit 35, the global region vector generation function unit 37 calculates an autocorrelation matrix of local region vectors of local regions located in the global region. The autocorrelation matrix of the local region vector of the local region located in the global region corresponds to the second autocorrelation matrix referred to in the present invention.

また、大域領域ベクトル生成機能部37は、大域領域毎に算出した局所領域の局所領域ベクトルの自己相関行列をベクトル化した大域領域ベクトルを生成する。大域領域ベクトルが、大域領域の特徴量である。大域領域ベクトル生成機能部37が、この発明で言う第2の自己相関行列算出部、および大域領域ベクトル生成部に相当する。   The global area vector generation function unit 37 generates a global area vector obtained by vectorizing the autocorrelation matrix of the local area vector of the local area calculated for each global area. The global area vector is a feature quantity of the global area. The global region vector generation function unit 37 corresponds to the second autocorrelation matrix calculation unit and the global region vector generation unit referred to in the present invention.

特徴量生成機能部38は、各大域領域の大域領域ベクトルを対象者の特徴量にする。すなわち、対象者の特徴量は、複数(領域設定機能部35が正規化画像に対して設定した大域領域の個数)の大域領域ベクトルである。   The feature quantity generation function unit 38 uses the global area vector of each global area as the feature quantity of the subject. That is, the feature amount of the subject is a plurality of global region vectors (the number of global regions set for the normalized image by the region setting function unit 35).

以下、この例にかかる照合装置1の動作について説明する。   Hereinafter, the operation of the verification device 1 according to this example will be described.

まず、照合装置1における特徴量生成処理について説明する。図3は、特徴量生成処理を示すフローチャートである。画像処理部3が、この特徴量生成処理を実行する。ここでは、画像入力部2に入力されるフレーム画像は、カラー画像である。また、照合装置1には、画像入力部2に入力されたフレーム画像の撮像日時や撮像場所等の情報が入力されている。   First, the feature value generation process in the verification device 1 will be described. FIG. 3 is a flowchart showing the feature amount generation processing. The image processing unit 3 executes this feature amount generation process. Here, the frame image input to the image input unit 2 is a color image. In addition, information such as the imaging date and time and the imaging location of the frame image input to the image input unit 2 is input to the verification device 1.

画像処理部3は、画像入力部2に入力されたフレーム画像の中から、処理対象フレーム画像を選択する(s1)。s1では、オブジェクト検出機能部31が、画像入力部2に入力されたフレーム画像に対象者(特徴量を生成する対象者)が撮像されているかどうかを、公知のパターンマッチング等の手法で判定する。オブジェクト検出機能部31は、対象者が撮像されているフレーム画像を処理対象フレーム画像として選択する。   The image processing unit 3 selects a processing target frame image from the frame images input to the image input unit 2 (s1). In s1, the object detection function unit 31 determines whether or not the target person (target person who generates the feature amount) is captured in the frame image input to the image input unit 2 by a known method such as pattern matching. . The object detection function unit 31 selects a frame image in which the subject is captured as a processing target frame image.

なお、画像入力部2に入力されている画像が動画像であれば、対象者が時間的に連続する複数のフレーム画像に撮像されている場合がある。オブジェクト検出機能部31は、対象者が時間的に連続する複数のフレーム画像に撮像されている場合には、これらのフレーム画像の中で、この対象者の撮像状態が特徴量の生成に最適であるフレーム画像を処理対象フレーム画像として選択する。この例では、フレーム画像上における対象者の大きさが正規化サイズに最も近いフレーム画像を処理対象フレーム画像として選択する。   Note that if the image input to the image input unit 2 is a moving image, the subject may be captured in a plurality of temporally continuous frame images. When the subject is captured in a plurality of temporally continuous frame images, the object detection function unit 31 is optimal for generating the feature amount in the subject's imaging state among these frame images. A certain frame image is selected as a processing target frame image. In this example, a frame image whose size of the subject on the frame image is closest to the normalized size is selected as the processing target frame image.

図4は、s1で選択された処理対象フレーム画像を示す図である。オブジェクト領域切出機能部32は、s1で選択した処理対象フレーム画像に撮像されている対象者を囲む矩形領域をオブジェクト領域に設定し、このオブジェクト領域を切り出す(s2)。図5は、処理対象フレーム画像上に設定したオブジェクト領域を示す図である。   FIG. 4 is a diagram illustrating the processing target frame image selected in s1. The object area cutout function unit 32 sets a rectangular area surrounding the subject imaged in the processing target frame image selected in s1 as an object area, and cuts out the object area (s2). FIG. 5 is a diagram showing an object area set on the processing target frame image.

画像サイズ正規化機能部33は、s2で切り出したオブジェクト領域の画像を、予め定めた画素数の正規化画像(n(横)×m(縦)画素の画像)に変換する正規化画像生成処理を行う(s3)。s3では、公知のニアレストネイバー法、バイリニア法、バイキュービック法等で、s2で切り出したオブジェクト領域の画像を正規化画像に変換する。図6は正規化画像を示す図である。この例では、正規化画像は、48(=n)×128(=m)画素である。   The image size normalization function unit 33 converts the image of the object region cut out in s2 into a normalized image having a predetermined number of pixels (n (horizontal) × m (vertical) pixel image). (S3). In s3, the image of the object region cut out in s2 is converted into a normalized image by a known nearest neighbor method, bilinear method, bicubic method, or the like. FIG. 6 shows a normalized image. In this example, the normalized image is 48 (= n) × 128 (= m) pixels.

上述したように、処理対象フレーム画像として、フレーム画像上における対象者の大きさが正規化サイズに最も近いフレーム画像を選択するので、s3にかかる正規化画像生成処理の影響が抑えられる。   As described above, since the frame image whose target person size on the frame image is closest to the normalized size is selected as the processing target frame image, the influence of the normalized image generation processing relating to s3 can be suppressed.

画素特徴ベクトルマップ生成機能部34は、正規化画像の画素毎に、その画素の画素特徴ベクトルを登録した画素特徴ベクトルマップを作成する(s4)。この例では、正規化画像の任意の画素rの画素特徴ベクトルx(r)は、[数1]に示す6次元のベクトルである。rは、正規化画像における画素の位置を示す。   The pixel feature vector map generation function unit 34 creates, for each pixel of the normalized image, a pixel feature vector map in which the pixel feature vector of the pixel is registered (s4). In this example, the pixel feature vector x (r) of an arbitrary pixel r in the normalized image is a 6-dimensional vector represented by [Equation 1]. r indicates the position of the pixel in the normalized image.

Figure 0006460332
Figure 0006460332

[数1]においてR(r)は、その画素の赤の輝度値、G(r)は、その画素の緑の輝度値、B(r)は、その画素の青の輝度値、Ixは水平方向のエッジの強さ、Iyは垂直方向のエッジの強さである。また、||は絶対値である。[数1]に示す画素特徴ベクトルx(r)は、オブジェクトの色と模様にかかる情報を含んでいる。 In [Expression 1], R (r) is the red luminance value of the pixel, G (r) is the green luminance value of the pixel, B (r) is the blue luminance value of the pixel, and I x is The horizontal edge strength, I y, is the vertical edge strength. || is an absolute value. The pixel feature vector x (r) shown in [Expression 1] includes information regarding the color and pattern of the object.

なお、画素特徴ベクトルは、[数1]に示した6次元のベクトルに限らず、色相(H)、彩度(S)、明度(V)にかかる要素も加えた9次元のベクトルにしてもよいし、RGBの輝度値にかかる要素を色相(H)、彩度(S)、明度(V)にかかる要素に置き換えた6次元のベクトルにしてもよい。さらには、画像入力部2に入力されている画像がカラー画像でない場合(モノクロ画像である場合)には、RGBの輝度値にかかる要素をその画素の輝度値に置き換えた4次元のベクトルにしてもよい。   The pixel feature vector is not limited to the 6-dimensional vector shown in [Equation 1], but may be a 9-dimensional vector including elements related to hue (H), saturation (S), and brightness (V). Alternatively, a 6-dimensional vector in which elements relating to RGB luminance values are replaced with elements relating to hue (H), saturation (S), and brightness (V) may be used. Furthermore, when the image input to the image input unit 2 is not a color image (in the case of a monochrome image), a four-dimensional vector in which elements relating to RGB luminance values are replaced with luminance values of the pixels is used. Also good.

また、水平方向のエッジの強さや、垂直方向のエッジの強さは、公知のPrewittフィルタや、Sobelフィルタ等を用いることによって検出できる。   Further, the strength of the edge in the horizontal direction and the strength of the edge in the vertical direction can be detected by using a known Prewitt filter, Sobel filter, or the like.

また、領域設定機能部35が、s3で生成した正規化画像に対して、大域領域、および局所領域を設定する領域設定処理を行う(s5)。このs5にかかる処理は、s4にかかる処理よりも先に行ってもよい。図7は、正規化画像に対して設定される大域領域を示す図である。この例では、図7に示すように、正規化画像に対して7つの大域領域A〜Gを設定する。大域領域A〜Gのサイズは同じである。この例では、大域領域のサイズは、48×32画素(1536画素)である。領域設定機能部35は、正規化画像を縦方向(図7に示す上下方向)に均等に4分割し、上から順番に大域領域A,大域領域C、大域領域E、大域領域Gを設定する。また、領域設定機能部35は、上半分が大域領域Aに重なり、下半分が大域領域Cに重なる大域領域B、上半分が大域領域Cに重なり、下半分が大域領域Eに重なる大域領域D、および上半分が大域領域Eに重なり、下半分が大域領域Gに重なる大域領域Fを設定する。   The area setting function unit 35 performs area setting processing for setting the global area and the local area for the normalized image generated in s3 (s5). The process related to s5 may be performed before the process related to s4. FIG. 7 is a diagram illustrating a global region set for a normalized image. In this example, as shown in FIG. 7, seven global regions A to G are set for the normalized image. The sizes of the global areas A to G are the same. In this example, the size of the global area is 48 × 32 pixels (1536 pixels). The area setting function unit 35 equally divides the normalized image into four in the vertical direction (vertical direction shown in FIG. 7), and sets the global area A, the global area C, the global area E, and the global area G in order from the top. . Further, the area setting function unit 35 has a global area B in which the upper half overlaps the global area A, the lower half overlaps the global area C, the upper half overlaps the global area C, and the lower half overlaps the global area E. And a global region F in which the upper half overlaps the global region E and the lower half overlaps the global region G is set.

なお、正規化画像に対して設定する大域領域の個数は、図7に示した7つに限らず、いくつであってもよい。また、正規化画像に対していずれかの大域領域が、他の大域領域と重なるように設定してもよいし、重ならないように設定してもよい。   Note that the number of global regions set for the normalized image is not limited to seven shown in FIG. 7 and may be any number. Also, one of the global areas may be set so as to overlap with another global area with respect to the normalized image, or may be set so as not to overlap.

また、領域設定機能部35は、正規化画像に対して複数の参照画素pを設定することにより、複数の局所領域を設定する。局所領域は、設定した参照画素p毎に、その参照画素pを中心とするα×β画素の領域である。この例では、局所領域は、参照画素pを中心とする7(=α)×7(=β)画素(49画素)の領域である。領域設定機能部35は、図8に示すように、正規化画像に対して、横方向、および縦方向に2画素間隔で参照画素pを設定する。図8において、ハッチングで示すそれぞれの画素が、参照画素pである。また、図8では、1つの参照画素pについて設定される1つの局所領域を図示している。   The region setting function unit 35 sets a plurality of local regions by setting a plurality of reference pixels p for the normalized image. The local region is an α × β pixel region centered on the reference pixel p for each set reference pixel p. In this example, the local region is a region of 7 (= α) × 7 (= β) pixels (49 pixels) centered on the reference pixel p. As shown in FIG. 8, the region setting function unit 35 sets reference pixels p at intervals of two pixels in the horizontal direction and the vertical direction with respect to the normalized image. In FIG. 8, each pixel indicated by hatching is a reference pixel p. FIG. 8 illustrates one local region set for one reference pixel p.

なお、領域設定機能部35は、正規化画像の全ての画素を参照画素pに設定してもよいし、横方向、および縦方向に3画素間隔等で参照画素pを設定してもよい。また、局所領域のサイズも、7×7画素に限らず、3×3画素や、4×4画素、11×11画素等に設定してもよい。さらには、この例では、局所領域が参照画素pを中心にして設定されるとしたが、参照画素pを中心とせず、参照画素pを局所領域の右上の角の画素にしてもよいし、左上の角の画素にしてもよい。すなわち、局所領域は、参照画素pを基準にして設定される領域であれば、どのように設定される領域であってもよい。   Note that the region setting function unit 35 may set all the pixels of the normalized image as reference pixels p, or may set the reference pixels p at intervals of three pixels in the horizontal direction and the vertical direction. Further, the size of the local region is not limited to 7 × 7 pixels, and may be set to 3 × 3 pixels, 4 × 4 pixels, 11 × 11 pixels, or the like. Furthermore, in this example, the local region is set around the reference pixel p. However, the reference pixel p may not be the center, and the reference pixel p may be a pixel at the upper right corner of the local region. The pixel in the upper left corner may be used. That is, the local region may be any region set as long as it is a region that is set based on the reference pixel p.

正規化画像に対する大域領域の設定条件、正規化画像に対する参照画素pの設定条件、参照画素pを基準にした局所領域の設定条件等は、予め設定されている。   The global region setting condition for the normalized image, the reference pixel p setting condition for the normalized image, the local region setting condition based on the reference pixel p, and the like are set in advance.

局所領域ベクトル生成機能部36は、s5で設定された参照画素p毎に、その参照画素pに対して設定される局所領域の自己相関行列Σ(p)を登録した自己相関局行列マップを作成する(s6)。s6で生成する自己相関行列マップは、参照画素pと、局所領域の自己相関局行列Σ(p)と、を対応づけたものである。   For each reference pixel p set in s5, the local region vector generation function unit 36 creates an autocorrelation station matrix map in which the autocorrelation matrix Σ (p) of the local region set for the reference pixel p is registered. (S6). The autocorrelation matrix map generated in s6 associates the reference pixel p with the local area autocorrelation station matrix Σ (p).

参照画素pに対して設定される局所領域の自己相関行列Σ(p)は、   The autocorrelation matrix Σ (p) of the local region set for the reference pixel p is

Figure 0006460332
Figure 0006460332

により算出される。[数2]において、NL(p)は、参照画素pの局所領域内の画素数(この例では、49画素)であり、LocalArea(p)は、参照画素pに対して設定される局所領域を示す。 Is calculated by In [Expression 2], NL (p) is the number of pixels in the local area of the reference pixel p (49 pixels in this example), and LocalArea (p) is the local area set for the reference pixel p. Indicates.

局所領域ベクトル生成機能部36は、正規化画像の参照画素pについて設定される局所領域LocalArea(p)ごとに、自己相関行列Σ(p)を算出する。このとき、各局所領域の自己相関行列が対称行列であるので、重複する要素については、一方について演算し、他方については一方の演算結果を流用する。この例では、画素特徴ベクトルx(r)が6次元であるので、画素特徴ベクトルx(r)の自己相関行列は6行6列になる。また、重複する要素の組は、15組である。すなわち、この例では、1つの局所領域の自己相関行列の算出において、15個の要素について演算を省略できる。   The local area vector generation function unit 36 calculates an autocorrelation matrix Σ (p) for each local area LocalArea (p) set for the reference pixel p of the normalized image. At this time, since the autocorrelation matrix of each local region is a symmetric matrix, one of the overlapping elements is calculated, and the other calculation result is used for the other. In this example, since the pixel feature vector x (r) is 6-dimensional, the autocorrelation matrix of the pixel feature vector x (r) is 6 rows and 6 columns. In addition, there are 15 sets of overlapping elements. That is, in this example, in the calculation of the autocorrelation matrix of one local region, the calculation for 15 elements can be omitted.

また、局所領域ベクトル生成機能部36は、局所領域LocalArea(p)毎の自己相関行列Σ(p)に対して行列対数変換を行う(s7)。自己相関行列は正定値対象行列であるため、この行列の形成する空間は、ユークリッド空間でなく、リーマン多様体となっている。行列対数変換は、正定値対象行列をこの多様体の接空間へ射影することに相当し、これを行った後、行列をベクトル化することで、自己相関行列の多様体構造を配慮した演算が、通常のユークリッド空間の演算により実現可能となる。   The local region vector generation function unit 36 performs matrix logarithmic transformation on the autocorrelation matrix Σ (p) for each local region LocalArea (p) (s7). Since the autocorrelation matrix is a positive definite target matrix, the space formed by this matrix is not a Euclidean space but a Riemannian manifold. Matrix logarithmic transformation is equivalent to projecting a positive definite target matrix to the tangent space of this manifold, and after doing this, the matrix is vectorized, so that the operation considering the manifold structure of the autocorrelation matrix can be performed. It can be realized by a normal Euclidean space calculation.

s7では、各局所領域LocalArea(p)の自己相関行列Σ(p)を、   In s7, the autocorrelation matrix Σ (p) of each local area LocalArea (p) is

Figure 0006460332
に示すように特異値分解する。
Figure 0006460332
Singular value decomposition as shown in

また、行列対数変換を、   Also, the matrix logarithmic transformation

Figure 0006460332
と定義する。この行列対数変換では、固有値λが0であるとき、行列対数変換した値が−∞になるのを防止するため、特異値λにεを加算するようにしている。この例では、ε=1とした。
Figure 0006460332
It is defined as In this matrix logarithmic transformation, when the eigenvalue λ is 0, ε is added to the singular value λ to prevent the matrix logarithmic transformed value from becoming −∞. In this example, ε = 1.

さらに、局所領域ベクトル生成機能部36は、行列対数変換した行列Y(p)=log(Σ(p))を、要素の重複を考慮し、   Further, the local region vector generation function unit 36 considers the overlap of elements in the matrix Y (p) = log (Σ (p)) subjected to matrix logarithmic transformation,

Figure 0006460332
により、ベクトル化する(s8)。s8でベクトル化された、局所領域LocalArea(p)の自己相関行列Σ(p)のベクトルy(p)は、局所領域LocalArea(p)の特徴ベクトル(この発明で言う、局所領域ベクトルに相当する。)である。局所領域LocalArea(p)の特徴ベクトルy(p)は、画素特徴ベクトルがd次元のベクトルである場合、(d×(d+1)/2)次元のベクトルになる。局所領域ベクトル生成機能部36は、局所領域LocalArea(p)毎に、その局所領域LocalArea(p)の特徴ベクトルy(p)を登録した局所領域ベクトルマップを作成する(s9)。
Figure 0006460332
Thus, vectorization is performed (s8). The vector y (p) of the autocorrelation matrix Σ (p) of the local area LocalArea (p) vectorized in s8 corresponds to the feature vector of the local area LocalArea (p) (referred to as the local area vector in this invention). .) The feature vector y (p) of the local area LocalArea (p) is a (d × (d + 1) / 2) -dimensional vector when the pixel feature vector is a d-dimensional vector. For each local area LocalArea (p), the local area vector generation function unit 36 creates a local area vector map in which the feature vector y (p) of the local area LocalArea (p) is registered (s9).

次に、大域領域ベクトル生成機能部37が、大域領域A〜G毎に、その大域領域A〜Gの自己相関行列M(M(A)〜M(G))を登録した自己相関局行列マップを作成する(s10)。大域領域A〜Gの自己相関局行列マップは、   Next, the autocorrelation station matrix map in which the global region vector generation function unit 37 registers the autocorrelation matrix M (M (A) to M (G)) of the global region A to G for each of the global regions A to G. Is created (s10). The autocorrelation station matrix map of the global region A to G is

Figure 0006460332
により算出する。[数6]において、NGは、大域領域内に位置する局所領域の数であり、GlobalAreaは大域領域を示す。
Figure 0006460332
Calculated by In [Formula 6], NG is the number of local areas located in the global area, and GlobalArea indicates the global area.

s9では、大域領域において、その領域内の局所領域LocalArea(p)の特徴ベクトルy(p)の自己相関行列Mを算出する。このとき、大域領域ベクトル生成機能部37は、大域領域の自己相関行列Mが対称行列であるので、重複する要素については、一方について演算し、他方については一方の演算結果を流用する。この例では、局所領域LocalArea(p)の特徴ベクトルy(p)は、21次元であるので、大域領域の自己相関行列Mは21行21列になる。また、重複する要素の組は、210組である。すなわち、この例では、大域領域の自己相関行列Mの算出において、210個の要素について演算を省略できる。   In s9, in the global region, the autocorrelation matrix M of the feature vector y (p) of the local region LocalArea (p) in the region is calculated. At this time, since the autocorrelation matrix M of the global region is a symmetric matrix, the global region vector generation function unit 37 calculates one of the overlapping elements and uses one calculation result for the other. In this example, the feature vector y (p) of the local area LocalArea (p) has 21 dimensions, so the autocorrelation matrix M of the global area is 21 rows and 21 columns. In addition, there are 210 sets of overlapping elements. That is, in this example, in the calculation of the autocorrelation matrix M in the global region, the calculation for 210 elements can be omitted.

大域領域ベクトル生成機能部37は、大域領域A〜G毎に、自己相関行列M(M(A)〜M(G))を対応づけた大域領域の自己相関行列マップを作成する。   The global region vector generation function unit 37 creates an autocorrelation matrix map of the global region in which the autocorrelation matrix M (M (A) to M (G)) is associated with each of the global regions A to G.

また、大域領域ベクトル生成機能部37は、大域領域A〜G毎に、その大域領域A〜Gの自己相関行列M(M(A)〜M(G))に対して行列対数変換を行う(s11)。上述したように、自己相関行列は、正定値対称行列であることから、行列の対数変換を行ってベクトル化することで、ユークリッド空間の演算に自己相関行列の多様体構造を配慮させる。   Further, the global region vector generation function unit 37 performs matrix logarithmic transformation on the autocorrelation matrix M (M (A) to M (G)) of the global region A to G for each of the global regions A to G ( s11). As described above, since the autocorrelation matrix is a positive definite symmetric matrix, by performing logarithmic transformation of the matrix and vectorizing it, the manifold structure of the autocorrelation matrix is considered in the Euclidean space calculation.

s11では、s7と同様の手法で、各大域領域A〜Gの自己相関行列M(M(A)〜M(G))に対して行列対数変換を行う。   In s11, matrix logarithmic transformation is performed on the autocorrelation matrix M (M (A) to M (G)) of each of the global regions A to G in the same manner as s7.

さらに、大域領域ベクトル生成機能部37は、大域領域A〜G毎に、行列対数変換した行列を、要素の重複を考慮してベクトル化する(s12)。s12でベクトル化された、各大域領域A〜Gの特徴ベクトルz(A)〜z(G)は、画素特徴ベクトルがd次元のベクトルである場合、
((d×(d+1)/2)×((d×(d+1)/2)+1)/2)次元のベクトルになる。この例では、231次元のベクトルになる。各大域領域A〜Gの特徴ベクトルz(A)〜z(G)が、この発明で言う大域領域ベクトルに相当する。
Further, the global area vector generation function unit 37 vectorizes the matrix obtained by logarithmic matrix conversion for each of the global areas A to G in consideration of element duplication (s12). When the pixel feature vector is a d-dimensional vector, the feature vectors z (A) to z (G) of the global regions A to G vectorized in s12 are as follows:
It becomes a ((d × (d + 1) / 2) × ((d × (d + 1) / 2) +1) / 2) -dimensional vector. In this example, it is a 231-dimensional vector. The feature vectors z (A) to z (G) of the respective global areas A to G correspond to the global area vector referred to in the present invention.

特徴量生成機能部38は、対象者を識別する対象者のID、各大域領域A〜Gの特徴ベクトルz(A)〜z(G)、処理対象フレーム画像の日時、撮像場所等を対応づけた照合用データを生成し、この照合用データを特徴量記憶部6に登録する(s13)。   The feature quantity generation function unit 38 associates the target person ID for identifying the target person, the feature vectors z (A) to z (G) of each of the global regions A to G, the date and time of the processing target frame image, the imaging location, and the like. The matching data is generated, and the matching data is registered in the feature amount storage unit 6 (s13).

このように、画像処理部3は、局所領域LocalArea(p)における画素の特徴量の分布(自己相関行列)を、局所領域LocalArea(p)の特徴量として算出し、その後大域領域における局所領域LocalArea(p)の特徴量の分布を大域領域の特徴量として算出する。画像の局所領域LocalArea(p)における画素の特徴分布は、カメラの性能や撮像環境の違いに対して頑健性を持つ。また、大域領域の特徴量は、この大域領域内に位置する局所領域LocalArea(p)の特徴分布である。したがって、オブジェクト画像において、色や勾配等の特徴量(画素特徴ベクトル)が類似する画素の分布量が近似しているオブジェクトであっても、局所領域の画素の分布が異なっているオブジェクトであれば、異なる大域領域ベクトルが生成される。   As described above, the image processing unit 3 calculates the distribution (autocorrelation matrix) of the pixel feature amount in the local region LocalArea (p) as the feature amount of the local region LocalArea (p), and then calculates the local region LocalArea in the global region. The distribution of the feature value of (p) is calculated as the feature value of the global region. The pixel feature distribution in the local area LocalArea (p) of the image is robust against differences in camera performance and imaging environment. The feature quantity of the global area is a feature distribution of the local area LocalArea (p) located in the global area. Therefore, in an object image, even if the distribution amount of pixels with similar feature amounts (pixel feature vectors) such as color and gradient is approximated, the object image has a different pixel distribution in the local region. Different global region vectors are generated.

次に、照合処理について説明する。図9は、照合処理を示すフローチャートである。   Next, the collation process will be described. FIG. 9 is a flowchart showing the matching process.

照合部4は、指定された検索対象者の照合用データを特徴量記憶部6から読み出すとともに(s21)、被検索対象者の照合用データを特徴量記憶部6から読み出す(s22)。検索対象者、および被検索対象者の照合用データは、上述した特徴量生成処理で生成され、特徴量記憶部6に記憶されている。   The collation unit 4 reads out the collation data for the designated search target person from the feature amount storage unit 6 (s21), and reads out the collation data for the search target person from the feature amount storage unit 6 (s22). The search target person and the search target person verification data are generated by the above-described feature value generation process and stored in the feature value storage unit 6.

照合装置1は、オペレータ等が被検索対象者を指定する構成であってもよいし、照合部4が特徴量記憶部6に照合用データが記憶されている人物の中から被検索対象者を自動的に選択する構成であってもよい。   The collation device 1 may be configured such that an operator or the like designates a person to be searched, or the collation unit 4 selects a person to be searched from among persons whose collation data is stored in the feature amount storage unit 6. The configuration may be automatically selected.

照合部4は、大域領域A〜G毎に、検索対象者の特徴ベクトルz(A)〜z(G)と、被検索対象者の特徴ベクトルz(A)〜z(G)と、の距離を算出する(s23)。照合部4は、大域領域A〜G毎に算出した、特徴ベクトルz(A)〜z(G)の距離の総和を算出する(s24)。   For each of the global regions A to G, the matching unit 4 determines the distance between the search target person's feature vectors z (A) to z (G) and the search target person's feature vectors z (A) to z (G). Is calculated (s23). The collation unit 4 calculates the sum of the distances of the feature vectors z (A) to z (G) calculated for each of the global regions A to G (s24).

照合部4は、s24で算出した、距離の総和が予め定めた閾値以下であれば、s2で照合用データを読み出した被検索対象者を、s1で照合用データを読み出した検索対象であると判定する(s25、s26)。反対に、照合部4は、s25で算出した、距離の総和が予め定めた閾値以下でなければ、s2で照合用データを読み出した被検索対象者を、s1で照合用データを読み出した検索対象でないと判定する(s25、s27)。   If the sum of the distances calculated in s24 is equal to or less than a predetermined threshold, the matching unit 4 determines that the search target person who has read the matching data in s2 is the search target in which the matching data has been read in s1. Determine (s25, s26). On the contrary, the collation unit 4 calculates the person to be searched for which the collation data is read in s2 and the search object for which the collation data is read in s1, if the sum of distances calculated in s25 is not less than a predetermined threshold. (S25, s27).

このように、この照合装置1は、上述した特徴量生成処理で生成した特徴量を用いて、オブジェクトの照合を行うので、照合精度の向上が図れる。   Thus, since this collation apparatus 1 collates an object using the feature-value produced | generated by the feature-value production | generation process mentioned above, it can aim at the improvement of collation precision.

1…照合装置
2…画像入力部
3…画像処理部
4…照合部
5…出力部
6…特徴量記憶部
31…オブジェクト検出機能部
32…オブジェクト領域切出機能部
33…画像サイズ正規化機能部
34…画素特徴ベクトルマップ生成機能部
5…領域設定機能部
36…局所領域ベクトル生成機能部
37…大域領域ベクトル生成機能部
38…特徴量生成機能部
DESCRIPTION OF SYMBOLS 1 ... Collation apparatus 2 ... Image input part 3 ... Image processing part 4 ... Collation part 5 ... Output part 6 ... Feature-value memory | storage part 31 ... Object detection function part 32 ... Object area extraction function part 33 ... Image size normalization function part 34 ... Pixel feature vector map generation function unit
3 5 ... region setting function unit 36 ... local region vector generation unit 37 ... global region vector generation unit 38 ... feature amount generating function unit

Claims (11)

オブジェクトが撮像されているフレーム画像から、このオブジェクトが撮影されている領域を切り出し、切り出した領域を予め定めた画素数に変換したオブジェクト画像の各画素について、画素特徴ベクトルを抽出する画素特徴ベクトル抽出部と、
前記オブジェクト画像内に設定した大域領域の内部に更に設定した複数の局所領域毎に、その局所領域に位置する画素の画素特徴ベクトルの自己相関行列を算出する第1の自己相関行列算出部と、
前記局所領域毎に、前記第1の自己相関行列算出部で算出した画素特徴ベクトルの自己相関行列から局所領域ベクトルを生成する局所領域ベクトル生成部と、
前記大域領域に位置する前記局所領域の局所領域ベクトルの自己相関行列を算出する第2の自己相関行列算出部と、
前記大域領域の特徴量として、前記第2の自己相関行列算出部で算出した局所領域ベクトルの自己相関行列から大域領域ベクトルを生成する大域領域ベクトル生成部と、を備えた特徴量生成ユニット。
Pixel feature vector extraction that extracts a pixel feature vector for each pixel of an object image obtained by cutting out a region where the object is photographed from a frame image in which the object is captured and converting the extracted region into a predetermined number of pixels And
A first autocorrelation matrix calculating unit that calculates an autocorrelation matrix of a pixel feature vector of a pixel located in the local region for each of a plurality of local regions further set inside the global region set in the object image ;
A local region vector generation unit that generates a local region vector from the autocorrelation matrix of the pixel feature vector calculated by the first autocorrelation matrix calculation unit for each local region;
A second autocorrelation matrix calculating unit that calculates an autocorrelation matrix of a local region vector of the local region located in the global region;
A feature quantity generation unit comprising: a global area vector generation section that generates a global area vector from the autocorrelation matrix of the local area vector calculated by the second autocorrelation matrix calculation section as the global area feature quantity.
前記局所領域ベクトル生成部は、前記第1の自己相関行列算出部で算出した画素特徴ベクトルの自己相関行列に対して行列対数変換を行って局所領域ベクトルを生成する、請求項1に記載の特徴量生成ユニット。   The feature according to claim 1, wherein the local region vector generation unit generates a local region vector by performing matrix logarithmic transformation on the autocorrelation matrix of the pixel feature vector calculated by the first autocorrelation matrix calculation unit. Quantity generation unit. 前記画素特徴ベクトル抽出部は、画素の輝度値にかかる要素を含む画素特徴ベクトルを抽出する、請求項1、または2に記載の特徴量生成ユニット。   The feature quantity generation unit according to claim 1, wherein the pixel feature vector extraction unit extracts a pixel feature vector including an element related to a luminance value of a pixel. 前記画素特徴ベクトル抽出部は、画素のエッジにかかる要素を含む画素特徴ベクトルを抽出する、請求項1〜3のいずれかに記載の特徴量生成ユニット。   The feature quantity generation unit according to claim 1, wherein the pixel feature vector extraction unit extracts a pixel feature vector including an element related to an edge of the pixel. オブジェクトが撮像されているフレーム画像から、このオブジェクトが撮像されている領域を切り出し、切り出した領域を予め定めた画素数に変換した画像を前記オブジェクト画像として生成するオブジェクト画像生成部を備えた、請求項1〜4のいずれかに記載の特徴量生成ユニット。   An object image generation unit configured to cut out an area in which the object is imaged from a frame image in which the object is imaged and generate an image obtained by converting the extracted area into a predetermined number of pixels as the object image; Item 5. The feature value generation unit according to any one of Items 1 to 4. 前記大域領域内に設定した前記局所領域は、この大域領域内に設定した他の局所領域と重なっている、請求項1〜5のいずれかに記載の特徴量生成ユニット。   The feature quantity generation unit according to claim 1, wherein the local area set in the global area overlaps with another local area set in the global area. 前記オブジェクト画像に対して設定した複数の前記大域領域毎に、その大域領域について前記大域領域ベクトル生成部が生成した大域領域ベクトルを、このオブジェクト画像に撮像されているオブジェクトの特徴量にするオブジェクト特徴量生成部を備えた請求項1〜6のいずれかに記載の特徴量生成ユニット。   For each of the plurality of global regions set for the object image, an object feature that uses the global region vector generated by the global region vector generation unit for the global region as a feature amount of the object captured in the object image The feature-value production | generation unit in any one of Claims 1-6 provided with the quantity production | generation part. 前記オブジェクト画像に対して設定した前記大域領域は、このオブジェクト画像に対して設定した他の大域領域と重なっている、請求項7に記載の特徴量生成ユニット。   The feature amount generation unit according to claim 7, wherein the global area set for the object image overlaps with another global area set for the object image. 請求項1〜8のいずれかに記載の特徴量生成ユニットを備え、
前記特徴量生成ユニットが検索対象オブジェクトについて生成した前記大域領域ベクトルと、被検索対象オブジェクトについて生成した前記大域領域ベクトルと、を用いて、前記被検索対象オブジェクトが前記検索対象オブジェクトであるかどうかを判定する照合部を備えた照合装置。
A feature quantity generation unit according to any one of claims 1 to 8,
Whether the search target object is the search target object using the global region vector generated for the search target object by the feature quantity generation unit and the global region vector generated for the search target object. A collation device having a collation unit for judging.
オブジェクトが撮像されているフレーム画像から、このオブジェクトが撮影されている領域を切り出し、切り出した領域を予め定めた画素数に変換したオブジェクト画像の各画素について、予め定めた次元の画素特徴ベクトルを抽出する画素特徴ベクトル抽出ステップと、
前記オブジェクト画像内に設定した大域領域内に更に設定した複数の局所領域毎に、その局所領域に位置する画素の画素特徴ベクトルの自己相関行列を算出する第1の自己相関行列算出ステップと、
前記局所領域毎に、前記第1の自己相関行列算出ステップで算出した画素特徴ベクトルの自己相関行列から局所領域ベクトルを生成する局所領域ベクトル生成ステップと、
前記大域領域に位置する前記局所領域の局所領域ベクトルの自己相関行列を算出する第2の自己相関行列算出ステップと、
前記大域領域の特徴量として、前記第2の自己相関行列算出ステップで算出した局所領域ベクトルの自己相関行列から大域領域ベクトルを生成する大域領域ベクトル生成ステップと、を備えた特徴量生成方法。
Extract a pixel feature vector of a predetermined dimension from each pixel of the object image obtained by cutting out the region where the object is captured from the frame image where the object is captured and converting the extracted region into a predetermined number of pixels. A pixel feature vector extraction step;
A first autocorrelation matrix calculating step of calculating an autocorrelation matrix of a pixel feature vector of a pixel located in the local region for each of a plurality of local regions further set in the global region set in the object image ;
For each local region, a local region vector generation step for generating a local region vector from the autocorrelation matrix of the pixel feature vector calculated in the first autocorrelation matrix calculation step;
A second autocorrelation matrix calculating step of calculating an autocorrelation matrix of a local region vector of the local region located in the global region;
And a global region vector generation step of generating a global region vector from the autocorrelation matrix of the local region vector calculated in the second autocorrelation matrix calculation step as the global region feature amount.
オブジェクトが撮像されているフレーム画像から、このオブジェクトが撮影されている領域を切り出し、切り出した領域を予め定めた画素数に変換したオブジェクト画像の各画素について、予め定めた次元の画素特徴ベクトルを抽出する画素特徴ベクトル抽出ステップと、
前記オブジェクト画像内に設定した大域領域内に更に設定した複数の局所領域毎に、その局所領域に位置する画素の画素特徴ベクトルの自己相関行列を算出する第1の自己相関行列算出ステップと、
前記局所領域毎に、前記第1の自己相関行列算出ステップで算出した画素特徴ベクトルの自己相関行列から局所領域ベクトルを生成する局所領域ベクトル生成ステップと、
前記大域領域に位置する前記局所領域の局所領域ベクトルの自己相関行列を算出する第2の自己相関行列算出ステップと、
前記大域領域の特徴量として、前記第2の自己相関行列算出ステップで算出した局所領域ベクトルの自己相関行列から大域領域ベクトルを生成する大域領域ベクトル生成ステップと、をコンピュータに実行させる特徴量生成プログラム。
Extract a pixel feature vector of a predetermined dimension from each pixel of the object image obtained by cutting out the region where the object is captured from the frame image where the object is captured and converting the extracted region into a predetermined number of pixels. A pixel feature vector extraction step;
A first autocorrelation matrix calculating step of calculating an autocorrelation matrix of a pixel feature vector of a pixel located in the local region for each of a plurality of local regions further set in the global region set in the object image ;
For each local region, a local region vector generation step for generating a local region vector from the autocorrelation matrix of the pixel feature vector calculated in the first autocorrelation matrix calculation step;
A second autocorrelation matrix calculating step of calculating an autocorrelation matrix of a local region vector of the local region located in the global region;
A feature amount generation program for causing a computer to execute a global region vector generation step for generating a global region vector from the autocorrelation matrix of the local region vector calculated in the second autocorrelation matrix calculation step as the global region feature amount .
JP2015085950A 2015-04-20 2015-04-20 Feature value generation unit, collation device, feature value generation method, and feature value generation program Active JP6460332B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015085950A JP6460332B2 (en) 2015-04-20 2015-04-20 Feature value generation unit, collation device, feature value generation method, and feature value generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015085950A JP6460332B2 (en) 2015-04-20 2015-04-20 Feature value generation unit, collation device, feature value generation method, and feature value generation program

Publications (2)

Publication Number Publication Date
JP2016206836A JP2016206836A (en) 2016-12-08
JP6460332B2 true JP6460332B2 (en) 2019-01-30

Family

ID=57489896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015085950A Active JP6460332B2 (en) 2015-04-20 2015-04-20 Feature value generation unit, collation device, feature value generation method, and feature value generation program

Country Status (1)

Country Link
JP (1) JP6460332B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11930830B2 (en) 2011-03-11 2024-03-19 Intercontinental Great Brands Llc System and method of forming multilayer confectionery

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4222558B2 (en) * 2004-01-15 2009-02-12 Kddi株式会社 Image recognition device
JP5382786B2 (en) * 2009-05-19 2014-01-08 国立大学法人 東京大学 Feature quantity generation device, feature quantity generation method and feature quantity generation program, class discrimination device, class discrimination method, and class discrimination program
JP4918615B2 (en) * 2010-12-29 2012-04-18 独立行政法人産業技術総合研究所 Object number detection device and object number detection method
JP5870011B2 (en) * 2012-11-27 2016-02-24 日本電信電話株式会社 Point cloud analysis device, point cloud analysis method, and point cloud analysis program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11930830B2 (en) 2011-03-11 2024-03-19 Intercontinental Great Brands Llc System and method of forming multilayer confectionery

Also Published As

Publication number Publication date
JP2016206836A (en) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6032921B2 (en) Object detection apparatus and method, and program
US7689011B2 (en) Extracting features from face regions and auxiliary identification regions of images for person recognition and other applications
JP4985993B2 (en) Object area extraction device
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
US9208172B2 (en) Method and system for vehicle identification
JP2015099559A (en) Image processing apparatus, image processing method, and program
JP5936561B2 (en) Object classification based on appearance and context in images
Bhuiyan et al. Person re-identification by discriminatively selecting parts and features
KR20170077366A (en) System and method for face recognition
JP6410450B2 (en) Object identification device, object identification method, and program
US8923552B2 (en) Object detection apparatus and object detection method
JP2011113313A (en) Attitude estimation device
JPWO2012046426A1 (en) Object detection apparatus, object detection method, and object detection program
JP5155250B2 (en) Object detection device
CN111126102A (en) Personnel searching method and device and image processing equipment
JP6460332B2 (en) Feature value generation unit, collation device, feature value generation method, and feature value generation program
GB2457797A (en) Associating face images using covariance matrices of extracted features
JP2013218605A (en) Image recognition device, image recognition method, and program
Julliand et al. Automated image splicing detection from noise estimation in raw images
Duan et al. Local feature learning for face recognition under varying poses
JP6326622B2 (en) Human detection device
JP6296769B2 (en) Object detection device
JP2017175466A (en) Video image processing device, video image processing system and control method
US20230259549A1 (en) Extraction of feature point of object from image and image search system and method using same
WO2017179728A1 (en) Image recognition device, image recognition method, and image recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181218

R150 Certificate of patent or registration of utility model

Ref document number: 6460332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250