JP2013210844A - Image collation device - Google Patents

Image collation device Download PDF

Info

Publication number
JP2013210844A
JP2013210844A JP2012080576A JP2012080576A JP2013210844A JP 2013210844 A JP2013210844 A JP 2013210844A JP 2012080576 A JP2012080576 A JP 2012080576A JP 2012080576 A JP2012080576 A JP 2012080576A JP 2013210844 A JP2013210844 A JP 2013210844A
Authority
JP
Japan
Prior art keywords
person
image
color
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012080576A
Other languages
Japanese (ja)
Other versions
JP5925557B2 (en
Inventor
Yosuke Murai
陽介 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012080576A priority Critical patent/JP5925557B2/en
Publication of JP2013210844A publication Critical patent/JP2013210844A/en
Application granted granted Critical
Publication of JP5925557B2 publication Critical patent/JP5925557B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve a problem in which image collation for collating whether object images in two images are the same object is affected by a variation in appearance due to an illumination condition difference between the images.SOLUTION: A color conversion unit 212 calculates cumulative histograms for a color luminance value of a pixel in an object image of interest of two images to be collated, and subjects one object image to luminance conversion for making its cumulative histogram similar to the cumulative histogram of the other object image. An inter-person similarity calculation unit 213 collates the one object image subjected to the luminance conversion with the other object image.

Description

本発明は、画像それぞれに撮像された物体像が同一の対象物体のものであるか照合する画像照合装置に関する。   The present invention relates to an image collation apparatus that collates whether object images captured in respective images are of the same target object.

不審人物の足跡を追う目的等で、異なる場所に設置された監視カメラにて撮像した映像から同一人物の映像を検索することを要求される場合がある。例えば、建物2階の映像で確認された不審人物がいつ入館したかを特定するために、当該建物入口の映像を検索することが要求される。   For the purpose of following the footsteps of a suspicious person, it may be required to search for an image of the same person from images captured by surveillance cameras installed in different places. For example, in order to specify when a suspicious person confirmed in the video on the second floor of the building has entered the building, it is required to search for the video at the entrance of the building.

移動物体を追跡する画像処理技術によれば、人物位置の連続性を利用して同一人物が映った画像を特定することができる。しかし、監視カメラは設置コスト等の理由から離散的に設置されることが多く、離れた監視カメラの間では人物位置の連続性が利用困難となる。そのため異なる監視カメラで追跡した人物の画像を服装などの色や色の配置の特徴で照合することになる。   According to the image processing technique for tracking a moving object, it is possible to specify an image in which the same person is shown using the continuity of person positions. However, surveillance cameras are often installed discretely for reasons such as installation costs, and it is difficult to use the continuity of person positions between remote surveillance cameras. For this reason, images of a person tracked by different surveillance cameras are collated with colors such as clothes and color arrangement characteristics.

このように、異なる監視カメラで撮像された人物の照合を行う場合、照明条件の違いにより生じる色ずれが本人不一致の原因となる。   In this way, when collating humans imaged by different surveillance cameras, color misregistration caused by a difference in illumination conditions causes a mismatch between the persons.

そのために、従来、各カメラで共通の被写体を撮影してカメラ間で被写体画像の色分布を一致させて照明条件の違いを補正したり(特許文献1)、各カメラで多数の人物を撮像して人物の画像の平均的な色特性をカメラ間で一致させて照明条件の違いを補正していた(非特許文献1)。   Therefore, conventionally, a common subject is photographed by each camera and the color distribution of the subject image is matched between the cameras to correct differences in illumination conditions (Patent Document 1), or a large number of people are imaged by each camera. Thus, the difference in lighting conditions is corrected by matching the average color characteristics of human images between cameras (Non-patent Document 1).

特開2007−19713号公報JP 2007-19713 A

OmarJaved, Khurram Shafique, Zeeshan Rasheed, Mubarak Shah, “Modeling inter-camera space-time andappearance relationships for tracking across non-overlapping views”, Computer Vision and Image Understanding, Vol. 109, Issue 2, pp. 146-162, Feb, 2008.OmarJaved, Khurram Shafique, Zeeshan Rasheed, Mubarak Shah, “Modeling inter-camera space-time andappearance relationships for tracking across non-overlapping views”, Computer Vision and Image Understanding, Vol. 109, Issue 2, pp. 146-162, Feb , 2008.

しかしながら、照明条件は、同一監視カメラの視野内であっても場所によって異なり(例えば視野内の日向と日陰)、また時々刻々と変化する。そのため従来技術のようにカメラ単位で予め照明条件の違いを補正しても、人物位置や撮像時刻により色ずれが生じて照合精度が十分に上がらなかった。   However, the illumination conditions vary depending on the location even within the field of view of the same surveillance camera (for example, the sun and shade in the field of view) and change from moment to moment. For this reason, even if the difference in illumination condition is corrected in advance for each camera as in the prior art, color misregistration occurs depending on the person position and imaging time, and the matching accuracy is not sufficiently improved.

また、個人個人の服装は多様であるため、従来技術のように特定の人物の色特性又は多数の人物の平均的な色特性で予め照明条件の違いを補正しても、補正に用いなかった色の服を着た人物に対して色ずれが生じ、照合精度が十分に上がらなかった。さらに、全ての監視カメラについて予め多数の人物の画像を収集することは労力やコストの面で困難であった。   Also, since individual clothes are diverse, even if the difference in lighting conditions is corrected in advance with the color characteristics of a specific person or the average color characteristics of many persons as in the prior art, it was not used for correction A color shift occurred for a person wearing colored clothes, and the matching accuracy was not sufficiently improved. Furthermore, it has been difficult to collect images of a large number of people in advance for all surveillance cameras in terms of labor and cost.

なお、これら照明条件の問題は、異なる監視カメラで撮像された対象物の照合で生じるほかに、監視カメラの視野から一旦外れた対象物が同一監視カメラの視野に再登場する場合にも生じる。   The problem of these illumination conditions occurs not only when the objects captured by different monitoring cameras are collated, but also when an object once deviated from the field of view of the monitoring camera reappears in the field of view of the same monitoring camera.

本発明は上記課題を鑑みてなされたものであり、個体ごとの色特性の違いに起因した色ずれによる照合精度低下を回避しつつ、場所や時刻により変化する照明条件を補正して画像上の物体を高精度に照合できる画像照合装置を提供することを目的とする。   The present invention has been made in view of the above problems, and corrects illumination conditions that change according to location and time while avoiding a decrease in matching accuracy due to color misregistration due to differences in color characteristics among individuals. An object of the present invention is to provide an image collation apparatus capable of collating an object with high accuracy.

本発明に係る画像照合装置は、2つの画像それぞれに撮像された注目物体像が同一の対象物体のものであるか照合するものであって、前記各画像の前記注目物体像における輝度値の累積ヒストグラムを算出し、一方の前記注目物体像の前記累積ヒストグラムを他方の前記注目物体像の前記累積ヒストグラムに近似させる輝度変換を前記一方の注目物体像に施す輝度変換部と、前記輝度変換を施した前記一方の注目物体像と、前記他方の注目物体像とを照合する照合部と、を備える。   The image collation device according to the present invention collates whether or not the target object images captured in each of the two images are of the same target object, and accumulates luminance values in the target object images of the respective images. A luminance conversion unit that calculates a histogram and applies luminance conversion to the one target object image for luminance conversion that approximates the cumulative histogram of the one target object image to the cumulative histogram of the other target object image; And a collation unit that collates the one target object image with the other target object image.

他の本発明に係る画像照合装置においては、前記輝度変換部は、色成分ごとの輝度値についての前記累積ヒストグラムである累積色ヒストグラムを前記注目物体像相互間で近似させる前記輝度変換を行う。   In another image collation device according to the present invention, the luminance conversion unit performs the luminance conversion for approximating a cumulative color histogram, which is the cumulative histogram for the luminance value for each color component, between the target object images.

さらに他の本発明に係る画像照合装置においては、前記輝度変換部は、前記2つの画像における前記注目物体像をそれぞれ複数の部分領域に分割し、前記両注目物体像相互の対応する前記部分領域ごとに前記輝度変換を行う。   In still another image collation device according to the present invention, the luminance conversion unit divides the target object image in the two images into a plurality of partial regions, and the partial regions corresponding to each other of the target object images. The luminance conversion is performed every time.

別の本発明に係る画像照合装置においては、前記両注目物体像はそれぞれ同一の対象物体のものであると判定された複数の物体像からなる物体像群であり、前記輝度変換部は、前記各物体像群における前記累積ヒストグラムを算出する。   In another image collation device according to the present invention, the two object images of interest are object image groups each consisting of a plurality of object images determined to be of the same target object, and the luminance conversion unit The cumulative histogram in each object image group is calculated.

さらに別の本発明に係る画像照合装置においては、前記両注目物体像はそれぞれ同一の対象物体のもの、かつ同一の形状特徴を有するものであると判定された複数の物体像からなる物体像群であり、前記輝度変換部は、前記各物体像群における前記累積ヒストグラムを算出する。   In still another image collation device according to the present invention, the two object images are the same target object and an object image group consisting of a plurality of object images determined to have the same shape characteristics. The luminance conversion unit calculates the cumulative histogram in each object image group.

本発明によれば、同一対象物の画像ならば輝度変換により色ずれなく照明条件の違いが補正されるが、異なる対象物の画像の場合には輝度変換により個体の違いによる色ずれが生じるので、同一対象物であるときの照合結果と異なる対象物であるときの照合結果との差が開く。よって照明条件を補正しつつ照合精度を向上させることができる。   According to the present invention, in the case of images of the same object, the difference in illumination conditions is corrected without color shift by luminance conversion. However, in the case of an image of a different object, color shift due to individual difference occurs due to luminance conversion. The difference between the collation result when the object is the same and the collation result when the object is different opens. Therefore, collation accuracy can be improved while correcting the illumination conditions.

本発明の実施形態である人物同定・検索システムを構成する人物情報生成装置の概略の構成を示すブロック図である。It is a block diagram which shows the structure of the outline of the person information generation apparatus which comprises the person identification / search system which is embodiment of this invention. 本発明の実施形態である人物同定・検索システムを構成する人物同定装置の概略の構成を示すブロック図である。It is a block diagram which shows the structure of the outline of the person identification apparatus which comprises the person identification and search system which is embodiment of this invention. クエリの人物とデータベースの人物とが同一人物の時の色変換の一例を示す説明図である。It is explanatory drawing which shows an example of color conversion when the person of a query and the person of a database are the same persons. クエリの人物とデータベースの人物とが他人の時の色変換の一例を示す説明図である。It is explanatory drawing which shows an example of the color conversion when the person of a query and the person of a database are others. 人物情報生成装置の動作を説明する概略のフロー図である。It is a schematic flowchart explaining operation | movement of a person information generation apparatus. 人物同定装置の動作を説明する概略のフロー図である。It is a schematic flowchart explaining operation | movement of a person identification apparatus.

以下、本発明の実施の形態(以下実施形態という)である人物同定・検索システムについて、図面に基づいて説明する。当該人物同定・検索システムは人物を対象物体とし、画像内の注目物体像である人物像により2つの画像に写る人物が同一であるか照合する機能を有する。人物同定・検索システムは、人物情報生成装置1と人物同定装置2とから構成される。人物情報生成装置1は複数の監視カメラそれぞれによって異なる撮像領域を撮影した複数フレームの画像(時系列画像)から、各撮像領域に現れた人物の画像情報(人物情報)を人物ごとに生成する。この人物情報には背景から分離された人物像が含まれる。人物同定装置2は、人物情報生成装置1が生成した人物情報の間で人物像の照合を行って同一人物の人物情報を検出する。人物同定・検索システムは、この人物像の照合によって、複数の撮像領域に亘って移動する人物の横断的検索を可能にする。以下、人物情報生成装置1及び人物同定装置2をそれぞれ説明する。   Hereinafter, a person identification / search system according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The person identification / retrieval system has a function of checking whether a person shown in two images is the same by a person image that is a target object image in the image, with the person as a target object. The person identification / retrieval system includes a person information generation device 1 and a person identification device 2. The person information generating device 1 generates image information (person information) of a person appearing in each imaging area for each person from a plurality of frames of images (time-series images) obtained by imaging different imaging areas by a plurality of monitoring cameras. This person information includes a person image separated from the background. The person identification device 2 compares person images with the person information generated by the person information generation device 1 to detect person information of the same person. The person identification / retrieval system enables a cross-sectional search of a person who moves across a plurality of imaging regions by collating the person images. Hereinafter, the person information generation apparatus 1 and the person identification apparatus 2 will be described.

[人物情報生成装置1の構成]
図1は人物情報生成装置1の概略の構成を示すブロック図である。人物情報生成装置1は入力部10、信号処理部11及び記憶部12から構成される。
[Configuration of Person Information Generating Device 1]
FIG. 1 is a block diagram showing a schematic configuration of the person information generating apparatus 1. The person information generation apparatus 1 includes an input unit 10, a signal processing unit 11, and a storage unit 12.

入力部10は時系列画像を出力する複数の監視カメラ、又は各監視カメラにより撮影済みの時系列画像を記録したDVR(Digital Video Recorder)などの映像記録装置であり、信号処理部11に接続される。   The input unit 10 is a video recording device such as a digital video recorder (DVR) that records a plurality of monitoring cameras that output time-series images or time-series images that have been captured by each monitoring camera, and is connected to the signal processing unit 11. The

信号処理部11はCPU(Central
Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、入力部10及び記憶部12に接続される。信号処理部11は記憶部12からプログラムを読み出して実行し、人物追跡部110、人物特徴抽出部111、類似姿勢画像グループ生成部112及び人物情報生成部113等として機能する。
The signal processing unit 11 is a CPU (Central
It is configured using an arithmetic device such as a processing unit (DSP), a digital signal processor (DSP), or a micro control unit (MCU), and is connected to the input unit 10 and the storage unit 12. The signal processing unit 11 reads out and executes a program from the storage unit 12, and functions as a person tracking unit 110, a person feature extraction unit 111, a similar posture image group generation unit 112, a person information generation unit 113, and the like.

人物追跡部110は入力部10から監視カメラごとの時系列画像を取得し、人物追跡処理により当該時系列画像上に現れた各人物の人物像の時系列(時系列人物像)を生成し、人物特徴抽出部111に出力する。具体的には、人物追跡部110は背景差分処理等により時系列画像の各フレームから人物像を抽出し、パターンマッチング等によりフレーム間で同一人物の人物像を対応付けることで時系列人物像を生成する。なお、各人物像のデータの受け渡しは、当該人物像が存在するフレームを識別するフレーム番号と、当該フレームにおける人物の領域を表現する2値のマスク画像を受け渡すことで行う。   The person tracking unit 110 acquires a time series image for each monitoring camera from the input unit 10, generates a time series (time series person image) of person images of each person appearing on the time series image by the person tracking process, The data is output to the person feature extraction unit 111. Specifically, the person tracking unit 110 extracts a person image from each frame of the time series image by background difference processing or the like, and generates a time series person image by associating the person image of the same person between the frames by pattern matching or the like. To do. The data of each person image is transferred by transferring a frame number for identifying a frame in which the person image exists and a binary mask image representing a person area in the frame.

人物特徴抽出部111は人物追跡部110が生成した各人物像からアピアランス特徴量と形状特徴量とを抽出して、抽出した特徴量を類似姿勢画像グループ生成部112と人物情報生成部113に出力する。   The person feature extraction unit 111 extracts appearance feature values and shape feature values from each person image generated by the person tracking unit 110, and outputs the extracted feature values to the similar posture image group generation unit 112 and the person information generation unit 113. To do.

アピアランス特徴量は人物の見かけの特徴量であり、具体的には人物像の輝度特徴量である。人物特徴抽出部111はアピアランス特徴量として各人物像のRGBカラーヒストグラムを抽出する。これは人物を服や肌などの色により特徴付ける色特徴量である。RGBカラーヒストグラムに代えてHSVカラーヒストグラムを抽出してもよい。または、人物特徴抽出部111はアピアランス特徴量として各人物像の輝度勾配ヒストグラムを抽出する。これは人物を服の模様などにより特徴付けるテクスチャ特徴量である。アピアランス特徴量として各人物像の色特徴量とテクスチャ特徴量の両方を抽出することもできるし、その他の各種の輝度特徴量を加えることもできる。   The appearance feature amount is an apparent feature amount of a person, and specifically, a luminance feature amount of a person image. The person feature extraction unit 111 extracts an RGB color histogram of each person image as an appearance feature value. This is a color feature amount that characterizes a person with colors such as clothes and skin. An HSV color histogram may be extracted instead of the RGB color histogram. Alternatively, the person feature extraction unit 111 extracts a luminance gradient histogram of each person image as the appearance feature value. This is a texture feature amount that characterizes a person by a clothing pattern or the like. As the appearance feature amount, both the color feature amount and the texture feature amount of each person image can be extracted, and various other luminance feature amounts can be added.

形状特徴量は人物の姿勢や向きを特徴付ける特徴量であり、例えばシェイプコンテキスト(ShapeContext)又はエッジ方向ヒストグラムを用いることができる。   The shape feature amount is a feature amount that characterizes the posture and orientation of a person, and for example, a shape context or an edge direction histogram can be used.

類似姿勢画像グループ生成部112は人物追跡部110で生成した各時系列人物像を人物特徴抽出部111で抽出した形状特徴量が類似する人物像同士からなる類似姿勢画像グループに分けて、グループ生成の結果を人物情報生成部113に出力する。   The similar posture image group generation unit 112 divides each time-series human image generated by the person tracking unit 110 into similar posture image groups composed of person images having similar shape feature amounts extracted by the person feature extraction unit 111, and generates groups. Is output to the person information generation unit 113.

まず、類似姿勢画像グループ生成部112は、各時系列人物像においてフレーム間で人物像の形状特徴量の類似度を求める。形状特徴量の類似度は動的計画(Dynamic Programming)法などのマッチング手法を用いて求めることができる。次に、類似姿勢画像グループ生成部112は、求めた類似度に平均シフト(MeanShift)法やクイックシフト(QuickShift)法等の既存のクラスタリング手法を適用して、各時系列人物像の人物像をクラスタリングすることにより類似姿勢画像グループを生成する。   First, the similar posture image group generation unit 112 obtains the similarity of the shape feature amount of the person image between frames in each time-series person image. The similarity of the shape feature amount can be obtained by using a matching method such as a dynamic programming method. Next, the similar posture image group generation unit 112 applies an existing clustering method such as a mean shift (MeanShift) method or a quick shift (QuickShift) method to the obtained similarity to cluster the human images of each time-series human image. By doing so, a similar posture image group is generated.

人物情報生成部113は、類似姿勢画像グループ生成部112で生成した類似姿勢画像グループごとに当該グループを構成する人物像のアピアランス特徴量を代表する代表アピアランス特徴量を算出し、またマスク画像とフレーム番号と時系列画像を基に人物像を切り出し、時系列人物像ごとに人物IDと各類似姿勢画像グループのフレーム番号リストとフレーム番号ごとの人物像及び形状特徴量と各類似姿勢画像グループの代表アピアランス特徴量とを対応付けた人物情報120を記憶部12に記憶させる。   The person information generation unit 113 calculates, for each similar posture image group generated by the similar posture image group generation unit 112, a representative appearance feature amount that represents the appearance feature amount of the person image constituting the group, and the mask image and the frame A person image is cut out based on the number and the time series image, and for each time series person image, the person ID, the frame number list of each similar posture image group, the person image and shape feature amount for each frame number, and the representative of each similar posture image group The personal information 120 associated with the appearance feature value is stored in the storage unit 12.

人物情報生成部113は各類似姿勢画像グループの人物像のアピアランス特徴量を平均して代表アピアランス特徴量を算出する。平均に用いる人物像は全部としてもよいが、平均値に近い規定数の人物像を用いてもよい。これに代えて各類似姿勢画像グループの人物像のアピアランス特徴量の平均値に最も近いアピアランス特徴量を代表アピアランス特徴量とすることもでき、または、類似姿勢画像グループ生成部112でのクラスタリング結果を参照して各類似姿勢画像グループのクラスタ中心に対応するアピアランス特徴量を代表アピアランス特徴量とすることもできる。また、人物情報生成部113は形状特徴量についてもアピアランス特徴量と同様にして各類似姿勢画像グループの代表形状特徴量を生成してもよい。   The person information generation unit 113 calculates the representative appearance feature value by averaging the appearance feature values of the person images in each similar posture image group. The average number of person images may be used, but a specified number of person images close to the average value may be used. Alternatively, the appearance feature value closest to the average appearance feature value of the person images of each similar posture image group may be used as the representative appearance feature amount, or the clustering result in the similar posture image group generation unit 112 may be used as the representative feature value. The appearance feature amount corresponding to the cluster center of each similar posture image group can be referred to as the representative appearance feature amount. Further, the person information generation unit 113 may generate the representative shape feature amount of each similar posture image group in the same manner as the appearance feature amount with respect to the shape feature amount.

記憶部12は例えば、ハードディスクドライブ(Hard disk drive:HDD)、RAM(Random Access Memory)等の記憶装置からなり、人物情報生成部113で生成された人物情報120を格納する他、計算用の一時記憶領域(図示せず)として信号処理部11により利用される。また、記憶部12は信号処理部11で用いられる各種プログラムや各種データを記憶し、信号処理部11との間でこれらの情報を入出力する。   The storage unit 12 includes, for example, a storage device such as a hard disk drive (HDD), a RAM (Random Access Memory), etc., and stores the personal information 120 generated by the personal information generation unit 113 as well as temporary calculation data. It is used by the signal processing unit 11 as a storage area (not shown). In addition, the storage unit 12 stores various programs and various data used in the signal processing unit 11, and inputs / outputs such information to / from the signal processing unit 11.

[人物同定装置2の構成]
図2は人物同定装置2の概略の構成を示すブロック図である。人物同定装置2は入力部20、信号処理部21、記憶部22及び出力部23から構成される。既に述べたように人物同定装置2は、人物情報生成装置1により作成された人物情報120を用いて同一人物を見つける同定処理を行う。本実施形態では、ユーザが或る監視カメラ(以下、カメラAとする)の時系列画像に現れた人物について検索を要求し、人物同定装置2が他の監視カメラ(以下、カメラBとする)で撮影された時系列画像から当該人物を検索するものとする。
[Configuration of Person Identification Device 2]
FIG. 2 is a block diagram showing a schematic configuration of the person identification device 2. The person identification device 2 includes an input unit 20, a signal processing unit 21, a storage unit 22, and an output unit 23. As already described, the person identification device 2 performs an identification process for finding the same person using the person information 120 created by the person information generation device 1. In the present embodiment, a user requests a search for a person appearing in a time-series image of a certain monitoring camera (hereinafter referred to as camera A), and the person identification device 2 receives another monitoring camera (hereinafter referred to as camera B). It is assumed that the person is searched from the time-series images photographed in (1).

入力部20はキーボードやマウスなどの入力装置であり、信号処理部21と接続され、ユーザが検索したい人物を選択したり、検索するカメラBを指定したりする時などに用いられる。   The input unit 20 is an input device such as a keyboard and a mouse, and is connected to the signal processing unit 21 and is used when the user selects a person who wants to search or designates a camera B to be searched.

信号処理部21は信号処理部11と同様、CPU等の演算装置を用いて構成され、入力部20、記憶部22及び出力部23に接続される。信号処理部21は記憶部22からプログラムを読み出して実行し、人物情報取得部210、類似姿勢画像グループ選択部211、色変換部212、人物間類似度算出部213及び照合結果生成部214等として機能する。   Similar to the signal processing unit 11, the signal processing unit 21 is configured using an arithmetic device such as a CPU, and is connected to the input unit 20, the storage unit 22, and the output unit 23. The signal processing unit 21 reads out and executes the program from the storage unit 22 and serves as a person information acquisition unit 210, a similar posture image group selection unit 211, a color conversion unit 212, a person similarity calculation unit 213, a collation result generation unit 214, and the like. Function.

人物情報取得部210は入力部20から検索要求された人物(以下、クエリ(query)人物と称する)の人物情報(人物情報220A)を記憶部22から読み込む。また、人物情報取得部210は入力部20から照合相手として監視カメラ単位で指定された複数の人物(以下、DB(database)人物と称する)の人物情報群(人物情報220B)を記憶部22から読み込む。そして、人物情報取得部210は検索対象や照合相手として指定された人物の人物情報220(220A,220B)を類似姿勢画像グループ選択部211へ出力する。   The person information acquisition unit 210 reads the person information (person information 220 </ b> A) of the person requested to be searched from the input unit 20 (hereinafter referred to as a query person) from the storage unit 22. In addition, the person information acquisition unit 210 receives from the storage unit 22 person information groups (person information 220B) of a plurality of persons (hereinafter referred to as DB (database) persons) designated by the monitoring unit as a collation partner from the input unit 20. Read. Then, the person information acquisition unit 210 outputs the person information 220 (220A, 220B) of the person specified as the search target or collation partner to the similar posture image group selection unit 211.

類似姿勢画像グループ選択部211は、クエリ人物の人物情報に格納された類似姿勢画像グループと、各DB人物の人物情報に格納された類似姿勢画像グループとから、最も姿勢が類似する類似姿勢画像グループペアを選択する。類似姿勢画像グループ選択部211は選択した各類似姿勢画像グループを特定する情報を加えた人物情報を色変換部212へ出力する。   The similar posture image group selection unit 211 has a similar posture image group having the most similar posture from the similar posture image group stored in the person information of the query person and the similar posture image group stored in the person information of each DB person. Select a pair. The similar posture image group selection unit 211 outputs personal information to which the information for specifying each selected similar posture image group is added to the color conversion unit 212.

類似姿勢画像グループペアの選択は、各類似姿勢画像グループの形状特徴量間の類似度を比較することで行う。類似姿勢画像グループ間の類似度は、人物情報生成装置1の類似姿勢画像グループ生成部112で用いた方法と同様に、動的計画法などのマッチング手法を用いて類似姿勢画像グループの形状特徴量を比較することで求めることができる。   The similar posture image group pair is selected by comparing the similarity between the shape feature amounts of the similar posture image groups. Similarity between similar posture image groups is determined by using a matching method such as dynamic programming in the same manner as the method used by the similar posture image group generation unit 112 of the person information generation device 1. Can be obtained by comparing.

クエリ人物とDB人物の照合は選択したペアの人物像を照合することにより行う。このように姿勢が類似した人物像を選択して照合を行うことで、人物の姿勢や向きの違いによる照合精度の低下を抑制することができる。   The query person and the DB person are collated by collating the selected pair of person images. By selecting and comparing human images with similar postures in this way, it is possible to suppress a decrease in collation accuracy due to differences in human postures and orientations.

色変換部212は、クエリ人物の人物像とDB人物の人物像との間の照明条件の違いを吸収するために、類似姿勢画像グループ選択部211で選択された類似姿勢画像グループペア間で色変換処理を行う。色変換処理は、BTF(輝度変換関数:Brightness Transfer Function)により行う。   The color conversion unit 212 uses the color between the similar posture image group pairs selected by the similar posture image group selection unit 211 to absorb the difference in the lighting conditions between the person image of the query person and the person image of the DB person. Perform the conversion process. The color conversion process is performed by BTF (Brightness Transfer Function).

具体的には色変換部212はクエリ人物及びDB人物の人物像それぞれの累積色ヒストグラムを算出し、累積色ヒストグラムの一方の各色成分の輝度値(色輝度値)を変換して他方の近似となるように各色輝度値を変換する。すなわち、一方の累積色ヒストグラムを色輝度値Bに対する関数H(B)、他方の累積色ヒストグラムを色輝度値Bに対する関数H(B)、及びBTFによる色輝度値Bの変換をf(B)と表すと、色変換部212はH(B)がH(f(B))に一致するように関数fを定義する。色変換部212は各輝度値Bについての輝度値0〜Bまでの累積頻度H(B)と、各輝度値Bについての輝度値0〜Bまでの累積頻度H(B)を求めて、輝度値BのそれぞれをH(B)=H(B)を満たす輝度値Bに置き換える変換f(B)を行う。この変換は色成分ごとに行う。実際には輝度値も頻度も離散的であるため一般にH(B)=H(B)を完全に満たす変換は得られず、当該色変換は一方の累積色ヒストグラムを他方の累積色ヒストグラムに近似させる変換となる。ここでは、累積ヒストグラムの曲線(折れ線)が表す変化特性を積分特性と呼び、BTFにより当該特性を近似させることを、積分特性を合わせると表現する。 Specifically, the color conversion unit 212 calculates a cumulative color histogram of each person image of the query person and DB person, converts a luminance value (color luminance value) of one color component of the cumulative color histogram, and approximates the other. Each color luminance value is converted so that That is, one cumulative color histogram is a function H 1 (B 1 ) for the color luminance value B 1 , the other cumulative color histogram is a function H 2 (B 2 ) for the color luminance value B 2 , and a color luminance value B 1 by BTF. Is expressed as f (B 1 ), the color conversion unit 212 defines the function f so that H 1 (B 1 ) matches H 2 (f (B 1 )). Cumulative frequency H 1 of the color conversion section 212 and the cumulative frequency H 2 (B 2) to the luminance values 0 to B 2 for each luminance value B 2, until the luminance values 0 to B 1 for each luminance value B 1 ( B 1 ) is obtained, and a conversion f (B 1 ) is performed in which each of the luminance values B 1 is replaced with a luminance value B 2 that satisfies H 1 (B 1 ) = H 2 (B 2 ). This conversion is performed for each color component. In practice, since the luminance value and frequency are discrete, in general, conversion that completely satisfies H 1 (B 1 ) = H 2 (B 2 ) cannot be obtained, and the color conversion uses one accumulated color histogram for the other. The conversion approximates the color histogram. Here, the change characteristic represented by the curve (broken line) of the cumulative histogram is called an integral characteristic, and approximating the characteristic by BTF is expressed as integrating the integral characteristic.

色変換部212が行う色変換は背景を除いた人物像に対して行うため、背景の色分布の違いは色変換に影響しない。また、色変換部212が行う色変換は特定人物の人物像の色特性に合わせ込む変換であり、上述のように輝度値の順序を変えない拘束条件を課した変換である。そのため、本来の色分布が異なる他人同士で積分特性を合わせようとしても拘束条件により合わせ込みきれずに色ずれが生じて両者の色分布は類似したものとならない。しかし、本来の色分布が同じである本人同士で積分特性を合わせようとすれば拘束条件があっても色ずれを生じずに合わせ込むことができ、照明条件が補正されて両者の色分布は類似したものとなる。   Since the color conversion performed by the color conversion unit 212 is performed on a human image excluding the background, the difference in the background color distribution does not affect the color conversion. The color conversion performed by the color conversion unit 212 is conversion that matches the color characteristics of the person image of the specific person, and is conversion that imposes the constraint condition that does not change the order of the luminance values as described above. For this reason, even if another person with different original color distributions tries to match the integral characteristics, the color distribution cannot be made due to the constraint conditions and the color distributions are not similar. However, if the individuals who have the same original color distribution are trying to match the integral characteristics, even if there are constraints, they can be matched without causing color shifts, and the lighting conditions are corrected and both color distributions are It will be similar.

その結果、本人同士の照合と他人同士の照合との差を広げることができ、照合精度を向上させることができる。   As a result, it is possible to widen the difference between the collation between the principals and the collation between others, and the collation accuracy can be improved.

図3はクエリ人物とDB人物とが同一人物の時の色変換の一例を示す説明図であり、図4は両人物が他人の時の色変換の一例を示す説明図である。   FIG. 3 is an explanatory diagram illustrating an example of color conversion when the query person and the DB person are the same person, and FIG. 4 is an explanatory diagram illustrating an example of color conversion when both persons are other persons.

図3,図4の上半分には人物像の画素におけるRGB各色についての輝度値の相対度数を累積した累積色ヒストグラムが示されている。左側がクエリ人物の累積色ヒストグラムであり、右側がDB人物の累積色ヒストグラムである。これらの累積色ヒストグラムは色変換前のものである。一方、図3,図4の下半分にはクエリ人物の色輝度値について変換を行い、クエリ人物とDB人物との積分特性を合わせた後の色ヒストグラムが示されている。左側がクエリ人物であり、右側がDB人物である。図3,図4の各グラフにおいて点線が赤(R)、一点鎖線が緑(G)、実線が青(B)に対応する。   The upper half of FIGS. 3 and 4 shows a cumulative color histogram in which the relative frequency of the luminance value for each color of RGB in the pixel of the person image is accumulated. The left side is the cumulative color histogram of the query person, and the right side is the cumulative color histogram of the DB person. These cumulative color histograms are before color conversion. On the other hand, the lower half of FIGS. 3 and 4 shows a color histogram after the color luminance value of the query person is converted and the integral characteristics of the query person and the DB person are combined. The left side is a query person, and the right side is a DB person. 3 and 4, the dotted line corresponds to red (R), the alternate long and short dash line corresponds to green (G), and the solid line corresponds to blue (B).

図3に示す例ではクエリ人物はDB人物と同一であるが、照明条件が相違している。具体的には、クエリ人物は照明が暗い状態で撮影され、人物像内の色の違いが比較的に不明瞭な画像となった場合を例としている。そのため、左側の累積色ヒストグラムにおける各色の積分特性の差異が右側の累積色ヒストグラムより小さくなっている。この場合に、クエリ人物についての積分特性をDB人物に合わせるように色変換を行うと、例えば、クエリ人物の各色の色ヒストグラムはピークの位置及び相対的な大きさがDB人物の色ヒストグラムと似た、つまり類似した色ヒストグラムとなる。変換された色輝度値で表されたクエリ人物の人物像においては、照明条件だけが上手く補正されて、人物像の肌や服装の色がDB人物の人物像と類似した色合いとなる。   In the example shown in FIG. 3, the query person is the same as the DB person, but the lighting conditions are different. Specifically, the query person is taken in a state where the illumination is dark, and the case where the difference in color in the person image is relatively unclear is taken as an example. Therefore, the difference in the integral characteristics of each color in the left cumulative color histogram is smaller than that in the right cumulative color histogram. In this case, if the color conversion is performed so that the integral characteristic of the query person matches the DB person, for example, the color histogram of each color of the query person has a peak position and a relative size similar to those of the DB person. That is, a similar color histogram is obtained. In the person image of the query person represented by the converted color luminance value, only the illumination condition is corrected well, and the skin of the person image and the color of the clothes become similar to the person image of the DB person.

一方、図4に示す例では、クエリ人物とDB人物の服装の色や肌の露出具合が異なる。そのため、例えば、積分特性の増加の速さについてRGBの順序が異なっている。この場合に、クエリ人物とDB人物とで積分特性を合わせるように色変換を行うと、クエリ人物の色ヒストグラムにおける各色のピーク同士の相対的な位置関係や相対的な強度がクエリ人物の本来の色ヒストグラムから変化する。そのため、変換後のクエリ人物の人物像は歪んだ色分布となり、また照明条件もDB人物の人物像における条件に一致しない。   On the other hand, in the example shown in FIG. 4, the color of the clothes and the degree of skin exposure of the query person and the DB person are different. Therefore, for example, the order of RGB differs with respect to the speed of increase of the integral characteristics. In this case, if the color conversion is performed so that the integral characteristics of the query person and the DB person are matched, the relative positional relationship and relative strength between the peaks of each color in the color histogram of the query person are the original characteristics of the query person. Change from color histogram. Therefore, the person image of the query person after conversion has a distorted color distribution, and the illumination condition does not match the condition in the person image of the DB person.

上述した色変換により、本人のときと他人のときとで色合わせの程度の差が開くため、照明条件を補正しつつ本人照合精度を向上させることができる。   The color conversion described above opens a difference in the degree of color matching between the person and the other person, so that the person verification accuracy can be improved while correcting the illumination conditions.

またこの色変換を複数の色成分ごとに行うことで他人のときに1つの色成分が偶然に合わせ込めても他の色成分が合わせ込み切れないなど、上記の差を維持する可能性を高めることができる。   In addition, by performing this color conversion for each of a plurality of color components, it is possible to maintain the above-mentioned difference, for example, even if one color component is accidentally matched by another person, the other color component cannot be completely matched. be able to.

この色変換は特定人物の人物像に固有の色分布に都度合わせ込むため上記の差を広げることができる。   Since this color conversion is adapted to the color distribution unique to the person image of the specific person, the above difference can be widened.

またこの色変換は背景を除いた人物像を対象に行うため、上記の差を広げる効果を高めることができる。   Further, since this color conversion is performed on a human image excluding the background, the effect of widening the above difference can be enhanced.

さらに、この色変換は時系列人物像の平均的な累積ヒストグラムを用いて行うため人物像の抽出誤差により多少の背景画素が混ざっていてもその影響を希釈できるので上記の差を広げる効果を高めることができる。   Furthermore, since this color conversion is performed using an average cumulative histogram of time-series human images, even if some background pixels are mixed due to human image extraction errors, the influence can be diluted, so the effect of widening the above difference is enhanced. be able to.

またこの色変換は形状特徴量が類似する時系列人物像の平均的な累積ヒストグラムを用いて行うため姿勢や向きの変動による個人性の鈍化が抑制されて上記の差を広げる効果を高めることができる。   In addition, since this color conversion is performed using an average cumulative histogram of time-series human images with similar shape features, it is possible to suppress the slowdown of personality due to changes in posture and orientation, and to increase the effect of widening the above difference. it can.

なお、類似姿勢画像グループの色変換に際して、累積色ヒストグラムは、当該グループ内の全ての人物像の画素について集計して求められる。ここで、グループ内の人物像の大きさは、実世界での人物とカメラとの相対的な位置関係に応じた差異を有し得る。ヒストグラム集計に際してはこの人物像の大きさの相違に配慮することが好適である。例えば、各人物像の累積色ヒストグラムの各頻度値を当該人物像を構成する画素数で除算して正規化し、正規化した各人物像の累積色ヒストグラムを類似姿勢画像グループ内で平均した結果を色変換に用いる。   Note that, when performing color conversion of a similar posture image group, the accumulated color histogram is obtained by summing up all the human image pixels in the group. Here, the size of the person image in the group may have a difference according to the relative positional relationship between the person and the camera in the real world. It is preferable to consider the difference in the size of the person image when the histogram is tabulated. For example, each frequency value of the accumulated color histogram of each person image is normalized by dividing by the number of pixels constituting the person image, and the normalized accumulated color histogram of each person image is averaged within the similar posture image group. Used for color conversion.

上記色変換では人物像全体の累積色ヒストグラムからBTFを構築したが、人物像を複数の部分領域に分割し人物像相互の対応する部分領域にて累積色ヒストグラムからBTFを構築する構成とすることもできる。例えば、人物像を上半身領域と下半身領域とに分割して、上半身領域同士及び下半身領域同士でそれぞれの領域からBTFを構築することが可能である。この場合、例えば、上半身が青色で下半身が茶色の人物と、上半身が茶色で下半身が青色の人物との間で色変換を行うような場合、分割した領域ごとに構築したBTFを用いて色変換を行うことで、より本人のときと他人のときとで色合わせの程度の差を広げることが可能であり、照合精度を向上させることができる。   In the above color conversion, the BTF is constructed from the accumulated color histogram of the entire person image. However, the person image is divided into a plurality of partial areas, and the BTF is constructed from the accumulated color histogram in the corresponding partial areas of the person images. You can also. For example, it is possible to divide a human image into an upper body region and a lower body region and construct a BTF from the upper body regions and the lower body regions from the respective regions. In this case, for example, when color conversion is performed between a person whose upper body is blue and lower body is brown and a person whose upper body is brown and lower body is blue, color conversion is performed using a BTF constructed for each divided region. By performing the above, it is possible to widen the difference in the degree of color matching between the person himself and another person, and the collation accuracy can be improved.

人物間類似度算出部213は、色変換部212が色変換を施したクエリ人物の人物像と、各DB人物の人物像との間の類似性(人物間類似度)を算出して、DB人物ごとの人物間類似度を照合結果生成部214に出力する。   The inter-person similarity calculation unit 213 calculates the similarity (inter-person similarity) between the person image of the query person that has been subjected to color conversion by the color conversion unit 212 and the person image of each DB person. The person-to-person similarity is output to the matching result generation unit 214.

人物間類似度はアピアランス特徴量の類似度として算出する。具体的には、人物間類似度算出部213は、類似姿勢画像グループペアの一方であるクエリ人物の類似姿勢画像グループを構成する色変換後の人物像から代表アピアランス特徴量を再抽出すると共に、類似姿勢画像グループペアの他方であるDB人物それぞれの類似姿勢画像グループを構成する物体像の代表アピアランス特徴量を人物情報220Bから読み出して、クエリ人物の代表アピアランス特徴量と各DB人物の代表アピアランス特徴量との類似度を人物間類似度として算出する。アピアランス特徴量であるRGBヒストグラムの類似度はヒストグラムインターセクションを計算することで求めることができる。RGBヒストグラムに代えてHSVヒストグラム又は輝度勾配ヒストグラムを用いる場合もこれらのヒストグラムインターセクションを計算すればよい。また、複数種類の特徴量をアピアランス特徴量として用いる場合は、各特徴量の類似度を予め定めた重みで重み付け加算して人物間類似度とすることができる。   The similarity between persons is calculated as the similarity of appearance feature values. Specifically, the inter-person similarity calculation unit 213 re-extracts the representative appearance feature amount from the color-converted person image constituting the similar posture image group of the query person that is one of the similar posture image group pairs, and The representative appearance feature amount of the object image constituting the similar posture image group of each DB person who is the other of the similar posture image group pair is read from the person information 220B, and the representative appearance feature amount of the query person and the representative appearance feature of each DB person are read. The similarity with the quantity is calculated as the similarity between persons. The similarity of the RGB histogram, which is an appearance feature value, can be obtained by calculating a histogram intersection. Even when an HSV histogram or a luminance gradient histogram is used instead of the RGB histogram, these histogram intersections may be calculated. Further, when a plurality of types of feature quantities are used as appearance feature quantities, the similarity between the feature quantities can be weighted and added with a predetermined weight to obtain the similarity between persons.

照合結果生成部214は、DB人物のうち人物間類似度算出部213が算出した人物間類似度が予め設定した同定閾値以上かつ最大となる者をクエリ人物と同一の人物と判定してこれらの人物の人物情報220を出力部23に出力する。一方、同定閾値以上の人物間類似度を持つDB人物が存在しない場合は該当無しと判定してその旨を出力部23に出力する。   The collation result generation unit 214 determines a person whose DB similarity calculated by the person similarity calculation unit 213 is equal to or greater than a predetermined identification threshold as the same person as the query person. The person information 220 of the person is output to the output unit 23. On the other hand, if there is no DB person having a similarity between persons equal to or higher than the identification threshold, it is determined that there is no corresponding person and a message to that effect is output to the output unit 23.

記憶部22は記憶部12と同様、HDD等の記憶装置からなり、人物情報220A,220Bを格納する他、計算用の一時記憶領域(図示せず)として信号処理部21により利用される。また、記憶部22は信号処理部21で用いられる各種プログラムや各種データを記憶し、信号処理部21との間でこれらの情報を入出力する。   Similar to the storage unit 12, the storage unit 22 includes a storage device such as an HDD, and stores personal information 220 </ b> A and 220 </ b> B and is used by the signal processing unit 21 as a temporary storage area (not shown) for calculation. In addition, the storage unit 22 stores various programs and various data used in the signal processing unit 21, and inputs / outputs such information to / from the signal processing unit 21.

ここで、人物情報220Aには、人物情報生成装置1がカメラAの時系列画像から生成した複数人物の人物情報が格納され、人物情報220Bには、人物情報生成装置1がカメラBの時系列画像から生成した複数人物の人物情報が格納される。なお、本実施形態ではカメラが2台の場合で説明しているが、カメラが2台より多い場合はカメラと同じ数の人物情報220が記憶部22に格納される。   Here, the person information 220A stores person information of a plurality of persons generated from the time-series images of the camera A by the person information generation apparatus 1, and the person information 220B stores the person information generation apparatus 1 in time series of the camera B. The personal information of a plurality of persons generated from the image is stored. In this embodiment, the case where there are two cameras has been described. However, when there are more than two cameras, the same number of person information 220 as the number of cameras is stored in the storage unit 22.

出力部23はディスプレイなどから構成される。出力部23は信号処理部21と接続され、照合結果生成部214で生成された結果を出力する。   The output unit 23 includes a display. The output unit 23 is connected to the signal processing unit 21 and outputs the result generated by the matching result generation unit 214.

なお、人物情報生成装置1及び人物同定装置2を一体の人物同定・検索システムとして構成する場合、信号処理部11及び信号処理部21は共通の演算装置で構成でき、また記憶部12及び記憶部22も共通の記憶装置で構成できる。   When the person information generation device 1 and the person identification device 2 are configured as an integrated person identification / search system, the signal processing unit 11 and the signal processing unit 21 can be configured by a common arithmetic device, and the storage unit 12 and the storage unit 22 can also be constituted by a common storage device.

[人物情報生成装置1の動作]
図5は人物情報生成装置1の動作を説明する概略のフロー図である。
[Operation of Person Information Generating Device 1]
FIG. 5 is a schematic flowchart for explaining the operation of the person information generating apparatus 1.

人物追跡部110は入力部10から入力された時系列画像の各画像に対し、背景差分処理を行って当該画像から背景の画素を除くことにより人物像を抽出し、そのマスク画像を生成する(ステップS10)。そして、人物追跡部110はステップS10で抽出した現フレームの人物像とその前フレームまでに抽出した人物像とのテンプレートマッチングを行って同一人物の人物像同士を対応付ける(ステップS11)。人物追跡部110は同一人物の人物像に共通の人物IDを付与し、また新規人物の人物像に新たな人物IDを付与する。人物追跡部110は現フレームのフレーム番号と現フレームで抽出した人物像のマスク画像とその人物IDを対応付けて記憶部12に追記する。   The person tracking unit 110 performs background difference processing on each image of the time-series image input from the input unit 10 to extract a person image by removing background pixels from the image, and generates a mask image ( Step S10). Then, the person tracking unit 110 performs template matching between the person image of the current frame extracted in step S10 and the person images extracted up to the previous frame to associate person images of the same person with each other (step S11). The person tracking unit 110 assigns a common person ID to the person image of the same person, and assigns a new person ID to the person image of the new person. The person tracking unit 110 adds the frame number of the current frame, the mask image of the person image extracted in the current frame, and the person ID to the storage unit 12 in association with each other.

人物特徴抽出部111は人物追跡部110がステップS10で抽出した人物像から形状特徴量を抽出し、当該人物像と対応付けて記憶部12に追記する(ステップS12)。また、人物特徴抽出部111は当該人物像から、アピアランス特徴量を抽出し、当該人物像と対応付けて記憶部12に追記する(ステップS13)。   The person feature extraction unit 111 extracts a shape feature amount from the person image extracted by the person tracking unit 110 in step S10, and adds it to the storage unit 12 in association with the person image (step S12). Also, the person feature extraction unit 111 extracts appearance feature values from the person image, and adds the appearance feature amount to the storage unit 12 in association with the person image (step S13).

追跡を終了した人物が居る場合(ステップS14にてYESの場合)はステップS15に進み、そうでない場合(ステップS14でNOの場合)は新たに入力されるフレームに対してステップS10〜S13の処理を繰り返す。人物特徴抽出部111はステップS10〜S13で記録された追跡終了人物の画像情報をとりまとめて類似姿勢画像グループ生成部112と人物情報生成部113に出力する。類似姿勢画像グループ生成部112は、追跡終了人物の時系列人物像をステップS12で抽出された形状特徴量に基づいてクラスタリングして類似姿勢画像グループを生成してグループごとのフレーム番号リストを人物情報生成部113に出力する(ステップS15)。   If there is a person who has finished tracking (YES in step S14), the process proceeds to step S15. If not (NO in step S14), the process in steps S10 to S13 is performed on a newly input frame. repeat. The person feature extracting unit 111 collects the image information of the tracking-completed person recorded in steps S <b> 10 to S <b> 13 and outputs it to the similar posture image group generation unit 112 and the person information generation unit 113. The similar posture image group generation unit 112 generates a similar posture image group by clustering the time-series human images of the tracking-completed persons based on the shape feature amount extracted in step S12, and generates a frame number list for each group as the person information. It outputs to the production | generation part 113 (step S15).

人物情報生成部113は、ステップS15にて生成された追跡終了人物の各類似姿勢画像グループごとに、そのグループを構成する人物像のアピアランス特徴量を平均して代表アピアランス特徴量を生成する(ステップS16)。そして、人物情報生成部113はステップS10〜S12で求められた追跡終了人物の人物ID、当該人物の時系列人物像とその各フレーム番号、及び当該各人物像の形状特徴量に、ステップS15で生成した類似姿勢画像グループの情報及びステップS16で生成した代表アピアランス特徴量を加えた、追跡終了人物の人物情報120を生成して記憶部12に格納する(ステップS17)。追跡終了人物の人物情報120を生成すると、信号処理部11は処理をステップS10へ戻し次のフレームの処理に移る。   The person information generation unit 113 generates a representative appearance feature amount by averaging the appearance feature amounts of the person images constituting the group for each similar posture image group of the tracking-finished person generated in step S15 (step S15). S16). In step S15, the person information generation unit 113 uses the person ID of the tracking end person obtained in steps S10 to S12, the time-series person image of the person and each frame number, and the shape feature amount of each person image in step S15. The person information 120 of the tracking end person is generated by adding the information of the generated similar posture image group and the representative appearance feature value generated in step S16, and is stored in the storage unit 12 (step S17). When the person information 120 of the tracking end person is generated, the signal processing unit 11 returns the process to step S10 and proceeds to the process of the next frame.

[人物同定装置2の動作]
図6は人物同定装置2の動作を説明する概略のフロー図である。
[Operation of Person Identification Device 2]
FIG. 6 is a schematic flowchart for explaining the operation of the person identification device 2.

ユーザは入力部20を操作して、カメラAの時系列画像に写っている人物の1人をクエリ人物として選択し(ステップS20)、また、対応付けを行いたいカメラとしてカメラBを選択する(ステップS21)。カメラBの選択は当該カメラの時系列画像に写っている全人物をDB人物として選択することに相当する。   The user operates the input unit 20 to select one of the persons shown in the time-series image of the camera A as a query person (step S20), and selects the camera B as a camera to be associated ( Step S21). The selection of the camera B is equivalent to selecting all persons shown in the time-series image of the camera as DB persons.

人物情報取得部210はステップS20で指定されたクエリ人物の人物情報220Aを記憶部22から読み込む(ステップS22)。   The person information acquisition unit 210 reads the person information 220A of the query person specified in step S20 from the storage unit 22 (step S22).

続くステップS23〜S28のループ処理ではクエリ人物と全DB人物との人物間類似度を算出する。   In the subsequent loop processing of steps S23 to S28, the person similarity between the query person and all DB persons is calculated.

人物情報取得部210は、各DB人物の人物情報220Bを記憶部22から順次読み込む(ステップS23)。そして、類似姿勢画像グループ選択部211はクエリ人物の各類似姿勢画像グループの形状特徴量と、ステップS23で読み込んだDB人物の各類似姿勢画像グループの形状特徴量とを比較して、形状特徴量が最も類似する類似姿勢画像グループのペアを選出する(ステップS24)。   The person information acquisition unit 210 sequentially reads the person information 220B of each DB person from the storage unit 22 (step S23). Then, the similar posture image group selection unit 211 compares the shape feature amount of each similar posture image group of the query person with the shape feature amount of each similar posture image group of the DB person read in step S23, and the shape feature amount. A pair of similar posture image groups with the most similar is selected (step S24).

色変換部212は、ステップS24で選出されたペアを構成するクエリ人物の類似姿勢画像グループ及びDB人物の類似姿勢画像グループそれぞれの累積色ヒストグラムを算出し(ステップS25)、クエリ人物の類似姿勢画像グループの累積色ヒストグラムをDB人物の類似姿勢画像グループの累積色ヒストグラムに近似させる色変換処理をクエリ人物の当該類似姿勢画像グループを構成する各人物像に対して施す(ステップS26)。   The color conversion unit 212 calculates a cumulative color histogram of each of the similar posture image group of the query person and the similar posture image group of the DB person constituting the pair selected in step S24 (step S25), and the similar posture image of the query person. A color conversion process for approximating the accumulated color histogram of the group to the accumulated color histogram of the similar posture image group of the DB person is performed on each person image constituting the similar posture image group of the query person (step S26).

人物間類似度算出部213は、ステップS26にて色変換したクエリ人物の類似姿勢画像グループから代表アピアランス特徴量を抽出し、当該代表アピアランス特徴量と、DB人物について選出された類似姿勢画像グループの代表アピアランス特徴量との類似度をクエリ人物とDB人物との人物間類似度として算出する(ステップS27)。   The person-to-person similarity calculation unit 213 extracts a representative appearance feature value from the similar posture image group of the query person that has undergone color conversion in step S26, and the representative appearance feature value and the similar posture image group selected for the DB person. The similarity with the representative appearance feature value is calculated as the similarity between the query person and the DB person (step S27).

人物間類似度算出部213は、ステップS21で指定した全DB人物に対して人物間類似度を算出したか否かを確認する(ステップS28)。全てについて算出していなければ(ステップS28でNO判定)、未算出のDB人物に対してステップS23〜S27の処理を繰り返す。一方、全DB人物について人物間類似度を算出していれば(ステップS28でYES判定)ステップS29に処理を進める。   The person similarity calculation unit 213 checks whether or not the person similarity is calculated for all DB persons specified in step S21 (step S28). If not calculated for all (NO determination in step S28), the processes in steps S23 to S27 are repeated for the uncalculated DB person. On the other hand, if the inter-person similarity is calculated for all DB persons (YES in step S28), the process proceeds to step S29.

照合結果生成部214は、ステップS23〜S28のループ処理により各DB人物について算出した人物間類似度の中から最大の人物間類似度を選出して同定閾値と比較し、最大の人物間類似度が同定閾値以上であれば(ステップS29にてYES判定)、当該人物間類似度が算出されたDB人物をクエリ人物と同一人物であると判定してこれらの人物の人物情報を出力部23に出力する(ステップS30)。   The matching result generation unit 214 selects the maximum person similarity from among the person similarities calculated for each DB person by the loop processing in steps S23 to S28, compares the person similarity with the identification threshold, and determines the maximum person similarity. Is equal to or greater than the identification threshold (YES in step S29), the DB person whose inter-person similarity is calculated is determined to be the same person as the query person, and the person information of these persons is output to the output unit 23. Output (step S30).

なお最大の人物間類似度が同定閾値未満の場合(ステップS29にてNO判定)、照合結果生成部214はクエリ人物に該当するDB人物が検出されなかった旨を出力部23に出力してステップS30を省略する。   If the maximum similarity between persons is less than the identification threshold (NO determination in step S29), the matching result generation unit 214 outputs to the output unit 23 that the DB person corresponding to the query person has not been detected. S30 is omitted.

出力部23は照合結果生成部214から入力された同一人物の人物情報若しくは該当人物無しの情報を同定処理結果としてディスプレイ等に出力し(ステップS31)、処理を終了する。   The output unit 23 outputs the person information of the same person or the information of no corresponding person input from the collation result generation unit 214 to the display or the like as the identification process result (step S31), and ends the process.

[変形例]
(1)ステップS26にて色変換部212がクエリ人物の画像の累積色ヒストグラムをDB人物の画像の累積色ヒストグラムに近似させる色変換の例を示したが、逆に、DB人物の画像の累積色ヒストグラムをクエリ人物の画像の累積色ヒストグラムに近似させる色変換を施してもよい。
[Modification]
(1) In step S26, an example of color conversion in which the color conversion unit 212 approximates the accumulated color histogram of the query person's image to the accumulated color histogram of the DB person's image has been shown. Color conversion may be performed to approximate the color histogram to the cumulative color histogram of the query person's image.

(2)上記実施形態では、同一の対象物体であるか否か照合される注目物体像、つまりクエリ人物の人物像及びDB人物の人物像として、それぞれ同一人物を追跡する処理で得られた複数の人物像を姿勢が類似するグループを用いて照合精度の向上を図っている。一方、同一人物を追跡する処理で得られた複数の人物像を姿勢でグループ分けせずにそのまま照合対象とする簡易な構成も可能である。また、複数フレームから得られた人物像に代えて、単一のフレームから得られた人物像を照合対象としてもよい。   (2) In the above embodiment, a plurality of object images obtained by processing to track the same person as a target object image to be collated as to whether or not they are the same target object, that is, a person image of a query person and a person image of a DB person. The collation accuracy is improved by using groups with similar postures. On the other hand, a simple configuration in which a plurality of person images obtained by the process of tracking the same person is directly subjected to collation without being grouped by posture is also possible. Further, instead of a person image obtained from a plurality of frames, a person image obtained from a single frame may be used as a collation target.

(3)上記実施形態では、色輝度値について輝度変換を行ったが、例えば、モノクロ画像においては色相に関係しない輝度値Yについて輝度変換を行ってもよい。   (3) In the above embodiment, the luminance conversion is performed on the color luminance value. However, for example, in a monochrome image, the luminance conversion may be performed on the luminance value Y not related to the hue.

(4)アピアランス特徴量は、例えば、人物領域を上半身領域及び下半身領域に分割し、それぞれの領域から求めても良い。人物領域を分割する方法は、例えば人物追跡部110で得られたマスク画像を高さ方向に2分割する方法や、マスク画像の人物領域に対応する画素の位置座標から人物の高さ方向を向く主軸を求め、主軸に沿って等間隔に分割する方法が適用可能である。例えば、マスク画像に現れる人の形をその平均座標を中心とする楕円で近似し、当該楕円の長軸を主軸とすることができる。   (4) The appearance feature value may be obtained from, for example, a person area divided into an upper body area and a lower body area. As a method of dividing the person area, for example, the mask image obtained by the person tracking unit 110 is divided into two in the height direction, or the position of the pixel corresponding to the person area of the mask image is directed in the height direction of the person. A method of obtaining the main axis and dividing it at equal intervals along the main axis is applicable. For example, the shape of a person appearing in the mask image can be approximated by an ellipse centered on the average coordinate, and the major axis of the ellipse can be used as the main axis.

この構成では、各領域の照合結果を統合判定することで照合精度を上げることができる。統合判定は例えば、分割した複数個の領域のうち一部の複数個の領域又は全てについて、アピアランス特徴量についての類似度が閾値以上であることを以て同一人物との対応付けを行うようにすることができる。   In this configuration, the collation accuracy can be increased by integrally determining the collation results of the respective areas. In the integrated determination, for example, a part of a plurality of divided areas or all of them are associated with the same person because the similarity with respect to the appearance feature amount is equal to or greater than a threshold value. Can do.

1 人物情報生成装置、2 人物同定装置、10,20 入力部、11,21 信号処理部、12,22 記憶部、23 出力部、110 人物追跡部、111 人物特徴抽出部、112 類似姿勢画像グループ生成部、113 人物情報生成部、210 人物情報取得部、211 類似姿勢画像グループ選択部、212 色変換部、213 人物間類似度算出部、214 照合結果生成部。   DESCRIPTION OF SYMBOLS 1 Person information generation apparatus, 2 Person identification apparatus, 10,20 Input part, 11,21 Signal processing part, 12,22 Storage part, 23 Output part, 110 Person tracking part, 111 Person feature extraction part, 112 Similar posture image group Generation unit, 113 person information generation unit, 210 person information acquisition unit, 211 similar posture image group selection unit, 212 color conversion unit, 213 interperson similarity calculation unit, 214 collation result generation unit

Claims (5)

2つの画像それぞれに撮像された注目物体像が同一の対象物体のものであるか照合する画像照合装置であって、
前記各画像の前記注目物体像における輝度値の累積ヒストグラムを算出し、一方の前記注目物体像の前記累積ヒストグラムを他方の前記注目物体像の前記累積ヒストグラムに近似させる輝度変換を前記一方の注目物体像に施す輝度変換部と、
前記輝度変換を施した前記一方の注目物体像と、前記他方の注目物体像とを照合する照合部と、
を備えたことを特徴とする画像照合装置。
An image collation device that collates whether target object images captured in two images are of the same target object,
A cumulative histogram of luminance values in the target object image of each image is calculated, and luminance conversion is performed to approximate the cumulative histogram of one target object image to the cumulative histogram of the other target object image. A luminance conversion unit applied to the image;
A collation unit that collates the one target object image subjected to the luminance conversion and the other target object image;
An image collating apparatus comprising:
請求項1に記載の画像照合装置において、
前記輝度変換部は、色成分ごとの輝度値についての前記累積ヒストグラムである累積色ヒストグラムを前記注目物体像相互間で近似させる前記輝度変換を行うこと、を特徴とする画像照合装置。
The image collation apparatus according to claim 1,
The luminance conversion unit performs the luminance conversion for approximating a cumulative color histogram, which is the cumulative histogram of luminance values for each color component, between the target object images.
請求項1又は請求項2に記載の画像照合装置において、
前記輝度変換部は、前記2つの画像における前記注目物体像をそれぞれ複数の部分領域に分割し、前記両注目物体像相互の対応する前記部分領域ごとに前記輝度変換を行うこと、
を特徴とする画像照合装置。
In the image collation device according to claim 1 or 2,
The luminance conversion unit divides the target object image in the two images into a plurality of partial regions, and performs the luminance conversion for each of the partial regions corresponding to the two target object images;
An image matching apparatus characterized by the above.
請求項1から請求項3のいずれか1つに記載の画像照合装置において、
前記両注目物体像はそれぞれ同一の対象物体のものであると判定された複数の物体像からなる物体像群であり、
前記輝度変換部は、前記各物体像群における前記累積ヒストグラムを算出すること、
を特徴とする画像照合装置。
In the image collation device according to any one of claims 1 to 3,
The two object images of interest are object image groups each consisting of a plurality of object images determined to be of the same target object,
The luminance conversion unit calculates the cumulative histogram in each object image group;
An image matching apparatus characterized by the above.
請求項1から請求項3のいずれか1つに記載の画像照合装置において、
前記両注目物体像はそれぞれ同一の対象物体のもの、かつ同一の形状特徴を有するものであると判定された複数の物体像からなる物体像群であり、
前記輝度変換部は、前記各物体像群における前記累積ヒストグラムを算出すること、
を特徴とする画像照合装置。
In the image collation device according to any one of claims 1 to 3,
The two object images of interest are an object image group consisting of a plurality of object images that are determined to have the same target object and the same shape characteristics,
The luminance conversion unit calculates the cumulative histogram in each object image group;
An image matching apparatus characterized by the above.
JP2012080576A 2012-03-30 2012-03-30 Image matching device Active JP5925557B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012080576A JP5925557B2 (en) 2012-03-30 2012-03-30 Image matching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012080576A JP5925557B2 (en) 2012-03-30 2012-03-30 Image matching device

Publications (2)

Publication Number Publication Date
JP2013210844A true JP2013210844A (en) 2013-10-10
JP5925557B2 JP5925557B2 (en) 2016-05-25

Family

ID=49528615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012080576A Active JP5925557B2 (en) 2012-03-30 2012-03-30 Image matching device

Country Status (1)

Country Link
JP (1) JP5925557B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
US10074029B2 (en) 2015-01-20 2018-09-11 Canon Kabushiki Kaisha Image processing system, image processing method, and storage medium for correcting color
CN110738685A (en) * 2019-09-09 2020-01-31 桂林理工大学 space-time context tracking method with color histogram response fusion
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP2020533701A (en) * 2017-09-13 2020-11-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Camera and image calibration to identify the subject
WO2021240889A1 (en) * 2020-05-28 2021-12-02 ソニーグループ株式会社 Information processing device, information processing method, and program
KR102403169B1 (en) * 2021-12-21 2022-05-30 주식회사 인피닉 Method for providing guide through image analysis, and computer program recorded on record-medium for executing method therefor
KR102475332B1 (en) * 2022-05-12 2022-12-08 주식회사 유오케이 Method for collect road information using multiple camera and computer program recorded on record-medium for executing method therefor
JP7314048B2 (en) 2019-12-26 2023-07-25 綜合警備保障株式会社 Learning model construction device, learning model construction method, and learning model construction program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306095A (en) * 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system
JP2003271956A (en) * 2002-03-18 2003-09-26 Fujitsu Ltd Method for matching-processing image
JP2010016803A (en) * 2008-06-04 2010-01-21 Toa Corp Apparatus and method for adjusting colors among multiple color cameras

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306095A (en) * 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system
JP2003271956A (en) * 2002-03-18 2003-09-26 Fujitsu Ltd Method for matching-processing image
JP2010016803A (en) * 2008-06-04 2010-01-21 Toa Corp Apparatus and method for adjusting colors among multiple color cameras

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016001503; 井尻 善久、外3名: '"サーベイ論文 : 視野を共有しない複数カメラ間での人物照合"' 電子情報通信学会技術研究報告 Vol.111 No.317 IEICE Technical Report Vol.111, No.317, 20111117, pp.117-124, 社団法人電子情報通信学会 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US11113538B2 (en) 2014-09-26 2021-09-07 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US11676388B2 (en) 2014-09-26 2023-06-13 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US10074029B2 (en) 2015-01-20 2018-09-11 Canon Kabushiki Kaisha Image processing system, image processing method, and storage medium for correcting color
JP2020533701A (en) * 2017-09-13 2020-11-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Camera and image calibration to identify the subject
JP7199426B2 (en) 2017-09-13 2023-01-05 コーニンクレッカ フィリップス エヌ ヴェ Camera and image calibration for subject identification
CN110738685A (en) * 2019-09-09 2020-01-31 桂林理工大学 space-time context tracking method with color histogram response fusion
JP7314048B2 (en) 2019-12-26 2023-07-25 綜合警備保障株式会社 Learning model construction device, learning model construction method, and learning model construction program
WO2021240889A1 (en) * 2020-05-28 2021-12-02 ソニーグループ株式会社 Information processing device, information processing method, and program
KR102403169B1 (en) * 2021-12-21 2022-05-30 주식회사 인피닉 Method for providing guide through image analysis, and computer program recorded on record-medium for executing method therefor
KR102475332B1 (en) * 2022-05-12 2022-12-08 주식회사 유오케이 Method for collect road information using multiple camera and computer program recorded on record-medium for executing method therefor

Also Published As

Publication number Publication date
JP5925557B2 (en) 2016-05-25

Similar Documents

Publication Publication Date Title
JP5925557B2 (en) Image matching device
AU2022252799B2 (en) System and method for appearance search
US10846554B2 (en) Hash-based appearance search
CN102087702B (en) Image processing device, image processing method
US9495754B2 (en) Person clothing feature extraction device, person search device, and processing method thereof
JP6655878B2 (en) Image recognition method and apparatus, program
JP6428266B2 (en) COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM
JP2013210845A (en) Moving object collation device
JP6904346B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
EP2335405A2 (en) Pixel-level based micro-feature extraction
WO2009143279A1 (en) Automatic tracking of people and bodies in video
JP2011165008A (en) Image recognition apparatus and method
Sun et al. Moving foreground object detection via robust SIFT trajectories
JP2016134803A (en) Image processor and image processing method
JP5940862B2 (en) Image processing device
JP4969291B2 (en) Moving object tracking device
JP6157165B2 (en) Gaze detection device and imaging device
JP2008250746A (en) Mobile object tracking device
JP2019016098A (en) Information processing apparatus, information processing method, and program
KR101139930B1 (en) Apparatus and method for object recognition based on part-template matching
JP2015219879A (en) Image recognition system, image recognition method, and program
US20220366570A1 (en) Object tracking device and object tracking method
KR101371647B1 (en) Apparatus for detecting fire flame based image data and method of the same
CA3011713A1 (en) Hash-based appearance search
CN110111368B (en) Human body posture recognition-based similar moving target detection and tracking method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160420

R150 Certificate of patent or registration of utility model

Ref document number: 5925557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250