JP2013210845A - Moving object collation device - Google Patents

Moving object collation device Download PDF

Info

Publication number
JP2013210845A
JP2013210845A JP2012080585A JP2012080585A JP2013210845A JP 2013210845 A JP2013210845 A JP 2013210845A JP 2012080585 A JP2012080585 A JP 2012080585A JP 2012080585 A JP2012080585 A JP 2012080585A JP 2013210845 A JP2013210845 A JP 2013210845A
Authority
JP
Japan
Prior art keywords
person
image
moving object
unit
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012080585A
Other languages
Japanese (ja)
Inventor
Yosuke Murai
陽介 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012080585A priority Critical patent/JP2013210845A/en
Publication of JP2013210845A publication Critical patent/JP2013210845A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that, when object images including similar attitudes of a moving object are collected from a plurality of frames and image features are averaged, the image features are made dull by being affected with a variation in an illumination condition.SOLUTION: A similar attitude image group generating section 112 divides time-series object images into continuous frames in which image features are similar to each other. A person information generating section 113 calculates a representative feature which represents luminance features, constituting the continuous frames, of a moving object in the plurality of frames. A person identifying device 2 collates a plurality of time-series object images with each other regarding the representative features for each of the continuous frames and determines the time-series object images which are matched in the collation and include the continuous frames, as the same moving object.

Description

本発明は、それぞれに移動物体が撮像された時系列画像が同一移動物体のものであるか照合する移動物体照合装置に関する。   The present invention relates to a moving object collation apparatus that collates whether time-series images each captured of a moving object are of the same moving object.

不審人物の足跡を追う目的等で、異なる場所に設置された監視カメラにて撮像した映像から同一人物の映像を検索することを要求される場合がある。例えば、建物2階の映像で確認された不審人物がいつ入館したかを特定するために、当該建物入口の映像を検索することが要求される。   For the purpose of following the footsteps of a suspicious person, it may be required to search for an image of the same person from images captured by surveillance cameras installed in different places. For example, in order to specify when a suspicious person confirmed in the video on the second floor of the building has entered the building, it is required to search for the video at the entrance of the building.

移動物体を追跡する画像処理技術によれば、人物位置の連続性を利用して同一人物が映った時系列画像を検出することができる。しかし、監視カメラは設置コスト等の理由から離散的に設置されることが多く、離れた監視カメラの間では人物位置の連続性が利用困難となる。そのため異なる監視カメラで追跡した人物の時系列画像を服装などの見かけ(アピアランス)の特徴で照合することになる。   According to the image processing technique for tracking a moving object, it is possible to detect a time-series image in which the same person is shown using the continuity of person positions. However, surveillance cameras are often installed discretely for reasons such as installation costs, and it is difficult to use the continuity of person positions between remote surveillance cameras. For this reason, time-series images of people tracked by different surveillance cameras are collated with appearance features such as clothes.

異なる監視カメラで撮像された人物の照合を行う場合、場所による照明条件の違いが本人不一致や他人一致の要因となる。このような照明条件の問題は、監視カメラの視野から一旦外れた人物が同一監視カメラの視野に再登場する場合にも生じる。そのため、従来、人物を検出した位置を、検出した人物領域画像と対応付けて記憶し、位置と人物領域画像が共に類似する人物を検索することで候補を限定して誤った検索を防止していた。   When collating a person imaged by different surveillance cameras, the difference in lighting conditions depending on the location becomes a cause of identity mismatch or identity match. Such a problem of illumination conditions also occurs when a person who has once deviated from the field of view of the surveillance camera reappears in the field of view of the same surveillance camera. For this reason, conventionally, a position where a person is detected is stored in association with the detected person area image, and a person whose position and person area image are both similar is searched to limit candidates and prevent erroneous search. It was.

特開2000−350187号公報JP 2000-350187 A

しかしながら、人物の検出位置を検索条件にすると候補とならない本人画像が多数となり、十分な検索を行えない問題があった。すなわち、従来技術では追跡により同一人物のものと特定されている複数フレームの時系列画像を有効活用できない問題があった。また、1フレーム同士の照合は、人物領域抽出の誤差により混入する背景画像などのノイズの影響や人物の姿勢や向きの変動により生じる本人変動の影響を受けやすいため、誤った検索の要因となっていた。   However, if the person detection position is used as a search condition, there are a large number of person images that cannot be candidates, and there is a problem that a sufficient search cannot be performed. In other words, the conventional technology has a problem that it is not possible to effectively use a plurality of frames of time-series images that are identified by tracking as those of the same person. In addition, matching between frames is likely to be an erroneous search factor because it is easily influenced by the influence of noise such as background images mixed due to errors in human region extraction and the fluctuation of the person caused by fluctuations in the posture and orientation of the person. It was.

ノイズや本人変動の影響を抑制するには複数フレームを平均化するなどの処理が好適である。ところが、照明条件は時間や場所によって変動し、人物の向きや姿勢は時々刻々と変動するため、時系列画像には照明条件や人物の姿勢や向きが異なるフレームが混ざっている。そのため、時系列画像の複数フレームを不用意に平均化すると色などの特徴が鈍化し、照合精度が低下する問題があった。   A process such as averaging a plurality of frames is suitable for suppressing the influence of noise and personal fluctuation. However, the lighting conditions vary depending on the time and place, and the direction and posture of the person change from moment to moment. Therefore, frames having different lighting conditions and postures and directions are mixed in the time-series image. For this reason, if a plurality of frames of a time-series image are inadvertently averaged, characteristics such as color are dulled, and collation accuracy is lowered.

本発明は上記課題を鑑みてなされたものであり、移動物体の姿勢・向きの変動や照明変動が含まれ得る時系列画像を有効活用して高精度に移動物体を照合できる移動物体照合装置を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a moving object collation apparatus capable of collating a moving object with high accuracy by effectively using a time-series image that can include fluctuations in posture and orientation of a moving object and illumination fluctuations. The purpose is to provide.

本発明に係る移動物体照合装置は、それぞれに移動物体が撮像された複数の時系列物体像が同一移動物体のものであるか照合するものであって、前記時系列物体像を、前記移動物体の画像特徴が互いに類似する連続フレームに分割する連続フレーム生成部と、前記連続フレームを構成する複数のフレームにおける前記移動物体の輝度特徴を代表する代表特徴を算出する代表特徴算出部と、前記複数の時系列物体像同士を前記連続フレームごとに前記代表特徴について照合し、照合一致した前記連続フレームを含んでいる前記時系列物体像同士を同一移動物体のものと判定する照合部と、を備える。   The moving object collation device according to the present invention is for collating whether or not a plurality of time-series object images each captured of a moving object are of the same moving object, the time-series object image being the moving object A continuous frame generation unit that divides the image features into continuous frames that are similar to each other, a representative feature calculation unit that calculates a representative feature that represents a luminance feature of the moving object in a plurality of frames constituting the continuous frame, and the plurality A collating unit that collates the time-series object images of the representative features for each successive frame and determines that the time-series object images including the consecutive frames that have been matched for matching are those of the same moving object. .

他の本発明に係る移動物体照合装置においては、前記代表特徴算出部は、前記連続フレームを構成する複数のフレームにおける前記移動物体の輝度特徴を平均して前記代表特徴を算出する。   In the moving object collation apparatus according to another aspect of the present invention, the representative feature calculation unit calculates the representative feature by averaging the luminance features of the moving object in a plurality of frames constituting the continuous frame.

別の本発明に係る移動物体照合装置においては、前記照合部は、前記時系列物体像間で前記移動物体の形状特徴が最も類似する前記連続フレームを選択し、選択した前記連続フレームを照合する。   In the moving object matching device according to another aspect of the invention, the matching unit selects the continuous frames having the most similar shape characteristics of the moving object between the time-series object images, and matches the selected consecutive frames. .

本発明によれば、時系列画像を移動物体の向きや姿勢及び照明条件の揃った連続フレームに分割して照合することで姿勢・向きの変動や照明変動を抑制しつつ移動物体の輝度特徴の鈍化を防止でき照合精度の向上が図れる。   According to the present invention, the luminance characteristics of a moving object can be reduced while suppressing fluctuations in posture / direction and fluctuations in illumination by dividing and collating time-series images into continuous frames having the same orientation, attitude, and illumination conditions. Slowdown can be prevented and collation accuracy can be improved.

本発明の実施形態である人物同定・検索システムを構成する人物情報生成装置の概略の構成を示すブロック図である。It is a block diagram which shows the structure of the outline of the person information generation apparatus which comprises the person identification / search system which is embodiment of this invention. 本発明の実施形態である人物同定・検索システムを構成する人物同定装置の概略の構成を示すブロック図である。It is a block diagram which shows the structure of the outline of the person identification apparatus which comprises the person identification and search system which is embodiment of this invention. 人物情報生成装置の動作を説明する概略のフロー図である。It is a schematic flowchart explaining operation | movement of a person information generation apparatus. 類似姿勢画像グループ生成部の処理の一例を示す説明図である。It is explanatory drawing which shows an example of a process of the similar attitude | position image group production | generation part. 人物同定装置の動作を説明する概略のフロー図である。It is a schematic flowchart explaining operation | movement of a person identification apparatus.

以下、本発明の実施の形態(以下実施形態という)である人物同定・検索システムについて、図面に基づいて説明する。当該人物同定・検索システムは人物を対象物体とし、画像に写る移動物体の複数フレームに亘る時系列物体像を照合する機能を有する。人物同定・検索システムは、人物情報生成装置1と人物同定装置2とから構成される。人物情報生成装置1は複数の監視カメラそれぞれによって異なる撮像領域を撮影した複数フレームの画像(時系列画像)から、各撮像領域に現れた人物の画像情報(人物情報)を人物ごとに生成する。この人物情報には背景から分離された人物像が含まれる。人物同定装置2は、人物情報生成装置1が生成した人物情報の間で人物像の照合を行って同一人物の人物情報を検出する。人物同定・検索システムは、この人物像の照合によって、複数の撮像領域に亘って移動する人物の横断的検索を可能にする。以下、人物情報生成装置1及び人物同定装置2をそれぞれ説明する。   Hereinafter, a person identification / search system according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The person identification / retrieval system has a function of collating time-series object images over a plurality of frames of a moving object shown in an image with a person as a target object. The person identification / retrieval system includes a person information generation device 1 and a person identification device 2. The person information generating device 1 generates image information (person information) of a person appearing in each imaging area for each person from a plurality of frames of images (time-series images) obtained by imaging different imaging areas by a plurality of monitoring cameras. This person information includes a person image separated from the background. The person identification device 2 compares person images with the person information generated by the person information generation device 1 to detect person information of the same person. The person identification / retrieval system enables a cross-sectional search of a person who moves across a plurality of imaging regions by collating the person images. Hereinafter, the person information generation apparatus 1 and the person identification apparatus 2 will be described.

[人物情報生成装置1の構成]
図1は人物情報生成装置1の概略の構成を示すブロック図である。人物情報生成装置1は入力部10、信号処理部11及び記憶部12から構成される。
[Configuration of Person Information Generating Device 1]
FIG. 1 is a block diagram showing a schematic configuration of the person information generating apparatus 1. The person information generation apparatus 1 includes an input unit 10, a signal processing unit 11, and a storage unit 12.

入力部10は時系列画像を出力する複数の監視カメラ、又は各監視カメラにより撮影済みの時系列画像を記録したDVR(Digital Video Recorder)などの映像記録装置であり、信号処理部11に接続される。   The input unit 10 is a video recording device such as a digital video recorder (DVR) that records a plurality of monitoring cameras that output time-series images or time-series images that have been captured by each monitoring camera, and is connected to the signal processing unit 11. The

信号処理部11はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、入力部10及び記憶部12に接続される。信号処理部11は記憶部12からプログラムを読み出して実行し、人物追跡部110、人物特徴抽出部111、類似姿勢画像グループ生成部112及び人物情報生成部113等として機能する。   The signal processing unit 11 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and is connected to the input unit 10 and the storage unit 12. The signal processing unit 11 reads out and executes a program from the storage unit 12, and functions as a person tracking unit 110, a person feature extraction unit 111, a similar posture image group generation unit 112, a person information generation unit 113, and the like.

人物追跡部110は入力部10から監視カメラごとの時系列画像を取得し、人物追跡処理により当該時系列画像上に現れた各人物の人物像の時系列(時系列人物像)を生成し、人物特徴抽出部111に出力する。具体的には、人物追跡部110は背景差分処理等により時系列画像の各フレームから人物像を抽出し、パターンマッチング等によりフレーム間で同一人物の人物像を対応付けることで時系列人物像を生成する。なお、各人物像のデータの受け渡しは、当該人物像が存在するフレームを識別するフレーム番号と、当該フレームにおける人物の領域を表現する2値のマスク画像を受け渡すことで行う。   The person tracking unit 110 acquires a time series image for each monitoring camera from the input unit 10, generates a time series (time series person image) of person images of each person appearing on the time series image by the person tracking process, The data is output to the person feature extraction unit 111. Specifically, the person tracking unit 110 extracts a person image from each frame of the time series image by background difference processing or the like, and generates a time series person image by associating the person image of the same person between the frames by pattern matching or the like. To do. The data of each person image is transferred by transferring a frame number for identifying a frame in which the person image exists and a binary mask image representing a person area in the frame.

人物特徴抽出部111は人物追跡部110が生成した各人物像からアピアランス特徴量と形状特徴量とを抽出して、抽出した特徴量を類似姿勢画像グループ生成部112と人物情報生成部113に出力する。   The person feature extraction unit 111 extracts appearance feature values and shape feature values from each person image generated by the person tracking unit 110, and outputs the extracted feature values to the similar posture image group generation unit 112 and the person information generation unit 113. To do.

アピアランス特徴量は人物の見かけの特徴量であり、具体的には人物像の輝度特徴量である。人物特徴抽出部111はアピアランス特徴量として各人物像のRGBカラーヒストグラムを抽出する。これは人物を服や肌などの色により特徴付ける色特徴量である。RGBカラーヒストグラムに代えてHSVカラーヒストグラムを抽出してもよい。または、人物特徴抽出部111はアピアランス特徴量として各人物像の輝度勾配ヒストグラムを抽出する。これは人物を服の模様などにより特徴付けるテクスチャ特徴量である。アピアランス特徴量として各人物像の色特徴量とテクスチャ特徴量の両方を抽出することもできるし、その他の各種の輝度特徴量を加えることもできる。   The appearance feature amount is an apparent feature amount of a person, and specifically, a luminance feature amount of a person image. The person feature extraction unit 111 extracts an RGB color histogram of each person image as an appearance feature value. This is a color feature amount that characterizes a person with colors such as clothes and skin. An HSV color histogram may be extracted instead of the RGB color histogram. Alternatively, the person feature extraction unit 111 extracts a luminance gradient histogram of each person image as the appearance feature value. This is a texture feature amount that characterizes a person by a clothing pattern or the like. As the appearance feature amount, both the color feature amount and the texture feature amount of each person image can be extracted, and various other luminance feature amounts can be added.

形状特徴量は人物の姿勢や向きを特徴付ける特徴量であり、シェイプコンテキスト(ShapeContext)を用いる。別の実施形態では形状特徴量としてエッジ方向ヒストグラムを用いることができる。   The shape feature amount is a feature amount that characterizes the posture and orientation of a person, and uses a shape context. In another embodiment, an edge direction histogram can be used as the shape feature amount.

類似姿勢画像グループ生成部112(連続フレーム生成部)は人物追跡部110で生成した各時系列人物像を人物特徴抽出部111で抽出した形状特徴量が類似する連続フレームの人物像同士からなる類似姿勢画像グループに分けて、グループ生成の結果を人物情報生成部113に出力する。当該グルーピングによって生成する類似姿勢画像グループは姿勢や向きが揃った人物像の集まりとなる。姿勢や向きが揃ったグループ内での平均化を行っても姿勢や向きの変動による移動物体の画像特徴の鈍化は少ないため、その画像特徴を用いた照合において精度の低下を抑制することが可能となる。また、当該グルーピングに際しては時間の連続性を考慮している。例えば、類似姿勢画像グルーピングの連続性拘束時間をT(秒)に設定した場合、時系列人物像を追跡開始フレームtからT秒間隔で分割し、当該分割で生成される各分割時系列画像内で類似姿勢画像にグルーピングする。連続性拘束時間Tの大きさは例えば2〜5秒程度の範囲で、各分割時系列画像内に含まれるフレーム数に応じて設定することができる。類似姿勢画像のグループ生成においてグループに含まれる画像の時系列の連続性を要件とすることで、人物の姿勢が似ていたとしても、時間的に離れた画像は別のグループに分類されるため、追跡を行う時系列画像中で照明変動が発生してもグループ内での照明変動の大きさを小さくすることができる。よって、グループ内での平均化を行っても移動物体の画像特徴の照明変動による鈍化は少ないため、得られた画像特徴を用いた照合においてその精度の低下を抑制することが可能になる。 The similar posture image group generation unit 112 (continuous frame generation unit) is a similarity composed of human images of continuous frames having similar shape feature amounts extracted by the human feature extraction unit 111 from each time-series human image generated by the human tracking unit 110. Dividing into posture image groups, the group generation result is output to the person information generation unit 113. The similar posture image group generated by the grouping is a collection of human images having the same posture and orientation. Even if averaging is performed in groups with uniform postures and orientations, the image features of moving objects are less blunted due to changes in posture and orientation, so it is possible to suppress degradation in accuracy in collation using those image features. It becomes. In addition, time continuity is taken into consideration in the grouping. For example, when the continuity constraint time for similar posture image grouping is set to T C (seconds), the time-series human image is divided at intervals of T C seconds from the tracking start frame t 0, and each division time generated by the division is obtained. Group into similar posture images in the sequence image. The size of the continuous duty time T C in the range of about 2 to 5 seconds for example, can be set according to the number of frames included in each divided time-series image. By making the time series continuity of the images included in the group in the group generation of similar posture images, even if the posture of the person is similar, images that are separated in time are classified into another group Even if the illumination variation occurs in the time-series image to be tracked, the size of the illumination variation within the group can be reduced. Therefore, even if averaging within the group is performed, there is little dullness due to illumination fluctuation of the image feature of the moving object, so that it is possible to suppress a decrease in accuracy in the collation using the obtained image feature.

以下では類似姿勢画像のグルーピング手法について説明する。   Hereinafter, a grouping method for similar posture images will be described.

まず、類似姿勢画像グループ生成部112は、各分割時系列画像において時間的に隣り合う人物像間で人物像の形状特徴量の類似度を求める。類似度は動的計画(Dynamic Programming)法などのマッチング手法を用いて求めることができる。次に、類似姿勢画像グループ生成部112は、求めた類似度に平均シフト(MeanShift)法やクイックシフト(QuickShift)法等のクラスタリング手法を適用して、各分割時系列画像の人物像をクラスタリングすることにより類似姿勢画像グループを生成する。   First, the similar posture image group generation unit 112 obtains the similarity of the shape feature amount of the person image between the temporally adjacent person images in each divided time series image. The similarity can be obtained by using a matching method such as a dynamic programming method. Next, the similar posture image group generation unit 112 applies a clustering technique such as an average shift (MeanShift) method or a quick shift (QuickShift) method to the obtained similarity to cluster the human images of each divided time-series image. To generate a similar posture image group.

人物情報生成部113(代表特徴算出部)は、類似姿勢画像グループ生成部112で生成した類似姿勢画像グループごとに当該グループを構成する人物像のアピアランス特徴量を代表する代表アピアランス特徴量を算出し、またマスク画像とフレーム番号と時系列画像を基に人物像を切り出し、時系列人物像ごとに人物IDと各類似姿勢画像グループのフレーム番号リストとフレーム番号ごとの人物像及び形状特徴量と各類似姿勢画像グループの代表アピアランス特徴量とを対応付けた人物情報120を記憶部12に記憶させる。   The person information generation unit 113 (representative feature calculation unit) calculates, for each similar posture image group generated by the similar posture image group generation unit 112, a representative appearance feature amount that represents the appearance feature amount of the person image constituting the group. In addition, a person image is cut out based on the mask image, the frame number, and the time series image, the person ID for each time series person image, the frame number list of each similar posture image group, the person image and the shape feature amount for each frame number, and each Person information 120 in which the representative appearance feature amount of the similar posture image group is associated is stored in the storage unit 12.

人物情報生成部113は各類似姿勢画像グループの人物像のアピアランス特徴量を平均して代表アピアランス特徴量を算出する。平均に用いる人物像は全部としてもよいが、平均値に近い規定数の人物像を用いてもよい。これに代えて各類似姿勢画像グループの人物像のアピアランス特徴量の平均値に最も近いアピアランス特徴量を代表アピアランス特徴量とすることもでき、または、類似姿勢画像グループ生成部112でのクラスタリング結果を参照して各類似姿勢画像グループのクラスタ中心に対応するアピアランス特徴量を代表アピアランス特徴量とすることもできる。また、人物情報生成部113は形状特徴量についてもアピアランス特徴量と同様にして各類似姿勢画像グループの代表形状特徴量を生成してもよい。   The person information generation unit 113 calculates the representative appearance feature value by averaging the appearance feature values of the person images in each similar posture image group. The average number of person images may be used, but a specified number of person images close to the average value may be used. Alternatively, the appearance feature value closest to the average appearance feature value of the person images of each similar posture image group may be used as the representative appearance feature amount, or the clustering result in the similar posture image group generation unit 112 may be used as the representative feature value. The appearance feature amount corresponding to the cluster center of each similar posture image group can be referred to as the representative appearance feature amount. Further, the person information generation unit 113 may generate the representative shape feature amount of each similar posture image group in the same manner as the appearance feature amount with respect to the shape feature amount.

記憶部12は例えば、ハードディスクドライブ(Hard disk drive:HDD)、RAM(Random Access Memory)等の記憶装置からなり、人物情報生成部113で生成された人物情報120を格納する他、計算用の一時記憶領域(図示せず)として信号処理部11により利用される。また、記憶部12は信号処理部11で用いられる各種プログラムや各種データを記憶し、信号処理部11との間でこれらの情報を入出力する。   The storage unit 12 includes, for example, a storage device such as a hard disk drive (HDD), a RAM (Random Access Memory), etc., and stores the personal information 120 generated by the personal information generation unit 113 as well as temporary calculation data. It is used by the signal processing unit 11 as a storage area (not shown). In addition, the storage unit 12 stores various programs and various data used in the signal processing unit 11, and inputs / outputs such information to / from the signal processing unit 11.

[人物同定装置2の構成]
図2は人物同定装置2(照合部)の概略の構成を示すブロック図である。人物同定装置2は入力部20、信号処理部21、記憶部22及び出力部23から構成される。既に述べたように人物同定装置2は、人物情報生成装置1により作成された人物情報120を用いて同一人物を見つける同定処理を行う。本実施形態では、ユーザが或る監視カメラ(以下、カメラAとする)の時系列画像に現れた人物について検索を要求し、人物同定装置2が他の監視カメラ(以下、カメラBとする)で撮影された時系列画像から当該人物を検索するものとする。
[Configuration of Person Identification Device 2]
FIG. 2 is a block diagram showing a schematic configuration of the person identification device 2 (collation unit). The person identification device 2 includes an input unit 20, a signal processing unit 21, a storage unit 22, and an output unit 23. As already described, the person identification device 2 performs an identification process for finding the same person using the person information 120 created by the person information generation device 1. In the present embodiment, a user requests a search for a person appearing in a time-series image of a certain monitoring camera (hereinafter referred to as camera A), and the person identification device 2 receives another monitoring camera (hereinafter referred to as camera B). It is assumed that the person is searched from the time-series images photographed in (1).

入力部20はキーボードやマウスなどの入力装置であり、信号処理部21と接続され、ユーザが検索したい人物を選択したり、検索するデータベース(DB)を指定したりする時などに用いられる。   The input unit 20 is an input device such as a keyboard and a mouse, and is connected to the signal processing unit 21 and is used when a user selects a person to be searched or designates a database (DB) to be searched.

信号処理部21は信号処理部11と同様、CPU等の演算装置を用いて構成され、入力部20、記憶部22及び出力部23に接続される。信号処理部21は記憶部22からプログラムを読み出して実行し、人物情報取得部210、類似姿勢画像グループ選択部211、色変換部212、人物間類似度算出部213及び照合結果生成部214等として機能する。   Similar to the signal processing unit 11, the signal processing unit 21 is configured using an arithmetic device such as a CPU, and is connected to the input unit 20, the storage unit 22, and the output unit 23. The signal processing unit 21 reads out and executes the program from the storage unit 22 and serves as a person information acquisition unit 210, a similar posture image group selection unit 211, a color conversion unit 212, a person similarity calculation unit 213, a collation result generation unit 214, and the like. Function.

人物情報取得部210は入力部20から検索要求された人物(以下、クエリ(query)人物と称する)の人物情報(人物情報220A)を記憶部22から読み込む。また、人物情報取得部210は入力部20から照合相手として監視カメラ単位で指定された複数の人物(以下、DB(database)人物と称する)の人物情報群(人物情報220B)を記憶部22から読み込む。そして、人物情報取得部210は検索対象や照合相手として指定された人物の人物情報220(220A,220B)を類似姿勢画像グループ選択部211へ出力する。   The person information acquisition unit 210 reads the person information (person information 220 </ b> A) of the person requested to be searched from the input unit 20 (hereinafter referred to as a query person) from the storage unit 22. In addition, the person information acquisition unit 210 receives from the storage unit 22 person information groups (person information 220B) of a plurality of persons (hereinafter referred to as DB (database) persons) designated by the monitoring unit as a collation partner from the input unit 20. Read. Then, the person information acquisition unit 210 outputs the person information 220 (220A, 220B) of the person specified as the search target or collation partner to the similar posture image group selection unit 211.

類似姿勢画像グループ選択部211は、クエリ人物の人物情報に格納された類似姿勢画像グループと、各DB人物の人物情報に格納された類似姿勢画像グループとから、最も姿勢が類似する類似姿勢画像グループペアを選択する。類似姿勢画像グループ選択部211は選択した各類似姿勢画像グループを特定する情報を加えた人物情報を色変換部212へ出力する。   The similar posture image group selection unit 211 has a similar posture image group having the most similar posture from the similar posture image group stored in the person information of the query person and the similar posture image group stored in the person information of each DB person. Select a pair. The similar posture image group selection unit 211 outputs personal information to which the information for specifying each selected similar posture image group is added to the color conversion unit 212.

類似姿勢画像グループペアの選択は、各類似姿勢画像グループの形状特徴量間の類似度を比較することで行う。類似姿勢画像グループ間の類似度は、人物情報生成装置1の類似姿勢画像グループ生成部112で用いた方法と同様に、動的計画法などのマッチング手法を用いて類似姿勢画像グループの形状特徴量を比較することで求めることができる。   The similar posture image group pair is selected by comparing the similarity between the shape feature amounts of the similar posture image groups. Similarity between similar posture image groups is determined by using a matching method such as dynamic programming in the same manner as the method used by the similar posture image group generation unit 112 of the person information generation device 1. Can be obtained by comparing.

クエリ人物とDB人物の照合は類似姿勢画像グループペアを照合することにより行う。このように姿勢が類似した人物像を選択して照合を行うことで、人物の姿勢や向きの違いによる照合精度の低下を抑制することができる。   The query person and the DB person are collated by collating similar posture image group pairs. By selecting and comparing human images with similar postures in this way, it is possible to suppress a decrease in collation accuracy due to differences in human postures and orientations.

色変換部212は、クエリ人物の人物像とDB人物の人物像との間の照明条件の違いを吸収するために、類似姿勢画像グループ選択部211で選択された類似姿勢画像グループペア間で色変換処理を行って色変換した人物像を加えた人物情報を人物間類似度算出部213に出力する。色変換処理は、BTF(輝度変換関数:Brightness Transfer Function)により行う。   The color conversion unit 212 uses the color between the similar posture image group pairs selected by the similar posture image group selection unit 211 to absorb the difference in the lighting conditions between the person image of the query person and the person image of the DB person. The person information obtained by adding the person image subjected to the conversion process and color-converted is output to the inter-person similarity calculation unit 213. The color conversion process is performed by BTF (Brightness Transfer Function).

具体的には色変換部212はクエリ人物及びDB人物の人物像それぞれの累積色ヒストグラムを算出し、累積色ヒストグラムの一方の各色成分の輝度値(色輝度値)を変換して他方の近似となるように各色輝度値を変換する。各累積色ヒストグラムは類似姿勢画像グループを構成する複数フレームの人物像を用いて算出する。すなわち、一方の累積色ヒストグラムを色輝度値Bに対する関数H(B)、他方の累積色ヒストグラムを色輝度値Bに対する関数H(B)、及びBTFによる色輝度値Bの変換をf(B)と表すと、色変換部212はH(B)がH(f(B))に一致するように関数fを定義する。色変換部212は各輝度値Bについての輝度値0〜Bまでの累積頻度H(B)と、各輝度値Bについての輝度値0〜Bまでの累積頻度H(B)を求めて、輝度値BのそれぞれをH(B)=H(B)を満たす輝度値Bに置き換える変換f(B)を行う。この変換は色成分ごとに行う。実際には輝度値も頻度も離散的であるため一般にH(B)=H(B)を完全に満たす変換は得られず、当該色変換は一方の累積色ヒストグラムを他方の累積色ヒストグラムに近似させる変換となる。ここでは、累積ヒストグラムの曲線(折れ線)が表す変化特性を積分特性と呼び、BTFにより当該特性を近似させることを、積分特性を合わせると表現する。 Specifically, the color conversion unit 212 calculates a cumulative color histogram of each person image of the query person and DB person, converts a luminance value (color luminance value) of one color component of the cumulative color histogram, and approximates the other. Each color luminance value is converted so that Each cumulative color histogram is calculated using a plurality of frames of human images constituting a similar posture image group. That is, one cumulative color histogram is a function H 1 (B 1 ) for the color luminance value B 1 , the other cumulative color histogram is a function H 2 (B 2 ) for the color luminance value B 2 , and a color luminance value B 1 by BTF. Is expressed as f (B 1 ), the color conversion unit 212 defines the function f so that H 1 (B 1 ) matches H 2 (f (B 1 )). Cumulative frequency H 1 of the color conversion section 212 and the cumulative frequency H 2 (B 2) to the luminance values 0 to B 2 for each luminance value B 2, until the luminance values 0 to B 1 for each luminance value B 1 ( B 1 ) is obtained, and a conversion f (B 1 ) is performed in which each of the luminance values B 1 is replaced with a luminance value B 2 that satisfies H 1 (B 1 ) = H 2 (B 2 ). This conversion is performed for each color component. In practice, since the luminance value and frequency are discrete, in general, conversion that completely satisfies H 1 (B 1 ) = H 2 (B 2 ) cannot be obtained, and the color conversion uses one accumulated color histogram for the other. The conversion approximates the color histogram. Here, the change characteristic represented by the curve (broken line) of the cumulative histogram is called an integral characteristic, and approximating the characteristic by BTF is expressed as integrating the integral characteristic.

色変換部212が行う色変換は背景を除いた人物像に対して行うため、背景の色分布の違いは色変換に影響しない。また、色変換部212が行う色変換は特定人物の人物像の積分特性に合わせ込む変換であり、上述のように輝度値の順序を変えない拘束条件を課した変換である。そのため、本来の色分布が異なる他人同士で積分特性を合わせようとしても拘束条件により合わせ込みきれず両者の色分布は類似したものとならない。しかし、本来の色分布が同じである本人同士で積分特性を合わせようとすれば拘束条件があっても合わせ込むことができ、照明条件が補正されて両者の色分布は類似したものとなる。   Since the color conversion performed by the color conversion unit 212 is performed on a human image excluding the background, the difference in the background color distribution does not affect the color conversion. In addition, the color conversion performed by the color conversion unit 212 is conversion that matches the integration characteristics of the person image of a specific person, and is conversion that imposes a constraint condition that does not change the order of the luminance values as described above. For this reason, even if other people with different original color distributions try to match the integration characteristics, they cannot be matched due to the constraint conditions, and the color distributions of both are not similar. However, if the principals having the same original color distribution try to match the integral characteristics, they can be matched even if there are constraint conditions, and the illumination conditions are corrected and the color distributions of both are similar.

その結果、本人同士の照合と他人同士の照合との差を広げることができ、照合精度を向上させることができる。   As a result, it is possible to widen the difference between the collation between the principals and the collation between others, and the collation accuracy can be improved.

例えば、クエリ人物とDB人物とが同一ではあるが、照明条件の相違により両者の累積色ヒストグラムに違いが生じている場合には、積分特性を合わせるように色変換を行うと、両者の各色の色ヒストグラムはピークの位置及び相対的な大きさが似た類似した色ヒストグラムとなる。つまり、当該色変換により照明条件だけが上手く補正されて、両者の人物像の肌や服装の色が類似した色合いとなる。   For example, if the query person and the DB person are the same, but there is a difference between the accumulated color histograms due to the difference in the lighting conditions, if color conversion is performed so as to match the integral characteristics, The color histograms are similar color histograms having similar peak positions and relative sizes. In other words, only the illumination condition is successfully corrected by the color conversion, and the skin color of both person images and the color of clothes are similar.

一方、例えば、クエリ人物とDB人物の服装の色や肌の露出具合が異なる別人である場合には、積分特性を合わせるように色変換を行うと、両者の色ヒストグラムにおける各色のピーク同士の相対的な位置関係や相対的な強度の差異は残り、色変換された人物像は歪んだ色分布となる一方、照明条件の相違に対する補正も期待されない。   On the other hand, for example, when the query person and the DB person are different persons whose clothes colors and skin exposures are different, if color conversion is performed so as to match the integral characteristics, the relative peaks of the respective colors in the color histograms of the two are compared. The difference in the relative positional relationship and relative intensity remains, and the color-converted human image has a distorted color distribution, but no correction for the difference in illumination conditions is expected.

このように上述した色変換により、本人のときと他人のときとで色合わせの程度の差が開くため、照明条件を補正しつつ本人照合精度を向上させることができる。またこの色変換は人物の姿勢・向き及び照明条件を揃えた類似姿勢画像グループを単位として行うため、上記の差を広げる効果をより高めることができる。   As described above, the color conversion described above opens a difference in the degree of color matching between the person and the other person, so that the person matching accuracy can be improved while correcting the illumination condition. In addition, since this color conversion is performed in units of similar posture image groups in which the posture / direction and lighting conditions of the person are aligned, the effect of widening the difference can be further enhanced.

人物間類似度算出部213は、色変換部212が色変換を施したクエリ人物の人物像と、各DB人物の人物像との間の類似性(人物間類似度)を算出して、DB人物ごとの人物間類似度を照合結果生成部214に出力する。   The inter-person similarity calculation unit 213 calculates the similarity (inter-person similarity) between the person image of the query person that has been subjected to color conversion by the color conversion unit 212 and the person image of each DB person. The person-to-person similarity is output to the matching result generation unit 214.

人物間類似度はアピアランス特徴量の類似度として算出する。具体的には、人物間類似度算出部213は、類似姿勢画像グループペアの一方であるクエリ人物の類似姿勢画像グループを構成する色変換後の人物像から代表アピアランス特徴量を再抽出すると共に、類似姿勢画像グループペアの他方であるDB人物それぞれの類似姿勢画像グループを構成する物体像の代表アピアランス特徴量を人物情報から読み出して、クエリ人物の代表アピアランス特徴量と各DB人物の代表アピアランス特徴量との類似度を人物間類似度として算出する。アピアランス特徴量であるRGBヒストグラムの類似度はヒストグラムインターセクションを計算することで求めることができる。RGBヒストグラムに代えてHSVヒストグラム又は輝度勾配ヒストグラムを用いる場合もこれらのヒストグラムインターセクションを計算すればよい。また、複数種類の特徴量をアピアランス特徴量として用いる場合は、各特徴量の類似度を予め定めた重みで重み付け加算して人物間類似度とすることができる。   The similarity between persons is calculated as the similarity of appearance feature values. Specifically, the inter-person similarity calculation unit 213 re-extracts the representative appearance feature amount from the color-converted person image constituting the similar posture image group of the query person that is one of the similar posture image group pairs, and The representative appearance feature value of the object image constituting the similar posture image group of each DB person who is the other of the similar posture image group pairs is read from the person information, and the representative appearance feature value of the query person and the representative appearance feature value of each DB person are read. Is calculated as the similarity between persons. The similarity of the RGB histogram, which is an appearance feature value, can be obtained by calculating a histogram intersection. Even when an HSV histogram or a luminance gradient histogram is used instead of the RGB histogram, these histogram intersections may be calculated. Further, when a plurality of types of feature quantities are used as appearance feature quantities, the similarity between the feature quantities can be weighted and added with a predetermined weight to obtain the similarity between persons.

照合結果生成部214は、DB人物のうち人物間類似度算出部213が算出した人物間類似度が予め設定した同定閾値以上かつ最大となる者をクエリ人物と同一の人物と判定してこれらの人物の人物情報220を出力部23に出力する。一方、同定閾値以上の人物間類似度を持つDB人物が存在しない場合は該当無しと判定してその旨を出力部23に出力する。   The collation result generation unit 214 determines a person whose DB similarity calculated by the person similarity calculation unit 213 is equal to or greater than a predetermined identification threshold as the same person as the query person. The person information 220 of the person is output to the output unit 23. On the other hand, if there is no DB person having a similarity between persons equal to or higher than the identification threshold, it is determined that there is no corresponding person and a message to that effect is output to the output unit 23.

記憶部22は記憶部12と同様、HDD等の記憶装置からなり、人物情報220A,220Bを格納する他、計算用の一時記憶領域(図示せず)として信号処理部21により利用される。また、記憶部22は信号処理部21で用いられる各種プログラムや各種データを記憶し、信号処理部21との間でこれらの情報を入出力する。   Similar to the storage unit 12, the storage unit 22 includes a storage device such as an HDD, and stores personal information 220 </ b> A and 220 </ b> B and is used by the signal processing unit 21 as a temporary storage area (not shown) for calculation. In addition, the storage unit 22 stores various programs and various data used in the signal processing unit 21, and inputs / outputs such information to / from the signal processing unit 21.

ここで、人物情報220Aには、人物情報生成装置1がカメラAの時系列画像から生成した複数人物の人物情報が格納され、人物情報220Bには、人物情報生成装置1がカメラBの時系列画像から生成した複数人物の人物情報が格納される。なお、本実施形態ではカメラが2台の場合で説明しているが、カメラが2台より多い場合はカメラと同じ数の人物情報220が記憶部22に格納される。   Here, the person information 220A stores person information of a plurality of persons generated from the time-series images of the camera A by the person information generation apparatus 1, and the person information 220B stores the person information generation apparatus 1 in time series of the camera B. The personal information of a plurality of persons generated from the image is stored. In this embodiment, the case where there are two cameras has been described. However, when there are more than two cameras, the same number of person information 220 as the number of cameras is stored in the storage unit 22.

出力部23はディスプレイなどから構成される。出力部23は信号処理部21と接続され、照合結果生成部214で生成された結果を出力する。   The output unit 23 includes a display. The output unit 23 is connected to the signal processing unit 21 and outputs the result generated by the matching result generation unit 214.

なお、人物情報生成装置1及び人物同定装置2を一体の人物同定・検索システムとして構成する場合、信号処理部11及び信号処理部21は共通の演算装置で構成でき、また記憶部12及び記憶部22も共通の記憶装置で構成できる。   When the person information generation device 1 and the person identification device 2 are configured as an integrated person identification / search system, the signal processing unit 11 and the signal processing unit 21 can be configured by a common arithmetic device, and the storage unit 12 and the storage unit 22 can also be constituted by a common storage device.

[人物情報生成装置1の動作]
図3は人物情報生成装置1の動作を説明する概略のフロー図である。
[Operation of Person Information Generating Device 1]
FIG. 3 is a schematic flowchart for explaining the operation of the person information generating apparatus 1.

人物追跡部110は入力部10から入力された時系列画像の各画像に対し、背景差分処理を行って当該画像から背景の画素を除くことにより人物像を抽出し、そのマスク画像を生成する(ステップS10)。そして、人物追跡部110はステップS10で抽出した現フレームの人物像とその前フレームまでに抽出した人物像とのテンプレートマッチングを行って同一人物の人物像同士を対応付ける(ステップS11)。人物追跡部110は同一人物の人物像に共通の人物IDを付与し、また新規人物の人物像に新たな人物IDを付与する。人物追跡部110は現フレームのフレーム番号と現フレームで抽出した人物像のマスク画像とその人物IDを対応付けて記憶部12に追記する。   The person tracking unit 110 performs background difference processing on each image of the time-series image input from the input unit 10 to extract a person image by removing background pixels from the image, and generates a mask image ( Step S10). Then, the person tracking unit 110 performs template matching between the person image of the current frame extracted in step S10 and the person images extracted up to the previous frame to associate person images of the same person with each other (step S11). The person tracking unit 110 assigns a common person ID to the person image of the same person, and assigns a new person ID to the person image of the new person. The person tracking unit 110 adds the frame number of the current frame, the mask image of the person image extracted in the current frame, and the person ID to the storage unit 12 in association with each other.

人物特徴抽出部111は人物追跡部110がステップS10で抽出した人物像から形状特徴量を抽出し、当該人物像と対応付けて記憶部12に追記する(ステップS12)。また、人物特徴抽出部111は当該人物像から、アピアランス特徴量を抽出し、当該人物像と対応付けて記憶部12に追記する(ステップS13)。   The person feature extraction unit 111 extracts a shape feature amount from the person image extracted by the person tracking unit 110 in step S10, and adds it to the storage unit 12 in association with the person image (step S12). Also, the person feature extraction unit 111 extracts appearance feature values from the person image, and adds the appearance feature amount to the storage unit 12 in association with the person image (step S13).

追跡を終了した人物が居る場合(ステップS14にてYESの場合)はステップS15に進み、そうでない場合(ステップS14でNOの場合)は新たに入力されるフレームに対してステップS10〜S13の処理を繰り返す。人物特徴抽出部111はステップS10〜S13で記録された追跡終了人物の画像情報をとりまとめて類似姿勢画像グループ生成部112と人物情報生成部113に出力する。   If there is a person who has finished tracking (YES in step S14), the process proceeds to step S15. If not (NO in step S14), the process in steps S10 to S13 is performed on a newly input frame. repeat. The person feature extracting unit 111 collects the image information of the tracking-completed person recorded in steps S <b> 10 to S <b> 13 and outputs it to the similar posture image group generation unit 112 and the person information generation unit 113.

類似姿勢画像グループ生成部112は、追跡終了人物の時系列人物像をグループ内での時間的な連続性の要件を満たしつつ、ステップS12で抽出された形状特徴量に基づいてクラスタリングして類似姿勢画像グループを生成し、グループごとのフレーム番号リストを人物情報生成部113に出力する(ステップS15)。すなわち、類似姿勢画像グループ生成部112は時系列人物像を当該人物像の画像特徴に所定の類似性がある連続フレームからなるグループに分割する。   The similar posture image group generation unit 112 performs clustering on the time-series human images of the tracking-completed persons based on the shape feature amount extracted in step S12 while satisfying the temporal continuity requirement in the group. An image group is generated, and a frame number list for each group is output to the person information generation unit 113 (step S15). That is, the similar posture image group generation unit 112 divides the time-series human image into groups including continuous frames in which the image feature of the human image has a predetermined similarity.

図4は類似姿勢画像グループ生成部112の処理の一例を示す説明図である。類似姿勢画像グループ生成部112は人物追跡部110が生成した時系列人物像131を連続性拘束時間T秒間隔で分割し、分割時系列画像130(130a,130b,130c)を定義する。類似姿勢画像グループ生成部112は各分割時系列画像130内の人物像132を形状特徴量が類似し、かつ時間的に連続したフレームのグループ(フレームグループ)に分割する。例えば、分割時系列画像130a内の人物像132-1〜132-3は形状特徴量が類似しており1つのフレームグループ133-1とされる。分割時系列画像130b内の人物像132-4〜132-7のうち人物像132-4,132-5,132-7は形状特徴量が類似している。それらのうち人物像132-4,132-5はフレーム番号が連続しておりフレームグループ133-2とされるが、人物像132-7は人物像132-4,132-5とはフレーム番号が連続していないので別のフレームグループ133-3とされる。なお、人物像133-6はフレーム番号が隣接する両側の人物像と形状特徴量が類似しないので単独でフレームグループ133-4を形成する。人物像132-7〜132-9は形状特徴量が類似しかつフレーム番号が連続するが、人物像132-7と人物像132-8,132-9との間で連続性拘束時間Tにより分割されるため1つのフレームグループとはされず、別々のフレームグループ133-3,133-5に分割される。 FIG. 4 is an explanatory diagram illustrating an example of processing of the similar posture image group generation unit 112. The series person image 131 when similar posture image group generating section 112 for person tracking unit 110 generates divided by continuous duty time T C seconds interval, divided time-series images 130 (130a, 130b, 130c) defines a. The similar orientation image group generation unit 112 divides the human image 132 in each divided time-series image 130 into groups of frames (frame groups) having similar shape feature amounts and temporally continuous. For example, the person images 132-1 to 132-3 in the divided time-series image 130a have similar shape feature amounts, and form one frame group 133-1. Of the human images 132-4 to 132-7 in the divided time series image 130b, the human images 132-4, 132-5, and 132-7 have similar shape feature amounts. Among them, the person images 132-4 and 132-5 have consecutive frame numbers and are set as a frame group 133-2. The person image 132-7 has a frame number different from the person images 132-4 and 132-5. Since it is not continuous, it is set as another frame group 133-3. Since the person image 133-6 is not similar in shape feature quantity to the person images on both sides with adjacent frame numbers, the frame group 133-4 is formed alone. Figures 132-7~132-9 is shape feature is similar and frame numbers are consecutive, the continuity constraint time T C between the figures 132-7 and figures 132-8,132-9 Since it is divided, it is not made into one frame group, but is divided into separate frame groups 133-3 and 133-5.

人物情報生成部113は、ステップS15にて生成された追跡終了人物の各類似姿勢画像グループごとに、そのグループを構成する人物像のアピアランス特徴量を平均して代表アピアランス特徴量を生成する(ステップS16)。そして、人物情報生成部113はステップS10〜S12で求められた追跡終了人物の人物ID、当該人物の時系列人物像とその各フレーム番号、及び当該各人物像の形状特徴量に、ステップS15で生成した類似姿勢画像グループの情報及びステップS16で生成した代表アピアランス特徴量を加えた、追跡終了人物の人物情報120を生成して記憶部12に格納する(ステップS17)。追跡終了人物の人物情報120を生成すると、信号処理部11は処理をステップS10へ戻し次のフレームの処理に移る。   The person information generation unit 113 generates a representative appearance feature amount by averaging the appearance feature amounts of the person images constituting the group for each similar posture image group of the tracking-finished person generated in step S15 (step S15). S16). In step S15, the person information generation unit 113 uses the person ID of the tracking end person obtained in steps S10 to S12, the time-series person image of the person and each frame number, and the shape feature amount of each person image in step S15. The person information 120 of the tracking end person is generated by adding the information of the generated similar posture image group and the representative appearance feature value generated in step S16, and is stored in the storage unit 12 (step S17). When the person information 120 of the tracking end person is generated, the signal processing unit 11 returns the process to step S10 and proceeds to the process of the next frame.

[人物同定装置2の動作]
図5は人物同定装置2の動作を説明する概略のフロー図である。
[Operation of Person Identification Device 2]
FIG. 5 is a schematic flowchart for explaining the operation of the person identification device 2.

ユーザは入力部20を操作して、カメラAの時系列画像に写っている人物の1人をクエリ人物として選択し(ステップS20)、また、対応付けを行いたいカメラとしてカメラBを選択する(ステップS21)。カメラBの選択は当該カメラの時系列画像に写っている全人物をDB人物として選択することに相当する。   The user operates the input unit 20 to select one of the persons shown in the time-series image of the camera A as a query person (step S20), and selects the camera B as a camera to be associated ( Step S21). The selection of the camera B is equivalent to selecting all persons shown in the time-series image of the camera as DB persons.

人物情報取得部210はステップS20で指定されたクエリ人物の人物情報220Aを記憶部22から読み込む(ステップS22)。   The person information acquisition unit 210 reads the person information 220A of the query person specified in step S20 from the storage unit 22 (step S22).

続くステップS23〜S28のループ処理ではクエリ人物と全DB人物との人物間類似度を算出する。   In the subsequent loop processing of steps S23 to S28, the person similarity between the query person and all DB persons is calculated.

人物情報取得部210は、各DB人物の人物情報220Bを記憶部22から順次読み込む(ステップS23)。そして、類似姿勢画像グループ選択部211はクエリ人物の各類似姿勢画像グループの形状特徴量と、ステップS23で読み込んだDB人物の各類似姿勢画像グループの形状特徴量とを比較して、形状特徴量が最も類似する類似姿勢画像グループのペアを選出する(ステップS24)。   The person information acquisition unit 210 sequentially reads the person information 220B of each DB person from the storage unit 22 (step S23). Then, the similar posture image group selection unit 211 compares the shape feature amount of each similar posture image group of the query person with the shape feature amount of each similar posture image group of the DB person read in step S23, and the shape feature amount. A pair of similar posture image groups with the most similar is selected (step S24).

色変換部212は、ステップS24で選出されたペアを構成するクエリ人物の類似姿勢画像グループ及びDB人物の類似姿勢画像グループそれぞれの累積色ヒストグラムを算出し(ステップS25)、クエリ人物の類似姿勢画像グループの累積色ヒストグラムをDB人物の類似姿勢画像グループの累積色ヒストグラムに近似させる色変換処理をクエリ人物の当該類似姿勢画像グループを構成する各人物像に対して施す(ステップS26)。   The color conversion unit 212 calculates a cumulative color histogram of each of the similar posture image group of the query person and the similar posture image group of the DB person constituting the pair selected in step S24 (step S25), and the similar posture image of the query person. A color conversion process for approximating the accumulated color histogram of the group to the accumulated color histogram of the similar posture image group of the DB person is performed on each person image constituting the similar posture image group of the query person (step S26).

人物間類似度算出部213は、ステップS26にて色変換したクエリ人物の類似姿勢画像グループから代表アピアランス特徴量を抽出し、当該代表アピアランス特徴量と、DB人物について選出された類似姿勢画像グループの代表アピアランス特徴量との類似度をクエリ人物とDB人物との人物間類似度として算出する(ステップS27)。   The person-to-person similarity calculation unit 213 extracts a representative appearance feature value from the similar posture image group of the query person that has undergone color conversion in step S26, and the representative appearance feature value and the similar posture image group selected for the DB person. The similarity with the representative appearance feature value is calculated as the similarity between the query person and the DB person (step S27).

人物間類似度算出部213は、ステップS21で指定した全DB人物に対して人物間類似度を算出したか否かを確認する(ステップS28)。全てについて算出していなければ(ステップS28でNO判定)、未算出のDB人物に対してステップS23〜S27の処理を繰り返す。一方、全DB人物について人物間類似度を算出していれば(ステップS28でYES判定)ステップS29に処理を進める。   The person similarity calculation unit 213 checks whether or not the person similarity is calculated for all DB persons specified in step S21 (step S28). If not calculated for all (NO determination in step S28), the processes in steps S23 to S27 are repeated for the uncalculated DB person. On the other hand, if the inter-person similarity is calculated for all DB persons (YES in step S28), the process proceeds to step S29.

照合結果生成部214は、ステップS23〜S28のループ処理により各DB人物について算出した人物間類似度の中から最大の人物間類似度を選出して同定閾値と比較し、最大の人物間類似度が同定閾値以上であれば(ステップS29にてYES判定)、当該人物間類似度が算出されたDB人物をクエリ人物と同一人物であると判定してこれらの人物の人物情報を出力部23に出力する(ステップS30)。   The matching result generation unit 214 selects the maximum person similarity from among the person similarities calculated for each DB person by the loop processing in steps S23 to S28, compares the person similarity with the identification threshold, and determines the maximum person similarity. Is equal to or greater than the identification threshold (YES in step S29), the DB person whose inter-person similarity is calculated is determined to be the same person as the query person, and the person information of these persons is output to the output unit 23. Output (step S30).

なお最大の人物間類似度が同定閾値未満の場合(ステップS29にてNO判定)、照合結果生成部214はクエリ人物に該当するDB人物が検出されなかった旨を出力部23に出力してステップS30を省略する。   If the maximum similarity between persons is less than the identification threshold (NO determination in step S29), the matching result generation unit 214 outputs to the output unit 23 that the DB person corresponding to the query person has not been detected. S30 is omitted.

出力部23は照合結果生成部214から入力された同一人物の人物情報若しくは該当人物無しの情報を同定処理結果としてディスプレイ等に出力し(ステップS31)、処理を終了する。   The output unit 23 outputs the person information of the same person or the information of no corresponding person input from the collation result generation unit 214 to the display or the like as the identification process result (step S31), and ends the process.

[変形例]
(1)上記実施形態では、時系列画像を連続性拘束時間T秒間隔で分割時系列画像に分割した後、当該分割時系列画像内で類似姿勢グループを定義した。一方、時系列画像内でまず姿勢が類似しかつフレームが連続する人物像のグループを見つけ、それを類似姿勢グループとして定義することもできる。この場合、類似姿勢のフレームの連続数が多くなるとそのフレーム群内での照明変動の幅も大きくなり、人物像の画像特徴が鈍化し得る。これに対応して、上記実施形態と同様、連続性拘束時間Tを導入し、類似姿勢の連続時間がTを超えるグループについては、例えばTごとに分割して分割後のグループをそれぞれ類似姿勢グループとすることができる。
[Modification]
(1) In the above embodiment, when after the image sequence is divided into the divided time-series images in continuity duty time T C seconds intervals to define a similar orientation group in the divided time-series image. On the other hand, it is also possible to first find a group of human images having similar postures and continuous frames in a time series image and define it as a similar posture group. In this case, if the number of consecutive frames with similar postures increases, the width of the illumination variation within the frame group also increases, and the image characteristics of the human image can be dull. Correspondingly, as in the above embodiment, by introducing a continuous duty time T C, for successive groups time similar orientation exceeds T C, the group after the division by dividing each example T C, respectively Similar posture groups can be used.

(2)上記実施形態において類似姿勢画像グループ生成部112は形状特徴量が類似する連続フレームを生成した。別の実施形態において類似姿勢画像グループ生成部112は形状特徴量とアピアランス特徴量とが類似する連続フレームを生成する。この場合、例えば、類似姿勢画像グループ生成部112は、分割時系列画像内の時間的に隣り合う人物画像間で形状特徴量の類似度に加えてアピアランス特徴量の類似度を求め、これらを予め設定した重みで重み付け加算した類似度を基にクラスタリングして類似姿勢画像グループを生成する。また例えば、類似姿勢画像グループ生成部112は、分割時系列画像を形状特徴量に基づいてクラスタリングした後に、クラスタリング結果をアピアランス特徴量に基づいてさらにクラスタリングして類似姿勢画像グループを生成する。   (2) In the above embodiment, the similar posture image group generation unit 112 generates continuous frames having similar shape feature amounts. In another embodiment, the similar posture image group generation unit 112 generates a continuous frame in which the shape feature value and the appearance feature value are similar. In this case, for example, the similar posture image group generation unit 112 obtains the similarity of the appearance feature amount in addition to the similarity of the shape feature amount between temporally adjacent human images in the divided time series image, and obtains these in advance. A similar posture image group is generated by clustering based on the similarity obtained by weighted addition with the set weight. Further, for example, the similar posture image group generation unit 112 clusters the divided time series images based on the shape feature amount, and further clusters the clustering results based on the appearance feature amount to generate a similar posture image group.

1 人物情報生成装置、2 人物同定装置、10,20 入力部、11,21 信号処理部、12,22 記憶部、23 出力部、110 人物追跡部、111 人物特徴抽出部、112 類似姿勢画像グループ生成部、113 人物情報生成部、210 人物情報取得部、211 類似姿勢画像グループ選択部、212 色変換部、213 人物間類似度算出部、214 照合結果生成部。   DESCRIPTION OF SYMBOLS 1 Person information generation apparatus, 2 Person identification apparatus, 10,20 Input part, 11,21 Signal processing part, 12,22 Storage part, 23 Output part, 110 Person tracking part, 111 Person feature extraction part, 112 Similar posture image group Generation unit, 113 person information generation unit, 210 person information acquisition unit, 211 similar posture image group selection unit, 212 color conversion unit, 213 interperson similarity calculation unit, 214 collation result generation unit

Claims (3)

それぞれに移動物体が撮像された複数の時系列物体像が同一移動物体のものであるか照合する移動物体照合装置であって、
前記時系列物体像を前記移動物体の画像特徴が互いに類似する連続フレームに分割する連続フレーム生成部と、
前記連続フレームを構成する複数のフレームにおける前記移動物体の輝度特徴を代表する代表特徴を算出する代表特徴算出部と、
前記複数の時系列物体像同士を前記連続フレームごとに前記代表特徴について照合し、照合一致した前記連続フレームを含んでいる前記時系列物体像同士を同一移動物体のものと判定する照合部と、
を備えたことを特徴とする移動物体照合装置。
A moving object collating device for collating whether or not a plurality of time-series object images each having a moving object imaged are of the same moving object,
A continuous frame generation unit that divides the time-series object image into continuous frames in which image characteristics of the moving object are similar to each other;
A representative feature calculator that calculates a representative feature representative of a luminance feature of the moving object in a plurality of frames constituting the continuous frame;
A collating unit that collates the plurality of time-series object images with respect to the representative feature for each continuous frame, and determines that the time-series object images including the continuous frames that have been collated and matched are those of the same moving object;
A moving object matching device comprising:
請求項1に記載の移動物体照合装置において、
前記代表特徴算出部は、前記連続フレームを構成する複数のフレームにおける前記移動物体の輝度特徴を平均して前記代表特徴を算出すること、を特徴とする移動物体照合装置。
The moving object matching device according to claim 1,
The said representative feature calculation part calculates the said representative feature by averaging the luminance feature of the said moving object in the some flame | frame which comprises the said continuous frame, The moving object collation apparatus characterized by the above-mentioned.
請求項1又は請求項2に記載の移動物体照合装置において、
前記照合部は、前記時系列物体像間で前記移動物体の形状特徴が最も類似する前記連続フレームを選択し、選択した前記連続フレームを照合すること、を特徴とする移動物体照合装置。
In the moving object collation device according to claim 1 or 2,
The said collating part selects the said continuous frame with which the shape characteristic of the said moving object is the most similar between the said time-sequential object images, and collates the selected said continuous frame, The moving object collation apparatus characterized by the above-mentioned.
JP2012080585A 2012-03-30 2012-03-30 Moving object collation device Pending JP2013210845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012080585A JP2013210845A (en) 2012-03-30 2012-03-30 Moving object collation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012080585A JP2013210845A (en) 2012-03-30 2012-03-30 Moving object collation device

Publications (1)

Publication Number Publication Date
JP2013210845A true JP2013210845A (en) 2013-10-10

Family

ID=49528616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012080585A Pending JP2013210845A (en) 2012-03-30 2012-03-30 Moving object collation device

Country Status (1)

Country Link
JP (1) JP2013210845A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018185992A1 (en) * 2017-04-05 2018-10-11 株式会社日立製作所 Biometric authentication device and method
RU2679730C1 (en) * 2016-09-20 2019-02-12 Тосиба Инфрастракче Системз Энд Солюшнз Корпорейшн Image matching system and method
JP2019023785A (en) * 2017-07-24 2019-02-14 富士ゼロックス株式会社 Person identification device and program
JP2019091138A (en) * 2017-11-13 2019-06-13 株式会社日立製作所 Image retrieving apparatus, image retrieving method, and setting screen used therefor
KR101972918B1 (en) * 2018-12-20 2019-08-20 주식회사 로민 Apparatus and method for masking a video
JP2020095757A (en) * 2020-03-23 2020-06-18 キヤノン株式会社 Information processing device, information processing method, and program
KR20200077370A (en) * 2019-04-22 2020-06-30 주식회사 로민 Apparatus and method for masking a video
JPWO2021220365A1 (en) * 2020-04-27 2021-11-04
US12020510B2 (en) 2018-12-28 2024-06-25 Nec Corporation Person authentication apparatus, control method, and non-transitory storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320400A (en) * 1997-05-16 1998-12-04 Hitachi Ltd Method and device for retrieving video
WO2001003005A1 (en) * 1999-06-30 2001-01-11 Sharp Kabushiki Kaisha Dynamic image search information recording apparatus and dynamic image searching device
WO2006025272A1 (en) * 2004-09-01 2006-03-09 Nec Corporation Video classification device, video classification program, video search device, and videos search program
JP2008035301A (en) * 2006-07-31 2008-02-14 Hitachi Ltd Mobile body tracing apparatus
JP2009538558A (en) * 2006-05-22 2009-11-05 アクシス アクチボラグ Method and apparatus for identifying characteristics of an object detected by a video surveillance camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320400A (en) * 1997-05-16 1998-12-04 Hitachi Ltd Method and device for retrieving video
WO2001003005A1 (en) * 1999-06-30 2001-01-11 Sharp Kabushiki Kaisha Dynamic image search information recording apparatus and dynamic image searching device
WO2006025272A1 (en) * 2004-09-01 2006-03-09 Nec Corporation Video classification device, video classification program, video search device, and videos search program
JP2009538558A (en) * 2006-05-22 2009-11-05 アクシス アクチボラグ Method and apparatus for identifying characteristics of an object detected by a video surveillance camera
JP2008035301A (en) * 2006-07-31 2008-02-14 Hitachi Ltd Mobile body tracing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016001504; 松原 大輔、外2名: '"大規模類似画像検索による疎分散カメラ環境における人物追跡 大規模データを対象とした類似画像検索技術' 画像ラボ Vol.22, No.11, 20111110, pp.39-46, 日本工業出版株式会社 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2679730C1 (en) * 2016-09-20 2019-02-12 Тосиба Инфрастракче Системз Энд Солюшнз Корпорейшн Image matching system and method
US10515457B2 (en) 2016-09-20 2019-12-24 Kabushiki Kaisha Toshiba Image collation system and image collation method
WO2018185992A1 (en) * 2017-04-05 2018-10-11 株式会社日立製作所 Biometric authentication device and method
JP2018180660A (en) * 2017-04-05 2018-11-15 株式会社日立製作所 Biometric authentication device and method
JP2019023785A (en) * 2017-07-24 2019-02-14 富士ゼロックス株式会社 Person identification device and program
JP2019091138A (en) * 2017-11-13 2019-06-13 株式会社日立製作所 Image retrieving apparatus, image retrieving method, and setting screen used therefor
CN109947975A (en) * 2017-11-13 2019-06-28 株式会社日立制作所 Image retrieving apparatus, image search method and its used in setting screen
CN109947975B (en) * 2017-11-13 2023-07-07 株式会社日立制作所 Image search device, image search method, and setting screen used therein
KR101972918B1 (en) * 2018-12-20 2019-08-20 주식회사 로민 Apparatus and method for masking a video
WO2020130309A1 (en) * 2018-12-20 2020-06-25 주식회사 로민 Image masking device and image masking method
US12020510B2 (en) 2018-12-28 2024-06-25 Nec Corporation Person authentication apparatus, control method, and non-transitory storage medium
KR20200077370A (en) * 2019-04-22 2020-06-30 주식회사 로민 Apparatus and method for masking a video
KR102167730B1 (en) * 2019-04-22 2020-10-20 주식회사 로민 Apparatus and method for masking a video
JP2020095757A (en) * 2020-03-23 2020-06-18 キヤノン株式会社 Information processing device, information processing method, and program
WO2021220365A1 (en) * 2020-04-27 2021-11-04 日本電気株式会社 Image classification apparatus, image classification method, and program
JP7375921B2 (en) 2020-04-27 2023-11-08 日本電気株式会社 Image classification device, image classification method, and program
JPWO2021220365A1 (en) * 2020-04-27 2021-11-04

Similar Documents

Publication Publication Date Title
JP2013210845A (en) Moving object collation device
JP5925557B2 (en) Image matching device
CA3077830C (en) System and method for appearance search
US10049293B2 (en) Pixel-level based micro-feature extraction
US7489803B2 (en) Object detection
CN102087702B (en) Image processing device, image processing method
US8891880B2 (en) Person clothing feature extraction device, person search device, and processing method thereof
US7421149B2 (en) Object detection
JP5567853B2 (en) Image recognition apparatus and method
US7522772B2 (en) Object detection
US11527000B2 (en) System and method for re-identifying target object based on location information of CCTV and movement information of object
US20090290791A1 (en) Automatic tracking of people and bodies in video
JP6557592B2 (en) Video scene division apparatus and video scene division program
KR101139930B1 (en) Apparatus and method for object recognition based on part-template matching
JP5940862B2 (en) Image processing device
US12087040B2 (en) Information processing device, information processing method, and program recording medium
US20050128306A1 (en) Object detection
US20050129277A1 (en) Object detection
JP4969291B2 (en) Moving object tracking device
US11841902B2 (en) Information processing apparatus, information processing method, and storage medium
JP2010039580A (en) Traveling object tracking device
JP2014110020A (en) Image processor, image processing method and image processing program
US11716448B2 (en) Information processing apparatus, information processing method, and storage medium
TWI695326B (en) Object attribute analyzing method and related object attribute analyzing device
JP3498875B2 (en) Video processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160412