JP2013210845A - Moving object collation device - Google Patents
Moving object collation device Download PDFInfo
- Publication number
- JP2013210845A JP2013210845A JP2012080585A JP2012080585A JP2013210845A JP 2013210845 A JP2013210845 A JP 2013210845A JP 2012080585 A JP2012080585 A JP 2012080585A JP 2012080585 A JP2012080585 A JP 2012080585A JP 2013210845 A JP2013210845 A JP 2013210845A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- moving object
- unit
- similar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、それぞれに移動物体が撮像された時系列画像が同一移動物体のものであるか照合する移動物体照合装置に関する。 The present invention relates to a moving object collation apparatus that collates whether time-series images each captured of a moving object are of the same moving object.
不審人物の足跡を追う目的等で、異なる場所に設置された監視カメラにて撮像した映像から同一人物の映像を検索することを要求される場合がある。例えば、建物2階の映像で確認された不審人物がいつ入館したかを特定するために、当該建物入口の映像を検索することが要求される。 For the purpose of following the footsteps of a suspicious person, it may be required to search for an image of the same person from images captured by surveillance cameras installed in different places. For example, in order to specify when a suspicious person confirmed in the video on the second floor of the building has entered the building, it is required to search for the video at the entrance of the building.
移動物体を追跡する画像処理技術によれば、人物位置の連続性を利用して同一人物が映った時系列画像を検出することができる。しかし、監視カメラは設置コスト等の理由から離散的に設置されることが多く、離れた監視カメラの間では人物位置の連続性が利用困難となる。そのため異なる監視カメラで追跡した人物の時系列画像を服装などの見かけ(アピアランス)の特徴で照合することになる。 According to the image processing technique for tracking a moving object, it is possible to detect a time-series image in which the same person is shown using the continuity of person positions. However, surveillance cameras are often installed discretely for reasons such as installation costs, and it is difficult to use the continuity of person positions between remote surveillance cameras. For this reason, time-series images of people tracked by different surveillance cameras are collated with appearance features such as clothes.
異なる監視カメラで撮像された人物の照合を行う場合、場所による照明条件の違いが本人不一致や他人一致の要因となる。このような照明条件の問題は、監視カメラの視野から一旦外れた人物が同一監視カメラの視野に再登場する場合にも生じる。そのため、従来、人物を検出した位置を、検出した人物領域画像と対応付けて記憶し、位置と人物領域画像が共に類似する人物を検索することで候補を限定して誤った検索を防止していた。 When collating a person imaged by different surveillance cameras, the difference in lighting conditions depending on the location becomes a cause of identity mismatch or identity match. Such a problem of illumination conditions also occurs when a person who has once deviated from the field of view of the surveillance camera reappears in the field of view of the same surveillance camera. For this reason, conventionally, a position where a person is detected is stored in association with the detected person area image, and a person whose position and person area image are both similar is searched to limit candidates and prevent erroneous search. It was.
しかしながら、人物の検出位置を検索条件にすると候補とならない本人画像が多数となり、十分な検索を行えない問題があった。すなわち、従来技術では追跡により同一人物のものと特定されている複数フレームの時系列画像を有効活用できない問題があった。また、1フレーム同士の照合は、人物領域抽出の誤差により混入する背景画像などのノイズの影響や人物の姿勢や向きの変動により生じる本人変動の影響を受けやすいため、誤った検索の要因となっていた。 However, if the person detection position is used as a search condition, there are a large number of person images that cannot be candidates, and there is a problem that a sufficient search cannot be performed. In other words, the conventional technology has a problem that it is not possible to effectively use a plurality of frames of time-series images that are identified by tracking as those of the same person. In addition, matching between frames is likely to be an erroneous search factor because it is easily influenced by the influence of noise such as background images mixed due to errors in human region extraction and the fluctuation of the person caused by fluctuations in the posture and orientation of the person. It was.
ノイズや本人変動の影響を抑制するには複数フレームを平均化するなどの処理が好適である。ところが、照明条件は時間や場所によって変動し、人物の向きや姿勢は時々刻々と変動するため、時系列画像には照明条件や人物の姿勢や向きが異なるフレームが混ざっている。そのため、時系列画像の複数フレームを不用意に平均化すると色などの特徴が鈍化し、照合精度が低下する問題があった。 A process such as averaging a plurality of frames is suitable for suppressing the influence of noise and personal fluctuation. However, the lighting conditions vary depending on the time and place, and the direction and posture of the person change from moment to moment. Therefore, frames having different lighting conditions and postures and directions are mixed in the time-series image. For this reason, if a plurality of frames of a time-series image are inadvertently averaged, characteristics such as color are dulled, and collation accuracy is lowered.
本発明は上記課題を鑑みてなされたものであり、移動物体の姿勢・向きの変動や照明変動が含まれ得る時系列画像を有効活用して高精度に移動物体を照合できる移動物体照合装置を提供することを目的とする。 The present invention has been made in view of the above problems, and provides a moving object collation apparatus capable of collating a moving object with high accuracy by effectively using a time-series image that can include fluctuations in posture and orientation of a moving object and illumination fluctuations. The purpose is to provide.
本発明に係る移動物体照合装置は、それぞれに移動物体が撮像された複数の時系列物体像が同一移動物体のものであるか照合するものであって、前記時系列物体像を、前記移動物体の画像特徴が互いに類似する連続フレームに分割する連続フレーム生成部と、前記連続フレームを構成する複数のフレームにおける前記移動物体の輝度特徴を代表する代表特徴を算出する代表特徴算出部と、前記複数の時系列物体像同士を前記連続フレームごとに前記代表特徴について照合し、照合一致した前記連続フレームを含んでいる前記時系列物体像同士を同一移動物体のものと判定する照合部と、を備える。 The moving object collation device according to the present invention is for collating whether or not a plurality of time-series object images each captured of a moving object are of the same moving object, the time-series object image being the moving object A continuous frame generation unit that divides the image features into continuous frames that are similar to each other, a representative feature calculation unit that calculates a representative feature that represents a luminance feature of the moving object in a plurality of frames constituting the continuous frame, and the plurality A collating unit that collates the time-series object images of the representative features for each successive frame and determines that the time-series object images including the consecutive frames that have been matched for matching are those of the same moving object. .
他の本発明に係る移動物体照合装置においては、前記代表特徴算出部は、前記連続フレームを構成する複数のフレームにおける前記移動物体の輝度特徴を平均して前記代表特徴を算出する。 In the moving object collation apparatus according to another aspect of the present invention, the representative feature calculation unit calculates the representative feature by averaging the luminance features of the moving object in a plurality of frames constituting the continuous frame.
別の本発明に係る移動物体照合装置においては、前記照合部は、前記時系列物体像間で前記移動物体の形状特徴が最も類似する前記連続フレームを選択し、選択した前記連続フレームを照合する。 In the moving object matching device according to another aspect of the invention, the matching unit selects the continuous frames having the most similar shape characteristics of the moving object between the time-series object images, and matches the selected consecutive frames. .
本発明によれば、時系列画像を移動物体の向きや姿勢及び照明条件の揃った連続フレームに分割して照合することで姿勢・向きの変動や照明変動を抑制しつつ移動物体の輝度特徴の鈍化を防止でき照合精度の向上が図れる。 According to the present invention, the luminance characteristics of a moving object can be reduced while suppressing fluctuations in posture / direction and fluctuations in illumination by dividing and collating time-series images into continuous frames having the same orientation, attitude, and illumination conditions. Slowdown can be prevented and collation accuracy can be improved.
以下、本発明の実施の形態(以下実施形態という)である人物同定・検索システムについて、図面に基づいて説明する。当該人物同定・検索システムは人物を対象物体とし、画像に写る移動物体の複数フレームに亘る時系列物体像を照合する機能を有する。人物同定・検索システムは、人物情報生成装置1と人物同定装置2とから構成される。人物情報生成装置1は複数の監視カメラそれぞれによって異なる撮像領域を撮影した複数フレームの画像(時系列画像)から、各撮像領域に現れた人物の画像情報(人物情報)を人物ごとに生成する。この人物情報には背景から分離された人物像が含まれる。人物同定装置2は、人物情報生成装置1が生成した人物情報の間で人物像の照合を行って同一人物の人物情報を検出する。人物同定・検索システムは、この人物像の照合によって、複数の撮像領域に亘って移動する人物の横断的検索を可能にする。以下、人物情報生成装置1及び人物同定装置2をそれぞれ説明する。
Hereinafter, a person identification / search system according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings. The person identification / retrieval system has a function of collating time-series object images over a plurality of frames of a moving object shown in an image with a person as a target object. The person identification / retrieval system includes a person information generation device 1 and a
[人物情報生成装置1の構成]
図1は人物情報生成装置1の概略の構成を示すブロック図である。人物情報生成装置1は入力部10、信号処理部11及び記憶部12から構成される。
[Configuration of Person Information Generating Device 1]
FIG. 1 is a block diagram showing a schematic configuration of the person information generating apparatus 1. The person information generation apparatus 1 includes an
入力部10は時系列画像を出力する複数の監視カメラ、又は各監視カメラにより撮影済みの時系列画像を記録したDVR(Digital Video Recorder)などの映像記録装置であり、信号処理部11に接続される。
The
信号処理部11はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、入力部10及び記憶部12に接続される。信号処理部11は記憶部12からプログラムを読み出して実行し、人物追跡部110、人物特徴抽出部111、類似姿勢画像グループ生成部112及び人物情報生成部113等として機能する。
The signal processing unit 11 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and is connected to the
人物追跡部110は入力部10から監視カメラごとの時系列画像を取得し、人物追跡処理により当該時系列画像上に現れた各人物の人物像の時系列(時系列人物像)を生成し、人物特徴抽出部111に出力する。具体的には、人物追跡部110は背景差分処理等により時系列画像の各フレームから人物像を抽出し、パターンマッチング等によりフレーム間で同一人物の人物像を対応付けることで時系列人物像を生成する。なお、各人物像のデータの受け渡しは、当該人物像が存在するフレームを識別するフレーム番号と、当該フレームにおける人物の領域を表現する2値のマスク画像を受け渡すことで行う。
The
人物特徴抽出部111は人物追跡部110が生成した各人物像からアピアランス特徴量と形状特徴量とを抽出して、抽出した特徴量を類似姿勢画像グループ生成部112と人物情報生成部113に出力する。
The person feature extraction unit 111 extracts appearance feature values and shape feature values from each person image generated by the
アピアランス特徴量は人物の見かけの特徴量であり、具体的には人物像の輝度特徴量である。人物特徴抽出部111はアピアランス特徴量として各人物像のRGBカラーヒストグラムを抽出する。これは人物を服や肌などの色により特徴付ける色特徴量である。RGBカラーヒストグラムに代えてHSVカラーヒストグラムを抽出してもよい。または、人物特徴抽出部111はアピアランス特徴量として各人物像の輝度勾配ヒストグラムを抽出する。これは人物を服の模様などにより特徴付けるテクスチャ特徴量である。アピアランス特徴量として各人物像の色特徴量とテクスチャ特徴量の両方を抽出することもできるし、その他の各種の輝度特徴量を加えることもできる。 The appearance feature amount is an apparent feature amount of a person, and specifically, a luminance feature amount of a person image. The person feature extraction unit 111 extracts an RGB color histogram of each person image as an appearance feature value. This is a color feature amount that characterizes a person with colors such as clothes and skin. An HSV color histogram may be extracted instead of the RGB color histogram. Alternatively, the person feature extraction unit 111 extracts a luminance gradient histogram of each person image as the appearance feature value. This is a texture feature amount that characterizes a person by a clothing pattern or the like. As the appearance feature amount, both the color feature amount and the texture feature amount of each person image can be extracted, and various other luminance feature amounts can be added.
形状特徴量は人物の姿勢や向きを特徴付ける特徴量であり、シェイプコンテキスト(ShapeContext)を用いる。別の実施形態では形状特徴量としてエッジ方向ヒストグラムを用いることができる。 The shape feature amount is a feature amount that characterizes the posture and orientation of a person, and uses a shape context. In another embodiment, an edge direction histogram can be used as the shape feature amount.
類似姿勢画像グループ生成部112(連続フレーム生成部)は人物追跡部110で生成した各時系列人物像を人物特徴抽出部111で抽出した形状特徴量が類似する連続フレームの人物像同士からなる類似姿勢画像グループに分けて、グループ生成の結果を人物情報生成部113に出力する。当該グルーピングによって生成する類似姿勢画像グループは姿勢や向きが揃った人物像の集まりとなる。姿勢や向きが揃ったグループ内での平均化を行っても姿勢や向きの変動による移動物体の画像特徴の鈍化は少ないため、その画像特徴を用いた照合において精度の低下を抑制することが可能となる。また、当該グルーピングに際しては時間の連続性を考慮している。例えば、類似姿勢画像グルーピングの連続性拘束時間をTC(秒)に設定した場合、時系列人物像を追跡開始フレームt0からTC秒間隔で分割し、当該分割で生成される各分割時系列画像内で類似姿勢画像にグルーピングする。連続性拘束時間TCの大きさは例えば2〜5秒程度の範囲で、各分割時系列画像内に含まれるフレーム数に応じて設定することができる。類似姿勢画像のグループ生成においてグループに含まれる画像の時系列の連続性を要件とすることで、人物の姿勢が似ていたとしても、時間的に離れた画像は別のグループに分類されるため、追跡を行う時系列画像中で照明変動が発生してもグループ内での照明変動の大きさを小さくすることができる。よって、グループ内での平均化を行っても移動物体の画像特徴の照明変動による鈍化は少ないため、得られた画像特徴を用いた照合においてその精度の低下を抑制することが可能になる。
The similar posture image group generation unit 112 (continuous frame generation unit) is a similarity composed of human images of continuous frames having similar shape feature amounts extracted by the human feature extraction unit 111 from each time-series human image generated by the
以下では類似姿勢画像のグルーピング手法について説明する。 Hereinafter, a grouping method for similar posture images will be described.
まず、類似姿勢画像グループ生成部112は、各分割時系列画像において時間的に隣り合う人物像間で人物像の形状特徴量の類似度を求める。類似度は動的計画(Dynamic Programming)法などのマッチング手法を用いて求めることができる。次に、類似姿勢画像グループ生成部112は、求めた類似度に平均シフト(MeanShift)法やクイックシフト(QuickShift)法等のクラスタリング手法を適用して、各分割時系列画像の人物像をクラスタリングすることにより類似姿勢画像グループを生成する。
First, the similar posture image
人物情報生成部113(代表特徴算出部)は、類似姿勢画像グループ生成部112で生成した類似姿勢画像グループごとに当該グループを構成する人物像のアピアランス特徴量を代表する代表アピアランス特徴量を算出し、またマスク画像とフレーム番号と時系列画像を基に人物像を切り出し、時系列人物像ごとに人物IDと各類似姿勢画像グループのフレーム番号リストとフレーム番号ごとの人物像及び形状特徴量と各類似姿勢画像グループの代表アピアランス特徴量とを対応付けた人物情報120を記憶部12に記憶させる。
The person information generation unit 113 (representative feature calculation unit) calculates, for each similar posture image group generated by the similar posture image
人物情報生成部113は各類似姿勢画像グループの人物像のアピアランス特徴量を平均して代表アピアランス特徴量を算出する。平均に用いる人物像は全部としてもよいが、平均値に近い規定数の人物像を用いてもよい。これに代えて各類似姿勢画像グループの人物像のアピアランス特徴量の平均値に最も近いアピアランス特徴量を代表アピアランス特徴量とすることもでき、または、類似姿勢画像グループ生成部112でのクラスタリング結果を参照して各類似姿勢画像グループのクラスタ中心に対応するアピアランス特徴量を代表アピアランス特徴量とすることもできる。また、人物情報生成部113は形状特徴量についてもアピアランス特徴量と同様にして各類似姿勢画像グループの代表形状特徴量を生成してもよい。
The person
記憶部12は例えば、ハードディスクドライブ(Hard disk drive:HDD)、RAM(Random Access Memory)等の記憶装置からなり、人物情報生成部113で生成された人物情報120を格納する他、計算用の一時記憶領域(図示せず)として信号処理部11により利用される。また、記憶部12は信号処理部11で用いられる各種プログラムや各種データを記憶し、信号処理部11との間でこれらの情報を入出力する。
The
[人物同定装置2の構成]
図2は人物同定装置2(照合部)の概略の構成を示すブロック図である。人物同定装置2は入力部20、信号処理部21、記憶部22及び出力部23から構成される。既に述べたように人物同定装置2は、人物情報生成装置1により作成された人物情報120を用いて同一人物を見つける同定処理を行う。本実施形態では、ユーザが或る監視カメラ(以下、カメラAとする)の時系列画像に現れた人物について検索を要求し、人物同定装置2が他の監視カメラ(以下、カメラBとする)で撮影された時系列画像から当該人物を検索するものとする。
[Configuration of Person Identification Device 2]
FIG. 2 is a block diagram showing a schematic configuration of the person identification device 2 (collation unit). The
入力部20はキーボードやマウスなどの入力装置であり、信号処理部21と接続され、ユーザが検索したい人物を選択したり、検索するデータベース(DB)を指定したりする時などに用いられる。
The
信号処理部21は信号処理部11と同様、CPU等の演算装置を用いて構成され、入力部20、記憶部22及び出力部23に接続される。信号処理部21は記憶部22からプログラムを読み出して実行し、人物情報取得部210、類似姿勢画像グループ選択部211、色変換部212、人物間類似度算出部213及び照合結果生成部214等として機能する。
Similar to the signal processing unit 11, the
人物情報取得部210は入力部20から検索要求された人物(以下、クエリ(query)人物と称する)の人物情報(人物情報220A)を記憶部22から読み込む。また、人物情報取得部210は入力部20から照合相手として監視カメラ単位で指定された複数の人物(以下、DB(database)人物と称する)の人物情報群(人物情報220B)を記憶部22から読み込む。そして、人物情報取得部210は検索対象や照合相手として指定された人物の人物情報220(220A,220B)を類似姿勢画像グループ選択部211へ出力する。
The person
類似姿勢画像グループ選択部211は、クエリ人物の人物情報に格納された類似姿勢画像グループと、各DB人物の人物情報に格納された類似姿勢画像グループとから、最も姿勢が類似する類似姿勢画像グループペアを選択する。類似姿勢画像グループ選択部211は選択した各類似姿勢画像グループを特定する情報を加えた人物情報を色変換部212へ出力する。
The similar posture image
類似姿勢画像グループペアの選択は、各類似姿勢画像グループの形状特徴量間の類似度を比較することで行う。類似姿勢画像グループ間の類似度は、人物情報生成装置1の類似姿勢画像グループ生成部112で用いた方法と同様に、動的計画法などのマッチング手法を用いて類似姿勢画像グループの形状特徴量を比較することで求めることができる。
The similar posture image group pair is selected by comparing the similarity between the shape feature amounts of the similar posture image groups. Similarity between similar posture image groups is determined by using a matching method such as dynamic programming in the same manner as the method used by the similar posture image
クエリ人物とDB人物の照合は類似姿勢画像グループペアを照合することにより行う。このように姿勢が類似した人物像を選択して照合を行うことで、人物の姿勢や向きの違いによる照合精度の低下を抑制することができる。 The query person and the DB person are collated by collating similar posture image group pairs. By selecting and comparing human images with similar postures in this way, it is possible to suppress a decrease in collation accuracy due to differences in human postures and orientations.
色変換部212は、クエリ人物の人物像とDB人物の人物像との間の照明条件の違いを吸収するために、類似姿勢画像グループ選択部211で選択された類似姿勢画像グループペア間で色変換処理を行って色変換した人物像を加えた人物情報を人物間類似度算出部213に出力する。色変換処理は、BTF(輝度変換関数:Brightness Transfer Function)により行う。
The
具体的には色変換部212はクエリ人物及びDB人物の人物像それぞれの累積色ヒストグラムを算出し、累積色ヒストグラムの一方の各色成分の輝度値(色輝度値)を変換して他方の近似となるように各色輝度値を変換する。各累積色ヒストグラムは類似姿勢画像グループを構成する複数フレームの人物像を用いて算出する。すなわち、一方の累積色ヒストグラムを色輝度値B1に対する関数H1(B1)、他方の累積色ヒストグラムを色輝度値B2に対する関数H2(B2)、及びBTFによる色輝度値B1の変換をf(B1)と表すと、色変換部212はH1(B1)がH2(f(B1))に一致するように関数fを定義する。色変換部212は各輝度値B2についての輝度値0〜B2までの累積頻度H2(B2)と、各輝度値B1についての輝度値0〜B1までの累積頻度H1(B1)を求めて、輝度値B1のそれぞれをH1(B1)=H2(B2)を満たす輝度値B2に置き換える変換f(B1)を行う。この変換は色成分ごとに行う。実際には輝度値も頻度も離散的であるため一般にH1(B1)=H2(B2)を完全に満たす変換は得られず、当該色変換は一方の累積色ヒストグラムを他方の累積色ヒストグラムに近似させる変換となる。ここでは、累積ヒストグラムの曲線(折れ線)が表す変化特性を積分特性と呼び、BTFにより当該特性を近似させることを、積分特性を合わせると表現する。
Specifically, the
色変換部212が行う色変換は背景を除いた人物像に対して行うため、背景の色分布の違いは色変換に影響しない。また、色変換部212が行う色変換は特定人物の人物像の積分特性に合わせ込む変換であり、上述のように輝度値の順序を変えない拘束条件を課した変換である。そのため、本来の色分布が異なる他人同士で積分特性を合わせようとしても拘束条件により合わせ込みきれず両者の色分布は類似したものとならない。しかし、本来の色分布が同じである本人同士で積分特性を合わせようとすれば拘束条件があっても合わせ込むことができ、照明条件が補正されて両者の色分布は類似したものとなる。
Since the color conversion performed by the
その結果、本人同士の照合と他人同士の照合との差を広げることができ、照合精度を向上させることができる。 As a result, it is possible to widen the difference between the collation between the principals and the collation between others, and the collation accuracy can be improved.
例えば、クエリ人物とDB人物とが同一ではあるが、照明条件の相違により両者の累積色ヒストグラムに違いが生じている場合には、積分特性を合わせるように色変換を行うと、両者の各色の色ヒストグラムはピークの位置及び相対的な大きさが似た類似した色ヒストグラムとなる。つまり、当該色変換により照明条件だけが上手く補正されて、両者の人物像の肌や服装の色が類似した色合いとなる。 For example, if the query person and the DB person are the same, but there is a difference between the accumulated color histograms due to the difference in the lighting conditions, if color conversion is performed so as to match the integral characteristics, The color histograms are similar color histograms having similar peak positions and relative sizes. In other words, only the illumination condition is successfully corrected by the color conversion, and the skin color of both person images and the color of clothes are similar.
一方、例えば、クエリ人物とDB人物の服装の色や肌の露出具合が異なる別人である場合には、積分特性を合わせるように色変換を行うと、両者の色ヒストグラムにおける各色のピーク同士の相対的な位置関係や相対的な強度の差異は残り、色変換された人物像は歪んだ色分布となる一方、照明条件の相違に対する補正も期待されない。 On the other hand, for example, when the query person and the DB person are different persons whose clothes colors and skin exposures are different, if color conversion is performed so as to match the integral characteristics, the relative peaks of the respective colors in the color histograms of the two are compared. The difference in the relative positional relationship and relative intensity remains, and the color-converted human image has a distorted color distribution, but no correction for the difference in illumination conditions is expected.
このように上述した色変換により、本人のときと他人のときとで色合わせの程度の差が開くため、照明条件を補正しつつ本人照合精度を向上させることができる。またこの色変換は人物の姿勢・向き及び照明条件を揃えた類似姿勢画像グループを単位として行うため、上記の差を広げる効果をより高めることができる。 As described above, the color conversion described above opens a difference in the degree of color matching between the person and the other person, so that the person matching accuracy can be improved while correcting the illumination condition. In addition, since this color conversion is performed in units of similar posture image groups in which the posture / direction and lighting conditions of the person are aligned, the effect of widening the difference can be further enhanced.
人物間類似度算出部213は、色変換部212が色変換を施したクエリ人物の人物像と、各DB人物の人物像との間の類似性(人物間類似度)を算出して、DB人物ごとの人物間類似度を照合結果生成部214に出力する。
The inter-person
人物間類似度はアピアランス特徴量の類似度として算出する。具体的には、人物間類似度算出部213は、類似姿勢画像グループペアの一方であるクエリ人物の類似姿勢画像グループを構成する色変換後の人物像から代表アピアランス特徴量を再抽出すると共に、類似姿勢画像グループペアの他方であるDB人物それぞれの類似姿勢画像グループを構成する物体像の代表アピアランス特徴量を人物情報から読み出して、クエリ人物の代表アピアランス特徴量と各DB人物の代表アピアランス特徴量との類似度を人物間類似度として算出する。アピアランス特徴量であるRGBヒストグラムの類似度はヒストグラムインターセクションを計算することで求めることができる。RGBヒストグラムに代えてHSVヒストグラム又は輝度勾配ヒストグラムを用いる場合もこれらのヒストグラムインターセクションを計算すればよい。また、複数種類の特徴量をアピアランス特徴量として用いる場合は、各特徴量の類似度を予め定めた重みで重み付け加算して人物間類似度とすることができる。
The similarity between persons is calculated as the similarity of appearance feature values. Specifically, the inter-person
照合結果生成部214は、DB人物のうち人物間類似度算出部213が算出した人物間類似度が予め設定した同定閾値以上かつ最大となる者をクエリ人物と同一の人物と判定してこれらの人物の人物情報220を出力部23に出力する。一方、同定閾値以上の人物間類似度を持つDB人物が存在しない場合は該当無しと判定してその旨を出力部23に出力する。
The collation
記憶部22は記憶部12と同様、HDD等の記憶装置からなり、人物情報220A,220Bを格納する他、計算用の一時記憶領域(図示せず)として信号処理部21により利用される。また、記憶部22は信号処理部21で用いられる各種プログラムや各種データを記憶し、信号処理部21との間でこれらの情報を入出力する。
Similar to the
ここで、人物情報220Aには、人物情報生成装置1がカメラAの時系列画像から生成した複数人物の人物情報が格納され、人物情報220Bには、人物情報生成装置1がカメラBの時系列画像から生成した複数人物の人物情報が格納される。なお、本実施形態ではカメラが2台の場合で説明しているが、カメラが2台より多い場合はカメラと同じ数の人物情報220が記憶部22に格納される。
Here, the
出力部23はディスプレイなどから構成される。出力部23は信号処理部21と接続され、照合結果生成部214で生成された結果を出力する。
The
なお、人物情報生成装置1及び人物同定装置2を一体の人物同定・検索システムとして構成する場合、信号処理部11及び信号処理部21は共通の演算装置で構成でき、また記憶部12及び記憶部22も共通の記憶装置で構成できる。
When the person information generation device 1 and the
[人物情報生成装置1の動作]
図3は人物情報生成装置1の動作を説明する概略のフロー図である。
[Operation of Person Information Generating Device 1]
FIG. 3 is a schematic flowchart for explaining the operation of the person information generating apparatus 1.
人物追跡部110は入力部10から入力された時系列画像の各画像に対し、背景差分処理を行って当該画像から背景の画素を除くことにより人物像を抽出し、そのマスク画像を生成する(ステップS10)。そして、人物追跡部110はステップS10で抽出した現フレームの人物像とその前フレームまでに抽出した人物像とのテンプレートマッチングを行って同一人物の人物像同士を対応付ける(ステップS11)。人物追跡部110は同一人物の人物像に共通の人物IDを付与し、また新規人物の人物像に新たな人物IDを付与する。人物追跡部110は現フレームのフレーム番号と現フレームで抽出した人物像のマスク画像とその人物IDを対応付けて記憶部12に追記する。
The
人物特徴抽出部111は人物追跡部110がステップS10で抽出した人物像から形状特徴量を抽出し、当該人物像と対応付けて記憶部12に追記する(ステップS12)。また、人物特徴抽出部111は当該人物像から、アピアランス特徴量を抽出し、当該人物像と対応付けて記憶部12に追記する(ステップS13)。
The person feature extraction unit 111 extracts a shape feature amount from the person image extracted by the
追跡を終了した人物が居る場合(ステップS14にてYESの場合)はステップS15に進み、そうでない場合(ステップS14でNOの場合)は新たに入力されるフレームに対してステップS10〜S13の処理を繰り返す。人物特徴抽出部111はステップS10〜S13で記録された追跡終了人物の画像情報をとりまとめて類似姿勢画像グループ生成部112と人物情報生成部113に出力する。
If there is a person who has finished tracking (YES in step S14), the process proceeds to step S15. If not (NO in step S14), the process in steps S10 to S13 is performed on a newly input frame. repeat. The person feature extracting unit 111 collects the image information of the tracking-completed person recorded in steps S <b> 10 to S <b> 13 and outputs it to the similar posture image
類似姿勢画像グループ生成部112は、追跡終了人物の時系列人物像をグループ内での時間的な連続性の要件を満たしつつ、ステップS12で抽出された形状特徴量に基づいてクラスタリングして類似姿勢画像グループを生成し、グループごとのフレーム番号リストを人物情報生成部113に出力する(ステップS15)。すなわち、類似姿勢画像グループ生成部112は時系列人物像を当該人物像の画像特徴に所定の類似性がある連続フレームからなるグループに分割する。
The similar posture image
図4は類似姿勢画像グループ生成部112の処理の一例を示す説明図である。類似姿勢画像グループ生成部112は人物追跡部110が生成した時系列人物像131を連続性拘束時間TC秒間隔で分割し、分割時系列画像130(130a,130b,130c)を定義する。類似姿勢画像グループ生成部112は各分割時系列画像130内の人物像132を形状特徴量が類似し、かつ時間的に連続したフレームのグループ(フレームグループ)に分割する。例えば、分割時系列画像130a内の人物像132-1〜132-3は形状特徴量が類似しており1つのフレームグループ133-1とされる。分割時系列画像130b内の人物像132-4〜132-7のうち人物像132-4,132-5,132-7は形状特徴量が類似している。それらのうち人物像132-4,132-5はフレーム番号が連続しておりフレームグループ133-2とされるが、人物像132-7は人物像132-4,132-5とはフレーム番号が連続していないので別のフレームグループ133-3とされる。なお、人物像133-6はフレーム番号が隣接する両側の人物像と形状特徴量が類似しないので単独でフレームグループ133-4を形成する。人物像132-7〜132-9は形状特徴量が類似しかつフレーム番号が連続するが、人物像132-7と人物像132-8,132-9との間で連続性拘束時間TCにより分割されるため1つのフレームグループとはされず、別々のフレームグループ133-3,133-5に分割される。
FIG. 4 is an explanatory diagram illustrating an example of processing of the similar posture image
人物情報生成部113は、ステップS15にて生成された追跡終了人物の各類似姿勢画像グループごとに、そのグループを構成する人物像のアピアランス特徴量を平均して代表アピアランス特徴量を生成する(ステップS16)。そして、人物情報生成部113はステップS10〜S12で求められた追跡終了人物の人物ID、当該人物の時系列人物像とその各フレーム番号、及び当該各人物像の形状特徴量に、ステップS15で生成した類似姿勢画像グループの情報及びステップS16で生成した代表アピアランス特徴量を加えた、追跡終了人物の人物情報120を生成して記憶部12に格納する(ステップS17)。追跡終了人物の人物情報120を生成すると、信号処理部11は処理をステップS10へ戻し次のフレームの処理に移る。
The person
[人物同定装置2の動作]
図5は人物同定装置2の動作を説明する概略のフロー図である。
[Operation of Person Identification Device 2]
FIG. 5 is a schematic flowchart for explaining the operation of the
ユーザは入力部20を操作して、カメラAの時系列画像に写っている人物の1人をクエリ人物として選択し(ステップS20)、また、対応付けを行いたいカメラとしてカメラBを選択する(ステップS21)。カメラBの選択は当該カメラの時系列画像に写っている全人物をDB人物として選択することに相当する。
The user operates the
人物情報取得部210はステップS20で指定されたクエリ人物の人物情報220Aを記憶部22から読み込む(ステップS22)。
The person
続くステップS23〜S28のループ処理ではクエリ人物と全DB人物との人物間類似度を算出する。 In the subsequent loop processing of steps S23 to S28, the person similarity between the query person and all DB persons is calculated.
人物情報取得部210は、各DB人物の人物情報220Bを記憶部22から順次読み込む(ステップS23)。そして、類似姿勢画像グループ選択部211はクエリ人物の各類似姿勢画像グループの形状特徴量と、ステップS23で読み込んだDB人物の各類似姿勢画像グループの形状特徴量とを比較して、形状特徴量が最も類似する類似姿勢画像グループのペアを選出する(ステップS24)。
The person
色変換部212は、ステップS24で選出されたペアを構成するクエリ人物の類似姿勢画像グループ及びDB人物の類似姿勢画像グループそれぞれの累積色ヒストグラムを算出し(ステップS25)、クエリ人物の類似姿勢画像グループの累積色ヒストグラムをDB人物の類似姿勢画像グループの累積色ヒストグラムに近似させる色変換処理をクエリ人物の当該類似姿勢画像グループを構成する各人物像に対して施す(ステップS26)。
The
人物間類似度算出部213は、ステップS26にて色変換したクエリ人物の類似姿勢画像グループから代表アピアランス特徴量を抽出し、当該代表アピアランス特徴量と、DB人物について選出された類似姿勢画像グループの代表アピアランス特徴量との類似度をクエリ人物とDB人物との人物間類似度として算出する(ステップS27)。
The person-to-person
人物間類似度算出部213は、ステップS21で指定した全DB人物に対して人物間類似度を算出したか否かを確認する(ステップS28)。全てについて算出していなければ(ステップS28でNO判定)、未算出のDB人物に対してステップS23〜S27の処理を繰り返す。一方、全DB人物について人物間類似度を算出していれば(ステップS28でYES判定)ステップS29に処理を進める。
The person
照合結果生成部214は、ステップS23〜S28のループ処理により各DB人物について算出した人物間類似度の中から最大の人物間類似度を選出して同定閾値と比較し、最大の人物間類似度が同定閾値以上であれば(ステップS29にてYES判定)、当該人物間類似度が算出されたDB人物をクエリ人物と同一人物であると判定してこれらの人物の人物情報を出力部23に出力する(ステップS30)。
The matching
なお最大の人物間類似度が同定閾値未満の場合(ステップS29にてNO判定)、照合結果生成部214はクエリ人物に該当するDB人物が検出されなかった旨を出力部23に出力してステップS30を省略する。
If the maximum similarity between persons is less than the identification threshold (NO determination in step S29), the matching
出力部23は照合結果生成部214から入力された同一人物の人物情報若しくは該当人物無しの情報を同定処理結果としてディスプレイ等に出力し(ステップS31)、処理を終了する。
The
[変形例]
(1)上記実施形態では、時系列画像を連続性拘束時間TC秒間隔で分割時系列画像に分割した後、当該分割時系列画像内で類似姿勢グループを定義した。一方、時系列画像内でまず姿勢が類似しかつフレームが連続する人物像のグループを見つけ、それを類似姿勢グループとして定義することもできる。この場合、類似姿勢のフレームの連続数が多くなるとそのフレーム群内での照明変動の幅も大きくなり、人物像の画像特徴が鈍化し得る。これに対応して、上記実施形態と同様、連続性拘束時間TCを導入し、類似姿勢の連続時間がTCを超えるグループについては、例えばTCごとに分割して分割後のグループをそれぞれ類似姿勢グループとすることができる。
[Modification]
(1) In the above embodiment, when after the image sequence is divided into the divided time-series images in continuity duty time T C seconds intervals to define a similar orientation group in the divided time-series image. On the other hand, it is also possible to first find a group of human images having similar postures and continuous frames in a time series image and define it as a similar posture group. In this case, if the number of consecutive frames with similar postures increases, the width of the illumination variation within the frame group also increases, and the image characteristics of the human image can be dull. Correspondingly, as in the above embodiment, by introducing a continuous duty time T C, for successive groups time similar orientation exceeds T C, the group after the division by dividing each example T C, respectively Similar posture groups can be used.
(2)上記実施形態において類似姿勢画像グループ生成部112は形状特徴量が類似する連続フレームを生成した。別の実施形態において類似姿勢画像グループ生成部112は形状特徴量とアピアランス特徴量とが類似する連続フレームを生成する。この場合、例えば、類似姿勢画像グループ生成部112は、分割時系列画像内の時間的に隣り合う人物画像間で形状特徴量の類似度に加えてアピアランス特徴量の類似度を求め、これらを予め設定した重みで重み付け加算した類似度を基にクラスタリングして類似姿勢画像グループを生成する。また例えば、類似姿勢画像グループ生成部112は、分割時系列画像を形状特徴量に基づいてクラスタリングした後に、クラスタリング結果をアピアランス特徴量に基づいてさらにクラスタリングして類似姿勢画像グループを生成する。
(2) In the above embodiment, the similar posture image
1 人物情報生成装置、2 人物同定装置、10,20 入力部、11,21 信号処理部、12,22 記憶部、23 出力部、110 人物追跡部、111 人物特徴抽出部、112 類似姿勢画像グループ生成部、113 人物情報生成部、210 人物情報取得部、211 類似姿勢画像グループ選択部、212 色変換部、213 人物間類似度算出部、214 照合結果生成部。 DESCRIPTION OF SYMBOLS 1 Person information generation apparatus, 2 Person identification apparatus, 10,20 Input part, 11,21 Signal processing part, 12,22 Storage part, 23 Output part, 110 Person tracking part, 111 Person feature extraction part, 112 Similar posture image group Generation unit, 113 person information generation unit, 210 person information acquisition unit, 211 similar posture image group selection unit, 212 color conversion unit, 213 interperson similarity calculation unit, 214 collation result generation unit
Claims (3)
前記時系列物体像を前記移動物体の画像特徴が互いに類似する連続フレームに分割する連続フレーム生成部と、
前記連続フレームを構成する複数のフレームにおける前記移動物体の輝度特徴を代表する代表特徴を算出する代表特徴算出部と、
前記複数の時系列物体像同士を前記連続フレームごとに前記代表特徴について照合し、照合一致した前記連続フレームを含んでいる前記時系列物体像同士を同一移動物体のものと判定する照合部と、
を備えたことを特徴とする移動物体照合装置。 A moving object collating device for collating whether or not a plurality of time-series object images each having a moving object imaged are of the same moving object,
A continuous frame generation unit that divides the time-series object image into continuous frames in which image characteristics of the moving object are similar to each other;
A representative feature calculator that calculates a representative feature representative of a luminance feature of the moving object in a plurality of frames constituting the continuous frame;
A collating unit that collates the plurality of time-series object images with respect to the representative feature for each continuous frame, and determines that the time-series object images including the continuous frames that have been collated and matched are those of the same moving object;
A moving object matching device comprising:
前記代表特徴算出部は、前記連続フレームを構成する複数のフレームにおける前記移動物体の輝度特徴を平均して前記代表特徴を算出すること、を特徴とする移動物体照合装置。 The moving object matching device according to claim 1,
The said representative feature calculation part calculates the said representative feature by averaging the luminance feature of the said moving object in the some flame | frame which comprises the said continuous frame, The moving object collation apparatus characterized by the above-mentioned.
前記照合部は、前記時系列物体像間で前記移動物体の形状特徴が最も類似する前記連続フレームを選択し、選択した前記連続フレームを照合すること、を特徴とする移動物体照合装置。 In the moving object collation device according to claim 1 or 2,
The said collating part selects the said continuous frame with which the shape characteristic of the said moving object is the most similar between the said time-sequential object images, and collates the selected said continuous frame, The moving object collation apparatus characterized by the above-mentioned.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012080585A JP2013210845A (en) | 2012-03-30 | 2012-03-30 | Moving object collation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012080585A JP2013210845A (en) | 2012-03-30 | 2012-03-30 | Moving object collation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013210845A true JP2013210845A (en) | 2013-10-10 |
Family
ID=49528616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012080585A Pending JP2013210845A (en) | 2012-03-30 | 2012-03-30 | Moving object collation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013210845A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018185992A1 (en) * | 2017-04-05 | 2018-10-11 | 株式会社日立製作所 | Biometric authentication device and method |
RU2679730C1 (en) * | 2016-09-20 | 2019-02-12 | Тосиба Инфрастракче Системз Энд Солюшнз Корпорейшн | Image matching system and method |
JP2019023785A (en) * | 2017-07-24 | 2019-02-14 | 富士ゼロックス株式会社 | Person identification device and program |
JP2019091138A (en) * | 2017-11-13 | 2019-06-13 | 株式会社日立製作所 | Image retrieving apparatus, image retrieving method, and setting screen used therefor |
KR101972918B1 (en) * | 2018-12-20 | 2019-08-20 | 주식회사 로민 | Apparatus and method for masking a video |
JP2020095757A (en) * | 2020-03-23 | 2020-06-18 | キヤノン株式会社 | Information processing device, information processing method, and program |
KR20200077370A (en) * | 2019-04-22 | 2020-06-30 | 주식회사 로민 | Apparatus and method for masking a video |
JPWO2021220365A1 (en) * | 2020-04-27 | 2021-11-04 | ||
US12020510B2 (en) | 2018-12-28 | 2024-06-25 | Nec Corporation | Person authentication apparatus, control method, and non-transitory storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10320400A (en) * | 1997-05-16 | 1998-12-04 | Hitachi Ltd | Method and device for retrieving video |
WO2001003005A1 (en) * | 1999-06-30 | 2001-01-11 | Sharp Kabushiki Kaisha | Dynamic image search information recording apparatus and dynamic image searching device |
WO2006025272A1 (en) * | 2004-09-01 | 2006-03-09 | Nec Corporation | Video classification device, video classification program, video search device, and videos search program |
JP2008035301A (en) * | 2006-07-31 | 2008-02-14 | Hitachi Ltd | Mobile body tracing apparatus |
JP2009538558A (en) * | 2006-05-22 | 2009-11-05 | アクシス アクチボラグ | Method and apparatus for identifying characteristics of an object detected by a video surveillance camera |
-
2012
- 2012-03-30 JP JP2012080585A patent/JP2013210845A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10320400A (en) * | 1997-05-16 | 1998-12-04 | Hitachi Ltd | Method and device for retrieving video |
WO2001003005A1 (en) * | 1999-06-30 | 2001-01-11 | Sharp Kabushiki Kaisha | Dynamic image search information recording apparatus and dynamic image searching device |
WO2006025272A1 (en) * | 2004-09-01 | 2006-03-09 | Nec Corporation | Video classification device, video classification program, video search device, and videos search program |
JP2009538558A (en) * | 2006-05-22 | 2009-11-05 | アクシス アクチボラグ | Method and apparatus for identifying characteristics of an object detected by a video surveillance camera |
JP2008035301A (en) * | 2006-07-31 | 2008-02-14 | Hitachi Ltd | Mobile body tracing apparatus |
Non-Patent Citations (1)
Title |
---|
JPN6016001504; 松原 大輔、外2名: '"大規模類似画像検索による疎分散カメラ環境における人物追跡 大規模データを対象とした類似画像検索技術' 画像ラボ Vol.22, No.11, 20111110, pp.39-46, 日本工業出版株式会社 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2679730C1 (en) * | 2016-09-20 | 2019-02-12 | Тосиба Инфрастракче Системз Энд Солюшнз Корпорейшн | Image matching system and method |
US10515457B2 (en) | 2016-09-20 | 2019-12-24 | Kabushiki Kaisha Toshiba | Image collation system and image collation method |
WO2018185992A1 (en) * | 2017-04-05 | 2018-10-11 | 株式会社日立製作所 | Biometric authentication device and method |
JP2018180660A (en) * | 2017-04-05 | 2018-11-15 | 株式会社日立製作所 | Biometric authentication device and method |
JP2019023785A (en) * | 2017-07-24 | 2019-02-14 | 富士ゼロックス株式会社 | Person identification device and program |
JP2019091138A (en) * | 2017-11-13 | 2019-06-13 | 株式会社日立製作所 | Image retrieving apparatus, image retrieving method, and setting screen used therefor |
CN109947975A (en) * | 2017-11-13 | 2019-06-28 | 株式会社日立制作所 | Image retrieving apparatus, image search method and its used in setting screen |
CN109947975B (en) * | 2017-11-13 | 2023-07-07 | 株式会社日立制作所 | Image search device, image search method, and setting screen used therein |
KR101972918B1 (en) * | 2018-12-20 | 2019-08-20 | 주식회사 로민 | Apparatus and method for masking a video |
WO2020130309A1 (en) * | 2018-12-20 | 2020-06-25 | 주식회사 로민 | Image masking device and image masking method |
US12020510B2 (en) | 2018-12-28 | 2024-06-25 | Nec Corporation | Person authentication apparatus, control method, and non-transitory storage medium |
KR20200077370A (en) * | 2019-04-22 | 2020-06-30 | 주식회사 로민 | Apparatus and method for masking a video |
KR102167730B1 (en) * | 2019-04-22 | 2020-10-20 | 주식회사 로민 | Apparatus and method for masking a video |
JP2020095757A (en) * | 2020-03-23 | 2020-06-18 | キヤノン株式会社 | Information processing device, information processing method, and program |
WO2021220365A1 (en) * | 2020-04-27 | 2021-11-04 | 日本電気株式会社 | Image classification apparatus, image classification method, and program |
JP7375921B2 (en) | 2020-04-27 | 2023-11-08 | 日本電気株式会社 | Image classification device, image classification method, and program |
JPWO2021220365A1 (en) * | 2020-04-27 | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013210845A (en) | Moving object collation device | |
JP5925557B2 (en) | Image matching device | |
CA3077830C (en) | System and method for appearance search | |
US10049293B2 (en) | Pixel-level based micro-feature extraction | |
US7489803B2 (en) | Object detection | |
CN102087702B (en) | Image processing device, image processing method | |
US8891880B2 (en) | Person clothing feature extraction device, person search device, and processing method thereof | |
US7421149B2 (en) | Object detection | |
JP5567853B2 (en) | Image recognition apparatus and method | |
US7522772B2 (en) | Object detection | |
US11527000B2 (en) | System and method for re-identifying target object based on location information of CCTV and movement information of object | |
US20090290791A1 (en) | Automatic tracking of people and bodies in video | |
JP6557592B2 (en) | Video scene division apparatus and video scene division program | |
KR101139930B1 (en) | Apparatus and method for object recognition based on part-template matching | |
JP5940862B2 (en) | Image processing device | |
US12087040B2 (en) | Information processing device, information processing method, and program recording medium | |
US20050128306A1 (en) | Object detection | |
US20050129277A1 (en) | Object detection | |
JP4969291B2 (en) | Moving object tracking device | |
US11841902B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2010039580A (en) | Traveling object tracking device | |
JP2014110020A (en) | Image processor, image processing method and image processing program | |
US11716448B2 (en) | Information processing apparatus, information processing method, and storage medium | |
TWI695326B (en) | Object attribute analyzing method and related object attribute analyzing device | |
JP3498875B2 (en) | Video processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160317 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160412 |