JP2019008480A - Image analysis program, image analysis apparatus, and image analysis method - Google Patents
Image analysis program, image analysis apparatus, and image analysis method Download PDFInfo
- Publication number
- JP2019008480A JP2019008480A JP2017122498A JP2017122498A JP2019008480A JP 2019008480 A JP2019008480 A JP 2019008480A JP 2017122498 A JP2017122498 A JP 2017122498A JP 2017122498 A JP2017122498 A JP 2017122498A JP 2019008480 A JP2019008480 A JP 2019008480A
- Authority
- JP
- Japan
- Prior art keywords
- person
- area
- feature
- feature amount
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
開示の技術は、画像解析プログラム、画像解析装置、及び画像解析方法に関する。 The disclosed technology relates to an image analysis program, an image analysis apparatus, and an image analysis method.
映像に映る人物の対応付けを推定する情報処理装置が知られている。この情報処理装置は、第1の時刻に複数のビデオカメラでそれぞれ撮影された映像に映る1以上の人物と、第1の時刻よりも遅い第2の時刻に複数のビデオカメラでそれぞれ撮影された映像に映る1以上の人物とがそれぞれ対応付けられる可能性を示す尺度を定める。そして、情報処理装置は、第1の時刻又は第2の時刻の一方の時刻に映る少なくとも1名の人物と、他方の時刻に係る全ての人物とに係る全ての尺度を考慮して、第1の時刻に映る人物と第2の時刻に映る人物との対応関係を推定する。 There is known an information processing apparatus that estimates a correspondence between persons appearing in a video. This information processing apparatus was photographed by a plurality of video cameras at a second time later than the first time, and at least one person appearing in images captured by the plurality of video cameras at a first time. A scale indicating the possibility that one or more persons appearing in the video are associated with each other is determined. Then, the information processing apparatus considers all the scales related to at least one person shown at one of the first time and the second time and all persons related to the other time, The correspondence relationship between the person shown at the time and the person shown at the second time is estimated.
また、複数の場所に設置されている撮像装置によって撮像される画像に基づいて被写体の移動軌跡を導出するために伝送されるデータ量を削減する情報処理装置が知られている。複数の情報処理装置は、その情報処理装置に対応する第1の撮像装置によって撮像された第1の被写体について複数種類の特徴量を抽出し、複数種類の特徴量のそれぞれについて被写体の異同を判別するための適性を判定して一部の特徴量を選択する。そして、情報処理装置は、選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、他の情報処理装置に対応する第2の撮像装置によって撮像された第2の被写体について抽出される、送信された情報が示す特徴量を受信する。そして、情報処理装置は、抽出する処理において抽出された特徴量と、受信された特徴量とに基づいて、第1及び第2の被写体の異同を判定する。 There is also known an information processing apparatus that reduces the amount of data transmitted in order to derive the movement trajectory of a subject based on images captured by imaging apparatuses installed in a plurality of places. The plurality of information processing devices extract a plurality of types of feature amounts for the first subject imaged by the first imaging device corresponding to the information processing device, and determine subject differences for each of the plurality of types of feature amounts. A part of the feature quantity is selected by determining the suitability to do so. Then, the information processing apparatus transmits information for identifying the selected feature amount to the other information processing apparatus, and the second subject imaged by the second imaging apparatus corresponding to the other information processing apparatus The feature amount indicated by the transmitted information extracted for is received. Then, the information processing apparatus determines the difference between the first and second subjects based on the feature amount extracted in the extracting process and the received feature amount.
画像解析を用いて異なる画像に映った対象物同士を対応付ける際、画像内の対象物領域から適切な特徴量が得られないことにより、対象物同士の対応付けをすることができない場合がある。 When associating objects reflected in different images using image analysis, there is a case where the objects cannot be associated with each other because an appropriate feature amount cannot be obtained from the object region in the image.
開示の技術は、一つの側面として、対象物領域から適切な特徴量が得られない場合であっても、対象物同士の対応付けを行なうことを目的とする。 An object of the disclosed technique is to associate objects with each other even when an appropriate feature amount cannot be obtained from the object region.
開示の技術は、一つの態様として、複数の画像の各々から検出された対象物領域の状態に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する。そして、前記対象物領域の各々から抽出された前記種類の前記特徴量の一致度に応じて、複数の画像の各々のうちの対応する前記対象物領域を特定する。 As one aspect, the disclosed technology determines the type of feature amount used for the association of the object areas in accordance with the state of the object area detected from each of the plurality of images. Then, the corresponding object region of each of the plurality of images is specified according to the degree of coincidence of the types of the feature amounts extracted from each of the object regions.
一つの側面として、対象物領域から適切な特徴量が得られない場合であっても、対象物同士の対応付けを行なうことができる、という効果を有する。 As one aspect, there is an effect that the objects can be associated with each other even when an appropriate feature amount cannot be obtained from the object region.
以下、図面を参照して、開示の技術に関する実施形態の一例を詳細に説明する。本実施形態では、対象物が人物である場合を例に説明する。 Hereinafter, an exemplary embodiment related to the disclosed technology will be described in detail with reference to the drawings. In the present embodiment, a case where the target object is a person will be described as an example.
<第1の実施形態> <First Embodiment>
図1に示すように、第1の実施形態に係る画像解析装置10は、カメラAと、制御部14と、表示装置48とを備えている。 As shown in FIG. 1, the image analysis apparatus 10 according to the first embodiment includes a camera A, a control unit 14, and a display device 48.
カメラAは、例えば監視カメラとして所定の箇所に設置され、所定の箇所における動画像を逐次撮像する。本実施形態では、カメラAが周辺領域を俯瞰するように設置されている場合を例に説明する。 The camera A is installed at a predetermined location as a surveillance camera, for example, and sequentially captures moving images at the predetermined location. In the present embodiment, a case where the camera A is installed so as to look down on the surrounding area will be described as an example.
制御部14は、人物検出部16と、検出結果記憶部18と、人物追跡部20と、追跡結果記憶部22と、統合部24と、統合結果記憶部26と、人物方向決定部28と、重なり判定部32と、向き重なり結果記憶部30とを備えている。また、制御部14は、他カメラ検出結果取得部34と、他カメラ検出結果記憶部36と、対応付け候補決定部38と、特徴分布生成部40と、特徴選択部42と、処理順番決定部44と、対応付け部46とを備えている。特徴分布生成部40及び特徴選択部42は、開示の技術の決定部の一例であり、対応付け部46は開示の技術の特定部の一例である。 The control unit 14 includes a person detection unit 16, a detection result storage unit 18, a person tracking unit 20, a tracking result storage unit 22, an integration unit 24, an integration result storage unit 26, a person direction determination unit 28, An overlap determination unit 32 and an orientation overlap result storage unit 30 are provided. In addition, the control unit 14 includes an other camera detection result acquisition unit 34, an other camera detection result storage unit 36, an association candidate determination unit 38, a feature distribution generation unit 40, a feature selection unit 42, and a processing order determination unit. 44 and an association unit 46. The feature distribution generation unit 40 and the feature selection unit 42 are examples of a disclosure technology determination unit, and the association unit 46 is an example of a disclosure technology identification unit.
図2に、本実施形態の画像解析装置10の処理を説明するための説明図を示す。画像解析装置10は、カメラAによって撮像されたフレーム画像に含まれる人物領域の各々と、カメラAとは異なる他カメラBによって撮像されたフレーム画像に含まれる人物領域の各々とを対応付ける。 FIG. 2 is an explanatory diagram for explaining processing of the image analysis apparatus 10 of the present embodiment. The image analysis apparatus 10 associates each person area included in the frame image captured by the camera A with each person area included in the frame image captured by another camera B different from the camera A.
異なるカメラによって撮像された動画像中の人物領域を対応付ける際、各人物領域から適切な特徴量が抽出されないことにより、人物領域同士を対応付けられない場合がある。 When associating human regions in moving images captured by different cameras, the human regions may not be associated with each other because appropriate feature amounts are not extracted from the individual regions.
そこで、本実施形態の画像解析装置10は、人物領域を対応付ける際に、複数の画像の各々から検出された人物領域の状態に応じて、人物領域の対応付けに使用する特徴量の種類を決定する。そして、本実施形態の画像解析装置10は、人物領域の各々から抽出され、かつ人物領域の対応付けに使用すると決定された種類の特徴量の一致度に応じて、複数の画像の各々のうちの対応する人物領域を特定する。 Therefore, when the image analysis apparatus 10 according to the present embodiment associates the person regions, the type of feature amount used for the association of the person regions is determined according to the state of the person region detected from each of the plurality of images. To do. The image analysis apparatus 10 according to the present embodiment extracts each of the plurality of images according to the degree of coincidence of the types of feature amounts extracted from each person region and determined to be used for matching the person regions. The corresponding person area is specified.
具体的には、画像解析装置10は、カメラAによって撮像された動画像の各フレーム画像の人物領域が示す人物の向きと、他のカメラBによって撮像された動画像の各フレーム画像の人物領域が示す人物の向きとに応じて特徴量の種類を選択する。本実施形態では、人物領域の上半身領域の色、人物領域の下半身領域の色、人物領域の頭部領域の色、及び人物領域の靴領域の色を特徴量として用いる場合を例に説明する。 Specifically, the image analysis apparatus 10 determines the orientation of the person indicated by the person area of each frame image of the moving image captured by the camera A and the person area of each frame image of the moving image captured by the other camera B. The type of feature amount is selected according to the orientation of the person indicated by. In the present embodiment, an example will be described in which the color of the upper body area of the person area, the color of the lower body area of the person area, the color of the head area of the person area, and the color of the shoe area of the person area are used as feature amounts.
例えば、図2に示されるように、他のカメラBによって撮像されたフレーム画像の人物領域の人物JB1の向きと、カメラAによって撮像されたフレーム画像の人物領域の各人物JA1,JA2,JA3,JA4,JA5の向きとに応じて、特徴量の種類を選択する。図2に示される例では、画像解析装置10は、人物JB1の向きと人物JA2の向きとが異なるため、人物JA2の頭部領域の特徴量及び上半身領域の特徴量については抽出せずに、下半身領域及び靴領域の特徴量を抽出する。画像解析装置10は、1つのフレーム画像から検出された複数の人物領域の各々から抽出された特徴量の各々を、特徴量の種類毎に特徴空間へ投影して、種類毎に特徴量の分布を生成する。例えば、画像解析装置10は、図2に示すように、人物領域の上半身領域の色の特徴量の分布F1、人物領域の下半身領域の色の特徴量の分布F2、人物領域の頭部領域の色の特徴量の分布F3、及び人物領域の靴領域の色の特徴量の分布F4を生成する。各種類の特徴量の分布における1点は、1つの人物領域から抽出された該当の種類の特徴量に対応する。 For example, as shown in FIG. 2, the orientation of the person JB1 in the person area of the frame image taken by another camera B and each person JA1, JA2, JA3 in the person area of the frame image taken by the camera A The type of feature quantity is selected according to the direction of JA4 and JA5. In the example shown in FIG. 2, the image analysis apparatus 10 does not extract the feature quantity of the head area and the upper body area of the person JA2 because the orientation of the person JB1 and the orientation of the person JA2 are different. Extract features of lower body area and shoe area. The image analysis apparatus 10 projects each feature quantity extracted from each of a plurality of person regions detected from one frame image onto the feature space for each type of feature quantity, and distributes the feature quantity for each type. Is generated. For example, as shown in FIG. 2, the image analysis apparatus 10 includes a color feature amount distribution F1 of the upper body region of the person region, a color feature amount distribution F2 of the lower body region of the person region, and a head region of the person region. A color feature amount distribution F3 and a color feature amount distribution F4 of the shoe region of the person region are generated. One point in the distribution of each type of feature value corresponds to the feature value of the corresponding type extracted from one person region.
また、本実施形態では、人物領域を対応付ける際に、カメラAによって撮像された動画像の各フレーム画像の人物領域の重なりに応じて、特徴量の種類を選択する。 Further, in the present embodiment, when the person areas are associated, the type of feature amount is selected according to the overlap of the person areas of the frame images of the moving image captured by the camera A.
例えば、図2に示される例では、画像解析装置10は、人物JA3の人物領域の下半身領域に重なりが存在するため、下半身領域の特徴量については抽出せずに、上半身領域、頭髪領域、及び靴領域の特徴量を抽出する。また、画像解析装置10は、人物JA4の人物領域の頭部領域に重なりが存在するため、頭部領域の特徴量については抽出せずに、上半身領域、下半身領域、及び靴領域の特徴量を抽出する。 For example, in the example shown in FIG. 2, the image analysis apparatus 10 has an overlap in the lower body area of the person area of the person JA3. Therefore, without extracting the feature amount of the lower body area, the upper body area, the hair area, and The feature value of the shoe region is extracted. Further, since there is an overlap in the head area of the person area of the person JA4, the image analysis apparatus 10 does not extract the feature quantity of the head area, and calculates the feature quantities of the upper body area, the lower body area, and the shoe area. Extract.
カメラAによって撮像された動画像を解析する画像解析装置10によって生成された特徴量の分布は、他のカメラBによって撮像された動画像を解析する画像解析装置(図示省略)へ送信され、人物領域の対応付けに用いられる。 The distribution of the feature amount generated by the image analysis apparatus 10 that analyzes the moving image captured by the camera A is transmitted to an image analysis apparatus (not shown) that analyzes the moving image captured by the other camera B, and the person Used for area association.
以下、本実施形態の画像解析装置10の構成について具体的に説明する。 Hereinafter, the configuration of the image analysis apparatus 10 of the present embodiment will be specifically described.
人物検出部16は、カメラAによって撮像された動画像の各フレーム画像から人物領域を検出する。例えば、人物検出部16は、特許文献(特開2013‐117865号公報)に記載の手法を用いて、動画像の各フレーム画像から人物領域を検出する。 The person detection unit 16 detects a person region from each frame image of the moving image captured by the camera A. For example, the person detection unit 16 detects a person region from each frame image of a moving image using a method described in a patent document (Japanese Patent Laid-Open No. 2013-117865).
図3に、人物検出部16における人物領域の検出例を説明するための説明図を示す。図3に示されるように、人物検出部16は、時刻t−1のフレーム画像It−1と時刻tのフレーム画像Itとが入力された場合、時刻t−1のフレーム画像It−1と時刻tのフレーム画像Itとの間の背景差分Difを求める。 FIG. 3 is an explanatory diagram for explaining an example of detection of a person area in the person detection unit 16. As shown in FIG. 3, when the frame image It-1 at time t-1 and the frame image It at time t are input, the person detection unit 16 and the frame image It-1 at time t-1 and the time A background difference Dif from the frame image It of t is obtained.
次に、人物検出部16は、背景差分Difに基づいて人物領域候補Caを特定する。次に、人物検出部16は、人物領域候補Caを、正解の人物領域から予め学習された識別器へ入力し、人物領域候補Caが人物領域であるか否かを表す判定結果を得る。そして、人物検出部16は、人物領域であると判定された人物検出結果Reを得る。 Next, the person detection unit 16 specifies a person area candidate Ca based on the background difference Dif. Next, the person detection unit 16 inputs the person area candidate Ca from the correct person area to a discriminator learned in advance, and obtains a determination result indicating whether the person area candidate Ca is a person area. Then, the person detection unit 16 obtains a person detection result Re determined to be a person area.
そして、人物検出部16は、人物領域と判定された領域の検出枠に対して人物領域IDを付与する。そして、人物検出部16は、人物領域ID、人物領域の検出枠内の画像情報、人物領域の検出枠の左上のx座標、人物領域の検出枠の左上のy座標、人物領域の検出枠の幅、及び人物領域の検出枠の高さを、人物検出結果とする。そして、人物検出部16は、人物検出結果を検出結果記憶部18へ格納する。 Then, the person detection unit 16 assigns a person area ID to the detection frame of the area determined as the person area. The person detection unit 16 then detects the person area ID, the image information in the person area detection frame, the upper left x coordinate of the person area detection frame, the upper left y coordinate of the person area detection frame, and the person area detection frame. The width and the height of the detection frame of the person area are taken as a person detection result. The person detection unit 16 stores the person detection result in the detection result storage unit 18.
検出結果記憶部18には、人物検出部16によって検出された人物検出結果が格納される。人物検出結果は、例えば、図4に示されるように、テーブルの形式で格納される。図4に示すテーブルには、人物領域が検出されたフレーム画像の画像ID及びそのフレーム画像の撮像時刻に対応付けて、人物検出部16で検出された人物検出結果が格納される。 The detection result storage unit 18 stores a person detection result detected by the person detection unit 16. The person detection result is stored in the form of a table, for example, as shown in FIG. The table shown in FIG. 4 stores the person detection result detected by the person detection unit 16 in association with the image ID of the frame image in which the person region is detected and the imaging time of the frame image.
人物追跡部20は、各フレーム画像における人物領域の位置に応じて、同一人物の人物領域を追跡する。 The person tracking unit 20 tracks the person area of the same person according to the position of the person area in each frame image.
図5に、同一人物の追跡処理を説明するための説明図を示す。図5に示されるように、人物追跡部20は、時刻t−1のフレーム画像It−1から検出された人物領域を、追跡に用いるテンプレートとして設定する。図5では、テンプレートT1とテンプレートT2とを設定した例を示している。 FIG. 5 shows an explanatory diagram for explaining the tracking processing of the same person. As illustrated in FIG. 5, the person tracking unit 20 sets a person region detected from the frame image It-1 at time t−1 as a template used for tracking. FIG. 5 shows an example in which a template T1 and a template T2 are set.
そして、人物追跡部20は、時刻tのフレーム画像Itから、テンプレートT1と類似した人物領域を、テンプレートマッチングにより特定する。また、人物追跡部20は、時刻tのフレーム画像Itから、テンプレートT2と類似した人物領域を、テンプレートマッチングにより特定する。テンプレートマッチングを行う際には、例えば、以下の式(1)に示される正規化相互相関関数R(x,y)を類似度として用いることができる。この場合、人物追跡部20は、時刻tのフレーム画像の領域のうち、正規化相互相関関数R(x,y)が閾値より大きい領域を人物領域として特定する。そして、時刻tのフレーム画像の人物領域と同一であると判定された、時刻tのフレーム画像の人物領域に対して、時刻tのフレーム画像の人物領域の人物領域IDと同一の人物領域IDを付与する。 Then, the person tracking unit 20 specifies a person region similar to the template T1 from the frame image It at time t by template matching. Further, the person tracking unit 20 specifies a person area similar to the template T2 from the frame image It at time t by template matching. When performing template matching, for example, a normalized cross-correlation function R (x, y) represented by the following equation (1) can be used as the similarity. In this case, the person tracking unit 20 identifies, as a person area, an area in which the normalized cross-correlation function R (x, y) is greater than a threshold among areas of the frame image at time t. Then, for the person area of the frame image at time t that is determined to be the same as the person area of the frame image at time t, the same person area ID as the person area ID of the person area of the frame image at time t is set. Give.
(1)
(1)
なお、上記式(1)における、T(x’,y’)はテンプレート内の画素(x’,y’)の画素値を表し、hはテンプレートの高さを表し、wはテンプレートの幅を表し、Iは時刻tのフレーム画像を表す。(x,y)はフレーム画像の画素のxy座標上の位置を表す。 In the above formula (1), T (x ′, y ′) represents the pixel value of the pixel (x ′, y ′) in the template, h represents the height of the template, and w represents the width of the template. I represents a frame image at time t. (X, y) represents the position on the xy coordinate of the pixel of the frame image.
これにより、時刻t−1のフレーム画像と時刻tのフレーム画像とから同一の人物領域が特定される。そして、人物追跡部20は、追跡結果を追跡結果記憶部22へ格納する。 Thereby, the same person region is specified from the frame image at time t−1 and the frame image at time t. Then, the person tracking unit 20 stores the tracking result in the tracking result storage unit 22.
追跡結果記憶部22には、人物追跡部20によって得られた追跡結果が格納される。追跡結果は、例えば、図6に示されるように、テーブルの形式で格納される。図6に示すテーブルには、人物領域ID、人物領域の検出枠内の画像情報、人物領域の検出枠の左上のx座標、人物領域の検出枠の左上のy座標、人物領域の検出枠の幅、及び人物領域の検出枠の高さが対応付けられて格納される。図6のテーブルに示される網掛け部分のように、異なる時刻において同一の人物であると判定された人物領域については、同一の人物領域IDが付与される。 The tracking result storage unit 22 stores the tracking result obtained by the person tracking unit 20. The tracking result is stored in the form of a table, for example, as shown in FIG. The table shown in FIG. 6 includes the person area ID, the image information in the person area detection frame, the upper left x coordinate of the person area detection frame, the upper left y coordinate of the person area detection frame, and the person area detection frame. The width and the height of the detection frame of the person area are stored in association with each other. Like the shaded portion shown in the table of FIG. 6, the same person area ID is assigned to the person areas determined to be the same person at different times.
統合部24は、検出結果記憶部18に格納された検出結果と、追跡結果記憶部22に格納された追跡結果とを統合する。人物領域の検出結果及び人物領域の追跡結果の何れか一方による検出処理では、人物領域の検出漏れが発生する場合がある。そのため、本実施形態では、人物検出部16による人物領域の検出処理と、人物追跡部20による追跡処理とを組み合わせることにより、人物領域を精度良く特定する。 The integration unit 24 integrates the detection result stored in the detection result storage unit 18 and the tracking result stored in the tracking result storage unit 22. In the detection process using one of the detection result of the person area and the tracking result of the person area, a detection error of the person area may occur. Therefore, in the present embodiment, the person area is specified with high accuracy by combining the person area detection process by the person detection unit 16 and the tracking process by the person tracking unit 20.
具体的には、統合部24は、各フレーム画像について、検出結果記憶部18に格納された検出結果のうちの人物領域の検出枠と、追跡結果記憶部22に格納された追跡結果のうちの人物領域の検出枠との間の重複する領域に応じて、検出結果と追跡結果とを統合する。 Specifically, for each frame image, the integration unit 24 includes the detection frame of the person area in the detection result stored in the detection result storage unit 18 and the tracking result stored in the tracking result storage unit 22. The detection result and the tracking result are integrated according to an overlapping area between the detection frames of the person area.
図7に、検出結果と追跡結果との統合を説明するための説明図を示す。図7に示されるように、時刻tのフレーム画像It内において、検出結果の検出枠KRと追跡結果の検出枠TRとの間の重複率が閾値より大きい場合には、それらの領域は同一人物であるとして、検出結果と追跡結果とを統合する。本実施形態では、重複率が閾値より大きい場合には、追跡結果に格納されている情報を優先する。 FIG. 7 is an explanatory diagram for explaining the integration of the detection result and the tracking result. As shown in FIG. 7, in the frame image It at time t, when the overlapping rate between the detection result detection frame KR and the tracking result detection frame TR is larger than the threshold value, those areas are the same person. As a result, the detection result and the tracking result are integrated. In this embodiment, when the duplication rate is larger than the threshold value, priority is given to the information stored in the tracking result.
一方、図7に示されるように、検出結果の検出枠KRと追跡結果の検出枠TRとの間の重複がない場合(図7の例では、追跡結果が存在しない場合)には、新たに出現した人物に対応する人物領域であるとして、その人物が検出された検出枠に対応する人物領域とする。そして、統合部24は、統合結果を統合結果記憶部26に格納する。 On the other hand, as shown in FIG. 7, when there is no overlap between the detection frame KR of the detection result and the detection frame TR of the tracking result (in the example of FIG. 7, there is no tracking result), a new one is newly added. As a person area corresponding to an appearing person, the person area corresponding to the detection frame in which the person is detected. Then, the integration unit 24 stores the integration result in the integration result storage unit 26.
統合結果記憶部26には、統合部24の統合処理によって得られた統合結果が格納される。統合結果としては、例えば、上記図4又は上記図6に示されるようなテーブルの形式の情報が格納される。 The integration result storage unit 26 stores the integration result obtained by the integration process of the integration unit 24. As the integration result, for example, information in a table format as shown in FIG. 4 or FIG. 6 is stored.
人物方向決定部28は、統合結果記憶部26に格納された、各フレーム画像間で対応付けられた同一人物の人物領域の各々に基づいて、各人物領域の移動方向を推定する。そして、人物方向決定部28は、同一人物の人物領域の各々の移動方向に基づいて、各人物領域の向きを特定する。なお、本実施形態では、画像における座標系は図8に示されるように設定される。また、本実施形態では、人物は、カメラの撮像範囲の奥行き方向の手前側又は奥側に向かって移動する場合を例に説明する。したがって、画像上での人物の移動方向はy軸方向に対応する。 The person direction determination unit 28 estimates the moving direction of each person area based on each person area of the same person associated between the frame images stored in the integration result storage unit 26. Then, the person direction determination unit 28 specifies the direction of each person area based on the movement direction of each person area of the same person. In the present embodiment, the coordinate system in the image is set as shown in FIG. In the present embodiment, a case where a person moves toward the near side or the far side in the depth direction of the imaging range of the camera will be described as an example. Therefore, the moving direction of the person on the image corresponds to the y-axis direction.
具体的には、人物方向決定部28は、統合結果記憶部26に格納された統合結果から各時刻のフレーム画像の各人物領域を読み出す。そして、人物方向決定部28は、人物領域IDが同一である人物領域の各々について、時刻t−1のフレーム画像の人物領域のy座標値をp(t−1)とし、時刻tにおける人物領域のy座標値をp(t)とする。また、人物方向決定部28は、以下の式(2)〜式(4)に応じて、人物領域に映る人物の移動方向を判定する。そして、人物方向決定部28は、人物領域に映る人物の移動方向に応じて、人物の向きを判定する。 Specifically, the person direction determination unit 28 reads each person area of the frame image at each time from the integration result stored in the integration result storage unit 26. Then, the person direction determination unit 28 sets the y coordinate value of the person area of the frame image at time t−1 as p (t−1) for each person area having the same person area ID, and the person area at time t. Let y (y) coordinate value be p (t). In addition, the person direction determination unit 28 determines the moving direction of the person appearing in the person area according to the following equations (2) to (4). Then, the person direction determination unit 28 determines the direction of the person according to the moving direction of the person shown in the person area.
p(t)−p(t−1)<0 (2):人物は後ろ向き
p(t)−p(t−1)>0 (3):人物は前向き
p(t)−p(t−1)=0 (4):時刻t−1のフレーム画像で判定された向きと同じ向き
p (t) -p (t-1) <0 (2): the person faces backward p (t) -p (t-1)> 0 (3): the person faces forward p (t) -p (t-1) ) = 0 (4): Same direction as determined in frame image at time t−1
人物方向決定部28は、上記式(2)が満たされる場合、人物領域はフレーム画像上で上方向へ移動しており、人物領域に映る人物は奥側に向かって移動していることを表しているため、人物領域に映る人物は後ろ向きであると判定する。 When the above formula (2) is satisfied, the person direction determination unit 28 indicates that the person area is moving upward on the frame image, and the person reflected in the person area is moving toward the back side. Therefore, it is determined that the person shown in the person area is facing backward.
また、人物方向決定部28は、上記式(3)が満たされる場合、人物領域はフレーム画像上で下方向へ移動しており、人物領域に映る人物は手前に向かって移動していることを表しているため、人物領域に映る人物は前向きであると判定する。 Further, the person direction determining unit 28 determines that the person area is moving downward on the frame image and the person appearing in the person area is moving toward the front when the above expression (3) is satisfied. Therefore, it is determined that the person shown in the person area is positive.
また、人物方向決定部28は、上記式(4)が満たされる場合、人物領域は、前時刻t−1からy座標の変化がないため、ここでは、前時刻t−1の方向と同じ向きであると判定する。そして、人物方向決定部28は、各人物領域について決定された人物領域の向きを、向き重なり結果記憶部30へ格納する。 Further, when the above formula (4) is satisfied, the person direction determination unit 28 does not change the y coordinate from the previous time t−1, and here, the person direction determination unit 28 has the same direction as the direction at the previous time t−1. It is determined that Then, the person direction determination unit 28 stores the orientation of the person area determined for each person area in the orientation overlap result storage unit 30.
重なり判定部32は、統合結果記憶部26に格納された統合結果に基づいて、各人物領域に対し、人物領域同士の重なりが存在するか否かを判定する。図9に、人物領域同士の重なりを説明するための説明図を示す。 Based on the integration result stored in the integration result storage unit 26, the overlap determination unit 32 determines whether or not there is an overlap between the person regions for each person region. FIG. 9 shows an explanatory diagram for explaining the overlapping of the person regions.
図9に示されるように、人物領域JAの検出枠KAのx座標の最小値をx1s、x座標の最大値をx1e、人物領域JAの検出枠KAのy座標の最小値をy1s、最大値をy1eとする。また、人物領域JBの検出枠KBのx座標の最小値をx2s、x座標の最大値をx2e、人物領域JBの検出枠KBのy座標の最小値をy2s、最大値をy2eとする。この場合、重なり判定部32は、以下の式(5)〜(12)に応じて、人物領域同士で重なりが生じているか否かを判定する。 9, the minimum value of the x coordinate of the detection frame KA of the person area JA is x1 s , the maximum value of the x coordinate is x1 e , and the minimum value of the y coordinate of the detection frame KA of the person area JA is y1 s. The maximum value is y1 e . Further, the minimum value of the x coordinate of the detection frame KB of the person area JB is x2 s , the maximum value of the x coordinate is x2 e , the minimum value of the y coordinate of the detection frame KB of the person area JB is y2 s , and the maximum value is y2 e. And In this case, the overlap determination unit 32 determines whether or not there is an overlap between the person regions according to the following equations (5) to (12).
x1s<x2s<x1e (5)
x1s<x2e<x1e (6)
y1s<y2s<y1e (7)
y1s<y2e<y1e (8)
x1 s <x2 s <x1 e (5)
x1 s <x2 e <x1 e (6)
y1 s <y2 s <y1 e (7)
y1 s <y2 e <y1 e (8)
x2s<x1s<x2e (9)
x2s<x1e<x2e (10)
y2s<y1s<y2e (11)
y2s<y1e<y2e (12)
x2 s <x1 s <x2 e (9)
x2 s <x1 e <x2 e (10)
y2 s <y1 s <y2 e (11)
y2 s <y1 e <y2 e (12)
重なり判定部32は、上記式(5)及び上記式(6)の少なくとも一方を満たし、かつ上記式(7)及び上記式(8)の少なくとも一方を満たす場合には、人物領域JAと人物領域JBとの間で重なりが生じていると判定する。また、重なり判定部32は、上記式(9)及び上記式(10)の少なくとも一方を満たし、かつ上記式(11)及び上記式(12)の少なくとも一方を満たす場合には、人物領域JAと人物領域JBとの間で重なりが生じていると判定する。そして、重なり判定部32は、重なりの判定結果を、向き重なり結果記憶部30へ格納する。 When the overlap determination unit 32 satisfies at least one of the above formula (5) and the above formula (6) and satisfies at least one of the above formula (7) and the above formula (8), the person area JA and the person area It is determined that there is an overlap with JB. In addition, the overlap determination unit 32 satisfies the human area JA when satisfying at least one of the above formula (9) and the above formula (10) and at least one of the above formula (11) and the above formula (12). It is determined that there is an overlap with the person area JB. Then, the overlap determination unit 32 stores the overlap determination result in the orientation overlap result storage unit 30.
向き重なり結果記憶部30には、人物方向決定部28によって得られた各人物領域の向きの情報と、重なり判定部32によって得られた各人物領域の重なりの情報が格納される。なお、人物領域のうちの重なりが生じている領域の4隅座標が、重なりの情報として格納される。向き重なり結果記憶部30には、例えば、図10に示されるようなテーブルの形式の情報が格納される。図10に示されるように、向き重なり結果記憶部30のテーブルには、統合結果記憶部26に格納されたテーブルに、人物領域の向きの情報と人物領域の重なりの情報とが追加される。 The direction overlap result storage unit 30 stores information on the orientation of each person area obtained by the person direction determination unit 28 and information on the overlap of each person area obtained by the overlap determination unit 32. It should be noted that the four corner coordinates of the overlapping area of the person area are stored as overlapping information. The orientation overlap result storage unit 30 stores information in a table format as shown in FIG. 10, for example. As shown in FIG. 10, the information on the orientation of the person area and the information on the overlap of the person areas are added to the table stored in the integration result storage section 26 in the table of the orientation overlap result storage section 30.
他カメラ検出結果取得部34は、カメラAとは異なるカメラを表す他カメラBによって撮像された動画像の各フレーム画像の人物領域の情報を取得する。他カメラ検出結果取得部34によって取得される情報は、向き重なり結果記憶部30に格納された情報と同様の情報である。また、他カメラ検出結果取得部34によって取得される情報は、他カメラBの動画像を解析する画像解析装置(図示省略)によって得られた情報である。 The other camera detection result acquisition unit 34 acquires information on the person area of each frame image of the moving image captured by the other camera B representing a camera different from the camera A. The information acquired by the other camera detection result acquisition unit 34 is the same information as the information stored in the orientation overlap result storage unit 30. Further, the information acquired by the other camera detection result acquisition unit 34 is information obtained by an image analysis device (not shown) that analyzes the moving image of the other camera B.
他カメラ検出結果記憶部36には、他カメラ検出結果取得部34によって取得され、向き重なり結果記憶部30に格納されたテーブルと同様の形式の情報が格納される。なお、以下では、カメラAによって撮像された動画像の各フレーム画像に含まれる人物領域を人物領域X、他カメラBによって撮像された動画像の各フレーム画像に含まれる人物領域を対応付け候補Yとする。 The other camera detection result storage unit 36 stores information in the same format as the table acquired by the other camera detection result acquisition unit 34 and stored in the orientation overlap result storage unit 30. In the following, a person region included in each frame image of a moving image captured by the camera A is a person region X, and a person region included in each frame image of a moving image captured by another camera B is an association candidate Y. And
対応付け候補決定部38は、向き重なり結果記憶部30に格納された、新たに出現した人物に対応する人物領域Xを逐次読み出す。次に、対応付け候補決定部38は、読み出した人物領域Xの各々について、人物領域Xを含むフレーム画像の撮像時刻から、過去の所定の時間範囲内に存在する他カメラ検出結果記憶部36の人物領域を、人物領域Xの対応付け候補Yとして設定する。 The association candidate determination unit 38 sequentially reads the person area X corresponding to the newly appearing person stored in the orientation overlap result storage unit 30. Next, for each of the read person areas X, the association candidate determination section 38 stores the other camera detection result storage section 36 existing within a predetermined past time range from the imaging time of the frame image including the person area X. The person area is set as a matching candidate Y for the person area X.
図11に、対応付け候補決定部38の処理を説明するための説明図を示す。図11に示されるように、例えば、人物JA1がカメラAによって新たに撮像された場合を例に考える。この場合、人物JA1がカメラAによって撮像された時刻tから所定の時間範囲range内に、カメラBによって撮像された人物領域JB1,JB2,JB3,及びJB4が人物JA1の同一人物候補であるとして、対応付け候補Yとして設定される。なお、1つの人物領域IDは、1つの人物領域X1に対応する。 FIG. 11 is an explanatory diagram for explaining the processing of the association candidate determination unit 38. As shown in FIG. 11, for example, consider a case where a person JA1 is newly imaged by the camera A. In this case, it is assumed that the person areas JB1, JB2, JB3, and JB4 imaged by the camera B are the same person candidates of the person JA1 within a predetermined time range range from the time t when the person JA1 was imaged by the camera A. It is set as the association candidate Y. One person area ID corresponds to one person area X1.
特徴分布生成部40は、人物領域の状態である、人物領域の向き及び人物領域内の重なりに応じて、人物領域の対応付けに使用する特徴量の種類を決定する。具体的には、特徴分布生成部40は、人物領域の重なりの領域とは異なる領域から抽出される特徴量を、対象物領域の対応付けに使用する特徴量として決定する。また、特徴分布生成部40は、一方の人物領域と他方の人物領域との向きが同一でない場合には、人物領域の頭部および上半身とは異なる領域から抽出される特徴量を、人物領域の対応付けに使用する特徴量として決定する。本実施形態では、特徴分布生成部40は、人物領域の上半身領域の色、人物領域の下半身領域の色、人物領域の靴領域の色、及び人物領域の頭髪領域の色を、特徴量として抽出する。 The feature distribution generation unit 40 determines the type of feature amount used for the association of the person areas according to the orientation of the person area and the overlap in the person area, which is the state of the person area. Specifically, the feature distribution generation unit 40 determines a feature amount extracted from a region different from the overlapping region of the person regions as a feature amount used for associating the object region. In addition, when the orientations of one person area and the other person area are not the same, the feature distribution generation unit 40 extracts feature amounts extracted from areas different from the head and upper body of the person area. It is determined as a feature value used for association. In the present embodiment, the feature distribution generation unit 40 extracts the color of the upper body area of the person area, the color of the lower body area of the person area, the color of the shoe area of the person area, and the color of the hair area of the person area as feature amounts. To do.
そのため、特徴分布生成部40は、人物領域Xと対応付け候補Yとのペアの各々について、向き重なり結果記憶部30に格納された人物領域Xの向きと対応付け候補Yとの向き、及び人物領域Xの重なりに基づき、対応付けに使用する特徴量の種類を決定する。 Therefore, the feature distribution generation unit 40, for each pair of the person region X and the association candidate Y, the orientation of the person region X and the orientation of the association candidate Y stored in the orientation overlap result storage unit 30, and the person Based on the overlap of the region X, the type of feature amount used for the association is determined.
具体的には、特徴分布生成部40は、以下の表に従って、各人物領域から特徴量を抽出する。なお、所定時間範囲内の複数時刻のフレーム画像の各々に同じ人物領域IDの人物領域が存在する場合、最新の時刻のフレーム画像の人物領域Xから特徴量を抽出する。 Specifically, the feature distribution generation unit 40 extracts feature amounts from each person region according to the following table. When a person region having the same person region ID exists in each of the frame images at a plurality of times within the predetermined time range, the feature amount is extracted from the person region X of the frame image at the latest time.
特徴分布生成部40は、人物領域Xの向きと対応付け候補Yとの向きとが一致し、かつ人物領域X及び対応付け候補Y内に重なりが存在しない場合には、人物領域X及び対応付け候補Yから、全ての種類の特徴量を抽出する。 The feature distribution generation unit 40 matches the person region X and the association candidate Y when the orientation of the person region X matches the orientation of the association candidate Y and there is no overlap in the person region X and the association candidate Y. All types of feature quantities are extracted from the candidate Y.
また、特徴分布生成部40は、人物領域Xの向きと対応付け候補Yの向きとが異なり、かつ人物領域X及び対応付け候補Y内に重なりが存在しない場合には、人物領域X及び対応付け候補Yから、下半身領域の特徴量及び靴領域の特徴量を抽出する。 Also, the feature distribution generation unit 40, when the orientation of the person region X and the orientation of the association candidate Y are different and there is no overlap in the person region X and the association candidate Y, the person region X and the association candidate From the candidate Y, the feature amount of the lower body region and the feature amount of the shoe region are extracted.
また、特徴分布生成部40は、人物領域Xの向きと対応付け候補Yの向きとが一致し、かつ人物領域X及び対応付け候補Yの少なくとも一方内に重なりが存在する場合には、人物領域X及び対応付け候補Yから、重なりが存在しない領域の特徴量を抽出する。 In addition, the feature distribution generation unit 40, when the orientation of the person region X matches the orientation of the association candidate Y and there is an overlap in at least one of the person region X and the association candidate Y, the person region X From X and the association candidate Y, a feature amount of a region where there is no overlap is extracted.
また、特徴分布生成部40は、人物領域Xの向きと対応付け候補Yの向きとが一致せず、かつ人物領域X及び対応付け候補Yの少なくとも一方内に重なりが存在する場合、予め設定された領域の特徴量を抽出する。具体的には、特徴分布生成部40は、下半身領域の特徴量及び靴領域の特徴量の少なくとも一方の特徴量でありかつ重なりが存在しない領域の特徴量を抽出する。 The feature distribution generation unit 40 is set in advance when the orientation of the person region X does not match the orientation of the association candidate Y and there is an overlap in at least one of the person region X and the association candidate Y. The feature value of the selected area. Specifically, the feature distribution generation unit 40 extracts a feature amount of a region that is at least one of the feature amount of the lower body region and the feature amount of the shoe region and has no overlap.
また、特徴分布生成部40は、各対応付け候補Yから抽出された各種類の特徴量の分布を生成する。特徴分布生成部40は、1つの対応付け候補Yから抽出された1つの種類の特徴量が1つの点となるように、各種類の特徴量の分布を生成する。そして、特徴分布生成部40は、各種類の特徴量の分布の分散を計算する。 Further, the feature distribution generation unit 40 generates a distribution of each type of feature amount extracted from each association candidate Y. The feature distribution generation unit 40 generates a distribution of each type of feature quantity so that one type of feature quantity extracted from one association candidate Y becomes one point. Then, the feature distribution generation unit 40 calculates the distribution of each type of feature amount distribution.
特徴選択部42は、人物領域の状態である、複数の人物領域の各々から抽出される特徴量の分布の状態に応じて、人物領域の対応付けに使用する特徴量の種類を更に決定する。具体的には、特徴選択部42は、複数の人物領域の各々について、複数の人物領域の各々から抽出される特徴量の分散に応じて、人物領域の対応付けに使用する特徴量の種類を決定する。 The feature selection unit 42 further determines the type of feature amount used for the association of the person regions according to the distribution state of the feature amount extracted from each of the plurality of person regions, which is the state of the person region. Specifically, the feature selection unit 42 selects, for each of a plurality of person regions, the type of feature amount used for matching the person regions according to the distribution of the feature amounts extracted from each of the plurality of person regions. decide.
より詳細には、特徴選択部42は、特徴分布生成部40によって計算された特徴量の分布の分散が閾値よりも大きい種類の特徴量を、対応付けに使用する特徴量として選択する。特徴量の分布の分散が大きいほど、特徴量の分布内において、各人物領域の特徴量がばらばらに配置されているため、人物領域の対応付けに適していると考えられる。そのため、特徴選択部42は、特徴量の分布の分散が閾値よりも大きい種類の特徴量を、対応付けに使用する特徴量として選択する。 More specifically, the feature selection unit 42 selects, as a feature amount to be used for association, a type of feature amount in which the distribution of the feature amount distribution calculated by the feature distribution generation unit 40 is larger than a threshold value. It can be considered that the greater the variance of the feature amount distribution, the more suitable the feature amounts of the person regions are arranged in the feature amount distribution, which is more suitable for the association of the person regions. For this reason, the feature selection unit 42 selects a feature amount of a type in which the distribution of the feature amount distribution is larger than the threshold value as the feature amount used for the association.
処理順番決定部44は、人物領域同士の照合の順番を決定する。具体的には、処理順番決定部44は、人物領域から抽出される複数の特徴量の分散に応じて、複数の人物領域の対応付けの順番を設定する。例えば、処理順番決定部44は、対応付け候補Y毎に、複数時刻分の各フレーム画像から抽出された各種類の特徴量の分布を生成し、人物領域の対応付けに使用することが決定された種類の特徴量のばらつきが少ない対応付け候補Yから順に照合を行う。ここで、ばらつきが少ないとは、各フレーム画像の人物領域から抽出される特徴量の分散が小さいことをいう。処理順番決定部44によって決定された順番に応じて、人物領域Xと対応付け候補Yとのペアの各々についての照合が行われる。 The processing order determination unit 44 determines the order of collation between person areas. Specifically, the processing order determination unit 44 sets the order of association of the plurality of person areas according to the distribution of the plurality of feature amounts extracted from the person area. For example, it is determined that the processing order determination unit 44 generates a distribution of each type of feature amount extracted from each frame image for a plurality of times for each association candidate Y and uses it for associating person regions. The matching is performed in order from the association candidate Y with less variation in the types of feature amounts. Here, “there is little variation” means that the variance of the feature amount extracted from the person area of each frame image is small. In accordance with the order determined by the processing order determination unit 44, collation is performed for each pair of the person region X and the association candidate Y.
図12に、処理順番決定部44の処理を説明するための図を示す。図12に示されるように、人物A1と人物B1とを照合し、人物A1と人物B2とを照合する場合を例に説明する。図12に示される例では、各フレーム画像から検出された人物B1の対応付け候補から抽出される特徴量の分布は、上半身領域の特徴量の分布FP1、下半身領域の特徴量の分布FP2、靴領域の特徴量の分布FP3、及び頭髪領域の特徴量の分布FP4である。各特徴量の分布において、1つの点は1つのフレーム画像の対応付け候補から抽出された1つの種類の特徴量を表す。 FIG. 12 is a diagram for explaining the processing of the processing order determination unit 44. As shown in FIG. 12, a case where the person A1 and the person B1 are collated and the person A1 and the person B2 are collated will be described as an example. In the example shown in FIG. 12, the feature amount distribution extracted from the candidate for association of the person B1 detected from each frame image includes the feature amount distribution FP1 of the upper body region, the feature amount distribution FP2 of the lower body region, shoes A distribution FP3 of the feature amount of the region and a distribution FP4 of the feature amount of the hair region. In each feature quantity distribution, one point represents one type of feature quantity extracted from one frame image association candidate.
特徴選択部42による特徴量の種類の選択の結果、上半身領域の特徴量を用いて照合が行われると決定された場合、処理順番決定部44は、人物B1の上半身領域の特徴量の分布F1の分散と、人物B2の上半身領域の特徴量の分布F1の分散とを比較する。そして、処理順番決定部44は、上半身の特徴量の分布の分散が小さい方の人物B2と、人物A1との照合が先に行われるように順番を設定する。各時刻のフレーム画像の対応付け候補Yから抽出された特徴量の分布の分散が小さいほど、安定して特徴量が抽出されていると考えることができる。そのため、処理順番決定部44は、各時刻のフレーム画像の対応付け候補Yから抽出された特徴量の分布の分散が小さい対応付け候補Yほど先に処理が行われるように設定する。図12に示される例では、照合の順番は、人物A1と人物B2との照合が行われた後に、人物A1と人物B1との照合が行われる。 As a result of selecting the type of feature amount by the feature selection unit 42, when it is determined that the matching is performed using the feature amount of the upper body region, the processing order determination unit 44 distributes the feature amount distribution F1 of the upper body region of the person B1. And the variance of the feature amount distribution F1 in the upper body region of the person B2. Then, the processing order determination unit 44 sets the order so that the person B2 with the smaller variance of the distribution of the feature quantity of the upper body is collated with the person A1 first. It can be considered that the feature quantity is more stably extracted as the variance of the distribution of the feature quantity extracted from the frame image correspondence candidate Y at each time is smaller. For this reason, the processing order determination unit 44 performs setting so that the association candidate Y having the smaller variance of the distribution of the feature amount extracted from the association candidate Y of the frame image at each time is processed earlier. In the example shown in FIG. 12, the collation order is such that the collation between the person A1 and the person B1 is performed after the collation between the person A1 and the person B2.
対応付け部46は、処理順番決定部44によって決定された照合の順番に従って、特徴選択部42によって選択された種類の特徴量に基づいて、人物領域Xと対応付け候補Yとの間の対応付けを行う。 The associating unit 46 associates the person region X with the associating candidate Y based on the type of feature amount selected by the feature selecting unit 42 according to the collation order determined by the processing order determining unit 44. I do.
具体的には、対応付け部46は、以下の式(13)に従って、人物1の色の特徴量(R1,G1,B1)と人物2の色の特徴量(R2,G2,B2)との間の相関値を求める。また、対応付け部46は、以下の式(14)に従って、人物1の色の特徴量(R1,G1,B1)と人物2の色の特徴量(R2,G2,B2)との間の距離を求める。そして、対応付け部46は、例えば、人物領域間の相関値が閾値より大きく、かつ人物領域間の距離が閾値より小さい場合に、人物1と人物2とを対応付ける。 Specifically, the associating unit 46 calculates the feature amount (R1, G1, B1) of the color of the person 1 and the feature amount (R2, G2, B2) of the color of the person 2 according to the following equation (13). The correlation value between them is obtained. Further, the associating unit 46 calculates the distance between the color feature amount (R1, G1, B1) of the person 1 and the color feature amount (R2, G2, B2) of the person 2 according to the following equation (14). Ask for. Then, for example, the association unit 46 associates the person 1 and the person 2 when the correlation value between the person areas is larger than the threshold and the distance between the person areas is smaller than the threshold.
(13)
(14)
(13)
(14)
表示装置48は、制御部14によって出力された、人物領域同士の対応付け結果を表示する。 The display device 48 displays the result of association between person areas output by the control unit 14.
画像解析装置10の制御部14は、例えば、図13に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、表示装置48及び入力装置等(図示省略)が接続される入出力interface(I/F)54、並びに記録媒体59に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークinterface(I/F)56を備える。CPU51、メモリ52、記憶部53、入出力装置54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。 The control unit 14 of the image analysis apparatus 10 can be realized by, for example, a computer 50 illustrated in FIG. The computer 50 includes a CPU 51, a memory 52 as a temporary storage area, and a nonvolatile storage unit 53. The computer 50 also has an input / output interface (I / F) 54 to which a display device 48, an input device and the like (not shown) are connected, and read / write (R / R) that controls reading and writing of data with respect to the recording medium 59. W) A portion 55 is provided. The computer 50 includes a network interface (I / F) 56 connected to a network such as the Internet. The CPU 51, memory 52, storage unit 53, input / output device 54, R / W unit 55, and network I / F 56 are connected to each other via a bus 57.
記憶部53は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を画像解析装置10として機能させるための画像解析プログラム60が記憶されている。画像解析プログラム60は、人物検出プロセス63と、人物追跡プロセス64と、統合プロセス65と、人物方向決定プロセス66と、重なり判定プロセス67と、他カメラ検出結果取得プロセス68と、対応付け候補決定プロセス69と、特徴分布生成プロセス70とを有する。また、画像解析プログラム60は、特徴選択プロセス71と、処理順番決定プロセス72と、対応付けプロセス73とを有する。また、記憶部53は、検出結果記憶部18と、追跡結果記憶部22と、統合結果記憶部26と、向き重なり結果記憶部30と、他カメラ検出結果記憶部36とを構成する情報が記憶される情報記憶領域74を有する。 The storage unit 53 can be realized by a hard disk drive (HDD), a solid state drive (SSD), a flash memory, or the like. An image analysis program 60 for causing the computer 50 to function as the image analysis device 10 is stored in the storage unit 53 as a storage medium. The image analysis program 60 includes a person detection process 63, a person tracking process 64, an integration process 65, a person direction determination process 66, an overlap determination process 67, another camera detection result acquisition process 68, and an association candidate determination process. 69 and a feature distribution generation process 70. Further, the image analysis program 60 includes a feature selection process 71, a processing order determination process 72, and an association process 73. Further, the storage unit 53 stores information constituting the detection result storage unit 18, the tracking result storage unit 22, the integration result storage unit 26, the orientation overlap result storage unit 30, and the other camera detection result storage unit 36. The information storage area 74 is provided.
CPU51は、画像解析プログラム60を記憶部53から読み出してメモリ52に展開し、画像解析プログラム60が有するプロセスを順次実行する。CPU51は、人物検出プロセス63を実行することで、図1に示す人物検出部16として動作する。また、CPU51は、人物追跡プロセス64を実行することで、図1に示す人物追跡部20として動作する。また、CPU51は、統合プロセス65を実行することで、図1に示す統合部24として動作する。また、CPU51は、人物方向決定プロセス66を実行することで、図1に示す人物方向決定部28として動作する。また、CPU51は、重なり判定プロセス67を実行することで、図1に示す重なり判定部32として動作する。また、CPU51は、他カメラ検出結果取得プロセス68を実行することで、図1に示す他カメラ検出結果取得部34として動作する。また、CPU51は、対応付け候補決定プロセス69を実行することで、図1に示す対応付け候補決定部38として動作する。また、CPU51は、特徴分布生成プロセス70を実行することで、図1に示す特徴分布生成部40として動作する。また、CPU51は、特徴選択プロセス71を実行することで、図1に示す特徴選択部42として動作する。また、CPU51は、処理順番決定プロセス72を実行することで、図1に示す処理順番決定部44として動作する。また、CPU51は、対応付けプロセス73を実行することで、図1に示す対応付け部46として動作する。また、CPU51は、情報記憶領域74から情報を読み出して、検出結果記憶部18をメモリ52に展開する。また、CPU51は、情報記憶領域74から情報を読み出して、追跡結果記憶部22をメモリ52に展開する。また、CPU51は、情報記憶領域74から情報を読み出して、統合結果記憶部26をメモリ52に展開する。また、CPU51は、情報記憶領域74から情報を読み出して、向き重なり結果記憶部30をメモリ52に展開する。また、CPU51は、情報記憶領域74から情報を読み出して、他カメラ検出結果記憶部36をメモリ52に展開する。これにより、画像解析プログラム60を実行したコンピュータ50が、画像解析装置10として機能することになる。ソフトウェアである画像解析プログラム60を実行するCPU51はハードウェアである。 The CPU 51 reads the image analysis program 60 from the storage unit 53 and develops it in the memory 52, and sequentially executes the processes included in the image analysis program 60. The CPU 51 operates as the person detection unit 16 illustrated in FIG. 1 by executing the person detection process 63. Further, the CPU 51 operates as the person tracking unit 20 shown in FIG. 1 by executing the person tracking process 64. Further, the CPU 51 operates as the integration unit 24 illustrated in FIG. 1 by executing the integration process 65. Further, the CPU 51 operates as the person direction determination unit 28 illustrated in FIG. 1 by executing the person direction determination process 66. Further, the CPU 51 operates as the overlap determination unit 32 illustrated in FIG. 1 by executing the overlap determination process 67. Further, the CPU 51 operates as the other camera detection result acquisition unit 34 illustrated in FIG. 1 by executing the other camera detection result acquisition process 68. Further, the CPU 51 operates as the association candidate determination unit 38 illustrated in FIG. 1 by executing the association candidate determination process 69. Further, the CPU 51 operates as the feature distribution generation unit 40 shown in FIG. 1 by executing the feature distribution generation process 70. Further, the CPU 51 operates as the feature selection unit 42 illustrated in FIG. 1 by executing the feature selection process 71. Further, the CPU 51 operates as the processing order determination unit 44 illustrated in FIG. 1 by executing the processing order determination process 72. Further, the CPU 51 operates as the association unit 46 illustrated in FIG. 1 by executing the association process 73. Further, the CPU 51 reads information from the information storage area 74 and develops the detection result storage unit 18 in the memory 52. Further, the CPU 51 reads information from the information storage area 74 and develops the tracking result storage unit 22 in the memory 52. Further, the CPU 51 reads information from the information storage area 74 and develops the integrated result storage unit 26 in the memory 52. Further, the CPU 51 reads information from the information storage area 74 and develops the orientation overlap result storage unit 30 in the memory 52. Further, the CPU 51 reads information from the information storage area 74 and develops the other camera detection result storage unit 36 in the memory 52. As a result, the computer 50 that has executed the image analysis program 60 functions as the image analysis apparatus 10. The CPU 51 that executes the image analysis program 60 that is software is hardware.
なお、画像解析プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。 Note that the functions realized by the image analysis program 60 can be realized by, for example, a semiconductor integrated circuit, more specifically, an application specific integrated circuit (ASIC).
次に、本実施形態に係る画像解析装置10の作用について説明する。 Next, the operation of the image analysis apparatus 10 according to the present embodiment will be described.
まず、画像解析装置10のカメラAによって動画像が撮像され、他の画像解析装置(図示省略)から他カメラBによって撮像された動画像についての他カメラ検出結果が取得され始めると、画像解析装置10において、図14に示す処理が実行される。以下、各処理について詳述する。 First, when a moving image is captured by the camera A of the image analysis apparatus 10 and another camera detection result for the moving image captured by the other camera B starts to be acquired from another image analysis apparatus (not shown), the image analysis apparatus 10, the process shown in FIG. 14 is executed. Hereinafter, each process is explained in full detail.
ステップS100において、人物検出部16は、カメラAによって撮像された動画像を取得する。 In step S <b> 100, the person detection unit 16 acquires a moving image captured by the camera A.
次に、ステップS102において、人物検出部16は、上記ステップS100で取得された動画像の各フレーム画像から人物領域を検出する。ステップS102は、図15に示す処理によって実現される。 Next, in step S102, the person detection unit 16 detects a person region from each frame image of the moving image acquired in step S100. Step S102 is realized by the process shown in FIG.
図15に示すステップS200において、人物検出部16は、各時刻のフレーム画像に対し、時刻t−1のフレーム画像と時刻tのフレーム画像との間の背景差分を求める。 In step S200 illustrated in FIG. 15, the person detection unit 16 obtains a background difference between the frame image at time t-1 and the frame image at time t for the frame image at each time.
ステップS202において、人物検出部16は、上記ステップS200で得られた背景差分に基づいて人物領域候補を特定する。次に、人物検出部16は、人物領域候補を、予め学習された識別器へ入力し、人物領域候補が人物領域であるか否かを表す判定結果を得る。 In step S202, the person detection unit 16 specifies a person area candidate based on the background difference obtained in step S200. Next, the person detection unit 16 inputs a person area candidate to a classifier that has been learned in advance, and obtains a determination result indicating whether the person area candidate is a person area.
ステップS204において、人物検出部16は、上記ステップS202で人物領域であると判定された検出結果を、検出結果記憶部18へ格納する。 In step S <b> 204, the person detection unit 16 stores the detection result determined as the person region in step S <b> 202 in the detection result storage unit 18.
次に、図14のステップS104において、人物追跡部20は、各フレーム画像における人物領域に応じて、同一人物の人物領域を追跡する。ステップS104は、図16に示す処理によって実現される。図16の処理は、各フレーム画像から検出された人物領域毎に実行される。 Next, in step S104 of FIG. 14, the person tracking unit 20 tracks the person area of the same person according to the person area in each frame image. Step S104 is realized by the processing shown in FIG. The process of FIG. 16 is executed for each person area detected from each frame image.
ステップS300において、人物追跡部20は、時刻t−1のフレーム画像内の人物領域の検出結果を検出結果記憶部18から読み込む。 In step S300, the person tracking unit 20 reads the detection result of the person region in the frame image at time t-1 from the detection result storage unit 18.
ステップS301において、人物追跡部20は、上記ステップS300で読み込まれた時刻t−1のフレーム画像内の各人物領域から、1つの人物領域を設定する。 In step S301, the person tracking unit 20 sets one person area from each person area in the frame image at time t-1 read in step S300.
ステップS302において、人物追跡部20は、上記ステップS301で設定された人物領域の画像情報をテンプレートとして設定し、時刻tのフレーム画像に対してテンプレートマッチングを行い、時刻tのフレーム画像の各位置について類似度を算出する。 In step S302, the person tracking unit 20 sets the image information of the person area set in step S301 as a template, performs template matching on the frame image at time t, and for each position of the frame image at time t. Calculate similarity.
ステップS304において、人物追跡部20は、上記ステップS302で算出された類似度が最も高い位置を算出する。 In step S304, the person tracking unit 20 calculates a position having the highest similarity calculated in step S302.
ステップS306において、人物追跡部20は、上記ステップS304で算出された類似度が最も高い位置に基づいて、時刻t−1のフレーム画像内の人物領域の各々と、時刻tのフレーム画像内の人物領域の各々との間における同一の人物領域を特定する。そして、人物追跡部20は、同一であると判定された人物領域に対して、同一の人物領域IDを付与して、追跡結果記憶部22に格納する。 In step S306, the person tracking unit 20 determines each person area in the frame image at time t-1 and the person in the frame image at time t based on the position having the highest similarity calculated in step S304. Identify the same person area between each of the areas. Then, the person tracking unit 20 assigns the same person area ID to the person areas determined to be the same and stores them in the tracking result storage unit 22.
ステップS307において、人物追跡部20は、上記ステップS300で読み込まれた時刻t−1のフレーム画像内の全ての人物領域について、上記ステップS301〜ステップS306の処理を実行したか否かを判定する。上記ステップS300で読み込まれた時刻t−1のフレーム画像内の全ての人物領域について、上記ステップS301〜ステップS306の処理を実行した場合には、ステップS308へ進む。一方、上記ステップS301〜ステップS306の処理を実行していない人物領域が存在する場合には、ステップS301へ戻る。 In step S307, the person tracking unit 20 determines whether or not the processes in steps S301 to S306 have been executed for all the person areas in the frame image at time t-1 read in step S300. If the processes in steps S301 to S306 have been executed for all the person regions in the frame image at time t-1 read in step S300, the process proceeds to step S308. On the other hand, if there is a person area for which the processes in steps S301 to S306 are not performed, the process returns to step S301.
ステップS308において、人物追跡部20は、検出結果記憶部18に格納された全ての時刻のフレーム画像について、上記ステップS300〜ステップS307の処理を実行したか否かを判定する。全ての時刻のフレーム画像について、上記ステップS300〜ステップS307の処理を実行した場合には、処理を終了する。上記ステップS300〜ステップS307の処理を実行していない時刻のフレーム画像が存在する場合には、ステップS300へ戻る。 In step S308, the person tracking unit 20 determines whether or not the processing in steps S300 to S307 has been performed on the frame images at all times stored in the detection result storage unit 18. When the processes in steps S300 to S307 are executed for the frame images at all times, the process ends. If there is a frame image at a time when the processes in steps S300 to S307 are not executed, the process returns to step S300.
次に、図14のステップS106において、統合部24は、上記ステップS102で検出結果記憶部18に格納された検出結果と、上記ステップS104で追跡結果記憶部22に格納された追跡結果とを統合する。ステップS106は、図17に示す処理によって実現される。図17の処理は、各フレーム画像から検出された人物領域毎に実行される。 Next, in step S106 of FIG. 14, the integration unit 24 integrates the detection result stored in the detection result storage unit 18 in step S102 and the tracking result stored in the tracking result storage unit 22 in step S104. To do. Step S106 is realized by the process shown in FIG. The process of FIG. 17 is executed for each person area detected from each frame image.
ステップS310において、統合部24は、検出結果記憶部18に格納された時刻tの検出結果を読み込む。 In step S <b> 310, the integration unit 24 reads the detection result at time t stored in the detection result storage unit 18.
ステップS312において、統合部24は、追跡結果記憶部22に格納された時刻tの追跡結果を読み込む。 In step S312, the integration unit 24 reads the tracking result at time t stored in the tracking result storage unit 22.
ステップS314において、統合部24は、上記ステップS310で読み込まれた時刻tのフレーム画像内の各人物領域から、1つの人物領域を設定する。 In step S314, the integration unit 24 sets one person area from each person area in the frame image at time t read in step S310.
ステップS316において、統合部24は、上記ステップS314で設定された人物領域と、上記ステップS312で読み込まれた時刻tのフレーム画像内の人物領域との間の重複率を算出する。 In step S316, the integration unit 24 calculates an overlap rate between the person area set in step S314 and the person area in the frame image at time t read in step S312.
ステップS318において、統合部24は、上記ステップS316で算出された重複率が閾値以上であるか否かを判定する。上記ステップS316で算出された重複率が閾値以上である場合には、ステップS320へ進む。一方、上記ステップS316で算出された重複率が閾値未満である場合には、ステップS321へ進む。 In step S318, the integration unit 24 determines whether the duplication rate calculated in step S316 is equal to or greater than a threshold value. If the duplication rate calculated in step S316 is greater than or equal to the threshold, the process proceeds to step S320. On the other hand, if the duplication rate calculated in step S316 is less than the threshold, the process proceeds to step S321.
ステップS320において、統合部24は、上記ステップS314で設定された人物領域についての、検出結果と追跡結果とを統合して、統合結果記憶部26に格納する。 In step S320, the integration unit 24 integrates the detection result and the tracking result for the person area set in step S314 and stores the integration result in the integration result storage unit 26.
ステップS321において、統合部24は、上記ステップS314で設定された人物領域を、新たに出現した人物であるとして、統合結果記憶部26に格納する。 In step S321, the integration unit 24 stores the person area set in step S314 in the integration result storage unit 26 as a newly appearing person.
ステップS322において、統合部24は、上記ステップS310で読み込まれた時刻tのフレーム画像内の全ての人物領域について、上記ステップS314〜ステップS321の処理を実行したか否かを判定する。上記ステップS310で読み込まれた時刻tのフレーム画像内の全ての人物領域について、上記ステップS314〜ステップS321の処理を実行した場合には、ステップS324へ進む。一方、上記ステップS314〜ステップS321の処理を実行していない人物領域が存在する場合には、ステップS314へ戻る。 In step S322, the integration unit 24 determines whether or not the processing in steps S314 to S321 has been executed for all person regions in the frame image at time t read in step S310. If the processes in steps S314 to S321 have been executed for all the human regions in the frame image at time t read in step S310, the process proceeds to step S324. On the other hand, if there is a person area that has not been subjected to the processes in steps S314 to S321, the process returns to step S314.
ステップS324において、統合部24は、検出結果記憶部18に格納された全ての時刻のフレーム画像について、上記ステップS310〜ステップS322の処理を実行したか否かを判定する。全ての時刻のフレーム画像について、上記ステップS310〜ステップS322の処理を実行した場合には、処理を終了する。上記ステップS310〜ステップS322の処理を実行していない時刻のフレーム画像が存在する場合には、ステップS310へ戻る。 In step S324, the integration unit 24 determines whether or not the processing in steps S310 to S322 has been performed on the frame images at all times stored in the detection result storage unit 18. When the processes in steps S310 to S322 are executed for the frame images at all times, the process ends. If there is a frame image at a time when the processes in steps S310 to S322 are not executed, the process returns to step S310.
次に、図14のステップS108において、人物方向決定部28は、上記ステップS106で統合結果記憶部26に格納された、各フレーム画像間で対応付けられた同一人物の人物領域の各々に基づいて、各人物領域の移動方向を推定する。そして、人物方向決定部28は、同一人物の人物領域の各々の移動方向に基づいて、各人物領域が示す人物の向きを特定する。ステップS108は、図18に示す処理によって実現される。図18の処理は、各フレーム画像から検出された人物領域毎に実行される。 Next, in step S108 of FIG. 14, the person direction determination unit 28 is based on each person area of the same person stored in the integration result storage unit 26 in step S106 and associated between the frame images. The movement direction of each person area is estimated. Then, the person direction determination unit 28 specifies the direction of the person indicated by each person area based on the movement direction of each person area of the same person. Step S108 is realized by the process shown in FIG. The processing in FIG. 18 is executed for each person area detected from each frame image.
ステップS326において、人物方向決定部28は、統合結果記憶部26に格納された統合結果から時刻t−1の統合結果と時刻tの統合結果とを読み出す。 In step S326, the person direction determination unit 28 reads the integration result at time t-1 and the integration result at time t from the integration result stored in the integration result storage unit 26.
ステップS328において、人物方向決定部28は、上記ステップS326で読み出された時刻t−1のフレーム画像内の各人物領域から、1つの人物領域を設定する。また、人物方向決定部28は、時刻t−1のフレーム画像内で設定された人物領域の人物領域IDと同一の人物領域IDの人物領域を、上記ステップS326で読み出された時刻tのフレーム画像内の各人物領域から設定する。 In step S328, the person direction determination unit 28 sets one person area from each person area in the frame image at time t-1 read in step S326. In addition, the person direction determination unit 28 reads the person area having the same person area ID as the person area ID of the person area set in the frame image at the time t−1 from the frame at the time t read in step S326. Set from each person area in the image.
ステップS330において、人物方向決定部28は、上記ステップS328で設定された時刻t−1の人物領域のy座標p(t−1)と、時刻tの人物領域のy座標p(t)とに基づいて、人物領域の画像上での移動方向に応じて、人物領域に映る人物の向きを算出する。そして、人物方向決定部28は、上記ステップS328で設定された人物領域に対して算出された向きを、向き重なり結果記憶部30へ格納する。 In step S330, the person direction determination unit 28 sets the y coordinate p (t-1) of the person area at time t-1 set in step S328 and the y coordinate p (t) of the person area at time t. Based on the movement direction of the person area on the image, the direction of the person shown in the person area is calculated. Then, the person direction determination unit 28 stores the orientation calculated with respect to the person region set in step S328 in the orientation overlap result storage unit 30.
ステップS332において、人物方向決定部28は、上記ステップS326で読み込まれた時刻t−1のフレーム画像内の全ての人物領域について、上記ステップS328〜ステップS330の処理を実行したか否かを判定する。上記ステップS326で読み込まれた時刻t−1のフレーム画像内の全ての人物領域について、上記ステップS328〜ステップS330の処理を実行した場合には、ステップS334へ進む。一方、上記ステップS328〜ステップS330の処理を実行していない人物領域が存在する場合には、ステップS328へ戻る。 In step S332, the person direction determination unit 28 determines whether or not the processes in steps S328 to S330 have been executed for all the person regions in the frame image at time t-1 read in step S326. . If the processes in steps S328 to S330 have been executed for all the person areas in the frame image at time t-1 read in step S326, the process proceeds to step S334. On the other hand, if there is a person area that has not been subjected to the processes in steps S328 to S330, the process returns to step S328.
ステップS334において、人物方向決定部28は、統合結果記憶部26に格納された全ての時刻のフレーム画像について、上記ステップS326〜ステップS332の処理を実行したか否かを判定する。全ての時刻のフレーム画像について、上記ステップS326〜ステップS332の処理を実行した場合には、処理を終了する。上記ステップS326〜ステップS332の処理を実行していない時刻のフレーム画像が存在する場合には、ステップS326へ戻る。 In step S334, the person direction determination unit 28 determines whether or not the processes in steps S326 to S332 have been executed for the frame images at all times stored in the integration result storage unit 26. When the processes in steps S326 to S332 are executed for the frame images at all times, the process ends. If there is a frame image at a time when the processes in steps S326 to S332 are not executed, the process returns to step S326.
次に、図14のステップS110において、重なり判定部32は、上記ステップS106で統合結果記憶部26に格納された統合結果に基づいて、人物領域同士の重なりが存在するか否かを判定する。ステップS110は、図19に示す処理によって実現される。図19の処理は、各フレーム画像から検出された人物領域毎に実行される。 Next, in step S110 of FIG. 14, the overlap determination unit 32 determines whether or not there is an overlap between human regions based on the integration result stored in the integration result storage unit 26 in step S106. Step S110 is realized by the process shown in FIG. The process of FIG. 19 is executed for each person area detected from each frame image.
ステップS400において、重なり判定部32は、統合結果記憶部26に格納された統合結果から時刻tの統合結果を読み出す。 In step S <b> 400, the overlap determination unit 32 reads the integration result at time t from the integration result stored in the integration result storage unit 26.
ステップS401において、重なり判定部32は、上記ステップS400で読み込まれた時刻tの統合結果のフレーム画像内の各人物領域から、1つの人物領域を設定する。 In step S401, the overlap determination unit 32 sets one person area from each person area in the frame image of the integration result at time t read in step S400.
ステップS402において、重なり判定部32は、上記ステップS401で設定された人物領域とは異なる人物領域の位置情報を読み出す。 In step S402, the overlap determination unit 32 reads position information of a person area different from the person area set in step S401.
ステップS404において、重なり判定部32は、上記ステップS401で設定された人物領域の位置情報と、上記ステップS402で読み出された人物領域の位置情報との間で、重なりが存在するか否かを判定する。重なりが存在する場合には、ステップS406へ進む。一方、重なりが存在しない場合には、ステップS408へ進む。 In step S404, the overlap determination unit 32 determines whether or not there is an overlap between the position information of the person area set in step S401 and the position information of the person area read in step S402. judge. If there is an overlap, the process proceeds to step S406. On the other hand, if there is no overlap, the process proceeds to step S408.
ステップS406において、重なり判定部32は、上記ステップS401で設定された人物領域の位置情報と、上記ステップS402で読み込まれた人物領域の位置情報との間で、y座標の値が小さい方の人物領域に重なりが存在すると判定する。そして、重なり判定部32は、重なりが存在することを示す情報を、向き重なり結果記憶部30へ格納する。 In step S406, the overlap determination unit 32 determines the person whose y coordinate value is smaller between the position information of the person area set in step S401 and the position information of the person area read in step S402. It is determined that there is an overlap in the area. Then, the overlap determination unit 32 stores information indicating that there is an overlap in the orientation overlap result storage unit 30.
ステップS408において、重なり判定部32は、上記ステップS401で設定された人物領域とは異なる全ての人物領域について、上記ステップS402〜ステップS406の処理を実行したか否かを判定する。上記ステップS401で設定された人物領域とは異なる全ての人物領域について、上記ステップS402〜ステップS406の処理を実行した場合には、ステップS410へ進む。一方、上記ステップS402〜ステップS406の処理を実行していない人物領域が存在する場合には、ステップS402へ戻る。 In step S408, the overlap determination unit 32 determines whether or not the processes in steps S402 to S406 have been executed for all person areas different from the person area set in step S401. When the processes in steps S402 to S406 have been executed for all person areas different from the person area set in step S401, the process proceeds to step S410. On the other hand, if there is a person region that has not been subjected to the processes in steps S402 to S406, the process returns to step S402.
ステップS412において、重なり判定部32は、上記ステップS400で読み込まれた時刻tのフレーム画像内の全ての人物領域について、上記ステップS401〜ステップS408の処理を実行したか否かを判定する。上記ステップS400で読み込まれた時刻tのフレーム画像内の全ての人物領域について、上記ステップS401〜ステップS408の処理を実行した場合には、ステップS412へ進む。一方、上記ステップS401〜ステップS408の処理を実行していない人物領域が存在する場合には、ステップS401へ戻る。 In step S412, the overlap determination unit 32 determines whether or not the processing in steps S401 to S408 has been executed for all person regions in the frame image at time t read in step S400. If the processes in steps S401 to S408 have been executed for all the human regions in the frame image at time t read in step S400, the process proceeds to step S412. On the other hand, if there is a person area that has not been subjected to the processes in steps S401 to S408, the process returns to step S401.
ステップS412において、重なり判定部32は、統合結果記憶部26に格納された全ての時刻のフレーム画像について、上記ステップS400〜ステップS410の処理を実行したか否かを判定する。全ての時刻のフレーム画像について、上記ステップS400〜ステップS410の処理を実行した場合には、処理を終了する。上記ステップS400〜ステップS410の処理を実行していない時刻のフレーム画像が存在する場合には、ステップS400へ戻る。 In step S412, the overlap determination unit 32 determines whether or not the processing in steps S400 to S410 has been performed on the frame images at all times stored in the integration result storage unit 26. If the processes in steps S400 to S410 have been executed for the frame images at all times, the process ends. If there is a frame image at a time when the processes in steps S400 to S410 are not executed, the process returns to step S400.
次に図14に示すステップS112において、対応付け候補決定部38は、向き重なり結果記憶部30に格納された、新たに出現した人物に対応する人物領域Xの各々を逐次読み出す。そして、対応付け候補決定部38は、人物領域Xとの対応付け候補Yを、他カメラ検出結果記憶部36に格納された人物領域の各々から設定する。ステップS112は、図20に示す処理によって実現される。 Next, in step S <b> 112 shown in FIG. 14, the association candidate determination unit 38 sequentially reads each of the person regions X corresponding to the newly appearing person stored in the orientation overlap result storage unit 30. Then, the association candidate determination unit 38 sets an association candidate Y with the person region X from each of the person regions stored in the other camera detection result storage unit 36. Step S112 is realized by the processing shown in FIG.
ステップS500において、対応付け候補決定部38は、向き重なり結果記憶部30から人物領域Xを読み込む。なお、対応付け候補決定部38は、現時刻から過去の所定の時間区間内に、人物領域IDが1つしか存在しない人物領域を、新たな人物に対応する人物領域Xとして読み込む。 In step S <b> 500, the association candidate determination unit 38 reads the person area X from the orientation overlap result storage unit 30. The association candidate determination unit 38 reads a person area having only one person area ID within a predetermined time interval from the current time as a person area X corresponding to a new person.
ステップS502において、対応付け候補決定部38は、上記ステップS500で読み込まれた人物領域Xを含むフレーム画像が撮像された時刻から、過去の所定時間区間内の人物領域を他カメラ検出結果記憶部36から読み出す。そして、対応付け候補決定部38は、他カメラ検出結果記憶部36から読み出された所定時間区間内の人物領域の各々を、対応付け候補Yとして設定する。 In step S502, the association candidate determination unit 38 selects the person region in the past predetermined time interval from the time when the frame image including the person region X read in step S500 is captured, and the other camera detection result storage unit 36. Read from. Then, the association candidate determination unit 38 sets each person region in the predetermined time interval read from the other camera detection result storage unit 36 as the association candidate Y.
次に図14に示すステップS114において、特徴分布生成部40は、上記ステップS112で設定された対応付け候補Yと人物領域Xとのペアの各々について、人物領域の向き及び人物領域内の重なりに応じて、対応付けに使用する特徴量の種類を決定する。ステップS114は、図21に示す処理によって実現される。図21の処理は、各フレーム画像から検出された人物領域毎に実行される。 Next, in step S114 shown in FIG. 14, the feature distribution generation unit 40 sets the orientation of the person area and the overlap in the person area for each of the pair of association candidates Y and the person area X set in step S112. Accordingly, the type of feature amount used for association is determined. Step S114 is realized by the processing shown in FIG. The process of FIG. 21 is executed for each person area detected from each frame image.
ステップS600において、特徴分布生成部40は、上記ステップS112で得られた対応付け候補Yの各々から、1つの対応付け候補を設定する。 In step S600, the feature distribution generation unit 40 sets one association candidate from each of the association candidates Y obtained in step S112.
ステップS602において、特徴分布生成部40は、向き重なり結果記憶部30及び他カメラ検出結果記憶部36に格納されている情報に基づいて、人物領域X及び上記ステップS600で設定された対応付け候補Yに重なりが存在するか否かを判定する。人物領域X及び対応付け候補Yに重なりが存在しない場合には、ステップS604へ進む。一方、人物領域X及び対応付け候補Yの少なくとも一方に重なりが存在する場合には、ステップS608へ進む。 In step S602, the feature distribution generation unit 40, based on the information stored in the direction overlap result storage unit 30 and the other camera detection result storage unit 36, the person region X and the association candidate Y set in step S600 above. It is determined whether or not there is an overlap. If there is no overlap between the person region X and the association candidate Y, the process proceeds to step S604. On the other hand, if there is an overlap in at least one of the person region X and the association candidate Y, the process proceeds to step S608.
ステップS604において、特徴分布生成部40は、向き重なり結果記憶部30及び他カメラ検出結果記憶部36に格納されている情報に基づいて、上記ステップS600で設定された対応付け候補Yの向きと人物領域Xの向きとが同じであるか否かを判定する。上記ステップS600で設定された対応付け候補Yの向きと人物領域Xの向きとが同じである場合には、ステップS606へ進む。一方、上記ステップS600で設定された対応付け候補Yの向きと、人物領域Xの向きとが異なる場合には、ステップS608へ進む。 In step S604, the feature distribution generation unit 40 determines the direction and person of the association candidate Y set in step S600 based on the information stored in the orientation overlap result storage unit 30 and the other camera detection result storage unit 36. It is determined whether or not the direction of the region X is the same. If the direction of the association candidate Y set in step S600 is the same as the direction of the person area X, the process proceeds to step S606. On the other hand, if the direction of the association candidate Y set in step S600 is different from the direction of the person area X, the process proceeds to step S608.
ステップS606において、特徴分布生成部40は、上記ステップS600で設定された対応付け候補Y及び人物領域Xから、全ての種類の特徴量を抽出する。 In step S606, the feature distribution generation unit 40 extracts all types of feature amounts from the association candidate Y and the person region X set in step S600.
ステップS608において、特徴分布生成部40は、人物領域Xの向きと対応付け候補Yの向き及び人物領域Xの重なりと対応付け候補Yの重なりに応じて、対応付けに用いる特徴量の種類を決定し、決定された種類の特徴量を抽出する。具体的には、特徴分布生成部40は、人物領域Xの向きと対応付け候補Yの向きとが異なり、かつ人物領域X及び対応付け候補Yの何れにも重なりが存在しない場合には、下半身領域の特徴量及び靴領域の特徴量を抽出する。また、特徴分布生成部40は、人物領域Xの向きと対応付け候補Yの向きとが一致し、かつ人物領域X及び対応付け候補Yの何れか一方に重なりが存在する場合には、重なりが存在しない領域の特徴量を抽出する。また、人物領域Xの向きと対応付け候補Yの向きとが一致せず、かつ人物領域X及び対応付け候補Yの何れか一方に重なりが存在する場合、下半身領域の特徴量及び靴領域の特徴量の少なくとも一方の特徴量でありかつ重なりが存在しない領域の特徴量が抽出される。 In step S <b> 608, the feature distribution generation unit 40 determines the type of feature amount used for association according to the orientation of the person region X and the orientation of the association candidate Y, and the overlap of the person region X and the association candidate Y. Then, the feature quantity of the determined type is extracted. Specifically, the feature distribution generation unit 40, when the orientation of the person region X and the orientation of the association candidate Y are different and there is no overlap in either the person region X or the association candidate Y, the lower body The feature amount of the region and the feature amount of the shoe region are extracted. In addition, the feature distribution generation unit 40 determines that if the orientation of the person region X matches the orientation of the association candidate Y and there is an overlap in either the person region X or the association candidate Y, the overlap occurs. Extract feature quantities of non-existing areas. Further, when the orientation of the person area X and the orientation of the association candidate Y do not match and there is an overlap in either the person area X or the association candidate Y, the feature amount of the lower body area and the feature of the shoe area A feature amount of an area that is at least one of the feature amounts and does not have an overlap is extracted.
ステップS610において、特徴分布生成部40は、全ての対応付け候補について、上記ステップS600〜ステップS608の処理を実行したか否かを判定する。全ての対応付け候補について、上記ステップS600〜ステップS608の処理を実行した場合には、ステップS612へ進む。一方、上記ステップS600〜ステップS608の処理を実行していない対応付け候補が存在する場合には、ステップS600へ戻る。 In step S610, the feature distribution generation unit 40 determines whether or not the processing in steps S600 to S608 has been executed for all the matching candidates. If the processing of step S600 to step S608 has been executed for all the association candidates, the process proceeds to step S612. On the other hand, if there is an association candidate for which the processes in steps S600 to S608 are not executed, the process returns to step S600.
ステップS612において、特徴分布生成部40は、上記ステップS606又は上記ステップS608で抽出された対応付け候補Yの各々の特徴量の分布を生成する。そして、特徴分布生成部40は、複数の対応付け候補Yから抽出された各特徴量の分布の分散を算出する。 In step S612, the feature distribution generation unit 40 generates a distribution of feature amounts of each of the association candidates Y extracted in step S606 or step S608. Then, the feature distribution generation unit 40 calculates the distribution of the distribution of each feature amount extracted from the plurality of association candidates Y.
次に、図14に示すステップS116において、特徴選択部42は、上記ステップS114で抽出された特徴量の中から、人物領域同士の対応付けに使用する特徴量の種類を更に選択する。ステップS116は、図22に示す処理によって実現される。図22の処理は、各フレーム画像から検出された人物領域毎に実行される。 Next, in step S116 shown in FIG. 14, the feature selection unit 42 further selects the type of feature amount used for associating person regions from the feature amounts extracted in step S114. Step S116 is realized by the process shown in FIG. The process of FIG. 22 is executed for each person area detected from each frame image.
ステップS700において、特徴選択部42は、上記ステップS112で得られた対応付け候補から、1つの対応付け候補を設定する。 In step S700, the feature selection unit 42 sets one association candidate from the association candidates obtained in step S112.
ステップS702において、特徴選択部42は、ステップS700で対応付け候補から抽出された特徴量のうち、特徴量の分布の分散が最も大きい特徴量を、ステップS700で設定された対応付け候補と人物領域Xとの対応付けに使用する特徴量として選択する。 In step S702, the feature selection unit 42 selects the feature amount having the largest distribution of the feature amount distribution among the feature amounts extracted from the association candidate in step S700, the association candidate set in step S700, and the person region. It is selected as a feature value used for association with X.
ステップS704において、特徴選択部42は、全ての対応付け候補について、上記ステップS700〜ステップS702の処理を実行したか否かを判定する。全ての対応付け候補について、上記ステップS700〜ステップS702の処理を実行した場合には、処理を終了する。一方、上記ステップS700〜ステップS702の処理を実行していない対応付け候補が存在する場合には、ステップS700へ戻る。 In step S704, the feature selection unit 42 determines whether or not the processing in steps S700 to S702 has been executed for all the matching candidates. When the processes in steps S700 to S702 are executed for all the association candidates, the process ends. On the other hand, if there is an association candidate for which the processes in steps S700 to S702 are not executed, the process returns to step S700.
次に、図14に示すステップS118において、処理順番決定部44は、人物領域Xと対応付け候補Yとの照合の順番を決定する。ステップS118は、図23に示す処理によって実現される。図23の処理は、各フレーム画像から検出された人物領域毎に実行される。 Next, in step S <b> 118 shown in FIG. 14, the processing order determination unit 44 determines the order of collation between the person region X and the association candidate Y. Step S118 is realized by the processing shown in FIG. The process of FIG. 23 is executed for each person area detected from each frame image.
ステップS800において、処理順番決定部44は、上記ステップS116において対応付け候補毎に選択された特徴量を読み込む。 In step S800, the processing order determination unit 44 reads the feature amount selected for each association candidate in step S116.
ステップS801において、処理順番決定部44は、1つの対応付け候補を設定する。 In step S801, the processing order determination unit 44 sets one association candidate.
ステップS802において、処理順番決定部44は、上記ステップS800で読み込まれた対応付け候補毎の特徴量であって、かつ各時刻のフレーム画像の対応付け候補から得られる特徴量を取得する。そして、処理順番決定部44は、各時刻のフレーム画像の対応付け候補から得られる特徴量に基づいて、上記ステップS801で設定された対応付け候補の特徴量の分布の分散を算出する。 In step S802, the processing order determination unit 44 acquires the feature amount for each association candidate read in step S800 and obtained from the association candidate for the frame image at each time. Then, the processing order determination unit 44 calculates the distribution of the feature amount distribution of the association candidate set in step S801 based on the feature amount obtained from the frame image association candidate at each time.
ステップS804において、処理順番決定部44は、全ての対応付け候補について、上記ステップS801〜ステップS802の処理を実行したか否かを判定する。全ての対応付け候補について、上記ステップS801〜ステップS802の処理を実行した場合には、ステップS806へ進む。一方、上記ステップS801〜ステップS802の処理を実行していない対応付け候補が存在する場合には、ステップS801へ戻る。 In step S804, the processing order determination unit 44 determines whether or not the processing in steps S801 to S802 has been executed for all the association candidates. When the processing of step S801 to step S802 has been executed for all the association candidates, the process proceeds to step S806. On the other hand, if there is an association candidate for which the processes in steps S801 to S802 are not performed, the process returns to step S801.
ステップS806において、処理順番決定部44は、上記ステップS802で算出された対応付け候補毎の特徴量の分布の分散に基づいて、照合の順番を決定する。処理順番決定部44は、分散の小さい対応付け候補については、分散の大きい対応付け候補よりも照合の順番が先になるように設定する。 In step S806, the processing order determining unit 44 determines the matching order based on the distribution of the feature amount distribution for each association candidate calculated in step S802. The processing order determination unit 44 sets a matching candidate with a small variance so that the matching order comes before a matching candidate with a large variance.
次に、図14に示すステップS120において、対応付け部46は、上記ステップS118で決定された照合の順番に従って、上記ステップS116で選択された種類の特徴量を用いて人物同士の対応付けを行う。ステップS120は、図24の処理によって実現される。図24の処理は、各フレーム画像から検出された人物領域毎に実行される。 Next, in step S120 shown in FIG. 14, the associating unit 46 associates persons using the type of feature amount selected in step S116 in accordance with the collation order determined in step S118. . Step S120 is realized by the process of FIG. The process of FIG. 24 is executed for each person area detected from each frame image.
ステップS900において、対応付け部46は、人物領域Xの特徴量を取得する。 In step S900, the associating unit 46 acquires the feature amount of the person region X.
ステップS902において、対応付け部46は、上記ステップS118で決定された照合の順番に従って、1つの対応付け候補Yを設定する。 In step S902, the association unit 46 sets one association candidate Y according to the collation order determined in step S118.
ステップS904において、対応付け部46は、上記ステップS902で設定された対応付け候補Yの特徴量であって、上記ステップS116で対応付け候補Yに対して選択された特徴量を取得する。 In step S904, the associating unit 46 acquires the feature amount of the association candidate Y set in step S902, which is the feature amount selected for the association candidate Y in step S116.
ステップS906において、対応付け部46は、上記ステップS900で取得した人物領域Xの特徴量と、上記ステップS904で取得した対応付け候補Yの特徴量とを照合して、照合の一致度を算出する。 In step S906, the associating unit 46 collates the feature amount of the person region X acquired in step S900 with the feature amount of the association candidate Y acquired in step S904, and calculates the matching degree of matching. .
ステップS908において、対応付け部46は、上記ステップS906で算出された対応付け候補の一致度が閾値以上であるか否かを判定する。上記ステップS906で算出された対応付け候補の一致度が閾値以上である場合には、ステップS912へ進む。一方、上記ステップS906で算出された対応付け候補の一致度が閾値未満である場合には、ステップS910へ進む。 In step S908, the associating unit 46 determines whether or not the degree of coincidence of the association candidates calculated in step S906 is equal to or greater than a threshold value. If the matching candidate matching degree calculated in step S906 is greater than or equal to the threshold, the process proceeds to step S912. On the other hand, if the matching degree of the matching candidates calculated in step S906 is less than the threshold value, the process proceeds to step S910.
ステップS910において、対応付け部46は、全ての対応付け候補について、上記ステップS902〜ステップS908の処理を実行したか否かを判定する。全ての対応付け候補について、上記ステップS902〜ステップS908の処理を実行した場合には、処理を終了する。一方、上記ステップS902〜ステップS908の処理を実行していない対応付け候補が存在する場合には、ステップS902へ戻る。 In step S910, the associating unit 46 determines whether or not the processes in steps S902 to S908 have been executed for all the association candidates. When the processes in steps S902 to S908 are executed for all the association candidates, the process ends. On the other hand, if there is an association candidate for which the processes in steps S902 to S908 are not executed, the process returns to step S902.
ステップS912において、対応付け部46は、他カメラ検出結果の人物領域と、上記ステップS902で設定された対応付け候補とを、同一人物として対応付ける。 In step S912, the associating unit 46 associates the person region of the other camera detection result with the associating candidate set in step S902 as the same person.
ステップS122において、対応付け部46は、対応付け結果を結果として出力する。例えば、対応付け部46は、同一人物として対応付けられた人物領域IDを対応付け結果として出力する。 In step S122, the association unit 46 outputs the association result as a result. For example, the associating unit 46 outputs the person area ID associated as the same person as the associating result.
ステップS124において、制御部14は処理を続行するか否かを判定する。処理を続行する場合には、ステップS100へ戻り、処理を続行しない場合には処理を終了する。 In step S124, the control unit 14 determines whether or not to continue the process. When the process is continued, the process returns to step S100, and when the process is not continued, the process is terminated.
以上説明したように、第1の実施形態に係る画像解析装置は、複数の画像の各々から検出された人物領域の状態に応じて、人物領域の対応付けに使用する特徴量の種類を決定する。そして、決定された種類の特徴量の一致度に応じて、複数の画像の各々のうちの対応する人物領域を特定する。これにより、人物領域同士の対応付けを精度良く行なうことができる。また、複数のカメラによって撮像された画像の各々から、人物領域の特徴量の一部が得られない場合であっても、同一の人物を特定することができる。 As described above, the image analysis apparatus according to the first embodiment determines the type of feature amount used for the association of the person areas according to the state of the person area detected from each of the plurality of images. . Then, a corresponding person region in each of the plurality of images is specified according to the degree of coincidence of the determined types of feature amounts. As a result, the person areas can be associated with each other with high accuracy. Further, even when a part of the feature amount of the person area cannot be obtained from each of the images captured by the plurality of cameras, the same person can be specified.
また、人物領域から正しく特徴が得られるかを事前に判定した上で、対応付けに用いる特徴を選択することで、対応付け候補が持つ特有の特徴量を用いることができるため、人物同士の正確な照合が可能となり、対応付け精度を向上させることができる。 In addition, since it is possible to use the unique feature amount of the matching candidate by selecting the feature used for matching after determining in advance whether or not the feature can be obtained correctly from the person area, Matching is possible, and the matching accuracy can be improved.
<第2の実施形態> <Second Embodiment>
次に、第2の実施形態について説明する。第2実施形態では、対応付け候補が含まれる過去のフレーム画像から、他カメラ検出結果の人物領域の向きと同一の向きの対応付け候補から得られる特徴量、及び重なりが存在しない対応付け候補から得られる特徴量を照合に用いる点が第1の実施形態と異なる。なお、第2の実施形態の構成は、第1の実施形態と同様の構成となるため、同一符号を付して説明を省略する。 Next, a second embodiment will be described. In the second embodiment, from past frame images including association candidates, feature amounts obtained from association candidates in the same direction as the direction of the person region of the other camera detection result, and association candidates that do not have an overlap The point which uses the obtained feature-value for collation differs from 1st Embodiment. In addition, since the structure of 2nd Embodiment becomes a structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.
第2の実施形態の特徴選択部42は、複数の人物領域の各々について、各時刻に撮像された複数のフレーム画像の各々から検出された人物領域の状態に応じて、人物領域の対応付けに使用する特徴量の種類を決定する。具体的には、第2の実施形態の特徴選択部42は、過去のフレーム画像に含まれる対応付け候補から、他カメラ検出結果の人物領域の向きと同一の向きの対応付け候補から得られる特徴量、及び重なりが存在しない対応付け候補から得られる特徴量を設定する。 The feature selection unit 42 according to the second embodiment associates a person area with each person area according to the state of the person area detected from each of the plurality of frame images captured at each time. Determine the type of feature to use. Specifically, the feature selection unit 42 of the second exemplary embodiment obtains a feature obtained from an association candidate included in a past frame image from an association candidate having the same orientation as the direction of the person region of the other camera detection result. An amount and a feature amount obtained from an association candidate with no overlap are set.
図25に、第2の実施形態の特徴量の選択を説明するための図を示す。第2の実施形態では、対応付け候補Y1,Y2の過去のフレーム画像FY1,FY2から、人物領域X1と向きが異なる対応付け候補から抽出された特徴量を用いず、人物領域X1と向きが同一である対応付け候補の特徴量が用いられる。また、特徴選択部42は、対応付け候補Y1,Y2の過去のフレーム画像から得られた対応付け候補の各々のうち、重なりが存在する対応付け候補については特徴量を抽出せずに、重なりが存在しない対応付け候補から特徴量を抽出する。なお、過去のフレーム画像FY1,FY2は、対応付け候補を設定する際に用いられる所定の時間範囲range内のフレーム画像である。 FIG. 25 is a diagram for explaining selection of feature amounts according to the second embodiment. In the second embodiment, the feature area extracted from the association candidates whose orientation is different from that of the person region X1 from the past frame images FY1 and FY2 of the association candidates Y1 and Y2 is not used, and the orientation is the same as that of the person region X1. The feature amount of the matching candidate is as follows. In addition, the feature selection unit 42 does not extract the feature amount of each of the association candidates obtained from the past frame images of the association candidates Y1 and Y2, and does not extract the feature amount. Feature values are extracted from non-existing association candidates. The past frame images FY1 and FY2 are frame images within a predetermined time range range used when setting the association candidates.
これにより、対応付け候補の向きと他カメラ検出結果の人物領域の向きとが同一であり、かつ対応付け候補に重なりが存在しない特徴量が照合に用いられるため、精度良く対応付けを行うことができる。 As a result, since the direction of the matching candidate is the same as the direction of the person area of the other camera detection result, and the feature quantity that does not overlap the matching candidate is used for matching, the matching can be performed with high accuracy. it can.
次に、第2の実施形態に係る画像解析装置10の特徴選択部42の作用について説明する。図14に示すステップS116において、特徴選択部42は、ステップS114で抽出された特徴量の中から、人物領域同士の対応付けに使用する特徴量の種類を更に選択する。第2の実施形態のステップS116は、図26に示す処理によって実現される。 Next, the operation of the feature selection unit 42 of the image analysis apparatus 10 according to the second embodiment will be described. In step S116 illustrated in FIG. 14, the feature selection unit 42 further selects the type of feature amount to be used for associating person regions from the feature amounts extracted in step S114. Step S116 of the second embodiment is realized by the process shown in FIG.
ステップS700において、特徴選択部42は、ステップS112で得られた対応付け候補から、1つの対応付け候補を設定する。 In step S700, the feature selection unit 42 sets one association candidate from the association candidates obtained in step S112.
ステップS752において、特徴選択部42は、上記ステップS700で設定された対応付け候補が、過去のフレーム画像に存在するか否かを判定する。対応付け候補が、過去のフレーム画像に存在する場合には、ステップS754へ進む。一方、対応付け候補が、過去のフレーム画像に存在しない場合には、ステップS756へ進む。 In step S752, the feature selection unit 42 determines whether or not the association candidate set in step S700 is present in the past frame image. If the association candidate exists in the past frame image, the process proceeds to step S754. On the other hand, if the association candidate does not exist in the past frame image, the process proceeds to step S756.
ステップS754において、特徴選択部42は、上記ステップS700で設定された対応付け候補が含まれる過去のフレーム画像から、他カメラ検出結果の人物領域と向きが同一であって、かつ重なりが存在しない対応付け候補を探索する。 In step S754, the feature selection unit 42 corresponds to the person frame of the other camera detection result that has the same direction and does not overlap from the past frame image including the association candidate set in step S700. Search for attachment candidates.
ステップS756において、特徴選択部42は、上記ステップS754で探索された対応付け候補から抽出された特徴量の各々のうち、ステップ612で算出された特徴量の分布の分散が最も大きい特徴量を、人物同士の対応付けに使用する特徴量として選択する。 In step S756, the feature selection unit 42 selects the feature amount having the largest distribution of the feature amount distribution calculated in step 612 among the feature amounts extracted from the association candidates searched in step S754. It is selected as a feature value used for matching people.
ステップS704において、特徴選択部42は、全ての対応付け候補について、上記ステップS700〜ステップS756の処理を実行したか否かを判定する。全ての対応付け候補について、上記ステップS700〜ステップS756の処理を実行した場合には、処理を終了する。一方、上記ステップS700〜ステップS756の処理を実行していない対応付け候補が存在する場合には、ステップS700へ戻る。 In step S704, the feature selection unit 42 determines whether or not the processing in steps S700 to S756 has been executed for all the matching candidates. When the processes in steps S700 to S756 are executed for all association candidates, the process ends. On the other hand, if there is an association candidate for which the processes in steps S700 to S756 are not performed, the process returns to step S700.
以上説明したように、第2の実施形態に係る画像解析装置は、対応付け候補が含まれる過去のフレーム画像から、新たな人物領域の向きと同一の向きの対応付け候補から得られる特徴量、及び重なりが存在しない対応付け候補から得られる特徴量を照合に用いる。これにより、人物領域を精度良く対応付けることができる。 As described above, the image analysis apparatus according to the second embodiment is characterized in that the feature amount obtained from the association candidate having the same orientation as the direction of the new person region from the past frame image including the association candidate, And the feature quantity obtained from the matching candidate having no overlap is used for collation. Thereby, a person area can be associated with high accuracy.
<第3の実施形態> <Third Embodiment>
次に、第3の実施形態について説明する。第3実施形態では、対応付け候補の各々から抽出される特徴量の分布において、平均からのずれが大きい特徴量を持つ対応付け候補から照合を行う点が第1又は第2の実施形態と異なる。なお、第3の実施形態の構成は、第1の実施形態と同様の構成となるため、同一符号を付して説明を省略する。 Next, a third embodiment will be described. The third embodiment differs from the first or second embodiment in that collation is performed from a matching candidate having a feature amount that is largely deviated from the average in the distribution of feature amounts extracted from each of the matching candidates. . In addition, since the structure of 3rd Embodiment becomes a structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.
第3の実施形態の処理順番決定部44は、複数の人物領域の各々について、複数の人物領域の各々から抽出される特徴量の分布の平均と、人物領域から抽出される特徴量との間のずれに応じて、人物領域の各々の対応付けの順番を設定する。具体的には、処理順番決定部44は、対応付け候補の各々から抽出される特徴量の分布において、平均からのずれが大きい特徴量を持つ対応付け候補から照合を行うように、照合の順番を設定する。 The processing order determination unit 44 according to the third embodiment determines, for each of a plurality of person regions, between the average of the distribution of feature amounts extracted from each of the plurality of person regions and the feature amount extracted from the person region. The correspondence order of each person area is set in accordance with the deviation. Specifically, the processing order determination unit 44 performs the collation order so that collation is performed from the association candidates having the feature amount having a large deviation from the average in the distribution of the feature amounts extracted from each of the association candidates. Set.
図27に、第3の実施形態の処理順番の設定を説明するための図を示す。図27に示される例では、各対応付け候補から抽出される特徴量の分布が示されている。特徴量の分布における1点が1つの対応付け候補から抽出された特徴量を表す。第3の実施形態に係る画像解析装置10の処理順番決定部44は、対応付け候補から抽出される特徴量の分布の平均からのずれに応じて、対応付け候補の照合の順番を設定する。図27に示される例では、人物領域Y2の特徴量の方が、人物領域Y1の特徴量よりも平均からずれているため、処理順番決定部44は、人物領域Y2の照合が人物領域Y1の照合よりも先に行われるように、照合の順番を設定する。平均からのずれが大きい特徴量を持つ対応付け候補は、他の対応付け候補と比較して特有の特徴を持っていることを表すため、高精度の照合を行うことができる可能性が高まるため、優先的に照合を行われる。 FIG. 27 is a diagram for explaining the setting of the processing order of the third embodiment. In the example shown in FIG. 27, the distribution of feature amounts extracted from each association candidate is shown. One point in the feature amount distribution represents a feature amount extracted from one association candidate. The processing order determination unit 44 of the image analysis apparatus 10 according to the third embodiment sets the matching candidate collation order in accordance with the deviation from the average of the distribution of feature amounts extracted from the matching candidates. In the example shown in FIG. 27, since the feature amount of the person region Y2 is shifted from the average than the feature amount of the person region Y1, the processing order determination unit 44 matches the person region Y2 to that of the person region Y1. The collation order is set so that the collation is performed before the collation. Because the association candidate having a feature amount that is largely deviated from the average indicates that it has a unique feature compared to other association candidates, the possibility of performing high-precision collation is increased. , Collation is preferentially performed.
以上説明したように、第3の実施形態に係る画像解析装置は、複数の対応付け候補から得られる特徴量の分布の平均に基づいて、照合の順番を設定する。これにより、人物領域同士の特徴量の照合の処理量を軽減できる可能性が高まる。 As described above, the image analysis apparatus according to the third embodiment sets the collation order based on the average of the distribution of feature amounts obtained from a plurality of association candidates. This increases the possibility of reducing the amount of processing for matching feature quantities between person regions.
なお、上記では、画像解析プログラム60が記憶部53に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記録媒体に記録された形態で提供することも可能である。 In the above description, the mode in which the image analysis program 60 is stored (installed) in the storage unit 53 in advance has been described. However, the present invention is not limited to this. The program according to the disclosed technology can be provided in a form recorded on a recording medium such as a CD-ROM, a DVD-ROM, or a USB memory.
次に、実施形態の変形例を説明する。 Next, a modification of the embodiment will be described.
本実施形態では、対象物が人物である場合を例に説明したがこれに限定されるものではない。例えば、対象物としては、車両などの移動体や動物等であってもよい。 In the present embodiment, the case where the object is a person has been described as an example, but the present invention is not limited to this. For example, the object may be a moving body such as a vehicle or an animal.
また、上記実施形態では、他カメラ検出結果として、他のカメラBから撮像された人物領域が送信される場合を例に説明したがこれに限定されるものではない。例えば、他カメラ検出結果として、対応付けに使用する選択特徴情報(例えば、上記特許文献2)が併せて送付されてもよい。この場合には、選択特徴情報を考慮して、カメラAによって撮像された人物領域と、他カメラ検出結果の人物領域とを対応付けることができる。 Moreover, although the said embodiment demonstrated as an example the case where the person area imaged from the other camera B was transmitted as another camera detection result, it is not limited to this. For example, as the other camera detection result, selection feature information (for example, the above-mentioned Patent Document 2) used for association may be sent together. In this case, in consideration of the selected feature information, the person area captured by the camera A can be associated with the person area of the other camera detection result.
また、本実施形態の画像解析装置10は、特徴選択部42によって選択された人物領域毎の特徴量を、他の画像解析装置へ送信してもよい。この場合には、他の画像解析装置において、人物領域の向き及び重なりを考慮した対応付けが可能となる。また、同様に、画像解析装置10は、他の画像解析装置によって得られた人物領域の向き及び重なりに関する情報を取得し、人物領域の向き及び重なりを考慮した対応付けを行うこともできる。 In addition, the image analysis device 10 according to the present embodiment may transmit the feature amount for each person area selected by the feature selection unit 42 to another image analysis device. In this case, in another image analysis apparatus, the association can be performed in consideration of the direction and overlap of the person area. Similarly, the image analysis apparatus 10 can also acquire information regarding the orientation and overlap of the person area obtained by another image analysis apparatus, and perform association in consideration of the orientation and overlap of the person area.
以上の各実施形態に関し、更に以下の付記を開示する。 Regarding the above embodiments, the following additional notes are disclosed.
(付記1)
複数の画像の各々から検出された対象物領域の状態に応じて、前記複数の画像間における前記対象物領域の対応付けに使用する特徴量の種類を決定し、
前記対象物領域の各々から抽出された前記種類の前記特徴量の一致度に応じて、複数の画像の各々において対応する前記対象物領域を特定する、
処理をコンピュータに実行させる画像解析プログラム。
(Appendix 1)
According to the state of the object area detected from each of the plurality of images, determine the type of feature amount used for associating the object area between the plurality of images,
Identifying the corresponding object region in each of a plurality of images according to the degree of coincidence of the type of the feature amount extracted from each of the object regions;
An image analysis program that causes a computer to execute processing.
(付記2)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
前記対象物領域の状態である、前記対象物領域が示す対象物の向き及び前記対象物領域が示す前記対象物と該対象物とは異なる物体との間の重なりの少なくとも一方に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
付記1に記載の画像解析プログラム。
(Appendix 2)
When determining the type of feature value used for the association of the object area,
According to at least one of the orientation of the object indicated by the object area and the overlap between the object indicated by the object area and an object different from the object, which is the state of the object area, Decide the type of feature used to match object areas,
The image analysis program according to attachment 1.
(付記3)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
異なる前記画像の各々から検出された前記対象物領域のペアの各々について、
前記対象物領域の少なくとも一方において前記重なりが含まれる場合には、前記重なりの領域とは異なる領域から抽出される前記特徴量を、前記対象物領域の対応付けに使用する特徴量として決定する、
付記2に記載の画像解析プログラム。
(Appendix 3)
When determining the type of feature value used for the association of the object area,
For each of the object region pairs detected from each of the different images,
When at least one of the object regions includes the overlap, the feature amount extracted from a region different from the overlap region is determined as a feature amount to be used for associating the object region.
The image analysis program according to attachment 2.
(付記4)
前記対象物領域としての人物領域の対応付けに使用する特徴量の種類を決定する際に、
複数の前記人物領域のペアの各々について、
一方の前記人物領域と他方の前記人物領域との向きが対応していない場合には、前記人物領域の上半身とは異なる領域から抽出される前記特徴量を、前記対象物領域の対応付けに使用する特徴量として決定する、
付記2又は付記3に記載の画像解析プログラム。
(Appendix 4)
When determining the type of feature amount used for associating the person area as the object area,
For each of the plurality of pairs of person regions,
When the orientation of one person area and the other person area does not correspond, the feature amount extracted from an area different from the upper body of the person area is used for associating the object area To be determined as the feature quantity
The image analysis program according to Supplementary Note 2 or Supplementary Note 3.
(付記5)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
複数の前記対象物領域の各々について、前記対象物領域の状態である、複数の前記対象物領域の各々から抽出される特徴量の分布の状態に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
付記1〜付記4の何れか1項に記載の画像解析プログラム。
(Appendix 5)
When determining the type of feature value used for the association of the object area,
For each of the plurality of target areas, used for associating the target areas in accordance with the state of distribution of feature values extracted from each of the plurality of target areas, which is the state of the target area. Determine the type of feature
The image analysis program according to any one of appendix 1 to appendix 4.
(付記6)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
複数の前記対象物領域の各々について、各時刻に撮像された前記複数の画像の各々から検出された前記対象物領域の状態である、前記対象物領域が示す対象物の向き及び前記対象物領域が示す前記対象物と該対象物とは異なる物体との間の重なりの少なくとも一方に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
付記1〜付記5の何れか1項に記載の画像解析プログラム。
(Appendix 6)
When determining the type of feature value used for the association of the object area,
For each of the plurality of object regions, the state of the object region detected from each of the plurality of images captured at each time and the direction of the object indicated by the object region and the object region Determining the type of feature amount used for associating the object area according to at least one of the overlap between the object indicated by and an object different from the object;
The image analysis program according to any one of supplementary notes 1 to 5.
(付記7)
複数の画像の各々のうちの対応する前記対象物領域を特定する際に、
前記対象物領域の対応付けに使用する種類の特徴量の分散が小さい対象物領域から順に、他の画像から検出された対象物領域の特徴量との一致度を判定する、
付記1〜付記6の何れか1項に記載の画像解析プログラム。
(Appendix 7)
When identifying the corresponding object region in each of a plurality of images,
The degree of coincidence with the feature amount of the target area detected from another image is determined in order from the target area having a small variance of the type of feature quantity used for the target area association.
The image analysis program according to any one of supplementary notes 1 to 6.
(付記8)
複数の画像の各々のうちの対応する前記対象物領域を特定する際に、
複数の前記対象物領域の各々から抽出される特徴量の分布の平均と、前記対象物領域から抽出される特徴量との間のずれが大きい対象物領域から順に、他の画像から検出された対象物領域の特徴量との一致度を判定する、
付記1〜付記6の何れか1項に記載の画像解析プログラム。
(Appendix 8)
When identifying the corresponding object region in each of a plurality of images,
Detected from other images in order from the object region in which the deviation between the average of the distribution of the feature amount extracted from each of the plurality of target regions and the feature amount extracted from the target region is large Determining the degree of coincidence with the feature amount of the object area,
The image analysis program according to any one of supplementary notes 1 to 6.
(付記9)
複数の画像の各々から検出された対象物領域の状態に応じて、前記複数の画像間における前記対象物領域の対応付けに使用する特徴量の種類を決定し、
前記対象物領域の各々から抽出された前記種類の前記特徴量の一致度に応じて、複数の画像の各々において対応する前記対象物領域を特定する、
処理をコンピュータに実行させる画像解析方法。
(Appendix 9)
According to the state of the object area detected from each of the plurality of images, determine the type of feature amount used for associating the object area between the plurality of images,
Identifying the corresponding object region in each of a plurality of images according to the degree of coincidence of the type of the feature amount extracted from each of the object regions;
An image analysis method for causing a computer to execute processing.
(付記10)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
前記対象物領域の状態である、前記対象物領域が示す対象物の向き及び前記対象物領域が示す前記対象物と該対象物とは異なる物体との間の重なりの少なくとも一方に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
付記9に記載の画像解析方法。
(Appendix 10)
When determining the type of feature value used for the association of the object area,
According to at least one of the orientation of the object indicated by the object area and the overlap between the object indicated by the object area and an object different from the object, which is the state of the object area, Decide the type of feature used to match object areas,
The image analysis method according to appendix 9.
(付記11)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
異なる前記画像の各々から検出された前記対象物領域のペアの各々について、
前記対象物領域の少なくとも一方において前記重なりが含まれる場合には、前記重なりの領域とは異なる領域から抽出される前記特徴量を、前記対象物領域の対応付けに使用する特徴量として決定する、
付記10に記載の画像解析方法。
(Appendix 11)
When determining the type of feature value used for the association of the object area,
For each of the object region pairs detected from each of the different images,
When at least one of the object regions includes the overlap, the feature amount extracted from a region different from the overlap region is determined as a feature amount to be used for associating the object region.
The image analysis method according to attachment 10.
(付記12)
前記対象物領域としての人物領域の対応付けに使用する特徴量の種類を決定する際に、
複数の前記人物領域のペアの各々について、
一方の前記人物領域と他方の前記人物領域との向きが対応していない場合には、前記人物領域の上半身とは異なる領域から抽出される前記特徴量を、前記対象物領域の対応付けに使用する特徴量として決定する、
付記10又は付記11に記載の画像解析方法。
(Appendix 12)
When determining the type of feature amount used for associating the person area as the object area,
For each of the plurality of pairs of person regions,
When the orientation of one person area and the other person area does not correspond, the feature amount extracted from an area different from the upper body of the person area is used for associating the object area To be determined as the feature quantity
The image analysis method according to appendix 10 or appendix 11.
(付記13)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
複数の前記対象物領域の各々について、前記対象物領域の状態である、複数の前記対象物領域の各々から抽出される特徴量の分布の状態に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
付記9〜付記12の何れか1項に記載の画像解析方法。
(Appendix 13)
When determining the type of feature value used for the association of the object area,
For each of the plurality of target areas, used for associating the target areas in accordance with the state of distribution of feature values extracted from each of the plurality of target areas, which is the state of the target area. Determine the type of feature
The image analysis method according to any one of appendix 9 to appendix 12.
(付記14)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
複数の前記対象物領域の各々について、各時刻に撮像された前記複数の画像の各々から検出された前記対象物領域の状態である、前記対象物領域が示す対象物の向き及び前記対象物領域が示す前記対象物と該対象物とは異なる物体との間の重なりの少なくとも一方に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
付記9〜付記13の何れか1項に記載の画像解析方法。
(Appendix 14)
When determining the type of feature value used for the association of the object area,
For each of the plurality of object regions, the state of the object region detected from each of the plurality of images captured at each time and the direction of the object indicated by the object region and the object region Determining the type of feature amount used for associating the object area according to at least one of the overlap between the object indicated by and an object different from the object;
The image analysis method according to any one of appendix 9 to appendix 13.
(付記15)
複数の画像の各々のうちの対応する前記対象物領域を特定する際に、
前記対象物領域の対応付けに使用する種類の特徴量の分散が小さい対象物領域から順に、他の画像から検出された対象物領域の特徴量との一致度を判定する、
付記9〜付記14の何れか1項に記載の画像解析方法。
(Appendix 15)
When identifying the corresponding object region in each of a plurality of images,
The degree of coincidence with the feature amount of the target area detected from another image is determined in order from the target area having a small variance of the type of feature quantity used for the target area association.
The image analysis method according to any one of appendix 9 to appendix 14.
(付記16)
複数の画像の各々のうちの対応する前記対象物領域を特定する際に、
複数の前記対象物領域の各々から抽出される特徴量の分布の平均と、前記対象物領域から抽出される特徴量との間のずれが大きい対象物領域から順に、他の画像から検出された対象物領域の特徴量との一致度を判定する、
付記9〜付記14の何れか1項に記載の画像解析方法。
(Appendix 16)
When identifying the corresponding object region in each of a plurality of images,
Detected from other images in order from the object region in which the deviation between the average of the distribution of the feature amount extracted from each of the plurality of target regions and the feature amount extracted from the target region is large Determining the degree of coincidence with the feature amount of the object area,
The image analysis method according to any one of appendix 9 to appendix 14.
(付記17)
複数の画像の各々から検出された対象物領域の状態に応じて、前記複数の画像間における前記対象物領域の対応付けに使用する特徴量の種類を決定する決定部と、
前記対象物領域の各々から抽出された前記種類の前記特徴量の一致度に応じて、複数の画像の各々において対応する前記対象物領域を特定する特定部と、
を備える画像解析装置。
(Appendix 17)
A determining unit that determines a type of feature amount used for associating the target area between the plurality of images according to a state of the target area detected from each of the plurality of images;
A specifying unit for specifying the corresponding object region in each of a plurality of images according to the degree of coincidence of the type of the feature amount extracted from each of the object regions;
An image analysis apparatus comprising:
(付記18)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
前記対象物領域の状態である、前記対象物領域が示す対象物の向き及び前記対象物領域が示す前記対象物と該対象物とは異なる物体との間の重なりの少なくとも一方に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
付記17に記載の画像解析装置。
(Appendix 18)
When determining the type of feature value used for the association of the object area,
According to at least one of the orientation of the object indicated by the object area and the overlap between the object indicated by the object area and an object different from the object, which is the state of the object area, Decide the type of feature used to match object areas,
The image analysis device according to appendix 17.
(付記19)
前記対象物領域の対応付けに使用する特徴量の種類を決定する際に、
異なる前記画像の各々から検出された前記対象物領域のペアの各々について、
前記対象物領域の少なくとも一方において前記重なりが含まれる場合には、前記重なりの領域とは異なる領域から抽出される前記特徴量を、前記対象物領域の対応付けに使用する特徴量として決定する、
付記18に記載の画像解析装置。
(Appendix 19)
When determining the type of feature value used for the association of the object area,
For each of the object region pairs detected from each of the different images,
When at least one of the object regions includes the overlap, the feature amount extracted from a region different from the overlap region is determined as a feature amount to be used for associating the object region.
The image analysis apparatus according to appendix 18.
(付記20)
複数の画像の各々から検出された対象物領域の状態に応じて、前記複数の画像間における前記対象物領域の対応付けに使用する特徴量の種類を決定し、
前記対象物領域の各々から抽出された前記種類の前記特徴量の一致度に応じて、複数の画像の各々において対応する前記対象物領域を特定する、
処理をコンピュータに実行させる画像解析プログラムを記憶した記憶媒体。
(Appendix 20)
According to the state of the object area detected from each of the plurality of images, determine the type of feature amount used for associating the object area between the plurality of images,
Identifying the corresponding object region in each of a plurality of images according to the degree of coincidence of the type of the feature amount extracted from each of the object regions;
A storage medium storing an image analysis program that causes a computer to execute processing.
10 画像解析装置
14 制御部
16 人物検出部
18 検出結果記憶部
20 人物追跡部
22 追跡結果記憶部
24 統合部
26 統合結果記憶部
28 人物方向決定部
30 結果記憶部
32 重なり判定部
34 他カメラ検出結果取得部
36 他カメラ検出結果記憶部
38 候補決定部
40 特徴分布生成部
42 特徴選択部
44 処理順番決定部
46 対応付け部
48 表示装置
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記録媒体
DESCRIPTION OF SYMBOLS 10 Image analysis apparatus 14 Control part 16 Person detection part 18 Detection result storage part 20 Person tracking part 22 Tracking result storage part 24 Integration part 26 Integration result storage part 28 Person direction determination part 30 Result storage part 32 Overlap determination part 34 Other camera detection Result acquisition unit 36 Other camera detection result storage unit 38 Candidate determination unit 40 Feature distribution generation unit 42 Feature selection unit 44 Processing order determination unit 46 Association unit 48 Display device 50 Computer 51 CPU
52 Memory 53 Storage 59 Recording medium
Claims (10)
前記対象物領域の各々から抽出された前記種類の前記特徴量の一致度に応じて、複数の画像の各々において対応する前記対象物領域を特定する、
処理をコンピュータに実行させる画像解析プログラム。 According to the state of the object area detected from each of the plurality of images, determine the type of feature amount used for associating the object area between the plurality of images,
Identifying the corresponding object region in each of a plurality of images according to the degree of coincidence of the type of the feature amount extracted from each of the object regions;
An image analysis program that causes a computer to execute processing.
前記対象物領域の状態である、前記対象物領域が示す対象物の向き及び前記対象物領域が示す前記対象物と該対象物とは異なる物体との間の重なりの少なくとも一方に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
請求項1に記載の画像解析プログラム。 When determining the type of feature value used for the association of the object area,
According to at least one of the orientation of the object indicated by the object area and the overlap between the object indicated by the object area and an object different from the object, which is the state of the object area, Decide the type of feature used to match object areas,
The image analysis program according to claim 1.
異なる前記画像の各々から検出された前記対象物領域のペアの各々について、
前記対象物領域の少なくとも一方において前記重なりが含まれる場合には、前記重なりの領域とは異なる領域から抽出される前記特徴量を、前記対象物領域の対応付けに使用する特徴量として決定する、
請求項2に記載の画像解析プログラム。 When determining the type of feature value used for the association of the object area,
For each of the object region pairs detected from each of the different images,
When at least one of the object regions includes the overlap, the feature amount extracted from a region different from the overlap region is determined as a feature amount to be used for associating the object region.
The image analysis program according to claim 2.
複数の前記人物領域のペアの各々について、
一方の前記人物領域と他方の前記人物領域との向きが対応していない場合には、前記人物領域の上半身とは異なる領域から抽出される前記特徴量を、前記対象物領域の対応付けに使用する特徴量として決定する、
請求項2又は請求項3に記載の画像解析プログラム。 When determining the type of feature amount used for associating the person area as the object area,
For each of the plurality of pairs of person regions,
When the orientation of one person area and the other person area does not correspond, the feature amount extracted from an area different from the upper body of the person area is used for associating the object area To be determined as the feature quantity
The image analysis program according to claim 2 or 3.
複数の前記対象物領域の各々について、前記対象物領域の状態である、複数の前記対象物領域の各々から抽出される特徴量の分布の状態に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
請求項1〜請求項4の何れか1項に記載の画像解析プログラム。 When determining the type of feature value used for the association of the object area,
For each of the plurality of target areas, used for associating the target areas in accordance with the state of distribution of feature values extracted from each of the plurality of target areas, which is the state of the target area. Determine the type of feature
The image analysis program according to any one of claims 1 to 4.
複数の前記対象物領域の各々について、各時刻に撮像された前記複数の画像の各々から検出された前記対象物領域の状態である、前記対象物領域が示す対象物の向き及び前記対象物領域が示す前記対象物と該対象物とは異なる物体との間の重なりの少なくとも一方に応じて、前記対象物領域の対応付けに使用する特徴量の種類を決定する、
請求項1〜請求項5の何れか1項に記載の画像解析プログラム。 When determining the type of feature value used for the association of the object area,
For each of the plurality of object regions, the state of the object region detected from each of the plurality of images captured at each time and the direction of the object indicated by the object region and the object region Determining the type of feature amount used for associating the object area according to at least one of the overlap between the object indicated by and an object different from the object;
The image analysis program according to any one of claims 1 to 5.
前記対象物領域の対応付けに使用する種類の特徴量の分散が小さい対象物領域から順に、他の画像から検出された対象物領域の特徴量との一致度を判定する、
請求項1〜請求項6の何れか1項に記載の画像解析プログラム。 When identifying the corresponding object region in each of a plurality of images,
The degree of coincidence with the feature amount of the target area detected from another image is determined in order from the target area having a small variance of the type of feature quantity used for the target area association.
The image analysis program of any one of Claims 1-6.
複数の前記対象物領域の各々から抽出される特徴量の分布の平均と、前記対象物領域から抽出される特徴量との間のずれが大きい対象物領域から順に、他の画像から検出された対象物領域の特徴量との一致度を判定する、
請求項1〜請求項6の何れか1項に記載の画像解析プログラム。 When identifying the corresponding object region in each of a plurality of images,
Detected from other images in order from the object region in which the deviation between the average of the distribution of the feature amount extracted from each of the plurality of target regions and the feature amount extracted from the target region is large Determining the degree of coincidence with the feature amount of the object area,
The image analysis program of any one of Claims 1-6.
前記対象物領域の各々から抽出された前記種類の前記特徴量の一致度に応じて、複数の画像の各々において対応する前記対象物領域を特定する、
処理をコンピュータに実行させる画像解析方法。 According to the state of the object area detected from each of the plurality of images, determine the type of feature amount used for associating the object area between the plurality of images,
Identifying the corresponding object region in each of a plurality of images according to the degree of coincidence of the type of the feature amount extracted from each of the object regions;
An image analysis method for causing a computer to execute processing.
前記対象物領域の各々から抽出された前記種類の前記特徴量の一致度に応じて、複数の画像の各々において対応する前記対象物領域を特定する特定部と、
を備える画像解析装置。 A determining unit that determines a type of feature amount used for associating the target area between the plurality of images according to a state of the target area detected from each of the plurality of images;
A specifying unit for specifying the corresponding object region in each of a plurality of images according to the degree of coincidence of the type of the feature amount extracted from each of the object regions;
An image analysis apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017122498A JP6958020B2 (en) | 2017-06-22 | 2017-06-22 | Image analysis program, image analysis device, and image analysis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017122498A JP6958020B2 (en) | 2017-06-22 | 2017-06-22 | Image analysis program, image analysis device, and image analysis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019008480A true JP2019008480A (en) | 2019-01-17 |
JP6958020B2 JP6958020B2 (en) | 2021-11-02 |
Family
ID=65029614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017122498A Active JP6958020B2 (en) | 2017-06-22 | 2017-06-22 | Image analysis program, image analysis device, and image analysis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6958020B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022546880A (en) * | 2020-08-01 | 2022-11-10 | センスタイム インターナショナル プライベート リミテッド | Object association method and device, system, electronic device, storage medium and computer program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244089A (en) * | 2009-03-31 | 2010-10-28 | Sogo Keibi Hosho Co Ltd | Person detection device, person detection method, and person detection program |
JP2013210843A (en) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | Image processing device |
JP2015002547A (en) * | 2013-06-18 | 2015-01-05 | 富士通株式会社 | Image processing apparatus, program, and image processing method |
JP2017041022A (en) * | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | Information processor, information processing method and program |
JP2017063266A (en) * | 2015-09-24 | 2017-03-30 | 富士通株式会社 | Information processing method, information processing apparatus, and program |
-
2017
- 2017-06-22 JP JP2017122498A patent/JP6958020B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244089A (en) * | 2009-03-31 | 2010-10-28 | Sogo Keibi Hosho Co Ltd | Person detection device, person detection method, and person detection program |
JP2013210843A (en) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | Image processing device |
JP2015002547A (en) * | 2013-06-18 | 2015-01-05 | 富士通株式会社 | Image processing apparatus, program, and image processing method |
JP2017041022A (en) * | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | Information processor, information processing method and program |
JP2017063266A (en) * | 2015-09-24 | 2017-03-30 | 富士通株式会社 | Information processing method, information processing apparatus, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022546880A (en) * | 2020-08-01 | 2022-11-10 | センスタイム インターナショナル プライベート リミテッド | Object association method and device, system, electronic device, storage medium and computer program |
US11605215B2 (en) | 2020-08-01 | 2023-03-14 | Sensetime International Pte. Ltd. | Object association method, apparatus and system, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6958020B2 (en) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9877012B2 (en) | Image processing apparatus for estimating three-dimensional position of object and method therefor | |
US9734414B2 (en) | Unified framework for precise vision-aided navigation | |
JP4830650B2 (en) | Tracking device | |
EP3159126A1 (en) | Device and method for recognizing location of mobile robot by means of edge-based readjustment | |
JP7036400B2 (en) | Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program | |
EP3159122A1 (en) | Device and method for recognizing location of mobile robot by means of search-based correlation matching | |
EP1679657A1 (en) | Estimation system, estimation method, and estimation program for estimating object state | |
WO2017022033A1 (en) | Image processing device, image processing method, and image processing program | |
EP3104329A1 (en) | Image processing device and image processing method | |
JP2007233871A (en) | Image processor, control method for computer, and program | |
EP3410353A1 (en) | Method for estimating a timestamp in a video stream and method of augmenting a video stream with information | |
CN110546679B (en) | Identification device, identification system, identification method, and storage medium | |
EP3376468A1 (en) | Object detection device and object detection method | |
JP5248236B2 (en) | Image processing apparatus and image processing method | |
JP2018195070A (en) | Information processing apparatus, information processing method, and program | |
JP2018173882A (en) | Information processing device, method, and program | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program | |
JP6958020B2 (en) | Image analysis program, image analysis device, and image analysis method | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
JP2006113832A (en) | Stereoscopic image processor and program | |
JP5448952B2 (en) | Same person determination device, same person determination method, and same person determination program | |
JP6555940B2 (en) | Subject tracking device, imaging device, and method for controlling subject tracking device | |
JP2007257489A (en) | Image processor and image processing method | |
CN116745808A (en) | Job estimation device, job estimation method, and job estimation program | |
JP2018200175A (en) | Information processing apparatus, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6958020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |