JP6627365B2 - Information processing method, information processing apparatus, and program - Google Patents

Information processing method, information processing apparatus, and program Download PDF

Info

Publication number
JP6627365B2
JP6627365B2 JP2015186610A JP2015186610A JP6627365B2 JP 6627365 B2 JP6627365 B2 JP 6627365B2 JP 2015186610 A JP2015186610 A JP 2015186610A JP 2015186610 A JP2015186610 A JP 2015186610A JP 6627365 B2 JP6627365 B2 JP 6627365B2
Authority
JP
Japan
Prior art keywords
information processing
person
feature amount
feature
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015186610A
Other languages
Japanese (ja)
Other versions
JP2017063266A (en
Inventor
健太郎 辻
健太郎 辻
瀬川 英吾
英吾 瀬川
明燮 鄭
明燮 鄭
松田 裕司
裕司 松田
信浩 宮▲崎▼
信浩 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015186610A priority Critical patent/JP6627365B2/en
Publication of JP2017063266A publication Critical patent/JP2017063266A/en
Application granted granted Critical
Publication of JP6627365B2 publication Critical patent/JP6627365B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理方法、情報処理装置、及びプログラムに関する。   The present invention relates to an information processing method, an information processing device, and a program.

相互に撮影領域が重ならない複数の監視カメラによって撮像される画像を用いて、人の移動軌跡を導出することができる。導出された移動軌跡は、例えば、マーケティング等に活用することができる。   It is possible to derive the trajectory of a person using images captured by a plurality of surveillance cameras whose imaging regions do not overlap each other. The derived movement trajectory can be used for, for example, marketing.

図1は、複数の監視カメラを利用した移動軌跡の導出方法を説明するための図である。図1の上側には、カメラA、カメラB、及びカメラCの3つの監視カメラが示されている。また、各カメラの撮像領域が破線によって示されている。また、カメラAによって撮像された、人物Yを含む画像と、カメラBによって撮像された、人物Xを含む画像と、カメラCによって撮像された、人物Zを含む画像とが示されている。   FIG. 1 is a diagram for explaining a method of deriving a movement trajectory using a plurality of monitoring cameras. On the upper side of FIG. 1, three surveillance cameras A, B and C are shown. Further, the imaging area of each camera is indicated by a broken line. Further, an image including the person Y, captured by the camera A, an image including the person X, captured by the camera B, and an image including the person Z, captured by the camera C, are illustrated.

図1の下側には、人物X、Y、及びZについて、各カメラの撮像領域への出現時刻と、各カメラの画像から抽出された複数種類の特徴量とが表形式で示されている。なお、表の1行目は、カメラBによって撮像された画像から得られた情報であり、2行目は、カメラAによって撮像された画像から得られた情報であり、3行目は、カメラCによって撮像された画像から得られた情報である。   In the lower part of FIG. 1, the appearance times of the persons X, Y, and Z in the imaging region of each camera and a plurality of types of feature amounts extracted from the image of each camera are shown in a table format. . Note that the first row of the table is information obtained from the image captured by the camera B, the second row is information obtained from the image captured by the camera A, and the third row is the camera C is information obtained from the image captured by C.

表内の各行の特徴量を比較することで、各人物の異同を判定することができる。図1の例では、人物Xと人物Yとが同一人物であると判定された例が示されている。その結果、当該人物の移動軌跡は、図1の上側の矢印に示されるようなものであることが導出される。   By comparing the feature values of each row in the table, it is possible to determine whether each person is different. FIG. 1 shows an example in which the person X and the person Y are determined to be the same person. As a result, it is derived that the movement trajectory of the person is as shown by the upper arrow in FIG.

特開2010−231254号公報JP 2010-231254 A 国際公開2014/050432号WO 2014/050432 特開2004−72628号公報JP-A-2004-72628

上記のようなシステムを構築する場合、各監視カメラによって撮像される画像に基づく処理を、或るコンピュータが一元的に行うこととすると、各監視カメラによって撮像される画像が当該コンピュータに伝送される必要がある。したがって、ネットワークの負荷が大きくなってしまう。   In the case of constructing the system as described above, if a certain computer performs processing based on an image captured by each monitoring camera, the image captured by each monitoring camera is transmitted to the computer. There is a need. Therefore, the load on the network increases.

そこで、監視カメラごとに処理装置を配置して、特徴量の抽出及び人物の異同の判定等を、各処理装置に分散させることが考えられる。   Therefore, it is conceivable to arrange a processing device for each monitoring camera and distribute the extraction of the feature amount and the determination of the difference between the persons to the respective processing devices.

図2は、監視カメラごとの処理装置による特徴量の抽出及び人物の異同の判定を説明するための図である。図2では、人物HがカメラAからカメラBの方向に移動した状況が想定されている。   FIG. 2 is a diagram for explaining extraction of a feature amount and determination of a person's dissimilarity by a processing device for each monitoring camera. In FIG. 2, it is assumed that the person H has moved from the camera A to the camera B.

(1)カメラAの撮像領域に人物Hが出現すると、処理装置Aは、カメラAによって撮像される画像から人物Hを検出し、人物Hの特徴量を抽出する。処理装置Aは、当該特徴量を人物Xの特徴量としてDB(Data Base)に登録する。   (1) When the person H appears in the imaging region of the camera A, the processing device A detects the person H from an image captured by the camera A, and extracts a feature amount of the person H. The processing device A registers the feature amount as a feature amount of the person X in a DB (Data Base).

(2)その後、カメラBの撮像領域に人物Hが出現すると、処理装置Bは、カメラBによって撮像される画像から人物Hを検出し、人物Hの特徴量を抽出する。処理装置Bは、当該特徴量を人物Yの特徴量としてDBに登録する。   (2) Thereafter, when the person H appears in the imaging region of the camera B, the processing device B detects the person H from the image captured by the camera B, and extracts the feature amount of the person H. The processing device B registers the feature amount in the DB as the feature amount of the person Y.

(3)続いて、処理装置Bは、人物Yの特徴量を処理装置Aに送信する。   (3) Subsequently, the processing device B transmits the feature amount of the person Y to the processing device A.

(4)処理装置Aは、カメラBから送信された人物Yの特徴量と、DB内の人物Xとの特徴量とを比較して、人物Yと人物Xとが同一人物であることを判定する。   (4) The processing device A compares the feature amount of the person Y transmitted from the camera B with the feature amount of the person X in the DB, and determines that the person Y and the person X are the same person. I do.

(5)処理装置Aは、判定結果として、人物Yと人物Xとが同一人物であることを示す情報を、処理装置Bに送信する。   (5) The processing device A transmits, to the processing device B, information indicating that the person Y and the person X are the same person as the determination result.

上記のような構成によれば、各監視カメラによって撮像された画像をネットワークを介して伝送する必要が無いため、ネットワーク負荷を軽減することができる。   According to the above configuration, it is not necessary to transmit an image captured by each surveillance camera via a network, so that a network load can be reduced.

しかしながら、多数の人物が存在し、多数の監視カメラが設置されている環境では、各人物に関して抽出可能な全ての特徴量(顔、上半身の色、下半身の色等)を各処理装置間でやりとりした場合、伝送される特徴量の総量が大きくなってしまう。   However, in an environment where a large number of people exist and a large number of surveillance cameras are installed, all the feature amounts (face, upper body color, lower body color, etc.) that can be extracted for each person are exchanged between the processing devices. In such a case, the total amount of the transmitted feature amounts increases.

そこで、一側面では、本発明は、複数の場所に設置されている撮像装置によって撮像される画像に基づいて被写体の移動軌跡を導出するめに伝送されるデータ量を削減することを目的とする。   Therefore, in one aspect, an object of the present invention is to reduce the amount of data transmitted to derive a trajectory of a subject based on images captured by imaging devices installed at a plurality of locations.

一つの案では、複数の場所に設置された撮像装置ごとに配置される情報処理装置は、当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信する送信部と、前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信部によって送信された情報が示す特徴量を受信し、前記選択する処理において選択された一部の特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、処理を実行する。
In one proposal, an information processing device arranged for each of the imaging devices installed at a plurality of locations includes a first subject detected from an image captured by a first imaging device corresponding to the information processing device. Extracting a plurality of types of feature amounts, and for each of the plurality of types of feature amounts extracted in the extracting process, determining suitability for determining whether a subject captured by the first imaging device is different. A transmitting unit that selects a part of the characteristic amount having relatively high suitability and transmits information identifying the part of the characteristic amount selected in the selecting process to another information processing apparatus; Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the information processing device, the feature amount indicated by the information transmitted by the transmission unit is received. The judges a portion of selected features in the process of selecting, on the basis of the characteristic quantity received in the process of the receiving, the difference between the second object and the first object, the process Execute

一側面によれば、複数の場所に設置されている撮像装置によって撮像される画像に基づいて被写体の移動軌跡を導出するめに伝送されるデータ量を削減することができる。   According to one aspect, it is possible to reduce the amount of data transmitted to derive a movement trajectory of a subject based on images captured by imaging devices installed at a plurality of locations.

複数の監視カメラを利用した移動軌跡の導出方法を説明するための図である。It is a figure for explaining the derivation method of the movement locus using a plurality of surveillance cameras. 監視カメラごとの処理装置による特徴量の抽出及び人物の異同の判定を説明するための図である。FIG. 9 is a diagram for describing extraction of a feature amount and determination of a person's dissimilarity by a processing device for each monitoring camera. 本発明の実施の形態における監視システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a monitoring system according to an embodiment of the present invention. 本発明の実施の形態における情報処理装置が実行する処理の概要を説明するための図である。FIG. 4 is a diagram for describing an outline of a process executed by the information processing device according to the embodiment of the present invention. 本発明の実施の形態における情報処理装置のハードウェア構成例を示す図である。FIG. 2 is a diagram illustrating a hardware configuration example of an information processing apparatus according to the embodiment of the present invention. 本発明の実施の形態における情報処理装置の機能構成例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of the information processing apparatus according to the embodiment of the present invention. 特徴量の抽出処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the processing procedure of a feature-value extraction process. 人物情報記憶部の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a person information storage unit. 選択特徴情報の送信処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the processing procedure of transmission processing of selection characteristic information. 同一のカメラの撮像領域について時間帯に応じた状況の変化の例を示す図である。It is a figure showing an example of a change of a situation according to a time zone about an imaging field of the same camera. 選択特徴情報の受信処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the processing procedure of the reception processing of selection characteristic information. 選択特徴記憶部の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of a selected feature storage unit. 同一人物の判定要求の送信処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the processing procedure of the transmission process of the same person determination request. 同一人物の判定処理の処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the processing procedure of the same person determination process.

以下、図面に基づいて本発明の実施の形態を説明する。図3は、本発明の実施の形態における監視システムの構成例を示す図である。図3において、監視システム1は、カメラ20a、カメラ20b、カメラ20c、及びカメラ20d等の複数のカメラ20と、情報処理装置10a、情報処理装置10b、情報処理装置10c、及び情報処理装置10d等の複数の情報処理装置10とを含む。なお、カメラ20a、カメラ20b、カメラ20c、及びカメラ20dを区別しない場合、カメラ20という。同様に、情報処理装置10b、情報処理装置10c、及び情報処理装置10dを区別しない場合、情報処理装置10という。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 3 is a diagram illustrating a configuration example of the monitoring system according to the embodiment of the present invention. 3, a monitoring system 1 includes a plurality of cameras 20, such as a camera 20a, a camera 20b, a camera 20c, and a camera 20d, and information processing apparatuses 10a, 10b, 10c, and 10d. And a plurality of information processing apparatuses 10. Note that the camera 20a, the camera 20b, the camera 20c, and the camera 20d are referred to as the camera 20 when not distinguished. Similarly, when the information processing device 10b, the information processing device 10c, and the information processing device 10d are not distinguished, they are referred to as the information processing device 10.

カメラ20は、例えば、街中における複数の場所に設置されている監視カメラ20である。各カメラ20の撮像領域は、相互に重ならないように設置されている。但し、各カメラ20の撮像領域の一部が重なってもよい。また、5つ以上のカメラ20が設置されてもよいし、3つ以下のカメラ20が設置されてもよい。   The cameras 20 are, for example, surveillance cameras 20 installed at a plurality of places in a city. The imaging areas of the cameras 20 are set so as not to overlap each other. However, a part of the imaging area of each camera 20 may overlap. Further, five or more cameras 20 may be installed, or three or less cameras 20 may be installed.

各カメラ20には、それぞれに対応した情報処理装置10が接続されている。情報処理装置10は、例えば、カメラ20と共に街中に設置されてもよい。各情報処理装置10は、当該情報処理装置10に接続されているカメラ20によって撮像された画像に含まれている人物の特徴量を、他の情報処理装置10と交換することで、当該カメラ20によって撮像された人物群の中から、他のカメラ20によって撮像された人物との同一人物を判定する。そうすることで、各人物の移動軌跡を導出することができる。   Each camera 20 is connected to the corresponding information processing device 10. The information processing device 10 may be installed in a town together with the camera 20, for example. Each of the information processing apparatuses 10 exchanges a feature amount of a person included in an image captured by the camera 20 connected to the information processing apparatus 10 with another information processing apparatus 10, whereby the camera 20 The same person as the person imaged by another camera 20 is determined from the group of people imaged by the camera. By doing so, the movement trajectory of each person can be derived.

図4は、本発明の実施の形態における情報処理装置が実行する処理の概要を説明するための図である。図4では、カメラ20aによって撮像された人物との同一人物を、カメラ20bによって撮像された人物群の中から見つけ出す方法が示されている。   FIG. 4 is a diagram for describing an outline of processing executed by the information processing device according to the embodiment of the present invention. FIG. 4 shows a method of finding the same person as the person imaged by the camera 20a from the group of people imaged by the camera 20b.

まず、情報処理装置10bは、カメラ20bによって撮像された画像に含まれている各人物について、当該画像から複数種類の特徴量を抽出する(S1)。図4の例では、上半身の色、下半身の色、靴、及び頭髪等に関する特徴量が抽出される例が示されている。   First, for each person included in the image captured by the camera 20b, the information processing device 10b extracts a plurality of types of feature amounts from the image (S1). In the example of FIG. 4, an example is shown in which feature amounts relating to the color of the upper body, the color of the lower body, shoes, hair, and the like are extracted.

続いて、情報処理装置10bは、複数種類の特徴量を、それぞれの特徴空間にマッピングして分散を算出する(S2)。情報処理装置10bは、分散が相対的に大きい一部の特徴量を選択し、当該一部の特徴量を識別する情報を、情報処理装置10aに送信する(S3)。図4では、上半身の色が選択される。以下、選択された特徴量を「選択特徴量」といい、選択特徴量を識別する情報を、「選択特徴情報」という。   Subsequently, the information processing device 10b maps a plurality of types of feature amounts to respective feature spaces to calculate a variance (S2). The information processing device 10b selects a part of the feature amount having a relatively large variance, and transmits information identifying the part of the feature amount to the information processing device 10a (S3). In FIG. 4, the color of the upper body is selected. Hereinafter, the selected feature is referred to as “selected feature”, and information for identifying the selected feature is referred to as “selected feature information”.

情報処理装置10aは、カメラ20aによって撮像された画像から検出される人物について抽出される複数種類の特徴量の中から(S4)、上半身の色に関する特徴量を情報処理装置10bに送信する(S5)。   The information processing device 10a transmits a feature value related to the color of the upper body to the information processing device 10b from among a plurality of types of feature values extracted for a person detected from an image captured by the camera 20a (S5). ).

情報処理装置10bは、情報処理装置10aから送信された特徴量(上半身の色)を、情報処理装置10bにおいて抽出された各人物の特徴量(上半身の色)とを照合して、カメラ20bによって撮像された人物群の中から、カメラ20aによって撮像された人物との同一人物を見つける。   The information processing device 10b compares the feature value (upper body color) transmitted from the information processing device 10a with the feature value (upper body color) of each person extracted in the information processing device 10b, and the camera 20b The same person as the person imaged by the camera 20a is found from the group of imaged people.

なお、同一人物が見つからなかった場合、情報処理装置10aは、他の情報処理装置10に対してステップS5を実行する。この場合、ステップS5において送信される特徴量は、当該他の情報処理装置10によって実行されるステップS3において通知された選択特徴情報に基づいて選択される。   If the same person is not found, the information processing device 10a executes step S5 for another information processing device 10. In this case, the feature value transmitted in step S5 is selected based on the selected feature information notified in step S3 executed by the other information processing device 10.

このように、本実施の形態では、人物の異同の判定を実行する情報処理装置10(図4では、情報処理装置10b)において、分散が相対的に高いと判定された特徴量が、他の情報処理装置10から当該情報処理装置10に伝送される。したがって、複数種類の全ての特徴量が伝送される場合に比べて、伝送されるデータ量を削減することができる。また、分散が相対的に高い特徴量は、人物の判別に対する適性(人物の判別の度合い又は人物の判別に対する寄与度)が相対的に高いと考えられる。換言すれば、伝送されない特徴量は、人物の判別に対する適性が低い特徴量であると考えられる。したがって、伝送される特徴量を一部にしたことによる、人物の異同の判定精度の劣化を抑制することができる。   As described above, in the present embodiment, in the information processing apparatus 10 (in FIG. 4, the information processing apparatus 10b) that performs the determination of the person's dissimilarity, the feature amount determined to have a relatively high variance is determined by another The information is transmitted from the information processing device 10 to the information processing device 10. Therefore, the amount of data to be transmitted can be reduced as compared with the case where all of a plurality of types of feature amounts are transmitted. In addition, it is considered that a feature amount having a relatively high variance has a relatively high suitability for discriminating a person (a degree of discrimination of a person or a degree of contribution to discrimination of a person). In other words, it is considered that the feature amount that is not transmitted is a feature amount having low suitability for discriminating a person. Therefore, it is possible to suppress deterioration of the accuracy of determining the difference between persons due to partial transmission of the feature amount.

なお、選択特徴量は、カメラ20ごとに選択される。各カメラ20の撮像領域が異なるため、人物の判別に対する適性が相対的に高い特徴量がカメラ20ごとに異なると考えられるからである。例えば、カメラ20aで撮像される画像からは、上半身の色の判別が困難であったり、カメラ20bで撮像される画像からは、靴の判別が困難であったりといったように、各カメラ20によって撮像される画像の特性が異なりうると考えられるからである。   Note that the selected feature amount is selected for each camera 20. This is because, since the imaging region of each camera 20 is different, a feature amount having relatively high suitability for discriminating a person is considered to be different for each camera 20. For example, it is difficult to determine the color of the upper body from the image captured by the camera 20a, or it is difficult to determine the shoes from the image captured by the camera 20b. This is because it is considered that the characteristics of the image to be obtained may be different.

以下、情報処理装置10について、具体的に説明する。図5は、本発明の実施の形態における情報処理装置のハードウェア構成例を示す図である。図5の情報処理装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。   Hereinafter, the information processing apparatus 10 will be specifically described. FIG. 5 is a diagram illustrating a hardware configuration example of the information processing apparatus according to the embodiment of the present invention. The information processing apparatus 10 in FIG. 5 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, and the like, which are mutually connected by a bus B.

情報処理装置10での処理を実現するプログラムは、記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A program for realizing the processing in the information processing device 10 is provided by the recording medium 101. When the recording medium 101 on which the program is recorded is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100. However, the program need not always be installed from the recording medium 101, and may be downloaded from another computer via a network. The auxiliary storage device 102 stores installed programs and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って情報処理装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。   The memory device 103 reads out the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program. The CPU 104 executes functions related to the information processing device 10 according to a program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network.

なお、記録媒体101の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。   Note that examples of the recording medium 101 include a portable recording medium such as a CD-ROM, a DVD disk, or a USB memory. An example of the auxiliary storage device 102 is a hard disk drive (HDD) or a flash memory. Each of the recording medium 101 and the auxiliary storage device 102 corresponds to a computer-readable recording medium.

図6は、本発明の実施の形態における情報処理装置の機能構成例を示す図である。図6において、情報処理装置10は、人物検出部111、特徴量抽出部112、人物追跡部113、選択特徴量判定部114、選択特徴送信部115、選択特徴受信部116、特徴量取得部117、判定要求送信部118、判定要求受信部119、同一人物判定部120、判定結果送信部121、及び判定結果受信部122等を有する。これら各部は、情報処理装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。情報処理装置10は、また、人物情報記憶部131及び選択特徴記憶部132を利用する。これら各記憶部は、例えば、補助記憶装置102、又は情報処理装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。   FIG. 6 is a diagram illustrating a functional configuration example of the information processing apparatus according to the embodiment of the present invention. 6, the information processing apparatus 10 includes a person detection unit 111, a feature amount extraction unit 112, a person tracking unit 113, a selected feature amount determination unit 114, a selected feature transmission unit 115, a selected feature reception unit 116, and a feature amount acquisition unit 117. , A determination request transmission unit 118, a determination request reception unit 119, an identical person determination unit 120, a determination result transmission unit 121, a determination result reception unit 122, and the like. Each of these units is realized by a process of causing the CPU 104 to execute one or more programs installed in the information processing apparatus 10. The information processing device 10 also uses a personal information storage unit 131 and a selected feature storage unit 132. These storage units can be realized using, for example, a storage device that can be connected to the auxiliary storage device 102 or the information processing device 10 via a network.

人物検出部111は、カメラ20によって撮像される映像(動画像)の被写体の中から人物を検出する。複数の人物が映像に含まれている場合、複数の人物のそれぞれが検出される。特徴量抽出部112は、人物検出部111によって検出された各人物の映像から複数種類の特徴量を抽出する。人物追跡部113は、カメラ20によって撮像される映像における各人物を追跡する。人物の追跡は、当該人物がカメラ20の撮像領域から退出するまで行われる。すなわち、追跡とは、一つのカメラ20によって撮像される映像の中における同一人物の移動を追跡することをいう。人物追跡部113は、追跡した各人物について抽出された複数種類の特徴量等を人物情報記憶部131に記憶する。   The person detection unit 111 detects a person from subjects of a video (moving image) captured by the camera 20. When a plurality of persons are included in the video, each of the plurality of persons is detected. The feature amount extraction unit 112 extracts a plurality of types of feature amounts from the video of each person detected by the person detection unit 111. The person tracking unit 113 tracks each person in the video imaged by the camera 20. The tracking of the person is performed until the person leaves the imaging area of the camera 20. That is, tracking refers to tracking the movement of the same person in the video imaged by one camera 20. The person tracking unit 113 stores a plurality of types of feature amounts extracted for each tracked person in the person information storage unit 131.

選択特徴量判定部114は、人物情報記憶部131に記憶されている複数の人物の複数種類の特徴量の中から選択特徴量を判定する。選択特徴送信部115は、他の情報処理装置10に対して、選択特徴量を示す選択特徴情報を送信する。   The selected feature amount determination unit 114 determines a selected feature amount from a plurality of types of feature amounts of a plurality of persons stored in the person information storage unit 131. The selected feature transmitting unit 115 transmits selected feature information indicating the selected feature amount to another information processing device 10.

選択特徴受信部116は、他の情報処理装置10から送信される選択特徴情報を受信する。選択特徴受信部116は、受信した選択特徴情報を、他の情報処理装置10ごとに選択特徴記憶部132に記憶する。   The selected feature receiving unit 116 receives selected feature information transmitted from another information processing device 10. The selected feature receiving unit 116 stores the received selected feature information in the selected feature storage unit 132 for each of the other information processing devices 10.

特徴量取得部117は、同一人物の判定対象とする人物の特徴量を人物情報記憶部131から取得する。判定要求送信部118は、特徴量取得部117によって取得された特徴量に係る人物との同一人物の有無の判定要求を、他の情報処理装置10に送信する。当該判定要求には、当該他の情報処理装置10に対する選択特徴情報が示す特徴量が含まれる。   The feature amount acquiring unit 117 acquires, from the person information storage unit 131, the feature amount of a person to be determined as the same person. The determination request transmission unit 118 transmits a request to determine whether or not there is the same person as the person related to the feature amount acquired by the feature amount acquisition unit 117 to another information processing apparatus 10. The determination request includes the feature amount indicated by the selected feature information for the other information processing device 10.

判定要求受信部119は、他の情報処理装置10から送信される同一人物の判定要求を受信する。同一人物判定部120は、判定要求受信部119によって受信される判定要求に含まれている特徴量と、人物情報記憶部131に記憶されている特徴量とを比較及び照合して、判定要求に係る人物との同一人物の有無を判定する。判定結果送信部121は、同一人物判定部120による判定結果を、特徴量の送信元の他の情報処理装置10に送信する。   The determination request receiving unit 119 receives a determination request for the same person transmitted from another information processing apparatus 10. The same person determination unit 120 compares and matches the feature amount included in the determination request received by the determination request receiving unit 119 with the feature amount stored in the personal information storage unit 131, and determines The presence or absence of the same person as the person is determined. The determination result transmission unit 121 transmits the determination result by the same person determination unit 120 to another information processing apparatus 10 that has transmitted the feature amount.

判定結果受信部122は、他の情報処理装置10から送信される、同一人物の判定要求に対する判定結果を受信する。   The determination result receiving unit 122 receives a determination result for the same person determination request transmitted from another information processing apparatus 10.

以下、各情報処理装置10が実行する処理手順について説明する。図7は、特徴量の抽出処理の処理手順の一例を説明するためのフローチャートである。   Hereinafter, a processing procedure executed by each information processing apparatus 10 will be described. FIG. 7 is a flowchart illustrating an example of a processing procedure of a feature amount extraction process.

ステップS101において、人物検出部111は、カメラ20から入力される映像(動画像)を画像(静止画像)に変換して、当該画像の被写体のなから人物を検出する。例えば、映像がフレーム毎の画像に変換されて、当該画像から人物が検出される。人物の検出に伴って、画像中における当該人物の位置情報が特定される。また、位置情報に対して現在時刻を示す時刻情報が関連付けられる。当該人物の位置情報は、当該人物に係る画素のうちのいずれかの画素(例えば、上端(頭頂)の画素)の、画像中における座標値であってもよい。なお、ステップS101〜S104は、フレームごとに実行される。処理対象とされるフレームを「対象フレーム」という。   In step S101, the person detection unit 111 converts a video (moving image) input from the camera 20 into an image (still image), and detects a person from subjects in the image. For example, a video is converted into an image for each frame, and a person is detected from the image. With the detection of the person, the position information of the person in the image is specified. Further, time information indicating the current time is associated with the position information. The position information of the person may be a coordinate value in the image of any one of the pixels related to the person (for example, a pixel at the top (top)). Steps S101 to S104 are executed for each frame. A frame to be processed is called a “target frame”.

続いて、特徴量抽出部112は、対象フレームにおいて検出された各人物について、複数種類の特徴量を、対象フレームから抽出する(S102)。例えば、人物の上半身の色、下半身の服の色、人物の体型(身長、幅など)等に関する特徴量が抽出される。例えば、上半身又は下半身の色であれば、上半身部分又は下半身部分に該当する画像のRGB成分をそれぞれ平均することで得られる値が特徴量として抽出されてもよい。   Subsequently, the feature amount extraction unit 112 extracts a plurality of types of feature amounts from the target frame for each person detected in the target frame (S102). For example, feature quantities relating to the color of the upper body of the person, the color of the clothes of the lower body, the body type (height, width, etc.) of the person, etc. are extracted. For example, if the color is the upper body or the lower body, a value obtained by averaging the RGB components of the image corresponding to the upper body part or the lower body part may be extracted as the feature amount.

続いて、人物追跡部113は、対象フレームから検出された各人物の位置情報、時刻情報、及び各特徴量と、対象フレームの一つ前のフレーム(以下、「前フレーム」という。)で検出された各人物の位置情報、時刻情報、及び各特徴量を同一人物同士で対応付けて、例えば、メモリ装置103に記憶することで、前フレームにおける各人物の追跡を行う(S103)。なお、同一人物は、複数種類の特徴量に基づいて判定される。また、人物の検出及び追跡(S101〜S103)には、たとえば、特開2002−157599に記載されている手法が利用されてもよい。又は、「山下隆義,藤吉弘亘,"追跡対象と周辺領域の関係性を利用した協調的な物体追跡",画像の認識・理解シンポジウム(MIRU2011),pp.56-63,2011.」に記載されている手法が利用されてもよい。   Subsequently, the person tracking unit 113 detects the position information, time information, and each feature amount of each person detected from the target frame and the frame immediately before the target frame (hereinafter, referred to as “previous frame”). The position information, the time information, and the feature amount of each person are associated with each other by the same person and stored in, for example, the memory device 103, thereby tracking each person in the previous frame (S103). The same person is determined based on a plurality of types of feature amounts. For the detection and tracking of a person (S101 to S103), for example, a technique described in JP-A-2002-157599 may be used. Or "Takayoshi Yamashita and Hironori Fujiyoshi," Cooperative object tracking using the relationship between tracking target and surrounding area ", Image Recognition and Understanding Symposium (MIRU2011), pp. 56-63, 2011." The technique used may be used.

続いて、人物追跡部113は、追跡中の人物がカメラ20の撮像領域外に移動したか否かを判定する(S104)。具体的には、前フレームでは検出されていた人物が、今回のフレームで検出されなかった場合に、当該人物が撮像領域外に移動したと判定される。該当する人物が存在しない場合(S104でNo)、ステップS101以降がフレームごとに繰り返される。   Subsequently, the person tracking unit 113 determines whether or not the person being tracked has moved out of the imaging area of the camera 20 (S104). Specifically, when a person detected in the previous frame is not detected in the current frame, it is determined that the person has moved out of the imaging region. If the corresponding person does not exist (No in S104), step S101 and subsequent steps are repeated for each frame.

該当する人物が存在する場合(S104でYes)、人物追跡部113は、当該人物に関してフレームごとにメモリ装置103に記憶されている位置情報の履歴、時刻情報の履歴、及び各特徴量を、人物情報記憶部131に記憶する(S105)。   If the corresponding person exists (Yes in S104), the person tracking unit 113 stores the history of the position information, the history of the time information, and the feature amounts stored in the memory device 103 for each person in each frame. The information is stored in the information storage unit 131 (S105).

図8は、人物情報記憶部の構成例を示す図である。図8において、人物情報記憶部131は、過去に検出され、撮像領域外に移動した人物ごとに、人物ID、移動経路、特徴量集合、及び判定結果等を記憶する。   FIG. 8 is a diagram illustrating a configuration example of a person information storage unit. 8, the person information storage unit 131 stores a person ID, a moving route, a feature amount set, a determination result, and the like for each person who has been detected in the past and has moved out of the imaging region.

人物IDは、人物ごとの識別情報であり、例えば、ステップS105において割り当てられる。なお、人物IDは、一つの情報処理装置10内において、カメラ20の撮像領域内に出現した人物を識別する情報である。したがって、或る人物Aに対して、各情報処理装置10において同一の人物IDが割り当てられるとは限らない。また、異なる時期に出現した人物Aに対して、同一の人物IDが割り当てられるとは限らない。   The person ID is identification information for each person, and is assigned, for example, in step S105. In addition, the person ID is information for identifying a person who has appeared in the imaging region of the camera 20 in one information processing device 10. Therefore, the same person ID is not always assigned to a certain person A in each information processing apparatus 10. In addition, the same person ID is not always assigned to the person A that appears at different times.

移動経路は、位置情報及び時刻情報の履歴を時系列に含む情報である。すなわち、移動経路は、カメラ20の撮像領域内における人物の移動経路を示す情報である。図8の例では、1秒間隔である例が示されているが、更に短い間隔で位置情報及び時刻情報が記録されてもよい。   The travel route is information that includes a history of position information and time information in a time series. That is, the moving route is information indicating the moving route of the person in the imaging area of the camera 20. Although the example of FIG. 8 shows an example in which the interval is one second, the position information and the time information may be recorded at an even shorter interval.

特徴量集合は、人物に関して抽出された複数種類の全ての特徴量である。なお、特徴量は、フレームごとに抽出されているため、各フレームから抽出された特徴量が種別ごとに1つの値に統合された結果が、人物情報記憶部131に記憶される。統合は、代表値の選出又は算出によって行われてもよい。例えば、中央値が選択されてもよいし、平均値が算出されてもよい。又は、人物が最も大きく撮像されているフレームから抽出された特徴量が選択されてもよい。   The feature amount set is all of a plurality of types of feature amounts extracted for a person. Since the feature amount is extracted for each frame, the result obtained by integrating the feature amount extracted from each frame into one value for each type is stored in the person information storage unit 131. The integration may be performed by selecting or calculating a representative value. For example, a median value may be selected, or an average value may be calculated. Alternatively, a feature amount extracted from a frame in which a person is imaged the largest may be selected.

判定結果には、他の情報処理装置10において検出された人物と同一人物であることが判定された場合に、当該他の情報処理装置10の識別情報(以下、「装置ID」という。)と、当該他の情報処理装置10における当該人物の人物IDとが記録される。   The determination result includes, when it is determined that the person is the same person as the person detected in the other information processing apparatus 10, identification information of the other information processing apparatus 10 (hereinafter, referred to as “device ID”). And the person ID of the person in the other information processing apparatus 10 are recorded.

続いて、ステップS101以降が繰り返される。   Subsequently, step S101 and the subsequent steps are repeated.

図9は、選択特徴情報の送信処理の処理手順の一例を説明するためのフローチャートである。図9の処理手順は、各情報処理装置10において、図9の処理手順と並行して実行される。   FIG. 9 is a flowchart illustrating an example of a processing procedure of a transmission process of the selected feature information. The processing procedure of FIG. 9 is executed in each information processing apparatus 10 in parallel with the processing procedure of FIG.

ステップS201において、選択特徴量判定部114は、前回の選択特徴量の判定時期から所定時間が経過したか否かを判定する。すなわち、選択特徴量は、所定時間が経過するたびに判定される。前回の判定時期から所定時間が経過した場合(S201でYes)、選択特徴量判定部114は、人物情報記憶部131に人物ごとに記憶されている特徴量集合に基づいて、人物の異同の判別に関して適性が相対的に高い特徴量の種別(選択特徴量)を選択する(S202)。例えば、選択特徴量判定部114は、現在時刻から一定時間内において人物情報記憶部131に記憶された各レコードに係る各人物の特徴量集合を取得し、特徴量の種別ごとのそれぞれの特徴量の集合について分散を算出する。選択特徴量判定部114は、分散が大きい順に、一部の特徴量の種別を選択特徴量として選択する。分散が大きいほど、各人物の特徴量が特徴空間上にばらばらに配置されているため、各人物の判別に適していると考えられるからである。但し、他の方法によって選択特徴量が選択されてもよい。また、選択特徴量は1つでもよいし複数でもよい。分散の大きさの上位から、所定の数の特徴量が選択特徴量とされてもよい。また、例えば、既に選択された上位の特徴量との相関が低い特徴量が優先的に選択されるようにしてもよい。例えば、仮に、全ての人物について、上半身の色と下半身の色とが共通する場合、上半身の色と下半身の色とを選択特徴量としても、実質的には、いずれか一方の特徴量を選択した場合に比して、人物の異同の判定精度が大きく向上することは期待できない。したがって、相互に相関が低い特徴量が、選択特徴量として選択されるようにしてもよい。相互に相関が低い特徴量の選択は、全種類の特徴量を多次元空間にマッピングして主成分分析を行い、第1主成分から選択していくことで実現可能である。   In step S201, the selected feature amount determination unit 114 determines whether or not a predetermined time has elapsed from the previous determination time of the selected feature amount. That is, the selected feature amount is determined each time a predetermined time elapses. When a predetermined time has elapsed from the previous determination time (Yes in S201), the selected feature amount determination unit 114 determines whether a person is different based on a feature amount set stored for each person in the person information storage unit 131. The type (selected feature amount) of the feature amount having relatively high suitability is selected (S202). For example, the selected feature amount determination unit 114 acquires a feature amount set of each person related to each record stored in the person information storage unit 131 within a certain time from the current time, and obtains a feature amount for each type of feature amount. Is calculated for the set of. The selected feature amount determination unit 114 selects the types of some feature amounts as selected feature amounts in descending order of variance. This is because the larger the variance is, the more the feature amounts of each person are arranged in the feature space, so that it is considered that the feature amount is more suitable for discriminating each person. However, the selection feature amount may be selected by another method. Further, the number of selected feature amounts may be one or more. A predetermined number of feature values from the top of the variance may be set as the selected feature values. Further, for example, a feature amount having a low correlation with the already selected higher-order feature amount may be preferentially selected. For example, if the color of the upper body and the color of the lower body are common to all the persons, even if the color of the upper body and the color of the lower body are selected as feature quantities, virtually any one of the feature quantities is selected. It can not be expected that the accuracy of determining the difference between persons will be greatly improved as compared with the case where it is performed. Therefore, feature values having low mutual correlation may be selected as the selected feature values. Selection of feature values having low mutual correlation can be realized by mapping all types of feature values to a multidimensional space, performing principal component analysis, and selecting from the first principal component.

続いて、選択特徴送信部115は、当該情報処理装置10の装置IDと、選択された選択特徴量を示す選択特徴情報とを、他の情報処理装置10へ送信する(S203)。例えば、情報処理装置10aが、図9の処理を実行した場合には、情報処理装置10b、情報処理装置10c、及び情報処理装置10dに対して、情報処理装置10aの装置IDと、選択特徴情報とが送信されてもよい。なお、多数のカメラ20が設置されている大規模な監視システム1では、他の全ての情報処理装置10に対してではなく、近隣の一部の情報処理装置10に対して選択特徴情報が送信されてもよい。選択特徴情報の送信先の他の情報処理装置10の識別情報は、各情報処理装置10に予め記憶されていてもよい。   Subsequently, the selected feature transmitting unit 115 transmits the device ID of the information processing device 10 and selected feature information indicating the selected selected feature amount to another information processing device 10 (S203). For example, when the information processing apparatus 10a executes the processing of FIG. 9, the information processing apparatus 10b, the information processing apparatus 10c, and the information processing apparatus 10d are notified of the device ID of the information processing apparatus 10a and the selected feature information. May be transmitted. In the large-scale monitoring system 1 in which a large number of cameras 20 are installed, the selected feature information is transmitted not to all the other information processing apparatuses 10 but to some of the nearby information processing apparatuses 10. May be done. The identification information of the other information processing apparatuses 10 to which the selected feature information is to be transmitted may be stored in each information processing apparatus 10 in advance.

選択特徴情報は、例えば、特徴量の種別毎にビットが割り当てられたビット列でもよい。この場合、選択特徴量として選択された特徴量の種別に対応したビットが"1"とされ、そうでない種別に対応したビットが"0"とされてもよい。   The selected feature information may be, for example, a bit string in which bits are assigned for each type of feature amount. In this case, the bit corresponding to the type of the feature amount selected as the selected feature amount may be “1”, and the bit corresponding to the type other than the selected feature amount may be “0”.

なお、図9の例では、所定期間ごと(周期的)に、選択特徴情報が他の情報処理装置10に通知されるが、前回送信した選択特徴情報と、今回判定された選択特徴情報との間に相違が無い場合には、選択特徴情報の送信は行われなくてもよい。   In the example of FIG. 9, the selected feature information is notified to the other information processing apparatuses 10 every predetermined period (periodically), but the selected feature information transmitted last time and the selected feature information determined this time are compared. If there is no difference between them, the transmission of the selected feature information need not be performed.

このように、選択特徴量は、時間の経過に応じて更新される。したがって、或るカメラ20の撮像領域の状況が、時間帯に応じて変化する場合であっても、情報処理装置10は、各時間帯に適した特徴量を、人物の異同の判定に用いることができる。   As described above, the selected feature amount is updated as time passes. Therefore, even when the situation of the imaging region of a certain camera 20 changes according to the time zone, the information processing apparatus 10 uses the feature amount suitable for each time zone to determine whether a person is different. Can be.

図10は、同一のカメラの撮像領域について時間帯に応じた状況の変化の例を示す図である。図10では、或るカメラ20の撮像領域について、時刻T1、時刻T2、及び時刻T3における状況が示されている。   FIG. 10 is a diagram illustrating an example of a change in a situation according to a time zone with respect to an imaging region of the same camera. FIG. 10 shows a situation at a time T1, a time T2, and a time T3 with respect to an imaging region of a certain camera 20.

時刻T1では、多数の人物がカメラ20の方向に向いている状況が発生している。時刻T2では、少数の人物が、カメラ20に背を向けている状況が発生している。時刻T3では、少数の人物がカメラ20に対して横を向いており、かつ、多数の荷物が、カメラ20と人物との間に置かれている状況が発生している。   At time T1, a situation has occurred in which many people are facing the camera 20. At time T2, a situation occurs in which a small number of people are turning their backs on the camera 20. At time T3, a situation has occurred in which a small number of persons are facing sideways with respect to the camera 20, and a large number of packages are placed between the camera 20 and the persons.

例えば、時刻T1では、人物の顔に関する特徴量の精度(信頼度)は高いが、多数の人物の体が重なっているため、上半身の色及び下半身の色に関する特徴量の精度は低いと考えられる。また、時刻T2では、人物の顔に関する特徴量の精度は低いが、上半身の色及び下半身の色に関する特徴量の精度は高いと考えられる。更に、時刻T3では、人物の顔に関する特徴量の精度は中程度であり、上半身の色に関する精度は高く、下半身の色に関する精度は低いと考えられる。   For example, at time T1, the accuracy (reliability) of the feature amount related to the face of the person is high, but the accuracy of the feature amount related to the color of the upper body and the color of the lower body is considered to be low because the bodies of many people overlap. . Also, at time T2, the accuracy of the feature amount regarding the face of the person is low, but the accuracy of the feature amount regarding the color of the upper body and the color of the lower body is considered to be high. Further, at time T3, the accuracy of the feature amount regarding the face of the person is moderate, the accuracy regarding the color of the upper body is high, and the accuracy regarding the color of the lower body is low.

上記のような事情に鑑みれば、選択特徴量に適した特徴量は、同一のカメラ20であっても、時間帯に応じて異なることが考えられる。   In view of the above circumstances, it is conceivable that the feature amount suitable for the selected feature amount differs depending on the time zone even for the same camera 20.

図11は、選択特徴情報の受信処理の処理手順の一例を説明するためのフローチャートである。図11の処理手順は、各情報処理装置10において、図7及び図9の処理手順と並行して実行される。   FIG. 11 is a flowchart illustrating an example of a processing procedure of a reception process of the selected feature information. The processing procedure of FIG. 11 is executed in each information processing apparatus 10 in parallel with the processing procedures of FIG. 7 and FIG.

選択特徴受信部116は、他の情報処理装置10から送信される選択特徴情報の受信を待機している(S301)。選択特徴受信部116は、他のいずれかの情報処理装置10が実行したステップS203(図9)において送信された装置ID及び選択特徴情報を受信すると(S301でYes)、当該選択特徴情報を、当該装置IDに対応付けて選択特徴記憶部132に記憶する(S302)。当該装置IDに対応付けられている選択特徴情報が既に記憶されている場合には、既存の選択特徴情報が、新たに受信された選択特徴情報によって更新(上書き)される。   The selected feature receiving unit 116 waits for reception of selected feature information transmitted from another information processing device 10 (S301). Upon receiving the device ID and the selected feature information transmitted in step S203 (FIG. 9) executed by one of the other information processing devices 10 (Yes in S301), the selected feature receiving unit 116 transmits the selected feature information to The selected feature is stored in the selected feature storage unit 132 in association with the device ID (S302). If the selected feature information associated with the device ID has already been stored, the existing selected feature information is updated (overwritten) with the newly received selected feature information.

図12は、選択特徴記憶部の構成例を示す図である。図12に示されるように、選択特徴記憶部132は、装置IDに対応付けて、選択特徴情報であるビット列を記憶する。   FIG. 12 is a diagram illustrating a configuration example of the selected feature storage unit. As shown in FIG. 12, the selected feature storage unit 132 stores a bit string as selected feature information in association with the device ID.

図13は、同一人物の判定要求の送信処理の処理手順の一例を説明するためのフローチャートである。図13の処理手順は、各情報処理装置10において、図7、図9、及び図11の処理手順と並行して実行される。
特徴量取得部117は、人物情報記憶部131への新たなレコード(人物)の登録を待機している(S401)。図7のステップS105が実行されることにより、新たなレコード(以下、「新規登録レコード」という。)が人物情報記憶部131(図8)に登録されると(S401でYes)、特徴量取得部117は、当該レコードに記憶されている特徴量集を取得する(S402)。
FIG. 13 is a flowchart illustrating an example of a processing procedure of a transmission process of a determination request of the same person. The processing procedure of FIG. 13 is executed in each information processing apparatus 10 in parallel with the processing procedures of FIG. 7, FIG. 9, and FIG.
The feature amount acquisition unit 117 is waiting for registration of a new record (person) in the person information storage unit 131 (S401). When a new record (hereinafter, referred to as a “newly registered record”) is registered in the person information storage unit 131 (FIG. 8) by executing step S105 in FIG. 7 (Yes in S401), the feature amount is obtained. The unit 117 acquires the feature data stored in the record (S402).

続いて、判定要求送信部118は、同一人物の判定要求の送信先の候補である他の情報処理装置10のうちの一つの情報処理装置10を選択する(S403)。以下、選択された情報処理装置10を、「対象装置」という。なお、同一人物の判定要求の送信先の候補の一覧は、図9のステップS203における選択特徴情報の送信先の他の情報処理装置10の一覧と同じでもよい。   Subsequently, the determination request transmission unit 118 selects one information processing device 10 among the other information processing devices 10 that are candidates for the transmission destination of the determination request of the same person (S403). Hereinafter, the selected information processing device 10 is referred to as a “target device”. The list of candidates for the transmission destination of the same person determination request may be the same as the list of other information processing apparatuses 10 to which the selected feature information is transmitted in step S203 in FIG.

続いて、判定要求送信部118は、ステップS402において取得された特徴量を含む、同一人物の判定要求を対象装置へ送信する(S404)。この際、当該判定要求に含まれる特徴量は、対象装置の装置IDに対応付けられて選択特徴記憶部132に記憶されている選択特徴情報において、ビット値が1である特徴量に限定される。すなわち、対象装置において選択された選択特徴量に該当する特徴量が、対象装置に送信される。なお、当該情報処理装置10における選択特徴量と、対象装置の選択特徴量とが一致しない場合も考えられる。したがって、対象装置の選択特徴量であり、かつ、当該情報処理装置10の選択特徴量である特徴量が、対象装置に送信されてもよい。   Subsequently, the determination request transmission unit 118 transmits a determination request of the same person including the feature amount acquired in step S402 to the target device (S404). At this time, the feature amount included in the determination request is limited to the feature amount having a bit value of 1 in the selected feature information stored in the selected feature storage unit 132 in association with the device ID of the target device. . That is, the feature amount corresponding to the selected feature amount selected in the target device is transmitted to the target device. It should be noted that there may be a case where the selected feature amount of the information processing apparatus 10 does not match the selected feature amount of the target device. Therefore, the feature amount that is the selected feature amount of the target device and that is the selected feature amount of the information processing device 10 may be transmitted to the target device.

続いて、判定結果受信部122は、対象装置において実行された同一人物の判定処理による判定結果を受信する(S405)。なお、同一人物の判定処理の詳細については後述される。受信された判定結果が、同一人物が存在することを示す場合(S406でYes)、判定結果には、同一人物であると判定された人物についての、対象装置における人物IDが含まれている。そこで、判定結果受信部122は、新規登録レコードの「判定結果」に、対象装置の装置IDと、判定結果に含まれている人物IDとを記憶する(S407)。   Subsequently, the determination result receiving unit 122 receives a determination result by the same person determination process performed on the target device (S405). The details of the same person determination process will be described later. When the received determination result indicates that the same person exists (Yes in S406), the determination result includes the person ID of the person determined to be the same person in the target device. Therefore, the determination result receiving unit 122 stores the device ID of the target device and the person ID included in the determination result in the “determination result” of the newly registered record (S407).

一方、判定結果が、同一人物が存在しないことを示す場合(S406でNo)、判定要求送信部118は、同一人物の判定要求の送信先の候補のうち、新規レコードに係る人物に関する判定要求を送信していない候補の有無を判定する(S408)。該当する候補が有る場合(S408でYes)、当該候補に係る情報処理装置10に関してステップS403以降が繰り返される。該当する候補が無い場合(S408でNo)、ステップS401に戻る。すなわち、この場合、新規登録レコードに係る人物との同一人物の探索は断念される。   On the other hand, when the determination result indicates that the same person does not exist (No in S406), the determination request transmission unit 118 transmits a determination request regarding the person related to the new record among the candidates for the destination of the determination request of the same person. It is determined whether there is a candidate that has not been transmitted (S408). If there is a corresponding candidate (Yes in S408), steps S403 and subsequent steps are repeated for the information processing apparatus 10 related to the candidate. When there is no corresponding candidate (No in S408), the process returns to step S401. That is, in this case, the search for the same person as the person related to the newly registered record is abandoned.

なお、図13の処理では、同一人物の判定要求の送信先の候補のうちの一つの候補によって、同一人物が存在することが判定された場合、新規レコードに係る同一人物の探索は終了する。したがって、図13の処理が、各情報処理装置10において連鎖的に実行され、各情報処理装置10の人物情報記憶部131に記憶されている情報を収集することで、或る人物の移動軌跡を導出することができる。   In the process of FIG. 13, when it is determined that the same person exists by one of the candidates of the transmission destination of the same person determination request, the search for the same person related to the new record ends. Therefore, the processing of FIG. 13 is executed in a chain in each information processing apparatus 10, and by collecting information stored in the personal information storage unit 131 of each information processing apparatus 10, the movement trajectory of a certain person can be determined. Can be derived.

なお、ステップS403における対象装置の選択順(判定要求の送信順)は、例えば、カメラ20の設置場所等の距離に応じて予め定められていてもよいし、何らかの条件によって動的に変更されるようにしてもよい。又は、情報処理装置10の順番をリング状に表現した場合に、各情報処理装置10における選択順は、当該順番において当該情報処理装置10の次の情報処理装置10が先頭となるように決められてもよい。本実施の形態であれば、情報処理装置10a、b、c、dの順に並べた場合、情報処理装置10aにおける選択順は、情報処理装置10b、c、dであり、情報処理装置10bにおける選択順は、情報処理装置10c、d、aとなるように決められてもよい。   The order in which the target devices are selected in step S403 (the order in which the determination requests are transmitted) may be determined in advance according to, for example, the distance of the installation location of the camera 20, or may be dynamically changed according to some condition. You may do so. Alternatively, when the order of the information processing apparatuses 10 is expressed in a ring shape, the selection order in each of the information processing apparatuses 10 is determined such that the information processing apparatus 10 next to the information processing apparatus 10 in the order comes first. You may. In this embodiment, when the information processing apparatuses 10a, b, c, and d are arranged in this order, the selection order in the information processing apparatus 10a is the information processing apparatuses 10b, c, and d. The order may be determined so as to be the information processing apparatuses 10c, d, and a.

図14は、同一人物の判定処理の処理手順の一例を説明するためのフローチャートである。図14の処理手順は、各情報処理装置10において、図7、図9、図11、及び図13の処理手順と並行して実行される。   FIG. 14 is a flowchart illustrating an example of a processing procedure of the same person determination process. The processing procedure of FIG. 14 is executed in each information processing apparatus 10 in parallel with the processing procedures of FIG. 7, FIG. 9, FIG. 11, and FIG.

判定要求受信部119は、他の情報処理装置10からの同一人物の判定要求の受信を待機している(S501)。他のいずれかの情報処理装置10によって実行される図13のステップS404において送信された判定要求が判定要求受信部119によって受信されると(S501でYes)、同一人物判定部120は、当該判定要求に係る人物との同一人物の有無を判定する(S502)。具体的には、当該判定要求に含まれている特徴量と、人物情報記憶部131に記憶されている特徴量集合のうち、当該判定要求に含まれている装置IDに対応付けられて選択特徴記憶部132に記憶されている選択特徴情報が示す選択特徴量とを照合して、同一人物の有無が判定される。すなわち、当該判定要求に含まれている特徴量に類似している特徴量を含むレコードが人物情報記憶部131に記憶されていれば、当該レコードに係る人物が、判定要求に係る人物と同一人物であると判定される。   The determination request receiving unit 119 waits for reception of a determination request for the same person from another information processing apparatus 10 (S501). When the determination request transmitted in step S404 of FIG. 13 executed by any of the other information processing apparatuses 10 is received by the determination request receiving unit 119 (Yes in S501), the same person determination unit 120 performs the determination. It is determined whether or not the same person as the requesting person exists (S502). Specifically, the selected feature is associated with the feature amount included in the determination request and the device ID included in the determination request from the feature amount set stored in the person information storage unit 131. The presence / absence of the same person is determined by collating the selected feature indicated by the selected feature information stored in the storage unit 132. That is, if a record including a feature amount similar to the feature amount included in the determination request is stored in the person information storage unit 131, the person related to the record is the same person as the person related to the determination request. Is determined.

比較された特徴量が類似しているか否かは、比較される特徴量の類似度と閾値とを比較することで判定されてもよい。例えば、比較される特徴量が色情報である場合、一方の特徴量が(R,G,B)であり、他方の特徴量が(R,G,B)であれば、以下のような相関値や、RGBの3次元空間状の2点間の距離が、類似度として算出されてもよい。 Whether or not the compared feature amounts are similar may be determined by comparing the similarity of the compared feature amounts with a threshold. For example, if the feature to be compared is color information, if one of the feature is (R 1 , G 1 , B 1 ) and the other is (R 2 , G 2 , B 2 ) The following correlation value or the distance between two points in a three-dimensional space of RGB may be calculated as the similarity.

Figure 0006627365
Figure 0006627365

この場合、相関値又は2点間の距離が、閾値以下であれば、比較された特徴量は類似していると判定されてもよい。他の種別の特徴量についても、それぞれの種別に適した方法で、類似度が算出されてもよい。   In this case, if the correlation value or the distance between the two points is equal to or less than the threshold value, the compared feature amounts may be determined to be similar. The similarity may be calculated for the feature amounts of other types by a method suitable for each type.

また、同一人物であるか否かの判定は、比較された全ての種別の特徴量が類似していることが条件とされてもよい。又は、比較された各種別の類似度の合計と、閾値とを比較することで同一人物であるか否かの判定が行われてもよい。   The determination as to whether or not they are the same person may be made on condition that the feature amounts of all types compared are similar. Alternatively, it may be determined whether or not the same person is the same person by comparing the sum of the similarities of various types compared with each other and the threshold.

続いて、判定結果送信部121は、同一人物判定部120による判定結果を、判定要求の送信元の他の情報処理装置10に送信する(S503)。例えば、同一人物が存在すると判定された場合には、同一人物に係る人物の人物IDが、送信される。同一人物が存在しないと判定された場合には、同一人物が存在しないことを示す情報(例えば、「−1」)が送信される。   Subsequently, the determination result transmission unit 121 transmits the determination result by the same person determination unit 120 to another information processing device 10 that has transmitted the determination request (S503). For example, when it is determined that the same person exists, the person ID of the person related to the same person is transmitted. When it is determined that the same person does not exist, information indicating that the same person does not exist (for example, “−1”) is transmitted.

続いて、カメラ20aからカメラ20bの方向に人物Hが移動した場合に、情報処理装置10a及び情報処理装置10bにおいて実行される処理について具体的に説明する。   Next, processing executed in the information processing apparatuses 10a and 10b when the person H moves from the camera 20a to the camera 20b will be specifically described.

まず、各情報処理装置10では、図9及び図11に示した処理手順が定期的に実行されている。例えば、情報処理装置10aは、情報処理装置10aの人物情報記憶部131に記憶されている各レコードの特徴量集合に基づいて、選択特徴量を選択する。ここでは、上半身の色、下半身の色、頭髪色、及び靴の色の4種類の特徴量が特徴量集合に含まれることとする。例えば、頭髪色と下半身の色が選択されると、情報処理装置10bは、頭髪色と下半身の色とが選択特徴量であることを示す選択特徴情報を情報処理装置10bに送信する。例えば、選択特徴情報のビット列の各ビットが、上半身の色,下半身の色,頭髪色,靴の色}の順に対応する場合、{0,1,1,0}というビット列が、情報処理装置10bに送信される。   First, in each information processing apparatus 10, the processing procedure shown in FIGS. 9 and 11 is periodically executed. For example, the information processing device 10a selects a selected feature amount based on a feature amount set of each record stored in the person information storage unit 131 of the information processing device 10a. Here, it is assumed that four types of feature amounts, that is, upper body color, lower body color, hair color, and shoe color are included in the feature amount set. For example, when the hair color and the color of the lower body are selected, the information processing device 10b transmits selection feature information indicating that the hair color and the color of the lower body are the selected feature amounts to the information processing device 10b. For example, when each bit of the bit string of the selected feature information corresponds to the order of the upper body color, the lower body color, the hair color, and the shoe color, the bit string {0, 1, 1, 0} is stored in the information processing apparatus 10b. Sent to.

カメラ20aの撮像領域に人物Hが出現すると、図7に示した処理手順が情報処理装置10aによって実行される。その結果、情報処理装置10aの人物情報記憶部131に、人物Hに関するレコードが記憶される。なお、ここでは、人物Hに対する人物IDとして、「005」が割り当てられたとする。   When the person H appears in the imaging area of the camera 20a, the processing procedure illustrated in FIG. 7 is executed by the information processing device 10a. As a result, a record regarding the person H is stored in the person information storage unit 131 of the information processing device 10a. Here, it is assumed that “005” is assigned as the person ID for the person H.

人物Hに関するレコードが人物情報記憶部131に記憶されたことに応じ、情報処理装置10aは、図13に示した処理手順を実行する。ここで、情報処理装置10bに対して人物Hと同一人物の有無の判定要求が送信されるが、人物Hは、カメラ20bの撮像領域には到達していないため、情報処理装置10bからは、同一人物が存在しないことを示す情報が返信される。   In response to the record regarding the person H being stored in the person information storage unit 131, the information processing device 10a executes the processing procedure illustrated in FIG. Here, a request for determining the presence or absence of the same person as the person H is transmitted to the information processing device 10b. However, since the person H has not reached the imaging area of the camera 20b, the information processing device 10b outputs Information indicating that the same person does not exist is returned.

その後、人物Hがカメラ20bの撮像領域に出現すると、図7に示した処理手順が情報処理装置10bによって実行される。その結果、情報処理装置10bの人物情報記憶部131に、人物Hに関するレコードが記憶される。情報処理装置10bでは、人物Hに対する人物IDとして、「001」が割り当てられたとする。   Thereafter, when the person H appears in the imaging area of the camera 20b, the processing procedure illustrated in FIG. 7 is executed by the information processing device 10b. As a result, a record regarding the person H is stored in the person information storage unit 131 of the information processing device 10b. It is assumed that, in the information processing device 10b, “001” is assigned as the person ID for the person H.

人物Hに関するレコードが人物情報記憶部131に記憶されたことに応じ、情報処理装置10bは、図13に示した処理手順を実行する。ここでは、情報処理装置10aに対して、当該レコードの頭髪色と下半身の色とを含む、同一人物の有無の判定要求が送信される。   In response to the record regarding the person H being stored in the person information storage unit 131, the information processing device 10b executes the processing procedure illustrated in FIG. Here, a request for the presence / absence of the same person including the hair color of the record and the color of the lower body is transmitted to the information processing apparatus 10a.

情報処理装置10aは、当該判定要求に応じ、図14に示した処理手順を実行する。その結果、人物IDが「005」である人物が、判定要求に係る人物と同一人物であると判定される。そこで、情報処理装置10aは、人物ID「005」を含む判定結果を、情報処理装置10bに送信する。   The information processing device 10a executes the processing procedure illustrated in FIG. 14 in response to the determination request. As a result, the person with the person ID “005” is determined to be the same person as the person requesting the determination. Therefore, the information processing device 10a transmits a determination result including the person ID “005” to the information processing device 10b.

情報処理装置10bは、当該判定結果を受信すると、人物情報記憶部131において、人物IDが「001」であるレコードの「判定結果」に対し、情報処理装置10aの装置IDと、人物ID「005」とを記憶する。その結果、情報処理装置10bにおける人物ID「001」の人物と、情報処理装置10aにおいて人物ID「005」の人物とが同一人物であることが記憶される。   Upon receiving the determination result, the information processing apparatus 10b compares the device ID of the information processing apparatus 10a with the person ID “005” in the person information storage unit 131 with respect to the “determination result” of the record whose person ID is “001”. Is stored. As a result, it is stored that the person with the person ID “001” in the information processing device 10b and the person with the person ID “005” in the information processing device 10a are the same person.

上述したように、本実施の形態によれば、同一人物の判定処理を実行する情報処理装置10にとって、人物を判別するための適性が相対的に高い特徴量が当該情報処理装置10に伝送される。その結果、全ての特徴量が伝送される場合に比べて、複数の場所に設置されているカメラ20によって撮像される画像に基づいて人物の移動軌跡を導出するめに伝送されるデータ量を削減することができる。   As described above, according to the present embodiment, for the information processing apparatus 10 that performs the same person determination processing, a feature amount having relatively high suitability for determining a person is transmitted to the information processing apparatus 10. You. As a result, the amount of data transmitted to derive the trajectory of the person based on the images captured by the cameras 20 installed at a plurality of locations is reduced as compared with the case where all the feature amounts are transmitted. be able to.

なお、本実施の形態では、異同の判定対象とされる被写体(物体)が人物である例について説明したが、人物以外の被写体について異同の判定が行われてもよい。   Note that, in the present embodiment, an example has been described in which the subject (object) to be determined to be different is a person, but the difference may be determined for subjects other than the person.

なお、本実施の形態において、特徴量抽出部112は、抽出部の一例である。選択特徴量判定部114は、選択部の一例である。選択特徴送信部115は、送信部の一例である。判定要求受信部119は、受信部の一例である。同一人物判定部120は、判定部の一例である。カメラ20は、撮像装置の一例である。   Note that, in the present embodiment, the feature amount extraction unit 112 is an example of an extraction unit. The selection feature amount determination unit 114 is an example of a selection unit. The selected feature transmitting unit 115 is an example of a transmitting unit. The determination request receiving unit 119 is an example of a receiving unit. The same person determination unit 120 is an example of a determination unit. The camera 20 is an example of an imaging device.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was described in full detail, this invention is not limited to such a specific embodiment, A various deformation | transformation is carried out within the range of the gist of this invention described in the claim.・ Change is possible.

以上の説明に関し、更に以下の項を開示する。
(付記1)
複数の場所に設置された撮像装置ごとに配置される情報処理装置が、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、
前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、
前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信する処理において送信された情報が示す特徴量を受信し、
前記抽出する処理において抽出された特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、
処理を実行することを特徴とする情報処理方法。
(付記2)
前記抽出する処理は、前記第1の撮像装置によって撮像された画像から検出される複数の被写体のそれぞれについて、複数種類の特徴量を抽出し、
前記選択する処理は、前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて分散を算出し、算出された分散に基づいて、前記適性が相対的に高い一部の特徴量を選択する、
ことを特徴とする付記1記載の情報処理方法。
(付記3)
前記選択する処理は、所定期間ごとに、前記一部の特徴量を選択し、
前記送信する処理は、前記選択する処理において前記一部の特徴量が選択されるたびに、前記一部の特徴量を識別する情報を他の情報処理装置に送信する、
ことを特徴とする付記1又は2記載の情報処理方法。
(付記4)
複数の場所に設置された撮像装置ごとに配置される情報処理装置であって、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出する抽出部と、
前記抽出部によって抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択する選択部と、
前記選択部によって選択された一部の特徴量を識別する情報を他の情報処理装置に送信する送信部と、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信部によって送信された情報が示す特徴量を受信する受信部と、
前記抽出部によって抽出された特徴量と、前記受信部によって受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する判定部と、
を有することを特徴とする情報処理装置。
(付記5)
前記抽出部は、前記第1の撮像装置によって撮像された画像から検出される複数の被写体のそれぞれについて、複数種類の特徴量を抽出し、
前記選択部は、前記抽出部によって抽出された複数種類の特徴量のそれぞれについて分散を算出し、算出された分散に基づいて、前記適性が相対的に高い一部の特徴量を選択する、
ことを特徴とする付記4記載の情報処理装置。
(付記6)
前記選択部は、所定期間ごとに、前記一部の特徴量を選択し、
前記送信部は、前記選択部によって前記一部の特徴量が選択されるたびに、前記一部の特徴量を識別する情報を他の情報処理装置に送信する、
ことを特徴とする付記4又は5記載の情報処理装置。
(付記7)
複数の場所に設置された撮像装置ごとに配置される情報処理装置に、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、
前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、
前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信する処理において送信された情報が示す特徴量を受信し、
前記抽出する処理において抽出された特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、
処理を実行させることを特徴とするプログラム。
(付記8)
前記抽出する処理は、前記第1の撮像装置によって撮像された画像から検出される複数の被写体のそれぞれについて、複数種類の特徴量を抽出し、
前記選択する処理は、前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて分散を算出し、算出された分散に基づいて、前記適性が相対的に高い一部の特徴量を選択する、
ことを特徴とする付記7記載のプログラム。
(付記9)
前記選択する処理は、所定期間ごとに、前記一部の特徴量を選択し、
前記送信する処理は、前記選択する処理において前記一部の特徴量が選択されるたびに、前記一部の特徴量を識別する情報を他の情報処理装置に送信する、
ことを特徴とする付記1又は2記載のプログラム。
With respect to the above description, the following items are further disclosed.
(Appendix 1)
An information processing device arranged for each imaging device installed at a plurality of locations,
For a first subject detected from an image captured by a first imaging device corresponding to the information processing device, a plurality of types of feature amounts are extracted,
For each of the plurality of types of feature amounts extracted in the extracting process, the suitability for determining whether the subject imaged by the first imaging device is different is determined, and a part where the suitability is relatively high is determined. Select the feature amount of
Transmitting information for identifying a part of the feature amount selected in the selecting process to another information processing apparatus,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted in the transmitting process is extracted. Receive,
Determining the difference between the first subject and the second subject based on the feature value extracted in the extracting process and the feature value received in the receiving process;
An information processing method comprising performing processing.
(Appendix 2)
The extracting process includes extracting a plurality of types of feature amounts for each of a plurality of subjects detected from an image captured by the first imaging device,
In the selecting process, a variance is calculated for each of the plurality of types of feature amounts extracted in the extracting process, and based on the calculated variance, a part of the feature amount having relatively high suitability is selected. ,
The information processing method according to claim 1, wherein
(Appendix 3)
The process of selecting, for each predetermined period, selecting the partial feature amount,
The transmitting process includes transmitting information identifying the partial feature amount to another information processing device each time the partial feature amount is selected in the selecting process.
3. The information processing method according to claim 1 or 2, wherein
(Appendix 4)
An information processing device arranged for each imaging device installed in a plurality of places,
An extraction unit configured to extract a plurality of types of feature amounts for a first subject detected from an image captured by a first imaging device corresponding to the information processing device;
For each of the plurality of types of feature amounts extracted by the extraction unit, the suitability for determining the difference between the subjects imaged by the first imaging device is determined, and a part of the suitability is relatively high. A selection unit for selecting a feature amount;
A transmitting unit that transmits information for identifying a part of the feature amount selected by the selecting unit to another information processing device,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted by the transmission unit is received. A receiving unit that performs
A determination unit configured to determine a difference between the first subject and the second subject based on the feature amount extracted by the extraction unit and the feature amount received by the reception unit;
An information processing apparatus comprising:
(Appendix 5)
The extraction unit extracts a plurality of types of feature amounts for each of a plurality of subjects detected from an image captured by the first imaging device,
The selection unit calculates a variance for each of the plurality of types of feature amounts extracted by the extraction unit, and based on the calculated variance, selects a part of the suitability where the suitability is relatively high,
4. The information processing apparatus according to claim 4, wherein
(Appendix 6)
The selecting unit selects the part of the feature amounts for each predetermined period,
The transmitting unit transmits information identifying the partial feature amount to another information processing device each time the partial feature amount is selected by the selecting unit.
The information processing apparatus according to claim 4 or 5, wherein
(Appendix 7)
In the information processing device arranged for each imaging device installed in a plurality of places,
For a first subject detected from an image captured by a first imaging device corresponding to the information processing device, a plurality of types of feature amounts are extracted,
For each of the plurality of types of feature amounts extracted in the extracting process, the suitability for determining whether the subject imaged by the first imaging device is different is determined, and a part where the suitability is relatively high is determined. Select the feature amount of
Transmitting information for identifying a part of the feature amount selected in the selecting process to another information processing apparatus,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted in the transmitting process is extracted. Receive,
Determining the difference between the first subject and the second subject based on the feature value extracted in the extracting process and the feature value received in the receiving process;
A program for executing a process.
(Appendix 8)
The extracting process includes extracting a plurality of types of feature amounts for each of a plurality of subjects detected from an image captured by the first imaging device,
In the selecting process, a variance is calculated for each of the plurality of types of feature amounts extracted in the extracting process, and based on the calculated variance, a part of the feature amount having relatively high suitability is selected. ,
The program according to supplementary note 7, characterized in that:
(Appendix 9)
The process of selecting, for each predetermined period, selecting the partial feature amount,
The transmitting process includes transmitting information identifying the partial feature amount to another information processing device each time the partial feature amount is selected in the selecting process.
3. The program according to claim 1 or 2, wherein

1 監視システム
10 情報処理装置
20 カメラ
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
111 人物検出部
112 特徴量抽出部
113 人物追跡部
114 選択特徴量判定部
115 選択特徴送信部
116 選択特徴受信部
117 特徴量取得部
118 判定要求送信部
119 判定要求受信部
120 同一人物判定部
121 判定結果送信部
122 判定結果受信部
131 人物情報記憶部
132 選択特徴記憶部
B バス
Reference Signs List 1 monitoring system 10 information processing device 20 camera 100 drive device 101 recording medium 102 auxiliary storage device 103 memory device 104 CPU
105 Interface device 111 Person detection unit 112 Feature extraction unit 113 Person tracking unit 114 Selected feature determination unit 115 Selected feature transmission unit 116 Selected feature reception unit 117 Feature acquisition unit 118 Judgment request transmission unit 119 Judgment request reception unit 120 Same person Judgment unit 121 Judgment result transmission unit 122 Judgment result reception unit 131 Person information storage unit 132 Selected feature storage unit B Bus

Claims (5)

複数の場所に設置された撮像装置ごとに配置される情報処理装置が、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、
前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、
前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信する処理において送信された情報が示す特徴量を受信し、
前記選択する処理において選択された一部の特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、
処理を実行することを特徴とする情報処理方法。
An information processing device arranged for each imaging device installed at a plurality of locations,
For a first subject detected from an image captured by a first imaging device corresponding to the information processing device, a plurality of types of feature amounts are extracted,
For each of the plurality of types of feature amounts extracted in the extracting process, the suitability for determining whether the subject imaged by the first imaging device is different is determined, and a part where the suitability is relatively high is determined. Select the feature amount of
Transmitting information for identifying a part of the feature amount selected in the selecting process to another information processing apparatus,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted in the transmitting process is extracted. Receive,
Determining a difference between the first subject and the second subject based on a part of the feature amounts selected in the selecting process and the feature amounts received in the receiving process;
An information processing method comprising performing processing.
前記抽出する処理は、前記第1の撮像装置によって撮像された画像から検出される複数の被写体のそれぞれについて、複数種類の特徴量を抽出し、
前記選択する処理は、前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて分散を算出し、算出された分散に基づいて、前記適性が相対的に高い一部の特徴量を選択する、
ことを特徴とする請求項1記載の情報処理方法。
The extracting process includes extracting a plurality of types of feature amounts for each of a plurality of subjects detected from an image captured by the first imaging device,
In the selecting process, a variance is calculated for each of the plurality of types of feature amounts extracted in the extracting process, and based on the calculated variance, a part of the feature amount having relatively high suitability is selected. ,
2. The information processing method according to claim 1, wherein:
前記選択する処理は、所定期間ごとに、前記一部の特徴量を選択し、
前記送信する処理は、前記選択する処理において前記一部の特徴量が選択されるたびに、前記一部の特徴量を識別する情報を他の情報処理装置に送信する、
ことを特徴とする請求項1又は2記載の情報処理方法。
The process of selecting, for each predetermined period, selecting the partial feature amount,
The transmitting process includes transmitting information identifying the partial feature amount to another information processing device each time the partial feature amount is selected in the selecting process.
3. The information processing method according to claim 1, wherein:
複数の場所に設置された撮像装置ごとに配置される情報処理装置であって、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出する抽出部と、
前記抽出部によって抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択する選択部と、
前記選択部によって選択された一部の特徴量を識別する情報を他の情報処理装置に送信する送信部と、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信部によって送信された情報が示す特徴量を受信する受信部と、
前記選択部によって選択された一部の特徴量と、前記受信部によって受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する判定部と、
を有することを特徴とする情報処理装置。
An information processing device arranged for each imaging device installed in a plurality of places,
An extraction unit configured to extract a plurality of types of feature amounts for a first subject detected from an image captured by a first imaging device corresponding to the information processing device;
For each of the plurality of types of feature amounts extracted by the extraction unit, the suitability for determining the difference between the subjects imaged by the first imaging device is determined, and a part of the suitability is relatively high. A selection unit for selecting a feature amount;
A transmitting unit that transmits information for identifying a part of the feature amount selected by the selecting unit to another information processing device,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted by the transmission unit is received. A receiving unit that performs
A determination unit configured to determine the difference between the first subject and the second subject based on a part of the feature amounts selected by the selection unit and the feature amounts received by the reception unit;
An information processing apparatus comprising:
複数の場所に設置された撮像装置ごとに配置される情報処理装置に、
当該情報処理装置に対応する第1の撮像装置によって撮像された画像から検出される第1の被写体について、複数種類の特徴量を抽出し、
前記抽出する処理において抽出された複数種類の特徴量のそれぞれについて、前記第1の撮像装置によって撮像された被写体の異同を判別するための適性を判定して、前記適性が相対的に高い一部の特徴量を選択し、
前記選択する処理において選択された一部の特徴量を識別する情報を他の情報処理装置に送信し、
前記他の情報処理装置に対応する第2の撮像装置によって撮像された画像から検出された第2の被写体について抽出される特徴量のうち、前記送信する処理において送信された情報が示す特徴量を受信し、
前記選択する処理において選択された一部の特徴量と、前記受信する処理において受信された特徴量とに基づいて、前記第1の被写体と前記第2の被写体との異同を判定する、
処理を実行させることを特徴とするプログラム。
In the information processing device arranged for each imaging device installed in a plurality of places,
For a first subject detected from an image captured by a first imaging device corresponding to the information processing device, a plurality of types of feature amounts are extracted,
For each of the plurality of types of feature amounts extracted in the extracting process, the suitability for determining whether the subject imaged by the first imaging device is different is determined, and a part where the suitability is relatively high is determined. Select the feature amount of
Transmitting information for identifying a part of the feature amount selected in the selecting process to another information processing apparatus,
Among the feature amounts extracted for the second subject detected from the image captured by the second imaging device corresponding to the other information processing device, the feature amount indicated by the information transmitted in the transmitting process is extracted. Receive,
Determining a difference between the first subject and the second subject based on a part of the feature amounts selected in the selecting process and the feature amounts received in the receiving process;
A program for executing a process.
JP2015186610A 2015-09-24 2015-09-24 Information processing method, information processing apparatus, and program Active JP6627365B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015186610A JP6627365B2 (en) 2015-09-24 2015-09-24 Information processing method, information processing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015186610A JP6627365B2 (en) 2015-09-24 2015-09-24 Information processing method, information processing apparatus, and program

Publications (2)

Publication Number Publication Date
JP2017063266A JP2017063266A (en) 2017-03-30
JP6627365B2 true JP6627365B2 (en) 2020-01-08

Family

ID=58429292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015186610A Active JP6627365B2 (en) 2015-09-24 2015-09-24 Information processing method, information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP6627365B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018186397A (en) * 2017-04-26 2018-11-22 キヤノン株式会社 Information processing device, image monitoring system, information processing method, and program
JP7218416B2 (en) * 2017-04-26 2023-02-06 キヤノン株式会社 Information processing device, information processing system, information processing method and program
JP6958020B2 (en) * 2017-06-22 2021-11-02 富士通株式会社 Image analysis program, image analysis device, and image analysis method
JP7185537B2 (en) * 2019-01-15 2022-12-07 株式会社Nttドコモ Imaging system
JP7395082B1 (en) 2022-02-15 2023-12-08 三菱電機株式会社 Image search device, image search method, and image search program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130783A (en) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd Distributed video monitoring system
JP3999561B2 (en) * 2002-05-07 2007-10-31 松下電器産業株式会社 Surveillance system and surveillance camera
JP5085621B2 (en) * 2009-09-10 2012-11-28 株式会社東芝 Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing
EP2549759B1 (en) * 2011-07-19 2016-01-13 Axis AB Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras
JP6225039B2 (en) * 2014-01-31 2017-11-01 株式会社日立製作所 Image search system, image search apparatus, and image search method

Also Published As

Publication number Publication date
JP2017063266A (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6627365B2 (en) Information processing method, information processing apparatus, and program
JP6184271B2 (en) Imaging management apparatus, imaging management system control method, and program
JP6614611B2 (en) Apparatus, program, and method for tracking object in consideration of similarity between images
US9977951B2 (en) Picture ranking method, and terminal
JP2019133658A (en) Positioning method, positioning device and readable storage medium
KR101380628B1 (en) Method and apparatus for object tracking using multiple cameras
JP6776719B2 (en) Mobile group detection program, mobile group detection device, and mobile group detection method
JP7020497B2 (en) Match judgment device, match judgment method, storage medium
JP6503079B2 (en) Specific person detection system, specific person detection method and detection device
WO2017154655A1 (en) Crowd type identification system, crowd type identification method, and storage medium for storing crowd type identification program
JP2016081355A (en) Irregularity detection method, irregularity detection device and program
JPWO2019155727A1 (en) Information processing apparatus, tracking method, and tracking program
JP2010044448A (en) Image processing device and image processing method
CN111191481B (en) Vehicle identification method and system
JP6305856B2 (en) Image processing apparatus, image processing method, and program
JP7459949B2 (en) Learning devices, learning methods, tracking devices and programs
JP6377563B2 (en) Object tracking apparatus, program, and method for identifying object using partial deletion processing of flow line
CN107231519B (en) Video processing apparatus and control method
JP2018186397A (en) Information processing device, image monitoring system, information processing method, and program
JP2019002790A (en) Shape estimating device, shape estimation method, and program
JP6452324B2 (en) Image processing apparatus, image processing method, and program
JP2021077039A (en) Image processing apparatus, image processing method, and program
JP7383435B2 (en) Image processing device, image processing method, and program
JP4997179B2 (en) Image processing apparatus, method, and program
JP6308011B2 (en) Same object detection device, same object detection method, and same object detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191118

R150 Certificate of patent or registration of utility model

Ref document number: 6627365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150