JP6079447B2 - SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM - Google Patents

SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM Download PDF

Info

Publication number
JP6079447B2
JP6079447B2 JP2013117291A JP2013117291A JP6079447B2 JP 6079447 B2 JP6079447 B2 JP 6079447B2 JP 2013117291 A JP2013117291 A JP 2013117291A JP 2013117291 A JP2013117291 A JP 2013117291A JP 6079447 B2 JP6079447 B2 JP 6079447B2
Authority
JP
Japan
Prior art keywords
search
person
witness
moving
search condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013117291A
Other languages
Japanese (ja)
Other versions
JP2014235608A (en
Inventor
健太郎 辻
健太郎 辻
塩原 守人
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013117291A priority Critical patent/JP6079447B2/en
Publication of JP2014235608A publication Critical patent/JP2014235608A/en
Application granted granted Critical
Publication of JP6079447B2 publication Critical patent/JP6079447B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、検索装置、検索方法、および検索プログラムに関する。   The present invention relates to a search device, a search method, and a search program.

近年、オフィスやショッピングセンター、商店街など様々な場所に監視カメラが設置されるようになってきた。一般的に、これらの施設では複数の場所に多数の監視カメラが設置されているため、監視員が24時間体制で常に全てのカメラの映像を監視することは不可能である。   In recent years, surveillance cameras have been installed in various places such as offices, shopping centers, and shopping streets. In general, in these facilities, since a large number of surveillance cameras are installed at a plurality of locations, it is impossible for the surveillance staff to constantly monitor the images of all the cameras on a 24-hour basis.

そこで、これらの監視カメラの使用用途としては、不審者などの情報を目撃者から提供された際に、その不審者が映っている映像を不審者の情報を利用して探しだし、その人物の挙動を確認したりより詳細な情報を取得したりするような使われ方が多い。よって、このようなセキュリティシステムでは、監視員の作業の負担を軽減するために、目撃者の証言から、監視員が特定の人を効率よく探し出す方法が望まれている。   Therefore, the usage of these surveillance cameras is to search for images of the suspicious person using the suspicious person's information when information about the suspicious person is provided by the witness. It is often used to check behavior and obtain more detailed information. Therefore, in such a security system, in order to reduce the burden on the work of the observer, there is a demand for a method in which the observer efficiently searches for a specific person from the witness testimony.

複数の個所に設置をされたカメラ群が撮影をした映像の中から、特定の人物が写っているであろう画像を抽出する方法として次のような方法が知られている。まず、画像の中に映っている各人物について、各々の人物の特徴から人物ごとに分類をしておく。そして、被検索対象者の特徴が与えられると、各々の人物の特徴から、該当をする特徴を有する人物を特定し、特定をした人物が写っている画像を抽出する。この方法では、監視カメラで撮影した人物を検出して、特徴量を抽出しデータベースに蓄積しておくことで、時刻、場所、人物の特徴などを検索条件として、検索条件と一致した人のみを表示する。   The following method is known as a method for extracting an image that a specific person may be captured from images taken by a group of cameras installed at a plurality of locations. First, each person shown in the image is classified for each person based on the characteristics of each person. Then, when the characteristics of the search target person are given, the person having the relevant characteristics is identified from the characteristics of each person, and an image showing the identified person is extracted. In this method, a person photographed with a surveillance camera is detected, and feature amounts are extracted and stored in a database. indicate.

特開2010−257449号公報JP 2010-257449 A

しかしながら、一般的に不審者などを発見した目撃者が、不審者の特徴(背格好・服装・見かけた場所・時刻など)を完璧に覚えていることはわずかであり、目撃者の記憶によっては不審者の情報があいまいなものになる可能性がある。そのような場合、検索条件となる特徴はより広い範囲をカバーするように設定する必要があり、人物ごとにまとめただけでは検索条件と一致する検索結果が膨大なものになってしまう可能性がある。そこで、検索に利用する情報があいまいになりやすい目撃者の情報を利用して検索を行う場合でも、より検索結果(目的の人物の候補)を削減する方法が必要であるという問題がある。   However, in general, witnesses who have found suspicious individuals, etc., have completely remembered the characteristics of suspicious individuals (appearance, dress, appearance, time, etc.), and depending on the memory of the witness Suspicious person information may be ambiguous. In such a case, it is necessary to set the features that serve as the search conditions so that they cover a wider range, and the search results that match the search conditions may become enormous if they are only grouped for each person. is there. Therefore, there is a problem that a method for reducing the search results (target person candidates) is necessary even when the search is performed using the information of the witnesses that are easily ambiguous.

よって、一つの側面として、本発明は、目撃情報によって得られた外面的な情報が類似する物体が多い場合でも、検索にヒットする物体の件数(検索物の候補)を削減し、それらの画像を目視で確認する担当者の負荷を軽減する検索装置、検索方法、および検索プログラムを提供することを目的とする。   Therefore, as one aspect, the present invention reduces the number of objects hitting a search (candidates for a search object) even when there are many objects with similar external information obtained by sighting information, and the images An object of the present invention is to provide a search device, a search method, and a search program that reduce the load on the person in charge of visually confirming the search.

検索装置が提供される。検索装置は、所定の場所の複数の時刻における一連の複数の画像を取得する撮像装置によって得られた複数の画像に含まれる複数の移動体のそれぞれに対して、前記複数の時刻における位置を移動の履歴として取得する追跡部と、前記複数の前記移動体のそれぞれに対して、物理的特徴を抽出する特徴抽出部と、複数の移動体の中から、検索対象を目撃した目撃者を目撃者の物理的特徴と複数の移動体の物理的特徴を比較することによって特定し、目撃者の移動の履歴を取得する目撃者経路取得部と、目撃者の移動の履歴によって定まる所定の時間帯および領域に存在することを検索の条件として設定する検索条件作成部と、検索の条件を満たす前記複数の前記移動体の一部を検索対象候補として取得する候補取得部と、検索対象候補を出力する出力部と、を含むことを特徴とする。   A search device is provided. The search device moves the position at the plurality of times with respect to each of the plurality of moving bodies included in the plurality of images obtained by the imaging device that acquires a series of images at a plurality of times at a predetermined location. A tracking section that is acquired as a history of the above, a feature extraction section that extracts a physical feature for each of the plurality of moving bodies, and a witness that has witnessed a search target from the plurality of moving bodies The physical characteristics of the moving object and the physical characteristics of a plurality of moving objects, and a witness route acquisition unit that acquires the movement history of the witness, a predetermined time period determined by the movement history of the witness, and A search condition creation unit that sets a search condition to be present in a region, a candidate acquisition unit that acquires a part of the plurality of moving objects that satisfy a search condition as search target candidates, and outputs search target candidates An output unit that, characterized in that it comprises a.

外面的な情報が類似する物体が多い場合でも、検索にヒットする物体の件数(検索物の候補)を削減し、それらの画像を目視で確認する担当者の負荷を軽減することができる。   Even when there are many objects with similar external information, it is possible to reduce the number of objects that are hit in the search (candidates for the search object), and to reduce the burden on the person in charge who visually confirms these images.

実施形態の検索装置が使用される状況を説明する図である。It is a figure explaining the condition where the search device of an embodiment is used. 実施形態の検索装置の機能ブロック図の例である。It is an example of a functional block diagram of a search device of an embodiment. 人物情報データベースに格納される人物情報テーブルの例を示す図である。It is a figure which shows the example of the person information table stored in a person information database. 経路情報データベースに格納される経路情報テーブルの例を示す図である。It is a figure which shows the example of the route information table stored in a route information database. データ登録処理における処理の流れの例を示す図である。It is a figure which shows the example of the flow of a process in a data registration process. 検索処理における処理の流れの例を示す図である。It is a figure which shows the example of the flow of a process in a search process. 人の動きの例を説明する図である。It is a figure explaining the example of a person's movement. 実施例1で人物情報データベースに格納される人物の人物情報テーブルの例を示す図である。It is a figure which shows the example of the person information table of the person stored in a person information database in Example 1. FIG. 実施例1で経路情報データベースに格納される人物Sの経路情報テーブルの例を示す図である。It is a figure which shows the example of the route information table of the person S stored in a route information database in Example 1. FIG. 実施例1で経路情報データベースに格納される全ての人物の経路情報テーブルの例を示す図である。It is a figure which shows the example of the path | route information table of all the persons stored in a path | route information database in Example 1. FIG. 目撃者の経路情報を考慮した場合の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions at the time of considering route information of witnesses. 目撃者の経路情報を考慮した場合の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions at the time of considering route information of witnesses. 目撃者の経路情報を考慮した場合の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions at the time of considering route information of witnesses. 目撃者の経路情報を考慮しない場合の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions when not considering route information of witnesses. 目撃者が向いている方向を考慮した場合の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions when the direction which the witness is facing is considered. 目撃者が向いている方向を考慮した場合の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions when the direction which the witness is facing is considered. 目撃者が向いている方向を考慮した場合の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions when the direction which the witness is facing is considered. 実施例2で経路情報データベースに格納される経路情報テーブルの例を示す図である。It is a figure which shows the example of the path | route information table stored in a path | route information database in Example 2. FIG. 目撃者の移動方向を考慮した場合(不審者と同じ方向に移動した場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the moving direction of witnesses is considered (when moving to the same direction as a suspicious person). 目撃者の移動方向を考慮した場合(不審者と同じ方向に移動した場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the moving direction of witnesses is considered (when moving to the same direction as a suspicious person). 目撃者の移動方向を考慮した場合(不審者と同じ方向に移動した場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the moving direction of witnesses is considered (when moving to the same direction as a suspicious person). 目撃者の移動方向を考慮した場合(不審者と逆の方向に移動した場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the moving direction of an witness is considered (when moving in the direction opposite to a suspicious person). 目撃者の移動方向を考慮した場合(不審者と逆の方向に移動した場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the moving direction of an witness is considered (when moving in the direction opposite to a suspicious person). 目撃者の移動方向を考慮した場合(不審者と逆の方向に移動した場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the moving direction of an witness is considered (when moving in the direction opposite to a suspicious person). 実施例3で経路情報データベースに格納される経路情報テーブルの例を示す図である。It is a figure which shows the example of the path | route information table stored in a path | route information database in Example 3. FIG. 目撃者の移動速度を考慮した場合(不審者に追いつく場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions when the movement speed of an witness is considered (when catching up with a suspicious person). 目撃者の移動速度を考慮した場合(不審者に追いつく場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions when the movement speed of an witness is considered (when catching up with a suspicious person). 目撃者の移動速度を考慮した場合(不審者に追いつく場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of the search conditions when the movement speed of an witness is considered (when catching up with a suspicious person). 目撃者の移動速度を考慮した場合(不審者に追い抜かれる場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the movement speed of an eyewitness is considered (when overtaken by a suspicious person). 目撃者の移動速度を考慮した場合(不審者に追い抜かれる場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the movement speed of an eyewitness is considered (when overtaken by a suspicious person). 目撃者の移動速度を考慮した場合(不審者に追い抜かれる場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the movement speed of an eyewitness is considered (when overtaken by a suspicious person). 目撃者の移動速度を考慮した場合(不審者が立ち止まっている場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the movement speed of an eyewitness is considered (when a suspicious person has stopped). 目撃者の移動速度を考慮した場合(不審者が立ち止まっている場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the movement speed of an eyewitness is considered (when a suspicious person has stopped). 目撃者の移動速度を考慮した場合(不審者が立ち止まっている場合)の検索条件の例を説明するための図である。It is a figure for demonstrating the example of search conditions when the movement speed of an eyewitness is considered (when a suspicious person has stopped). 実施形態の検索装置の構成の例を示す図である。It is a figure which shows the example of a structure of the search device of embodiment.

以下、図面を参照しながら、一実施形態の検索装置、検索方法について説明する。
図1は、一実施形態の検索装置が使用される状況を説明する図である。図1に示されている例は、以下の説明のためのものであり、一実施形態の検索装置は、より一般的な状況で使用され得る。また、以下では、検索対象は人物であるとして説明をするが、検索対象は人物には限定されない。たとえば、車両、人間以外の動物、飛翔物体、船舶など、検索に目撃者の証言が有用である移動体であってよい。
Hereinafter, a search device and a search method according to an embodiment will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a situation in which a search device according to an embodiment is used. The example shown in FIG. 1 is for the following description, and the search device of one embodiment may be used in a more general situation. In the following description, the search target is a person, but the search target is not limited to a person. For example, the vehicle may be a moving body in which the witness's testimony is useful for searching, such as a vehicle, a non-human animal, a flying object, or a ship.

図1に示すように、文字Hを90度時計まわりに回転したような形状の通路を、6台の撮像装置で監視することを考える。撮像装置はカメラであり得る。通路は、横方向に伸びる通路R1とR3、通路R1とR3を結ぶ通路R2を含んでいる。   As shown in FIG. 1, it is assumed that a path shaped like a letter H rotated 90 degrees clockwise is monitored by six imaging devices. The imaging device can be a camera. The passage includes passages R1 and R3 extending in the lateral direction and a passage R2 connecting the passages R1 and R3.

図1に示されている通路を含む領域は、たとえば縦8m横10mの範囲であるとする。6台の撮像装置はそれぞれ、領域A1〜A6の範囲を撮影することができるとする。このとき、各撮像装置の撮影範囲は2m四方であるとする。撮像装置は領域A1〜A6の各領域に1台ずつ、図1に示されている各領域の左上の隅に配置されている。空間の座標は、図1の領域A1の左上の隅を原点として、横方向をx軸、下方向をy軸とする。   It is assumed that the region including the passage shown in FIG. 1 is, for example, a range of 8 m in length and 10 m in width. Assume that each of the six imaging devices can capture the range of the areas A1 to A6. At this time, the imaging range of each imaging device is assumed to be 2 m square. One imaging device is arranged in each of the areas A1 to A6, and is arranged in the upper left corner of each area shown in FIG. As for the coordinates of the space, the upper left corner of the area A1 in FIG. 1 is the origin, the horizontal direction is the x axis, and the lower direction is the y axis.

以下で説明する検索装置および検索方法は、このような通路を移動した人物の中から、このような通路を移動した目撃者の目撃証言を参照して、検索物の候補を削減することができる。   The search device and the search method described below can reduce the number of search object candidates by referring to the witness testimony of the witness who has moved through such a passage from among those who have moved through such a passage. .

<検索装置>
図2は、実施形態の検索装置100の機能ブロック図の例である。後述するように、本装置100は、パーソナルコンピュータなど汎用コンピュータによって構成され得る。しかしながら、本装置100は専用回路によって構成されても良い。本装置100では、目撃者から得た不審者の特徴の情報を利用して、大量の映像中から特定の人物を探す際に、不審者の候補を減らし、監視者の作業の負担を減らすことができる。すなわち、撮像装置によって得られた画像に映っている複数の移動体から、検索対象を抽出する際に、目撃者と移動体について所定の関係を満たす移動体を抽出し検索対象の候補とすることで、候補の数を減らすことができる。
<Search device>
FIG. 2 is an example of a functional block diagram of the search device 100 according to the embodiment. As will be described later, the apparatus 100 can be configured by a general-purpose computer such as a personal computer. However, the apparatus 100 may be configured by a dedicated circuit. In the present apparatus 100, when searching for a specific person from a large amount of video using information on the characteristics of a suspicious person obtained from a witness, the number of suspicious persons is reduced and the burden on the work of the observer is reduced. Can do. That is, when a search target is extracted from a plurality of moving objects shown in an image obtained by the imaging device, a moving object that satisfies a predetermined relationship between the witness and the moving object is extracted and set as a search target candidate. Thus, the number of candidates can be reduced.

検索装置100は、映像取得部102、人物検出・検索部104、特徴抽出部106、人物情報データベース(DB)108、人物対応付け部110、人物特徴取得部112、目撃者経路取得部114、経路情報データベース(DB)116、検索条件作成部118、不審者候補取得部120、および結果出力部122を含んでいる。   The search apparatus 100 includes a video acquisition unit 102, a person detection / search unit 104, a feature extraction unit 106, a person information database (DB) 108, a person association unit 110, a person feature acquisition unit 112, a witness route acquisition unit 114, a route An information database (DB) 116, a search condition creation unit 118, a suspicious candidate acquisition unit 120, and a result output unit 122 are included.

検索装置100には、監視映像を撮影するための2つ以上の撮像装置200a、200b、…、200nが接続されている。撮像装置200a、200b、…、200nはCCDカメラ等のカメラであっても良い。   Two or more imaging devices 200a, 200b,..., 200n for capturing a monitoring video are connected to the search device 100. The imaging devices 200a, 200b,..., 200n may be cameras such as CCD cameras.

検索装置100と撮像装置200a、200b、…、200nは組み合わされて、検索システム10を構成する。   The search device 100 and the imaging devices 200a, 200b,..., 200n are combined to form the search system 10.

撮像装置200a、200b、…、200nで撮影された監視画像は、検索装置100の映像取得部102に送られる。図1の例では、撮像装置は領域A1〜A6の各領域に1台ずつ、図1に示されている各領域の左上の隅に配置されている。   Surveillance images captured by the imaging devices 200a, 200b,..., 200n are sent to the video acquisition unit 102 of the search device 100. In the example of FIG. 1, one image pickup device is arranged in each of the areas A1 to A6 in the upper left corner of each area shown in FIG. 1.

映像取得部102は、撮像装置200a、200b、…、200nから映像を検索装置100に取り込む。そして、取得した映像が動画であればこの後の処理を行うためにフレーム毎の画像に変換する。   The video acquisition unit 102 captures video from the imaging devices 200a, 200b,. If the acquired video is a moving image, it is converted into an image for each frame for subsequent processing.

人物検出・追跡部104は、映像取得部102で作成された画像から人物を検出し、時間的に連続した画像間で同一人物を追跡する。人物検出・追跡部104は、それ以前の時間に対応するフレーム中で検出された人物と対応付けることで人物の追跡を行う。人物検出・追跡部104は、単に追跡部104と呼ぶことがある。このように人物検出・追跡部104は、所定の場所の複数の時刻における一連の複数の画像を取得する撮像装置200a〜200nによって得られた複数の画像に含まれる複数の移動体のそれぞれに対して、複数の時刻における位置を移動の履歴として取得する。   The person detection / tracking unit 104 detects a person from the image created by the video acquisition unit 102 and tracks the same person between temporally continuous images. The person detection / tracking unit 104 tracks a person by associating with a person detected in a frame corresponding to the previous time. The person detection / tracking unit 104 may be simply referred to as the tracking unit 104. As described above, the person detection / tracking unit 104 performs each of a plurality of moving bodies included in the plurality of images obtained by the imaging devices 200a to 200n that acquire a series of a plurality of images at a plurality of times at a predetermined place. Thus, the positions at a plurality of times are acquired as movement histories.

特徴抽出部106は、人物検出・追跡部104で検出した人物の特徴を抽出する。特徴量としては、例えば、人物の服の色や、身長や身体の幅など人物の体型が含まれる。人物の服の色であれば、検出した人物の上半身部分のRGB成分をそれぞれ平均して抽出するなどで得ることができる。さらに特徴抽出部106は、抽出した人物の特徴を人物情報テーブルとして人物情報データベース(DB)108に格納する。   The feature extraction unit 106 extracts the feature of the person detected by the person detection / tracking unit 104. The feature amount includes, for example, a person's body shape such as a color of a person's clothes and a height and a body width. If it is the color of a person's clothes, it can obtain by averaging each RGB component of the detected upper part of the person. Furthermore, the feature extraction unit 106 stores the extracted person features in the person information database (DB) 108 as a person information table.

人物情報データベース(DB)108は、映像取得部102で作成された画像から検出した人物の各々に対して、その人物の特徴を含む人物情報テーブルに関する情報を記憶する。   The person information database (DB) 108 stores information related to a person information table including the characteristics of each person detected from the image created by the video acquisition unit 102.

人物情報テーブルは、各人物の上半身部分のRGB成分、身長、身体の幅に関する情報を含んでいる。   The person information table includes information on the RGB components, height, and body width of the upper body of each person.

図3は、人物情報DB108に格納される人物情報テーブルの例を示す図である。
人物情報DB108には、移動経路情報と人物特徴情報を含む人物情報テーブルが格納されている。移動経路情報はカメラの撮影範囲内でどのように移動したかを時刻と位置座標x、yで記載され、人物特徴情報は追跡中に取得した各フレームの人物特徴を1つの情報として統合したものが記載されている。移動経路情報に関しては、時刻順に位置情報を格納する。今回の例では1秒ごとに位置データを格納しているが、より細かい単位で格納してもよい。人物特徴情報のまとめ方に関しては、例えば、人物の追跡中で、最も人物が大きく撮影されたときの値を使う方法でもよいし、追跡中の特徴量の値を全て記憶しておき、追跡が完了した時点(人物が画像外に消えた時点)で全ての値の平均をとる方法などでもよい。この人物情報DBは各カメラ内の画像を利用して人物の情報をまとめたものであり、カメラ間の移動に対しては考慮されていないものになる。
FIG. 3 is a diagram illustrating an example of a person information table stored in the person information DB 108.
The person information DB 108 stores a person information table including movement route information and person characteristic information. The movement path information describes how it moved within the shooting range of the camera in terms of time and position coordinates x and y, and the person feature information is obtained by integrating the person features of each frame acquired during tracking as one piece of information. Is described. As for the movement route information, the position information is stored in order of time. In this example, position data is stored every second, but it may be stored in finer units. As for how to summarize the person feature information, for example, a method of using the value when the largest person was photographed during tracking of the person may be used. For example, a method may be used in which all values are averaged when completed (when a person disappears from the image). This person information DB is a collection of person information using images in each camera, and is not considered for movement between cameras.

図3に示されている人物情報テーブルの例では、たとえば、データ番号0001で特定される人物の色は、(R、G、B)=(100、50、60)で表される色である。また身長は170cm、身体の幅は45cmである。   In the example of the person information table shown in FIG. 3, for example, the color of the person specified by the data number 0001 is a color represented by (R, G, B) = (100, 50, 60). . The height is 170 cm and the width of the body is 45 cm.

また図3に示されている人物情報テーブルの例は、データ番号0001で特定される人物の移動経路が含まれている。図3に示されている例では、たとえば、データ番号0001で特定される人物は、2013年1月10日の10:00.00にはxy座標が(x、y)=(110、210)で指定される位置にいる。その1秒後にも、2013年1月10日の10:00.01にはxy座標が(x、y)=(110、210)で指定される位置にいる。そして、2013年1月10日の10:02.00にはxy座標が(x、y)=(200、400)で指定される位置に移動している。このような経路情報は、後述の人物対応付け部110によって人物情報テーブルに記入され得る。また、人物情報テーブルには、人物ごとの平均速度が記入されている。平均速度は、後述の人物対応付け部110によって算出され、人物情報テーブルに記入され得る。   The example of the person information table shown in FIG. 3 includes the movement path of the person specified by the data number 0001. In the example shown in FIG. 3, for example, the person specified by the data number 0001 has an xy coordinate of (x, y) = (110, 210) at 10: 00.00 on January 10, 2013. At the position specified by. Even one second later, at 10: 00.01 on January 10, 2013, the xy coordinates are at the position specified by (x, y) = (110, 210). Then, at 10: 02.00 on January 10, 2013, the xy coordinates have moved to the position specified by (x, y) = (200, 400). Such route information can be entered in the person information table by the person association unit 110 described later. In the person information table, the average speed for each person is entered. The average speed can be calculated by the person association unit 110 described later and entered in the person information table.

人物対応付け部110は、人物の特徴情報から複数の撮像装置200a、200b、…、200nで得られた監視映像から得られる画像間で同じ人物を対応付ける。   The person association unit 110 associates the same person among images obtained from the monitoring images obtained by the plurality of imaging devices 200a, 200b,.

人物対応付け部110は、新しい人物に関する情報データが作成されたら、その人物の情報のデータと経路情報データベース(DB)116に格納されたデータを比較していずれかの経路情報の人物と同一人物であるかを判定する。経路情報に含まれる人物の一人と同一人物であると判定された場合は、人物情報データを利用して経路情報テーブルをアップデートする。対応する経路情報データが存在しなかった場合は、その人物に関する情報を新規の経路情報データとして経路情報DB116の経路情報テーブルに追加、登録する。また、人物対応付け部110は、経路情報を人物情報DB108に格納される人物情報テーブルに記入する。   When the information data on the new person is created, the person association unit 110 compares the person information data with the data stored in the path information database (DB) 116, and is the same person as the person of any path information. It is determined whether it is. When it is determined that the person is the same person as one of the persons included in the route information, the route information table is updated using the person information data. If the corresponding route information data does not exist, information about the person is added and registered in the route information table of the route information DB 116 as new route information data. In addition, the person association unit 110 enters the route information in a person information table stored in the person information DB 108.

図4は、経路情報データベースに格納される経路情報テーブルの例を示す図である。経路情報テーブルの構造は人物情報DB108と同じであり、移動経路に関する情報である移動経路情報と人物の特徴に関する情報である人物特徴情報を含む移動経路テーブルを含む。   FIG. 4 is a diagram illustrating an example of a route information table stored in the route information database. The structure of the route information table is the same as that of the person information DB 108, and includes a movement route table that includes movement route information that is information about the movement route and person feature information that is information about the characteristics of the person.

図4に示されている例では、たとえば、データ番号0001で特定される人物は、2013年1月10日の10:00.00にはxy座標が(x、y)=(110、210)で指定される位置にいる。その1秒後にも、2013年1月10日の10:00.01にはxy座標が(x、y)=(110、210)で指定される位置にいる。そして、2013年1月10日の10:10.30にはxy座標が(x、y)=(5000、1000)で指定される位置に移動している。データ番号0001で特定される人物の色(R、G、B)、身長、幅などのデータは人物情報DB108を参照して記入される。また、また、経路情報テーブルには、人物ごとの平均速度が記入されている。平均速度は、人物対応付け部110によって経路情報に基づいて算出され、経路情報テーブルに記入され得る。   In the example shown in FIG. 4, for example, the person specified by the data number 0001 has an xy coordinate of (x, y) = (110, 210) at 10: 00.00 on January 10, 2013. At the position specified by. Even one second later, at 10: 00.01 on January 10, 2013, the xy coordinates are at the position specified by (x, y) = (110, 210). Then, at 10: 10.30 on January 10, 2013, the xy coordinates have moved to the position specified by (x, y) = (5000, 1000). Data such as the color (R, G, B), height, and width of the person specified by the data number 0001 is entered with reference to the person information DB 108. Further, the average speed for each person is entered in the route information table. The average speed may be calculated based on the route information by the person association unit 110 and entered in the route information table.

また、経路情報データベース(DB)の移動経路情報に目撃者の移動方向を加えてもよい。この移動方向は、経路情報テーブルに移動経路を記録する際に前後の時刻の位置を利用して得ても良い。このように、目撃者の移動方向を考慮することによって、不審者の候補を減らすことが可能となる。   Further, the movement direction of the witness may be added to the movement route information in the route information database (DB). This movement direction may be obtained by using the positions of previous and subsequent times when the movement route is recorded in the route information table. Thus, by considering the movement direction of the witness, it is possible to reduce the number of suspicious candidates.

同一人物の判定は、人物情報データと経路情報データの特徴量が類似している場合に同一人物とみなす。類似度の計算方法は、例えば色情報であれば、下式に示すように2つの値(R1、G1、B1)と(R2、G2、B2)の相関値を求めても良い。RGBの3次元空間での距離正規化相関corは、たとえば、
The determination of the same person is regarded as the same person when the feature amounts of the person information data and the path information data are similar. For example, if the similarity is calculated using color information, a correlation value between two values (R1, G1, B1) and (R2, G2, B2) may be obtained as shown in the following equation. The distance normalized correlation cor in the three-dimensional space of RGB is, for example,

で定義され得る。 Can be defined as

また、RGBの3次元空間上の2点間の距離で求めても良い。RGBの3次元空間上の2点間の距離disは、
で定義され得る。これらの値がしきい値以内であれば色について類似していると判断する。
Alternatively, the distance between two points in the RGB three-dimensional space may be obtained. The distance dis between two points on the three-dimensional space of RGB is
Can be defined as If these values are within the threshold, it is determined that the colors are similar.

また、人物対応付け部110は、人物情報データと経路情報データのマージを行う。具体的には、経路情報に関しては、対応付けられた経路情報データの最後尾に、人物情報データの経路情報を追加する。ただし、人物情報データには人物が撮像装置200a、200b、…、200nで撮影され、検出処理が行われている状況での経路情報しか記録されていない。つまり、撮像装置200a、200b、…、200nで撮影されていない場所での情報がないことになる。そこで、アップデート時に撮像装置200a、200b、…、200nで撮影されていない場所での移動経路を、前後のデータから推測して追加する。例えば、経路情報データの最終位置と追加する人物情報データの最初の位置を利用して、その間を等速で直進したと仮定して補間する方法がある。または、撮影環境の地図情報を利用して、カメラで撮影されない区間での人物の移動経路をあらかじめ登録しておき、人物の移動速度と登録経路から位置情報を求めても良い。   The person association unit 110 also merges person information data and route information data. Specifically, for the route information, the route information of the person information data is added to the end of the associated route information data. However, in the person information data, only path information in a situation where a person is photographed by the imaging devices 200a, 200b,..., 200n and detection processing is being performed is recorded. That is, there is no information at a place where the imaging devices 200a, 200b,. Therefore, at the time of the update, a movement route at a place not photographed by the imaging devices 200a, 200b,. For example, there is a method of interpolation using the final position of the route information data and the first position of the person information data to be added, assuming that the vehicle travels straight at a constant speed. Alternatively, by using map information of the shooting environment, a person's movement route in a section not photographed by the camera may be registered in advance, and the position information may be obtained from the person's movement speed and the registered route.

人物特徴量の情報は、両データの平均値を使用したり、各データの特徴量に重みづけを行い足した値にするなどして更新する。   The information of the person feature amount is updated by using an average value of both data or by adding a weight to the feature amount of each data.

人物特徴取得部112は、ユーザからの検索要求があるかどうかを判定する。そして、人物特徴取得部112は、ユーザから入力される目撃者の特徴および不審者の特徴を取得し、経路情報データベース(DB)116または人物情報データベース(DB)108に格納されているデータを用いて、目撃者を特定する。   The person feature acquisition unit 112 determines whether there is a search request from the user. The person feature acquisition unit 112 acquires the characteristics of the witness and the suspicious person input from the user, and uses the data stored in the route information database (DB) 116 or the person information database (DB) 108. Identify the witness.

具体的には、入力された特徴量と経路情報データベース(DB)116または人物情報データベース(DB)108に登録されている特徴量を比較して、最も類似度が高い人物を探し出す。このとき、類似度が高い人物が複数名いる場合は、全ての人物の情報を表示して、検索要求を行った人に選択してもらうなどにより確実に目撃者を経路情報データベース(DB)116または人物情報データベース(DB)108から探し出す。   Specifically, the input feature quantity is compared with the feature quantity registered in the route information database (DB) 116 or the person information database (DB) 108, and the person with the highest similarity is found. At this time, if there are a plurality of persons with high similarity, the information of all persons is displayed, and the witnesses are surely selected by the route requesting database (DB) 116 by having the person who made the search request select. Or it searches from person information database (DB) 108.

また、目撃者の情報は、自分自身の情報になるためより詳細な情報で検索することができるため、候補は非常に少なくすることが可能である。   In addition, since the information of the witness becomes the information of itself, it can be searched with more detailed information, so that the number of candidates can be very small.

目撃者経路取得部114は、経路情報データベース(DB)116を参照して、人物特徴取得部112で抽出した目撃者の移動経路を取得する。   The witness route acquisition unit 114 refers to the route information database (DB) 116 and acquires the movement route of the witness extracted by the person feature acquisition unit 112.

検索条件作成部118は、不審者の検索条件を作成する。不審者の検索条件には、
(S1)ある時刻にどの場所にいたか、
(S2)どのような色の服を着ていたか、
(S3)どちらの方向に向かっていたか、
(S4)どのくらいの速度で移動していたか、
などが含まれる。目撃情報には曖昧さが含まれているので、時間と場所に関しては、時間帯と領域を定めて、その時間帯とその領域に存在した人物を候補者としても良い。
The search condition creation unit 118 creates a search condition for a suspicious person. Search criteria for suspicious people include
(S1) Where we were at a certain time
(S2) What kind of clothes were you wearing?
(S3) Which direction did you go?
(S4) How fast were you moving?
Etc. are included. Since the sighting information includes ambiguity, regarding time and place, a time zone and a region may be determined, and a person existing in that time zone and that region may be a candidate.

検索条件に、不審者を目撃したときの関係を加えても良い。不審者を目撃したときの関係には例えば、「不審者とすれ違った」、「不審者と同じ方向に歩いた」、「不審者に追い抜かれた」が含まれ得る。   A relationship when a suspicious person is witnessed may be added to the search condition. The relationship when the suspicious person is witnessed may include, for example, “passed the suspicious person”, “walked in the same direction as the suspicious person”, and “passed by the suspicious person”.

また検索条件作成部118は、不審者の検索条件の位置、時間情報を修正しても良い。具体的には、目撃者の各時刻での位置から一定距離以内の場所と、入力された不審者の特徴情報の時刻、位置の情報との論理積をとった時刻、位置を不審者の検索条件の位置、時間情報としても良い。この条件の変更は、目撃者は不審者を見ているという事実から、必ず目撃者付近に不審者が存在したという条件を追加していることになる。また、移動経路を利用していることで、撮像装置200a、200b、…、200nに撮影されていない範囲においても目撃者付近に存在したかどうかの判定が可能である。   Further, the search condition creating unit 118 may correct the position and time information of the search condition of the suspicious person. Specifically, the location of the witness at a certain distance from the location at a certain distance, the time of the feature information of the suspicious person input, the time obtained by ANDing the location information, and the location of the suspicious person The position of the condition and time information may be used. This change in condition always adds a condition that there was a suspicious person in the vicinity of the witness from the fact that the witness is looking at the suspicious person. Further, by using the movement route, it is possible to determine whether or not the image is present in the vicinity of the witness even in a range not photographed by the imaging devices 200a, 200b,.

検索条件作成部118で、目撃者の移動履歴を用いて不審者の検索条件の位置を修正する際に、目撃者の位置から一定距離以内としたが、目撃者が視認可能な範囲を推定し、その視認可能範囲のみを検索位置の範囲として利用してもよい。目撃者が視認可能な範囲の推定方法は、例えば、人は移動時には前方を見ていることから、前後の時刻の位置情報から目撃者の移動方向を求め、その移動方向にのみ一定範囲を設定しても良いし、顔の向きを求め、その顔の方向にのみ一定範囲を設定しても良い。目撃者が視認可能な範囲を設定することで、不審者のいる範囲を狭めることができ、不審者候補を削減することが可能となる。   When the search condition creation unit 118 corrects the position of the suspicious person's search condition using the movement history of the witness, the range is within a certain distance from the position of the witness. Only the visible range may be used as the search position range. The estimation method of the range that can be seen by the witness is, for example, that the person is looking forward when moving, so the movement direction of the witness is obtained from the position information of the time before and after, and a certain range is set only in the movement direction Alternatively, the face direction may be obtained, and a certain range may be set only in the face direction. By setting the range in which the witness can visually recognize, the range where the suspicious person is present can be narrowed, and the number of suspicious candidates can be reduced.

また検索条件作成部118は、移動経路から検索条件を作成する際に、その検索位置での相手の移動方向を検索条件に加えてもよい。例えば、「不審者とすれ違った」という情報が入力されており、さらに目撃者が南方向に移動していた場合は、不審者は北方向に移動していた人として限定できる。   Further, when creating the search condition from the movement route, the search condition creating unit 118 may add the movement direction of the partner at the search position to the search condition. For example, when the information “I passed the suspicious person” is input and the witness has moved in the south direction, the suspicious person can be limited to those who have moved in the north direction.

検索条件作成部118はさらに、移動経路から検索条件を作成する際に、その検索位置での相手の移動速度を検索条件に加えても良い。例えば、「不審者に追い抜かれた」という情報が入力されていた場合、目撃者よりも不審者の方が移動速度が速いということがわかる。そこで、各時刻における不審者と目撃者の移動速度を比較することで、不審者の候補をより限定することが可能となる。また、「立ち止まっている不審者を見た」という情報が入力されていれば、所定のしきい値よりも遅い移動速度になっている人を探し出すことで候補者を限定できる。このように検索条件作成部118は、目撃者の移動の履歴によって定まる所定の時間帯および領域に存在することを検索の条件として設定する。検索条件作成部118は、移動体の色、高さおよび幅の少なくとも一つを検索の条件として複数の移動体の一部を検索対象候補として取得してもよい。検索条件作成部118はまた、RGB3次元空間中の距離である場合、前記所定の条件として前記RGB3次元空間中の相関値または距離が所定の閾値以下であることを前記検索の条件として設定しても良い。検索条件作成部118はまた、目撃者から見た移動体の場所、向き、速度の少なくとも一つを前記検索の条件として設定しても良い。   Further, when creating the search condition from the movement route, the search condition creating unit 118 may add the movement speed of the other party at the search position to the search condition. For example, when the information “I was overtaken by a suspicious person” is input, it can be understood that the suspicious person moves faster than the witness. Therefore, by comparing the moving speeds of the suspicious person and the witness at each time, it becomes possible to further limit the suspicious person candidates. Further, if the information “I saw a suspicious person who has stopped” is input, the candidate can be limited by searching for a person whose moving speed is slower than a predetermined threshold. As described above, the search condition creating unit 118 sets the search condition to be present in a predetermined time zone and region determined by the movement history of the witness. The search condition creating unit 118 may acquire a part of the plurality of moving objects as search target candidates using at least one of the color, height, and width of the moving object as a search condition. The search condition creating unit 118 also sets, as the search condition, that the correlation value or distance in the RGB three-dimensional space is equal to or less than a predetermined threshold as the predetermined condition when the distance is in the RGB three-dimensional space. Also good. The search condition creating unit 118 may also set at least one of the location, orientation, and speed of the moving body as viewed from the witness as the search condition.

不審者候補取得部120は、経路情報データベース(DB)116を参照して、条件に一致する人物を探し出す。つまり、不審者候補取得部120は、検索の条件を満たす複数の移動体の一部を検索対象候補として取得する。   The suspicious candidate acquisition unit 120 refers to the route information database (DB) 116 and searches for a person matching the condition. That is, the suspicious person candidate acquisition unit 120 acquires a part of the plurality of moving objects that satisfy the search condition as search target candidates.

結果出力部122は、検索対象候補を出力する。たとえば、結果出力部122は、検索条件に一致したデータを不審者の候補として一覧で表示する。結果出力部122は単に出力部122と参照されることがある
以上の処理は一例であり、各人物の移動経路を示す経路情報DBを作成することができればその他の手法を使用しても問題ない。例えば、経路情報データと人物情報データの対応付けの際に色の特徴量を利用しているが、単純な色情報ではなく、非特許文献2に記載されているように、人を腕や体など各パーツに分解してパーツごとに色情報を求めて比較する方法もあるし、SIFT特徴量という画像の輝度の勾配情報を利用する方法でもよい。
The result output unit 122 outputs search target candidates. For example, the result output unit 122 displays data matching the search condition as a suspicious candidate in a list. The result output unit 122 is merely an example of the processing that may be referred to simply as the output unit 122, and other methods can be used as long as the route information DB indicating the movement route of each person can be created. . For example, although color feature amounts are used when associating route information data and person information data, it is not simple color information, and as described in Non-Patent Document 2, a person is referred to as an arm or body. For example, there is a method in which each part is decomposed and color information is obtained and compared for each part, or a method using the gradient information of the luminance of the image called SIFT feature amount may be used.

また、今回は経路情報データベース(DB)116に格納される経路情報テーブルに記載される特徴量(検索に使用する特徴量)を用いて、同一人物の判定を行っているが、同一人物を判定する特徴量と、検索条件として使用する特徴量が異なるものを使用してもよい。   In addition, this time, the same person is determined using the feature amount (feature amount used for search) described in the route information table stored in the route information database (DB) 116, but the same person is determined. Different feature quantities may be used and the feature quantities used as search conditions may be different.

このように構成された検索装置100によれば、外面的な情報が類似する物体が多い場合でも、検索にヒットする物体の件数(検索物の候補)を削減し、それらの画像を目視で確認する担当者の負荷を軽減することができる。   According to the search device 100 configured in this way, even when there are many objects with similar external information, the number of objects hitting the search (search object candidates) is reduced and those images are visually confirmed. Can reduce the burden on the person in charge.

<検索方法>
図5〜6を参照しながら、検索方法の処理について説明する。
検索方法の処理は、データ登録処理と検索処理を含む。
図5は、データ登録処理における処理の流れの例を示す図である。
<Search method>
The processing of the search method will be described with reference to FIGS.
The search method process includes a data registration process and a search process.
FIG. 5 is a diagram illustrating an example of a process flow in the data registration process.

また、検索装置100が後述の図20に示されているような汎用コンピュータ300によって構成される場合には、下記の説明は、そのような処理を行う制御プログラムを定義する。すなわち、以下では、下記に説明する処理を汎用コンピュータに行わせる制御プログラムの説明でもある。   When the search device 100 is configured by a general-purpose computer 300 as shown in FIG. 20 described later, the following description defines a control program that performs such processing. That is, hereinafter, it is also a description of a control program that causes a general-purpose computer to perform the processing described below.

データ登録処理が開始されると、S102で映像取得部102は、撮像装置200a、200b、…、200nから映像を取得し1フレームごとの画像に変換する。本ステップの処理が終了すると、処理はS104に進む。   When the data registration process is started, in S102, the video acquisition unit 102 acquires videos from the imaging devices 200a, 200b,..., 200n and converts them into images for each frame. When the process of this step ends, the process proceeds to S104.

S104で人物検出・検索部104は、映像取得部102で作成された画像から人物を検出し、時間的に連続した画像間で同一人物を追跡する。本ステップの処理が終了すると、処理はS106に進む。   In step S <b> 104, the person detection / search unit 104 detects a person from the image created by the video acquisition unit 102 and tracks the same person between temporally continuous images. When the process of this step ends, the process proceeds to S106.

S106で特徴抽出部106は、S104で検出した人物の特徴を抽出する。本ステップの処理が終了すると、処理はS108に進む。   In S106, the feature extraction unit 106 extracts the features of the person detected in S104. When the process of this step ends, the process proceeds to S108.

S108で人物対応付け部110は、追跡中の人物が撮影範囲外に移動したかどうかを判定する。もし、この判定の結果が”Yes”、すなわち追跡中の人物が撮影範囲外に移動した場合には、S110に進む。また、この判定の結果が”No”、すなわち追跡中の人物が撮影範囲外に移動していない場合には、S102に戻る。   In step S108, the person association unit 110 determines whether the person being tracked has moved out of the shooting range. If the result of this determination is “Yes”, that is, if the person being tracked has moved out of the shooting range, the process proceeds to S110. If the result of this determination is “No”, that is, if the person being tracked has not moved out of the shooting range, the process returns to S102.

S110で人物対応付け部110は、人物の特徴をまとめて人物情報データベース(DB)108に登録する。本ステップの処理が終了すると、処理はS112に進む。   In S <b> 110, the person association unit 110 collectively registers the characteristics of the person in the person information database (DB) 108. When the process of this step ends, the process proceeds to S112.

S112で人物対応付け部110は、人物情報データベース(DB)108に格納されているデータと経路情報データベース(DB)116に格納されているデータを比較して、追跡中の人物を、経路情報データベース(DB)116の経路情報テーブル中の人物と対応付ける。本ステップの処理が終了すると、処理はS114に進む。   In S112, the person association unit 110 compares the data stored in the person information database (DB) 108 with the data stored in the path information database (DB) 116, and determines the person being tracked as the path information database. (DB) Corresponds to a person in the route information table of 116. When the process of this step ends, the process proceeds to S114.

S114で人物対応付け部110は、人物情報データを利用して経路情報データベースのアップデートを行う。S112で人物情報データに対応する経路情報がある場合には、人物対応付け部110は、人物情報データベース(DB)108に格納されている人物情報データと、経路情報データベース(DB)116に格納されている経路情報データのマージを行う。対応する経路情報データが存在しなかった場合は、その人物に関する情報を新規の経路情報データとして経路情報データベース(DB)116の経路情報テーブルに追加、登録しても良い。
以上の処理によって、データ登録処理が完了する。
In step S114, the person association unit 110 updates the route information database using the person information data. When there is route information corresponding to the person information data in S112, the person association unit 110 is stored in the person information data stored in the person information database (DB) 108 and the route information database (DB) 116. Merge the route information data. If the corresponding route information data does not exist, information about the person may be added to the route information table of the route information database (DB) 116 and registered as new route information data.
With the above processing, the data registration processing is completed.

図6は、検索処理における処理の流れの例を示す図である。
検索処理が開始されるとS202で人物特徴取得部112は、ユーザからの検索要求があるかどうかを判定する。もし、この判定の結果が”Yes”、すなわちユーザからの検索要求がある場合には、S204に進む。また、この判定の結果が”No”、すなわちユーザからの検索要求がない場合には、S202の処理を繰り返す。
FIG. 6 is a diagram illustrating an example of a flow of processing in the search processing.
When the search process is started, in step S202, the person feature acquisition unit 112 determines whether there is a search request from the user. If the result of this determination is “Yes”, that is, if there is a search request from the user, the process proceeds to S204. If the result of this determination is “No”, that is, if there is no search request from the user, the process of S202 is repeated.

S204で人物特徴取得部112は、ユーザから入力される目撃者の特徴および不審者の特徴を取得し、経路情報データベース(DB)116または人物情報データベース(DB)108に格納されているデータを用いて、目撃者を特定する。本ステップの処理が終了すると、処理はS206に進む。   In S204, the person feature acquisition unit 112 acquires the characteristics of the witness and the suspicious person input from the user, and uses the data stored in the route information database (DB) 116 or the person information database (DB) 108. Identify the witness. When the process of this step ends, the process proceeds to S206.

S206で目撃者経路取得部114は、経路情報データベース(DB)116を参照して、人物特徴取得部112で抽出した目撃者の移動経路を取得する。本ステップの処理が終了すると、処理はS208に進む。   In S <b> 206, the witness route acquisition unit 114 refers to the route information database (DB) 116 and acquires the movement route of the witness extracted by the person feature acquisition unit 112. When the process of this step ends, the process proceeds to S208.

S208で目撃者経路取得部114は、目撃者が不審者を見た可能性のある時刻・場所を移動経路から計算する。たとえば目撃者経路取得部114は、経路情報データベース(DB)116を参照して、人物特徴取得部112で抽出した目撃者の移動経路を計算する。本ステップの処理が終了すると、処理はS210に進む。   In S208, the witness route acquisition unit 114 calculates the time / place where the witness may have seen the suspicious person from the movement route. For example, the witness route acquisition unit 114 refers to the route information database (DB) 116 and calculates the movement route of the witness extracted by the person feature acquisition unit 112. When the process of this step ends, the process proceeds to S210.

S210で不審人物の特徴量および目撃の可能性のある時刻・場所を使って人物情報DB108を検索する。本ステップの処理が終了すると、処理はS212に進む。   In S210, the personal information DB 108 is searched using the characteristic amount of the suspicious person and the time / place where there is a possibility of sighting. When the process of this step ends, the process proceeds to S212.

S212で結果出力部122は、検索結果を表示する。たとえば結果出力部122は、検索条件に一致したデータを不審者の候補の一覧をディスプレイに表示しても良い。   In S212, the result output unit 122 displays the search result. For example, the result output unit 122 may display a list of suspicious candidate candidates on the display for data that matches the search condition.

このような方法を用いることによって、外面的な情報が類似する物体が多い場合でも、検索にヒットする物体の件数(検索物の候補)を削減し、それらの画像を目視で確認する担当者の負荷を軽減することができる。   By using such a method, even when there are many objects with similar external information, the number of objects that hit the search (search object candidates) is reduced, and the person in charge who visually confirms these images The load can be reduced.

<実施例1>
以下、図7〜13Cを参照して、検索装置100の動作の例について説明する。本例では、不審者の検索条件として、(S1)ある時刻にどの場所にいたかと、(S2)どのような色の服を着ていたか、が参照される。
<Example 1>
Hereinafter, an example of the operation of the search device 100 will be described with reference to FIGS. In this example, as a search condition for a suspicious person, reference is made to (S1) where the person was at a certain time and (S2) what color clothes were worn.

図1に示されるように、6台の撮像装置200a、200b、200c、200d、200e、200fが縦8m横10mの範囲を撮影している環境を想定する。各撮像装置200a、200b、…、200fの撮影範囲である領域A1〜A6は2m四方とし、4人の人物が図7に示すように移動した場合を考える。また、座標原点は領域A1の左上とし、横方向にx座標、縦方向にy座標をとる。説明を簡単なものにするため人物情報DB108は人物特徴量として人物の色情報のみ持つとする。   As shown in FIG. 1, an environment is assumed in which six imaging devices 200a, 200b, 200c, 200d, 200e, and 200f are shooting a range of 8 m in length and 10 m in width. Assume that the areas A1 to A6, which are the imaging ranges of the respective imaging devices 200a, 200b,..., 200f, are 2 m square, and four persons move as shown in FIG. The coordinate origin is the upper left of the area A1, and the x coordinate is taken in the horizontal direction and the y coordinate is taken in the vertical direction. In order to simplify the explanation, it is assumed that the person information DB 108 has only the color information of the person as the person feature amount.

図7は、図1に示されているような場所での、人の動きの例を説明する図である。
図7では、人物Xは、領域A1、A2、A3を通るような経路P2を辿る。人物Yは、領域A3、A2、A5、A6を通るような経路P3を辿る。人物Zは、領域A6、A5、A2、A3を通るような経路P4を辿る。そして、人物Sは、領域A1、A2、A5、A6を通るような経路P1を辿る。人物Sは目撃者であるとする。
FIG. 7 is a diagram for explaining an example of the movement of a person in the place as shown in FIG.
In FIG. 7, the person X follows a path P2 that passes through the areas A1, A2, and A3. The person Y follows a path P3 that passes through the areas A3, A2, A5, and A6. The person Z follows a path P4 that passes through the areas A6, A5, A2, and A3. Then, the person S follows a route P1 that passes through the areas A1, A2, A5, and A6. It is assumed that the person S is a witness.

目撃者である人物Sの経路は、人物X、Y、Zのいずれとも少なくとも部分的に一致するので、タイミングさえ合えば、人物Sは、人物X、Y、Zのいずれも目撃する可能性がある。   Since the path of the person S who is the witness is at least partially coincident with any of the persons X, Y, and Z, the person S may witness any of the persons X, Y, and Z as long as the timing is met. is there.

まず、各撮像装置で撮影された画像から人物の検出を行う。
図8は、実施例1で人物情報データベースに格納される人物の人物情報テーブルの例を示す図である。たとえば、データ番号0001で特定される人物の色(R、G、B)は、(230、50、60)である。また、データ番号0002で特定される人物の色(R、G、B)は、(240、55、55)である。
First, a person is detected from images captured by each imaging device.
FIG. 8 is a diagram illustrating an example of a person information table of persons stored in the person information database in the first embodiment. For example, the color (R, G, B) of the person specified by the data number 0001 is (230, 50, 60). The color (R, G, B) of the person specified by the data number 0002 is (240, 55, 55).

人物情報が集まると、6台の撮像装置200a、200b、200c、200d、200e、200fで得られる映像間における人物の対応付けを行い、経路情報DB116を作成する。6台の撮像装置200a、200b、200c、200d、200e、200fで撮影されていない領域での移動経路は、線形補間することで推定し、全ての時刻での位置情報を格納する。   When the person information is gathered, the person information is associated between the images obtained by the six imaging devices 200a, 200b, 200c, 200d, 200e, and 200f, and the route information DB 116 is created. The movement paths in the areas not photographed by the six imaging devices 200a, 200b, 200c, 200d, 200e, and 200f are estimated by linear interpolation, and position information at all times is stored.

図9は、実施例1で経路情報データベースに格納される人物Sの経路情報テーブルの例を示す図である。図9に示されている例では、データ番号01で特定される人物であり、色(R、G、B)は、(230、50、54)である。人物情報DB108に記載されている人物から、この特徴に最も近い人物を探すと、データ番号0001で特定される人物であり、この人物が人物Sと特定される。   FIG. 9 is a diagram illustrating an example of the route information table of the person S stored in the route information database in the first embodiment. In the example shown in FIG. 9, the person is identified by the data number 01, and the colors (R, G, B) are (230, 50, 54). When a person closest to this characteristic is searched from the persons described in the person information DB 108, the person specified by the data number 0001 is specified, and this person is specified as the person S.

図10は、実施例1で経路情報データベースに格納される全ての人物の経路情報テーブルの例を示す図である。   FIG. 10 is a diagram illustrating an example of the route information table for all persons stored in the route information database in the first embodiment.

今、目撃者である人物Sが、領域A2に設置されている撮像装置200bのあたりで、9時30分くらいに白い服を着た不審者を見たと証言したとする。この情報には「撮像装置200bあたり」と「時刻9時半くらい」という点にあいまいさが存在するため、確実に不審者を探索するためには余裕を持った範囲の指定が必要となる。例えば、撮像装置200b、200c、200d、200fが含まれるように、「時刻9時〜10時に範囲(300、0)〜(1000、800)の位置で白い服の人物」といった検索条件になる。   Now, it is assumed that the person S who is a witness testifies that he saw a suspicious person wearing white clothes around 9:30 around the imaging device 200b installed in the area A2. Since there is ambiguity in this information in terms of “around the imaging device 200b” and “about 9:30”, it is necessary to specify a range with a margin in order to reliably search for suspicious persons. For example, the search condition is “a person in white clothes at a position in the range (300, 0) to (1000, 800)” from 9:00 to 10:00 so that the imaging devices 200b, 200c, 200d, and 200f are included.

図12は目撃者の経路情報を考慮しない場合の検索条件の例を説明するための図である。図12に示されているように、目撃者の移動経路を利用しないと、検索者の候補は「枠Bの内部」というように、広い範囲から検索される。   FIG. 12 is a diagram for explaining an example of the search condition when the route information of the witness is not considered. As shown in FIG. 12, if the movement path of the witness is not used, searcher candidates are searched from a wide range such as “inside the frame B”.

この場合、図10に示されているデータ番号02の人物X、データ番号03の人物Y、データ番号04の人物Zの3人全てが検索結果として表示されてしまう。   In this case, all of the three persons, that is, the person X with the data number 02, the person Y with the data number 03, and the person Z with the data number 04 shown in FIG.

しかし本例では、さらに条件として目撃者の条件を入力する。例えば「時刻9時〜10時にxy座標(0、0)〜(1000、800)の位置で赤い服の人物」といった条件となる。すると、経路情報DB116に格納されている経路情報テーブルからデータ番号01のデータを取得し、目撃者の移動経路を特定することができる。次に、この目撃者の移動経路を利用して検索条件を変更する。本例では、条件として目撃者がいる位置を中心とした1.5m四方の範囲の人物とすると、経路情報から、図11A〜11Cの枠Bで示すように時刻9時20分00秒ではxy座標(−150,−50)〜(150,250)、時刻9時20分01秒ではxy座標(−40,−50)〜(240,250)といった条件が作成される。この条件と最初に設定された条件との論理積の条件として検索すると、データ番号04の人物Zのみが検索結果として取得される。   However, in this example, the condition of the witness is further input as a condition. For example, the condition is “a person in red clothes at the position of xy coordinates (0, 0) to (1000, 800)” from 9:00 to 10:00. Then, the data of the data number 01 is acquired from the route information table stored in the route information DB 116, and the movement route of the witness can be specified. Next, the search condition is changed using the movement path of the witness. In this example, if the person is in a 1.5 m square centered on the position where the witness is located as a condition, from the route information, as indicated by frame B in FIGS. Conditions such as coordinates (−150, −50) to (150, 250) and xy coordinates (−40, −50) to (240, 250) are created at time 9:20:01. When a search is performed as a logical product condition between this condition and the initially set condition, only the person Z with the data number 04 is acquired as a search result.

上では、対象が3人であったが、より大勢の人が移動する環境において、本方式を使用することで不審者の候補を確実に削減することができ、利用者の負担を軽減することが可能となる。   In the above, the target was three people, but in an environment where more people move, the use of this method can surely reduce the number of suspicious candidates and reduce the burden on the user. Is possible.

図13A〜13Cは、目撃者が向いている方向を考慮した場合の検索条件の例を説明するための図である。   13A to 13C are diagrams for explaining examples of search conditions when the direction in which the witness is facing is considered.

目撃者が視認可能な範囲の推定を行うことで、さらに不審者のいる範囲を特定し、不審者候補を削減することが可能となる。ここで、図13A〜13Cにおいて、矢印V2は推定した目撃者の見ている方向、領域Cが不審者がいる可能性のある領域、点線で囲まれた領域Bは目撃者の見ている方向を利用しなかった場合の不審者のいる可能性があると認識される領域を表す。この場合、領域Cは目撃者の視界と考えることができる。つまり、目撃者が不審者を目撃したとすると、目撃可能である領域C内に不審者はいたことになる。よって、点線で囲まれた領域Bを検索しなくてすむので、類似する物体が多い場合でも、検索にヒットする物体の件数(検索物の候補)を削減し、それらの画像を目視で確認する担当者の負荷を軽減することができる。   By estimating the range that can be visually recognized by the witness, it is possible to further identify the range where the suspicious person is present and to reduce the number of suspicious candidates. Here, in FIGS. 13A to 13C, the arrow V2 is the estimated direction of the witness, the region C is a region where a suspicious person may be present, and the region B surrounded by a dotted line is the direction of the witness. Represents an area where it is recognized that there is a possibility of a suspicious person not using. In this case, region C can be considered as the field of view of the witness. That is, if the witness witnesses the suspicious person, the suspicious person is in the area C where the witness is possible. Therefore, since it is not necessary to search for the region B surrounded by the dotted line, even when there are many similar objects, the number of objects hitting the search (search object candidates) is reduced, and those images are visually confirmed. The burden on the person in charge can be reduced.

<実施例2>
図14〜16Cを参照して、検索装置100の動作の別の例について説明する。本例では、不審者の検索条件として、(S1)ある時刻にどの場所にいたかと、(S2)どのような色の服を着ていたかのみならず、(S3)どちらの方向に向かっていたか、が参照される。
<Example 2>
Another example of the operation of the search device 100 will be described with reference to FIGS. In this example, as a search condition for a suspicious person, (S1) not only where he was at a certain time and (S2) what color clothes he was wearing, but also (S3) which direction he was heading , Is referred to.

本例では、経路情報DB116の経路情報テーブルの移動経路情報に移動方向が加えられたものである。この移動方向は、経路情報DBに移動経路を登録する際に前後の時刻の位置を利用して経路情報に加えて格納する。移動方向は、x軸の正の方向を0度としてy軸が正の方向に向かって角度が増えていく(図1において時計回り)ように0度から360度を設定している。   In this example, the movement direction is added to the movement route information in the route information table of the route information DB 116. This movement direction is stored in addition to the route information by using the positions of previous and subsequent times when the movement route is registered in the route information DB. The moving direction is set from 0 degrees to 360 degrees so that the positive direction of the x axis is 0 degrees and the angle increases toward the positive direction of the y axis (clockwise in FIG. 1).

本例における経路情報DBの例を図14に示す。たとえば、データ番号0001の人物は、データ番号0001で特定される人物は、2013年1月10日の10:00.00にはxy座標が(x、y)=(110、210)で指定される位置にいる。そして、50度の方向に向けて移動していることが分かる。これを用いてより不審者の候補を減らすことが可能となる。   An example of the route information DB in this example is shown in FIG. For example, the person identified by data number 0001 is designated by the (x, y) = (110, 210) xy coordinates at 10: 00.00 on January 10, 2013. You are in a position. And it turns out that it is moving toward the direction of 50 degrees. By using this, it becomes possible to reduce the number of suspicious candidates.

以下では、実施例1と異なる部分に関してのみ記載する。
本例では、検索条件を入力する際に、実施例1の時に加えて不審者を目撃したときの関係を入力する。例えば、「不審者とすれ違った」、「不審者と同じ方向に歩いた」、「不審者に追い抜かれた」などの情報を入力する。
Only the parts different from the first embodiment will be described below.
In this example, when inputting the search condition, the relationship when the suspicious person is witnessed is input in addition to the case of the first embodiment. For example, information such as “passed suspicious person”, “walked in the same direction as suspicious person”, “passed by suspicious person”, or the like is input.

また、実施例1の時に加えて、移動経路から検索条件を作成する際に、その検索位置での相手の移動方向を検索条件に加える。   Further, in addition to the case of the first embodiment, when the search condition is created from the movement route, the movement direction of the partner at the search position is added to the search condition.

図15A〜15Cは、目撃者が不審者と同じ方向に移動した場合の検索条件の例を説明するための図である。図中で矢印Vmは、不審者の移動方向を示す。   15A to 15C are diagrams for explaining examples of search conditions when the witness moves in the same direction as the suspicious person. In the figure, an arrow Vm indicates the moving direction of the suspicious person.

例えば、目撃者が0度方向に移動しており、「不審者と同じ方向に歩いた」場合は特定時刻に図15A〜15Cのように範囲で示された領域に存在し、さらに矢印の移動方向を持つ人という条件となる。   For example, if the witness has moved in the 0 degree direction and “walked in the same direction as the suspicious person”, it exists in the area indicated by the range as shown in FIGS. It becomes a condition of a person with direction.

図16A〜16Cは、目撃者が不審者と逆の方向に移動した場合の検索条件の例を説明するための図である。図中で矢印Vmは、不審者の移動方向を示す。たとえば、目撃者が0度方向に移動しており、「不審者とすれ違った」という情報が入力された場合は、特定時刻に図16A〜16Cのように範囲で示された領域に存在し、さらに矢印の移動方向を持つ人という条件となる。   16A to 16C are diagrams for explaining examples of search conditions when the witness moves in the opposite direction to the suspicious person. In the figure, an arrow Vm indicates the moving direction of the suspicious person. For example, if the witness is moving in the 0 degree direction and the information “I passed the suspicious person” is input, it exists in the area indicated by the range as shown in FIGS. Furthermore, it is a condition that the person has the moving direction of the arrow.

<実施例3>
図17A〜19Cを参照して、検索装置100の動作の別の例について説明する。本例では、不審者の検索条件として、(S1)ある時刻にどの場所にいたかと、(S2)どのような色の服を着ていたか、(S3)どちらの方向に向かっていたか、および(S4)どのくらいの速度で移動していたか、が参照される。
<Example 3>
With reference to FIGS. 17A to 19C, another example of the operation of the search device 100 will be described. In this example, as a search condition for a suspicious person, (S1) where the person was at a certain time, (S2) what kind of clothes he was wearing, (S3) which direction he was heading, and ( S4) It is referred to how fast the vehicle is moving.

本例は、実施例2の経路情報DB116の経路情報テーブルの移動経路情報に移動速度が加えられたものである。この移動速度は、経路情報DB116に移動経路を登録する際に前後の時刻の位置(1時刻前後の位置でもよいし、より長い時刻を利用してもよい)を利用して求め、経路情報に加えて格納する。経路情報DB116に格納される経路情報テーブルの例を図17に示す。たとえば、データ番号0001で特定される人物は、2013年1月10日の10:00.00にはxy座標が(x、y)=(110、210)で指定される位置にいる。そして、50度の方向に向けて移動しており、その速度は10cm/秒であることが分かる。このように人物の移動速度を用いてより不審者の候補を減らすことが可能となる。   In this example, the moving speed is added to the moving route information in the route information table of the route information DB 116 of the second embodiment. This movement speed is obtained by using the positions of the previous and next times (positions around one time or longer times may be used) when registering the movement route in the route information DB 116, In addition, store. An example of the route information table stored in the route information DB 116 is shown in FIG. For example, the person specified by the data number 0001 is at a position specified by (x, y) = (110, 210) at 10: 00.00 on January 10, 2013. And it is moving toward the direction of 50 degrees, and it turns out that the speed is 10 cm / sec. In this way, it is possible to reduce the number of suspicious candidates by using the moving speed of the person.

以下では、実施例2と異なる部分に関してのみ記載する。
検索条件を入力する際に、実施例2の時に加えて不審者を目撃したときの、目撃者と不審者の移動速度の関係を入力する。例えば、「立ち止まっている不審者を見た」、「不審者に追い抜かれた」、「不審者に追いついた」などの情報である。
Only the parts different from the second embodiment will be described below.
When inputting the search condition, in addition to the case of the second embodiment, the relationship between the movement speed of the witness and the suspicious person when the suspicious person is witnessed is inputted. For example, information such as “I saw a suspicious person who stopped”, “I was overtaken by a suspicious person”, and “I caught up with a suspicious person”.

実施例2の時に加えて、移動経路から検索条件を作成する際に、その検索位置での相手の移動速度を検索条件に加える。例えば、「不審者に追い抜かれた」という情報が入力されていた場合、目撃者よりも不審者の方が、移動速度が速いということがわかる。そこで、各時刻における不審者と目撃者の移動速度を比較することで、不審者の候補をより限定することが可能となる。また、「立ち止まっている不審者を見た」という情報が入力されていれば、所定のしきい値よりも遅い移動速度になっている人を探し出すことで候補者を限定することができる。   In addition to the case of the second embodiment, when the search condition is created from the movement route, the movement speed of the opponent at the search position is added to the search condition. For example, if the information “I was overtaken by a suspicious person” has been input, it can be seen that the suspicious person has a faster moving speed than the witness. Therefore, by comparing the moving speeds of the suspicious person and the witness at each time, it becomes possible to further limit the suspicious person candidates. In addition, if the information “I saw a suspicious person who has stopped” is input, the candidate can be limited by searching for a person whose moving speed is slower than a predetermined threshold.

例えば、「不審者に追いついた」場合は特定時刻に図18A〜18Cのように濃く塗られた範囲で示された領域に存在する矢印の移動方向を持つ人で、さらに移動速度が目撃者より遅いという条件となる。実施例1の時と同様に、目撃者の経路を利用して、検索する位置を各時刻で表示すると、図18A〜18Cに示された濃く塗られた範囲B内に不審者が存在することがわかる。さらに、目撃者の移動速度が、時刻T=09:20.00でV1の方向に速度100cm/sec、時刻T=09:20.01でV1の方向に速度120cm/sec、時刻T=09:20.02でV1の方向に速度70cm/secで移動したとする。すると、目撃者は「不審者に追いついた」ため、不審者は時刻T=09:20.00でV1の方向に速度100cm/sec未満、時刻T=09:20.01でV1の方向に速度120cm/sec未満、時刻T=09:20.02でV1の方向に速度70cm/sec未満で移動した人物という条件が追加され、図18A〜図18Cが示す範囲および移動方向、移動速度が検索条件となる。これにより不審者の候補を限定することが可能となる。   For example, in the case of “catch up with a suspicious person”, a person who has a moving direction of an arrow that exists in a region indicated by a darkly painted area at a specific time as shown in FIGS. The condition is that it is slow. As in the case of the first embodiment, when the search position is displayed at each time using the route of the witness, there is a suspicious person in the darkly painted range B shown in FIGS. I understand. Further, the movement speed of the witness is 100 cm / sec in the direction of V1 at time T = 09: 20.00, 120 cm / sec in the direction of V1 at time T = 09: 20.01, and time T = 09: It is assumed that the robot moves at a speed of 70 cm / sec in the direction of V1 at 20.02. Then, because the witness “has caught up with the suspicious person”, the suspicious person is less than 100 cm / sec in the direction of V1 at time T = 09: 20.00, and the speed in the direction of V1 at time T = 09: 20.01. The condition of a person who moved at a speed of less than 70 cm / sec in the direction of V1 at time T = 09: 20.02 is added, and the range, the moving direction, and the moving speed shown in FIGS. 18A to 18C are search conditions. It becomes. This makes it possible to limit suspicious candidates.

一方「不審者に追い抜かれた」場合は図19A〜19Cのようになる。この場合も、実施例1の時と同様に、目撃者の経路を利用して、検索する位置を各時刻で表示すると、図19A〜19Cに示された濃く塗られた範囲B内に不審者が存在することがわかる。また、前記と同様に、目撃者の移動速度が、時刻T=09:20.00でV1の方向に速度100cm/sec、時刻T=09:20.01でV1の方向に速度120cm/sec、時刻T=09:20.02でV1の方向に速度70cm/secで移動したとする。すると、目撃者は「不審者に追い抜かれた」ため、不審者は時刻T=09:20.00でV1の方向に速度100cm/sec以上、時刻T=09:20.01でV1の方向に速度120cm/sec以上、時刻T=09:20.02でV1の方向に速度70cm/sec以上で移動した人物という条件が追加され、図19A〜図19Cが示す範囲および移動方向、移動速度が検索条件となる。これにより不審者の候補を限定することが可能となる。 また「立ち止まっている不審者を見た」の場合であれば、不審者の条件に移動方向はなく移動速度のみになるため図20A〜20Cのようになる。図20A〜20Cに示されているように、各時刻T=09:20.00〜09:20.02で領域A1と重複する領域Bにおり、移動速度V3=5cm/sec以下で移動している人物であると限定することができる。移動速度は立ち止まっている場合でも少しの動きがあることを考慮し5cm/secとしているが、0cm/secの人物のみを探し出すなどしてもよい。   On the other hand, the case of “passed by a suspicious person” is as shown in FIGS. 19A to 19C. In this case as well, in the same way as in the first embodiment, when the search position is displayed at each time using the route of the witness, the suspicious person is within the darkly painted range B shown in FIGS. 19A to 19C. It can be seen that exists. In the same manner as described above, the movement speed of the witness is 100 cm / sec in the direction of V1 at time T = 09: 20.00, 120 cm / sec in the direction of V1 at time T = 09: 20.01, It is assumed that the robot moves at a speed of 70 cm / sec in the direction of V1 at time T = 09: 20.02. Then, because the witness was “passed by the suspicious person”, the suspicious person moved at a speed of 100 cm / sec or more in the direction of V1 at time T = 09: 20.00, and in the direction of V1 at time T = 09: 20.01. A condition of a person moving at a speed of at least 70 cm / sec in the direction of V1 at time T = 09: 20.02 at time T = 09: 20.02 is added, and the range, moving direction, and moving speed shown in FIGS. 19A to 19C are searched. It becomes a condition. This makes it possible to limit suspicious candidates. In the case of “I have seen a suspicious person who has stopped,” the suspicious person's condition is not the moving direction but only the moving speed, as shown in FIGS. 20A to 20C. As shown in FIGS. 20A to 20C, each time T = 09: 20.00 to 09: 20.02 is in a region B that overlaps the region A1, and moves at a moving speed V3 = 5 cm / sec or less. It can be limited to a person. The moving speed is set to 5 cm / sec in consideration of a slight movement even when the movement is stopped, but only a person with 0 cm / sec may be searched out.

本例では各時刻で移動速度を算出したが、各人物の移動経路全体の移動速度を平均して算出したり、所定の期間で区切って(例えば1分毎など)移動速度を算出して利用してもよい。   In this example, the moving speed is calculated at each time. However, the moving speed of each person is calculated by averaging the moving speed or divided by a predetermined period (for example, every minute) and used. May be.

図21は実施形態の検索装置100の構成の例を示す図である。検索装置100は、汎用コンピュータ300として実現され得る。   FIG. 21 is a diagram illustrating an example of the configuration of the search device 100 according to the embodiment. The search device 100 can be realized as a general-purpose computer 300.

このコンピュータ300は、MPU302、ROM304、RAM306、ハードディスク装置308、入力装置310、表示装置312、インタフェース装置314、及び記録媒体駆動装置316を備えている。なお、これらの構成要素はバスライン320を介して接続されており、MPU302の管理の下で各種のデータを相互に授受することができる。   The computer 300 includes an MPU 302, a ROM 304, a RAM 306, a hard disk device 308, an input device 310, a display device 312, an interface device 314, and a recording medium driving device 316. Note that these components are connected via a bus line 320, and various data can be exchanged under the management of the MPU 302.

MPU(Micro Processing Unit)302は、このコンピュータ300全体の動作を制御する演算処理装置であり、コンピュータ300の制御処理部として機能する。   An MPU (Micro Processing Unit) 302 is an arithmetic processing unit that controls the operation of the entire computer 300, and functions as a control processing unit of the computer 300.

ROM(Read Only Memory)304は、所定の基本制御プログラムが予め記録されている読み出し専用半導体メモリである。MPU302は、この基本制御プログラムをコンピュータ300の起動時に読み出して実行することにより、このコンピュータ300の各構成要素の動作制御が可能になる。   A ROM (Read Only Memory) 304 is a read-only semiconductor memory in which a predetermined basic control program is recorded in advance. The MPU 302 can control the operation of each component of the computer 300 by reading out and executing the basic control program when the computer 300 is activated.

RAM(Random Access Memory)306は、MPU302が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。   A RAM (Random Access Memory) 306 is a semiconductor memory that can be written and read at any time and used as a working storage area as necessary when the MPU 302 executes various control programs.

ハードディスク装置308は、MPU302によって実行される各種の制御プログラムや各種のデータを記憶しておく記憶装置である。MPU302は、ハードディスク装置308に記憶されている所定の制御プログラムを読み出して実行することにより、後述する各種の制御処理を行えるようになる。   The hard disk device 308 is a storage device that stores various control programs executed by the MPU 302 and various data. The MPU 302 can perform various control processes described later by reading and executing a predetermined control program stored in the hard disk device 308.

入力装置310は、例えばマウス装置やキーボード装置であり、検索装置100のユーザにより操作されると、その操作内容に対応付けられている各種情報の入力を取得し、取得した入力情報をMPU302に送付する。   The input device 310 is, for example, a mouse device or a keyboard device. When operated by a user of the search device 100, the input device 310 acquires input of various information associated with the operation content, and sends the acquired input information to the MPU 302. To do.

表示装置312は例えば液晶ディスプレイであり、MPU302から送付される表示データに応じて各種のテキストや画像を表示する。   The display device 312 is a liquid crystal display, for example, and displays various texts and images according to display data sent from the MPU 302.

インタフェース装置314は、このコンピュータ300に接続される各種機器との間での各種情報の授受の管理を行う。   The interface device 314 manages the exchange of various information with various devices connected to the computer 300.

記録媒体駆動装置316は、可搬型記録媒体318に記録されている各種の制御プログラムやデータの読み出しを行う装置である。MPU302は、可搬型記録媒体318に記録されている所定の制御プログラムを、記録媒体駆動装置316を介して読み出して実行することによって、後述する各種の制御処理を行うようにすることもできる。なお、可搬型記録媒体318としては、例えばUSB(Universal Serial Bus)規格のコネクタが備えられているフラッシュメモリ、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)などがある。   The recording medium driving device 316 is a device that reads various control programs and data recorded on the portable recording medium 318. The MPU 302 can read out and execute a predetermined control program recorded in the portable recording medium 318 via the recording medium driving device 316 to perform various control processes described later. As the portable recording medium 318, for example, a flash memory provided with a USB (Universal Serial Bus) standard connector, a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Only Only). and so on.

このようなコンピュータ300を用いて検索装置100を構成するには、例えば、上述の各処理部における処理をMPU302に行わせるための制御プログラムを作成する。作成された制御プログラムはハードディスク装置308若しくは可搬型記録媒体318に予め格納しておく。そして、MPU302に所定の指示を与えてこの制御プログラムを読み出させて実行させる。こうすることで、検索装置100が備えている機能がMPU302により提供される。   In order to configure the search device 100 using such a computer 300, for example, a control program for causing the MPU 302 to perform the processing in each processing unit described above is created. The created control program is stored in advance in the hard disk device 308 or the portable recording medium 318. Then, a predetermined instruction is given to the MPU 302 to read and execute the control program. By doing so, the MPU 302 provides the functions of the search device 100.

以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
所定の場所の複数の時刻における一連の複数の画像を取得する撮像装置によって得られた前記複数の画像に含まれる複数の移動体のそれぞれに対して、前記複数の時刻における位置を移動の履歴として取得する追跡部と、
前記複数の前記移動体のそれぞれに対して、物理的特徴を抽出する特徴抽出部と、
前記複数の前記移動体の中から、検索対象を目撃した目撃者を前記目撃者の前記物理的特徴と前記複数の前記移動体の前記物理的特徴を比較することによって特定し、前記目撃者の前記移動の履歴を取得する目撃者経路取得部と、
前記目撃者の前記移動の履歴によって定まる所定の時間帯および領域に存在することを検索の条件として設定する検索条件作成部と、
前記検索の条件を満たす前記複数の前記移動体の一部を検索対象候補として取得する候補取得部と、
前記検索対象候補を出力する出力部と、
を含む検索装置。
(付記2)
検索条件作成部はさらに、前記移動体の色、高さおよび幅の少なくとも一つを前記検索の条件として前記複数の前記移動体の一部を検索対象候補として取得する、付記1に記載の検索装置。
(付記3)
前記検索条件作成部はさらに、RGB3次元空間中の距離である場合、前記所定の条件として前記RGB3次元空間中の相関値または距離が所定の閾値以下であることを前記検索の条件として設定する、付記2に記載の検索装置
(付記4)
前記検索条件作成部はさらに、前記目撃者から見た前記移動体の場所、向き、速度の少なくとも一つを前記検索の条件として設定する、付記1乃至3のいずれか一項に記載の検索装置。
(付記5)
コンピュータによって処理される検索方法であって、
所定の場所の複数の時刻における一連の複数の画像を取得することと、
前記複数の画像に含まれる複数の移動体のそれぞれに対して、前記複数の時刻における位置を移動の履歴として取得すると、
前記複数の前記移動体の中から、検索対象を目撃した目撃者を前記目撃者の前記物理的特徴と前記複数の前記移動体の前記物理的特徴を比較することによって特定し、前記目撃者の前記移動の履歴を取得することと、
前記目撃者の前記移動の履歴によって定まる所定の時間帯および領域に存在することを検索の条件として設定することと、
前記検索の条件を満たす前記複数の前記移動体の一部を検索対象候補として取得することと、
前記検索対象候補を出力することと、
を含む検索方法。
(付記6)
前記移動体の色、高さおよび幅の少なくとも一つを前記検索の条件として前記複数の前記移動体の一部を検索対象候補として取得することを含む、付記5に記載の検索方法。
(付記7)
RGB3次元空間中の距離である場合、前記所定の条件として前記RGB3次元空間中の相関値または距離が所定の閾値以下であることを前記検索の条件として設定することを含む、付記6に記載の検索方法
(付記8)
前記目撃者から見た前記移動体の場所、向き、速度の少なくとも一つを前記検索の条件として設定することを含む、付記5乃至7のいずれか一項に記載の検索方法。
(付記9)
所定の場所の複数の時刻における一連の複数の画像を取得させ、
前記複数の画像に含まれる複数の移動体のそれぞれに対して、前記複数の時刻における位置を移動の履歴として取得させ、
前記複数の前記移動体の中から、検索対象を目撃した目撃者を前記目撃者の前記物理的特徴と前記複数の前記移動体の前記物理的特徴を比較することによって特定し、前記目撃者の前記移動の履歴を取得させ、
前記目撃者の前記移動の履歴によって定まる所定の時間帯および領域に存在することを検索の条件として設定させ、
前記検索の条件を満たす前記複数の前記移動体の一部を検索対象候補として取得させ、
前記検索対象候補を出力させる、
処理をコンピュータに実行させるプログラム。
(付記10)
前記移動体の色、高さおよび幅の少なくとも一つを前記検索の条件として前記複数の前記移動体の一部を検索対象候補として取得させる、付記9に記載のプログラム。
(付記11)
RGB3次元空間中の距離である場合、前記所定の条件として前記RGB3次元空間中の相関値または距離が所定の閾値以下であることを前記検索の条件として設定させる、付記10に記載のプログラム
(付記12)
前記目撃者から見た前記移動体の場所、向き、速度の少なくとも一つを前記検索の条件として設定させる、付記9乃至11のいずれか一項に記載のプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
For each of a plurality of moving objects included in the plurality of images obtained by an imaging device that acquires a series of images at a plurality of times at a predetermined location, the positions at the plurality of times are used as movement histories. A tracking unit to obtain,
A feature extraction unit for extracting a physical feature for each of the plurality of moving bodies;
The witness who witnessed the search object is identified from the plurality of the moving objects by comparing the physical characteristics of the witness with the physical characteristics of the plurality of the moving objects, An eyewitness route acquisition unit for acquiring the movement history;
A search condition creation unit that sets a search condition to exist in a predetermined time zone and region determined by the movement history of the witness;
A candidate acquisition unit that acquires, as search target candidates, a part of the plurality of the moving objects that satisfy the search conditions;
An output unit for outputting the search target candidates;
Search device including
(Appendix 2)
The search condition creating unit further acquires a part of the plurality of moving objects as search target candidates using at least one of the color, height, and width of the moving object as the search condition. apparatus.
(Appendix 3)
The search condition creating unit further sets, as the search condition, that the correlation value or the distance in the RGB three-dimensional space is equal to or less than a predetermined threshold as the predetermined condition when the distance is in the RGB three-dimensional space. Search device according to appendix 2 (appendix 4)
The search device according to any one of appendices 1 to 3, wherein the search condition creating unit further sets at least one of the location, orientation, and speed of the moving body as viewed from the witness as the search condition. .
(Appendix 5)
A search method processed by a computer,
Acquiring a series of images at a plurality of times at a given location;
For each of a plurality of moving bodies included in the plurality of images, the position at the plurality of times is acquired as a movement history.
The witness who witnessed the search object is identified from the plurality of the moving objects by comparing the physical characteristics of the witness with the physical characteristics of the plurality of the moving objects, Obtaining a history of the movement;
Setting as a search condition to exist in a predetermined time zone and region determined by the movement history of the witness;
Acquiring a part of the plurality of moving objects that satisfy the search condition as search target candidates;
Outputting the search candidate,
Search method including
(Appendix 6)
The search method according to appendix 5, including acquiring a part of the plurality of moving objects as search target candidates using at least one of the color, height, and width of the moving object as the search condition.
(Appendix 7)
When the distance is in the RGB three-dimensional space, the predetermined condition includes setting as a search condition that a correlation value or a distance in the RGB three-dimensional space is a predetermined threshold value or less. Search method (Appendix 8)
The search method according to any one of appendices 5 to 7, further comprising setting at least one of a location, an orientation, and a speed of the moving body viewed from the witness as the search condition.
(Appendix 9)
Get a series of images at multiple times in a given location,
For each of a plurality of moving bodies included in the plurality of images, the position at the plurality of times is acquired as a movement history,
The witness who witnessed the search object is identified from the plurality of the moving objects by comparing the physical characteristics of the witness with the physical characteristics of the plurality of the moving objects, Get the movement history,
It is set as a search condition that it exists in a predetermined time zone and region determined by the movement history of the witness,
Obtaining a part of the plurality of moving objects satisfying the search condition as search target candidates;
Outputting the search target candidates;
A program that causes a computer to execute processing.
(Appendix 10)
The program according to appendix 9, wherein a part of the plurality of moving objects is acquired as a search target candidate using at least one of the color, height and width of the moving object as the search condition.
(Appendix 11)
The program according to appendix 10, wherein when the distance is in the RGB three-dimensional space, the search condition that the correlation value or the distance in the RGB three-dimensional space is equal to or less than a predetermined threshold is set as the predetermined condition. 12)
The program according to any one of appendices 9 to 11, wherein at least one of the location, orientation, and speed of the moving body viewed from the witness is set as the search condition.

10 検索システム
100 検索装置
102 映像取得部
104 人物検出・追跡部(追跡部)
106 特徴抽出部
108 人物情報データベース(DB)
110 人物対応付け部(対応付け部)
112 人物特徴取得部
114 目撃者経路取得部
116 経路情報データベース(DB)
118 検索条件作成部
120 不審者候補取得部
122 結果出力部(出力部)
200a、…、200n 撮像装置
DESCRIPTION OF SYMBOLS 10 Search system 100 Search apparatus 102 Image | video acquisition part 104 Person detection and tracking part (tracking part)
106 Feature Extraction Unit 108 Person Information Database (DB)
110 Person association unit (association unit)
112 person feature acquisition unit 114 witness route acquisition unit 116 route information database (DB)
118 Search condition creation unit 120 Suspicious candidate acquisition unit 122 Result output unit (output unit)
200a, ..., 200n Imaging device

Claims (6)

所定の場所の複数の時刻における一連の複数の画像を取得する撮像装置によって得られた前記複数の画像に含まれる複数の移動体のそれぞれに対して、前記複数の時刻における位置を移動の履歴として取得する追跡部と、
前記複数の前記移動体のそれぞれに対して、物理的特徴を抽出する特徴抽出部と、
前記複数の前記移動体の中から、検索対象を目撃した目撃者を前記目撃者の前記物理的特徴と前記複数の前記移動体の前記物理的特徴を比較することによって特定し、前記目撃者の前記移動の履歴を取得する目撃者経路取得部と、
前記目撃者の前記移動の履歴によって定まる所定の時間帯および領域に存在することを検索の条件として設定する検索条件作成部と、
前記検索の条件を満たす前記複数の前記移動体の一部を検索対象候補として取得する候補取得部と、
前記検索対象候補を出力する出力部と、
を含む検索装置。
For each of a plurality of moving objects included in the plurality of images obtained by an imaging device that acquires a series of images at a plurality of times at a predetermined location, the positions at the plurality of times are used as movement histories. A tracking unit to obtain,
A feature extraction unit for extracting a physical feature for each of the plurality of moving bodies;
The witness who witnessed the search object is identified from the plurality of the moving objects by comparing the physical characteristics of the witness with the physical characteristics of the plurality of the moving objects, An eyewitness route acquisition unit for acquiring the movement history;
A search condition creation unit that sets a search condition to exist in a predetermined time zone and region determined by the movement history of the witness;
A candidate acquisition unit that acquires, as search target candidates, a part of the plurality of the moving objects that satisfy the search conditions;
An output unit for outputting the search target candidates;
Search device including
検索条件作成部はさらに、前記移動体の色、高さおよび幅の少なくとも一つを前記検索の条件として前記複数の前記移動体の一部を検索対象候補として取得する、請求項1に記載の検索装置。   2. The search condition creating unit according to claim 1, further comprising acquiring a part of the plurality of moving objects as search target candidates using at least one of color, height, and width of the moving object as the search condition. Search device. 前記検索条件作成部はさらに、RGB3次元空間中の距離である場合、前記所定の条件として前記RGB3次元空間中の相関値または距離が所定の閾値以下であることを前記検索の条件として設定する、請求項2に記載の検索装置   The search condition creating unit further sets, as the search condition, that the correlation value or the distance in the RGB three-dimensional space is equal to or less than a predetermined threshold as the predetermined condition when the distance is in the RGB three-dimensional space. The search device according to claim 2. 前記検索条件作成部はさらに、前記目撃者から見た前記移動体の場所、向き、速度の少なくとも一つを前記検索の条件として設定する、請求項1乃至3のいずれか一項に記載の検索装置。   The search according to any one of claims 1 to 3, wherein the search condition creating unit further sets at least one of the location, orientation, and speed of the moving body as viewed from the witness as the search condition. apparatus. コンピュータによって処理される検索方法であって、
所定の場所の複数の時刻における一連の複数の画像を取得することと、
前記複数の画像に含まれる複数の移動体のそれぞれに対して、前記複数の時刻における位置を移動の履歴として取得すると、
前記複数の前記移動体の中から、検索対象を目撃した目撃者を前記目撃者の前記物理的特徴と前記複数の前記移動体の前記物理的特徴を比較することによって特定し、前記目撃者の前記移動の履歴を取得することと、
前記目撃者の前記移動の履歴によって定まる所定の時間帯および領域に存在することを検索の条件として設定することと、
前記検索の条件を満たす前記複数の前記移動体の一部を検索対象候補として取得することと、
前記検索対象候補を出力することと、
を含む検索方法。
A search method processed by a computer,
Acquiring a series of images at a plurality of times at a given location;
For each of a plurality of moving bodies included in the plurality of images, the position at the plurality of times is acquired as a movement history.
The witness who witnessed the search object is identified from the plurality of the moving objects by comparing the physical characteristics of the witness with the physical characteristics of the plurality of the moving objects, Obtaining a history of the movement;
Setting as a search condition to exist in a predetermined time zone and region determined by the movement history of the witness;
Acquiring a part of the plurality of moving objects that satisfy the search condition as search target candidates;
Outputting the search candidate,
Search method including
所定の場所の複数の時刻における一連の複数の画像を取得させ、
前記複数の画像に含まれる複数の移動体のそれぞれに対して、前記複数の時刻における位置を移動の履歴として取得させ、
前記複数の前記移動体の中から、検索対象を目撃した目撃者を前記目撃者の前記物理的特徴と前記複数の前記移動体の前記物理的特徴を比較することによって特定し、前記目撃者の前記移動の履歴を取得させ、
前記目撃者の前記移動の履歴によって定まる所定の時間帯および領域に存在することを検索の条件として設定させ、
前記検索の条件を満たす前記複数の前記移動体の一部を検索対象候補として取得させ、
前記検索対象候補を出力させる、
処理をコンピュータに実行させるプログラム。
Get a series of images at multiple times in a given location,
For each of a plurality of moving bodies included in the plurality of images, the position at the plurality of times is acquired as a movement history,
The witness who witnessed the search object is identified from the plurality of the moving objects by comparing the physical characteristics of the witness with the physical characteristics of the plurality of the moving objects, Get the movement history,
It is set as a search condition that it exists in a predetermined time zone and region determined by the movement history of the witness,
Obtaining a part of the plurality of moving objects satisfying the search condition as search target candidates;
Outputting the search target candidates;
A program that causes a computer to execute processing.
JP2013117291A 2013-06-03 2013-06-03 SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM Active JP6079447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013117291A JP6079447B2 (en) 2013-06-03 2013-06-03 SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013117291A JP6079447B2 (en) 2013-06-03 2013-06-03 SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM

Publications (2)

Publication Number Publication Date
JP2014235608A JP2014235608A (en) 2014-12-15
JP6079447B2 true JP6079447B2 (en) 2017-02-15

Family

ID=52138255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013117291A Active JP6079447B2 (en) 2013-06-03 2013-06-03 SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM

Country Status (1)

Country Link
JP (1) JP6079447B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108694226A (en) * 2018-03-30 2018-10-23 梁玉琴 A kind of eye witness's screening technique, device and its system of the shared bicycle big data based on GPS positioning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5091095B2 (en) * 2008-11-25 2012-12-05 綜合警備保障株式会社 Motion detection device and motion detection method
JP5590945B2 (en) * 2009-03-31 2014-09-17 綜合警備保障株式会社 Person search device, person search method, and person search program

Also Published As

Publication number Publication date
JP2014235608A (en) 2014-12-15

Similar Documents

Publication Publication Date Title
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP7039409B2 (en) Video analysis device, person search system and person search method
JP7282851B2 (en) Apparatus, method and program
US7957557B2 (en) Tracking apparatus and tracking method
Lee et al. Occlusion handling in videos object tracking: A survey
JP6406241B2 (en) Information processing system, information processing method, and program
JP2023016837A (en) Information processing device, information processing method, and program
KR101500711B1 (en) Method for human tracking using color histograms
RU2670429C1 (en) Systems and methods of tracking moving objects on video image
CN101344965A (en) Tracking system based on binocular camera shooting
JP2021048617A (en) Information processing system, information processing method, and program
KR101062225B1 (en) Intelligent video retrieval method and system using surveillance camera
JP4764172B2 (en) Method for detecting moving object candidate by image processing, moving object detecting method for detecting moving object from moving object candidate, moving object detecting apparatus, and moving object detecting program
CN111738225B (en) Crowd gathering detection method, device, equipment and storage medium
US20210089784A1 (en) System and Method for Processing Video Data from Archive
JP2019029935A (en) Image processing system and control method thereof
JP2008035301A (en) Mobile body tracing apparatus
CN109508657B (en) Crowd gathering analysis method, system, computer readable storage medium and device
Huang et al. Enhancing multi-camera people tracking with anchor-guided clustering and spatio-temporal consistency ID re-assignment
JP2019096062A (en) Object tracking device, object tracking method, and object tracking program
JP6079447B2 (en) SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM
Wang Research and implementation of intrusion detection algorithm in video surveillance
JP2017097549A (en) Image processing apparatus, method, and program
US11216969B2 (en) System, method, and computer-readable medium for managing position of target
JP2019075051A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170102

R150 Certificate of patent or registration of utility model

Ref document number: 6079447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150