JP2010160733A - Search result displaying method and monitoring system - Google Patents

Search result displaying method and monitoring system Download PDF

Info

Publication number
JP2010160733A
JP2010160733A JP2009003446A JP2009003446A JP2010160733A JP 2010160733 A JP2010160733 A JP 2010160733A JP 2009003446 A JP2009003446 A JP 2009003446A JP 2009003446 A JP2009003446 A JP 2009003446A JP 2010160733 A JP2010160733 A JP 2010160733A
Authority
JP
Japan
Prior art keywords
image
search
search result
display
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009003446A
Other languages
Japanese (ja)
Inventor
Seiichi Hirai
誠一 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2009003446A priority Critical patent/JP2010160733A/en
Publication of JP2010160733A publication Critical patent/JP2010160733A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for displaying search results with which correlation among each image is easily understood. <P>SOLUTION: The method for displaying search results is implemented in a monitoring system which includes an imaging device, a recording device, and a terminal device, and searches similar images. Firstly, three axes are provided to define the searched images. The three axes being used are, a similarity axis for designating similarity differences, a distance axis for designating distance differences among the searched images, and a time difference axis for designating time differences among the searched images. Then, the searched result images are displayed in a space configured by the three axes. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、検索結果表示方法、監視システムに係り、特に画像特徴量を使った検索における検索結果表示方法、監視システムに関する。   The present invention relates to a search result display method and a monitoring system, and more particularly to a search result display method and a monitoring system in a search using an image feature amount.

従来から、ホテル、ビル、コンビニエンスストア、金融機関、ダム、又は道路のような不特定多数の人が訪れる施設には、犯罪抑止や事故防止等の目的で、映像監視システムが設置されている。
このような映像監視システムでは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送する。
監視センタに常駐する監視者は、その映像を監視し、目的や必要に応じて、注意をしたり、あるいは映像を録画・保存する。
Conventionally, video surveillance systems have been installed in facilities visited by an unspecified number of people such as hotels, buildings, convenience stores, financial institutions, dams, and roads for the purpose of crime prevention and accident prevention.
In such a video monitoring system, a person or the like to be monitored is photographed by an imaging device such as a camera, and the video is transmitted to a monitoring center such as a management office or a security room.
A monitor resident in the monitoring center monitors the video, and pays attention or records / stores the video according to the purpose and necessity.

この映像監視システムで映像の録画・保存をするための記録媒体として、以前は、ビデオテープ等のシーケンシャル・アクセスの記憶媒体が用いられていた。
しかし、近年では、ハードディスクドライブ(HDD)に代表されるランダムアクセス可能な記憶媒体が、映像監視システムに用いられる事例が増えてきている。
ランダムアクセス可能な記憶媒体は、映像の整理がしやすく、繰り返し使用に強いため、普及が進んでいる。
As a recording medium for recording and storing video in this video surveillance system, a sequential access storage medium such as a video tape has been used in the past.
However, in recent years, an example in which a randomly accessible storage medium represented by a hard disk drive (HDD) is used in a video surveillance system is increasing.
Randomly accessible storage media are becoming popular because they are easy to organize videos and are resistant to repeated use.

さらに、このランダムアクセス可能な記録媒体は、年々、大容量化が進んでいる。
この大容量化により、録画できる映像のデータ量が、飛躍的に増大している。これにより、長時間録画が可能になった。
しかしながら、大量の録画映像を目視でチェックする際の監視者の負担の増加が、問題として顕在化しつつある。
Furthermore, the capacity of this randomly accessible recording medium is increasing year by year.
With this increase in capacity, the amount of video data that can be recorded has increased dramatically. This made it possible to record for a long time.
However, an increase in the burden on the observer when visually checking a large amount of recorded video is becoming a problem.

従来の監視システムにおいては、画像データに埋め込まれた時刻や外部センサ値のテキストデータを検索するテキスト検索機能を備えるものが存在した。
さらに、近年では、画像情報を検索入力情報とする検索機能、いわゆる類似画像検索機能を搭載するシステムが普及してきている。このような画像検索機能のなかでも「人物検索機能」を備えた監視システムがよく用いられるようになってきている。
Some conventional monitoring systems have a text search function for searching text data of time and external sensor values embedded in image data.
Furthermore, in recent years, systems equipped with a search function that uses image information as search input information, that is, a so-called similar image search function, have become widespread. Among such image search functions, a monitoring system having a “person search function” has been frequently used.

人物検索機能とは、ある画像中に映っている人物をユーザが指定すると、その人物と同一人物が映っている他の映像を録画装置内から探し出し、ユーザに一覧提示する機能である。
この際、同一人物判定の手掛かりとして、人物の「顔」の画像が使われることが多い。
The person search function is a function that, when a user designates a person shown in a certain image, searches for other videos showing the same person as that person in the recording apparatus and presents the list to the user.
In this case, a person's “face” image is often used as a clue for determining the same person.

ここで、図10を参照して、顔の画像から人物を検索する人物検索機能を備えた、従来の監視システムYの構成の例について説明する。
監視システムYは、撮像装置201と、録画装置202と、端末装置203とが、ネットワーク200で接続されて構成される。
Here, an example of the configuration of a conventional monitoring system Y having a person search function for searching for a person from a face image will be described with reference to FIG.
The monitoring system Y is configured by connecting an imaging device 201, a recording device 202, and a terminal device 203 via a network 200.

ネットワーク200は、各装置を相互に接続しデータ通信を行う専用線やイントラネット、インターネット、無線LAN等の通信線である。
撮像装置201は、CCDやCMOS素子等で撮像した画像にデジタル変換処理を行い、変換された画像データを、ネットワーク200を介して録画装置202へ出力するネットワークカメラや監視カメラ等の装置である。撮像装置201は、制御部と、撮像した画像を記憶する記憶部と、ネットワーク接続部とを備えている。
録画装置202は、ネットワーク200を介して撮像装置201より入力された画像データをHDD等の記録媒体に記録するネットワークデジタルレコーダ等の装置である。録画装置202は、制御部と、撮像装置201で撮像した画像データを記憶する記憶部と、画像データを取得して端末装置203に送信するネットワーク接続部とを備えている。また、録画装置202には、人物検索機能も搭載されており、画像認識技術を使って算出した画像特徴量の記録媒体への記録や似た画像特徴量を有する画像の記録媒体からの探索等も行う。
端末装置203は、ネットワーク200を介して録画装置から取得した画像データを、液晶ディスプレイやCRT等のモニタに画面表示するPC等の装置である。端末装置203は、キーボードやマウス等のユーザ入力部を備え、録画装置202に記録された映像の再生操作や動画表示、人物検索の実行操作や結果表示等を行うユーザインタフェースを提供する。
The network 200 is a dedicated line for interconnecting each device to perform data communication, or a communication line such as an intranet, the Internet, or a wireless LAN.
The imaging device 201 is a device such as a network camera or a surveillance camera that performs digital conversion processing on an image captured by a CCD or CMOS element, and outputs the converted image data to the recording device 202 via the network 200. The imaging device 201 includes a control unit, a storage unit that stores captured images, and a network connection unit.
The recording device 202 is a device such as a network digital recorder that records image data input from the imaging device 201 via the network 200 on a recording medium such as an HDD. The recording device 202 includes a control unit, a storage unit that stores image data captured by the imaging device 201, and a network connection unit that acquires the image data and transmits it to the terminal device 203. The recording device 202 is also equipped with a person search function, such as recording an image feature amount calculated using an image recognition technique on a recording medium, searching an image having a similar image feature amount from the recording medium, and the like. Also do.
The terminal device 203 is a device such as a PC that displays the image data acquired from the recording device via the network 200 on a monitor such as a liquid crystal display or a CRT. The terminal device 203 includes a user input unit such as a keyboard and a mouse, and provides a user interface for performing a reproduction operation, a moving image display, a person search execution operation, a result display, and the like recorded in the recording device 202.

端末装置203について、さらに詳しく説明すると、検索要求送信部211、検索結果受信部212、検索結果表示部213、映像再生表示部214を備えて構成される。
検索要求送信部211は、検索要求をネットワーク200を介して録画装置202に送信する部位である。検索要求として送信するデータには、検索したい人物が映った画像が含まれる。以下、この画像を検索画像と呼ぶ。
検索結果受信部212は、検索結果をネットワーク200を介して録画装置202から受信する部位である。検索結果として受信するデータには、録画装置202にて画像検索を実行して得られた画像の集合が含まれる。この画像の集合を構成する個々の画像は、録画装置202に記録された映像から縮小処理等を行って生成する。以降、この個々の画像を検索結果画像と称する。
検索結果表示部213は、検索結果受信部212にて受信した検索結果を液晶ディスプレイ等の表示部に表示する部位である。検索結果表示部213が表示する画面例については後述する。
映像再生表示部214は、録画装置202に記録された映像を再生し、画面表示する処理部である。映像再生表示部214は、ポインティングデバイスやキーボード等である入力部からのユーザによる再生操作を検知して、再生命令への変換や再生命令のネットワーク200を介しての録画装置202への送信、ネットワーク200を介して録画装置202から受信した映像データの画面表示等を行う。
The terminal device 203 will be described in more detail. The terminal device 203 includes a search request transmission unit 211, a search result reception unit 212, a search result display unit 213, and a video reproduction display unit 214.
The search request transmission unit 211 is a part that transmits a search request to the recording apparatus 202 via the network 200. The data transmitted as a search request includes an image showing a person to be searched. Hereinafter, this image is referred to as a search image.
The search result receiving unit 212 is a part that receives a search result from the recording device 202 via the network 200. The data received as a search result includes a set of images obtained by executing an image search in the recording device 202. Individual images constituting the set of images are generated by performing reduction processing or the like from the video recorded in the recording device 202. Hereinafter, the individual images are referred to as search result images.
The search result display unit 213 is a part that displays the search result received by the search result receiving unit 212 on a display unit such as a liquid crystal display. A screen example displayed by the search result display unit 213 will be described later.
The video playback display unit 214 is a processing unit that plays back video recorded in the recording device 202 and displays the screen. The video playback display unit 214 detects a playback operation by the user from an input unit such as a pointing device or a keyboard, converts the playback command into a playback command, transmits the playback command to the recording device 202 via the network 200, and the network. The screen display of the video data received from the recording apparatus 202 via 200 is performed.

図11に、従来の人物検索機能を備えたシステムにおける端末装置203に表示される画面例を示す。
再生映像表示領域301は、録画装置202に記録された映像を動画表示する領域である。
映像再生操作領域302は、録画装置202に記録された映像を再生操作する領域である。映像再生操作領域302を構成する各ボタンにはそれぞれ固有の再生種類が割当てられている。図11においては、例えば、左から巻戻し、逆再生、再生停止、順再生、早送りの再生種類が割当てられている。各ボタンを適宜押下することにより、再生映像表示領域301上への動画表示が、ボタンに割当てられた再生種類に切り替わって表示される。
検索画像表示領域303は、検索画像の指定と表示を行う領域である。検索画像表示領域303を構成する検索画像指定ボタンは、押下時に再生映像表示領域301に表示されている画像を検索画像に指定する。検索画像に指定された画像は、検索画像表示領域303上に画面表示される。
検索画像311は、従来の監視システムYにおいて、指定された検索画像である。
検索実行領域304は、検索実行を行う領域である。検索実行領域304を構成する検索実行ボタンは、押下時に検索画像表示領域303にて指定した検索画像による検索を実行する。従来の監視システムYでは図示しなかったが、この検索実行領域304上に検索対象の限定を与える手段、例えば、日時範囲や検索対象カメラ等を指定する手段を備える場合もある。
検索結果表示領域305は、録画装置202から取得した検索結果を表示する領域である。従来の監視システムYにおいて、検索結果表示領域305に表示した検索結果は、検索画像311にて検索を実行し得られた結果である。表示は、検索結果画像を一覧表示することにより実施される。
検索結果画像321〜325は、それぞれ検索結果画像のうちの1つである。表示されたそれぞれの検索結果画像は、ボタン式になっており、そのいずれかを押下すると、再生映像表示領域301の表示映像が押下画像に切替わる。この切替わりを頭出しと称する。
検索結果表示順指定領域306は、検索結果表示領域305への検索結果の一覧表示の表示の順番である「表示順」を指定する領域である。従来の監視システムYにおいては、表示順を、類似度順、時刻順、カメラ順の3種類から指定可能である。
FIG. 11 shows an example of a screen displayed on the terminal device 203 in a system having a conventional person search function.
The reproduced video display area 301 is an area for displaying a video recorded in the recording device 202 as a moving image.
The video playback operation area 302 is an area where a video recorded in the recording device 202 is played back. Each button constituting the video playback operation area 302 is assigned a unique playback type. In FIG. 11, for example, playback types of rewinding from the left, reverse playback, playback stop, forward playback, and fast forward are assigned. By appropriately pressing each button, the moving image display on the playback video display area 301 is switched to the playback type assigned to the button and displayed.
A search image display area 303 is an area for designating and displaying a search image. A search image designation button constituting the search image display area 303 designates an image displayed in the playback video display area 301 as a search image when pressed. The image designated as the search image is displayed on the screen in the search image display area 303.
The search image 311 is a search image designated in the conventional monitoring system Y.
The search execution area 304 is an area where search execution is performed. The search execution button constituting the search execution area 304 executes a search using the search image specified in the search image display area 303 when pressed. Although not shown in the conventional monitoring system Y, the search execution area 304 may be provided with means for limiting the search target, for example, a means for specifying a date / time range, a search target camera, and the like.
A search result display area 305 is an area for displaying a search result acquired from the recording apparatus 202. In the conventional monitoring system Y, the search result displayed in the search result display area 305 is a result obtained by executing a search using the search image 311. The display is performed by displaying a list of search result images.
Search result images 321 to 325 are each one of the search result images. Each displayed search result image is a button type, and when one of them is pressed, the display video in the playback video display area 301 is switched to the pressed image. This switching is called cueing.
The search result display order designation area 306 is an area for designating “display order”, which is the display order of the search result list display in the search result display area 305. In the conventional monitoring system Y, the display order can be specified from three types: similarity order, time order, and camera order.

図11においては、検索結果表示領域305に表示された検索結果は、類似度順に基づいて表示されている例を示す。
この類似度順の表示の場合、検索結果表示領域305の最上段左が最も類似度が高く、同段の右に行くほど類似度が低くなり、また、段が下部に進むほど、上段より類似度が低いことを示している。従来の監視システムYにおいては、検索画像311に対し、検索結果画像321が最も類似度が高い画像であり、続いて検索結果画像322、323、324となり、検索結果画像325が検索結果画像の中では最も類似度が低い画像となる。
FIG. 11 shows an example in which the search results displayed in the search result display area 305 are displayed based on the order of similarity.
In the case of the display in the order of similarity, the uppermost left of the search result display area 305 has the highest similarity, the similarity becomes lower as it goes to the right of the same level, and the lower the level, the more similar to the upper level. The degree is low. In the conventional monitoring system Y, the search result image 321 is the image with the highest similarity to the search image 311, followed by the search result images 322, 323, and 324, and the search result image 325 is among the search result images. Then, the image with the lowest similarity is obtained.

従来の監視システムYでは、同様に、検索結果表示順指定領域306に対し、時刻による順番の指定である時刻順に基づいて行うように指定することができる。このように時刻順で表示順を指定した場合には、検索結果表示領域305の最上段左が最も古い時刻に撮影された画像で、同段の右に行くほど時刻が新しい画像となり、また、段が下部に進むほど、上段より時刻が新しい画像が表示される。   Similarly, in the conventional monitoring system Y, the search result display order designation area 306 can be designated to be performed based on the time order which is the designation of the order by time. In this way, when the display order is specified in the time order, the uppermost left of the search result display area 305 is an image taken at the oldest time, and the image becomes a newer image as it goes to the right of the same stage. As the stage progresses to the lower part, an image having a newer time than the upper part is displayed.

従来の監視システムYでは、同様に、検索結果表示順指定領域306に対し、カメラ番号による順番の指定であるカメラ順に基づいて行うように指定することができる。このようにカメラ順にした場合には、検索結果表示領域305の最上段左が小さいカメラ番号を有するカメラで撮影された画像で、同段の右に行くほどカメラ番号が大きくカメラで撮影された画像となり、また、段が下部に進むほど、上段よりカメラ番号が大きいカメラで撮影された画像が表示される。   Similarly, in the conventional monitoring system Y, the search result display order designation area 306 can be designated to be performed based on the camera order, which is the order designation by the camera number. When the camera order is set in this way, the upper left of the search result display area 305 is an image taken with a camera having a smaller camera number, and the image is taken with a camera with a larger camera number toward the right in the same row. In addition, as the stage advances to the lower part, an image shot with a camera having a camera number higher than that of the upper part is displayed.

人物検索機能は、録画装置に記録された膨大な検索対象画像中から目的の人物映像への容易な頭出しを提供し、大変便利である。
そして、このように人物検索機能によって同一人物が探せるようになった段階で、探した同一人物が「いつ、どこで」撮影されたのかをユーザーに伝えることが重要である。
さらに、検索に使った検索画像の撮影時刻、撮影場所と、検索結果として得られた検索結果画像のそれとの、時間的相対関係、位置的相対関係が、ユーザにわかり易く表現されることが望ましい。
The person search function is very convenient because it provides easy cueing to a target person image from a large number of search target images recorded in a recording device.
When the same person can be found by the person search function in this way, it is important to tell the user “when and where” the same person who was found was shot.
Furthermore, it is desirable that the temporal relative relationship and the positional relative relationship between the shooting time and shooting location of the search image used for the search and that of the search result image obtained as the search result are expressed in an easy-to-understand manner for the user.

しかしながら、図10を用いて示したように、現状の人物検索機能において、その検索結果は、ある一つの尺度に基づいて、表示順が決定される方式となっている。
上記の例においては、類似度順、時刻順、カメラ順のいずれかの尺度で指定された順番に基づき、検索結果を表示している。図11では、画面の表示の都合上、折り返しを設けているため、2次元風な表示となっているが、本質的にはそれぞれの順番を基にした1次元的な表示であるといえる。
However, as shown in FIG. 10, in the current person search function, the search result is a method in which the display order is determined based on one scale.
In the above example, the search results are displayed based on the order specified by any one of the similarity order, the time order, and the camera order. In FIG. 11, since a wrap is provided for the convenience of screen display, the display is two-dimensional, but it can be said that the display is essentially a one-dimensional display based on each order.

従って、表示順として選択された次元については、その相対関係が視覚的に表現することができる。しかし、他の次元については、検索画像と検索結果画像間においての情報を得ることが難しいという問題があった。
このため、例えば、類似度順で表示された検索結果画像の横に撮影時刻を文字表示するといったことは可能であったが、このような文字表示するだけの表現では、各次元との相関を表現することは難しかった。
よって、類似度と時刻、類似度とカメラ、時刻とカメラ、類似度と時刻とカメラといった、2次元以上の相関を同時に視覚的に表現することができなかった。
Therefore, the relative relationship between the dimensions selected as the display order can be visually expressed. However, for other dimensions, there is a problem that it is difficult to obtain information between the search image and the search result image.
For this reason, for example, it was possible to display the shooting time next to the search result image displayed in the order of similarity, but in such an expression that only displays the character, the correlation with each dimension is shown. It was difficult to express.
Therefore, two-dimensional or more correlations such as similarity and time, similarity and camera, time and camera, similarity and time and camera cannot be visually expressed simultaneously.

そこで、従来の類似画像検索を3次元的に表示する類似画像検索方法として、例えば、特許文献1を参照すると、ユーザが所望する画像との類似度の値に従って、類似度の高い画像は大きく、類似度の低い画像は小さくなるように表示する類似画像検索方法が記載されている(以下、従来技術1とする。)。
また、従来技術1の画像検索方法では、段落〔0016〕等を参照すると、可視化空間210の座標軸を画像特徴量から選び、その軸を一定時間で変更して「フワフワ運動」させることで、各検索条件に応じた検索結果を連続的な変化としてユーザに示すことができる。
従来技術1の類似画像検索方法により、大量の検索結果をユーザにとって散布図のような秩序ある形式で提示することができるという効果が得られる。
Therefore, as a similar image search method for displaying the conventional similar image search three-dimensionally, for example, referring to Patent Document 1, an image with a high similarity is large according to the value of the similarity with the image desired by the user, A similar image search method for displaying an image with a low degree of similarity so as to be small is described (hereinafter referred to as prior art 1).
Further, in the image search method of the prior art 1, referring to paragraph [0016] and the like, the coordinate axis of the visualization space 210 is selected from the image feature amount, and the axis is changed in a certain time to perform “fluffing motion”. The search result according to the search condition can be shown to the user as a continuous change.
According to the similar image search method of the prior art 1, an effect that a large amount of search results can be presented to the user in an orderly form like a scatter diagram is obtained.

特開2000−29885号公報JP 2000-29885 A

しかしながら、従来技術1においては、類似度と画像特徴量のみを検索画像の結果表示に用いており、カメラの番号順のような監視システムに必要な系列の軸に基づいて表示を行う検索結果表示方法が開示されていなかった。
このため、従来技術1で開示されている表示方法を監視システムの検索結果表示方法に用いると、各画像間の相関関係が把握しづらく、使い勝手が悪いという問題があった。
However, in the prior art 1, only the similarity and the image feature amount are used for displaying the result of the search image, and the search result display for displaying based on the axis of the series necessary for the monitoring system such as the camera number order. The method was not disclosed.
For this reason, when the display method disclosed in the prior art 1 is used for the search result display method of the monitoring system, there is a problem that it is difficult to grasp the correlation between the images and the usability is poor.

本発明は、このような状況に鑑みてなされたものであり、上述の課題を解消することを課題とする。   This invention is made | formed in view of such a condition, and makes it a subject to eliminate the above-mentioned subject.

本発明の検索結果表示方法は、撮像装置と、録画装置と、端末装置を備えて類似画像を検索する監視システムにおける検索結果表示方法において、検索画像に対する類似度差を系列とした類似度軸と、該検索画像に対する距離差を系列とする距離軸と、該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示することを特徴とする。
本発明の監視システムは、撮像装置と、録画装置と、端末装置を備えた類似画像検索システムにおいて、前記録画装置、又は前記端末装置は、検索画像に対する類似度差を系列とした類似度軸と、該検索画像に対する距離差を系列とする距離軸と、該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示する表示手段を備えることを特徴とする。
The search result display method of the present invention includes an imaging device, a recording device, and a terminal device, and a search result display method in a monitoring system that searches for similar images. The search result image is displayed in a space constituted by a distance axis having a series of distance differences with respect to the search image and a time difference axis having a series of time differences with respect to the search image.
The monitoring system of the present invention is a similar image search system including an imaging device, a recording device, and a terminal device, wherein the recording device or the terminal device has a similarity axis based on a similarity difference with respect to a search image. And a display means for displaying the search result image in a space constituted by a distance axis having a series of distance differences with respect to the search image and a time difference axis having a series of time differences with respect to the search image.

本発明によれば、映像監視システムの人物検索機能において、検索画像と検索結果画像間における類似度、距離、時間の各系列について、3次元の軸上で同時に表現することで、2次元以上の相関関係を同時に視覚的に把握できる使い勝手のよい結果表示方法を提供することができる。   According to the present invention, in the person search function of the video surveillance system, each sequence of similarity, distance, and time between the search image and the search result image is expressed simultaneously on a three-dimensional axis so that two or more dimensions can be obtained. It is possible to provide an easy-to-use result display method capable of visually grasping the correlation at the same time.

本発明の実施の形態に係る結果表示方式を含む人物検索機能を備えた監視システムXのシステム構成図である。It is a system configuration figure of surveillance system X provided with a person search function including a result display system concerning an embodiment of the invention. 本発明の実施の形態に係る結果表示方式を含む人物検索機能を備えたシステムにおける端末装置103に表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on the terminal device 103 in the system provided with the person search function including the result display system which concerns on embodiment of this invention. 本発明の実施の形態に係る結果表示方式を含む人物検索機能を備えたシステムにおける端末装置103に表示される画面の検索結果表示領域405を拡大表示した図である。It is the figure which expanded and displayed the search result display area 405 of the screen displayed on the terminal device 103 in the system provided with the person search function including the result display system which concerns on embodiment of this invention. 本発明の実施の形態に係る時間差軸421、距離軸422、類似度軸423の3軸で構成される3次元空間と画面表示との関係を説明する概念図である。It is a conceptual diagram explaining the relationship between the three-dimensional space comprised by 3 axes | shafts of the time difference axis | shaft 421, the distance axis | shaft 422, and the similarity degree axis | shaft 423 which concerns on embodiment of this invention, and a screen display. 本発明の実施の形態に係る端末装置103に表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on the terminal device 103 which concerns on embodiment of this invention. 本発明の実施の形態に係る端末装置103に表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on the terminal device 103 which concerns on embodiment of this invention. 本発明の実施の形態に係る検索結果表示方法を含む人物検索機能を備えたシステムの録画処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the video recording process of the system provided with the person search function including the search result display method which concerns on embodiment of this invention. 本発明の実施の形態に係る検索結果表示方法を含む人物検索機能を備えたシステムの映像再生処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the video reproduction process of the system provided with the person search function including the search result display method which concerns on embodiment of this invention. 本発明の実施の形態に係る結果表示方式を含む人物検索機能を備えたシステムの人物検索処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a person search process of the system provided with the person search function including the result display system which concerns on embodiment of this invention. 従来の人物検索機能を備えた監視システムYのシステム構成図である。It is a system block diagram of the monitoring system Y provided with the conventional person search function. 従来の人物検索機能を備えた監視システムYにおける端末装置に表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on the terminal device in the monitoring system Y provided with the conventional person search function.

<実施の形態>
〔制御構成〕
図1を参照して、本発明の実施の形態に係る監視システムXの制御構成について説明する。監視システムXは、撮像装置201と、録画装置202と、端末装置103とが、ネットワーク200にて接続されている。この図1において、図10と同一の符号は、従来と同様の機能を提供する部位であることを示す。つまり、撮像装置201と、録画装置202とは、図10の従来の監視システムYと同様の構成要素を示す。
ネットワーク200は、各装置を結ぶ、LAN、光ファイバー、c.link、無線LAN、メッシュネットワーク等のデータ通信可能な回線である。また、ネットワーク200は、専用線、イントラネット、インターネット等のIPネットワーク等を用いてもよい。
録画装置202は画像データをHDD等に記憶して録画する録画装置であり、図10の録画装置202と同様な録画装置である。
端末装置103は、ネットワーク200を介して録画装置202から取得した画像データを、液晶ディスプレイやCRT等の表示部に画面表示するPC/AT互換機やMAC等であるPC(パーソナル・コンピュータ)等の専用の監視端末装置である。端末装置103は、下記で説明する処理の制御を行うCPU等の制御部と、制御部が実行する処理が記載されたプログラムと結果表示用の画像データと画像データの属性と一時データとを含んで記憶するRAM、ROM、HDD、フラッシュメモリ等の記憶部とを備えている。端末装置103は、キーボードやマウス等のユーザ入力部を備え、録画装置202に記録された映像の再生操作や動画表示、人物検索の実行操作や結果表示等を行うユーザインタフェースを提供する。
なお、端末装置103は、通常のOS(オペレーティングシステム)がインストールされたPCの記憶部に記憶したプログラムにより実現してもよい。
さらに、制御部で実行されるプログラムは、各部をハードウェア資源を使用して実現するために用いられてもよく、記憶部に記憶されていても、制御部内のROMやフラッシュメモリ等に記憶されていてもよい。
<Embodiment>
(Control configuration)
With reference to FIG. 1, the control configuration of the monitoring system X according to the embodiment of the present invention will be described. In the monitoring system X, an imaging device 201, a recording device 202, and a terminal device 103 are connected via a network 200. In FIG. 1, the same reference numerals as those in FIG. 10 indicate parts that provide the same functions as those in the prior art. That is, the imaging device 201 and the recording device 202 show the same components as the conventional monitoring system Y in FIG.
The network 200 includes a LAN, an optical fiber, c. A line capable of data communication such as a link, a wireless LAN, and a mesh network. The network 200 may be an IP network such as a dedicated line, an intranet, or the Internet.
The recording device 202 is a recording device that records image data stored in an HDD or the like, and is a recording device similar to the recording device 202 of FIG.
The terminal device 103 is a PC / AT compatible machine that displays the image data acquired from the recording device 202 via the network 200 on a display unit such as a liquid crystal display or a CRT, or a PC (personal computer) such as a MAC. It is a dedicated monitoring terminal device. The terminal device 103 includes a control unit such as a CPU that controls processing described below, a program that describes processing executed by the control unit, image data for displaying results, attributes of image data, and temporary data. And a storage unit such as a RAM, a ROM, an HDD, and a flash memory. The terminal device 103 includes a user input unit such as a keyboard and a mouse, and provides a user interface for performing a reproduction operation, a moving image display, a person search execution operation, a result display, and the like recorded in the recording device 202.
The terminal device 103 may be realized by a program stored in a storage unit of a PC in which a normal OS (operating system) is installed.
Furthermore, the program executed by the control unit may be used to implement each unit using hardware resources, and may be stored in a storage unit or a ROM or flash memory in the control unit. It may be.

さらに詳しく説明すると、端末装置103は、従来と同様の検索要求送信部211、検索結果受信部212、映像再生表示部214に加え、検索結果3D表示部113(表示手段)を備えて構成される。
検索結果3D表示部113は、検索結果を画面表示する処理部である。検索結果の表示処理においては、本発明の実施の形態に係る検索結果表示方法が用いられる。検索結果3D表示部113は、特徴量抽出等の高速応答性やSIMD(シングル・インストラクション・マルチプル・データ)形式の多大な演算性能が要求される演算(算出)処理を、各種DSPやGPU(グラフィック・プロセッシング・ユニット)を備えたチップやボード等で処理することができる。また、検索結果3D表示部113は、端末装置103の制御部が実行するプログラムとして実現されていてもよい。
More specifically, the terminal device 103 includes a search result 3D display unit 113 (display unit) in addition to the search request transmission unit 211, the search result reception unit 212, and the video reproduction display unit 214 which are the same as those in the conventional art. .
The search result 3D display unit 113 is a processing unit that displays the search result on the screen. In the search result display processing, the search result display method according to the embodiment of the present invention is used. The search result 3D display unit 113 performs various calculation (calculation) processes that require high-speed responsiveness such as feature quantity extraction and a large calculation performance in the SIMD (single instruction multiple data) format. Processing can be performed with a chip or board equipped with a processing unit. The search result 3D display unit 113 may be realized as a program executed by the control unit of the terminal device 103.

〔検索結果表示の画面例〕
次に、図2を参照して、人物検索機能を備えた監視システムXにおいて、本発明の実施の形態に係る検索結果表示方法により端末装置103に表示される画面の例について説明する。この図2においても、図11と同一の符号は同様の機能を提供する領域やボタンである。
図2の画面例では、従来の再生映像表示領域301、映像再生操作領域302、検索画像表示領域303、検索実行領域304に加え、検索結果表示領域405が備えられている。
[Search result display screen example]
Next, an example of a screen displayed on the terminal device 103 by the search result display method according to the embodiment of the present invention in the monitoring system X having the person search function will be described with reference to FIG. Also in FIG. 2, the same reference numerals as those in FIG. 11 indicate regions and buttons that provide similar functions.
In the screen example of FIG. 2, a search result display area 405 is provided in addition to the conventional playback video display area 301, video playback operation area 302, search image display area 303, and search execution area 304.

検索結果表示領域405について詳しく説明すると、録画装置202から取得した検索結果を、過去に検索した検索結果と関連付けながら、表示する領域である。
ここでは、検索結果表示領域405に表示した検索結果は、検索画像311で検索を実行して得られた結果の表示例を示している。この表示例は、本発明の実施の形態に係る検索結果表示方法により、検索結果画像を一覧表示することにより得られる。
The search result display area 405 will be described in detail. The search result display area 405 is an area to be displayed while associating the search result acquired from the recording device 202 with the search result searched in the past.
Here, the search result displayed in the search result display area 405 shows a display example of the result obtained by executing the search with the search image 311. This display example is obtained by displaying a list of search result images by the search result display method according to the embodiment of the present invention.

検索結果画像411〜415は、それぞれの検索結果画像である。
従来の監視システムYと同様に、表示されたそれぞれの検索結果画像は、ボタンになっている。検索結果3D表示部113は、ユーザーが検索結果画像のいずれかを押下したことを検知すると、再生映像表示領域301の表示映像を押下画像に切替え、頭出しを行う。
Search result images 411 to 415 are respective search result images.
As with the conventional monitoring system Y, each displayed search result image is a button. When the search result 3D display unit 113 detects that the user has pressed any of the search result images, the search result 3D display unit 113 switches the display video in the playback video display area 301 to the pressed image and performs cueing.

ここで、図3を参照して、検索結果表示領域405の表示を拡大した画面例について説明する。
検索結果画像411〜415は、それぞれ図2と同様の検索結果画像である。
検索結果3D表示部113は、検索結果画像411〜415を、後述する時間差軸421、距離軸422、類似度軸423の3軸で構成される3次元空間内に表示する。この3次元空間としては、図2と図3のように、従来技術1のように実際にアフィン変換等を行わず、単純な斜投影変換で示すことが好適である。これにより、各軸の各系列(尺度)に対する距離感が分かりやすくなり、監視システム内で、各結果画像の関係が分かりやすくなるという効果が得られる。
Here, a screen example in which the display of the search result display area 405 is enlarged will be described with reference to FIG.
Search result images 411 to 415 are search result images similar to those in FIG.
The search result 3D display unit 113 displays the search result images 411 to 415 in a three-dimensional space configured by three axes of a time difference axis 421, a distance axis 422, and a similarity axis 423, which will be described later. As shown in FIGS. 2 and 3, it is preferable that the three-dimensional space is represented by simple oblique projection transformation without actually performing affine transformation or the like as in the prior art 1. As a result, the sense of distance with respect to each series (scale) of each axis becomes easy to understand, and the effect that the relationship between each result image becomes easy to understand in the monitoring system is obtained.

時間差軸421は、検索画像と検索結果画像との撮影時刻の時間差の系列で示す軸である。本発明の実施の形態に係る監視システムXにおいては、図の左から右に行くほど時間差が大きいことを表す。   The time difference axis 421 is an axis indicated by a time difference series of the photographing time between the search image and the search result image. In the monitoring system X according to the embodiment of the present invention, the time difference increases from left to right in the figure.

距離軸422は、検索画像と検索結果画像の撮影位置間の距離の系列を示す軸である。本発明の実施の形態に係る監視システムXにおいては、図の下から上に行くほど距離が大きいことを表す。
ここで撮影位置間の距離とは、カメラ間の距離と同義であり、カメラ間の距離には、GPSや地図などから求めた緯度経度に基づき算出できる直線距離や、測量等により予め求めておく道のり距離などを使用する。距離の値は、メートル法に基づく物理的な値を使用するのが一般的であるが、適当な基準値、例えば、全カメラ間における最小距離を基準値1とするような論理的な値を使用してもよい。また、地形の上下等を考慮して、徒歩で移動できる距離のような距離を仕様してもよい。
The distance axis 422 is an axis indicating a series of distances between the shooting positions of the search image and the search result image. In the monitoring system X according to the embodiment of the present invention, the distance increases from the bottom to the top of the figure.
Here, the distance between the shooting positions is synonymous with the distance between the cameras. The distance between the cameras is obtained in advance by a linear distance that can be calculated based on latitude and longitude obtained from GPS, a map, or the like, or by surveying. Use the distance. The physical value based on the metric system is generally used as the distance value, but an appropriate reference value, for example, a logical value with the minimum distance between all cameras as the reference value 1 is used. May be. In addition, considering the top and bottom of the terrain, a distance such as a distance that can be moved on foot may be specified.

類似度軸423は、検索画像と検索結果画像の類似度を示す軸である。本発明の実施の形態に係る監視システムXにおいては、図の左下から右上に行くほど類似度が小さい、すなわち、検索画像と検索結果画像が似ていないことを表す。   The similarity axis 423 is an axis indicating the similarity between the search image and the search result image. In the monitoring system X according to the embodiment of the present invention, the degree of similarity decreases from the lower left to the upper right of the figure, that is, the search image and the search result image are not similar.

座標点431〜435は、時間差軸421と類似度軸423で構成される座標平面上にプロットされた座標点である。
座標点431〜435はそれぞれ、検索結果画像411〜415と対応関係にある。
すなわち、本発明の実施の形態に係る監視システムXにおいて、検索結果画像411は、座標点431に対応し、検索画像に対する時間差としてΔT3、類似度としてS1の値を持つことを表している。
同様に、検索結果画像412は座標点432に対応し、検索画像に対する時間差としてΔT5、類似度としてS2の値を持つことを表している。
また、検索結果画像413は座標点433に対応し、検索画像に対する時間差としてΔT1、類似度としてS3の値を持つことを表している。
また、検索結果画像414は座標点434に対応し、検索画像に対する時間差としてΔT2、類似度としてS4の値を持つことを表している。
また、検索結果画像415は座標点435に対応し、検索画像に対する時間差としてΔT4、類似度としてS5の値を持つことを表している。
The coordinate points 431 to 435 are coordinate points plotted on a coordinate plane constituted by the time difference axis 421 and the similarity axis 423.
The coordinate points 431 to 435 are in correspondence with the search result images 411 to 415, respectively.
That is, in the monitoring system X according to the embodiment of the present invention, the search result image 411 corresponds to the coordinate point 431, and represents that the time difference with respect to the search image is ΔT3 and the similarity is S1.
Similarly, the search result image 412 corresponds to the coordinate point 432, and represents that the time difference with respect to the search image has ΔT5 and the similarity has a value of S2.
Further, the search result image 413 corresponds to the coordinate point 433, and represents that the time difference with respect to the search image has ΔT1 and the similarity has a value of S3.
The search result image 414 corresponds to the coordinate point 434, and represents that the time difference with respect to the search image is ΔT2 and the similarity is S4.
Further, the search result image 415 corresponds to the coordinate point 435, and represents that the time difference with respect to the search image has a value of ΔT4 and the similarity has a value of S5.

座標点441〜445は、距離軸422と類似度軸423で構成される座標平面上にプロットされた座標点である。
座標点441〜445はそれぞれ、検索結果画像411〜415と対応関係にある。すなわち、本発明の実施の形態に係る監視システムXにおいて、検索結果画像411は座標点441に対応し、検索画像に対する距離としてΔD1、類似度としてS1の値を持つ。
同様に、検索結果画像412は座標点442に対応し、検索画像に対する距離としてΔD5、類似度としてS2の値を持つことを表している。
また、検索結果画像413は座標点443に対応し、検索画像に対する距離としてΔD2、類似度としてS3の値を持つことを表している。
また、検索結果画像414は座標点444に対応し、検索画像に対する距離としてΔD4、類似度としてS4の値を持つことを表している。
また、検索結果画像415は座標点445に対応し、検索画像に対する距離としてΔD3、類似度としてS5の値を持つことを表している。
The coordinate points 441 to 445 are coordinate points plotted on a coordinate plane constituted by the distance axis 422 and the similarity axis 423.
The coordinate points 441 to 445 are in correspondence with the search result images 411 to 415, respectively. That is, in the monitoring system X according to the embodiment of the present invention, the search result image 411 corresponds to the coordinate point 441, and has a value of ΔD1 as the distance to the search image and a value of S1 as the similarity.
Similarly, the search result image 412 corresponds to the coordinate point 442, and represents that the distance from the search image is ΔD5 and the similarity is S2.
The search result image 413 corresponds to the coordinate point 443, and represents that the distance from the search image is ΔD2 and the similarity is S3.
The search result image 414 corresponds to the coordinate point 444, and represents that the distance to the search image is ΔD4 and the similarity is S4.
Further, the search result image 415 corresponds to the coordinate point 445, and represents that the distance from the search image is ΔD3 and the similarity is S5.

なお、本発明の実施の形態に係る監視システムXにおいては、図の簡略化のため、時間差軸421と距離軸422で構成される座標平面上にプロットされた座標点を図示しないが、同様であることは言うまでもない。
また、これらの座標点は、本発明の実施の形態に係る監視システムXでは、説明の容易さのため設けたが、実際にはなくてもよい。
In the monitoring system X according to the embodiment of the present invention, the coordinate points plotted on the coordinate plane composed of the time difference axis 421 and the distance axis 422 are not shown for the sake of simplification, but the same applies. Needless to say.
In addition, although these coordinate points are provided for ease of explanation in the monitoring system X according to the embodiment of the present invention, they may not actually be present.

また、各画像が背後に隠れると見えなくなるため、3次元空間内に表示する画像のスケーリングは自由に変更可能である。さらに、単純な斜投影(平行投影)ではなく、背後に隠れた軸をみるために、回転しても距離の関係が把握しやすく表示する「回転する斜投影」での表示を行うことができる。この回転する斜投影での表示についての詳細は、後述する。
時間差軸回転ボタン451は、時間差軸421を回転させるための操作ボタンである。本ボタンを操作すると、時間差軸を中心軸として3次元空間が回転し、表示を変化させることができる。ここでは図示しないが、ボタン近傍へ、文字表示や、図形的表現等により回転量を示すこともできる。
距離軸回転ボタン452は、距離軸422を回転させるための操作ボタンである。本ボタンを操作すると、距離軸を中心軸として3次元空間が回転し、表示が変化する。本発明の実施の形態に係る監視システムXでは図示しないが、ボタン近傍への文字表示や、図形的表現等により回転量を示してもよい。
類似度軸回転ボタン453は、類似度軸423を回転させるための操作ボタンである。本ボタンを操作すると、類似度軸を中心軸として3次元空間が回転し、表示が変化する。本発明の実施の形態に係る監視システムXでは図示しないが、ボタン近傍への文字表示や、図形的表現等により回転量を示してもよい。
これらの各軸回転ボタンを操作した場合の表示の変化については後述する。なお、回転する斜投影ではなく、3次元を立体的に表示できるような変換をしてもよい。
In addition, since each image disappears when it is hidden behind, the scaling of the image displayed in the three-dimensional space can be freely changed. Furthermore, instead of simple oblique projection (parallel projection), it is possible to perform display with “rotating oblique projection” in which the relationship between the distances can be easily grasped even if rotated because the axis hidden behind is seen. . Details of the display in the rotating oblique projection will be described later.
The time difference axis rotation button 451 is an operation button for rotating the time difference axis 421. When this button is operated, the three-dimensional space is rotated about the time difference axis as a central axis, and the display can be changed. Although not shown here, the amount of rotation can also be indicated near the button by character display, graphic expression, or the like.
The distance axis rotation button 452 is an operation button for rotating the distance axis 422. When this button is operated, the three-dimensional space rotates around the distance axis as a central axis, and the display changes. Although not shown in the monitoring system X according to the embodiment of the present invention, the rotation amount may be indicated by character display near the button, graphic expression, or the like.
The similarity axis rotation button 453 is an operation button for rotating the similarity axis 423. When this button is operated, the three-dimensional space is rotated about the similarity axis as a central axis, and the display changes. Although not shown in the monitoring system X according to the embodiment of the present invention, the rotation amount may be indicated by character display near the button, graphic expression, or the like.
Changes in display when these axis rotation buttons are operated will be described later. Instead of rotating oblique projection, conversion may be performed so that three dimensions can be displayed stereoscopically.

表示範囲指定ボタン461、462は、検索結果として表示させる範囲の最大値、最小値を与える操作ボタンである。ボタンの形状は、軸を中心とした図形的表現のボタンを用いることができる。図3では、軸を中心点とした円として表現する例について示している。
本発明の実施の形態に係る監視システムXでは、表示範囲指定ボタン461を類似度値S1より大きな値の座標に表示し、表示範囲指定ボタン462が類似度値S5より小さな値の箇所に表示する。
このため、例えば、表示範囲指定ボタン462を類似度値S4とS3の間にドラッグ操作により移動させた場合、検索結果画像411〜415のうち、表示する検索結果画像は検索結果画像411〜413となる。
The display range designation buttons 461 and 462 are operation buttons for giving a maximum value and a minimum value of a range to be displayed as a search result. As the shape of the button, a button with a graphical expression centered on the axis can be used. FIG. 3 shows an example of expressing as a circle with the axis as the center point.
In the monitoring system X according to the embodiment of the present invention, the display range designation button 461 is displayed at coordinates having a value larger than the similarity value S1, and the display range designation button 462 is displayed at a location having a value smaller than the similarity value S5. .
Therefore, for example, when the display range designation button 462 is moved between the similarity values S4 and S3 by a drag operation, the search result images to be displayed among the search result images 411 to 415 are the search result images 411 to 413. Become.

また、表示範囲指定ボタンは、その設置位置により、ボタン形状を変化して表示することができる。
たとえば、検索結果3D表示部113は、設置位置の原点からの距離により、表示円の半径を求め、原点から離れるほど見えにくいため、例えば大きな半径の円にて表示することができる。
なお、説明の簡略化のため、類似度軸423に対してのみ、表示範囲指定ボタンを図示したが、時間差軸や距離軸にも表示することができる。その場合の操作方法や操作による検索結果画像表示の変化は、上述した表示範囲指定ボタン461、462と同様である。
The display range designation button can be displayed with the button shape changed depending on the installation position.
For example, the search result 3D display unit 113 obtains the radius of the display circle based on the distance from the origin of the installation position, and can be displayed, for example, as a circle with a large radius because it is less visible as it moves away from the origin.
For simplification of explanation, the display range designation button is shown only for the similarity axis 423, but it can also be displayed on the time difference axis and the distance axis. The change in search result image display due to the operation method and operation in that case is the same as that of the display range designation buttons 461 and 462 described above.

このような検索結果表示方式により、検索画像と検索結果画像間における、類似度や時間差、距離の関係を、同時に視覚的に把握することが可能になる。
たとえば、検索結果画像411について着目すると、検索画像311に対し、類似度が極めて高く、時間差は大きめであり、距離は極めて小さいということが一目で把握することができ、監視画像の視認性を飛躍的に高めることができる。
By such a search result display method, it is possible to visually grasp the relationship between the similarity, the time difference, and the distance between the search image and the search result image at the same time.
For example, when focusing on the search result image 411, it is possible to grasp at a glance that the similarity to the search image 311 is extremely high, the time difference is large, and the distance is very small, and the visibility of the monitoring image is greatly increased. Can be enhanced.

(回転する斜投影での画面表示)
次に、時間差軸421、距離軸422、類似度軸423の3軸で構成される3次元空間と、回転を可能とする斜投影での画面表示との関係について、図4の(a)〜(c)を参照して説明する。
(Screen display with rotating oblique projection)
Next, regarding the relationship between the three-dimensional space composed of the three axes of the time difference axis 421, the distance axis 422, and the similarity axis 423, and the screen display in oblique projection that enables rotation, FIG. This will be described with reference to (c).

まず、図4(a)を参照すると、表示面601は、端末装置の画面を模式的に表したものである。
3次元空間602は、時間差軸421、距離軸422、類似度軸423から構成される空間であり、本発明の実施の形態に係る監視システムXでは、軸長が全て同じ立方体として示すことができる。
図2や図3に示した画面検索結果表示領域405に表示される検索結果は、この3次元空間602を表示面601に平行投影したものを、画面表示したものになる。
First, referring to FIG. 4A, the display surface 601 schematically represents the screen of the terminal device.
The three-dimensional space 602 is a space composed of a time difference axis 421, a distance axis 422, and a similarity axis 423. In the monitoring system X according to the embodiment of the present invention, all the axial lengths can be shown as cubes. .
The search results displayed in the screen search result display area 405 shown in FIGS. 2 and 3 are obtained by projecting the three-dimensional space 602 on the display surface 601 and displaying it on the screen.

従って、例えば、図4(b)を参照すると、各軸の軸回転ボタンを、時間差軸421と距離軸422で構成される面603と表示面601を平行になるように操作した場合について示している。
図5を参照して、この操作により端末装置103に表示される画面例について説明する。図5は模式図であり、図2や図3に示した一部の構成部品表示や符号表示を省略する。
図5に示した画面表示をさせた場合、時間差と距離についての検索結果画像の関係が視覚的に把握可能となる。この状態においては、類似度に対する表示範囲指定ボタン461、462は、同心円として表示される。この場合に、表示範囲を指定する場合には、円線上を円径方向にドラッグし、半径を変化させることにより実行する。
Therefore, for example, referring to FIG. 4B, an axis rotation button of each axis is shown for a case where the display surface 601 and the surface 603 constituted by the time difference axis 421 and the distance axis 422 are operated in parallel. Yes.
With reference to FIG. 5, the example of a screen displayed on the terminal device 103 by this operation is demonstrated. FIG. 5 is a schematic diagram, and some of the component parts and reference signs shown in FIGS. 2 and 3 are omitted.
When the screen display shown in FIG. 5 is displayed, the relationship between the search result images with respect to the time difference and the distance can be visually grasped. In this state, the display range designation buttons 461 and 462 for the similarity are displayed as concentric circles. In this case, when the display range is designated, it is executed by dragging on the circle line in the circle diameter direction and changing the radius.

同様に、例えば、図4(c)を参照すると、各軸の軸回転ボタンを、時間差軸421と類似度軸423で構成される面604と表示面601を平行になるように操作した場合について示している。
図6を参照して、端末装置103に表示される画面例を説明する。図6は模式図であり、図2や図3に示した一部の構成部品表示や符号表示を省略する。
図6に示した画面表示をさせた場合、時間差と類似度についての検索結果画像の関係が視覚的に把握可能となる。この状態においては、距離に対する表示範囲指定ボタンは、同心円として表示される。この場合に、表示範囲を指定する場合には、円線上を円径方向にドラッグし、半径を変化させることにより実行する。
Similarly, for example, referring to FIG. 4C, a case where the axis rotation button of each axis is operated so that the surface 604 constituted by the time difference axis 421 and the similarity axis 423 and the display surface 601 are parallel to each other. Show.
An example of a screen displayed on the terminal device 103 will be described with reference to FIG. FIG. 6 is a schematic diagram, and a part of component display and symbol display shown in FIGS. 2 and 3 are omitted.
When the screen display shown in FIG. 6 is displayed, the relationship between the time difference and the search result image regarding the similarity can be visually grasped. In this state, the display range designation button for the distance is displayed as a concentric circle. In this case, when the display range is designated, it is executed by dragging on the circle line in the circle diameter direction and changing the radius.

図5や図6に示したように、検索結果画像は、画像中心点を原点として、常に表示面601と平行となるように表示することが好適である。この「回転する斜投影」により、距離感を保ったままで、各軸の距離の関係を性格に把握することができる。   As shown in FIGS. 5 and 6, the search result image is preferably displayed so as to be always parallel to the display surface 601 with the image center point as the origin. By this “rotating oblique projection”, it is possible to grasp the relationship between the distances of the respective axes while maintaining a sense of distance.

〔本発明の実施の形態に係る検索結果表示方法の処理〕
次に、図7〜図9を参照して、人物検索機能を備えた監視システムXで、本発明の実施の形態に係る検索結果表示方法を実行する際の処理の流れについて説明する。
この検索結果表示方法の処理は、主に(1)録画処理、(2)映像再生処理、(3)人物検索処理の3つを含んで構成される。
[Processing of Search Result Display Method According to Embodiment of Present Invention]
Next, with reference to FIGS. 7 to 9, the flow of processing when the search result display method according to the embodiment of the present invention is executed in the monitoring system X having the person search function will be described.
The processing of the search result display method mainly includes three processes: (1) recording processing, (2) video reproduction processing, and (3) person search processing.

(録画処理)
まず、図7を参照して、(1)の録画処理について詳しく説明する。
録画処理は、撮像装置201と録画装置202間の通信を含んだ処理にて実行され、撮像装置201で撮像した画像データを録画装置202に記録する。
(Recording process)
First, the recording process (1) will be described in detail with reference to FIG.
The recording process is executed by a process including communication between the imaging device 201 and the recording device 202, and the image data captured by the imaging device 201 is recorded in the recording device 202.

ここで、最初に、録画装置202側の処理の流れを説明する。
ステップS1000において、録画装置202の制御部は、画像受信待機処理を行う。
録画装置202の制御部は、画像データの着信を検知すると、処理をステップS1001に進める。
Here, first, the flow of processing on the recording apparatus 202 side will be described.
In step S1000, the control unit of the recording device 202 performs an image reception standby process.
When the control unit of the recording device 202 detects the arrival of image data, the control unit proceeds to step S1001.

ステップS1001において、録画装置202の制御部は、撮像装置201からの画像データを含むデータを受信する受信処理を行う。受信するデータは、画像データの他に、撮影時刻情報、撮影位置情報等の画像の属性のデータを含んで構成される。   In step S <b> 1001, the control unit of the recording device 202 performs reception processing for receiving data including image data from the imaging device 201. The received data includes image attribute data such as shooting time information and shooting position information in addition to the image data.

ステップS1002において、録画装置202の制御部は、受信したデータと画像IDを、HDD等の記録媒体に記録する処理を行う。
画像ID(アイデンティフィケーション)とは、後で画像データを取出す為の索引となる情報である。
画像IDには、例えば、録画装置202内でユニークであるように録画開始からフレーム単位で順に振ったフレーム番号を用いることができる。
In step S1002, the control unit of the recording apparatus 202 performs processing for recording the received data and the image ID on a recording medium such as an HDD.
The image ID (identification) is information serving as an index for later retrieving image data.
As the image ID, for example, a frame number assigned in order in units of frames from the start of recording so as to be unique within the recording apparatus 202 can be used.

ステップS1003において、録画装置202の制御部は、受信した画像に対して顔検出処理を行う。顔検出処理は、眼や鼻や口等の顔の主要構成要素の配置、額と眼の濃淡差等の顔の特性を用いた公知の画像認識技術により行う。   In step S1003, the control unit of the recording device 202 performs face detection processing on the received image. The face detection process is performed by a known image recognition technique that uses facial features such as the arrangement of the main components of the face such as the eyes, nose, and mouth, and the difference between the forehead and the eye.

ステップS1004において、録画装置202の制御部は、ステップS1003での顔検出結果の判定処理を行う。
Yes、すなわち顔が検出された場合、録画装置202の制御部は、処理をステップS1005に進める。
No、すなわち検出されなかった場合には、録画装置202の制御部は、処理をステップS1000に戻す。
In step S1004, the control unit of the recording apparatus 202 performs a face detection result determination process in step S1003.
If Yes, that is, if a face is detected, the control unit of the recording apparatus 202 advances the process to step S1005.
No, that is, if not detected, the control unit of the recording apparatus 202 returns the process to step S1000.

ステップS1005において、録画装置202の制御部は、ステップS1003での顔検出結果を基に顔の画像領域を算出する。
この顔の画像領域のデータを、以下では顔画像データとよぶ。
In step S1005, the control unit of the recording apparatus 202 calculates a face image area based on the face detection result in step S1003.
This face image area data is hereinafter referred to as face image data.

ステップS1006において、録画装置202の制御部は、算出した顔画像データの画像特徴量を算出する。
画像特徴量とは、画像認識技術を用いて算出される画像の傾向を示す値である。この画像特徴量には、例えば、画像の色分布やエッジパターンの構図分布やそれらの組合せ等を算出して用いることができる。
In step S1006, the control unit of the recording device 202 calculates the image feature amount of the calculated face image data.
The image feature amount is a value indicating the tendency of an image calculated using an image recognition technique. As the image feature amount, for example, an image color distribution, an edge pattern composition distribution, a combination thereof, or the like can be calculated and used.

ステップS1007において、録画装置202の制御部は、算出した画像特徴量を対応する画像IDに従い、HDD等の記録媒体に記録する。この画像特徴量を用いて、後述する類似度情報を計算する。
画像特徴量の記録の完了後、録画装置202の制御部は、処理をステップS1000に戻す。
In step S1007, the control unit of the recording apparatus 202 records the calculated image feature amount on a recording medium such as an HDD in accordance with the corresponding image ID. Using this image feature amount, similarity information described later is calculated.
After completing the recording of the image feature amount, the control unit of the recording device 202 returns the process to step S1000.

次に、撮像装置201の処理の流れを説明する。
ステップS1010において、撮像装置201の制御部は、撮像装置201に備えられたCCDやCMOS等の撮像素子からの撮像画像出力待機を行う。この撮像画像出力は、インターバルタイマ等を用いて、所定の時間毎に行うことも、例えば1/60フレーム等で常に撮像画像出力を行うことができる。
撮像装置201の制御部は、撮像画像出力を検知すると、処理をステップS1011に進む。
Next, a processing flow of the imaging apparatus 201 will be described.
In step S <b> 1010, the control unit of the imaging apparatus 201 waits for a captured image output from an imaging element such as a CCD or CMOS provided in the imaging apparatus 201. This captured image output can be performed every predetermined time using an interval timer or the like, or the captured image output can always be performed at 1/60 frames, for example.
When the control unit of the imaging apparatus 201 detects the output of the captured image, the process proceeds to step S1011.

ステップS1011において、撮像装置201の制御部は、撮像素子から出力された撮像画像をデジタル変換する。   In step S <b> 1011, the control unit of the image capturing apparatus 201 digitally converts the captured image output from the image sensor.

ステップS1012において、撮像装置201の制御部は、デジタル変換した画像の画像データを録画装置202へ、ネットワーク200を介して送信する。
この際に、上述したように画像の撮影時刻情報や撮影位置情報等の各種属性のデータについても、画像データを含むデータとして送信する。
In step S1012, the control unit of the imaging apparatus 201 transmits the image data of the digitally converted image to the recording apparatus 202 via the network 200.
At this time, as described above, data of various attributes such as image capturing time information and image capturing position information are also transmitted as data including image data.

タイミングT1020は、撮像装置201と録画装置202間の通信を表し、ここでは、画像データを含むデータの送信が行われる。   A timing T1020 represents communication between the imaging device 201 and the recording device 202, and here, data including image data is transmitted.

(映像再生処理)
次に、図8を参照して、映像再生処理の流れについて説明する。
映像再生処理は、録画装置202と端末装置103間の通信を含んだ処理にて実行される。そして、録画装置202に記録されている映像を端末装置103で再生する。
(Video playback processing)
Next, the flow of video playback processing will be described with reference to FIG.
The video reproduction process is executed by a process including communication between the recording device 202 and the terminal device 103. Then, the video recorded in the recording device 202 is played back by the terminal device 103.

まず初めに、端末装置103側の処理の流れを説明する。
ステップS1100において、端末装置103の映像再生表示部214は、ユーザの再生操作待機処理を行う。ユーザの再生操作を検知すると、映像再生表示部214は、処理をステップS1101に進める。
First, the flow of processing on the terminal device 103 side will be described.
In step S1100, the video reproduction display unit 214 of the terminal device 103 performs a user reproduction operation standby process. When the user's playback operation is detected, the video playback / display unit 214 advances the process to step S1101.

ステップS1101において、端末装置103の映像再生表示部214は、ユーザの再生操作内容に従って、「映像再生要求」のコマンドを決定する。
映像再生要求は、例えば、順再生や早送りのような再生の種類、順向き再生や逆向き再生等の再生の時間方向、再生の速度等を含んで構成される。
In step S1101, the video playback display unit 214 of the terminal device 103 determines a “video playback request” command according to the playback operation content of the user.
The video playback request includes, for example, a playback type such as forward playback and fast forward, a playback time direction such as forward playback and reverse playback, playback speed, and the like.

ステップS1102において、端末装置103の映像再生表示部214は、決定した映像再生要求のコマンドを送信する処理を行う。   In step S1102, the video playback display unit 214 of the terminal device 103 performs processing for transmitting the determined video playback request command.

タイミングT1120において、映像再生表示部214は、具体的な映像再生要求のコマンドを、ネットワーク200を介して録画装置202へ通信を行う。   At timing T <b> 1120, the video playback display unit 214 communicates a specific video playback request command to the recording device 202 via the network 200.

ステップS1103において、端末装置103の映像再生表示部214は、データの受信待機の処理を行う。データの着信を検知すると、映像再生表示部214は、処理をステップS1104に進める。   In step S1103, the video reproduction display unit 214 of the terminal device 103 performs a data reception standby process. When the incoming data is detected, the video reproduction display unit 214 advances the process to step S1104.

ステップS1104において、端末装置103の映像再生表示部214は、録画装置202からのデータを受信する。
このデータとしては、後述するように、実際に動画像等として再生される画像の配信画像データ、及び映像再生を完了したことを示す映像再生完了通知が含まれる。
In step S <b> 1104, the video reproduction display unit 214 of the terminal device 103 receives data from the recording device 202.
As will be described later, this data includes distribution image data of an image that is actually played back as a moving image and the like, and a video playback completion notification indicating that video playback has been completed.

ステップS1105において、端末装置103の映像再生表示部214は、受信データの内容判定を行う。具体的には、受信データが。配信画像データであったかどうかを判定する。
Yes、すなわち、受信データが配信画像データであった場合、映像再生表示部214は、処理をステップS1106に進める。
No、すなわち、受信データが映像再生完了通知であった場合、処理をステッ1100に戻す。
In step S1105, the video reproduction display unit 214 of the terminal device 103 determines the content of the received data. Specifically, the received data. It is determined whether the image data is distribution image data.
If Yes, that is, if the received data is distribution image data, the video reproduction display unit 214 proceeds with the process to step S1106.
If No, that is, if the received data is a video reproduction completion notification, the process returns to step 1100.

ステップS1106において、端末装置103の映像再生表示部214は、受信した配信画像データを画像化(デコード)して画面上に表示する。
この表示の完了後、映像再生表示部214の制御部は、処理をステップ703に戻す。
In step S1106, the video reproduction display unit 214 of the terminal device 103 images (decodes) the received distribution image data and displays it on the screen.
After this display is completed, the control unit of the video reproduction display unit 214 returns the process to step 703.

次に、録画装置202側の処理の流れを説明する。
ステップS1110において、録画装置202の制御部は、映像再生要求受信待機処理を行う。
ネットワーク200からの、映像再生要求のコマンドの着信を検知すると、録画装置202の制御部は、処理をステップS1111に進める。
Next, the flow of processing on the recording device 202 side will be described.
In step S1110, the control unit of the recording apparatus 202 performs a video reproduction request reception standby process.
When the incoming of a video playback request command from the network 200 is detected, the control unit of the recording apparatus 202 advances the process to step S1111.

ステップS1111において、録画装置202の制御部は、端末装置103からの映像再生要求のコマンドを受信する。   In step S <b> 1111, the control unit of the recording device 202 receives a video playback request command from the terminal device 103.

ステップS1112において、録画装置202の制御部は、映像再生要求を基に映像再生の内容を決定する。
映像再生の内容は、例えば、最初に配信する画像の画像IDや、配信する画像数、次に配信する画像の画像ID、配信タイミング等を含んで構成される。
In step S1112, the control unit of the recording apparatus 202 determines the content of video playback based on the video playback request.
The content of the video reproduction includes, for example, the image ID of the image to be distributed first, the number of images to be distributed, the image ID of the image to be distributed next, the distribution timing, and the like.

ステップS1113において、録画装置202の制御部は、記録媒体から画像データを取出す。取出しには、映像再生内容中の次に配信する画像の画像IDを使用する。   In step S1113, the control unit of the recording device 202 extracts image data from the recording medium. For extraction, the image ID of the image to be distributed next in the video reproduction content is used.

ステップS1114において、録画装置202の制御部は、送信時刻待機を行う。送信時刻は、映像再要求のコマンドと、画像データの配信タイミングを使用する。
送信時刻に達すると、録画装置202の制御部は、処理をステップS1115に進める。
In step S1114, the control unit of the recording device 202 waits for transmission time. The transmission time uses a video re-request command and image data distribution timing.
When the transmission time is reached, the control unit of the recording device 202 advances the process to step S1115.

ステップS1115において、録画装置202の制御部は、取出した画像データを配信画像データとして、ネットワーク200を介して端末装置103へ送信する。   In step S1115, the control unit of the recording device 202 transmits the extracted image data as distribution image data to the terminal device 103 via the network 200.

タイミングT1121では、録画装置202の制御部は、端末装置203との間で、配信画像データの通信を行う。   At timing T <b> 1121, the control unit of the recording device 202 communicates distribution image data with the terminal device 203.

ステップS1116において、録画装置202の制御部は、映像再生の完了判定を行う。
完了判定は先に決定した映像再生内容を満たす画像配信が完了したか否かを判定する。
Yes、すなわち、画像配信が完了と判定した場合には、録画装置202の制御部は、処理をステップS1117に進める。
No、すなわち、画像配信が未完了と判定した場合には、録画装置202の制御部は、処理をステップS1118に進める。
In step S1116, the control unit of the recording device 202 determines completion of video reproduction.
In the completion determination, it is determined whether or not the image distribution satisfying the previously determined video reproduction content has been completed.
If it is Yes, that is, if it is determined that the image distribution is completed, the control unit of the recording device 202 advances the process to step S1117.
No, that is, if it is determined that the image distribution has not been completed, the control unit of the recording device 202 advances the process to step S1118.

ステップS1117において、録画装置202の制御部は、映像再生完了通知を、ネットワーク200を介して端末装置103へ送信する。
送信の完了後、録画装置202の制御部は、処理をステップS1110に戻す。
In step S <b> 1117, the control unit of the recording device 202 transmits a video reproduction completion notification to the terminal device 103 via the network 200.
After the transmission is completed, the control unit of the recording device 202 returns the process to step S1110.

タイミングT1122では、録画装置202の制御部は、映像再生完了通知の通信を行う。   At timing T <b> 1122, the control unit of the recording device 202 performs communication of a video reproduction completion notification.

ステップS1118において、録画装置202の制御部は、映像再生内容を更新する。
この際に更新されるのは、次に配信する画像の画像IDと配信タイミングである。
更新の完了後、録画装置202の制御部は、処理をステップS1113に戻す。
In step S1118, the control unit of the recording apparatus 202 updates the video playback content.
At this time, the image ID and distribution timing of the image to be distributed next are updated.
After completion of the update, the control unit of the recording device 202 returns the process to step S1113.

(人物検索処理)
次に、図9を参照して、人物検索処理の流れについて詳しく説明する。
人物検索処理は、録画装置202と端末装置103間の通信を含んだ処理にて実行され、録画装置202に記録されている映像から探し出された検索結果画像の集合を端末装置103にて検索結果として表示する。
図9で説明する処理の流れの中に、本発明の実施の形態に係る検索結果表示方法も含まれる。
(Person search processing)
Next, the flow of person search processing will be described in detail with reference to FIG.
The person search process is executed in a process including communication between the recording device 202 and the terminal device 103, and the terminal device 103 searches the set of search result images found from the video recorded in the recording device 202. Display as a result.
The search result display method according to the embodiment of the present invention is also included in the processing flow described in FIG.

まず初めに、端末装置103側の処理の流れを説明する。
ステップS900において、端末装置103の検索結果3D表示部113は、ユーザ操作の待機を行う。ユーザが入力部のマウスやキーボード等を操作したことを検知すると、検索結果3D表示部113は、処理をステップS901に進める。
First, the flow of processing on the terminal device 103 side will be described.
In step S900, the search result 3D display unit 113 of the terminal device 103 waits for a user operation. When it is detected that the user has operated the mouse or keyboard of the input unit, the search result 3D display unit 113 advances the process to step S901.

ステップS901において、端末装置103の検索結果3D表示部113は、検知したユーザ操作の内容判定を行う。
ここでは、操作内容を、検索実行操作であるか、それ以外であるかを判定する。ユーザーは、検索実行操作以外の操作としては、軸回転操作や表示範囲指定操作等の操作を行うことができる。
Yes、すなわち、検索実行操作と判定した場合、検索結果3D表示部113は、処理をステップS902に進める。
No、すなわち、軸回転操作や表示範囲指定操作と判定した場合、検索結果3D表示部113は、処理をステップS908に進める
In step S901, the search result 3D display unit 113 of the terminal device 103 determines the content of the detected user operation.
Here, it is determined whether the operation content is a search execution operation or not. The user can perform operations such as an axis rotation operation and a display range designation operation as operations other than the search execution operation.
If it is determined Yes, that is, if the search execution operation is determined, the search result 3D display unit 113 advances the process to step S902.
No, that is, if it is determined that the operation is a shaft rotation operation or a display range designation operation, the search result 3D display unit 113 advances the process to step S908.

ステップS902において、端末装置103の検索要求送信部211は、ネットワーク200を介して検索要求のコマンドを録画装置202に送信する。
検索要求のコマンドは、検索画像表示領域303に表示された検索画像311を含んで構成される。
説明の簡略化の為、本発明の実施の形態に係る監視システムXでは詳細に言及しないが、検索要求に、日や時刻の範囲、検索対象カメラ等の検索条件、検索結果画像の最大表示数等を含む、表示条件等の情報を備えることも可能である。
In step S <b> 902, the search request transmission unit 211 of the terminal device 103 transmits a search request command to the recording device 202 via the network 200.
The search request command includes the search image 311 displayed in the search image display area 303.
For the sake of simplification of explanation, the monitoring system X according to the embodiment of the present invention will not be described in detail, but the search request includes a date and time range, a search condition such as a search target camera, and the maximum display number of search result images. It is also possible to provide information such as display conditions including the above.

タイミングT940では、検索要求送信部211は、検索要求のコマンドの通信を行わう。   At timing T940, the search request transmission unit 211 communicates a search request command.

ステップS903において、端末装置103の検索結果受信部212は、検索結果データの受信待機を行う。
検索結果データの着信を検知すると、検索結果受信部212は、処理をステップS904に進める。
In step S903, the search result receiving unit 212 of the terminal device 103 waits for reception of search result data.
When detecting the arrival of the search result data, the search result receiving unit 212 advances the process to step S904.

ステップS904において、端末装置103の検索結果受信部212は、録画装置202から送信された検索結果データを受信する。
検索結果データは、検索結果画像やその画像の撮影時刻情報、撮影位置情報、後述する類似度情報をそれぞれ1つ以上含んで構成される。
In step S <b> 904, the search result receiving unit 212 of the terminal device 103 receives the search result data transmitted from the recording device 202.
The search result data includes one or more search result images, shooting time information of the images, shooting position information, and similarity information described later.

ステップS905において、端末装置103の検索結果受信部212は、受信データの内容判定を行う。具体的には、受信データが検索結果であるか、検索不能通知であるかを判定する。
Yes、すなわち受信データの内容を検索結果と判定した場合、検索結果受信部212は、処理をステップS906に進める。
No、すなわち検索不能通知と判定した場合、検索結果受信部212は、処理をステップS913に進める。
In step S905, the search result receiving unit 212 of the terminal device 103 determines the content of the received data. Specifically, it is determined whether the received data is a search result or a search impossible notification.
If Yes, that is, if the content of the received data is determined as the search result, the search result receiving unit 212 advances the process to step S906.
If it is determined as No, that is, a search impossible notification, the search result receiving unit 212 advances the process to step S913.

ステップS906において、端末装置103の検索結果3D表示部113は、受信した検索結果に含まれる全ての検索結果画像について、その撮影時刻情報と検索画像311の撮影時刻情報から、時間差を算出し、記憶部のRAMやHDDやフラッシュメモリ上の変数やtempファイル等である一時記憶媒体に記憶する。時間差の算出は、単純な時刻同士の引き算や、引き算の絶対値や、画像IDのフレーム数の差等で求めることが可能である。   In step S906, the search result 3D display unit 113 of the terminal device 103 calculates a time difference for all the search result images included in the received search result from the shooting time information of the search image 311 and the shooting time information of the search image 311 and stores them. Are stored in a temporary storage medium such as a variable on a RAM, HDD, or flash memory, a temp file, or the like. The time difference can be calculated by simple subtraction between times, the absolute value of the subtraction, or the difference in the number of frames of the image ID.

ステップS907において、端末装置103の検索結果3D表示部113は、受信した検索結果に含まれる全ての検索結果画像について、その撮影位置情報と検索画像311の撮影位置情報から、距離を算出し、一時記憶媒体に記憶する。
距離の算出は、例えば、撮影位置情報がGPSによりもたらされる経度緯度であった場合には、一般的な測量計算にて緯度経度から2点の平面直角座標を求め、その2点間距離を求めることが可能である。また例えば、平面地図の座標として与えられる場合には、その2点の座標から2点間距離を求めることが可能である。
In step S907, the search result 3D display unit 113 of the terminal device 103 calculates the distance for all the search result images included in the received search result from the shooting position information and the shooting position information of the search image 311, and temporarily Store in a storage medium.
For example, when the shooting position information is the longitude and latitude provided by the GPS, two plane rectangular coordinates are obtained from the latitude and longitude by a general survey calculation, and the distance between the two points is obtained. It is possible. For example, when given as the coordinates of a plane map, the distance between two points can be obtained from the coordinates of the two points.

ステップS908において、端末装置103の検索結果3D表示部113は、3軸の検索結果表示領域305における表示位置と、これらから求められる表示範囲を算出し、画面表示する。
表示位置は、時間差軸回転ボタン451、距離軸回転ボタン452、類似度軸回転ボタン453用に記憶部に記憶されている回転量を基に算出する。なお、上述のように、この回転量はユーザーによりユーザーインターフェイスを用いて変更可能である。
In step S908, the search result 3D display unit 113 of the terminal device 103 calculates the display position in the three-axis search result display area 305 and the display range obtained from these, and displays them on the screen.
The display position is calculated based on the rotation amount stored in the storage unit for the time difference axis rotation button 451, the distance axis rotation button 452, and the similarity axis rotation button 453. As described above, the amount of rotation can be changed by the user using the user interface.

ステップS909において、端末装置103の検索結果3D表示部113は、ステップS904にて受信した全ての検索結果画像に対して、ステップS910以降の処理を完了したかどうかを判定する。
Yes、すなわち完了と判定した場合、検索結果3D表示部113は、処理をステップS900に戻して、また操作の待機を行う。
No、すなわち未完了と判定した場合、検索結果3D表示部113は、処理をステップS910に進める。
In step S909, the search result 3D display unit 113 of the terminal device 103 determines whether or not the processing after step S910 has been completed for all the search result images received in step S904.
If it is determined Yes, that is, it is determined that the search is completed, the search result 3D display unit 113 returns the process to step S900 and waits for an operation.
If it is determined No, that is, it is determined that the search is not completed, the search result 3D display unit 113 proceeds with the process to step S910.

ステップS910において、端末装置103の検索結果3D表示部113は、検索結果画像の表示判定を行う。
表示判定は、時間差、距離、類似度情報のそれぞれに対し、表示範囲指定ボタンで与えられた指定値との大小を比較して、検索結果表示領域305に表示される表示範囲内か判定を実行する。上述のように、時間差は、ステップS906で算出し、一時記憶媒体に記憶されている。距離は、ステップS907で算出し、一時記憶媒体に記憶されている。また、類似度情報は、録画装置202が後述するステップS925で作成し、ステップS904で受信されて一時記憶媒体に記憶されている。
Yes、すなわち、例えば着目した検索画像311の検索結果画像の、時間差、距離、類似度が全て表示範囲内である場合には、表示と判定し、検索結果3D表示部113は、処理をステップS911に進める。
No、すなわちそれ以外の場合には、非表示と判定し、検索結果3D表示部113は、処理をステップS909に戻す。
In step S910, the search result 3D display unit 113 of the terminal device 103 performs display determination of the search result image.
In the display determination, the time difference, the distance, and the similarity information are each compared with the specified value given by the display range specifying button, and it is determined whether or not the display range is displayed in the search result display area 305. To do. As described above, the time difference is calculated in step S906 and stored in the temporary storage medium. The distance is calculated in step S907 and stored in the temporary storage medium. The similarity information is created by the recording apparatus 202 in step S925 described later, received in step S904, and stored in the temporary storage medium.
Yes, that is, for example, when the time difference, the distance, and the similarity of the search result image of the search image 311 of interest are all within the display range, it is determined to be displayed, and the search result 3D display unit 113 performs the process in step S911. Proceed to
In No, ie, other than that, it determines with non-display, and the search result 3D display part 113 returns a process to step S909.

ステップS911において、端末装置103の検索結果3D表示部113は、検索結果画像の検索結果表示領域305における表示位置を算出する。
表示位置は、ステップS906で算出し一時記憶媒体に記憶されている時間差、ステップS907で算出し一時記憶媒体に記憶されている距離、ステップS904で受信した検索結果に含まれる類似度情報を基に算出する。
In step S911, the search result 3D display unit 113 of the terminal device 103 calculates the display position of the search result image in the search result display area 305.
The display position is based on the time difference calculated in step S906 and stored in the temporary storage medium, the distance calculated in step S907 and stored in the temporary storage medium, and the similarity information included in the search result received in step S904. calculate.

ステップS912において、端末装置103の検索結果3D表示部113は、検索結果画像をステップS911で求めた表示位置を中心座標として、画面表示する。
表示完了後、着目する検索結果画像を一つ進めた上で、検索結果3D表示部113は、処理をステップS909に戻す。
In step S912, the search result 3D display unit 113 of the terminal device 103 displays the search result image on the screen with the display position obtained in step S911 as the center coordinates.
After the display is completed, the search result image of interest is advanced by one, and then the search result 3D display unit 113 returns the process to step S909.

ステップS913において、端末装置103の検索結果3D表示部113は、検索ができない旨を画面表示する。
表示の完了後、検索結果3D表示部113は、処理をステップS900に戻す。
In step S913, the search result 3D display unit 113 of the terminal device 103 displays a screen indicating that the search is not possible.
After the display is completed, the search result 3D display unit 113 returns the process to step S900.

次に、録画装置202側の処理の流れを説明する。
ステップS920において、録画装置202の制御部は、検索要求の受信待機を行う。検索要求の着信を検知すると、録画装置202の制御部は、処理をステップS921に進める。
Next, the flow of processing on the recording device 202 side will be described.
In step S920, the control unit of the recording device 202 waits for reception of a search request. When the incoming search request is detected, the control unit of the recording apparatus 202 advances the process to step S921.

ステップS921において、録画装置202の制御部は、端末装置103から送信された検索要求を受信する。   In step S <b> 921, the control unit of the recording device 202 receives the search request transmitted from the terminal device 103.

ステップS922において、録画装置202の制御部は、受信した検索要求に含まれる検索画像に対して顔検出処理を行う。   In step S922, the control unit of the recording device 202 performs face detection processing on the search image included in the received search request.

ステップS923において、録画装置202の制御部は、ステップS922での顔検出結果の判定を行う。顔検出は公知の技術にて実行する。
Yes、すなわち顔が検出された場合、録画装置202の制御部は、処理をステップS924に進める。
No、すなわち顔が、検出されなかった場合には、録画装置202の制御部は、処理をステップS928に進める。
In step S923, the control unit of the recording apparatus 202 determines the face detection result in step S922. Face detection is performed by a known technique.
If Yes, that is, if a face is detected, the control unit of the recording apparatus 202 advances the process to step S924.
If No, that is, no face is detected, the control unit of the recording apparatus 202 advances the process to step S928.

ステップS924において、録画装置202の制御部は、ステップS922で求めた顔検出結果から、顔の画像領域を算出し、顔画像データを求める。   In step S924, the control unit of the recording apparatus 202 calculates a face image area from the face detection result obtained in step S922, and obtains face image data.

ステップS925において、録画装置202の制御部は、求めた顔画像データの画像特徴量を算出する。算出する画像特徴量の種類や算出方法は従来と同様である。   In step S925, the control unit of the recording apparatus 202 calculates the image feature amount of the obtained face image data. The type and calculation method of the image feature amount to be calculated are the same as the conventional one.

ステップS926において、録画装置202の制御部は、ステップS925で求めた検索画像の画像特徴量を基に検索を実行する。
録画装置202の制御部は、この検索時に、画像データの他に、画像の撮影時刻情報や撮影位置情報、類似度情報等を含んだ検索結果を算出する。
類似度情報を算出としては、所定の重み付けを用いて、例えば、上述の検索画像の画像特徴量と、録画装置202に記録されている各画像の画像特徴量とを比較して、それぞれの画像間の画像特徴量の情報をベクトル量又はスカラー量として算出する。
そして、録画装置202の制御部は、所定の値以上の類似度を備える画像の集合を検索結果として生成する。
録画装置202の制御部の作成する検索結果に含まれる画像の集合は、録画装置202に記録されている各画像を縮小化した画像(サムネイル)を使用する。
In step S926, the control unit of the recording device 202 performs a search based on the image feature amount of the search image obtained in step S925.
At the time of this search, the control unit of the recording device 202 calculates a search result including image capturing time information, image capturing position information, similarity information, and the like in addition to image data.
For calculating the similarity information, for example, the image feature amount of the search image described above is compared with the image feature amount of each image recorded in the recording device 202 by using a predetermined weight. The image feature amount information between them is calculated as a vector amount or a scalar amount.
And the control part of the video recording apparatus 202 produces | generates the collection of an image provided with the similarity more than a predetermined value as a search result.
The set of images included in the search result created by the control unit of the recording device 202 uses an image (thumbnail) obtained by reducing each image recorded in the recording device 202.

ステップS927において、録画装置202の制御部は、ネットワーク200を介して検索結果を端末装置103へ送信する。   In step S <b> 927, the control unit of the recording device 202 transmits the search result to the terminal device 103 via the network 200.

タイミングT941にて、録画装置202の制御部は、検索結果の通信を行う。
送信が完了した後、録画装置202の制御部は、処理をステップS920に戻す。
At timing T941, the control unit of the recording apparatus 202 communicates search results.
After the transmission is completed, the control unit of the recording device 202 returns the process to step S920.

ステップS928において、録画装置202の制御部は、検索不能通知を端末装置103へネットワーク200を介して送信する。
この検索不能通知は、検索した画像に、類似度が所定の値以上の画像を発見できなかったことを示す。
In step S <b> 928, the control unit of the recording device 202 transmits a search impossible notification to the terminal device 103 via the network 200.
This non-searchable notification indicates that an image having a similarity greater than or equal to a predetermined value could not be found in the searched image.

タイミングT941にて、録画装置202の制御部は、検索不能通知の通信を行う。
送信完了後、録画装置202の制御部は、処理をステップS920に戻す。
At timing T <b> 941, the control unit of the recording device 202 performs communication of a search impossible notification.
After the transmission is completed, the control unit of the recording device 202 returns the process to step S920.

以上のように構成することで、以下のような効果を得ることができる。
まず、従来技術1の画像検索方法は、検索結果を画像の類似度により、散布図形式で可視化空間内に「フワフワ」運動させて表示させることができる。
しかしながら、従来技術1においては、類似度と画像特徴量のみを検索画像の結果表示に用いており、カメラの番号順の系列、画像の時系列、類似度の系列といった、監視システムに必要な系列の軸に基づいて表示を行う検索結果表示方法は示されていなかった。
このため、従来技術1で開示されている表示方法を、監視システムの検索結果表示方法に用いると、各画像間の相関関係が把握しづらく、使い勝手が悪いという問題があった。
With the configuration described above, the following effects can be obtained.
First, the image search method of the prior art 1 can display the search result by performing “fluffy” movement in the visualization space in the form of a scatter diagram according to the similarity of the images.
However, in the prior art 1, only the similarity and the image feature amount are used for displaying the result of the search image, and the series necessary for the monitoring system, such as a camera number order series, an image time series, and a similarity series. The search result display method for displaying based on the axis of was not shown.
For this reason, when the display method disclosed in the related art 1 is used for the search result display method of the monitoring system, there is a problem that it is difficult to grasp the correlation between the images and the usability is poor.

これに対して、本発明の実施の形態に係る監視システムXにおける検索結果表示方法では、検索画像に対する類似度差を系列とした類似度軸と、該検索画像に対する距離差を系列とする距離軸と、該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示することができる。
これにより、検索結果の画像の相関関係を、2次元以上の観点から容易に把握することができる。
On the other hand, in the search result display method in the monitoring system X according to the embodiment of the present invention, the similarity axis based on the similarity difference for the search image and the distance axis based on the distance difference for the search image And a search result image can be displayed in a space composed of a time difference axis having a time difference with respect to the search image as a series.
Thereby, the correlation of the image of a search result can be easily grasped from a two-dimensional or higher viewpoint.

また、本発明の実施の形態に係る監視システムXにおける検索結果表示方法は、軸を回転させても距離感覚を容易に把握できる斜投影(平行投影)で表示する。さらに、各軸を回転させることができ、回転しても、距離の比率を保つ「回転する斜投影」にて表示可能である。
これにより、各画像の相関関係が3次元表示を行っても崩れることがなく、各画像間の意味づけを容易に行うことができる。よって、例えば、ある人物が、この場所からその場所に、どのような時間経過を辿って移動したかということを、簡単に把握することができる。
In addition, the search result display method in the monitoring system X according to the embodiment of the present invention displays an oblique projection (parallel projection) in which the sense of distance can be easily grasped even if the axis is rotated. Furthermore, each axis can be rotated, and even if it is rotated, it is possible to display with “rotating oblique projection” that maintains the distance ratio.
Thereby, even if the correlation of each image performs a three-dimensional display, meaning between each image can be performed easily. Therefore, for example, it is possible to easily grasp how much time has passed a person from this place to the place.

さらに、本発明の実施の形態に係る監視システムXにおける検索結果表示方法においては、各軸を回転させた状態で、各軸のどこからどこまでの画像を表示するのかの範囲を設定可能である。
これにより、容易にある画像の各系列での近傍にある、目的の人物の画像を絞り込むことが可能になり、多数の画像から検索するのに必要な画像を容易に発見することができる。
Furthermore, in the search result display method in the monitoring system X according to the embodiment of the present invention, it is possible to set a range of where to display an image on each axis while rotating each axis.
This makes it possible to easily narrow down the images of the target person in the vicinity of each series of certain images, and easily find the images necessary for searching from a large number of images.

なお、説明の簡略化のため、図1においては撮像装置201や録画装置202、端末装置103は各1台の構成で示したが、これらはネットワーク200に対し、複数台の接続が可能である。   For simplification of explanation, FIG. 1 shows the imaging apparatus 201, the recording apparatus 202, and the terminal apparatus 103 as one unit each, but a plurality of these units can be connected to the network 200. .

また本発明の実施の形態に係る監視システムXにおいては、人物検索に関わる顔検出処理や画像特徴量算出処理等を録画装置202上で実行する構成にて示したが、ネットワーク200で接続された録画装置202とは別個の装置にて実行するようにしてもよい。   In the monitoring system X according to the embodiment of the present invention, the face detection process related to person search, the image feature amount calculation process, and the like are shown to be executed on the recording device 202. It may be executed by a device separate from the recording device 202.

また本発明の実施の形態に係る監視システムXにおいては、時間差算出や距離算出を端末装置103におけるステップS906や907の処理要素として示したが、録画装置202側の処理要素とすることも可能である。   Further, in the monitoring system X according to the embodiment of the present invention, the time difference calculation and the distance calculation are shown as processing elements in steps S906 and 907 in the terminal device 103, but it is also possible to use the processing elements on the recording device 202 side. is there.

また本発明の実施の形態に係る監視システムXにおいては、録画装置202で、検索結果を完全に生成完了してから端末装置103側に送信する処理の流れを示したが、検索結果が部分的に生成される毎に端末装置103側に逐次送信する処理の流れであってもよい。   Further, in the monitoring system X according to the embodiment of the present invention, the recording device 202 has shown the flow of processing for transmitting the search result to the terminal device 103 after the search result is completely generated. However, the search result is partially Each time it is generated, it may be a flow of processing for sequentially transmitting to the terminal device 103 side.

また本発明の実施の形態に係る監視システムXにおいては、人物検索を対象に示したが、本発明は人物だけでなく一般的な画像検索にも適用できることはいうまでもない。   In the monitoring system X according to the embodiment of the present invention, the person search is shown. However, it goes without saying that the present invention can be applied not only to a person but also to a general image search.

なお、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。   It should be noted that the configuration and operation of the above-described embodiment are examples, and it is needless to say that the configuration and operation can be appropriately changed and executed without departing from the gist of the present invention.

103 端末装置
113 検索結果3D表示部
200 ネットワーク
201 撮像装置
202 録画装置
203 端末装置
211 検索要求送信部
212 検索結果受信部
213 検索結果表示部
214 映像再生表示部
301 再生映像表示領域
302 映像再生操作領域
303 検索画像表示領域
304 検索実行領域
305 検索結果表示領域
306 検索結果表示順指定領域
311 検索画像
321〜325 検索結果画像
405 検索結果表示領域
411〜415 検索結果画像
421 時間差軸
422 距離軸
423 類似度軸
431〜435 座標点
441〜445 座標点
451 時間差軸回転ボタン
452 距離軸回転ボタン
453 類似度軸回転ボタン
461〜462 表示範囲指定ボタン
601 表示面
602 3次元空間
603〜604 面
X、Y 監視システム
103 terminal device 113 search result 3D display unit 200 network 201 imaging device 202 recording device 203 terminal device 211 search request transmission unit 212 search result reception unit 213 search result display unit 214 video playback display unit 301 playback video display region 302 video playback operation region 303 Search image display area 304 Search execution area 305 Search result display area 306 Search result display order designation area 311 Search image 321 to 325 Search result image 405 Search result display area 411 to 415 Search result image 421 Time difference axis 422 Distance axis 423 Similarity Axis 431-435 Coordinate point 441-445 Coordinate point 451 Time difference axis rotation button 452 Distance axis rotation button 453 Similarity axis rotation button 461-462 Display range designation button 601 Display surface 602 3D space 603-604 Surface X, Y Monitoring system

Claims (2)

撮像装置と、録画装置と、端末装置を備えて類似画像を検索する監視システムにおける検索結果表示方法において、
検索画像に対する類似度差を系列とした類似度軸と、
該検索画像に対する距離差を系列とする距離軸と、
該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示する
ことを特徴とする検索結果表示方法。
In a search result display method in a monitoring system that includes an imaging device, a recording device, and a terminal device to search for similar images,
A similarity axis based on the similarity difference for the search image,
A distance axis having a series of distance differences with respect to the search image;
A search result display method, comprising: displaying a search result image in a space composed of a time difference axis having a time difference with respect to the search image as a series.
撮像装置と、録画装置と、端末装置を備えた類似画像検索システムにおいて、
前記録画装置、又は前記端末装置は、
検索画像に対する類似度差を系列とした類似度軸と、
該検索画像に対する距離差を系列とする距離軸と、
該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示する表示手段を備える
ことを特徴とする監視システム。
In a similar image search system including an imaging device, a recording device, and a terminal device,
The recording device or the terminal device is
A similarity axis based on the similarity difference for the search image,
A distance axis having a series of distance differences with respect to the search image;
A monitoring system comprising: display means for displaying a search result image in a space constituted by a time difference axis having a time difference as a series with respect to the search image.
JP2009003446A 2009-01-09 2009-01-09 Search result displaying method and monitoring system Pending JP2010160733A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009003446A JP2010160733A (en) 2009-01-09 2009-01-09 Search result displaying method and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009003446A JP2010160733A (en) 2009-01-09 2009-01-09 Search result displaying method and monitoring system

Publications (1)

Publication Number Publication Date
JP2010160733A true JP2010160733A (en) 2010-07-22

Family

ID=42577837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009003446A Pending JP2010160733A (en) 2009-01-09 2009-01-09 Search result displaying method and monitoring system

Country Status (1)

Country Link
JP (1) JP2010160733A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171482A (en) * 2012-02-22 2013-09-02 Omron Corp Information management device, information management program, and information management method
JP2020135835A (en) * 2019-02-26 2020-08-31 株式会社富士通アドバンストエンジニアリング Video retrieval program, video retrieval method and video retrieval device
JP7424048B2 (en) 2019-12-25 2024-01-30 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175556A (en) * 1997-12-12 1999-07-02 Sharp Corp Image database device
JP2000029885A (en) * 1998-07-09 2000-01-28 Hitachi Ltd Similar image retrieval method and device
JP2003303333A (en) * 2002-04-12 2003-10-24 Fuji Photo Film Co Ltd Image display control device
WO2005069170A1 (en) * 2004-01-15 2005-07-28 Matsushita Electric Industrial Co., Ltd. Image file list display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175556A (en) * 1997-12-12 1999-07-02 Sharp Corp Image database device
JP2000029885A (en) * 1998-07-09 2000-01-28 Hitachi Ltd Similar image retrieval method and device
JP2003303333A (en) * 2002-04-12 2003-10-24 Fuji Photo Film Co Ltd Image display control device
WO2005069170A1 (en) * 2004-01-15 2005-07-28 Matsushita Electric Industrial Co., Ltd. Image file list display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171482A (en) * 2012-02-22 2013-09-02 Omron Corp Information management device, information management program, and information management method
JP2020135835A (en) * 2019-02-26 2020-08-31 株式会社富士通アドバンストエンジニアリング Video retrieval program, video retrieval method and video retrieval device
JP7227475B2 (en) 2019-02-26 2023-02-22 富士通株式会社 Video search program, video search method, and video search device
JP7424048B2 (en) 2019-12-25 2024-01-30 富士フイルムビジネスイノベーション株式会社 Information processing device and program

Similar Documents

Publication Publication Date Title
JP6006536B2 (en) Information processing program, information processing apparatus, information processing system, and panoramic video display method
US20210390765A1 (en) Output of virtual content
JP7017175B2 (en) Information processing equipment, information processing method, program
JP6529267B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM
JP2010244534A (en) Capture and display of digital image based on related metadata
JP2014183380A (en) Information processing program, information processing device, information processing system, panoramic moving image display method, and data structure of control data
KR20150020526A (en) Automatic digital curation and tagging of action videos
KR20100043138A (en) Image processing device, dynamic image reproduction device, and processing method and program in them
EP3070681A1 (en) Display control device, display control method and program
JP6495538B2 (en) Image content search
JP5910447B2 (en) Image processing apparatus, image processing method, and image processing program
CN109564703B (en) Information processing apparatus, information processing method, and computer-readable storage medium
WO2019208702A1 (en) Free viewpoint image generation method, free viewpoint image display method, free viewpoint image generation device, and display device
WO2018074045A1 (en) Information processing device, information processing method, and program
JP5966834B2 (en) Image processing apparatus, image processing method, and image processing program
JP2013210989A (en) Image processing device, image processing method, and image processing program
EP3449390A1 (en) Augmented media
JP4458886B2 (en) Mixed reality image recording apparatus and recording method
JP2010160733A (en) Search result displaying method and monitoring system
WO2013129188A1 (en) Image processing device, image processing method, and image processing program
JP2009301501A (en) Search result display method
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
JP4371863B2 (en) Playback apparatus and method
JP5920152B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010061221A (en) Device for reproducing three-dimensional moving image, method for searching additional information, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121204