JP2010160733A - Search result displaying method and monitoring system - Google Patents
Search result displaying method and monitoring system Download PDFInfo
- Publication number
- JP2010160733A JP2010160733A JP2009003446A JP2009003446A JP2010160733A JP 2010160733 A JP2010160733 A JP 2010160733A JP 2009003446 A JP2009003446 A JP 2009003446A JP 2009003446 A JP2009003446 A JP 2009003446A JP 2010160733 A JP2010160733 A JP 2010160733A
- Authority
- JP
- Japan
- Prior art keywords
- image
- search
- search result
- display
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、検索結果表示方法、監視システムに係り、特に画像特徴量を使った検索における検索結果表示方法、監視システムに関する。 The present invention relates to a search result display method and a monitoring system, and more particularly to a search result display method and a monitoring system in a search using an image feature amount.
従来から、ホテル、ビル、コンビニエンスストア、金融機関、ダム、又は道路のような不特定多数の人が訪れる施設には、犯罪抑止や事故防止等の目的で、映像監視システムが設置されている。
このような映像監視システムでは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送する。
監視センタに常駐する監視者は、その映像を監視し、目的や必要に応じて、注意をしたり、あるいは映像を録画・保存する。
Conventionally, video surveillance systems have been installed in facilities visited by an unspecified number of people such as hotels, buildings, convenience stores, financial institutions, dams, and roads for the purpose of crime prevention and accident prevention.
In such a video monitoring system, a person or the like to be monitored is photographed by an imaging device such as a camera, and the video is transmitted to a monitoring center such as a management office or a security room.
A monitor resident in the monitoring center monitors the video, and pays attention or records / stores the video according to the purpose and necessity.
この映像監視システムで映像の録画・保存をするための記録媒体として、以前は、ビデオテープ等のシーケンシャル・アクセスの記憶媒体が用いられていた。
しかし、近年では、ハードディスクドライブ(HDD)に代表されるランダムアクセス可能な記憶媒体が、映像監視システムに用いられる事例が増えてきている。
ランダムアクセス可能な記憶媒体は、映像の整理がしやすく、繰り返し使用に強いため、普及が進んでいる。
As a recording medium for recording and storing video in this video surveillance system, a sequential access storage medium such as a video tape has been used in the past.
However, in recent years, an example in which a randomly accessible storage medium represented by a hard disk drive (HDD) is used in a video surveillance system is increasing.
Randomly accessible storage media are becoming popular because they are easy to organize videos and are resistant to repeated use.
さらに、このランダムアクセス可能な記録媒体は、年々、大容量化が進んでいる。
この大容量化により、録画できる映像のデータ量が、飛躍的に増大している。これにより、長時間録画が可能になった。
しかしながら、大量の録画映像を目視でチェックする際の監視者の負担の増加が、問題として顕在化しつつある。
Furthermore, the capacity of this randomly accessible recording medium is increasing year by year.
With this increase in capacity, the amount of video data that can be recorded has increased dramatically. This made it possible to record for a long time.
However, an increase in the burden on the observer when visually checking a large amount of recorded video is becoming a problem.
従来の監視システムにおいては、画像データに埋め込まれた時刻や外部センサ値のテキストデータを検索するテキスト検索機能を備えるものが存在した。
さらに、近年では、画像情報を検索入力情報とする検索機能、いわゆる類似画像検索機能を搭載するシステムが普及してきている。このような画像検索機能のなかでも「人物検索機能」を備えた監視システムがよく用いられるようになってきている。
Some conventional monitoring systems have a text search function for searching text data of time and external sensor values embedded in image data.
Furthermore, in recent years, systems equipped with a search function that uses image information as search input information, that is, a so-called similar image search function, have become widespread. Among such image search functions, a monitoring system having a “person search function” has been frequently used.
人物検索機能とは、ある画像中に映っている人物をユーザが指定すると、その人物と同一人物が映っている他の映像を録画装置内から探し出し、ユーザに一覧提示する機能である。
この際、同一人物判定の手掛かりとして、人物の「顔」の画像が使われることが多い。
The person search function is a function that, when a user designates a person shown in a certain image, searches for other videos showing the same person as that person in the recording apparatus and presents the list to the user.
In this case, a person's “face” image is often used as a clue for determining the same person.
ここで、図10を参照して、顔の画像から人物を検索する人物検索機能を備えた、従来の監視システムYの構成の例について説明する。
監視システムYは、撮像装置201と、録画装置202と、端末装置203とが、ネットワーク200で接続されて構成される。
Here, an example of the configuration of a conventional monitoring system Y having a person search function for searching for a person from a face image will be described with reference to FIG.
The monitoring system Y is configured by connecting an
ネットワーク200は、各装置を相互に接続しデータ通信を行う専用線やイントラネット、インターネット、無線LAN等の通信線である。
撮像装置201は、CCDやCMOS素子等で撮像した画像にデジタル変換処理を行い、変換された画像データを、ネットワーク200を介して録画装置202へ出力するネットワークカメラや監視カメラ等の装置である。撮像装置201は、制御部と、撮像した画像を記憶する記憶部と、ネットワーク接続部とを備えている。
録画装置202は、ネットワーク200を介して撮像装置201より入力された画像データをHDD等の記録媒体に記録するネットワークデジタルレコーダ等の装置である。録画装置202は、制御部と、撮像装置201で撮像した画像データを記憶する記憶部と、画像データを取得して端末装置203に送信するネットワーク接続部とを備えている。また、録画装置202には、人物検索機能も搭載されており、画像認識技術を使って算出した画像特徴量の記録媒体への記録や似た画像特徴量を有する画像の記録媒体からの探索等も行う。
端末装置203は、ネットワーク200を介して録画装置から取得した画像データを、液晶ディスプレイやCRT等のモニタに画面表示するPC等の装置である。端末装置203は、キーボードやマウス等のユーザ入力部を備え、録画装置202に記録された映像の再生操作や動画表示、人物検索の実行操作や結果表示等を行うユーザインタフェースを提供する。
The
The
The
The
端末装置203について、さらに詳しく説明すると、検索要求送信部211、検索結果受信部212、検索結果表示部213、映像再生表示部214を備えて構成される。
検索要求送信部211は、検索要求をネットワーク200を介して録画装置202に送信する部位である。検索要求として送信するデータには、検索したい人物が映った画像が含まれる。以下、この画像を検索画像と呼ぶ。
検索結果受信部212は、検索結果をネットワーク200を介して録画装置202から受信する部位である。検索結果として受信するデータには、録画装置202にて画像検索を実行して得られた画像の集合が含まれる。この画像の集合を構成する個々の画像は、録画装置202に記録された映像から縮小処理等を行って生成する。以降、この個々の画像を検索結果画像と称する。
検索結果表示部213は、検索結果受信部212にて受信した検索結果を液晶ディスプレイ等の表示部に表示する部位である。検索結果表示部213が表示する画面例については後述する。
映像再生表示部214は、録画装置202に記録された映像を再生し、画面表示する処理部である。映像再生表示部214は、ポインティングデバイスやキーボード等である入力部からのユーザによる再生操作を検知して、再生命令への変換や再生命令のネットワーク200を介しての録画装置202への送信、ネットワーク200を介して録画装置202から受信した映像データの画面表示等を行う。
The
The search request transmission unit 211 is a part that transmits a search request to the
The search
The search result display unit 213 is a part that displays the search result received by the search
The video
図11に、従来の人物検索機能を備えたシステムにおける端末装置203に表示される画面例を示す。
再生映像表示領域301は、録画装置202に記録された映像を動画表示する領域である。
映像再生操作領域302は、録画装置202に記録された映像を再生操作する領域である。映像再生操作領域302を構成する各ボタンにはそれぞれ固有の再生種類が割当てられている。図11においては、例えば、左から巻戻し、逆再生、再生停止、順再生、早送りの再生種類が割当てられている。各ボタンを適宜押下することにより、再生映像表示領域301上への動画表示が、ボタンに割当てられた再生種類に切り替わって表示される。
検索画像表示領域303は、検索画像の指定と表示を行う領域である。検索画像表示領域303を構成する検索画像指定ボタンは、押下時に再生映像表示領域301に表示されている画像を検索画像に指定する。検索画像に指定された画像は、検索画像表示領域303上に画面表示される。
検索画像311は、従来の監視システムYにおいて、指定された検索画像である。
検索実行領域304は、検索実行を行う領域である。検索実行領域304を構成する検索実行ボタンは、押下時に検索画像表示領域303にて指定した検索画像による検索を実行する。従来の監視システムYでは図示しなかったが、この検索実行領域304上に検索対象の限定を与える手段、例えば、日時範囲や検索対象カメラ等を指定する手段を備える場合もある。
検索結果表示領域305は、録画装置202から取得した検索結果を表示する領域である。従来の監視システムYにおいて、検索結果表示領域305に表示した検索結果は、検索画像311にて検索を実行し得られた結果である。表示は、検索結果画像を一覧表示することにより実施される。
検索結果画像321〜325は、それぞれ検索結果画像のうちの1つである。表示されたそれぞれの検索結果画像は、ボタン式になっており、そのいずれかを押下すると、再生映像表示領域301の表示映像が押下画像に切替わる。この切替わりを頭出しと称する。
検索結果表示順指定領域306は、検索結果表示領域305への検索結果の一覧表示の表示の順番である「表示順」を指定する領域である。従来の監視システムYにおいては、表示順を、類似度順、時刻順、カメラ順の3種類から指定可能である。
FIG. 11 shows an example of a screen displayed on the
The reproduced
The video playback operation area 302 is an area where a video recorded in the
A search
The search image 311 is a search image designated in the conventional monitoring system Y.
The
A search
The search result display order designation area 306 is an area for designating “display order”, which is the display order of the search result list display in the search
図11においては、検索結果表示領域305に表示された検索結果は、類似度順に基づいて表示されている例を示す。
この類似度順の表示の場合、検索結果表示領域305の最上段左が最も類似度が高く、同段の右に行くほど類似度が低くなり、また、段が下部に進むほど、上段より類似度が低いことを示している。従来の監視システムYにおいては、検索画像311に対し、検索結果画像321が最も類似度が高い画像であり、続いて検索結果画像322、323、324となり、検索結果画像325が検索結果画像の中では最も類似度が低い画像となる。
FIG. 11 shows an example in which the search results displayed in the search
In the case of the display in the order of similarity, the uppermost left of the search
従来の監視システムYでは、同様に、検索結果表示順指定領域306に対し、時刻による順番の指定である時刻順に基づいて行うように指定することができる。このように時刻順で表示順を指定した場合には、検索結果表示領域305の最上段左が最も古い時刻に撮影された画像で、同段の右に行くほど時刻が新しい画像となり、また、段が下部に進むほど、上段より時刻が新しい画像が表示される。
Similarly, in the conventional monitoring system Y, the search result display order designation area 306 can be designated to be performed based on the time order which is the designation of the order by time. In this way, when the display order is specified in the time order, the uppermost left of the search
従来の監視システムYでは、同様に、検索結果表示順指定領域306に対し、カメラ番号による順番の指定であるカメラ順に基づいて行うように指定することができる。このようにカメラ順にした場合には、検索結果表示領域305の最上段左が小さいカメラ番号を有するカメラで撮影された画像で、同段の右に行くほどカメラ番号が大きくカメラで撮影された画像となり、また、段が下部に進むほど、上段よりカメラ番号が大きいカメラで撮影された画像が表示される。
Similarly, in the conventional monitoring system Y, the search result display order designation area 306 can be designated to be performed based on the camera order, which is the order designation by the camera number. When the camera order is set in this way, the upper left of the search
人物検索機能は、録画装置に記録された膨大な検索対象画像中から目的の人物映像への容易な頭出しを提供し、大変便利である。
そして、このように人物検索機能によって同一人物が探せるようになった段階で、探した同一人物が「いつ、どこで」撮影されたのかをユーザーに伝えることが重要である。
さらに、検索に使った検索画像の撮影時刻、撮影場所と、検索結果として得られた検索結果画像のそれとの、時間的相対関係、位置的相対関係が、ユーザにわかり易く表現されることが望ましい。
The person search function is very convenient because it provides easy cueing to a target person image from a large number of search target images recorded in a recording device.
When the same person can be found by the person search function in this way, it is important to tell the user “when and where” the same person who was found was shot.
Furthermore, it is desirable that the temporal relative relationship and the positional relative relationship between the shooting time and shooting location of the search image used for the search and that of the search result image obtained as the search result are expressed in an easy-to-understand manner for the user.
しかしながら、図10を用いて示したように、現状の人物検索機能において、その検索結果は、ある一つの尺度に基づいて、表示順が決定される方式となっている。
上記の例においては、類似度順、時刻順、カメラ順のいずれかの尺度で指定された順番に基づき、検索結果を表示している。図11では、画面の表示の都合上、折り返しを設けているため、2次元風な表示となっているが、本質的にはそれぞれの順番を基にした1次元的な表示であるといえる。
However, as shown in FIG. 10, in the current person search function, the search result is a method in which the display order is determined based on one scale.
In the above example, the search results are displayed based on the order specified by any one of the similarity order, the time order, and the camera order. In FIG. 11, since a wrap is provided for the convenience of screen display, the display is two-dimensional, but it can be said that the display is essentially a one-dimensional display based on each order.
従って、表示順として選択された次元については、その相対関係が視覚的に表現することができる。しかし、他の次元については、検索画像と検索結果画像間においての情報を得ることが難しいという問題があった。
このため、例えば、類似度順で表示された検索結果画像の横に撮影時刻を文字表示するといったことは可能であったが、このような文字表示するだけの表現では、各次元との相関を表現することは難しかった。
よって、類似度と時刻、類似度とカメラ、時刻とカメラ、類似度と時刻とカメラといった、2次元以上の相関を同時に視覚的に表現することができなかった。
Therefore, the relative relationship between the dimensions selected as the display order can be visually expressed. However, for other dimensions, there is a problem that it is difficult to obtain information between the search image and the search result image.
For this reason, for example, it was possible to display the shooting time next to the search result image displayed in the order of similarity, but in such an expression that only displays the character, the correlation with each dimension is shown. It was difficult to express.
Therefore, two-dimensional or more correlations such as similarity and time, similarity and camera, time and camera, similarity and time and camera cannot be visually expressed simultaneously.
そこで、従来の類似画像検索を3次元的に表示する類似画像検索方法として、例えば、特許文献1を参照すると、ユーザが所望する画像との類似度の値に従って、類似度の高い画像は大きく、類似度の低い画像は小さくなるように表示する類似画像検索方法が記載されている(以下、従来技術1とする。)。
また、従来技術1の画像検索方法では、段落〔0016〕等を参照すると、可視化空間210の座標軸を画像特徴量から選び、その軸を一定時間で変更して「フワフワ運動」させることで、各検索条件に応じた検索結果を連続的な変化としてユーザに示すことができる。
従来技術1の類似画像検索方法により、大量の検索結果をユーザにとって散布図のような秩序ある形式で提示することができるという効果が得られる。
Therefore, as a similar image search method for displaying the conventional similar image search three-dimensionally, for example, referring to
Further, in the image search method of the
According to the similar image search method of the
しかしながら、従来技術1においては、類似度と画像特徴量のみを検索画像の結果表示に用いており、カメラの番号順のような監視システムに必要な系列の軸に基づいて表示を行う検索結果表示方法が開示されていなかった。
このため、従来技術1で開示されている表示方法を監視システムの検索結果表示方法に用いると、各画像間の相関関係が把握しづらく、使い勝手が悪いという問題があった。
However, in the
For this reason, when the display method disclosed in the
本発明は、このような状況に鑑みてなされたものであり、上述の課題を解消することを課題とする。 This invention is made | formed in view of such a condition, and makes it a subject to eliminate the above-mentioned subject.
本発明の検索結果表示方法は、撮像装置と、録画装置と、端末装置を備えて類似画像を検索する監視システムにおける検索結果表示方法において、検索画像に対する類似度差を系列とした類似度軸と、該検索画像に対する距離差を系列とする距離軸と、該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示することを特徴とする。
本発明の監視システムは、撮像装置と、録画装置と、端末装置を備えた類似画像検索システムにおいて、前記録画装置、又は前記端末装置は、検索画像に対する類似度差を系列とした類似度軸と、該検索画像に対する距離差を系列とする距離軸と、該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示する表示手段を備えることを特徴とする。
The search result display method of the present invention includes an imaging device, a recording device, and a terminal device, and a search result display method in a monitoring system that searches for similar images. The search result image is displayed in a space constituted by a distance axis having a series of distance differences with respect to the search image and a time difference axis having a series of time differences with respect to the search image.
The monitoring system of the present invention is a similar image search system including an imaging device, a recording device, and a terminal device, wherein the recording device or the terminal device has a similarity axis based on a similarity difference with respect to a search image. And a display means for displaying the search result image in a space constituted by a distance axis having a series of distance differences with respect to the search image and a time difference axis having a series of time differences with respect to the search image.
本発明によれば、映像監視システムの人物検索機能において、検索画像と検索結果画像間における類似度、距離、時間の各系列について、3次元の軸上で同時に表現することで、2次元以上の相関関係を同時に視覚的に把握できる使い勝手のよい結果表示方法を提供することができる。 According to the present invention, in the person search function of the video surveillance system, each sequence of similarity, distance, and time between the search image and the search result image is expressed simultaneously on a three-dimensional axis so that two or more dimensions can be obtained. It is possible to provide an easy-to-use result display method capable of visually grasping the correlation at the same time.
<実施の形態>
〔制御構成〕
図1を参照して、本発明の実施の形態に係る監視システムXの制御構成について説明する。監視システムXは、撮像装置201と、録画装置202と、端末装置103とが、ネットワーク200にて接続されている。この図1において、図10と同一の符号は、従来と同様の機能を提供する部位であることを示す。つまり、撮像装置201と、録画装置202とは、図10の従来の監視システムYと同様の構成要素を示す。
ネットワーク200は、各装置を結ぶ、LAN、光ファイバー、c.link、無線LAN、メッシュネットワーク等のデータ通信可能な回線である。また、ネットワーク200は、専用線、イントラネット、インターネット等のIPネットワーク等を用いてもよい。
録画装置202は画像データをHDD等に記憶して録画する録画装置であり、図10の録画装置202と同様な録画装置である。
端末装置103は、ネットワーク200を介して録画装置202から取得した画像データを、液晶ディスプレイやCRT等の表示部に画面表示するPC/AT互換機やMAC等であるPC(パーソナル・コンピュータ)等の専用の監視端末装置である。端末装置103は、下記で説明する処理の制御を行うCPU等の制御部と、制御部が実行する処理が記載されたプログラムと結果表示用の画像データと画像データの属性と一時データとを含んで記憶するRAM、ROM、HDD、フラッシュメモリ等の記憶部とを備えている。端末装置103は、キーボードやマウス等のユーザ入力部を備え、録画装置202に記録された映像の再生操作や動画表示、人物検索の実行操作や結果表示等を行うユーザインタフェースを提供する。
なお、端末装置103は、通常のOS(オペレーティングシステム)がインストールされたPCの記憶部に記憶したプログラムにより実現してもよい。
さらに、制御部で実行されるプログラムは、各部をハードウェア資源を使用して実現するために用いられてもよく、記憶部に記憶されていても、制御部内のROMやフラッシュメモリ等に記憶されていてもよい。
<Embodiment>
(Control configuration)
With reference to FIG. 1, the control configuration of the monitoring system X according to the embodiment of the present invention will be described. In the monitoring system X, an
The
The
The
The
Furthermore, the program executed by the control unit may be used to implement each unit using hardware resources, and may be stored in a storage unit or a ROM or flash memory in the control unit. It may be.
さらに詳しく説明すると、端末装置103は、従来と同様の検索要求送信部211、検索結果受信部212、映像再生表示部214に加え、検索結果3D表示部113(表示手段)を備えて構成される。
検索結果3D表示部113は、検索結果を画面表示する処理部である。検索結果の表示処理においては、本発明の実施の形態に係る検索結果表示方法が用いられる。検索結果3D表示部113は、特徴量抽出等の高速応答性やSIMD(シングル・インストラクション・マルチプル・データ)形式の多大な演算性能が要求される演算(算出)処理を、各種DSPやGPU(グラフィック・プロセッシング・ユニット)を備えたチップやボード等で処理することができる。また、検索結果3D表示部113は、端末装置103の制御部が実行するプログラムとして実現されていてもよい。
More specifically, the
The search result
〔検索結果表示の画面例〕
次に、図2を参照して、人物検索機能を備えた監視システムXにおいて、本発明の実施の形態に係る検索結果表示方法により端末装置103に表示される画面の例について説明する。この図2においても、図11と同一の符号は同様の機能を提供する領域やボタンである。
図2の画面例では、従来の再生映像表示領域301、映像再生操作領域302、検索画像表示領域303、検索実行領域304に加え、検索結果表示領域405が備えられている。
[Search result display screen example]
Next, an example of a screen displayed on the
In the screen example of FIG. 2, a search
検索結果表示領域405について詳しく説明すると、録画装置202から取得した検索結果を、過去に検索した検索結果と関連付けながら、表示する領域である。
ここでは、検索結果表示領域405に表示した検索結果は、検索画像311で検索を実行して得られた結果の表示例を示している。この表示例は、本発明の実施の形態に係る検索結果表示方法により、検索結果画像を一覧表示することにより得られる。
The search
Here, the search result displayed in the search
検索結果画像411〜415は、それぞれの検索結果画像である。
従来の監視システムYと同様に、表示されたそれぞれの検索結果画像は、ボタンになっている。検索結果3D表示部113は、ユーザーが検索結果画像のいずれかを押下したことを検知すると、再生映像表示領域301の表示映像を押下画像に切替え、頭出しを行う。
Search result images 411 to 415 are respective search result images.
As with the conventional monitoring system Y, each displayed search result image is a button. When the search result
ここで、図3を参照して、検索結果表示領域405の表示を拡大した画面例について説明する。
検索結果画像411〜415は、それぞれ図2と同様の検索結果画像である。
検索結果3D表示部113は、検索結果画像411〜415を、後述する時間差軸421、距離軸422、類似度軸423の3軸で構成される3次元空間内に表示する。この3次元空間としては、図2と図3のように、従来技術1のように実際にアフィン変換等を行わず、単純な斜投影変換で示すことが好適である。これにより、各軸の各系列(尺度)に対する距離感が分かりやすくなり、監視システム内で、各結果画像の関係が分かりやすくなるという効果が得られる。
Here, a screen example in which the display of the search
Search result images 411 to 415 are search result images similar to those in FIG.
The search result
時間差軸421は、検索画像と検索結果画像との撮影時刻の時間差の系列で示す軸である。本発明の実施の形態に係る監視システムXにおいては、図の左から右に行くほど時間差が大きいことを表す。 The time difference axis 421 is an axis indicated by a time difference series of the photographing time between the search image and the search result image. In the monitoring system X according to the embodiment of the present invention, the time difference increases from left to right in the figure.
距離軸422は、検索画像と検索結果画像の撮影位置間の距離の系列を示す軸である。本発明の実施の形態に係る監視システムXにおいては、図の下から上に行くほど距離が大きいことを表す。
ここで撮影位置間の距離とは、カメラ間の距離と同義であり、カメラ間の距離には、GPSや地図などから求めた緯度経度に基づき算出できる直線距離や、測量等により予め求めておく道のり距離などを使用する。距離の値は、メートル法に基づく物理的な値を使用するのが一般的であるが、適当な基準値、例えば、全カメラ間における最小距離を基準値1とするような論理的な値を使用してもよい。また、地形の上下等を考慮して、徒歩で移動できる距離のような距離を仕様してもよい。
The
Here, the distance between the shooting positions is synonymous with the distance between the cameras. The distance between the cameras is obtained in advance by a linear distance that can be calculated based on latitude and longitude obtained from GPS, a map, or the like, or by surveying. Use the distance. The physical value based on the metric system is generally used as the distance value, but an appropriate reference value, for example, a logical value with the minimum distance between all cameras as the
類似度軸423は、検索画像と検索結果画像の類似度を示す軸である。本発明の実施の形態に係る監視システムXにおいては、図の左下から右上に行くほど類似度が小さい、すなわち、検索画像と検索結果画像が似ていないことを表す。
The
座標点431〜435は、時間差軸421と類似度軸423で構成される座標平面上にプロットされた座標点である。
座標点431〜435はそれぞれ、検索結果画像411〜415と対応関係にある。
すなわち、本発明の実施の形態に係る監視システムXにおいて、検索結果画像411は、座標点431に対応し、検索画像に対する時間差としてΔT3、類似度としてS1の値を持つことを表している。
同様に、検索結果画像412は座標点432に対応し、検索画像に対する時間差としてΔT5、類似度としてS2の値を持つことを表している。
また、検索結果画像413は座標点433に対応し、検索画像に対する時間差としてΔT1、類似度としてS3の値を持つことを表している。
また、検索結果画像414は座標点434に対応し、検索画像に対する時間差としてΔT2、類似度としてS4の値を持つことを表している。
また、検索結果画像415は座標点435に対応し、検索画像に対する時間差としてΔT4、類似度としてS5の値を持つことを表している。
The coordinate points 431 to 435 are coordinate points plotted on a coordinate plane constituted by the time difference axis 421 and the
The coordinate points 431 to 435 are in correspondence with the search result images 411 to 415, respectively.
That is, in the monitoring system X according to the embodiment of the present invention, the search result image 411 corresponds to the coordinate point 431, and represents that the time difference with respect to the search image is ΔT3 and the similarity is S1.
Similarly, the search result image 412 corresponds to the coordinate
Further, the
The
Further, the
座標点441〜445は、距離軸422と類似度軸423で構成される座標平面上にプロットされた座標点である。
座標点441〜445はそれぞれ、検索結果画像411〜415と対応関係にある。すなわち、本発明の実施の形態に係る監視システムXにおいて、検索結果画像411は座標点441に対応し、検索画像に対する距離としてΔD1、類似度としてS1の値を持つ。
同様に、検索結果画像412は座標点442に対応し、検索画像に対する距離としてΔD5、類似度としてS2の値を持つことを表している。
また、検索結果画像413は座標点443に対応し、検索画像に対する距離としてΔD2、類似度としてS3の値を持つことを表している。
また、検索結果画像414は座標点444に対応し、検索画像に対する距離としてΔD4、類似度としてS4の値を持つことを表している。
また、検索結果画像415は座標点445に対応し、検索画像に対する距離としてΔD3、類似度としてS5の値を持つことを表している。
The coordinate points 441 to 445 are coordinate points plotted on a coordinate plane constituted by the
The coordinate points 441 to 445 are in correspondence with the search result images 411 to 415, respectively. That is, in the monitoring system X according to the embodiment of the present invention, the search result image 411 corresponds to the coordinate point 441, and has a value of ΔD1 as the distance to the search image and a value of S1 as the similarity.
Similarly, the search result image 412 corresponds to the coordinate
The
The
Further, the
なお、本発明の実施の形態に係る監視システムXにおいては、図の簡略化のため、時間差軸421と距離軸422で構成される座標平面上にプロットされた座標点を図示しないが、同様であることは言うまでもない。
また、これらの座標点は、本発明の実施の形態に係る監視システムXでは、説明の容易さのため設けたが、実際にはなくてもよい。
In the monitoring system X according to the embodiment of the present invention, the coordinate points plotted on the coordinate plane composed of the time difference axis 421 and the
In addition, although these coordinate points are provided for ease of explanation in the monitoring system X according to the embodiment of the present invention, they may not actually be present.
また、各画像が背後に隠れると見えなくなるため、3次元空間内に表示する画像のスケーリングは自由に変更可能である。さらに、単純な斜投影(平行投影)ではなく、背後に隠れた軸をみるために、回転しても距離の関係が把握しやすく表示する「回転する斜投影」での表示を行うことができる。この回転する斜投影での表示についての詳細は、後述する。
時間差軸回転ボタン451は、時間差軸421を回転させるための操作ボタンである。本ボタンを操作すると、時間差軸を中心軸として3次元空間が回転し、表示を変化させることができる。ここでは図示しないが、ボタン近傍へ、文字表示や、図形的表現等により回転量を示すこともできる。
距離軸回転ボタン452は、距離軸422を回転させるための操作ボタンである。本ボタンを操作すると、距離軸を中心軸として3次元空間が回転し、表示が変化する。本発明の実施の形態に係る監視システムXでは図示しないが、ボタン近傍への文字表示や、図形的表現等により回転量を示してもよい。
類似度軸回転ボタン453は、類似度軸423を回転させるための操作ボタンである。本ボタンを操作すると、類似度軸を中心軸として3次元空間が回転し、表示が変化する。本発明の実施の形態に係る監視システムXでは図示しないが、ボタン近傍への文字表示や、図形的表現等により回転量を示してもよい。
これらの各軸回転ボタンを操作した場合の表示の変化については後述する。なお、回転する斜投影ではなく、3次元を立体的に表示できるような変換をしてもよい。
In addition, since each image disappears when it is hidden behind, the scaling of the image displayed in the three-dimensional space can be freely changed. Furthermore, instead of simple oblique projection (parallel projection), it is possible to perform display with “rotating oblique projection” in which the relationship between the distances can be easily grasped even if rotated because the axis hidden behind is seen. . Details of the display in the rotating oblique projection will be described later.
The time difference axis rotation button 451 is an operation button for rotating the time difference axis 421. When this button is operated, the three-dimensional space is rotated about the time difference axis as a central axis, and the display can be changed. Although not shown here, the amount of rotation can also be indicated near the button by character display, graphic expression, or the like.
The distance
The similarity axis rotation button 453 is an operation button for rotating the
Changes in display when these axis rotation buttons are operated will be described later. Instead of rotating oblique projection, conversion may be performed so that three dimensions can be displayed stereoscopically.
表示範囲指定ボタン461、462は、検索結果として表示させる範囲の最大値、最小値を与える操作ボタンである。ボタンの形状は、軸を中心とした図形的表現のボタンを用いることができる。図3では、軸を中心点とした円として表現する例について示している。
本発明の実施の形態に係る監視システムXでは、表示範囲指定ボタン461を類似度値S1より大きな値の座標に表示し、表示範囲指定ボタン462が類似度値S5より小さな値の箇所に表示する。
このため、例えば、表示範囲指定ボタン462を類似度値S4とS3の間にドラッグ操作により移動させた場合、検索結果画像411〜415のうち、表示する検索結果画像は検索結果画像411〜413となる。
The display range designation buttons 461 and 462 are operation buttons for giving a maximum value and a minimum value of a range to be displayed as a search result. As the shape of the button, a button with a graphical expression centered on the axis can be used. FIG. 3 shows an example of expressing as a circle with the axis as the center point.
In the monitoring system X according to the embodiment of the present invention, the display range designation button 461 is displayed at coordinates having a value larger than the similarity value S1, and the display range designation button 462 is displayed at a location having a value smaller than the similarity value S5. .
Therefore, for example, when the display range designation button 462 is moved between the similarity values S4 and S3 by a drag operation, the search result images to be displayed among the search result images 411 to 415 are the search result images 411 to 413. Become.
また、表示範囲指定ボタンは、その設置位置により、ボタン形状を変化して表示することができる。
たとえば、検索結果3D表示部113は、設置位置の原点からの距離により、表示円の半径を求め、原点から離れるほど見えにくいため、例えば大きな半径の円にて表示することができる。
なお、説明の簡略化のため、類似度軸423に対してのみ、表示範囲指定ボタンを図示したが、時間差軸や距離軸にも表示することができる。その場合の操作方法や操作による検索結果画像表示の変化は、上述した表示範囲指定ボタン461、462と同様である。
The display range designation button can be displayed with the button shape changed depending on the installation position.
For example, the search result
For simplification of explanation, the display range designation button is shown only for the
このような検索結果表示方式により、検索画像と検索結果画像間における、類似度や時間差、距離の関係を、同時に視覚的に把握することが可能になる。
たとえば、検索結果画像411について着目すると、検索画像311に対し、類似度が極めて高く、時間差は大きめであり、距離は極めて小さいということが一目で把握することができ、監視画像の視認性を飛躍的に高めることができる。
By such a search result display method, it is possible to visually grasp the relationship between the similarity, the time difference, and the distance between the search image and the search result image at the same time.
For example, when focusing on the search result image 411, it is possible to grasp at a glance that the similarity to the search image 311 is extremely high, the time difference is large, and the distance is very small, and the visibility of the monitoring image is greatly increased. Can be enhanced.
(回転する斜投影での画面表示)
次に、時間差軸421、距離軸422、類似度軸423の3軸で構成される3次元空間と、回転を可能とする斜投影での画面表示との関係について、図4の(a)〜(c)を参照して説明する。
(Screen display with rotating oblique projection)
Next, regarding the relationship between the three-dimensional space composed of the three axes of the time difference axis 421, the
まず、図4(a)を参照すると、表示面601は、端末装置の画面を模式的に表したものである。
3次元空間602は、時間差軸421、距離軸422、類似度軸423から構成される空間であり、本発明の実施の形態に係る監視システムXでは、軸長が全て同じ立方体として示すことができる。
図2や図3に示した画面検索結果表示領域405に表示される検索結果は、この3次元空間602を表示面601に平行投影したものを、画面表示したものになる。
First, referring to FIG. 4A, the display surface 601 schematically represents the screen of the terminal device.
The three-
The search results displayed in the screen search
従って、例えば、図4(b)を参照すると、各軸の軸回転ボタンを、時間差軸421と距離軸422で構成される面603と表示面601を平行になるように操作した場合について示している。
図5を参照して、この操作により端末装置103に表示される画面例について説明する。図5は模式図であり、図2や図3に示した一部の構成部品表示や符号表示を省略する。
図5に示した画面表示をさせた場合、時間差と距離についての検索結果画像の関係が視覚的に把握可能となる。この状態においては、類似度に対する表示範囲指定ボタン461、462は、同心円として表示される。この場合に、表示範囲を指定する場合には、円線上を円径方向にドラッグし、半径を変化させることにより実行する。
Therefore, for example, referring to FIG. 4B, an axis rotation button of each axis is shown for a case where the display surface 601 and the
With reference to FIG. 5, the example of a screen displayed on the
When the screen display shown in FIG. 5 is displayed, the relationship between the search result images with respect to the time difference and the distance can be visually grasped. In this state, the display range designation buttons 461 and 462 for the similarity are displayed as concentric circles. In this case, when the display range is designated, it is executed by dragging on the circle line in the circle diameter direction and changing the radius.
同様に、例えば、図4(c)を参照すると、各軸の軸回転ボタンを、時間差軸421と類似度軸423で構成される面604と表示面601を平行になるように操作した場合について示している。
図6を参照して、端末装置103に表示される画面例を説明する。図6は模式図であり、図2や図3に示した一部の構成部品表示や符号表示を省略する。
図6に示した画面表示をさせた場合、時間差と類似度についての検索結果画像の関係が視覚的に把握可能となる。この状態においては、距離に対する表示範囲指定ボタンは、同心円として表示される。この場合に、表示範囲を指定する場合には、円線上を円径方向にドラッグし、半径を変化させることにより実行する。
Similarly, for example, referring to FIG. 4C, a case where the axis rotation button of each axis is operated so that the
An example of a screen displayed on the
When the screen display shown in FIG. 6 is displayed, the relationship between the time difference and the search result image regarding the similarity can be visually grasped. In this state, the display range designation button for the distance is displayed as a concentric circle. In this case, when the display range is designated, it is executed by dragging on the circle line in the circle diameter direction and changing the radius.
図5や図6に示したように、検索結果画像は、画像中心点を原点として、常に表示面601と平行となるように表示することが好適である。この「回転する斜投影」により、距離感を保ったままで、各軸の距離の関係を性格に把握することができる。 As shown in FIGS. 5 and 6, the search result image is preferably displayed so as to be always parallel to the display surface 601 with the image center point as the origin. By this “rotating oblique projection”, it is possible to grasp the relationship between the distances of the respective axes while maintaining a sense of distance.
〔本発明の実施の形態に係る検索結果表示方法の処理〕
次に、図7〜図9を参照して、人物検索機能を備えた監視システムXで、本発明の実施の形態に係る検索結果表示方法を実行する際の処理の流れについて説明する。
この検索結果表示方法の処理は、主に(1)録画処理、(2)映像再生処理、(3)人物検索処理の3つを含んで構成される。
[Processing of Search Result Display Method According to Embodiment of Present Invention]
Next, with reference to FIGS. 7 to 9, the flow of processing when the search result display method according to the embodiment of the present invention is executed in the monitoring system X having the person search function will be described.
The processing of the search result display method mainly includes three processes: (1) recording processing, (2) video reproduction processing, and (3) person search processing.
(録画処理)
まず、図7を参照して、(1)の録画処理について詳しく説明する。
録画処理は、撮像装置201と録画装置202間の通信を含んだ処理にて実行され、撮像装置201で撮像した画像データを録画装置202に記録する。
(Recording process)
First, the recording process (1) will be described in detail with reference to FIG.
The recording process is executed by a process including communication between the
ここで、最初に、録画装置202側の処理の流れを説明する。
ステップS1000において、録画装置202の制御部は、画像受信待機処理を行う。
録画装置202の制御部は、画像データの着信を検知すると、処理をステップS1001に進める。
Here, first, the flow of processing on the
In step S1000, the control unit of the
When the control unit of the
ステップS1001において、録画装置202の制御部は、撮像装置201からの画像データを含むデータを受信する受信処理を行う。受信するデータは、画像データの他に、撮影時刻情報、撮影位置情報等の画像の属性のデータを含んで構成される。
In step S <b> 1001, the control unit of the
ステップS1002において、録画装置202の制御部は、受信したデータと画像IDを、HDD等の記録媒体に記録する処理を行う。
画像ID(アイデンティフィケーション)とは、後で画像データを取出す為の索引となる情報である。
画像IDには、例えば、録画装置202内でユニークであるように録画開始からフレーム単位で順に振ったフレーム番号を用いることができる。
In step S1002, the control unit of the
The image ID (identification) is information serving as an index for later retrieving image data.
As the image ID, for example, a frame number assigned in order in units of frames from the start of recording so as to be unique within the
ステップS1003において、録画装置202の制御部は、受信した画像に対して顔検出処理を行う。顔検出処理は、眼や鼻や口等の顔の主要構成要素の配置、額と眼の濃淡差等の顔の特性を用いた公知の画像認識技術により行う。
In step S1003, the control unit of the
ステップS1004において、録画装置202の制御部は、ステップS1003での顔検出結果の判定処理を行う。
Yes、すなわち顔が検出された場合、録画装置202の制御部は、処理をステップS1005に進める。
No、すなわち検出されなかった場合には、録画装置202の制御部は、処理をステップS1000に戻す。
In step S1004, the control unit of the
If Yes, that is, if a face is detected, the control unit of the
No, that is, if not detected, the control unit of the
ステップS1005において、録画装置202の制御部は、ステップS1003での顔検出結果を基に顔の画像領域を算出する。
この顔の画像領域のデータを、以下では顔画像データとよぶ。
In step S1005, the control unit of the
This face image area data is hereinafter referred to as face image data.
ステップS1006において、録画装置202の制御部は、算出した顔画像データの画像特徴量を算出する。
画像特徴量とは、画像認識技術を用いて算出される画像の傾向を示す値である。この画像特徴量には、例えば、画像の色分布やエッジパターンの構図分布やそれらの組合せ等を算出して用いることができる。
In step S1006, the control unit of the
The image feature amount is a value indicating the tendency of an image calculated using an image recognition technique. As the image feature amount, for example, an image color distribution, an edge pattern composition distribution, a combination thereof, or the like can be calculated and used.
ステップS1007において、録画装置202の制御部は、算出した画像特徴量を対応する画像IDに従い、HDD等の記録媒体に記録する。この画像特徴量を用いて、後述する類似度情報を計算する。
画像特徴量の記録の完了後、録画装置202の制御部は、処理をステップS1000に戻す。
In step S1007, the control unit of the
After completing the recording of the image feature amount, the control unit of the
次に、撮像装置201の処理の流れを説明する。
ステップS1010において、撮像装置201の制御部は、撮像装置201に備えられたCCDやCMOS等の撮像素子からの撮像画像出力待機を行う。この撮像画像出力は、インターバルタイマ等を用いて、所定の時間毎に行うことも、例えば1/60フレーム等で常に撮像画像出力を行うことができる。
撮像装置201の制御部は、撮像画像出力を検知すると、処理をステップS1011に進む。
Next, a processing flow of the
In step S <b> 1010, the control unit of the
When the control unit of the
ステップS1011において、撮像装置201の制御部は、撮像素子から出力された撮像画像をデジタル変換する。
In step S <b> 1011, the control unit of the
ステップS1012において、撮像装置201の制御部は、デジタル変換した画像の画像データを録画装置202へ、ネットワーク200を介して送信する。
この際に、上述したように画像の撮影時刻情報や撮影位置情報等の各種属性のデータについても、画像データを含むデータとして送信する。
In step S1012, the control unit of the
At this time, as described above, data of various attributes such as image capturing time information and image capturing position information are also transmitted as data including image data.
タイミングT1020は、撮像装置201と録画装置202間の通信を表し、ここでは、画像データを含むデータの送信が行われる。
A timing T1020 represents communication between the
(映像再生処理)
次に、図8を参照して、映像再生処理の流れについて説明する。
映像再生処理は、録画装置202と端末装置103間の通信を含んだ処理にて実行される。そして、録画装置202に記録されている映像を端末装置103で再生する。
(Video playback processing)
Next, the flow of video playback processing will be described with reference to FIG.
The video reproduction process is executed by a process including communication between the
まず初めに、端末装置103側の処理の流れを説明する。
ステップS1100において、端末装置103の映像再生表示部214は、ユーザの再生操作待機処理を行う。ユーザの再生操作を検知すると、映像再生表示部214は、処理をステップS1101に進める。
First, the flow of processing on the
In step S1100, the video
ステップS1101において、端末装置103の映像再生表示部214は、ユーザの再生操作内容に従って、「映像再生要求」のコマンドを決定する。
映像再生要求は、例えば、順再生や早送りのような再生の種類、順向き再生や逆向き再生等の再生の時間方向、再生の速度等を含んで構成される。
In step S1101, the video
The video playback request includes, for example, a playback type such as forward playback and fast forward, a playback time direction such as forward playback and reverse playback, playback speed, and the like.
ステップS1102において、端末装置103の映像再生表示部214は、決定した映像再生要求のコマンドを送信する処理を行う。
In step S1102, the video
タイミングT1120において、映像再生表示部214は、具体的な映像再生要求のコマンドを、ネットワーク200を介して録画装置202へ通信を行う。
At timing T <b> 1120, the video
ステップS1103において、端末装置103の映像再生表示部214は、データの受信待機の処理を行う。データの着信を検知すると、映像再生表示部214は、処理をステップS1104に進める。
In step S1103, the video
ステップS1104において、端末装置103の映像再生表示部214は、録画装置202からのデータを受信する。
このデータとしては、後述するように、実際に動画像等として再生される画像の配信画像データ、及び映像再生を完了したことを示す映像再生完了通知が含まれる。
In step S <b> 1104, the video
As will be described later, this data includes distribution image data of an image that is actually played back as a moving image and the like, and a video playback completion notification indicating that video playback has been completed.
ステップS1105において、端末装置103の映像再生表示部214は、受信データの内容判定を行う。具体的には、受信データが。配信画像データであったかどうかを判定する。
Yes、すなわち、受信データが配信画像データであった場合、映像再生表示部214は、処理をステップS1106に進める。
No、すなわち、受信データが映像再生完了通知であった場合、処理をステッ1100に戻す。
In step S1105, the video
If Yes, that is, if the received data is distribution image data, the video
If No, that is, if the received data is a video reproduction completion notification, the process returns to step 1100.
ステップS1106において、端末装置103の映像再生表示部214は、受信した配信画像データを画像化(デコード)して画面上に表示する。
この表示の完了後、映像再生表示部214の制御部は、処理をステップ703に戻す。
In step S1106, the video
After this display is completed, the control unit of the video
次に、録画装置202側の処理の流れを説明する。
ステップS1110において、録画装置202の制御部は、映像再生要求受信待機処理を行う。
ネットワーク200からの、映像再生要求のコマンドの着信を検知すると、録画装置202の制御部は、処理をステップS1111に進める。
Next, the flow of processing on the
In step S1110, the control unit of the
When the incoming of a video playback request command from the
ステップS1111において、録画装置202の制御部は、端末装置103からの映像再生要求のコマンドを受信する。
In step S <b> 1111, the control unit of the
ステップS1112において、録画装置202の制御部は、映像再生要求を基に映像再生の内容を決定する。
映像再生の内容は、例えば、最初に配信する画像の画像IDや、配信する画像数、次に配信する画像の画像ID、配信タイミング等を含んで構成される。
In step S1112, the control unit of the
The content of the video reproduction includes, for example, the image ID of the image to be distributed first, the number of images to be distributed, the image ID of the image to be distributed next, the distribution timing, and the like.
ステップS1113において、録画装置202の制御部は、記録媒体から画像データを取出す。取出しには、映像再生内容中の次に配信する画像の画像IDを使用する。
In step S1113, the control unit of the
ステップS1114において、録画装置202の制御部は、送信時刻待機を行う。送信時刻は、映像再要求のコマンドと、画像データの配信タイミングを使用する。
送信時刻に達すると、録画装置202の制御部は、処理をステップS1115に進める。
In step S1114, the control unit of the
When the transmission time is reached, the control unit of the
ステップS1115において、録画装置202の制御部は、取出した画像データを配信画像データとして、ネットワーク200を介して端末装置103へ送信する。
In step S1115, the control unit of the
タイミングT1121では、録画装置202の制御部は、端末装置203との間で、配信画像データの通信を行う。
At timing T <b> 1121, the control unit of the
ステップS1116において、録画装置202の制御部は、映像再生の完了判定を行う。
完了判定は先に決定した映像再生内容を満たす画像配信が完了したか否かを判定する。
Yes、すなわち、画像配信が完了と判定した場合には、録画装置202の制御部は、処理をステップS1117に進める。
No、すなわち、画像配信が未完了と判定した場合には、録画装置202の制御部は、処理をステップS1118に進める。
In step S1116, the control unit of the
In the completion determination, it is determined whether or not the image distribution satisfying the previously determined video reproduction content has been completed.
If it is Yes, that is, if it is determined that the image distribution is completed, the control unit of the
No, that is, if it is determined that the image distribution has not been completed, the control unit of the
ステップS1117において、録画装置202の制御部は、映像再生完了通知を、ネットワーク200を介して端末装置103へ送信する。
送信の完了後、録画装置202の制御部は、処理をステップS1110に戻す。
In step S <b> 1117, the control unit of the
After the transmission is completed, the control unit of the
タイミングT1122では、録画装置202の制御部は、映像再生完了通知の通信を行う。
At timing T <b> 1122, the control unit of the
ステップS1118において、録画装置202の制御部は、映像再生内容を更新する。
この際に更新されるのは、次に配信する画像の画像IDと配信タイミングである。
更新の完了後、録画装置202の制御部は、処理をステップS1113に戻す。
In step S1118, the control unit of the
At this time, the image ID and distribution timing of the image to be distributed next are updated.
After completion of the update, the control unit of the
(人物検索処理)
次に、図9を参照して、人物検索処理の流れについて詳しく説明する。
人物検索処理は、録画装置202と端末装置103間の通信を含んだ処理にて実行され、録画装置202に記録されている映像から探し出された検索結果画像の集合を端末装置103にて検索結果として表示する。
図9で説明する処理の流れの中に、本発明の実施の形態に係る検索結果表示方法も含まれる。
(Person search processing)
Next, the flow of person search processing will be described in detail with reference to FIG.
The person search process is executed in a process including communication between the
The search result display method according to the embodiment of the present invention is also included in the processing flow described in FIG.
まず初めに、端末装置103側の処理の流れを説明する。
ステップS900において、端末装置103の検索結果3D表示部113は、ユーザ操作の待機を行う。ユーザが入力部のマウスやキーボード等を操作したことを検知すると、検索結果3D表示部113は、処理をステップS901に進める。
First, the flow of processing on the
In step S900, the search result
ステップS901において、端末装置103の検索結果3D表示部113は、検知したユーザ操作の内容判定を行う。
ここでは、操作内容を、検索実行操作であるか、それ以外であるかを判定する。ユーザーは、検索実行操作以外の操作としては、軸回転操作や表示範囲指定操作等の操作を行うことができる。
Yes、すなわち、検索実行操作と判定した場合、検索結果3D表示部113は、処理をステップS902に進める。
No、すなわち、軸回転操作や表示範囲指定操作と判定した場合、検索結果3D表示部113は、処理をステップS908に進める
In step S901, the search result
Here, it is determined whether the operation content is a search execution operation or not. The user can perform operations such as an axis rotation operation and a display range designation operation as operations other than the search execution operation.
If it is determined Yes, that is, if the search execution operation is determined, the search result
No, that is, if it is determined that the operation is a shaft rotation operation or a display range designation operation, the search result
ステップS902において、端末装置103の検索要求送信部211は、ネットワーク200を介して検索要求のコマンドを録画装置202に送信する。
検索要求のコマンドは、検索画像表示領域303に表示された検索画像311を含んで構成される。
説明の簡略化の為、本発明の実施の形態に係る監視システムXでは詳細に言及しないが、検索要求に、日や時刻の範囲、検索対象カメラ等の検索条件、検索結果画像の最大表示数等を含む、表示条件等の情報を備えることも可能である。
In step S <b> 902, the search request transmission unit 211 of the
The search request command includes the search image 311 displayed in the search
For the sake of simplification of explanation, the monitoring system X according to the embodiment of the present invention will not be described in detail, but the search request includes a date and time range, a search condition such as a search target camera, and the maximum display number of search result images. It is also possible to provide information such as display conditions including the above.
タイミングT940では、検索要求送信部211は、検索要求のコマンドの通信を行わう。 At timing T940, the search request transmission unit 211 communicates a search request command.
ステップS903において、端末装置103の検索結果受信部212は、検索結果データの受信待機を行う。
検索結果データの着信を検知すると、検索結果受信部212は、処理をステップS904に進める。
In step S903, the search
When detecting the arrival of the search result data, the search
ステップS904において、端末装置103の検索結果受信部212は、録画装置202から送信された検索結果データを受信する。
検索結果データは、検索結果画像やその画像の撮影時刻情報、撮影位置情報、後述する類似度情報をそれぞれ1つ以上含んで構成される。
In step S <b> 904, the search
The search result data includes one or more search result images, shooting time information of the images, shooting position information, and similarity information described later.
ステップS905において、端末装置103の検索結果受信部212は、受信データの内容判定を行う。具体的には、受信データが検索結果であるか、検索不能通知であるかを判定する。
Yes、すなわち受信データの内容を検索結果と判定した場合、検索結果受信部212は、処理をステップS906に進める。
No、すなわち検索不能通知と判定した場合、検索結果受信部212は、処理をステップS913に進める。
In step S905, the search
If Yes, that is, if the content of the received data is determined as the search result, the search
If it is determined as No, that is, a search impossible notification, the search
ステップS906において、端末装置103の検索結果3D表示部113は、受信した検索結果に含まれる全ての検索結果画像について、その撮影時刻情報と検索画像311の撮影時刻情報から、時間差を算出し、記憶部のRAMやHDDやフラッシュメモリ上の変数やtempファイル等である一時記憶媒体に記憶する。時間差の算出は、単純な時刻同士の引き算や、引き算の絶対値や、画像IDのフレーム数の差等で求めることが可能である。
In step S906, the search result
ステップS907において、端末装置103の検索結果3D表示部113は、受信した検索結果に含まれる全ての検索結果画像について、その撮影位置情報と検索画像311の撮影位置情報から、距離を算出し、一時記憶媒体に記憶する。
距離の算出は、例えば、撮影位置情報がGPSによりもたらされる経度緯度であった場合には、一般的な測量計算にて緯度経度から2点の平面直角座標を求め、その2点間距離を求めることが可能である。また例えば、平面地図の座標として与えられる場合には、その2点の座標から2点間距離を求めることが可能である。
In step S907, the search result
For example, when the shooting position information is the longitude and latitude provided by the GPS, two plane rectangular coordinates are obtained from the latitude and longitude by a general survey calculation, and the distance between the two points is obtained. It is possible. For example, when given as the coordinates of a plane map, the distance between two points can be obtained from the coordinates of the two points.
ステップS908において、端末装置103の検索結果3D表示部113は、3軸の検索結果表示領域305における表示位置と、これらから求められる表示範囲を算出し、画面表示する。
表示位置は、時間差軸回転ボタン451、距離軸回転ボタン452、類似度軸回転ボタン453用に記憶部に記憶されている回転量を基に算出する。なお、上述のように、この回転量はユーザーによりユーザーインターフェイスを用いて変更可能である。
In step S908, the search result
The display position is calculated based on the rotation amount stored in the storage unit for the time difference axis rotation button 451, the distance
ステップS909において、端末装置103の検索結果3D表示部113は、ステップS904にて受信した全ての検索結果画像に対して、ステップS910以降の処理を完了したかどうかを判定する。
Yes、すなわち完了と判定した場合、検索結果3D表示部113は、処理をステップS900に戻して、また操作の待機を行う。
No、すなわち未完了と判定した場合、検索結果3D表示部113は、処理をステップS910に進める。
In step S909, the search result
If it is determined Yes, that is, it is determined that the search is completed, the search result
If it is determined No, that is, it is determined that the search is not completed, the search result
ステップS910において、端末装置103の検索結果3D表示部113は、検索結果画像の表示判定を行う。
表示判定は、時間差、距離、類似度情報のそれぞれに対し、表示範囲指定ボタンで与えられた指定値との大小を比較して、検索結果表示領域305に表示される表示範囲内か判定を実行する。上述のように、時間差は、ステップS906で算出し、一時記憶媒体に記憶されている。距離は、ステップS907で算出し、一時記憶媒体に記憶されている。また、類似度情報は、録画装置202が後述するステップS925で作成し、ステップS904で受信されて一時記憶媒体に記憶されている。
Yes、すなわち、例えば着目した検索画像311の検索結果画像の、時間差、距離、類似度が全て表示範囲内である場合には、表示と判定し、検索結果3D表示部113は、処理をステップS911に進める。
No、すなわちそれ以外の場合には、非表示と判定し、検索結果3D表示部113は、処理をステップS909に戻す。
In step S910, the search result
In the display determination, the time difference, the distance, and the similarity information are each compared with the specified value given by the display range specifying button, and it is determined whether or not the display range is displayed in the search
Yes, that is, for example, when the time difference, the distance, and the similarity of the search result image of the search image 311 of interest are all within the display range, it is determined to be displayed, and the search result
In No, ie, other than that, it determines with non-display, and the search result
ステップS911において、端末装置103の検索結果3D表示部113は、検索結果画像の検索結果表示領域305における表示位置を算出する。
表示位置は、ステップS906で算出し一時記憶媒体に記憶されている時間差、ステップS907で算出し一時記憶媒体に記憶されている距離、ステップS904で受信した検索結果に含まれる類似度情報を基に算出する。
In step S911, the search result
The display position is based on the time difference calculated in step S906 and stored in the temporary storage medium, the distance calculated in step S907 and stored in the temporary storage medium, and the similarity information included in the search result received in step S904. calculate.
ステップS912において、端末装置103の検索結果3D表示部113は、検索結果画像をステップS911で求めた表示位置を中心座標として、画面表示する。
表示完了後、着目する検索結果画像を一つ進めた上で、検索結果3D表示部113は、処理をステップS909に戻す。
In step S912, the search result
After the display is completed, the search result image of interest is advanced by one, and then the search result
ステップS913において、端末装置103の検索結果3D表示部113は、検索ができない旨を画面表示する。
表示の完了後、検索結果3D表示部113は、処理をステップS900に戻す。
In step S913, the search result
After the display is completed, the search result
次に、録画装置202側の処理の流れを説明する。
ステップS920において、録画装置202の制御部は、検索要求の受信待機を行う。検索要求の着信を検知すると、録画装置202の制御部は、処理をステップS921に進める。
Next, the flow of processing on the
In step S920, the control unit of the
ステップS921において、録画装置202の制御部は、端末装置103から送信された検索要求を受信する。
In step S <b> 921, the control unit of the
ステップS922において、録画装置202の制御部は、受信した検索要求に含まれる検索画像に対して顔検出処理を行う。
In step S922, the control unit of the
ステップS923において、録画装置202の制御部は、ステップS922での顔検出結果の判定を行う。顔検出は公知の技術にて実行する。
Yes、すなわち顔が検出された場合、録画装置202の制御部は、処理をステップS924に進める。
No、すなわち顔が、検出されなかった場合には、録画装置202の制御部は、処理をステップS928に進める。
In step S923, the control unit of the
If Yes, that is, if a face is detected, the control unit of the
If No, that is, no face is detected, the control unit of the
ステップS924において、録画装置202の制御部は、ステップS922で求めた顔検出結果から、顔の画像領域を算出し、顔画像データを求める。
In step S924, the control unit of the
ステップS925において、録画装置202の制御部は、求めた顔画像データの画像特徴量を算出する。算出する画像特徴量の種類や算出方法は従来と同様である。
In step S925, the control unit of the
ステップS926において、録画装置202の制御部は、ステップS925で求めた検索画像の画像特徴量を基に検索を実行する。
録画装置202の制御部は、この検索時に、画像データの他に、画像の撮影時刻情報や撮影位置情報、類似度情報等を含んだ検索結果を算出する。
類似度情報を算出としては、所定の重み付けを用いて、例えば、上述の検索画像の画像特徴量と、録画装置202に記録されている各画像の画像特徴量とを比較して、それぞれの画像間の画像特徴量の情報をベクトル量又はスカラー量として算出する。
そして、録画装置202の制御部は、所定の値以上の類似度を備える画像の集合を検索結果として生成する。
録画装置202の制御部の作成する検索結果に含まれる画像の集合は、録画装置202に記録されている各画像を縮小化した画像(サムネイル)を使用する。
In step S926, the control unit of the
At the time of this search, the control unit of the
For calculating the similarity information, for example, the image feature amount of the search image described above is compared with the image feature amount of each image recorded in the
And the control part of the
The set of images included in the search result created by the control unit of the
ステップS927において、録画装置202の制御部は、ネットワーク200を介して検索結果を端末装置103へ送信する。
In step S <b> 927, the control unit of the
タイミングT941にて、録画装置202の制御部は、検索結果の通信を行う。
送信が完了した後、録画装置202の制御部は、処理をステップS920に戻す。
At timing T941, the control unit of the
After the transmission is completed, the control unit of the
ステップS928において、録画装置202の制御部は、検索不能通知を端末装置103へネットワーク200を介して送信する。
この検索不能通知は、検索した画像に、類似度が所定の値以上の画像を発見できなかったことを示す。
In step S <b> 928, the control unit of the
This non-searchable notification indicates that an image having a similarity greater than or equal to a predetermined value could not be found in the searched image.
タイミングT941にて、録画装置202の制御部は、検索不能通知の通信を行う。
送信完了後、録画装置202の制御部は、処理をステップS920に戻す。
At timing T <b> 941, the control unit of the
After the transmission is completed, the control unit of the
以上のように構成することで、以下のような効果を得ることができる。
まず、従来技術1の画像検索方法は、検索結果を画像の類似度により、散布図形式で可視化空間内に「フワフワ」運動させて表示させることができる。
しかしながら、従来技術1においては、類似度と画像特徴量のみを検索画像の結果表示に用いており、カメラの番号順の系列、画像の時系列、類似度の系列といった、監視システムに必要な系列の軸に基づいて表示を行う検索結果表示方法は示されていなかった。
このため、従来技術1で開示されている表示方法を、監視システムの検索結果表示方法に用いると、各画像間の相関関係が把握しづらく、使い勝手が悪いという問題があった。
With the configuration described above, the following effects can be obtained.
First, the image search method of the
However, in the
For this reason, when the display method disclosed in the
これに対して、本発明の実施の形態に係る監視システムXにおける検索結果表示方法では、検索画像に対する類似度差を系列とした類似度軸と、該検索画像に対する距離差を系列とする距離軸と、該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示することができる。
これにより、検索結果の画像の相関関係を、2次元以上の観点から容易に把握することができる。
On the other hand, in the search result display method in the monitoring system X according to the embodiment of the present invention, the similarity axis based on the similarity difference for the search image and the distance axis based on the distance difference for the search image And a search result image can be displayed in a space composed of a time difference axis having a time difference with respect to the search image as a series.
Thereby, the correlation of the image of a search result can be easily grasped from a two-dimensional or higher viewpoint.
また、本発明の実施の形態に係る監視システムXにおける検索結果表示方法は、軸を回転させても距離感覚を容易に把握できる斜投影(平行投影)で表示する。さらに、各軸を回転させることができ、回転しても、距離の比率を保つ「回転する斜投影」にて表示可能である。
これにより、各画像の相関関係が3次元表示を行っても崩れることがなく、各画像間の意味づけを容易に行うことができる。よって、例えば、ある人物が、この場所からその場所に、どのような時間経過を辿って移動したかということを、簡単に把握することができる。
In addition, the search result display method in the monitoring system X according to the embodiment of the present invention displays an oblique projection (parallel projection) in which the sense of distance can be easily grasped even if the axis is rotated. Furthermore, each axis can be rotated, and even if it is rotated, it is possible to display with “rotating oblique projection” that maintains the distance ratio.
Thereby, even if the correlation of each image performs a three-dimensional display, meaning between each image can be performed easily. Therefore, for example, it is possible to easily grasp how much time has passed a person from this place to the place.
さらに、本発明の実施の形態に係る監視システムXにおける検索結果表示方法においては、各軸を回転させた状態で、各軸のどこからどこまでの画像を表示するのかの範囲を設定可能である。
これにより、容易にある画像の各系列での近傍にある、目的の人物の画像を絞り込むことが可能になり、多数の画像から検索するのに必要な画像を容易に発見することができる。
Furthermore, in the search result display method in the monitoring system X according to the embodiment of the present invention, it is possible to set a range of where to display an image on each axis while rotating each axis.
This makes it possible to easily narrow down the images of the target person in the vicinity of each series of certain images, and easily find the images necessary for searching from a large number of images.
なお、説明の簡略化のため、図1においては撮像装置201や録画装置202、端末装置103は各1台の構成で示したが、これらはネットワーク200に対し、複数台の接続が可能である。
For simplification of explanation, FIG. 1 shows the
また本発明の実施の形態に係る監視システムXにおいては、人物検索に関わる顔検出処理や画像特徴量算出処理等を録画装置202上で実行する構成にて示したが、ネットワーク200で接続された録画装置202とは別個の装置にて実行するようにしてもよい。
In the monitoring system X according to the embodiment of the present invention, the face detection process related to person search, the image feature amount calculation process, and the like are shown to be executed on the
また本発明の実施の形態に係る監視システムXにおいては、時間差算出や距離算出を端末装置103におけるステップS906や907の処理要素として示したが、録画装置202側の処理要素とすることも可能である。
Further, in the monitoring system X according to the embodiment of the present invention, the time difference calculation and the distance calculation are shown as processing elements in steps S906 and 907 in the
また本発明の実施の形態に係る監視システムXにおいては、録画装置202で、検索結果を完全に生成完了してから端末装置103側に送信する処理の流れを示したが、検索結果が部分的に生成される毎に端末装置103側に逐次送信する処理の流れであってもよい。
Further, in the monitoring system X according to the embodiment of the present invention, the
また本発明の実施の形態に係る監視システムXにおいては、人物検索を対象に示したが、本発明は人物だけでなく一般的な画像検索にも適用できることはいうまでもない。 In the monitoring system X according to the embodiment of the present invention, the person search is shown. However, it goes without saying that the present invention can be applied not only to a person but also to a general image search.
なお、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。 It should be noted that the configuration and operation of the above-described embodiment are examples, and it is needless to say that the configuration and operation can be appropriately changed and executed without departing from the gist of the present invention.
103 端末装置
113 検索結果3D表示部
200 ネットワーク
201 撮像装置
202 録画装置
203 端末装置
211 検索要求送信部
212 検索結果受信部
213 検索結果表示部
214 映像再生表示部
301 再生映像表示領域
302 映像再生操作領域
303 検索画像表示領域
304 検索実行領域
305 検索結果表示領域
306 検索結果表示順指定領域
311 検索画像
321〜325 検索結果画像
405 検索結果表示領域
411〜415 検索結果画像
421 時間差軸
422 距離軸
423 類似度軸
431〜435 座標点
441〜445 座標点
451 時間差軸回転ボタン
452 距離軸回転ボタン
453 類似度軸回転ボタン
461〜462 表示範囲指定ボタン
601 表示面
602 3次元空間
603〜604 面
X、Y 監視システム
103
Claims (2)
検索画像に対する類似度差を系列とした類似度軸と、
該検索画像に対する距離差を系列とする距離軸と、
該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示する
ことを特徴とする検索結果表示方法。 In a search result display method in a monitoring system that includes an imaging device, a recording device, and a terminal device to search for similar images,
A similarity axis based on the similarity difference for the search image,
A distance axis having a series of distance differences with respect to the search image;
A search result display method, comprising: displaying a search result image in a space composed of a time difference axis having a time difference with respect to the search image as a series.
前記録画装置、又は前記端末装置は、
検索画像に対する類似度差を系列とした類似度軸と、
該検索画像に対する距離差を系列とする距離軸と、
該検索画像に対する時間差を系列とする時間差軸とから構成される空間に検索結果画像を表示する表示手段を備える
ことを特徴とする監視システム。 In a similar image search system including an imaging device, a recording device, and a terminal device,
The recording device or the terminal device is
A similarity axis based on the similarity difference for the search image,
A distance axis having a series of distance differences with respect to the search image;
A monitoring system comprising: display means for displaying a search result image in a space constituted by a time difference axis having a time difference as a series with respect to the search image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009003446A JP2010160733A (en) | 2009-01-09 | 2009-01-09 | Search result displaying method and monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009003446A JP2010160733A (en) | 2009-01-09 | 2009-01-09 | Search result displaying method and monitoring system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010160733A true JP2010160733A (en) | 2010-07-22 |
Family
ID=42577837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009003446A Pending JP2010160733A (en) | 2009-01-09 | 2009-01-09 | Search result displaying method and monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010160733A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013171482A (en) * | 2012-02-22 | 2013-09-02 | Omron Corp | Information management device, information management program, and information management method |
JP2020135835A (en) * | 2019-02-26 | 2020-08-31 | 株式会社富士通アドバンストエンジニアリング | Video retrieval program, video retrieval method and video retrieval device |
JP7424048B2 (en) | 2019-12-25 | 2024-01-30 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175556A (en) * | 1997-12-12 | 1999-07-02 | Sharp Corp | Image database device |
JP2000029885A (en) * | 1998-07-09 | 2000-01-28 | Hitachi Ltd | Similar image retrieval method and device |
JP2003303333A (en) * | 2002-04-12 | 2003-10-24 | Fuji Photo Film Co Ltd | Image display control device |
WO2005069170A1 (en) * | 2004-01-15 | 2005-07-28 | Matsushita Electric Industrial Co., Ltd. | Image file list display device |
-
2009
- 2009-01-09 JP JP2009003446A patent/JP2010160733A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175556A (en) * | 1997-12-12 | 1999-07-02 | Sharp Corp | Image database device |
JP2000029885A (en) * | 1998-07-09 | 2000-01-28 | Hitachi Ltd | Similar image retrieval method and device |
JP2003303333A (en) * | 2002-04-12 | 2003-10-24 | Fuji Photo Film Co Ltd | Image display control device |
WO2005069170A1 (en) * | 2004-01-15 | 2005-07-28 | Matsushita Electric Industrial Co., Ltd. | Image file list display device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013171482A (en) * | 2012-02-22 | 2013-09-02 | Omron Corp | Information management device, information management program, and information management method |
JP2020135835A (en) * | 2019-02-26 | 2020-08-31 | 株式会社富士通アドバンストエンジニアリング | Video retrieval program, video retrieval method and video retrieval device |
JP7227475B2 (en) | 2019-02-26 | 2023-02-22 | 富士通株式会社 | Video search program, video search method, and video search device |
JP7424048B2 (en) | 2019-12-25 | 2024-01-30 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6006536B2 (en) | Information processing program, information processing apparatus, information processing system, and panoramic video display method | |
US20210390765A1 (en) | Output of virtual content | |
JP7017175B2 (en) | Information processing equipment, information processing method, program | |
JP6529267B2 (en) | INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM | |
JP2010244534A (en) | Capture and display of digital image based on related metadata | |
JP2014183380A (en) | Information processing program, information processing device, information processing system, panoramic moving image display method, and data structure of control data | |
KR20150020526A (en) | Automatic digital curation and tagging of action videos | |
KR20100043138A (en) | Image processing device, dynamic image reproduction device, and processing method and program in them | |
EP3070681A1 (en) | Display control device, display control method and program | |
JP6495538B2 (en) | Image content search | |
JP5910447B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN109564703B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
WO2019208702A1 (en) | Free viewpoint image generation method, free viewpoint image display method, free viewpoint image generation device, and display device | |
WO2018074045A1 (en) | Information processing device, information processing method, and program | |
JP5966834B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2013210989A (en) | Image processing device, image processing method, and image processing program | |
EP3449390A1 (en) | Augmented media | |
JP4458886B2 (en) | Mixed reality image recording apparatus and recording method | |
JP2010160733A (en) | Search result displaying method and monitoring system | |
WO2013129188A1 (en) | Image processing device, image processing method, and image processing program | |
JP2009301501A (en) | Search result display method | |
WO2017022296A1 (en) | Information management device, information management method, image reproduction device and image reproduction method | |
JP4371863B2 (en) | Playback apparatus and method | |
JP5920152B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2010061221A (en) | Device for reproducing three-dimensional moving image, method for searching additional information, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121204 |