JP2004236211A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2004236211A
JP2004236211A JP2003025088A JP2003025088A JP2004236211A JP 2004236211 A JP2004236211 A JP 2004236211A JP 2003025088 A JP2003025088 A JP 2003025088A JP 2003025088 A JP2003025088 A JP 2003025088A JP 2004236211 A JP2004236211 A JP 2004236211A
Authority
JP
Japan
Prior art keywords
image
change
search
unit
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003025088A
Other languages
Japanese (ja)
Other versions
JP4185376B2 (en
Inventor
Shinji Arai
真司 新井
Yuji Nakazawa
裕二 中沢
Teruhide Wada
照秀 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2003025088A priority Critical patent/JP4185376B2/en
Publication of JP2004236211A publication Critical patent/JP2004236211A/en
Application granted granted Critical
Publication of JP4185376B2 publication Critical patent/JP4185376B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system in which a desired image is rapidly searched for, when image retrieval is performed by focusing the attention on the variation of a specified region of an image. <P>SOLUTION: An image to be processed is divided into a plurality of regions. The image is compared with a reference image for each region, to discriminate the presence of variations. The discriminated presence of variations is recorded on a variation table, by associating with the image to be processed. The variation table is stored in a storage means, together with the image to be processed. On this variation table, an image number and a date-and-hour information for identifying the image to be processed is recorded, and further the presence of variations in at least one region and the number of regions which are discriminated that there is variations are recorded, in addition. At image retrieval, by making reference to the variation table, time required for the image retrieval is shortened. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像検索や画像表示を目的として画像を処理する画像処理システムの技術分野に属し、特に、処理対象の画像を複数の領域に分割し、各々の領域毎に基準画像と比較して変化の有無を判別する処理を行う画像処理システムの技術分野に属するものである。
【0002】
【従来の技術】
従来から、大量の画像データを蓄積し、所定の画像を選択して表示させる画像処理システムが広く利用されている。画像処理システムの一形態として、防犯等を目的として、監視カメラにより所定の時間間隔で撮影された多数の画像を記録し、所望の画像を検索する機能を備えた監視システムが知られている。このような監視システムでは、時系列に沿って存在する多数の画像の中から、異常が生じたと判断される画像を探し出して参照することが要望されている。そのため、得られた画像を基準画像と比較して、変化の有無を判別する方法(画像の動き判定)が知られている。かかる方法は、例えば、撮影範囲に人物等の移動物体が存在する場合、画像に変化有りと判別されるため、異常が生じた画像を判断するために利用することができる。
【0003】
一方、監視システムの場合は、多数の画像が存在することから、画像の全体に着目して検索を行うことは、ユーザにとって負担が大きくなる場合もある。そのため、画像の撮影範囲のうち、一部の箇所に着目して異常が生じた画像を検索することが要望されている。例えば、店舗等に設置された監視カメラによる撮影画像のうち、特定箇所の人物の動きに着目するようなケースである。そして、このような場合の画像検索として、画像を複数の領域に分割し、各々の領域毎に変化の有無を判別する方法も提案されている。(例えば、特許文献1参照)。かかる方法によれば、検索すべき画像の領域をユーザに指定させ、指定された領域のみを対象として変化の有無を判別すればよいので、ユーザにとって検索の負担が軽減される。
【0004】
【特許文献1】
特開2000−132669
【0005】
【発明が解決しようとする課題】
しかし、上記の方法を採用した従来の画像処理システムにおいては、ユーザが着目する画像の領域が指定された際、その領域に対し一連の画像処理を行って変化の有無を判別する必要があるため、検索結果が得られるまでに時間を要することになる。特に監視システムのように多数の画像を扱う場合は、所望の画像を探し出すまでに相当の時間を要し、作業効率の低下を招くことが問題であった。
【0006】
そこで、本発明はこのような問題に鑑みなされたものであり、処理対象の画像に対し予め領域毎の変化の有無を記録する変化テーブルを生成することにより、ユーザが所望の画像を速やかに探し出し、処理に要する時間を短縮することが可能な画像処理システムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記課題を解決するために、請求項1に記載の画像処理システムは、処理対象の画像を複数の領域に分割し、各々の領域毎に基準画像と比較して変化の有無を判別する変化判別手段と、前記変化判別手段によって判別された変化の有無を前記処理対象の画像と関連付けて記録する変化テーブルを生成する変化テーブル生成手段と、前記処理対象の画像と前記変化テーブルを記憶する記憶手段と、を備えることを特徴とする。
【0008】
この発明によれば、画像処理システムにおいて画像を処理する際、画像を複数の領域に分割し、各領域を基準画像と比較して変化の有無を判別し、その判別結果を画像と関連付けて記録した変化テーブルを生成する。そして、生成された変化テーブルは記憶手段に記憶させることにより、例えば画像検索など必要に応じて適宜に変化テーブルを画像とともに参照させることができる。よって、画像の特定領域に着目して検索をする際など、その時点で特定領域について変化の有無の判別処理を改めて行う必要はなく、予め用意された変化テーブルを参照するだけで済む。従って、画像の検索結果が得られるまでの時間を短縮することができ、利便性を向上させることができる。
【0009】
請求項2に記載の画像処理システムは、請求項1に記載の画像処理システムにおいて、前記変化テーブルには、前記処理対象の画像について少なくとも1以上の領域に変化有りと判別されたか否かを示す情報が記録されることを特徴とする。
【0010】
この発明によれば、画像処理システムでは、変化テーブルにより画像の1以上の領域で変化が有るか否かを参照できるので、画像の特定領域に着目せず画像全体についての変化の有無を識別したい場合であっても、所望の画像を的確に探し出すことができる。
【0011】
請求項3に記載の画像処理システムは、請求項1に記載の画像処理システムにおいて、前記変化テーブルには、前記処理対象の画像について変化有りと判別された領域数が記録されることを特徴とする。
【0012】
この発明によれば、画像処理システムでは、変化テーブルにより画像の変化有りと判別された領域数を参照できるので、画像の変化の大きさに着目して所望の画像を探し出すことができる。
【0013】
請求項4に記載の画像処理システムは、請求項1に記載の画像処理システムにおいて、所定の入力操作に従って前記記憶手段に記憶された画像に対する検索条件を生成し、前記変化テーブルを参照して前記検索条件に合致する画像を検索する画像検索手段と、前記画像検索手段により検索された画像を表示画面上に表示する画像表示手段と、を更に備えることを特徴とする。
【0014】
この発明によれば、画像処理システムにおいて、記憶手段に記憶された画像の検索を行う入力操作がなされた際に検索条件が生成され、その検索条件に合致する画像が変化テーブルを参照して検索され、その画像が表示画面上に表示される。よって、画像検索を指示して変化テーブルに基づく検索を実行し、検索された画像を表示する一連の作業を迅速に行うことができ、作業効率を向上させることができる。
【0015】
請求項5に記載の画像処理システムは、請求項4に記載の画像処理システムにおいて、前記画像検索手段は、前記検索条件に合致した時間的に連続する画像をそれぞれ画像群として設定するとともに、所定以上連続する前記画像群を再生対象の画像群として設定し、前記画像表示手段は、前記再生対象の画像群を前記表示画面上に表示することを特徴とする。
【0016】
この発明によれば、画像検索の際、検索条件に合致する画像群が設定され、そのうち所定の連続数に満たない画像群を排除した上で、それ以外の画像群を表示画面上で表示することができる。よって、例えば、画像の撮影範囲において移動物体が一瞬横切ること等に起因して画像に変化が生じるようなケースは表示を行わないので、検索効率を一層向上させることができる。
【0017】
請求項6に記載の画像処理システムは、請求項4に記載の画像処理システムにおいて、前記変化テーブルを参照する際の画像の領域を前記検索条件として指定する領域指定手段を更に備え、前記領域指定手段は、前記画像表示手段により前記表示画面上に配置された画像表示に対する選択操作に従って領域を指定することを特徴とする。
【0018】
この発明によれば、画像検索の際、表示画面上に配置された画像表示のうち所定の領域を指定する選択操作によって画像の領域が指定され、それを検索条件として変化テーブルが参照される。よって、ユーザが画像の特定領域に着目した場合、簡単な操作で迅速かつ確実に着目した領域を指定して検索を実行でき、使い勝手を高めることができる。
【0019】
【発明の実施の形態】
以下、本発明の好適な実施の形態を図面に基づいて説明する。以下では、監視カメラにより監視対象の画像を撮影し、撮影された画像をインターネットを経由して伝送可能な監視システムに対し、本発明に係る画像処理システムを適用した場合を説明する。
【0020】
図1は、本実施形態の監視システムの全体構成を示すブロック図である。図1に示す監視システムには、本監視システムを管理する管理センタ1と、監視対象の施設に設置されている複数の監視カメラ2を含み、インターネット3を介して各監視カメラ2から画像データが管理センタ1に伝送されるようなシステム構成を有している。この管理センタ1には、画像記録サーバ11と、画像表示端末12が設けられ、それぞれLANを経由してルータ13に接続され、インターネット3を介した情報の送受信を行うことができるように構成されている。また、画像表示端末12と同様の機能を持つ画像表示端末14を、管理センタ1の外部にてインターネット3に直接接続して用いることができる。
【0021】
複数の監視カメラ2は、店舗等の各種施設内における所定の撮影範囲を撮影し得る箇所にそれぞれ設置されており、所定のタイミングで各々の撮影範囲を撮影し、対応する画像データを出力する。これらの監視カメラ2は、いわゆるWebカメラであり、インターネット3にアクセスし、管理センタ1に向けて画像データを伝送する機能を備えている。なお、監視カメラ2により伝送される画像データには、撮影を行った監視カメラ2自体や各々の画像データを識別するための識別情報や、画像が撮影された日時を示す日時情報などの画像関連情報を含むヘッダ情報が付加されており、管理センタ1の側で適宜にヘッダ情報を参照可能となっている。
【0022】
管理センタ1では、監視カメラ2からインターネット3を介して受信された画像データがルータ13とLANを介して画像記録サーバ11に伝送される。画像記録サーバ11は、本発明の変化判別手段、変化テーブル生成手段、記憶手段として機能し、伝送された画像データを所定の画像関連情報とともに順次記録する。画像表示端末12は、本発明の画像検索手段及び画像表示手段として機能し、所定の操作によりLANを介して画像記録サーバ11に記録されている画像データを検索し、所望の画像を表示する。
【0023】
図2は、画像記録サーバ11の構成を示すブロック図である。図2に示すように、画像記録サーバ11は、制御部101と、インターフェース102と、記憶部103と、画像処理部104と、変化テーブル生成部105を含んで構成されている。
【0024】
以上の構成において、制御部101はCPU等から構成され、画像記録サーバ11全体の動作を制御する。インターフェース102は、監視カメラ2から伝送される画像データを制御部101に入力する。そして、制御部101では、インターフェース102を介して入力された画像データを、監視カメラ2の番号や撮影日時といった画像関連情報と関連付けて記憶部103に記憶させるように制御を行う。
【0025】
画像処理部104は、制御部101の指示の下、インターフェース102を介して入力された画像データ、又は、記憶部103から読み出された画像データを対象とする画像処理を行い、画像を複数の領域に分割して各々の領域毎に変化の有無を判別する。
【0026】
具体的には、図3(a)に示すように、画像全体を16個の方形の領域に分割し、監視カメラ2の撮影範囲に移動物体が存在しない状態における基準画像と処理対象の画像を、各々の領域毎に比較することにより変化の有無を判別することができる。変化の有無の判別方法としては、例えば、各々の領域において、基準画像と比較したときに異なる画素数を求め、所定の閾値を超えた場合には変化有りと判別し、所定の閾値以下である場合には変化無しと判別すればよい。図3(a)の例では、基準画像には存在しない移動物体が重なっている領域9、10、13、14、15において、変化有りと判別されることになる。
【0027】
なお、本実施形態では、画像全体を16個の領域に分割する場合を説明するが、実際には画像全体を更に多数の領域に分割し、同様の判別方法を適用することも可能である。
【0028】
変化テーブル生成部105は、画像処理部104による判別結果に基づいて、処理対象となる全ての画像に関し、各々の領域に対して判別された変化の有無を一体的に示す変化テーブルを生成する。図3(b)は、変化テーブル生成部105にて生成される変化テーブルの一例を示す図である。図3(b)に示す変化テーブルには、画像データを識別するための画像番号と、この画像番号によって示される画像を構成する各々の領域について変化の有無の判別結果と、少なくとも1以上の領域についての変化の有無と、画像中の変化有りと判別された領域数と、画像の撮影日時とを含んでいる。
【0029】
図3(b)に示される画像番号は、複数の監視カメラ2を識別するためのカメラ番号と、特定の監視カメラ2により撮影された画像に対し撮影順に従って付与される番号とからなる。例えば、画像番号1−2は、第1の監視カメラ2より撮影された2番目の画像であることを表している。また、画像の各領域に対しては、図3(a)に示すように、1〜16の領域番号を付与して区別している。そして、図3(b)では、各領域の領域番号とともに変化の有無の判別結果を「有」又は「無」として示している。なお、図3(b)の例では、図3(a)の画像に対応する変化テーブルを示しているので、領域番号9、10、13、14、15の各領域が変化有りと判別され、それ以外の領域が変化無しと判別されている。
【0030】
図3(b)の右上部には、1以上の領域に変化があるか否か、すなわち、画像の全領域のいずれかに変化があるか否かを「変化の有無」として示している。また、その下部には、画像中の変化有りと判別された領域数を「変化領域数」として示している。図3(b)の例では、上述したように5つの領域が変化ありと判別されているので、「変化の有無」は「有」となり、「変化領域数」は5となっている。さらに、画像番号1−2の画像について、撮影されたと年月日と時刻を「撮影日時」として示している。
【0031】
このように生成された変化テーブルは、制御部101を介して記憶部103にて順次保存され、画像データと関連付けて管理される。そして、後述の画像検索に際し、必要に応じて所望の変化テーブルが記憶部103から読み出されて参照されることになる。
【0032】
次に図4は、画像表示端末12の構成を示すブロック図である。なお、図1のインターネット3に直接接続された画像表示端末14についても同様の構成となっている。図4に示すように、画像表示端末12は、制御部201と、インターフェース202と、操作部203と、検索指示部204と、テーブル管理部205と、検索実行部206と、画像群判別部207と、サムネイル生成部208と、表示制御部209と、表示部210とを含んで構成されている。
【0033】
以上の構成において、制御部201はCPU等から構成され、画像表示端末12全体の動作を制御し、所定のプログラムに基づいて画像記録サーバ11で保持されている画像データ及び変化テーブルを対象として、画像検索処理及び画像表示処理を実行する。なお、上述の検索指示部204、テーブル管理部205、検索実行部206、画像群判別部207、サムネイル生成部208は、いずれも制御部201により上記所定のプログラムに基づいて実行制御される機能要素に対応する。
【0034】
インターフェース202は、画像検索端末12の起動時や所定の入力操作時など所定のタイミングで、監視カメラ2から伝送される画像データや変化テーブルを制御部201に入力する。
【0035】
操作部203は、画像表示端末12のユーザが所定の動作を実行しようとする際、各種情報や設定条件を入力する手段であり、マウスやキーボードからなる。
【0036】
検索指示部204は、操作部203の入力操作に基づき、画像の検索条件を指示するための検索条件テーブルを生成する。図5は、検索指示部204で生成される検索条件テーブルの一例を示す図である。図5に示す検索条件テーブルは、図3(a)に付した領域番号毎に、検索対象の領域として指定するか否かが設定されている。検索条件テーブルに基づく画像検索を行う場合、検索領域指定が[有]に設定されている領域については、検索時に変化の有無の判別結果が参照されるのに対し、検索領域指定が「無」に設定されている領域については、検索時に変化の有無の判別結果が参照されることはない。
【0037】
テーブル管理部205は、画像検索の際に必要な各種テーブルを管理保存する。テーブル管理部205では、検索対象の画像に対応する全ての変化テーブルを画像記録サーバ11から順次受信し、この変化テーブルに基づいて後述の検索テーブルを生成する。変化テーブルの受信は、画像表示端末12の起動時、及び、操作部203により監視カメラ2の選択や撮影日時などが切り替えられる度に行われる。また、検索テーブルと照合するために必要な上述の検索条件テーブルが取得され、テーブル管理部205で管理される。
【0038】
検索実行部206は、テーブル管理部205で管理される検索条件テーブル及び検索テーブルを用いて検索を実行する。すなわち、検索実行部206は、検索条件テーブルに基づき検索条件を判断し、検索テーブルを参照して各々の画像に検索条件に合致する変化の有無が存在するか否かを判別する。そして、検索対象の全ての画像についての検索結果を検索テーブルに記録して、テーブル管理部205の検索テーブルを更新する。
【0039】
ここで、図6は、テーブル管理部205で管理される検索テーブルの一例を示す図である。図6に示す検索テーブルは、図3(b)に示す変化テーブルが集合して構成されるとともに、検索実行部206による検索結果が付加されている。図6の例では、検索テーブルの先頭に画像番号1を付与し、時系列に沿って順番に画像番号を付与している。また、図5の検索条件テーブルでは、領域9と領域12が指定されているので、この検索条件に従って図6に示す検索テーブルのうち領域9及び領域12が変化の有無の判別対象となる。
【0040】
この場合、複数の領域についての検索条件は、AND条件とOR条件のいずれにしてもよく、不図示の切り換え手段により切り換え可能であるが、図6では、OR条件とする例を示している。すなわち、検索テーブルにおける領域9と領域12のうち、少なくとも一方が「有」である画像は検索結果として「変化あり」が書き込まれ、それ以外の画像は検索結果として「変化なし」が書き込まれる。
【0041】
また、上述の検索テーブル生成時、検索実行部206は全ての領域に対しOR条件にて検索を実行する。すなわち、少なくとも1つ以上の領域に変化のある画像を検索して検索テーブルに検索結果を書き込む。このとき、テーブル管理部205が順次受信する変化テーブルを参照することで、変化テーブルから「変化の有無」及び「変化領域数」を得て、検索処理を迅速に行うことができる。
【0042】
画像群判別部207は、検索実行部206の検索の際、検索結果が「変化あり」とされた時間的に連続する画像を判別し、それぞれ画像群として設定する。図7は、画像群判別部207による判別結果に基づき生成される画像群テーブルの一例を示す図である。図7(a)に示す画像群テーブルにおいては、図6の検索テーブルのうち、変化有りとなっている上述の画像群を、「シーン」として定義する。そして、それぞれのシーンに対し表示番号を付与し、検索テーブルに基づいて開始画像番号と終了画像番号を記録する。また、各シーンに含まれる画像数をシーン長として記録するともに、後述のように各シーンに対し定められる代表画像の画像番号を記録する。
【0043】
例えば、図7(a)において、画像番号2、3の2つの画像は、シーン長2のシーンを構成する。同様に、画像番号6の1つの画像は、シーン長1のシーンを構成し、画像番号8〜10の画像群は、シーン長3のシーンを構成する。なお、これらの各シーンは、所定の操作により表示画面上で動画像として表示させることができるが、詳しくは後述する。
【0044】
一方、図7(b)は、図7(a)に示す画像群テーブルの中からシーン長が1であるものを排除した状態の画像群テーブルである。本実施形態では、シーンを再生する際のノイズとなる必要性の低い画像を除去するため、後述の表示画面上の「一瞬の変化排除設定部」が設定操作されたとき、シーン長が所定長以下のシーンを排除するようにしている。図7(b)の例では、シーン長1のシーンを排除しているが、実際には所定のシーン長以下のシーンを排除するようにしてもよい。
【0045】
サムネイル生成部208は、表示対象の画像の縮小イメージであるサムネイルを生成する。本実施形態では、画像群判別部207により設定されたシーンに対し、代表画像としてサムネイルを対応付けて検索時に利用する。すなわち、1つのシーンに複数の画像が含まれる場合、そのシーンを代表する画像についてのサムネイルを生成し、それをシーンの代表画像として表示画面上に表示することにより、検索処理の利便性を高めるものである。
【0046】
ここで、各々のシーンに対する代表画像の決定方法としては、例えば、図6の検索テーブルにおける特定のシーン中で、変化領域数が最も多い画像を選択すればよい。このとき、各画像の変化領域数が同じものが複数選択される場合は、そのうち撮影時刻が先行する画像を選択すればよい。なお、一瞬の変化を排除しない場合において、単一の画像からなるシーン長1のシーンについては、その画像が自動的に代表画像として決定されることになる。
【0047】
次に、表示制御部209は、制御部201にて生成された表示画面を表示するための制御を行い、表示部210に所定のタイミングで所定の表示データを送出し表示画面を表示させる。そして、表示部201に表示される表示画面には、後述するように、ユーザが見るための画像やユーザが所定の操作や設定を行うための各種表示対象が所定のレイアウトで配置されている。なお、表示部201としては、例えばCRTディスプレイ、液晶ディスプレイ等を用いることができる。
【0048】
以下、図8〜図11を参照しながら、表示部201に表示される表示画面と、この表示画面を参照するユーザが画像検索を行う際の操作について具体的に説明する。図8は、表示部201に表示される表示画面の全体を説明する図である。図8に示すように、本実施形態における表示画面は、主画像表示部301と、時間軸表示部302と、サムネイル表示部303と、カメラ選択部304と、カレンダ表示部305と、領域指定部306と、一瞬の変化排除設定部307と、時刻表示部308と、再生操作部309が配置された構成となっている。
【0049】
なお、図9〜図11には、図8に示す表示画面のうち所定部分を詳細に説明するための拡大図を示している。それぞれ、図9は時間軸表示部302であり、図10はサムネイル表示部303であり、図11は領域指定部306である。
【0050】
図8に示すように、表示画面上の中央付近に配置されている主画像表示部301には、後述の入力操作に従って表示対象として選択されている特定の画像(主画像)が表示される。すなわち、複数の監視カメラ2の中から選択された監視カメラ2によって所定の時刻に撮影された所定の撮影範囲の画像が表示されるので、その画像をユーザが視認して後続の操作を判断することができる。
【0051】
時間軸表示部302には、主画像表示部301の下部に配置され、図9に示すように、表示対象の画像と撮影日時の関係を表す2種の時間軸が表示される。主時間軸302aは、所定の日付における0時から24時までの時間範囲を画像の状態と関連付けて示している。副時間軸302bは、主時間軸302aの24時間の範囲における任意の時間範囲を拡大して示している。副時間軸302bに対する時間範囲の設定は、所定の操作により10分〜2時間の範囲で切り替えることができる。図9の例では、副時間軸302bの時間範囲が1時間に設定されている場合を示している。
【0052】
通常、副時間軸302bにおいては、主時間軸302aの時間範囲のうち主画像表示部301に表示されている画像の撮影時刻を中心とした時間範囲に設定される。一方、主時間軸302a上部のスライダ302cを左右に移動操作することにより、主時間軸302aに対する副時間軸302bの時間的な位置関係を調整することができる。
【0053】
なお、主時間軸302a及び副時間軸302bにおいては、検索処理の結果得られた画像の状態を識別させるため、画像の状態に対応させて特定の時間帯を異なる色で表示させることができる。図9の例では、主時間軸302a及び副時間軸302bの時間帯A、B、Cは、それぞれ、変化有りと判別された画像群、すなわち、図7の画像群テーブルでシーンとして設定された部分に対応している。これにより、ユーザはシーンが設定されている時間帯を容易に識別することができる。
【0054】
また、監視カメラ2は、実際には常時撮影を継続するわけではなく、時間帯によっては画像記録サーバ11に画像データが記録されないことになる。よって、主時間軸302a及び副時間軸302bにおいて対象となる画像が存在しない時間帯は、さらに異なる色で表示してもよい。
【0055】
なお、主時間軸302aと副時間軸302bのそれぞれの時間範囲は上述の例に限られず、適宜に設定してもよい。例えば、主時間軸302aに対し24時間より更に長い時間範囲、例えば、表示可能な画像の全ての撮影時刻を含む時間範囲を設定してもよい。また、主時間軸302aに対し、主画像表示部301に表示される画像の撮影時刻を中心とする所定の時間範囲を設定してもよい。
【0056】
サムネイル表示部303は、時間軸表示部302の下部に配置され、本発明の副画像表示部としての役割を担う。図10に示すように、サムネイル表示部303には、副時間軸302bの中央位置の画像を略中心とし、その前後の所定個数(図10の場合は6個)のサムネイル(副画像)が時系列の順で表示される。 これらのサムネイルは、前述したように各々のシーンの代表画像として対応付けられたものであり、各シーンに含まれる画像のうち最も変化が大きい画像となっている。これにより、ユーザは画像の変化に着目して、所定のシーンに対応するサムネイルを容易に選択することができる。そして、ユーザがサムネイル表示部303における所定のサムネイルをマウスで選択操作すると、主画像表示部301には選択されたサムネイルに対応する画像が拡大表示される。
【0057】
カメラ選択部304には、現在選択されている監視カメラ2の設置箇所が表示されるとともに、右側のプルダウンメニューにより表示対象として特定の監視カメラ2を適宜に選択入力することができる。ユーザが現在選択されている監視カメラ2を切り替えたい場合、マウスを操作してプルダウンメニューを押下すると、表示可能な全ての監視カメラ2の設置箇所が表示されるので、その中から所望の監視カメラ2を選択すればよい。
【0058】
カレンダ表示部305には、画像の撮影日を指定するための1ヶ月分のカレンダが表示される。ユーザは、カレンダ表示部305の中から所定日をマウスで選択操作すると、カメラ選択部304に示される監視カメラ2の画像のうち、選択されている所定日に撮影された画像が表示対象として設定される。また、カレンダ表示部305の上部の「前月」又は「次月」を押下することにより、所望の年月に移行させることができる。
【0059】
領域指定部306は、制御部201及び操作部203と相俟って本発明の領域指定手段として機能する。図11に示すように領域指定部306は、図3(a)と同様の形状で16個の領域に分割された画像に対し、検索対象とすべき領域を指定するための表示である。領域指定部306には、その背景に主画像表示部301に表示される画像(又は過去の所定日時の画像)に対応するサムネイルが表示され、ユーザがマウスで所定の領域を選択操作することにより、その領域を検索対象として指定することができる。選択された監視カメラ2による撮影範囲のうち、例えば、出入口等が存在する一部の領域に着目して画像を検索したい際など、領域指定部306により領域を指定することが望ましい。
【0060】
なお、領域指定部306において指定された領域を異なる色で表示させることにより、ユーザは各領域の指定の有無を視覚的に判断できる。また、領域指定部306で一旦指定された領域は、その状態で再度選択操作することにより、指定を解除することができる。
【0061】
このように領域指定部306により領域が指定されると、その結果が検索指示部204によって検索条件テーブルに反映される。例えば、図5に示すように、領域番号9、12を検索対象として指定するには、領域指定部306において該当する2つの領域を順次選択操作すればよい。さらに、上述の領域指定部306における指定の結果は、検索実行部205によって検索テーブルに反映されるため、表示画面における主画像表示部301及び時間軸表示部302やサムネイル表示部303の表示対象が変更されることになる。
【0062】
一瞬の変化排除設定部307は、上述したような画像群テーブルに含まれる各シーンのうち、シーン長1のシーンを排除するときに入力設定するための表示である。ユーザが、一瞬の変化排除設定部307の左側にあるチェックボックスをマウスでチェックすると、図7(b)に示すような画像群テーブルに対応するシーンが設定されることになる。
【0063】
時刻表示部308には、主画像表示部301に表示されている画像が撮影された年月日及び日時が表示される。また、時刻表示部308においては、表示されている年月日及び日時についての各入力項目に対し、プルダウンメニューにより設定値を選択入力することができる。
【0064】
再生操作部309は、前述のように設定された各シーンを主画像表示部301に順次表示させて動画像として再生する際、ユーザに所望の操作をさせるための表示である。再生操作部309の上部には、その時点のシーンを基準にして、1つ先行するシーンに移行するボタンと、1つ後続のシーンに移行するためのボタンが配置されている。再生操作部309の中央には、各シーンの再生時にビデオ再生機と同様の再生機能を実現させるための停止ボタン、再生ボタン、倍速再生ボタンが配置されている。また、再生操作部309の下部には、ボタン操作に代わってダイヤル操作を用いて同様の再生機能を実現させるためのダイヤル操作部が配置されている。
【0065】
本実施形態では、監視カメラ2は比較的緩やかな速度、例えば、1秒に1コマ程度で撮影を行う。この場合、再生ボタンの押下時には、同様に1秒に1コマの表示タイミングで主画像表示部301の表示画像が切り替わることになる。これに対し、倍速再生ボタンの押下時は、1秒に2コマの表示タイミングで主画像表示部301の表示画像が切り替わることになる。
【0066】
以上説明したように、本実施形態において画像処理を行うことにより、伝送された画像データを画像記録サーバ11で保存するとともに、図3(b)に示すような変化テーブルを生成し、画像データとともに画像記録サーバ11で保存する。その後、ユーザが画像表示端末12の表示画面を参照しつつ、画像検索を指示した場合、画像記録サーバ11から変化テーブルを取得して検索テーブルを生成するので、検索時には変化の有無の判別を別途行う必要がない。よって、監視カメラ2で撮影された画像が多数存在する状況で、特定領域に着目した画像検索が指示された場合、検索結果が得られるまでの時間は短くて済む。このように、本実施形態によれば、画像検索時に良好な操作性及び視認性を保ちつつ、画像検索に要する時間短縮を図り作業効率を向上させることができる。
【0067】
なお、本実施形態の画像処理システムとしての監視システムの構成は、適用対象に応じて適宜に変更することができる。例えば、図1に示す監視システムの構成においては、画像記録サーバ11と画像表示端末12を別体で構成した場合を示したが、これらを一体に構成してもよい。この場合、画像記録サーバ11と画像表示端末12の機能を併せ持つ装置(図2及び図4の各構成要素を備える装置)を管理センタ1に設置して、監視システムを構成すればよい。
【0068】
以上の実施形態では、本発明を監視システムに適用する場合について説明したが、これに限られることなく、様々な用途を持つ画像処理システムに対し広く本発明を適用することができる。この場合、本実施形態では複数の監視カメラ2から画像データを伝送する構成を示したが、監視カメラ2以外の各種機器、例えば、VTR等から画像データを出力する構成であってもよい。
【0069】
【発明の効果】
以上説明したように本発明によれば、処理対象の画像に対し予め領域毎の変化の有無を記録する変化テーブルを生成し、この変化テーブルを処理対象の画像と関連付けて記憶させ参照できるようにしたので、ユーザが特定領域の変化に着目した場合であっても所望の画像を探し出す時間を短縮することが可能となり、画像検索等の作業効率を向上させることができる。
【図面の簡単な説明】
【図1】本実施形態の監視システムの全体構成を示すブロック図である。
【図2】画像記録サーバの構成を示すブロック図である。
【図3】本実施形態において、画像の分割の概念と各領域毎の変化の有無の判別に関し、図3(a)は、画像全体を16個の方形の領域に分割する例であり、図3(b)は、画像の各々の領域についての変化の有無の判別結果を含む変化テーブルの一例である。
【図4】画像表示端末の構成を示すブロック図である。
【図5】画像表示端末の検索指示部で生成される検索条件テーブルの一例を示す図である。
【図6】画像表示端末のテーブル管理部で管理される検索テーブルの一例を示す図である。
【図7】画像表示端末の画像群判別部による判別結果に基づき生成される画像群テーブルの一例を示す図である。
【図8】画像表示端末の表示部に表示される表示画面の全体を説明する図である。
【図9】図8に示す表示画面のうち時間軸表示部の拡大図である。
【図10】図8に示す表示画面のうちサムネイル表示部の拡大図である。
【図11】図8に示す表示画面のうち領域指定部の拡大図である。
【符号の説明】
1…管理センタ
2…監視カメラ
3…インターネット
11…画像記録サーバ
12…画像表示端末
13…ルータ
14…画像表示端末
101…制御部
102…インターフェース
103…記憶部
104…画像処理部
105…変化テーブル生成部
201…制御部
202…インターフェース
203…操作部
204…検索指示部
205…テーブル管理部
206…検索実行部
207…画像群判別部
208…サムネイル生成部
209…表示制御部
210…表示部
301…主画像表示部
302…時間軸表示部
303…サムネイル表示部
304…カメラ選択部
305…カレンダ表示部
306…領域指定部
307…一瞬の変化排除設定部
308…時刻表示部
309…再生操作部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention belongs to the technical field of an image processing system that processes an image for the purpose of image search and image display, and in particular, divides an image to be processed into a plurality of regions and compares each region with a reference image for each region. This belongs to the technical field of an image processing system that performs a process of determining whether there is a change.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, image processing systems that store a large amount of image data and select and display a predetermined image have been widely used. As one form of the image processing system, there is known a surveillance system having a function of recording a large number of images photographed at predetermined time intervals by a surveillance camera and searching for a desired image for the purpose of crime prevention or the like. In such a monitoring system, there is a demand to find out and refer to an image determined to have an abnormality from among a large number of images existing in time series. Therefore, there is known a method of comparing an obtained image with a reference image to determine whether or not there is a change (image motion determination). For example, when a moving object such as a person is present in the shooting range, it is determined that there is a change in the image, so this method can be used to determine an image in which an abnormality has occurred.
[0003]
On the other hand, in the case of a surveillance system, since a large number of images exist, performing a search by focusing on the entire image may increase the burden on the user. Therefore, it is desired to search for an image in which an abnormality has occurred by focusing on a part of the image capturing range. For example, there is a case where attention is paid to the movement of a person at a specific location in an image captured by a monitoring camera installed in a store or the like. As an image search in such a case, a method of dividing an image into a plurality of regions and determining whether or not there is a change in each region has also been proposed. (For example, see Patent Document 1). According to this method, the user only has to specify the area of the image to be searched, and determine whether or not there is a change only in the specified area. Therefore, the burden of the search on the user is reduced.
[0004]
[Patent Document 1]
JP-A-2000-132669
[0005]
[Problems to be solved by the invention]
However, in the conventional image processing system employing the above method, when a region of an image of interest is designated by a user, it is necessary to perform a series of image processing on the region to determine whether there is a change. In other words, it takes time until a search result is obtained. In particular, when handling a large number of images as in a surveillance system, it takes a considerable amount of time to search for a desired image, which causes a problem of lowering work efficiency.
[0006]
Accordingly, the present invention has been made in view of such a problem, and a user can quickly search for a desired image by generating a change table that records whether or not there is a change in each region in the image to be processed in advance. It is another object of the present invention to provide an image processing system capable of reducing the time required for processing.
[0007]
[Means for Solving the Problems]
In order to solve the above problem, the image processing system according to claim 1 divides an image to be processed into a plurality of regions, and compares each region with a reference image to determine whether there is a change. Means, change table generating means for generating a change table for recording the presence or absence of a change determined by the change determining means in association with the image to be processed, and storage means for storing the image to be processed and the change table And the following.
[0008]
According to the present invention, when processing an image in the image processing system, the image is divided into a plurality of regions, each region is compared with a reference image to determine whether there is a change, and the determination result is recorded in association with the image. Generate a change table. Then, by storing the generated change table in the storage unit, the change table can be appropriately referred to together with the image as needed, for example, by image search. Therefore, when a search is performed by focusing on a specific area of an image, it is not necessary to perform a process of determining whether or not there is a change in the specific area at that time, and it is only necessary to refer to a change table prepared in advance. Therefore, it is possible to shorten the time until an image search result is obtained, and it is possible to improve convenience.
[0009]
The image processing system according to claim 2 is the image processing system according to claim 1, wherein the change table indicates whether at least one or more areas of the processing target image have been determined to have changed. The information is recorded.
[0010]
According to the present invention, in the image processing system, it is possible to refer to whether or not there is a change in one or more regions of the image by using the change table. Therefore, it is desired to identify whether or not there is a change in the entire image without paying attention to a specific region of the image. Even in this case, a desired image can be accurately searched for.
[0011]
The image processing system according to claim 3, wherein in the image processing system according to claim 1, the number of areas determined as having a change in the image to be processed is recorded in the change table. I do.
[0012]
According to the present invention, the image processing system can refer to the number of areas determined to have a change in the image from the change table, so that a desired image can be found by focusing on the magnitude of the change in the image.
[0013]
The image processing system according to claim 4, wherein in the image processing system according to claim 1, a search condition for an image stored in the storage unit is generated in accordance with a predetermined input operation, and the search condition is referred to by referring to the change table. The image processing apparatus further includes an image search unit that searches for an image that matches the search condition, and an image display unit that displays the image searched by the image search unit on a display screen.
[0014]
According to the present invention, in an image processing system, a search condition is generated when an input operation for searching for an image stored in a storage unit is performed, and an image that matches the search condition is searched for with reference to a change table. The image is displayed on the display screen. Therefore, an image search is instructed, a search based on the change table is executed, and a series of operations for displaying the searched image can be quickly performed, thereby improving the operation efficiency.
[0015]
According to a fifth aspect of the present invention, in the image processing system according to the fourth aspect, the image search means sets a temporally continuous image meeting the search condition as an image group, and sets a predetermined image. The continuous image group is set as a reproduction target image group, and the image display means displays the reproduction target image group on the display screen.
[0016]
According to the present invention, at the time of image search, an image group that matches the search condition is set, and among the image groups that do not satisfy the predetermined number of consecutive images, the other image groups are displayed on the display screen. be able to. Therefore, for example, a case in which a change occurs in the image due to, for example, a momentary movement of the moving object in the image capturing range is not performed, so that the search efficiency can be further improved.
[0017]
7. The image processing system according to claim 6, further comprising an area specification unit that specifies an area of an image when referring to the change table as the search condition, wherein the area specification is performed. The means is characterized in that an area is designated by the image display means in accordance with a selection operation on an image display arranged on the display screen.
[0018]
According to the present invention, at the time of image search, an image area is specified by a selection operation of specifying a predetermined area in the image display arranged on the display screen, and the change table is referred to using the area as a search condition. Therefore, when the user focuses on the specific area of the image, it is possible to quickly and surely specify the focused area with a simple operation and execute a search, thereby improving usability.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. Hereinafter, a case will be described in which an image processing system according to the present invention is applied to a monitoring system that can capture an image of a monitoring target using a monitoring camera and transmit the captured image via the Internet.
[0020]
FIG. 1 is a block diagram illustrating the overall configuration of the monitoring system according to the present embodiment. The surveillance system shown in FIG. 1 includes a management center 1 that manages the present surveillance system, and a plurality of surveillance cameras 2 installed at a facility to be monitored. It has a system configuration that is transmitted to the management center 1. The management center 1 is provided with an image recording server 11 and an image display terminal 12, each of which is connected to a router 13 via a LAN, so that information can be transmitted and received via the Internet 3. ing. Further, an image display terminal 14 having the same function as the image display terminal 12 can be used by directly connecting to the Internet 3 outside the management center 1.
[0021]
The plurality of surveillance cameras 2 are respectively installed at places where a predetermined photographing range can be photographed in various facilities such as a store, and photograph each photographing range at a predetermined timing and output corresponding image data. These monitoring cameras 2 are so-called Web cameras, and have a function of accessing the Internet 3 and transmitting image data to the management center 1. The image data transmitted by the surveillance camera 2 includes image-related information such as identification information for identifying the surveillance camera 2 that has taken the image, each image data, and date and time information indicating the date and time when the image was captured. Header information including information is added, and the management center 1 can appropriately refer to the header information.
[0022]
In the management center 1, the image data received from the monitoring camera 2 via the Internet 3 is transmitted to the image recording server 11 via the router 13 and the LAN. The image recording server 11 functions as a change determination unit, a change table generation unit, and a storage unit of the present invention, and sequentially records transmitted image data together with predetermined image-related information. The image display terminal 12 functions as an image search unit and an image display unit of the present invention, searches image data recorded in the image recording server 11 via a LAN by a predetermined operation, and displays a desired image.
[0023]
FIG. 2 is a block diagram illustrating a configuration of the image recording server 11. As shown in FIG. 2, the image recording server 11 includes a control unit 101, an interface 102, a storage unit 103, an image processing unit 104, and a change table generation unit 105.
[0024]
In the above configuration, the control unit 101 includes a CPU and the like, and controls the operation of the entire image recording server 11. The interface 102 inputs image data transmitted from the monitoring camera 2 to the control unit 101. The control unit 101 performs control so that the image data input via the interface 102 is stored in the storage unit 103 in association with image-related information such as the number of the monitoring camera 2 and the shooting date and time.
[0025]
The image processing unit 104 performs image processing on image data input via the interface 102 or image data read from the storage unit 103 under instructions of the control unit 101, and It is divided into regions and the presence or absence of a change is determined for each region.
[0026]
Specifically, as shown in FIG. 3A, the entire image is divided into 16 rectangular regions, and the reference image and the image to be processed in a state where no moving object exists in the shooting range of the monitoring camera 2 are displayed. By comparing each area, the presence or absence of a change can be determined. As a method of determining the presence or absence of a change, for example, in each region, a different number of pixels is obtained when compared with the reference image, and when the number exceeds a predetermined threshold, it is determined that there is a change, and the difference is equal to or less than the predetermined threshold. In this case, it may be determined that there is no change. In the example of FIG. 3A, it is determined that there is a change in the areas 9, 10, 13, 14, and 15 where the moving objects that do not exist in the reference image overlap.
[0027]
In the present embodiment, a case will be described in which the entire image is divided into 16 regions. However, in practice, the entire image may be divided into a larger number of regions, and a similar determination method may be applied.
[0028]
The change table generation unit 105 generates a change table that integrally indicates the presence or absence of a change determined for each region for all images to be processed, based on the determination result by the image processing unit 104. FIG. 3B is a diagram illustrating an example of the change table generated by the change table generation unit 105. The change table shown in FIG. 3B includes an image number for identifying image data, a determination result of presence / absence of a change in each of the regions constituting the image indicated by the image number, and at least one region. , The number of areas determined to have changed in the image, and the shooting date and time of the image.
[0029]
The image number shown in FIG. 3B includes a camera number for identifying a plurality of monitoring cameras 2 and a number assigned to an image captured by a specific monitoring camera 2 in the order of capturing. For example, the image number 1-2 represents the second image captured by the first monitoring camera 2. Further, as shown in FIG. 3A, each area of the image is distinguished by giving an area number of 1 to 16. Then, in FIG. 3B, the determination result of the presence or absence of the change is indicated as “present” or “absent” along with the area number of each area. Note that, in the example of FIG. 3B, a change table corresponding to the image of FIG. 3A is shown, and therefore, it is determined that each of the area numbers 9, 10, 13, 14, and 15 has a change. Other areas are determined to have no change.
[0030]
In the upper right part of FIG. 3B, whether or not there is a change in one or more areas, that is, whether or not any of the entire areas of the image has changed is indicated as “presence or absence of change”. In the lower part, the number of areas determined to have a change in the image is indicated as “the number of changed areas”. In the example of FIG. 3B, as described above, since five areas are determined to have changed, “presence / absence of change” is “present” and “number of changed areas” is five. Further, the date, time, and time when the image of the image number 1-2 was shot are indicated as “shooting date and time”.
[0031]
The change table thus generated is sequentially stored in the storage unit 103 via the control unit 101, and is managed in association with the image data. Then, at the time of an image search described later, a desired change table is read from the storage unit 103 and referred to as needed.
[0032]
Next, FIG. 4 is a block diagram showing a configuration of the image display terminal 12. As shown in FIG. Note that the image display terminal 14 directly connected to the Internet 3 in FIG. 1 has the same configuration. As shown in FIG. 4, the image display terminal 12 includes a control unit 201, an interface 202, an operation unit 203, a search instruction unit 204, a table management unit 205, a search execution unit 206, and an image group determination unit 207. , A thumbnail generation unit 208, a display control unit 209, and a display unit 210.
[0033]
In the above configuration, the control unit 201 includes a CPU and the like, controls the operation of the entire image display terminal 12, and targets image data and a change table held in the image recording server 11 based on a predetermined program. An image search process and an image display process are executed. The above-described search instruction unit 204, table management unit 205, search execution unit 206, image group determination unit 207, and thumbnail generation unit 208 are all functional elements whose execution is controlled by the control unit 201 based on the predetermined program. Corresponding to
[0034]
The interface 202 inputs the image data and the change table transmitted from the monitoring camera 2 to the control unit 201 at a predetermined timing such as when the image search terminal 12 is activated or when a predetermined input operation is performed.
[0035]
The operation unit 203 is a unit for inputting various information and setting conditions when the user of the image display terminal 12 performs a predetermined operation, and includes a mouse and a keyboard.
[0036]
The search instruction unit 204 generates a search condition table for instructing image search conditions based on an input operation of the operation unit 203. FIG. 5 is a diagram illustrating an example of the search condition table generated by the search instruction unit 204. In the search condition table shown in FIG. 5, whether or not to specify as a search target area is set for each area number given in FIG. When performing an image search based on a search condition table, for an area for which the search area specification is set to [Present], the result of determining whether or not there is a change is referred to at the time of search, whereas the search area specification is “No”. Is not referred to during the search.
[0037]
The table management unit 205 manages and stores various tables necessary for image search. The table management unit 205 sequentially receives all the change tables corresponding to the images to be searched from the image recording server 11 and generates a search table described later based on the change tables. The reception of the change table is performed when the image display terminal 12 is activated and each time the selection of the monitoring camera 2 or the shooting date and time is switched by the operation unit 203. Further, the above-described search condition table required for matching with the search table is acquired and managed by the table management unit 205.
[0038]
The search execution unit 206 executes a search using the search condition table and the search table managed by the table management unit 205. That is, the search execution unit 206 determines the search condition based on the search condition table, and determines whether or not each image has a change that matches the search condition with reference to the search table. Then, the search results for all the images to be searched are recorded in the search table, and the search table of the table management unit 205 is updated.
[0039]
Here, FIG. 6 is a diagram illustrating an example of the search table managed by the table management unit 205. The search table shown in FIG. 6 is configured by gathering the change tables shown in FIG. 3B, and has a search result by the search execution unit 206 added thereto. In the example of FIG. 6, the image number 1 is assigned to the head of the search table, and the image numbers are assigned sequentially in chronological order. In addition, since the area 9 and the area 12 are specified in the search condition table of FIG. 5, the area 9 and the area 12 in the search table shown in FIG.
[0040]
In this case, the search condition for a plurality of areas may be either an AND condition or an OR condition, and can be switched by a switching unit (not shown). FIG. 6 shows an example in which the OR condition is used. That is, “changed” is written as a search result for an image in which at least one of the areas 9 and 12 in the search table is “present”, and “no change” is written as a search result for other images.
[0041]
In addition, when the above-described search table is generated, the search execution unit 206 performs a search on all the areas under the OR condition. That is, an image having a change in at least one or more areas is searched, and a search result is written in a search table. At this time, by referring to the change tables sequentially received by the table management unit 205, “presence / absence of change” and “number of change areas” can be obtained from the change table, and the search process can be performed quickly.
[0042]
At the time of the search by the search execution unit 206, the image group determination unit 207 determines images that are temporally continuous and whose search result is “changed”, and sets each of the images as an image group. FIG. 7 is a diagram illustrating an example of an image group table generated based on the determination result by the image group determination unit 207. In the image group table shown in FIG. 7A, the above-mentioned image group having a change in the search table of FIG. 6 is defined as a “scene”. Then, a display number is assigned to each scene, and a start image number and an end image number are recorded based on a search table. The number of images included in each scene is recorded as a scene length, and the image number of a representative image determined for each scene is recorded as described later.
[0043]
For example, in FIG. 7A, two images of image numbers 2 and 3 constitute a scene having a scene length of 2. Similarly, one image with image number 6 forms a scene with a scene length of 1, and a group of images with image numbers 8 to 10 forms a scene with a scene length of 3. Each of these scenes can be displayed as a moving image on a display screen by a predetermined operation, which will be described in detail later.
[0044]
On the other hand, FIG. 7B is an image group table in a state where a scene length of 1 is excluded from the image group table shown in FIG. 7A. In the present embodiment, when a “momentary change exclusion setting unit” on the display screen, which will be described later, is set and operated, a scene length is set to a predetermined length in order to remove an image that is less necessary to be noise when the scene is reproduced. The following scenes are excluded. In the example of FIG. 7B, the scene with the scene length 1 is excluded, but a scene with a predetermined scene length or less may be actually excluded.
[0045]
The thumbnail generation unit 208 generates a thumbnail that is a reduced image of the image to be displayed. In the present embodiment, a thumbnail set is associated with a scene set by the image group determination unit 207 as a representative image and used at the time of search. That is, when one scene includes a plurality of images, thumbnails of images representing the scene are generated and displayed on the display screen as representative images of the scene, thereby improving the convenience of the search processing. Things.
[0046]
Here, as a method of determining a representative image for each scene, for example, an image having the largest number of change areas in a specific scene in the search table in FIG. 6 may be selected. At this time, if a plurality of images having the same number of change areas are selected, an image whose shooting time is earlier may be selected. In the case where a momentary change is not excluded, for a scene having a scene length of 1 consisting of a single image, that image is automatically determined as a representative image.
[0047]
Next, the display control unit 209 performs control for displaying the display screen generated by the control unit 201, transmits predetermined display data to the display unit 210 at predetermined timing, and displays the display screen. On the display screen displayed on the display unit 201, as will be described later, images to be viewed by the user and various display targets for the user to perform predetermined operations and settings are arranged in a predetermined layout. In addition, as the display unit 201, for example, a CRT display, a liquid crystal display, or the like can be used.
[0048]
Hereinafter, a display screen displayed on the display unit 201 and an operation performed by a user who refers to this display screen to perform an image search will be specifically described with reference to FIGS. 8 to 11. FIG. 8 is a diagram illustrating the entire display screen displayed on the display unit 201. As shown in FIG. 8, the display screen in the present embodiment includes a main image display unit 301, a time axis display unit 302, a thumbnail display unit 303, a camera selection unit 304, a calendar display unit 305, an area designation unit 306, a momentary change exclusion setting unit 307, a time display unit 308, and a playback operation unit 309.
[0049]
9 to 11 are enlarged views for explaining in detail predetermined portions of the display screen shown in FIG. 9 shows the time axis display unit 302, FIG. 10 shows the thumbnail display unit 303, and FIG. 11 shows the area designation unit 306.
[0050]
As shown in FIG. 8, a specific image (main image) selected as a display target in accordance with an input operation described later is displayed on main image display section 301 arranged near the center of the display screen. That is, since an image in a predetermined shooting range captured at a predetermined time by the monitoring camera 2 selected from the plurality of monitoring cameras 2 is displayed, the user visually recognizes the image and determines a subsequent operation. be able to.
[0051]
The time axis display unit 302 is arranged below the main image display unit 301, and displays two types of time axes representing the relationship between the image to be displayed and the shooting date and time, as shown in FIG. The main time axis 302a shows a time range from 0:00 to 24:00 on a predetermined date in association with an image state. The sub-time axis 302b is an enlarged view of an arbitrary time range in the 24-hour range of the main time axis 302a. The setting of the time range for the sub-time axis 302b can be switched within a range of 10 minutes to 2 hours by a predetermined operation. The example of FIG. 9 shows a case where the time range of the sub time axis 302b is set to one hour.
[0052]
Normally, the sub-time axis 302b is set to a time range centered on the photographing time of the image displayed on the main image display unit 301 in the time range of the main time axis 302a. On the other hand, by moving the slider 302c above the main time axis 302a left and right, the temporal positional relationship of the sub time axis 302b with respect to the main time axis 302a can be adjusted.
[0053]
In the main time axis 302a and the sub time axis 302b, a specific time zone can be displayed in a different color in accordance with the state of the image in order to identify the state of the image obtained as a result of the search processing. In the example of FIG. 9, the time zones A, B, and C of the main time axis 302a and the sub time axis 302b are set as scenes in the image group determined to have changed, that is, the image group table in FIG. Corresponding to the part. Thereby, the user can easily identify the time zone in which the scene is set.
[0054]
In addition, the monitoring camera 2 does not always continuously shoot, and the image data is not recorded in the image recording server 11 depending on the time zone. Therefore, the time zone in which the target image does not exist on the main time axis 302a and the sub time axis 302b may be displayed in a different color.
[0055]
Note that the respective time ranges of the main time axis 302a and the sub time axis 302b are not limited to the above examples, and may be set as appropriate. For example, a time range longer than 24 hours may be set for the main time axis 302a, for example, a time range including all shooting times of displayable images. In addition, a predetermined time range around the photographing time of the image displayed on the main image display unit 301 may be set for the main time axis 302a.
[0056]
The thumbnail display section 303 is arranged below the time axis display section 302 and plays a role as a sub-image display section of the present invention. As shown in FIG. 10, the thumbnail display unit 303 displays a predetermined number (six in the case of FIG. 10) of thumbnails (sub-images) before and after the image substantially at the center of the sub-time axis 302b. They are displayed in the order of the series. These thumbnails are associated as representative images of the respective scenes as described above, and are the images that have the largest change among the images included in each scene. Thus, the user can easily select a thumbnail corresponding to a predetermined scene, paying attention to a change in the image. When the user selects and operates a predetermined thumbnail on the thumbnail display unit 303 with a mouse, an image corresponding to the selected thumbnail is enlarged and displayed on the main image display unit 301.
[0057]
The camera selection unit 304 displays the installation location of the currently selected surveillance camera 2 and allows the user to appropriately select and input a specific surveillance camera 2 as a display target from the pull-down menu on the right. When the user wants to switch the currently selected surveillance camera 2, when the user operates the mouse and presses a pull-down menu, the installation locations of all the surveillance cameras 2 that can be displayed are displayed. 2 can be selected.
[0058]
The calendar display unit 305 displays a calendar for one month for designating a shooting date of an image. When the user selects and operates a predetermined date from the calendar display unit 305 with a mouse, the image captured by the selected predetermined day among the images of the monitoring camera 2 indicated by the camera selection unit 304 is set as a display target. Is done. By pressing “previous month” or “next month” at the top of the calendar display unit 305, it is possible to shift to a desired year and month.
[0059]
The area specifying unit 306 functions as an area specifying unit of the present invention in cooperation with the control unit 201 and the operation unit 203. As shown in FIG. 11, the area specifying unit 306 is a display for specifying an area to be searched for in an image divided into 16 areas in the same shape as in FIG. 3A. A thumbnail corresponding to an image displayed on the main image display unit 301 (or an image at a predetermined date and time in the past) is displayed on the background of the area specifying unit 306, and the user can select a predetermined area with a mouse and operate. , The area can be designated as a search target. It is desirable to specify an area by the area specifying unit 306, for example, when searching for an image by focusing on a partial area where an entrance or the like exists in the shooting range of the selected monitoring camera 2.
[0060]
By displaying the areas specified by the area specifying unit 306 in different colors, the user can visually determine whether or not each area is specified. In addition, the area once specified by the area specifying unit 306 can be released from the specification by performing a selection operation again in that state.
[0061]
When the area is specified by the area specifying unit 306 in this manner, the result is reflected in the search condition table by the search instruction unit 204. For example, as shown in FIG. 5, in order to specify the area numbers 9 and 12 as search targets, the area specifying unit 306 may be operated to sequentially select two corresponding areas. Furthermore, since the result of the designation in the area designation unit 306 is reflected in the search table by the search execution unit 205, the display target of the main image display unit 301, the time axis display unit 302, and the thumbnail display unit 303 on the display screen is limited. Will be changed.
[0062]
The momentary change exclusion setting unit 307 is a display for input setting when excluding a scene with a scene length of 1 from among the scenes included in the image group table as described above. When the user checks the check box on the left side of the momentary change exclusion setting unit 307 with the mouse, a scene corresponding to the image group table as shown in FIG. 7B is set.
[0063]
The time display unit 308 displays the date and time when the image displayed on the main image display unit 301 was captured. In the time display unit 308, a set value can be selected and input from a pull-down menu for each of the input items for the displayed date and time.
[0064]
The reproduction operation unit 309 is a display for allowing the user to perform a desired operation when each of the scenes set as described above is sequentially displayed on the main image display unit 301 and reproduced as a moving image. On the upper part of the reproduction operation unit 309, a button for shifting to a scene preceding by one and a button for shifting to a succeeding scene based on the scene at that time are arranged. At the center of the playback operation unit 309, a stop button, a playback button, and a double-speed playback button for realizing the same playback function as that of the video player at the time of playback of each scene are arranged. A dial operation unit for realizing the same reproduction function using a dial operation instead of a button operation is arranged below the reproduction operation unit 309.
[0065]
In the present embodiment, the surveillance camera 2 shoots at a relatively slow speed, for example, at about one frame per second. In this case, when the playback button is pressed, the display image of the main image display unit 301 is switched at the display timing of one frame per second. On the other hand, when the double-speed playback button is pressed, the display image on the main image display unit 301 is switched at a display timing of two frames per second.
[0066]
As described above, by performing the image processing in the present embodiment, the transmitted image data is stored in the image recording server 11, and a change table as shown in FIG. The image is stored in the image recording server 11. Thereafter, when the user instructs an image search while referring to the display screen of the image display terminal 12, a change table is obtained from the image recording server 11 to generate a search table. No need to do. Therefore, in a situation where a large number of images captured by the monitoring camera 2 exist, when an image search focused on a specific area is instructed, the time until a search result is obtained can be short. As described above, according to the present embodiment, it is possible to shorten the time required for the image search and improve the work efficiency while maintaining good operability and visibility during the image search.
[0067]
Note that the configuration of the monitoring system as the image processing system of the present embodiment can be appropriately changed according to the application target. For example, in the configuration of the monitoring system shown in FIG. 1, the case where the image recording server 11 and the image display terminal 12 are configured separately is shown, but these may be configured integrally. In this case, a monitoring system may be configured by installing an apparatus having the functions of the image recording server 11 and the image display terminal 12 (an apparatus having the components shown in FIGS. 2 and 4) in the management center 1.
[0068]
In the above embodiments, the case where the present invention is applied to a monitoring system has been described. However, the present invention is not limited to this and can be widely applied to image processing systems having various uses. In this case, in the present embodiment, a configuration in which image data is transmitted from the plurality of monitoring cameras 2 has been described, but a configuration in which image data is output from various devices other than the monitoring camera 2, for example, a VTR or the like may be used.
[0069]
【The invention's effect】
As described above, according to the present invention, a change table for recording in advance whether or not there is a change in each region with respect to an image to be processed is generated, and the change table is stored in association with the image to be processed and can be referred to. Therefore, even when the user pays attention to the change in the specific area, the time for searching for a desired image can be reduced, and the work efficiency such as image search can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an overall configuration of a monitoring system according to an embodiment.
FIG. 2 is a block diagram illustrating a configuration of an image recording server.
FIG. 3A is a diagram illustrating an example in which the entire image is divided into 16 rectangular regions in the present embodiment, with respect to the concept of image division and determination of the presence or absence of a change in each region. FIG. 3B is an example of a change table including a determination result of the presence or absence of a change in each region of the image.
FIG. 4 is a block diagram illustrating a configuration of an image display terminal.
FIG. 5 is a diagram illustrating an example of a search condition table generated by a search instruction unit of the image display terminal.
FIG. 6 is a diagram illustrating an example of a search table managed by a table management unit of the image display terminal.
FIG. 7 is a diagram illustrating an example of an image group table generated based on a determination result by an image group determination unit of the image display terminal.
FIG. 8 is a diagram illustrating the entire display screen displayed on the display unit of the image display terminal.
9 is an enlarged view of a time axis display section of the display screen shown in FIG.
FIG. 10 is an enlarged view of a thumbnail display section of the display screen shown in FIG.
FIG. 11 is an enlarged view of an area designation section in the display screen shown in FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Management center 2 ... Surveillance camera 3 ... Internet 11 ... Image recording server 12 ... Image display terminal 13 ... Router 14 ... Image display terminal 101 ... Control unit 102 ... Interface 103 ... Storage unit 104 ... Image processing unit 105 ... Change table generation Unit 201 Control unit 202 Interface 203 Operation unit 204 Search instruction unit 205 Table management unit 206 Search execution unit 207 Image group determination unit 208 Thumbnail generation unit 209 Display control unit 210 Display unit 301 Main Image display unit 302 Time axis display unit 303 Thumbnail display unit 304 Camera selection unit 305 Calendar display unit 306 Area designation unit 307 Instantaneous change exclusion setting unit 308 Time display unit 309 Playback operation unit

Claims (6)

処理対象の画像を複数の領域に分割し、領域毎に基準画像と比較して変化の有無を判別する変化判別手段と、
前記変化判別手段によって判別された変化の有無を領域毎に前記処理対象の画像と関連付けて記録する変化テーブルを生成する変化テーブル生成手段と、
前記処理対象の画像と前記変化テーブルを記憶する記憶手段と、
を備えることを特徴とする画像処理システム。
A change determination unit that divides an image to be processed into a plurality of regions, and compares each region with a reference image to determine whether there is a change;
Change table generating means for generating a change table for recording the presence or absence of a change determined by the change determining means in association with the image to be processed for each region;
Storage means for storing the image to be processed and the change table,
An image processing system comprising:
前記変化テーブルには、前記処理対象の画像について少なくとも1以上の領域に変化有りと判別されたか否かを示す情報が記録されることを特徴とする請求項1に記載の画像処理システム。2. The image processing system according to claim 1, wherein the change table records information indicating whether at least one or more areas of the image to be processed have been determined to have a change. 3. 前記変化テーブルには、前記処理対象の画像について変化有りと判別された領域数が記録されることを特徴とする請求項1に記載の画像処理システム。2. The image processing system according to claim 1, wherein the change table records the number of areas determined to have a change in the image to be processed. 3. 所定の入力操作に従って前記記憶手段に記憶された画像に対する検索条件を生成し、前記変化テーブルを参照して前記検索条件に合致する画像を検索する画像検索手段と、
前記画像検索手段により検索された画像を表示画面上に表示する画像表示手段と、
を更に備えることを特徴とする請求項1に記載の画像処理システム。
Image search means for generating a search condition for an image stored in the storage means according to a predetermined input operation, and searching for an image that matches the search condition with reference to the change table;
Image display means for displaying an image searched by the image search means on a display screen,
The image processing system according to claim 1, further comprising:
前記画像検索手段は、前記検索条件に合致した時間的に連続する画像をそれぞれ画像群として設定するとともに、所定以上連続する前記画像群を再生対象の画像群として設定し、
前記画像表示手段は、前記再生対象の画像群を前記表示画面上に表示することを特徴とする請求項4に記載の画像処理システム。
The image search means sets, as an image group, temporally continuous images that match the search condition, and sets the image group that is continuous for a predetermined time or more as an image group to be reproduced.
The image processing system according to claim 4, wherein the image display unit displays the image group to be reproduced on the display screen.
前記変化テーブルを参照する際の画像の領域を前記検索条件として指定する領域指定手段を更に備え、前記領域指定手段は、前記画像表示手段により前記表示画面上に配置された画像表示に対する選択操作に従って領域を指定することを特徴とする請求項4に記載の画像処理システム。The image processing apparatus further includes an area specification unit that specifies an area of an image when the reference is made to the change table as the search condition. The image processing system according to claim 4, wherein an area is specified.
JP2003025088A 2003-01-31 2003-01-31 Image processing system Expired - Fee Related JP4185376B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003025088A JP4185376B2 (en) 2003-01-31 2003-01-31 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003025088A JP4185376B2 (en) 2003-01-31 2003-01-31 Image processing system

Publications (2)

Publication Number Publication Date
JP2004236211A true JP2004236211A (en) 2004-08-19
JP4185376B2 JP4185376B2 (en) 2008-11-26

Family

ID=32953450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003025088A Expired - Fee Related JP4185376B2 (en) 2003-01-31 2003-01-31 Image processing system

Country Status (1)

Country Link
JP (1) JP4185376B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006345929A (en) * 2005-06-13 2006-12-28 Olympus Medical Systems Corp Image display device
JP2010171705A (en) * 2009-01-22 2010-08-05 Hitachi Kokusai Electric Inc Device and program for searching monitored video image
JP2010257484A (en) * 2010-07-15 2010-11-11 Fujitsu Ten Ltd Driving support device, driving support system, drive support software, and driving support method
JP2010257483A (en) * 2010-07-15 2010-11-11 Fujitsu Ten Ltd Driving support device and driving support method
JP2011028748A (en) * 2010-07-15 2011-02-10 Fujitsu Ten Ltd Driving support device, driving support system, driving support software, and driving support method
JP2012505471A (en) * 2008-10-08 2012-03-01 ストライダー ラブス,インコーポレイテッド System and method for building a 3D scene model from an image
JP2013251588A (en) * 2012-05-30 2013-12-12 Mitsubishi Electric Corp Network camera system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006345929A (en) * 2005-06-13 2006-12-28 Olympus Medical Systems Corp Image display device
JP2012505471A (en) * 2008-10-08 2012-03-01 ストライダー ラブス,インコーポレイテッド System and method for building a 3D scene model from an image
JP2010171705A (en) * 2009-01-22 2010-08-05 Hitachi Kokusai Electric Inc Device and program for searching monitored video image
JP2010257484A (en) * 2010-07-15 2010-11-11 Fujitsu Ten Ltd Driving support device, driving support system, drive support software, and driving support method
JP2010257483A (en) * 2010-07-15 2010-11-11 Fujitsu Ten Ltd Driving support device and driving support method
JP2011028748A (en) * 2010-07-15 2011-02-10 Fujitsu Ten Ltd Driving support device, driving support system, driving support software, and driving support method
JP2013251588A (en) * 2012-05-30 2013-12-12 Mitsubishi Electric Corp Network camera system

Also Published As

Publication number Publication date
JP4185376B2 (en) 2008-11-26

Similar Documents

Publication Publication Date Title
US6256419B1 (en) Method and apparatus for detecting a point of change in a moving image
JP5867424B2 (en) Image processing apparatus, image processing method, and program
EP3185539B1 (en) Information processing apparatus, imaging apparatus, image display control method and computer program
RU2691057C1 (en) Tracking assistance device, tracking assistance system and tracking assistance method
US8009961B2 (en) Electronic apparatus, playback management method, display control apparatus, and display control method
US8174571B2 (en) Apparatus for processing images, apparatus for processing reproduced images, method of processing images, and method of processing reproduced images
KR20050061352A (en) Image displaying method and image displaying apparatus
JP2005197913A (en) Apparatus and method for image processing
WO2018037631A1 (en) Tracking assistance device, tracking assistance system and tracking assistance method
JP5506324B2 (en) Similar image search system and similar image search method
JP5292399B2 (en) Content editing device
JP4185376B2 (en) Image processing system
JP4175622B2 (en) Image display system
JP4154012B2 (en) Recording medium storing program for realizing image display method and image composition apparatus
JP2002152721A (en) Video display method and device for video recording and reproducing device
KR20020086623A (en) Method and apparatus for determining camera movement control criteria
WO2017073252A1 (en) Information processing device, information processing method and program
JP2002344897A (en) Video display device
JP2006311430A (en) Device and system for displaying image
JPH10224735A (en) Image processor
JP6360271B1 (en) Medical video processing system
JP2007329593A (en) Image reproduction system
JP2015216686A (en) Photographing device
JP4209379B2 (en) RECORDING DEVICE, ITS BROWSER DEVICE, ITS PROGRAM, AND RECORDING MEDIUM
JP5665380B2 (en) Image processing apparatus, image processing apparatus control method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080905

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4185376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130912

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees