JP2004088559A - Monitoring system, method, program, and recording medium - Google Patents

Monitoring system, method, program, and recording medium Download PDF

Info

Publication number
JP2004088559A
JP2004088559A JP2002248438A JP2002248438A JP2004088559A JP 2004088559 A JP2004088559 A JP 2004088559A JP 2002248438 A JP2002248438 A JP 2002248438A JP 2002248438 A JP2002248438 A JP 2002248438A JP 2004088559 A JP2004088559 A JP 2004088559A
Authority
JP
Japan
Prior art keywords
image
image data
position information
unit
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002248438A
Other languages
Japanese (ja)
Other versions
JP3991816B2 (en
Inventor
Hiroyuki Hasegawa
長谷川 裕之
Hideki Hama
浜 秀樹
Masaru Nezu
根津 大
Takeyoshi Kurotani
黒谷 武義
Masaaki Kurebayashi
紅林 正昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002248438A priority Critical patent/JP3991816B2/en
Priority to US10/649,150 priority patent/US7697025B2/en
Publication of JP2004088559A publication Critical patent/JP2004088559A/en
Application granted granted Critical
Publication of JP3991816B2 publication Critical patent/JP3991816B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To confirm an image within a imaging range, and to let a user know the relation between an image fetching available range and the imaging range at a glance. <P>SOLUTION: A movable range image which indicates the maximum range where a camera unit can image and consists of a plurality of frames is displayed on a movable range image displaying section 101. An entire image displaying frame 101a for indicating a range displayed on an entire image displaying section 102 is displayed on the section 101. Within the range displayed by the frame 101a, (M×N) sheets of frames are imaged, stored and/or displayed on the section 102. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、監視カメラ等に適用されるモニタリングシステムおよび方法並びにプログラムおよび記録媒体に関する。
【0002】
【従来の技術】
従来、広範囲の状況を監視するためにモニタリングシステムが使用されている。例えば海上監視、河川監視、立ち入り監視区域のモニタリング、野生動物の行動観察等にモニタリングシステムが使用される。このモニタリングシステムは、広範囲の画像を撮影する必要上、画素数が非常に多いビデオカメラを使用していた。そのために、システムの価格が高くなり、コストの面で問題があった。
【0003】
これに対して、カメラの撮影範囲を順にずらしながら、静止画像を撮影し、多数の静止画像を連結することで、モニタリングしようとする範囲の画像を生成することが提案されている。この場合、多数の静止画像を連結することで生成される連結画像は、極めて高解像度の画像とすることができる。したがって、連結画像中の一部分の拡大画像を得る場合に、拡大画像自体の解像度が高く、拡大画像であっても鮮明な画像を得ることができる。
【0004】
モニタリングする範囲を広くする必要からカメラの可動範囲は、例えば180°、360°等の極めて広い範囲が設定されている。この広い範囲でカメラの撮影方向を切り替え、各撮影方向で静止画像を取得し、パノラマ状の連結画像を形成するようにしている。
【0005】
撮影範囲を広く設定すると、広範囲の連結画像を構成する静止画像の枚数が増えることになり、画像取得のための時間が長くなり、連結画像を取得する周期が長くなる問題が生じる。実際に監視したいエリアは、限定された範囲であることが多い。
【0006】
そこで、同出願人は、特願2002−130761において、広範囲のエリアを画角毎に切り出し、切り出された画角の画像を通常の撮像素子で取り込み、取り込まれた画像を組み合わせることによって、高精細且つ広範囲な画像を得ることができるシステムを提案している。
【0007】
【発明が解決しようとする課題】
しかしながら、このシステムであっても実際に監視したいエリアを決定する仕組みは、カメラを移動させてライブ映像で撮影し、撮影された映像で確認しなければならなかった。また、画像取り込み可能範囲と撮影範囲との関係を一見してユーザに知らせる方法はなかった。
【0008】
そこで、この発明の目的は、撮影範囲の画像を事前に確認することが可能であり、さらに画像取り込み可能範囲と撮影範囲との関係を一見してユーザに知らせることが可能なモニタリングシステムおよび方法並びにプログラムおよび記録媒体を提供することにある。
【0009】
【課題を解決するための手段】
上述した課題を達成するために請求項1の発明は、広範囲な場所を監視するモニタリングシステムにおいて、撮影された異なる位置の画像データ毎に位置情報を付加して蓄積部に蓄積し、撮影された画像データまたは蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像と、第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を照準線で選択すると、選択された所望の範囲の位置情報の画像データを撮影し、撮影された画像データを対応する位置に表示する第2の集合画像と、第1および第2の集合画像をそれぞれ異なる領域に表示する表示部とを有することを特徴とするモニタリングシステムである。
【0010】
請求項2に記載の発明は、映像を撮影する撮像部と、撮像部の撮像方向を可変する撮像方向可変部と、撮像方向可変部の最大可動範囲内において、撮像部で撮像された画像データの位置情報を検出する位置情報検出手段と、検出された位置情報を画像データに付加し、蓄積する蓄積部と、撮影された画像データまたは蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像を表示する表示部とを有し、第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を照準線で選択すると、選択された所望の範囲の位置情報に基づいて撮像部の撮像方向を可変し、選択された所望の範囲の画像データを撮影し、撮影された画像データを対応する位置に表示する第2の集合画像を表示部の第1の集合画像と異なる領域に表示するようにしたことを特徴とするモニタリングシステムである。
【0011】
請求項5に記載の発明は、広範囲な場所を監視するモニタリングシステム方法において、撮影された異なる位置の画像データ毎に位置情報を付加して蓄積部に蓄積し、撮影された画像データまたは蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示する第1の集合画像に、撮影された画像データのそれぞれの位置情報を組み込み、第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を照準線で選択すると、選択された所望の範囲の位置情報の画像データを撮影し、撮影された画像データを第2の集合画像の対応する位置に表示し、第1および第2の集合画像を表示部のそれぞれ異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法である。
【0012】
請求項6に記載の発明は、撮像部で映像を撮影するステップと、撮像部の撮像方向を可変するステップと、撮像方向可変部の最大可動範囲内において、撮像部で撮像された画像データの位置情報を検出するステップと、検出された位置情報を画像データに付加し、蓄積部に蓄積するステップと、撮影された画像データまたは蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像を表示部に表示するステップとを有し、第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を照準線で選択すると、選択された所望の範囲の位置情報に基づいて撮像部の撮像方向を可変し、選択された所望の範囲の画像データを撮影し、撮影された画像データを対応する位置に表示する第2の集合画像を表示部の第1の集合画像と異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法である。
【0013】
請求項9に記載の発明は、広範囲な場所を監視するモニタリングシステム方法をコンピュータに実行させるためのプログラムにおいて、撮影された異なる位置の画像データ毎に位置情報を付加して蓄積部に蓄積し、撮影された画像データまたは蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示する第1の集合画像に、撮影された画像データのそれぞれの位置情報を組み込み、第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を照準線で選択すると、選択された所望の範囲の位置情報の画像データを撮影し、撮影された画像データを第2の集合画像の対応する位置に表示し、第1および第2の集合画像を表示部のそれぞれ異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法をコンピュータに実行させるためのプログラムである。
【0014】
請求項10に記載の発明は、撮像部で映像を撮影するステップと、撮像部の撮像方向を可変するステップと、撮像方向可変部の最大可動範囲内において、撮像部で撮像された画像データの位置情報を検出するステップと、検出された位置情報を画像データに付加し、蓄積部に蓄積するステップと、撮影された画像データまたは蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像を表示部に表示するステップとを有し、第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を照準線で選択すると、選択された所望の範囲の位置情報に基づいて撮像部の撮像方向を可変し、選択された所望の範囲の画像データを撮影し、撮影された画像データを対応する位置に表示する第2の集合画像を表示部の第1の集合画像と異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法をコンピュータに実行させるためのプログラムである。
【0015】
請求項11に記載の発明は、広範囲な場所を監視するモニタリングシステム方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体において、撮影された異なる位置の画像データ毎に位置情報を付加して蓄積部に蓄積し、撮影された画像データまたは蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示する第1の集合画像に、撮影された画像データのそれぞれの位置情報を組み込み、第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を照準線で選択すると、選択された所望の範囲の位置情報の画像データを撮影し、撮影された画像データを第2の集合画像の対応する位置に表示し、第1および第2の集合画像を表示部のそれぞれ異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0016】
請求項12に記載の発明は、撮像部で映像を撮影するステップと、撮像部の撮像方向を可変するステップと、撮像方向可変部の最大可動範囲内において、撮像部で撮像された画像データの位置情報を検出するステップと、検出された位置情報を画像データに付加し、蓄積部に蓄積するステップと、撮影された画像データまたは蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像を表示部に表示するステップとを有し、第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を照準線で選択すると、選択された所望の範囲の位置情報に基づいて撮像部の撮像方向を可変し、選択された所望の範囲の画像データを撮影し、撮影された画像データを対応する位置に表示する第2の集合画像を表示部の第1の集合画像と異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体である。
【0017】
このように、最大可動範囲にわたって撮像部を動かした時の可動範囲画像を表示するので、所望の範囲の画像を得るための撮影方向を容易に設定することができ、操作性の向上を図ることができる。
【0018】
【発明の実施の形態】
以下、この発明の一実施形態について図面を参照して説明する。図1は、この発明の一実施形態の概略的な構成を示す。ディスプレイ2が接続されているコンピュータ1は、カメラユニット3を制御する。図1の例は、1台のコンピュータ1が2台のカメラユニット3を制御し、また、ディスプレイ2’を有する他のコンピュータ1’が他のカメラユニット3’を制御するシステムの例である。1台のコンピュータが複数台のカメラユニットを制御できる。
【0019】
カメラユニット3は、パンチルタ部4とカメラ部5が一体的に構成されたものである。カメラユニット3は、遠方の対象領域を撮影可能なように設置される。一例として、カメラ部5は、倍率が10倍、70倍等の望遠レンズを有し、数十メートルから数キロメートル離れた場所を撮影可能とされている。
【0020】
カメラ部5は、例えば外部からのトリガーと同期してシャッターをオンできるディジタルスチルカメラであり、その撮影素子例えばCCD(Charge Coupled Device)は、VGA(Video Graphics Array,640×480 画素)、XGA(eXtended Graphics Array,1024×768 画素)、SXGA(Super eXtended Graphics Array,1280×1024画素)等の画素数を有する。VGAの撮像素子の場合では、30fps(フレーム/秒)のレートで画像データが出力され、XGAの撮像素子の場合では、15fps(フレーム/秒)のレートで画像データが出力され、SXGAの撮像素子の場合では、7.5fps(フレーム/秒)のレートで画像データが出力される。
【0021】
映像データは、カメラユニット3からコンピュータ1に対してバス6を介して伝送される。バス6は、映像データの伝送路とカメラユニット3の制御信号とを伝送する。上述した構成は、コンピュータ1’とカメラユニット3’とに関しても同様である。
【0022】
コンピュータ1、1’では、カメラユニット3、3’からの映像データをメモリに蓄積し、後述するように、操作用のGUI(Graphical User Interface)を構成し、ユーザが所望の対象領域の画像をカメラユニット3、3’で撮影できるように、カメラユニット3、3’を制御できる。圧縮符号化例えばJPEG(Joint Photographic Experts Group) によって撮影画像が圧縮される。
【0023】
コンピュータ1および1’は、LAN(Local Area Network)7で互いに接続されている。LAN7に対してさらに他のコンピュータ8が接続されている。参照符号9は、コンピュータ8のディスプレイである。コンピュータ8は、LAN7を介してコンピュータ1、1’からの画像データ等を受取り、アーカイブ10に対して映像データを蓄積し、さらに、画像データの処理を行う。例えば映像データを使用して顔認識、荷物認識、環境認識、車認識等の処理がなされる。アーカイブ10は、テープストリーマーのような大量のデータを蓄積できるものである。
【0024】
図2は、上述したモニタリングシステムにおけるコンピュータ1とカメラユニット3の部分のより詳細な構成を示す。図2の例では、参照符号21で示す共通のコントローラバス21に対して、カメラユニットおよびコンピュータの構成要素が接続されている。
【0025】
パンチルタ部は、パン部4aとチルト部4bからなる。パン部4aおよびチルト部4bは、それぞれ駆動源として例えばステッピングモータを有し、コントローラバス21を介してコントローラCPU33から供給される制御信号に応じてカメラ部をパンまたはチルトさせる。パンチルタ部上にカメラ部が載置されている。ここで、パンは、水平方向にカメラを回転させることを意味し、チルトは、垂直方向にカメラを回転させることを意味する。一例として、パン角の最大値が180°とされ、チルト角の最大値が90°とされている。
【0026】
後述するように、カメラ部の最大移動範囲内で、チルト角=±45°、パン角=±90°程度の範囲でカメラ部を移動させる。撮像中心を画角分移動させる毎に、シャッターがオンされ、例えば1/60秒または1/30秒の静止画像(以下、適宜「フレーム」と称する)が撮影される。すなわち、カメラ部では動画が撮影され、撮影された動画が1/60秒または1/30秒からなる1枚の静止画像として、後段に供給される。
【0027】
縦方向でM枚(例えば8枚)、横方向でN枚(例えば16枚)の合計(M×N=8×16=128枚)のフレームが順番に撮影され、これらを圧縮すると共に連結させて1枚の全体画像を形成する。各フレームが例えばXGA(1024×768画素)画像である。したがって、128枚のフレームは、重複部分を無視すると、(横方向が1024×16=16,384画素で、縦方向が768×8=6,144画素)の約1億画素の画像を形成する。128枚のフレームを撮影するのに約5秒かかる。重複部分は、例えば縦横のそれぞれで16画素とされる。
【0028】
カメラ部は、ディジタルスチルカメラの構成とされ、レンズ部22とフォーカス・ズーム・アイリス制御部23と撮像部24とからなる。フォーカス・ズーム・アイリス制御部23は、コントローラバス21を介してコントローラCPU33から供給される制御信号によって制御される。撮像部24は、固体撮像素子例えばCCDとカメラ信号処理回路とを含む。撮像部24からのディジタル映像信号がIEEE(Institute of Electrical and Electronics Engineers) 1394のインターフェース25を介してバッファメモリ26に書き込まれる。
【0029】
バッファメモリ26の出力データがJPEGエンコーダ/メタデータ付加部27に供給され、画像データがJPEGデータに変換される。JPEGは、圧縮方式の1つであって、他の圧縮方式を使用しても良いし、圧縮しないでも良い。
【0030】
カメラユニット3には、その位置を検出するためのGPS(Global Positioning System) 28が備えられている。GPS28を備えることによって、カメラの設置場所のデータを記録できると共に、カメラの向きを検出し、複数のカメラの向きを連動して制御することが可能となる。GPS28は、コントローラバス21を介してコントローラCPU33から供給される制御信号によって制御される。
【0031】
GPS28の出力信号がメタデータ生成部29に供給され、GPS28の測位結果に基づいた位置情報(緯度・経度、方位、高度等の情報)およびメタデータ(時刻、カメラ部のパラメータ(倍率、フォーカス値、アイリス値等)等の情報)が生成される。位置情報およびメタデータがJPEGエンコーダ/メタデータ付加部27に供給され、JPEGデータに対して位置情報およびメタデータが付加される。
【0032】
メタデータおよび位置情報が付加されたJPEGデータがハードディスク等のメインメモリ30に蓄積されると共に、グラフィックコントローラ31および画像圧縮部32に供給される。この明細書では、メインメモリ30に対する蓄積を記録と呼び、メインメモリ30からデータを読み出すことを再生と呼ぶことにする。また、メインメモリ30を介さないで現に撮影中の画像を表示することをライブモードと称し、過去に記録されたデータをメインメモリ30から再生して表示することをビューモードと称する。
【0033】
メインメモリ30は、サーバとしての機能を有する。例えばXGAの画像をJPEGで圧縮した結果、1枚のフレームのデータ量は、100kバイトとなり、128枚の画像で12.5Mバイトのデータ量である。メインメモリ30が80Gバイト程度の容量を有していれば、1日分のJPEGデータを保存することが可能である。ビューモードにおいては、メインメモリ30に限らず、アーカイブ等の蓄積装置に蓄積されているより旧いデータを再生することを可能とされている。
【0034】
メインメモリ30から読み出されたJPEGデータがグラフィックコントローラ31に供給される。画像圧縮部32は、JPEGエンコーダ/メタデータ付加部27からのJPEGデータ、またはメインメモリ30から読み出されたJPEGデータから圧縮画像またはサムネイル(縮小画像)を生成する。例えば縦方向および横方向のそれぞれが間引かれることで、パノラマ状の全体画像が形成される。また、後述する可動範囲画像を形成するための圧縮処理も、画像圧縮部32においてなされる。上述したように、XGAの場合では、約1億画素のデータがJPEG圧縮と画像圧縮部32の処理によって、(400×1000画素)のようなパノラマ状の全体画像が形成される。可動範囲画像もサムネイルであるが、全体画像よりもさらに粗い画像である。
【0035】
グラフィックコントローラ31は、JPEGデータをビットマップデータへ変換し、ディスプレイ2の画面上に所望の画像表示がなされるようなグラフィックス処理を行う。すなわち、可動範囲画像表示、全体画像表示、選択画像表示、ボタン等のGUI表示がディスプレイ2の画面上でなされる。表示の詳細については、後述する。
【0036】
また、グラフィックコントローラ31は、画像処理を行い、画像変化を検出する。画像変化は、リファレンス画像に対して生じた変化である。例えばビューモードにおいて、以前に蓄積されたリファレンス画像との比較がなされ、画像変化が検出される。リファレンス画像として、前日の所定時刻の画像を設定し、それ以降に蓄積された画像とリファレンス画像との画素の差分を検出し、画素の差分の絶対値が所定値以上の場合を変化が生じたものと検出する。差分の検出としては、比較しようとする画像とリファレンス画像との空間的同一位置のフレーム毎に同一位置の画素の差分値を演算する方法が使用できる。全画素に関する差分を検出するのに代えて、代表画素または間引かれた画素に関して差分を演算しても良い。また、所定の色を限定することによって、所定の色の物体に着目した変化検出を行うことも可能である。
【0037】
変化が検出されると、ディスプレイ2上の表示でアラーム例えば変化が検出されたフレームを他のフレームと区別できる表示がなされる。具体的には、輝度変化、色変化、ブリンク等の方法でアラームを表示できる。リファレンス画像は、蓄積されている画像の中で、所定のものを任意に選択することが可能とされている。
【0038】
上述したように、コントローラバス21に接続されたコントローラCPU33は、カメラ部のレンズ制御(例えば、フォーカス等)、露出制御(例えば、絞り、ゲイン、電子シャッタースピード等)、白バランス制御、画質制御等を行うと共に、パン部4aおよびチルト部4bを制御する。
【0039】
参照符号34は、I/Oポートである。I/Oポート34に対しては、キーボード35およびマウス36が接続され、また、I/Oポート34に対しては、メモリカード37および時計38が接続されている。メモリカード37に対して、メインメモリ30に蓄積されている位置情報およびメタデータが付加されたJPEGデータを書き込むことができる。また、時計38から時刻データが得られる。
【0040】
なお、図2では、コントローラバス21に対して各構成要素が接続されているが、カメラユニットとコンピュータとを離れた場所に設置し、両者をIEEE1394、USB等で接続するようにしても良い。この場合、物理的伝送路としては、光ファイバが使用される。光ファイバを使用すれば、数百メートルから数キロメートル程度カメラユニットと制御用のコンピュータとを離して配置できる。さらに、両者を無線LANで接続しても良い。
【0041】
図3に、この発明の一実施形態によるGUIの画面例を示す。以下、この図3を参照しながら、この発明の一実施形態によるGUIの画面に備えられた表示部、操作ボタンおよび表示領域などについて説明する。1画面には、可動範囲画像表示部101、全体画像表示部102および選択画像表示部103が配置されている。
【0042】
可動範囲画像表示部101には、可動範囲画像が表示される。可動範囲画像とは、カメラユニットが撮影可能な最大範囲を示す画像であり、複数枚のフレームにより構成される。そのためこの一実施形態では、図に示すようにパノラマ状の画像となる。上述したように、パン角の最大値が180°とされ、チルト角の最大値が90°とされており、この最大可動範囲で撮影された複数枚のフレームから可動範囲画像が生成される。なお、この可動範囲画像表示部101には、構成される複数のフレームに付加されている位置情報が組み込まれている。
【0043】
そして、後述するMRP(Movable Range Picture)表示ボタン130がクリックされた時、またはカメラユニットを設置し、撮影開始時において、カメラ部を最大可動範囲にわたって動かし、その結果得られる複数枚のフレームで構成される画像に関して縦方向および横方向に画素を間引いたサムネイルが可動範囲画像として使用される。また、所定の時間間隔で可動範囲画像を構成する全フレームを撮影し、蓄積および/または表示するようにしても良い。
【0044】
この可動範囲画像表示部101には、全体画像表示部102に表示されている範囲を認識するための全体画像表示枠101a(照準線)が示される。この全体画像表示枠101aをマウス36で動かすことによって、可動範囲画像内の所望の範囲を指示することができ、指示された範囲を撮像するようにカメラ部を制御することができる。すなわち、指示された範囲において、(M×N)枚のフレーム(静止画像)が撮影され、蓄積および/または表示される。
【0045】
なお、この全体画像表示枠101aは一例であり、様々な形状で全体画像表示部102に表示されている範囲を可動範囲画像表示部101に示すようにしても良い。具体的には、図4Aに示すように、全体画像表示部102に表示されている範囲の4辺を示すようにしても良いし、図4Bに示すように、全体画像表示部102に表示されている範囲の4隅を示すようにしても良いし、図4Cに示すように、全体画像表示部102に表示されている範囲の4隅および中央を示すようにしても良い。
【0046】
また、この全体画像表示枠101aの大きさは、一例として可動範囲画像表示部101に表示されるフレームの(8×16)枚の大きさであり、後述するREC MODE選択メニュー118で選択される記録モードの画像サイズに合わせた大きさである。従って、後述するように(4×8)枚のフレームの大きさであっても良いし、(2×4)枚のフレームの大きさであっても良い。また、1つのフレームの大きさは、レンズ部22の倍率による。
【0047】
この全体画像表示枠101aを移動させる場合、一例として全体画像表示枠101aの中央となるフレームをマウス36で選択した後、選択したフレームが中央となるように全体画像表示枠101aを表示する。また、マウス36の移動に連動して全体画像表示枠101aを移動するようにしても良いし、全体画像表示枠101aの例えば左上となるフレーム、または対角となる左上と右下の2つのフレームをマウス36で選択するようにしても良い。このように、その位置を移動した全体画像表示枠101aに対応した範囲を撮影するためにカメラユニットが制御され、カメラユニットの光軸が向けられる。
【0048】
また、全体画像表示部102には、パノラマ状の全体画像が表示される。全体画像は、撮影された原画像に対応するJPEGデータを画像圧縮部32によって圧縮した画像である。表示されている全体画像を見ることで、モニタリングを行うことができる。さらに、前述したように、画像変化が検出されると、全体画像表示部102に表示されている全体画像中で変化が検出されたフレームが他のフレームと異なる表示とされるアラームが発生する。
【0049】
選択画像表示部103には、選択画像が表示される。選択画像は、全体画像の一部を拡大した画像である。全体画像中で指示された位置の例えばフレームが選択画像として表示される。圧縮されていない1フレームの原画像を表示することで拡大することができる。さらに、ディジタル信号処理によって画像を拡大することもできる。
【0050】
EXITボタン104は、モニタリングシステムの電源をオフするためのボタンである。Camera system OFFボタン105は、カメラユニットの電源をオフするためのボタンである。
【0051】
VIEW MODEボタン106は、モニタリングシステムのモードをビューモードに切り換えるためのボタンである。ビューモードとは、メモリ30または他のサーバに蓄積された画像データに基づき、全体画像および部分画像を表示するモードである。
【0052】
LIVE MODEボタン107は、モニタリングシステムのモードをライブモードに切り換えるためのボタンである。ライブモードとは、カメラユニットが現在撮影しているフレームに基づき、全体画像および部分画像を表示するモードである。
【0053】
Compas表示領域108は、カメラユニットのレンズの光軸が向いている方位を示すコンパスを表示するための領域である。GPS Data表示領域109は、カメラユニットが設置されている場所の緯度、軽度および高度と、撮影の日時とを表示すための領域である。なお、この領域108および109に表示されるデータは、カメラユニットに備えられたGPS28において測定されたデータである。
【0054】
View offsetボタン110は、選択されたフレームの位置を調整するためのボタンである。View offsetボタン110は、それぞれ全体画像表示部102に表示されている全体画像中でポインタにより選択された1枚のフレームを、上方向、下方向、左方向、右方向に移動させるためのものである。全体画像を構成する複数枚のフレームは、隣り合うフレームと所定画素数、例えば上下、左右で16画素重複して表示されている。この重複部分の範囲内でフレームを移動させることによって、隣り合うフレームとの整合性を取ることができ、表示状態をなめらかなものとできる。
【0055】
モード表示領域129は、モード情報、アラーム情報およびエラー情報などを表示するための領域である。モード情報は、ユーザにモニタリングシステムのモードを知らせるための情報であり、具体的には、ライブモードおよびビューモードなどの情報である。アラーム情報は、ユーザに警告を促すための情報であり、例えば、上述したView offsetボタン110によりフレームを移動できる限界に達した時に表示される。エラー情報は、ユーザにモニタリングシステムにおいて発生しているエラーを知らせるための情報である。
【0056】
Camera Contorol部111は、ZOOMボタン112、FOCUSボタン113、IRISボタン114、Camera Configurationボタン115およびWhite Balanceボタン116を備える。ZOOMボタン112は、カメラユニットのズームを調整するためのボタンである。FOCUSボタン113は、カメラユニットのフォーカスを調整するためのボタンである。IRISボタン114は、カメラユニットのアイリス調整をするためのボタンである。Camera Configurationボタン115は、カメラユニットのγ特性、シャッタースピード、ゲイン特性などの調整をするためのボタンである。White Balanceボタン116は、カメラユニットの白バランスを調整するためのボタンである。なお、カメラシステムがビューモードにある場合には、Camera
Contorol部111の表示が省略されるようにしてもかまわない。
【0057】
SELECTボタン117は、ビューモードにおいて、セレクト画面を表示するためのボタンである。セレクト画面は、再生および記録を所望する領域を、全体画像を構成するフレームにより特定するための画像である。
【0058】
図5に、セレクト画面の一例を示す。図5に示すように、セレクト画面は、閉じるボタン151、画面表示部152、および閉じるボタン153から構成される。閉じるボタン151および153は、このセレクト画面を閉じるときにクリックされるボタンである。画面表示部152では、全体画像に対してフレームの区切りを示す格子状の表示が重畳して示される。画面表示部152において、例えば、所望の位置にあるフレームをポインタにより指示すると、そのフレームが選択されると共に、選択されたことを表示するために、指示されたフレームの明るさ、解像度、コントラストなどが変化する。
【0059】
REC MODE選択メニュー118は、記録モードを選択するためのプルダウンメニューである。このプルダウンメニューには、記録する画像サイズと記録方法(RUNまたはSINGLE)とを組み合わせた記録モードが表示される。画像サイズは、(8×16)枚のフレームから構成される全体画像と、全体画像の内の選択された(4×8)枚のフレームから構成される部分画像と、全体画像の内の選択された(2×4)枚のフレームから構成される部分画像との何れかが可能とされている。部分画像は、セレクト画面から選択された位置のものである。記録方法のRUNは、所定周期(例えば5秒周期)で発生する撮影画像を記録する方法であり、そのSINGLEは、1回のみ記録する方法である。記録モードとしては、これらを組み合わせたものが選択可能とされている。
【0060】
Stage Config(Stage Configuration)ボタン119は、ステージを動かす精度などを微調整するためのボタンである。メッセージ領域120は、コントロール用のコンピュータとカメラユニットとの接続状況およびカメラユニットのステージのコントロール状況を表示するための領域である。コントロール用のコンピュータとカメラユニットとが接続されている場合には、この図3中に示すように、メッセージ領域に“IMAGE SERVER CONNECT”が表示される。また、カメラユニットのステージがコントロール可能な状況にある場合には、メッセージ領域に“STAGE CONTROL ACTIVE”が表示される。
【0061】
RECボタン121は、画像の記録を開始するためのボタンであり、このボタンを押圧すると、RECモードメニューで選択されている記録モードに応じた記録が開始される。具体的には、RUN(8×16)、RUN(4×8)、RUN(2×4)、SELECT SINGLE RUN(8×16)、SELECTSINGLE RUN(4×8)、SELECT SINGLE RUN(2×4)などのモードから選択されたモードに応じた記録が開始される。
【0062】
PLAYボタン122は、サーバ(メインメモリ30)に蓄積された画像データを再生するためボタンである。具体的には、このPLAYボタン122を押圧すると、蓄積データ表示画面が表示される。この蓄積データ表示画面には、蓄積されている画像データを識別するための情報が表示される。この情報は、後述するディレクションファイルに記述されている情報に基づいたものである。
【0063】
図6に、記録データ表示画面の一例を示す。図6に示すように、この記録データ表示画面には、最小化ボタン161、最大化ボタン162、閉じるボタン163、日付指定欄164、時間指定欄165、蓄積データ表示欄166、最新蓄積データ表示欄167、OKボタン168、キャンセルボタン169、および蓄積部変更チェックボタン170が表示される。
【0064】
最小化ボタン161は、この蓄積データ表示画面を最小化するとき、例えばアイコンにするときにクリックされるボタンである。最大化ボタン162は、この蓄積データ表示画面を最大化させて、モニタの表示範囲の全てを使用して表示するときにクリックされるボタンである。閉じるボタン163は、この蓄積データ表示画面を閉じるときにクリックされるボタンである。
【0065】
日付指定欄164では、全体画像表示部102に表示させたい蓄積データの日付が指定される。例えば、日付指定欄164の右端に設けられたボタン164aをクリックすることによって、表示可能な蓄積データの日付がプルダウンメニュー形式で表示され、表示された日付の中から選択するようにしても良い。
【0066】
時間指定欄165では、全体画像表示部102に表示させたい蓄積データの時間が指定される。例えば、時間指定欄165の右端に設けられたボタン165aをクリックすることによって、表示可能な蓄積データの時間がプルダウンメニュー形式で表示され、表示された時間の中から選択するようにしても良い。
【0067】
蓄積データ表示欄166には、蓄積部の中から日付指定欄164および時間指定欄165において指定された日時の蓄積データが表示される。最新蓄積データ表示欄167には、蓄積部に蓄積されている蓄積データの中から最新の蓄積データが表示される。また、日付指定欄164および時間指定欄165において指定された日時の中の蓄積データの中から最新となる蓄積データを表示するようにしても良い。
【0068】
OKボタン168は、所望の蓄積データが指定されたときにクリックされるボタンである。キャンセルボタン169は、この蓄積データ表示画面を閉じるときにクリックするボタンである。蓄積部変更チェックボタン170は、蓄積データの読み込み先を蓄積部から、例えば着脱自在の半導体メモリに変更するときにチェックを入力するチェックボタンである。
【0069】
図3に戻って説明すると、STOPボタン123は、記録または再生動作を停止するためのボタンである。なお、STOPボタン123は、RECボタン121あるいはPLAYボタン122の押圧により表示されるようにしても良い。
【0070】
Set Camera Center POS(Set Camera Center POSITION)ボタン125は、現在カメラ部が向いている方向を(8×16)の画像のセンターとして指定するためのボタンである。
【0071】
HOMEボタン124は、カメラユニットを制御し、カメラユニットのレンズの光軸をホームポジションに向けるためのボタンである。ホームポジションは、カメラ部が一番左側の位置を向いている位置である。LIVE/VIEW POSITIONボタン126は、カメラ部をパンあるいはチルトするためのボタンである。
【0072】
ZOOMボタン127aおよび127bは、選択画像表示部103に表示された選択画像の拡大、縮小を行うためのボタンである。MAX VIEWボタン128は、選択画像を別画面例えば全体画像表示部102により拡大表示するためのボタンである。
【0073】
MRP表示ボタン130は、可動範囲画像表示部101に表示される複数枚のフレームを撮影し、蓄積および/または表示するときにクリックされるボタンである。すなわち、このMRP表示ボタン130がクリックされると、カメラユニットが撮影可能な全ての範囲をフレーム単位で撮影し、撮影された各フレームが持っているカメラ部の位置情報に基づいて全フレームを集合させて、可動範囲画像として可動範囲画像表示部101に表示させる。
【0074】
ここで、図7を用いて、この発明の一実施形態による可動範囲画像表示部101について説明する。この可動範囲画像表示部101に表示される可動範囲画像は、上述したようにMRP表示ボタン130をクリックした時、またはカメラユニットを設置し、撮影開始時において、カメラ部を最大可動範囲にわたって動かし、フレーム単位で撮影される。その撮影の結果得られる複数枚のフレームで構成される画像に関して縦方向および横方向に画素を間引いたサムネイルをカメラ部の位置情報を基に集合させ、図7に示すように1つの画像(可動範囲画像)として表示される。
【0075】
このとき、それぞれのフレームに付加されるカメラ部の位置情報と、可動範囲画像表示部101内の座標とが予め関連付けられているので、可動範囲の全てのフレームをカメラ部の位置情報に基づいて、関連付けられている座標へ配置させ、集合させることによって可動範囲画像を生成することができる。この図7の一例では、パン方向に180°、チルト方向に90°の広範囲からなる可動範囲画像が生成され、可動範囲画像表示部101に表示される。
【0076】
この可動範囲画像表示部101上の各フレームは、パン部4a、チルト部4bからカメラ部の可動範囲上における位置を示す仰角データと、GPS28で測位された位置情報およびメタデータとを備える。すなわち、位置情報を持つ可動範囲画像をGUIとして、マウス36を使用して任意の範囲を全体画像表示枠101aにて選択すると、選択された全体画像表示枠101aの位置情報に基づいて、選択された範囲のカメラ部の位置情報を得ることができる。
【0077】
このように、可動範囲画像表示部101に表示される複数枚のフレームを集合させた可動範囲画像をGUIとすることによって詳細な位置選択が可能となる。
【0078】
この一実施形態では、可動範囲画像に集合した複数枚のフレームのそれぞれにカメラ部の位置情報およびメタデータが付加されているとしたが、カメラ部の位置情報と可動範囲画像表示部101内の座標とは予め関連付けられているので、可動範囲画像表示部101の座標からカメラ部の位置情報を求めるようにしても良い。
【0079】
この一実施形態では、撮影されたそれぞれのフレームに付加されるカメラ部の位置情報が予め可動範囲画像表示部101内の座標と関連付けられているとされているが、座標ではなく、可動範囲画像表示部101内の画素位置と関連付けられていても同様の効果を得ることができる。
【0080】
この一実施形態では、マウス36を利用して任意の範囲を全体画像表示枠101aにて選択し、選択された範囲のカメラ部の位置情報を得るようにしているが、選択された全体画像表示枠101aのセンタのGUI上の位置情報から全体画像表示枠101a全体の位置情報を得るようにしても良い。
【0081】
この発明による可動範囲画像表示部101および全体画像表示枠101aの一実施形態の動作を説明する。ディスプレイ2上に表示されているMRP表示ボタン130がマウス36でクリックされる。コントローラCPU33は、MRP表示ボタン130がクリックされると、パン部4aおよびチルト部4bを制御し、可動範囲全体を撮影するように、フレーム毎にカメラ部を移動させる。
【0082】
そして、撮像部24はそれぞれ決められたフレーム位置で撮影され、撮影された画像はバッファメモリ26に一時保存され、JPEGエンコーダ/メタデータ付加部27でJPEG形式に画像圧縮が施される。このときGPS28から位置情報およびメタデータと、パン部4aおよびチルト部4bの位置を示す仰角データとが、それぞれのフレームに付加される。これらのデータが付加されたフレームは、メインメモリ30に保存される。
【0083】
また、それと同時に撮影されたフレームは、画像圧縮部32において、可動範囲画像に適したサイズに圧縮される。この圧縮された画像は、グラフィックコントローラ31を介して、ディスプレイ2上の可動範囲画像表示部101の所定の位置に表示される。
【0084】
マウス36を可動範囲画像表示部101上に移動させることによって全体画像表示枠101aの位置が移動する。そして、マウス36でクリックされた位置のフレームに付加されている位置情報、メタデータおよび仰角データが読み出される。
【0085】
読み出された位置情報および仰角データに合致する全体画像の範囲のフレームがメインメモリ30から読み出される。読み出されたフレームは、画像圧縮部32において、全体画像に適したサイズに圧縮される。この圧縮された画像は、グラフィックコントローラ31を介して、ディスプレイ2上の全体画像表示部102の所定の位置に表示される。これと同時に読み出されたフレームの位置情報および仰角データに基づいてパン部4a、チルト部4bが駆動され、カメラ部の方向が制御され、撮影される。
【0086】
次に、図8を用いて、この発明の一実施形態による全体画像の作成方法の一例について説明する。図8に示すように、カメラユニット3は、パンチルタ部4の雲台にカメラ部5が設置され、ホームポジションから撮像方向が可変される。図8において、撮影された(M×N)枚のフレームをカメラ部側から見て、各行に対して上から順に1、2、・・・、Mの番号を付し、各列に対して左から順に1、2、・・・、Nの番号を付す。ホームポジションが例えば(1,1)の座標のフレームを撮影する位置とされる。
【0087】
(1,1)の座標位置のフレームを撮影すると、カメラユニット3が下側にチルトされ、(2,1)の座標位置のフレームが撮影され、以下、順に(3,1)・・・・、(M,1)の座標位置のフレームが撮影され、次に第2列の一番上の座標位置(1,2)のフレームが撮影される。以下、各フレームを(M,N)の座標位置のフレームまで撮影する。上述したように、各フレームが他のフレームと16画素分の重複部分を有する。撮影された各フレームがJPEGによる圧縮、メインメモリ30への蓄積等の処理を受ける。
【0088】
上述したように、各フレームが例えばXGA(1024×768画素)画の場合では、128枚のフレームからなる画像は、重複部分を無視すると、(横方向が1024×16=16,384画素で、縦方向が768×8=6,144画素)の約1億画素の画像である。上述した全体画像表示部102には、この画像から形成された圧縮画像またはサムネイル画像が表示され、選択画像表示部103には、例えば1フレームのXGA画像が表示される。したがって、選択画像表示部103には、解像度が極めて高い画像を表示することができ、全体画像では、不明瞭な画像も選択画像では、明瞭な画像として表示できる。
【0089】
図9に、75倍の望遠レンズがカメラユニットに備えられている場合に、1フレームで撮影できる範囲を示す。カメラユニットから100m離れた距離にある被写体を撮影する場合には、1フレームで、縦8.7m×横1.17mの範囲を撮影することができる。例えば、カメラ部の撮像素子として、XGAを用いた場合には、被写体の縦0.87cm×横1.17cmの範囲を約1画素で表することができる。
【0090】
カメラユニットから200m離れた距離にある被写体を撮影する場合には、1フレームで、縦1.74m×横2.34mの範囲を撮影することができる。例えば、カメラ部の撮像素子として、XGAを用いた場合には、被写体の縦1.74cm×横2.34cmの範囲を1画素で表すことができる。
【0091】
カメラユニットから500m離れた距離にある被写体を撮影する場合には、1フレームで、縦4.36m×横5.84mの範囲を撮影することができる。例えば、カメラ部の撮像素子として、XGAを用いた場合には、被写体の縦4.36cm×横5.84cmの範囲を1画素で表すことができる。
【0092】
図10を参照して取得した画像データをアーカイブ10、メインメモリ30等に保存する場合のデータ管理方法を説明する。上述したように、所定時間間隔で、(M×N)枚のフレームの画像が撮影され、圧縮されて蓄積される。図10Aに示すように、M行N列によって各フレームの位置が規定される。例えば(1,1)の位置アドレスは、右端の最も上のフレームを特定する。各フレームは、この位置アドレスと記録時の時間情報とをファイル名として有する。時間情報は、年月日時分秒で構成される。したがって、各フレームのファイル名は、(年月日時分秒、位置アドレス)である。
【0093】
さらに、図10Bに示すように、(M×N)枚のフレームで全体的な1枚の画像が形成されることに対応して、ディレクションファイルが規定されている。ディレクションファイルは、(1,1)の位置アドレスを有するフレームのファイル名(すなわち、年月日時分秒、位置アドレス)と同一のデータを持つことで、当該(M×N)枚のフレームの集合を定義する。さらに、このフレームの集合に対する位置情報およびメタデータをディレクションファイルが有する。位置情報およびメタデータは、メタデータ生成部29で生成されたものである。すなわち、緯度・経度、方位、高度等の位置情報と、カメラ部のパラメータ(倍率、フォーカス値、アイリス値等)等のメタデータ情報とをディレクションファイルが有する。
【0094】
この発明は、上述したこの発明の一実施形態等に限定されるものでは無く、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば上述した一実施形態は、可動範囲画像を1枚とした例であるが、複数枚の可動範囲画像を持つようにしても良い。
【0095】
この一実施形態では、可動範囲画像表示部101上で全体画像表示枠101aを移動させて、所望の範囲が選択されると、選択された範囲の複数枚のフレームを撮影し、全体画像表示部102に表示するようにしているが、移動させているときにも、既に記録されているフレームをメインメモリ30から読み出し、全体画像表示部102に表示するようにしても良い。
【0096】
【発明の効果】
この発明に依れば、広範囲にわたる可動範囲を有するカメラ用のパンチルタ装置において、その可動範囲内でどのような画像を取り込むことができるのかを簡単にユーザに情報として表示することが可能であり、且つその表示を用いてカメラコントロールを簡便に行うことができる。
【0097】
この発明に依れば、広範囲にわたる地域を監視する必要がある場合でも、簡単にカメラの方向を合わせることができ、必要な画像を失敗することなく取り込むことができる。
【図面の簡単な説明】
【図1】この発明の一実施形態のモニタリングシステムを概略的に示すブロック図である。
【図2】この発明の一実施形態のブロック図である。
【図3】この発明の一実施形態における画面表示の一例を説明するための略線図である。
【図4】この発明の一実施形態における全体画像表示枠の一例を説明するための略線図である。
【図5】この発明の一実施形態におけるセレクト画面の一例を説明するための略線図である。
【図6】この発明の一実施形態における再生時の蓄積データ表示画面の一例を説明するための略線図である。
【図7】この発明の一実施形態における可動範囲画像表示部の一例を説明するための略線図である。
【図8】この発明の一実施形態における撮影動作および画像取得動作を説明するための略線図である。
【図9】この発明の一実施形態における被写体までの距離と撮影範囲および解像度を説明するための略線図である。
【図10】撮影された画像の管理方法を説明するための略線図である。
【符号の説明】
1・・・コンピュータ、2・・・ディスプレイ、3・・・カメラユニット、4・・・パンチルタ部、5・・・カメラ部、21・・・コントローラバス、24・・・撮影部、27・・・JPEGエンコーダ/メタデータ付加部、30・・・メインメモリ、31・・・グラフィックコントローラ、32・・・画像圧縮部、33・・・コントローラCPU、101・・・可動範囲画像表示部、102・・・全体画像表示部、103・・・選択画像表示部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a monitoring system and method applied to a surveillance camera or the like, a program, and a recording medium.
[0002]
[Prior art]
Conventionally, monitoring systems have been used to monitor a wide range of situations. For example, the monitoring system is used for marine surveillance, river monitoring, monitoring of access monitoring areas, behavior monitoring of wild animals, and the like. This monitoring system uses a video camera having a very large number of pixels because it needs to capture a wide range of images. Therefore, the price of the system is increased, and there is a problem in terms of cost.
[0003]
On the other hand, it has been proposed to generate still images in a range to be monitored by shooting still images while sequentially shifting the shooting range of the camera and connecting a large number of still images. In this case, a connected image generated by connecting a large number of still images can be an image with extremely high resolution. Therefore, when obtaining an enlarged image of a part of the connected image, the resolution of the enlarged image itself is high, and a clear image can be obtained even if it is an enlarged image.
[0004]
Due to the necessity of widening the monitoring range, the movable range of the camera is set to an extremely wide range, for example, 180 ° or 360 °. The photographing direction of the camera is switched over this wide range, a still image is acquired in each photographing direction, and a panoramic connected image is formed.
[0005]
If the photographing range is set wide, the number of still images constituting a wide range of connected images increases, and the time for acquiring images becomes longer, and the cycle of acquiring the connected images becomes longer. The area to be actually monitored is often a limited area.
[0006]
In view of this, the applicant has disclosed in Japanese Patent Application No. 2002-130761 a high-definition image by cutting out a wide area for each angle of view, capturing an image of the extracted angle of view with a normal image sensor, and combining the captured images. In addition, a system capable of obtaining a wide range of images has been proposed.
[0007]
[Problems to be solved by the invention]
However, even in this system, the mechanism for actually determining the area to be monitored had to move the camera, shoot live images, and check the shot images. In addition, there is no method for notifying the user at a glance of the relationship between the image capturing range and the photographing range.
[0008]
Accordingly, it is an object of the present invention to provide a monitoring system and method capable of confirming an image in a photographing range in advance, and further informing a user at a glance of a relationship between an image capturing range and a photographing range, and It is to provide a program and a recording medium.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, according to the first aspect of the present invention, in a monitoring system for monitoring a wide range of places, position information is added to each image data of different positions taken and stored in a storage unit, and the image data is taken. Displaying a compressed image obtained by compressing the image data or the image data stored in the storage unit at a position based on the corresponding position information, and a first set image in which the respective position information of the captured image data is incorporated; When a line of sight for recognizing a predetermined range is superimposed on the first set image, and a desired range is selected by the line of sight, image data of position information of the selected desired range is captured, and the captured image is obtained. A monitoring system comprising: a second set image displaying data at a corresponding position; and a display unit displaying the first and second set images in different areas. That.
[0010]
According to a second aspect of the present invention, there is provided an imaging unit that captures an image, an imaging direction variable unit that changes an imaging direction of the imaging unit, and image data captured by the imaging unit within a maximum movable range of the imaging direction variable unit. A position information detecting means for detecting the position information of the image data, a storage unit for adding the detected position information to the image data and storing the image data, and a compressed image obtained by compressing the photographed image data or the image data stored in the storage unit. A display unit for displaying at a position based on the corresponding position information and displaying a first group image in which the respective position information of the photographed image data is incorporated, wherein a predetermined range is provided in the first group image. When the aiming line for recognizing the image is superimposed and the desired range is selected by the aiming line, the imaging direction of the imaging unit is changed based on the position information of the selected desired range, and the image of the selected desired range is obtained. Shoot data and take A monitoring system is characterized in that so as to display the first set different from the image region of the display unit of the second set images for displaying image data in the corresponding position that is.
[0011]
According to a fifth aspect of the present invention, in the monitoring system method for monitoring a wide range of locations, position information is added to each image data at different positions and stored in the storage unit, and the captured image data or the storage unit is stored. The position information of each of the photographed image data is incorporated into a first group image that displays a compressed image obtained by compressing the image data stored in the camera at a position based on the corresponding position information, and the first group image has a predetermined position. When the aiming line for recognizing the range is superimposed and the desired range is selected by the aiming line, the image data of the position information of the selected desired range is photographed, and the photographed image data is converted into the second group image. Wherein the first and second group images are displayed in different areas of the display unit, respectively.
[0012]
The invention according to claim 6 is a step of capturing an image by the imaging unit, a step of varying the imaging direction of the imaging unit, and a step of changing the image data captured by the imaging unit within the maximum movable range of the imaging direction variable unit. The step of detecting the position information, the step of adding the detected position information to the image data, and storing the image data in the storage unit correspond to the compressed image obtained by compressing the captured image data or the image data stored in the storage unit. Displaying at a position based on the position information, and displaying, on a display unit, a first group image in which the respective position information of the captured image data is incorporated, wherein a predetermined range is included in the first group image. When the aiming line for recognizing the image is superimposed and the desired range is selected by the aiming line, the imaging direction of the imaging unit is changed based on the position information of the selected desired range, and the image of the selected desired range is obtained. De And a second group image displaying the captured image data at a corresponding position is displayed in an area of the display unit different from the first group image. .
[0013]
According to a ninth aspect of the present invention, in a program for causing a computer to execute a monitoring system method for monitoring a wide range of locations, position information is added to each piece of image data at different positions taken and stored in a storage unit, Incorporating the position information of each of the photographed image data into a first group image that displays the photographed image data or the compressed image obtained by compressing the image data stored in the storage unit at a position based on the corresponding position information. When a line of sight for recognizing a predetermined range is superimposed on the first set of images, and a desired range is selected by the line of sight, image data of position information of the selected desired range is photographed and photographed. The image data is displayed at a corresponding position of the second group image, and the first and second group images are displayed in different areas of the display unit. Is a program for executing the Nita ring system methodologies to computers.
[0014]
According to a tenth aspect of the present invention, there is provided the image capturing section, the step of capturing a video, the step of varying the image capturing direction of the image capturing section, and The step of detecting the position information, the step of adding the detected position information to the image data, and storing the image data in the storage unit correspond to the compressed image obtained by compressing the captured image data or the image data stored in the storage unit. Displaying at a position based on the position information, and displaying, on a display unit, a first group image in which the respective position information of the captured image data is incorporated, wherein a predetermined range is included in the first group image. When the aiming line for recognizing the image is superimposed and the desired range is selected by the aiming line, the imaging direction of the imaging unit is changed based on the position information of the selected desired range, and the image of the selected desired range is obtained. A second group image for photographing data and displaying the photographed image data at a corresponding position in an area different from the first group image on the display unit. This is a program to be executed by a computer.
[0015]
According to an eleventh aspect of the present invention, in a computer-readable recording medium storing a program for causing a computer to execute a monitoring system method for monitoring a wide range of places, position information is stored for each image data at different positions photographed. In addition, the image data is stored in the storage unit, and the captured image data or the compressed image obtained by compressing the image data stored in the storage unit is displayed in a first group image displaying a position based on the corresponding position information. When the position information of each of the image data is incorporated, a sight line for recognizing a predetermined range is superimposed on the first set image, and a desired range is selected by the sight line, the position information of the selected desired range is selected. The image data is photographed, the photographed image data is displayed at a corresponding position of the second group image, and the first and second group images are displayed on the display unit, respectively. A computer-readable recording medium recording a program for executing a monitoring system method in a computer, characterized in that so as to display a region to be.
[0016]
According to a twelfth aspect of the present invention, there is provided an image capturing section, a step of capturing an image, a step of changing an image capturing direction of the image capturing section, and The step of detecting the position information, the step of adding the detected position information to the image data, and storing the image data in the storage unit correspond to the compressed image obtained by compressing the captured image data or the image data stored in the storage unit. Displaying at a position based on the position information, and displaying, on a display unit, a first group image in which the respective position information of the captured image data is incorporated, wherein a predetermined range is included in the first group image. When the aiming line for recognizing the image is superimposed and the desired range is selected by the aiming line, the imaging direction of the imaging unit is changed based on the position information of the selected desired range, and the image of the selected desired range is obtained. A second group image for photographing data and displaying the photographed image data at a corresponding position in an area different from the first group image on the display unit. It is a computer-readable recording medium on which a program to be executed by a computer is recorded.
[0017]
As described above, since the movable range image when the imaging unit is moved over the maximum movable range is displayed, the photographing direction for obtaining an image in a desired range can be easily set, and operability is improved. Can be.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a schematic configuration of an embodiment of the present invention. The computer 1 to which the display 2 is connected controls the camera unit 3. The example of FIG. 1 is an example of a system in which one computer 1 controls two camera units 3 and another computer 1 ′ having a display 2 ′ controls another camera unit 3 ′. One computer can control a plurality of camera units.
[0019]
The camera unit 3 has a pan tilter unit 4 and a camera unit 5 integrally formed. The camera unit 3 is installed so that a distant target area can be photographed. As an example, the camera unit 5 has a telephoto lens having a magnification of 10 times, 70 times, or the like, and is capable of photographing a place several tens of meters to several kilometers away.
[0020]
The camera unit 5 is, for example, a digital still camera that can turn on a shutter in synchronization with an external trigger, and its photographing element, for example, a CCD (Charge Coupled Device) has a VGA (Video Graphics Array, 640 × 480 pixels) and an XGA ( It has the number of pixels such as an extended graphics array (1024 × 768 pixels) and an SXGA (super extended graphics array, 1280 × 1024 pixels). In the case of a VGA image sensor, image data is output at a rate of 30 fps (frames / second). In the case of an XGA image sensor, image data is output at a rate of 15 fps (frames / second). In the case of, image data is output at a rate of 7.5 fps (frames / second).
[0021]
The video data is transmitted from the camera unit 3 to the computer 1 via the bus 6. The bus 6 transmits a transmission path for video data and a control signal for the camera unit 3. The configuration described above is the same for the computer 1 ′ and the camera unit 3 ′.
[0022]
In the computers 1 and 1 ′, video data from the camera units 3 and 3 ′ is stored in a memory, and as described later, a GUI (Graphical User Interface) for operation is configured, and an image of a target area desired by a user is stored. The camera units 3, 3 'can be controlled so that the camera units 3, 3' can shoot. A captured image is compressed by compression encoding, for example, JPEG (Joint Photographic Experts Group).
[0023]
The computers 1 and 1 ′ are connected to each other via a LAN (Local Area Network) 7. Another computer 8 is connected to the LAN 7. Reference numeral 9 is a display of the computer 8. The computer 8 receives image data and the like from the computers 1 and 1 'via the LAN 7, accumulates video data in the archive 10, and further processes the image data. For example, processes such as face recognition, baggage recognition, environment recognition, and car recognition are performed using video data. The archive 10 can store a large amount of data such as a tape streamer.
[0024]
FIG. 2 shows a more detailed configuration of the computer 1 and the camera unit 3 in the monitoring system described above. In the example of FIG. 2, components of the camera unit and the computer are connected to a common controller bus 21 indicated by reference numeral 21.
[0025]
The pan tilter section includes a pan section 4a and a tilt section 4b. Each of the pan unit 4a and the tilt unit 4b has, for example, a stepping motor as a drive source, and pans or tilts the camera unit according to a control signal supplied from the controller CPU 33 via the controller bus 21. A camera unit is mounted on the pan tilter unit. Here, pan means rotating the camera in the horizontal direction, and tilt means rotating the camera in the vertical direction. As an example, the maximum value of the pan angle is set to 180 °, and the maximum value of the tilt angle is set to 90 °.
[0026]
As will be described later, the camera unit is moved within a range of the tilt angle = ± 45 ° and the pan angle = ± 90 ° within the maximum movement range of the camera unit. Each time the imaging center is moved by the angle of view, the shutter is turned on, and a still image of, for example, 1/60 second or 1/30 second (hereinafter, appropriately referred to as “frame”) is captured. That is, a moving image is captured by the camera unit, and the captured moving image is supplied to the subsequent stage as one still image of 1/60 or 1/30 seconds.
[0027]
A total (M × N = 8 × 16 = 128) frames of M frames (for example, 8 frames) in the vertical direction and N frames (for example, 16 frames) in the horizontal direction are sequentially photographed, and these are compressed and connected. To form one whole image. Each frame is, for example, an XGA (1024 × 768 pixel) image. Therefore, the 128 frames form an image of approximately 100 million pixels (1024 × 16 = 16,384 pixels in the horizontal direction and 768 × 8 = 6,144 pixels in the vertical direction), ignoring the overlapping portion. . It takes about 5 seconds to capture 128 frames. The overlapping portion is, for example, 16 pixels in each of the vertical and horizontal directions.
[0028]
The camera section is configured as a digital still camera, and includes a lens section 22, a focus / zoom / iris control section 23, and an imaging section 24. The focus / zoom / iris control unit 23 is controlled by a control signal supplied from the controller CPU 33 via the controller bus 21. The imaging unit 24 includes a solid-state imaging device such as a CCD and a camera signal processing circuit. A digital video signal from the imaging unit 24 is written to the buffer memory 26 via an interface 25 of an IEEE (Institute of Electrical and Electronics Engineers) 1394.
[0029]
The output data of the buffer memory 26 is supplied to a JPEG encoder / metadata adding unit 27, and the image data is converted into JPEG data. JPEG is one of the compression schemes, and other compression schemes may be used or may not be compressed.
[0030]
The camera unit 3 is provided with a GPS (Global Positioning System) 28 for detecting its position. By providing the GPS 28, it is possible to record data of the installation location of the camera, detect the orientation of the camera, and control the orientation of a plurality of cameras in conjunction. The GPS 28 is controlled by a control signal supplied from the controller CPU 33 via the controller bus 21.
[0031]
The output signal of the GPS 28 is supplied to the metadata generation unit 29, and the position information (information such as latitude / longitude, azimuth, altitude, etc.) and the metadata (time, parameters of the camera unit (magnification, focus value) based on the positioning result of the GPS 28 , Iris value, etc.). The position information and the metadata are supplied to the JPEG encoder / metadata adding unit 27, and the position information and the metadata are added to the JPEG data.
[0032]
The JPEG data to which the metadata and the position information are added is stored in a main memory 30 such as a hard disk, and is also supplied to a graphic controller 31 and an image compression unit 32. In this specification, storage in the main memory 30 is called recording, and reading out data from the main memory 30 is called reproduction. Displaying an image that is currently being shot without passing through the main memory 30 is referred to as a live mode, and reproducing and displaying previously recorded data from the main memory 30 is referred to as a view mode.
[0033]
The main memory 30 has a function as a server. For example, as a result of compressing an XGA image by JPEG, the data amount of one frame is 100 kbytes, which is a data amount of 12.5 Mbytes for 128 images. If the main memory 30 has a capacity of about 80 Gbytes, it is possible to store one day of JPEG data. In the view mode, not only the main memory 30 but also older data stored in a storage device such as an archive can be reproduced.
[0034]
JPEG data read from the main memory 30 is supplied to the graphic controller 31. The image compression unit 32 generates a compressed image or a thumbnail (reduced image) from JPEG data from the JPEG encoder / metadata adding unit 27 or JPEG data read from the main memory 30. For example, a panoramic whole image is formed by thinning out each of the vertical direction and the horizontal direction. Further, a compression process for forming a movable range image to be described later is also performed in the image compression unit 32. As described above, in the case of XGA, a panoramic whole image such as (400 × 1000 pixels) is formed from data of about 100 million pixels by JPEG compression and processing of the image compression unit 32. The movable range image is also a thumbnail, but is a coarser image than the entire image.
[0035]
The graphic controller 31 converts the JPEG data into bitmap data, and performs graphics processing such that a desired image is displayed on the screen of the display 2. That is, a GUI display such as a movable range image display, an entire image display, a selected image display, and buttons is performed on the screen of the display 2. Details of the display will be described later.
[0036]
Further, the graphic controller 31 performs image processing to detect an image change. An image change is a change that has occurred to a reference image. For example, in a view mode, a comparison with a previously stored reference image is made and an image change is detected. As a reference image, an image at a predetermined time of the previous day is set, and a pixel difference between an image stored thereafter and the reference image is detected, and a change occurs when the absolute value of the pixel difference is equal to or more than a predetermined value. Detect As the detection of the difference, a method of calculating the difference value of the pixel at the same position for each frame at the same spatial position between the image to be compared and the reference image can be used. Instead of detecting differences for all pixels, differences may be calculated for representative pixels or thinned pixels. Further, by limiting a predetermined color, it is possible to perform change detection focusing on an object having a predetermined color.
[0037]
When a change is detected, an alarm is displayed on the display 2 so that a frame in which a change is detected can be distinguished from other frames. Specifically, an alarm can be displayed by a method such as a luminance change, a color change, and blinking. As the reference image, a predetermined image can be arbitrarily selected from the stored images.
[0038]
As described above, the controller CPU 33 connected to the controller bus 21 controls the lens of the camera unit (for example, focus, etc.), exposure control (for example, aperture, gain, electronic shutter speed, etc.), white balance control, image quality control, etc. And the pan unit 4a and the tilt unit 4b are controlled.
[0039]
Reference numeral 34 is an I / O port. A keyboard 35 and a mouse 36 are connected to the I / O port 34, and a memory card 37 and a clock 38 are connected to the I / O port 34. JPEG data to which position information and metadata stored in the main memory 30 are added can be written to the memory card 37. Time data is obtained from the clock 38.
[0040]
In FIG. 2, each component is connected to the controller bus 21. However, the camera unit and the computer may be installed at a remote place, and both may be connected by IEEE1394, USB, or the like. In this case, an optical fiber is used as a physical transmission path. If an optical fiber is used, the camera unit and the control computer can be arranged at a distance of about several hundred meters to several kilometers. Further, both may be connected by a wireless LAN.
[0041]
FIG. 3 shows an example of a GUI screen according to an embodiment of the present invention. Hereinafter, a display unit, operation buttons, a display area, and the like provided on a GUI screen according to an embodiment of the present invention will be described with reference to FIG. On one screen, a movable range image display unit 101, an entire image display unit 102, and a selected image display unit 103 are arranged.
[0042]
The movable range image display unit 101 displays a movable range image. The movable range image is an image indicating the maximum range that can be photographed by the camera unit, and includes a plurality of frames. Therefore, in this embodiment, a panoramic image is obtained as shown in the figure. As described above, the maximum value of the pan angle is set to 180 ° and the maximum value of the tilt angle is set to 90 °. A movable range image is generated from a plurality of frames captured in the maximum movable range. The movable range image display unit 101 incorporates position information added to a plurality of frames that are configured.
[0043]
When an MRP (Movable Range Picture) display button 130 described later is clicked or when a camera unit is installed, the camera unit is moved over the maximum movable range at the start of photographing, and is configured with a plurality of frames obtained as a result. The thumbnails obtained by thinning out the pixels in the vertical and horizontal directions for the image to be used are used as the movable range images. Alternatively, all frames constituting the movable range image may be photographed at predetermined time intervals, and accumulated and / or displayed.
[0044]
On the movable range image display unit 101, an entire image display frame 101a (sight line) for recognizing the range displayed on the entire image display unit 102 is shown. By moving the entire image display frame 101a with the mouse 36, a desired range in the movable range image can be designated, and the camera unit can be controlled to capture the designated range. That is, within the designated range, (M × N) frames (still images) are photographed, accumulated, and / or displayed.
[0045]
The whole image display frame 101a is an example, and the range displayed on the whole image display unit 102 in various shapes may be shown on the movable range image display unit 101. Specifically, as shown in FIG. 4A, four sides of the range displayed on the whole image display unit 102 may be shown, or as shown in FIG. The four corners of the range may be indicated, or the four corners and the center of the range displayed on the entire image display unit 102 may be indicated as shown in FIG. 4C.
[0046]
The size of the whole image display frame 101a is, for example, the size of (8 × 16) frames displayed on the movable range image display unit 101, and is selected by a REC MODE selection menu 118 described later. The size matches the image size of the recording mode. Therefore, as will be described later, the size may be (4 × 8) frames, or the size may be (2 × 4) frames. The size of one frame depends on the magnification of the lens unit 22.
[0047]
When the whole image display frame 101a is moved, for example, a frame at the center of the whole image display frame 101a is selected with the mouse 36, and then the whole image display frame 101a is displayed so that the selected frame is at the center. Further, the whole image display frame 101a may be moved in conjunction with the movement of the mouse 36, or, for example, a frame at the upper left of the whole image display frame 101a, or two frames at the diagonal, upper left and lower right May be selected with the mouse 36. In this way, the camera unit is controlled to capture an area corresponding to the entire image display frame 101a whose position has been moved, and the optical axis of the camera unit is turned.
[0048]
Further, the whole image display unit 102 displays a panoramic whole image. The whole image is an image obtained by compressing the JPEG data corresponding to the captured original image by the image compression unit 32. Monitoring can be performed by looking at the displayed overall image. Further, as described above, when an image change is detected, an alarm occurs in which a frame in which a change is detected in the entire image displayed on the entire image display unit 102 is displayed differently from other frames.
[0049]
The selected image is displayed on the selected image display section 103. The selected image is an image obtained by enlarging a part of the entire image. For example, a frame at a position designated in the entire image is displayed as a selected image. It is possible to enlarge the image by displaying the uncompressed one frame original image. Further, the image can be enlarged by digital signal processing.
[0050]
The EXIT button 104 is a button for turning off the power of the monitoring system. The Camera system OFF button 105 is a button for turning off the power of the camera unit.
[0051]
The VIEW MODE button 106 is a button for switching the mode of the monitoring system to the view mode. The view mode is a mode for displaying an entire image and a partial image based on image data stored in the memory 30 or another server.
[0052]
The LIVE MODE button 107 is a button for switching the mode of the monitoring system to the live mode. The live mode is a mode in which an entire image and a partial image are displayed based on a frame currently being captured by the camera unit.
[0053]
The Compas display area 108 is an area for displaying a compass indicating the direction of the optical axis of the lens of the camera unit. The GPS Data display area 109 is an area for displaying the latitude, lightness, and altitude of the place where the camera unit is installed, and the date and time of shooting. Note that the data displayed in the areas 108 and 109 are data measured by the GPS 28 provided in the camera unit.
[0054]
The View offset button 110 is a button for adjusting the position of the selected frame. The View offset button 110 is used to move one frame selected by the pointer in the entire image displayed on the entire image display unit 102 in the upward, downward, left, and right directions. is there. The plurality of frames constituting the entire image are displayed so as to overlap the adjacent frame by a predetermined number of pixels, for example, 16 pixels vertically and horizontally. By moving the frame within the range of the overlapping portion, consistency with the adjacent frame can be obtained, and the display state can be made smooth.
[0055]
The mode display area 129 is an area for displaying mode information, alarm information, error information, and the like. The mode information is information for notifying the user of the mode of the monitoring system, and specifically, information such as a live mode and a view mode. The alarm information is information for urging the user to warn, and is displayed, for example, when the limit of the movement of the frame by the above-described View offset button 110 is reached. The error information is information for notifying a user of an error occurring in the monitoring system.
[0056]
The Camera Control unit 111 includes a ZOOM button 112, a FOCUS button 113, an IRIS button 114, a Camera Configuration button 115, and a White Balance button 116. The ZOOM button 112 is a button for adjusting the zoom of the camera unit. The FOCUS button 113 is a button for adjusting the focus of the camera unit. The IRIS button 114 is a button for adjusting the iris of the camera unit. The Camera Configuration button 115 is a button for adjusting gamma characteristics, shutter speed, gain characteristics, and the like of the camera unit. The White Balance button 116 is a button for adjusting the white balance of the camera unit. Note that when the camera system is in the view mode, Camera
The display of the control unit 111 may be omitted.
[0057]
The SELECT button 117 is a button for displaying a select screen in the view mode. The select screen is an image for specifying an area in which reproduction and recording are desired by frames forming the entire image.
[0058]
FIG. 5 shows an example of the select screen. As shown in FIG. 5, the select screen includes a close button 151, a screen display unit 152, and a close button 153. The close buttons 151 and 153 are buttons that are clicked when closing this select screen. On the screen display unit 152, a grid-like display indicating a frame break is superimposed on the entire image. In the screen display unit 152, for example, when a frame at a desired position is designated by a pointer, the frame is selected, and the brightness, resolution, contrast, etc. of the designated frame are displayed in order to display the selection. Changes.
[0059]
The REC MODE selection menu 118 is a pull-down menu for selecting a recording mode. In this pull-down menu, a recording mode in which a recording image size and a recording method (RUN or SINGLE) are combined is displayed. The image size is determined by selecting an entire image composed of (8 × 16) frames, a partial image composed of (4 × 8) frames selected from the entire image, and a selection of the entire image. One of the (2 × 4) divided frames composed of (2 × 4) frames. The partial image is at a position selected from the select screen. The RUN of the recording method is a method of recording a captured image generated in a predetermined cycle (for example, a 5-second cycle), and the SINGLE is a method of recording only once. As the recording mode, a combination of these can be selected.
[0060]
A Stage Configuration (Stage Configuration) button 119 is a button for finely adjusting the accuracy of moving the stage. The message area 120 is an area for displaying the connection status between the control computer and the camera unit and the control status of the stage of the camera unit. When the control computer and the camera unit are connected, "IMAGE SERVER CONNECT" is displayed in the message area as shown in FIG. If the stage of the camera unit is in a controllable state, “STAGE CONTROL ACTIVE” is displayed in the message area.
[0061]
The REC button 121 is a button for starting recording of an image. When this button is pressed, recording according to the recording mode selected in the REC mode menu is started. Specifically, RUN (8 × 16), RUN (4 × 8), RUN (2 × 4), SELECT SINGLE RUN (8 × 16), SELECTSINGLE RUN (4 × 8), SELECT SINGLE RUN (2 × 4) ) Starts recording according to the mode selected from the modes.
[0062]
The PLAY button 122 is a button for reproducing the image data stored in the server (main memory 30). Specifically, when the PLAY button 122 is pressed, a stored data display screen is displayed. Information for identifying stored image data is displayed on the stored data display screen. This information is based on information described in a direction file described later.
[0063]
FIG. 6 shows an example of the recording data display screen. As shown in FIG. 6, the recorded data display screen includes a minimize button 161, a maximize button 162, a close button 163, a date designation field 164, a time designation field 165, a stored data display field 166, a latest stored data display field. 167, an OK button 168, a cancel button 169, and a storage section change check button 170 are displayed.
[0064]
The minimize button 161 is a button that is clicked when the accumulated data display screen is minimized, for example, when the icon is displayed as an icon. The maximize button 162 is a button that is clicked when the accumulated data display screen is maximized and displayed using the entire display range of the monitor. The close button 163 is a button that is clicked when closing the stored data display screen.
[0065]
In the date designation field 164, the date of the accumulated data to be displayed on the whole image display unit 102 is designated. For example, by clicking a button 164a provided at the right end of the date designation field 164, the dates of the accumulated data that can be displayed may be displayed in a pull-down menu format, and may be selected from the displayed dates.
[0066]
In the time designation field 165, the time of the accumulated data to be displayed on the whole image display unit 102 is designated. For example, by clicking a button 165a provided at the right end of the time designation field 165, the time of the displayable accumulated data may be displayed in a pull-down menu format, and the time may be selected from the displayed times.
[0067]
The accumulated data display section 166 displays accumulated data of the date and time designated in the date designation section 164 and the time designation section 165 from the accumulation section. The latest stored data display field 167 displays the latest stored data from among the stored data stored in the storage unit. Alternatively, the latest accumulated data may be displayed from the accumulated data in the date and time designated in the date designation field 164 and the time designation field 165.
[0068]
The OK button 168 is a button that is clicked when desired storage data is specified. A cancel button 169 is a button that is clicked when closing the stored data display screen. The storage unit change check button 170 is a check button for inputting a check when changing the reading destination of the stored data from the storage unit to, for example, a removable semiconductor memory.
[0069]
Referring back to FIG. 3, the STOP button 123 is a button for stopping a recording or reproducing operation. The STOP button 123 may be displayed by pressing the REC button 121 or the PLAY button 122.
[0070]
The Set Camera Center POS (Set Camera Center POSITION) button 125 is a button for designating the direction in which the camera unit is currently facing as the center of the (8 × 16) image.
[0071]
The HOME button 124 is a button for controlling the camera unit and pointing the optical axis of the lens of the camera unit to the home position. The home position is a position where the camera unit faces the leftmost position. The LIVE / VIEW POSITION button 126 is a button for panning or tilting the camera unit.
[0072]
The ZOOM buttons 127a and 127b are buttons for enlarging or reducing the selected image displayed on the selected image display unit 103. The MAX VIEW button 128 is a button for enlarging and displaying the selected image on another screen, for example, the entire image display unit 102.
[0073]
The MRP display button 130 is a button that is clicked when capturing a plurality of frames displayed on the movable range image display unit 101 and storing and / or displaying the frames. That is, when the MRP display button 130 is clicked, the entire range that can be photographed by the camera unit is photographed in frame units, and all frames are collected based on the position information of the camera unit of each photographed frame. Then, it is displayed on the movable range image display unit 101 as a movable range image.
[0074]
Here, the movable range image display unit 101 according to the embodiment of the present invention will be described with reference to FIG. The movable range image displayed on the movable range image display unit 101 is, as described above, when the MRP display button 130 is clicked, or a camera unit is installed, and at the start of shooting, the camera unit is moved over the maximum movable range, Photographed in frame units. As shown in FIG. 7, thumbnails obtained by thinning pixels in the vertical and horizontal directions for an image composed of a plurality of frames obtained as a result of the shooting are collected based on the position information of the camera unit, and as shown in FIG. Range image).
[0075]
At this time, since the position information of the camera unit added to each frame and the coordinates in the movable range image display unit 101 are associated in advance, all the frames in the movable range are determined based on the position information of the camera unit. The movable range image can be generated by arranging and assembling at the associated coordinates. In the example of FIG. 7, a movable range image having a wide range of 180 ° in the pan direction and 90 ° in the tilt direction is generated and displayed on the movable range image display unit 101.
[0076]
Each frame on the movable range image display unit 101 includes elevation data indicating a position of the camera unit in the movable range from the pan unit 4a and the tilt unit 4b, and position information and metadata measured by the GPS 28. That is, when a movable range image having position information is set as a GUI and an arbitrary range is selected in the entire image display frame 101a using the mouse 36, the image is selected based on the position information of the selected entire image display frame 101a. Position information of the camera unit in the range of the camera can be obtained.
[0077]
As described above, a detailed position can be selected by using a GUI as a movable range image in which a plurality of frames displayed on the movable range image display unit 101 are aggregated.
[0078]
In this embodiment, the position information and the metadata of the camera unit are added to each of the plurality of frames assembled in the movable range image. Since the coordinates are associated in advance, the position information of the camera unit may be obtained from the coordinates of the movable range image display unit 101.
[0079]
In this embodiment, the position information of the camera unit added to each captured frame is assumed to be associated with the coordinates in the movable range image display unit 101 in advance. The same effect can be obtained even when the image is associated with the pixel position in the display unit 101.
[0080]
In this embodiment, an arbitrary range is selected in the whole image display frame 101a using the mouse 36, and the position information of the camera unit in the selected range is obtained. The position information of the entire image display frame 101a may be obtained from the position information on the GUI of the center of the frame 101a.
[0081]
The operation of one embodiment of the movable range image display unit 101 and the entire image display frame 101a according to the present invention will be described. The MRP display button 130 displayed on the display 2 is clicked with the mouse 36. When the MRP display button 130 is clicked, the controller CPU 33 controls the pan unit 4a and the tilt unit 4b, and moves the camera unit for each frame so as to capture the entire movable range.
[0082]
Then, the image pickup unit 24 is photographed at the determined frame position, and the photographed image is temporarily stored in the buffer memory 26, and the image is compressed in the JPEG format by the JPEG encoder / metadata adding unit 27. At this time, position information and metadata from the GPS 28 and elevation data indicating the positions of the pan unit 4a and the tilt unit 4b are added to each frame. The frame to which these data are added is stored in the main memory 30.
[0083]
At the same time, the frame shot at the same time is compressed by the image compression unit 32 to a size suitable for the movable range image. The compressed image is displayed at a predetermined position of the movable range image display unit 101 on the display 2 via the graphic controller 31.
[0084]
By moving the mouse 36 over the movable range image display unit 101, the position of the whole image display frame 101a moves. Then, position information, metadata, and elevation data added to the frame at the position clicked with the mouse 36 are read.
[0085]
Frames within the range of the entire image that match the read position information and the elevation data are read from the main memory 30. The read frame is compressed by the image compression unit 32 to a size suitable for the entire image. The compressed image is displayed at a predetermined position on the entire image display unit 102 on the display 2 via the graphic controller 31. At the same time, the pan unit 4a and the tilt unit 4b are driven based on the read position information and the elevation angle data of the frame, the direction of the camera unit is controlled, and an image is taken.
[0086]
Next, an example of a method of creating an entire image according to an embodiment of the present invention will be described with reference to FIG. As shown in FIG. 8, in the camera unit 3, the camera unit 5 is installed on the pan head of the pan tilter unit 4, and the imaging direction can be changed from the home position. In FIG. 8, (M × N) taken frames are viewed from the camera unit side, and numbers 1, 2,... , N from the left. The home position is, for example, a position at which a frame at the coordinates of (1, 1) is captured.
[0087]
When the frame at the coordinate position (1, 1) is photographed, the camera unit 3 is tilted downward, and the frame at the coordinate position (2, 1) is photographed. , (M, 1) is shot, and then the frame at the top coordinate position (1, 2) in the second column is shot. Hereinafter, each frame is photographed up to the frame at the coordinate position of (M, N). As described above, each frame has an overlapping portion of 16 pixels with another frame. Each photographed frame undergoes processing such as compression by JPEG and accumulation in the main memory 30.
[0088]
As described above, in the case where each frame is, for example, an XGA (1024 × 768 pixel) image, an image composed of 128 frames is 1024 × 16 = 16,384 pixels in the horizontal direction, ignoring the overlapped portion. This is an image of about 100 million pixels of 768 × 8 = 6,144 pixels in the vertical direction. The compressed image or the thumbnail image formed from this image is displayed on the whole image display unit 102 described above, and the selected image display unit 103 displays, for example, an XGA image of one frame. Therefore, an image with extremely high resolution can be displayed on the selected image display unit 103, and an unclear image can be displayed as a clear image in the selected image in the whole image.
[0089]
FIG. 9 shows a range that can be photographed in one frame when a 75 × telephoto lens is provided in the camera unit. When photographing a subject at a distance of 100 m from the camera unit, one frame can capture a range of 8.7 m in length × 1.17 m in width. For example, when XGA is used as an image sensor of the camera unit, a range of 0.87 cm in length × 1.17 cm in width of the subject can be represented by about one pixel.
[0090]
When photographing a subject at a distance of 200 m from the camera unit, one frame can photograph a range of 1.74 m in length × 2.34 m in width. For example, when an XGA is used as an image pickup device of the camera unit, an area of 1.74 cm in length × 2.34 cm in width of a subject can be represented by one pixel.
[0091]
When photographing a subject at a distance of 500 m from the camera unit, one frame can photograph a range of 4.36 m in length × 5.84 m in width. For example, when an XGA is used as an image pickup device of the camera unit, an area of 4.36 cm in length × 5.84 cm in width can be represented by one pixel.
[0092]
A data management method for storing acquired image data in the archive 10, the main memory 30, or the like will be described with reference to FIG. As described above, at predetermined time intervals, (M × N) frames of images are captured, compressed, and stored. As shown in FIG. 10A, the position of each frame is defined by M rows and N columns. For example, the position address of (1, 1) specifies the uppermost frame at the right end. Each frame has this position address and time information at the time of recording as a file name. The time information includes year, month, day, hour, minute, and second. Therefore, the file name of each frame is (year / month / day / hour / minute / second, position address).
[0093]
Further, as shown in FIG. 10B, a direction file is defined corresponding to the formation of one entire image in (M × N) frames. The direction file has the same data as the file name of the frame having the position address of (1, 1) (that is, year, month, day, hour, minute, second, and position address), so that a set of (M × N) frames is obtained. Is defined. Further, the direction file has position information and metadata for the set of frames. The position information and the metadata are generated by the metadata generation unit 29. That is, the direction file has position information such as latitude / longitude, azimuth and altitude, and metadata information such as parameters (magnification, focus value, iris value, etc.) of the camera unit.
[0094]
The present invention is not limited to the above-described embodiment of the present invention, and various modifications and applications are possible without departing from the gist of the present invention. For example, in the above-described embodiment, the number of movable range images is one, but a plurality of movable range images may be provided.
[0095]
In this embodiment, when a desired range is selected by moving the whole image display frame 101a on the movable range image display unit 101, a plurality of frames in the selected range are photographed, and the whole image display unit 101 is taken. Although the image is displayed on the display 102, the frame already recorded may be read from the main memory 30 and displayed on the entire image display unit 102 even when the image is moved.
[0096]
【The invention's effect】
According to the present invention, in a pan tilter device for a camera having a wide movable range, it is possible to easily display as a user information as to what kind of images can be captured within the movable range, In addition, camera control can be easily performed using the display.
[0097]
According to the present invention, even when it is necessary to monitor a wide area, the direction of the camera can be easily adjusted, and a necessary image can be captured without failure.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a monitoring system according to an embodiment of the present invention.
FIG. 2 is a block diagram of one embodiment of the present invention.
FIG. 3 is a schematic diagram illustrating an example of a screen display according to the embodiment of the present invention.
FIG. 4 is a schematic diagram illustrating an example of an entire image display frame according to an embodiment of the present invention.
FIG. 5 is a schematic diagram illustrating an example of a select screen according to an embodiment of the present invention.
FIG. 6 is a schematic diagram illustrating an example of a stored data display screen during reproduction according to an embodiment of the present invention.
FIG. 7 is a schematic diagram illustrating an example of a movable range image display unit according to an embodiment of the present invention.
FIG. 8 is a schematic diagram illustrating a photographing operation and an image acquiring operation according to the embodiment of the present invention.
FIG. 9 is a schematic diagram illustrating a distance to a subject, a photographing range, and a resolution according to an embodiment of the present invention.
FIG. 10 is a schematic diagram illustrating a method for managing a captured image.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Computer, 2 ... Display, 3 ... Camera unit, 4 ... Pan tilter part, 5 ... Camera part, 21 ... Controller bus, 24 ... Shooting part, 27 ... JPEG encoder / metadata adding unit, 30: main memory, 31: graphic controller, 32: image compression unit, 33: controller CPU, 101: movable range image display unit, 102 ..Whole image display section, 103 ... Selected image display section

Claims (12)

広範囲な場所を監視するモニタリングシステムにおいて、
撮影された異なる位置の画像データ毎に位置情報を付加して蓄積部に蓄積し、上記撮影された画像データまたは上記蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、上記撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像と、
上記第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を上記照準線で選択すると、上記選択された所望の範囲の位置情報の画像データを撮影し、上記撮影された画像データを対応する位置に表示する第2の集合画像と、
上記第1および第2の集合画像をそれぞれ異なる領域に表示する表示部と
を有することを特徴とするモニタリングシステム。
In a monitoring system that monitors a wide area,
The position information is added to each of the image data at the different photographed positions and stored in the storage unit. Based on the corresponding position information, the photographed image data or the compressed image obtained by compressing the image data stored in the storage unit is compressed based on the corresponding position information. A first grouped image displayed at the set position and incorporating the position information of each of the photographed image data;
When a line of sight for recognizing a predetermined range is superimposed on the first set of images and a desired range is selected by the line of sight, image data of position information of the selected desired range is captured, and A second group image displaying the captured image data at a corresponding position;
A display unit for displaying the first and second group images in different areas, respectively.
映像を撮影する撮像部と、
上記撮像部の撮像方向を可変する撮像方向可変部と、
上記撮像方向可変部の最大可動範囲内において、上記撮像部で撮像された画像データの位置情報を検出する位置情報検出手段と、
上記検出された位置情報を上記画像データに付加し、蓄積する蓄積部と、
上記撮影された画像データまたは上記蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、上記撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像を表示する表示部とを有し、
上記第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を上記照準線で選択すると、上記選択された所望の範囲の位置情報に基づいて上記撮像部の撮像方向を可変し、上記選択された所望の範囲の画像データを撮影し、上記撮影された画像データを対応する位置に表示する第2の集合画像を上記表示部の上記第1の集合画像と異なる領域に表示するようにしたことを特徴とするモニタリングシステム。
An imaging unit that captures video,
An imaging direction variable unit that changes an imaging direction of the imaging unit;
Within the maximum movable range of the imaging direction variable unit, position information detecting means for detecting position information of image data imaged by the imaging unit,
A storage unit for adding the detected position information to the image data and storing the image data;
A compressed image obtained by compressing the captured image data or the image data stored in the storage unit is displayed at a position based on the corresponding position information, and the position information of each of the captured image data is incorporated. A display unit for displaying one set image,
When a line of sight for recognizing a predetermined range is superimposed on the first set image and a desired range is selected by the line of sight, the image of the imaging unit is captured based on the position information of the selected desired range. A second group image that changes the direction, captures the image data in the selected desired range, and displays the captured image data at a corresponding position is different from the first group image on the display unit A monitoring system characterized in that it is displayed in an area.
上記所望の範囲を上記照準線で選択している間、および上記所望の範囲を上記照準線で選択し、上記所望の範囲の撮影が開始されるまでの間、上記第1の集合画像から上記照準線で選択された上記所望の範囲の画像データを上記蓄積部から読み出して上記第2の集合画像の対応する位置に表示するようにしたことを特徴とする請求項1または2に記載のモニタリングシステム。While the desired range is selected with the aiming line, and the desired range is selected with the aiming line, and until the photographing of the desired range is started, the first set image is The monitoring according to claim 1, wherein image data in the desired range selected by a sight line is read out from the storage unit and displayed at a corresponding position of the second group image. 4. system. 上記照準線は、上記第1の集合画像の所望の点が選択されたときに、上記選択された所望の点に応じて上記第1の集合画像に重畳されるようにしたことを特徴とする請求項1または2に記載のモニタリングシステム。The sight line is superimposed on the first set image according to the selected desired point when a desired point of the first set image is selected. The monitoring system according to claim 1. 広範囲な場所を監視するモニタリングシステム方法において、
撮影された異なる位置の画像データ毎に位置情報を付加して蓄積部に蓄積し、上記撮影された画像データまたは上記蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示する第1の集合画像に、上記撮影された画像データのそれぞれの位置情報を組み込み、
上記第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を上記照準線で選択すると、上記選択された所望の範囲の位置情報の画像データを撮影し、上記撮影された画像データを第2の集合画像の対応する位置に表示し、
上記第1および第2の集合画像を表示部のそれぞれ異なる領域に表示する
ようにしたことを特徴とするモニタリングシステム方法。
In a monitoring system method for monitoring a large area,
The position information is added to each of the image data at the different photographed positions and stored in the storage unit. Based on the corresponding position information, the photographed image data or the compressed image obtained by compressing the image data stored in the storage unit is compressed based on the corresponding position information. Position information of each of the photographed image data is incorporated into the first group image displayed at the set position,
When a line of sight for recognizing a predetermined range is superimposed on the first set of images and a desired range is selected by the line of sight, image data of position information of the selected desired range is captured, and Displaying the captured image data at a corresponding position of the second group image;
A monitoring system method, wherein the first and second group images are displayed in different areas of a display unit.
撮像部で映像を撮影するステップと、
上記撮像部の撮像方向を可変するステップと、
上記撮像方向可変部の最大可動範囲内において、上記撮像部で撮像された画像データの位置情報を検出するステップと、
上記検出された位置情報を上記画像データに付加し、蓄積部に蓄積するステップと、
上記撮影された画像データまたは上記蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、上記撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像を表示部に表示するステップとを有し、
上記第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を上記照準線で選択すると、上記選択された所望の範囲の位置情報に基づいて上記撮像部の撮像方向を可変し、上記選択された所望の範囲の画像データを撮影し、上記撮影された画像データを対応する位置に表示する第2の集合画像を上記表示部の上記第1の集合画像と異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法。
Capturing a video with an imaging unit;
Changing the imaging direction of the imaging unit;
Detecting the position information of the image data captured by the imaging unit within the maximum movable range of the imaging direction variable unit;
Adding the detected position information to the image data and storing the information in a storage unit;
A compressed image obtained by compressing the captured image data or the image data stored in the storage unit is displayed at a position based on the corresponding position information, and the position information of each of the captured image data is incorporated. Displaying the one set image on the display unit;
When a line of sight for recognizing a predetermined range is superimposed on the first set image and a desired range is selected by the line of sight, the image of the imaging unit is captured based on the position information of the selected desired range. A second group image that changes the direction, captures the image data in the selected desired range, and displays the captured image data at a corresponding position is different from the first group image on the display unit A monitoring system method characterized in that the information is displayed in an area.
上記所望の範囲を上記照準線で選択している間、および上記所望の範囲を上記照準線で選択し、上記所望の範囲の撮影が開始されるまでの間、上記第1の集合画像から上記照準線で選択された上記所望の範囲の画像データを上記蓄積部から読み出して上記第2の集合画像の対応する位置に表示するようにしたことを特徴とする請求項5または6に記載のモニタリングシステム方法。While the desired range is selected by the aiming line, and the desired range is selected by the aiming line, and until the shooting of the desired range is started, the first set image is 7. The monitoring according to claim 5, wherein the image data in the desired range selected by the sight line is read out from the storage unit and displayed at a corresponding position of the second group image. System method. 上記照準線は、上記第1の集合画像の所望の点が選択されたときに、上記選択された所望の点に応じて上記第1の集合画像に重畳されるようにしたことを特徴とする請求項5または6に記載のモニタリングシステム方法。The sight line is superimposed on the first set image according to the selected desired point when a desired point of the first set image is selected. The monitoring system method according to claim 5. 広範囲な場所を監視するモニタリングシステム方法をコンピュータに実行させるためのプログラムにおいて、
撮影された異なる位置の画像データ毎に位置情報を付加して蓄積部に蓄積し、上記撮影された画像データまたは上記蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示する第1の集合画像に、上記撮影された画像データのそれぞれの位置情報を組み込み、
上記第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を上記照準線で選択すると、上記選択された所望の範囲の位置情報の画像データを撮影し、上記撮影された画像データを第2の集合画像の対応する位置に表示し、
上記第1および第2の集合画像を表示部のそれぞれ異なる領域に表示する
ようにしたことを特徴とするモニタリングシステム方法をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute a monitoring system method for monitoring a wide area,
The position information is added to each of the image data at the different photographed positions and stored in the storage unit. Based on the corresponding position information, the photographed image data or the compressed image obtained by compressing the image data stored in the storage unit is compressed based on the corresponding position information. Position information of each of the photographed image data is incorporated into the first group image displayed at the set position,
When a line of sight for recognizing a predetermined range is superimposed on the first set of images and a desired range is selected by the line of sight, image data of position information of the selected desired range is captured, and Displaying the captured image data at a corresponding position of the second group image;
A program for causing a computer to execute a monitoring system method, wherein the first and second group images are displayed in different areas of a display unit.
撮像部で映像を撮影するステップと、
上記撮像部の撮像方向を可変するステップと、
上記撮像方向可変部の最大可動範囲内において、上記撮像部で撮像された画像データの位置情報を検出するステップと、
上記検出された位置情報を上記画像データに付加し、蓄積部に蓄積するステップと、
上記撮影された画像データまたは上記蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、上記撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像を表示部に表示するステップとを有し、
上記第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を上記照準線で選択すると、上記選択された所望の範囲の位置情報に基づいて上記撮像部の撮像方向を可変し、上記選択された所望の範囲の画像データを撮影し、上記撮影された画像データを対応する位置に表示する第2の集合画像を上記表示部の上記第1の集合画像と異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法をコンピュータに実行させるためのプログラム。
Capturing a video with an imaging unit;
Changing the imaging direction of the imaging unit;
Detecting the position information of the image data captured by the imaging unit within the maximum movable range of the imaging direction variable unit;
Adding the detected position information to the image data and storing the information in a storage unit;
A compressed image obtained by compressing the captured image data or the image data stored in the storage unit is displayed at a position based on the corresponding position information, and the position information of each of the captured image data is incorporated. Displaying the one set image on the display unit;
When a line of sight for recognizing a predetermined range is superimposed on the first set image and a desired range is selected by the line of sight, the image of the imaging unit is captured based on the position information of the selected desired range. A second group image that changes the direction, captures the image data in the selected desired range, and displays the captured image data at a corresponding position is different from the first group image on the display unit A program for causing a computer to execute a monitoring system method characterized in that the method is displayed in an area.
広範囲な場所を監視するモニタリングシステム方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体において、
撮影された異なる位置の画像データ毎に位置情報を付加して蓄積部に蓄積し、上記撮影された画像データまたは上記蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示する第1の集合画像に、上記撮影された画像データのそれぞれの位置情報を組み込み、
上記第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を上記照準線で選択すると、上記選択された所望の範囲の位置情報の画像データを撮影し、上記撮影された画像データを第2の集合画像の対応する位置に表示し、
上記第1および第2の集合画像を表示部のそれぞれ異なる領域に表示する
ようにしたことを特徴とするモニタリングシステム方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
In a computer-readable recording medium recording a program for causing a computer to execute a monitoring system method for monitoring a wide area,
The position information is added to each of the image data at the different photographed positions and stored in the storage unit. Based on the corresponding position information, the photographed image data or the compressed image obtained by compressing the image data stored in the storage unit is compressed based on the corresponding position information. Position information of each of the photographed image data is incorporated into the first group image displayed at the set position,
When a line of sight for recognizing a predetermined range is superimposed on the first set of images and a desired range is selected by the line of sight, image data of position information of the selected desired range is captured, and Displaying the captured image data at a corresponding position of the second group image;
A computer-readable recording medium storing a program for causing a computer to execute a monitoring system method, wherein the first and second group images are displayed in different areas of a display unit.
撮像部で映像を撮影するステップと、
上記撮像部の撮像方向を可変するステップと、
上記撮像方向可変部の最大可動範囲内において、上記撮像部で撮像された画像データの位置情報を検出するステップと、
上記検出された位置情報を上記画像データに付加し、蓄積部に蓄積するステップと、
上記撮影された画像データまたは上記蓄積部に蓄積された画像データを圧縮した圧縮画像を対応する位置情報に基づいた位置に表示し、上記撮影された画像データのそれぞれの位置情報が組み込まれた第1の集合画像を表示部に表示するステップとを有し、
上記第1の集合画像に所定の範囲を認識するための照準線を重畳し、所望の範囲を上記照準線で選択すると、上記選択された所望の範囲の位置情報に基づいて上記撮像部の撮像方向を可変し、上記選択された所望の範囲の画像データを撮影し、上記撮影された画像データを対応する位置に表示する第2の集合画像を上記表示部の上記第1の集合画像と異なる領域に表示するようにしたことを特徴とするモニタリングシステム方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
Capturing a video with an imaging unit;
Changing the imaging direction of the imaging unit;
Detecting the position information of the image data captured by the imaging unit within the maximum movable range of the imaging direction variable unit;
Adding the detected position information to the image data and storing the information in a storage unit;
A compressed image obtained by compressing the captured image data or the image data stored in the storage unit is displayed at a position based on the corresponding position information, and the position information of each of the captured image data is incorporated. Displaying the one set image on the display unit;
When a line of sight for recognizing a predetermined range is superimposed on the first set image and a desired range is selected by the line of sight, the image of the imaging unit is captured based on the position information of the selected desired range. A second group image that changes the direction, captures the image data in the selected desired range, and displays the captured image data at a corresponding position is different from the first group image on the display unit A computer-readable storage medium storing a program for causing a computer to execute the monitoring system method, wherein the program is displayed in an area.
JP2002248438A 2002-08-28 2002-08-28 Monitoring system and method, program, and recording medium Expired - Fee Related JP3991816B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002248438A JP3991816B2 (en) 2002-08-28 2002-08-28 Monitoring system and method, program, and recording medium
US10/649,150 US7697025B2 (en) 2002-08-28 2003-08-27 Camera surveillance system and method for displaying multiple zoom levels of an image on different portions of a display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002248438A JP3991816B2 (en) 2002-08-28 2002-08-28 Monitoring system and method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004088559A true JP2004088559A (en) 2004-03-18
JP3991816B2 JP3991816B2 (en) 2007-10-17

Family

ID=32055821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002248438A Expired - Fee Related JP3991816B2 (en) 2002-08-28 2002-08-28 Monitoring system and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP3991816B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006245793A (en) * 2005-03-01 2006-09-14 Konica Minolta Holdings Inc Imaging system
JP2008009768A (en) * 2006-06-29 2008-01-17 Victor Co Of Japan Ltd Motion detector and motion detecting method
JP2008278384A (en) * 2007-05-02 2008-11-13 Sony Corp Monitoring system, camera, and display unit controller

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006245793A (en) * 2005-03-01 2006-09-14 Konica Minolta Holdings Inc Imaging system
JP2008009768A (en) * 2006-06-29 2008-01-17 Victor Co Of Japan Ltd Motion detector and motion detecting method
JP4706573B2 (en) * 2006-06-29 2011-06-22 日本ビクター株式会社 Motion detection device and motion detection method
JP2008278384A (en) * 2007-05-02 2008-11-13 Sony Corp Monitoring system, camera, and display unit controller

Also Published As

Publication number Publication date
JP3991816B2 (en) 2007-10-17

Similar Documents

Publication Publication Date Title
US8462253B2 (en) Monitoring system for a photography unit, monitoring method, computer program, and storage medium
JP3925299B2 (en) Monitoring system and method
US7573492B2 (en) Monitoring system and method, and program and recording medium used therewith
US7697025B2 (en) Camera surveillance system and method for displaying multiple zoom levels of an image on different portions of a display
EP1696398B1 (en) Information processing system, information processing apparatus and information processing method , program, and recording medium
JP2006333132A (en) Imaging apparatus and method, program, program recording medium and imaging system
JP2006245793A (en) Imaging system
JP2006245648A (en) Information processing system, information processing apparatus, information processing method, program and recording medium
US8436919B2 (en) Photographing method of generating image of traced moving path and photographing apparatus using the photographing method
JP3841033B2 (en) Monitoring system and method, program, and recording medium
JP3969172B2 (en) Monitoring system and method, program, and recording medium
JP3838149B2 (en) Monitoring system and method, program and recording medium
JP4225040B2 (en) Monitoring system and method, program, and recording medium
JP3991816B2 (en) Monitoring system and method, program, and recording medium
JP4172352B2 (en) Imaging apparatus and method, imaging system, and program
JP3838150B2 (en) Monitoring system and method, program, and recording medium
JP2004228711A (en) Supervisory apparatus and method, program, and supervisory system
JP3838151B2 (en) Monitoring system and method, program, and recording medium
JP4127080B2 (en) Imaging apparatus and method
JP2004194114A (en) System for providing image information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060616

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060908

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070716

R151 Written notification of patent or utility model registration

Ref document number: 3991816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees