JP2008306604A - 情報処理装置、及び情報処理方法 - Google Patents

情報処理装置、及び情報処理方法 Download PDF

Info

Publication number
JP2008306604A
JP2008306604A JP2007153391A JP2007153391A JP2008306604A JP 2008306604 A JP2008306604 A JP 2008306604A JP 2007153391 A JP2007153391 A JP 2007153391A JP 2007153391 A JP2007153391 A JP 2007153391A JP 2008306604 A JP2008306604 A JP 2008306604A
Authority
JP
Japan
Prior art keywords
video
shooting
monitoring space
shooting section
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007153391A
Other languages
English (en)
Other versions
JP4933354B2 (ja
JP2008306604A5 (ja
Inventor
Hirokazu Akisada
浩和 秋定
Hirosuke Yamada
洋佑 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007153391A priority Critical patent/JP4933354B2/ja
Priority to US12/127,194 priority patent/US8437508B2/en
Priority to CN200810110639XA priority patent/CN101321271B/zh
Publication of JP2008306604A publication Critical patent/JP2008306604A/ja
Publication of JP2008306604A5 publication Critical patent/JP2008306604A5/ja
Application granted granted Critical
Publication of JP4933354B2 publication Critical patent/JP4933354B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】映像データにおける移動体の移動軌跡と撮影区間とをユーザが容易に把握し、所望の撮影区間を容易に指定して映像を再生することを可能とする。
【解決手段】監視空間に設置された撮影装置が撮影した映像データと、前記監視空間における移動体の位置に関する位置情報と、前記映像データにおける前記移動体の撮影区間に関する存在情報とを取得する取得手段と、前記位置情報に基づいて、前記監視空間における前記移動体の移動軌跡を表示する移動軌跡表示手段であって、前記存在情報に基づいて、前記移動軌跡において前記撮影区間に対応する部分を他の部分と識別可能に表示する移動軌跡表示手段と、前記移動軌跡における撮影区間を選択する第1選択手段と、前記映像データのうち、前記第1選択手段で選択された撮影区間に対応する部分を再生表示する第1再生表示手段と、を備えることを特徴とする情報処理装置を提供する。
【選択図】図10A

Description

本発明は、映像データを再生するための情報処理装置、及び情報処理方法に関する。
監視の対象となる場所(監視空間)に設置されたカメラが撮影した映像データをハードディスクなどの記録装置に記録する監視システムが知られている。このような監視システムにおいては、ユーザは、記録された映像データのうち任意の時刻に撮影された部分を再生して閲覧することが可能である。
しかしながら、記録された映像データの量(即ち、記録時間)が膨大になると、ユーザが映像データから所望の部分を選択して再生することが困難になる。例えば、人物や動物などの特定の移動体を監視したい場合、ユーザは、映像データにおいてその移動体が撮影されている区間(存在時刻範囲、即ち、映像データにおいてその移動体が登場/退場した時刻(IN点/OUT点))を探す必要がある。しかし、映像データの記録時間が長大な場合、特定の移動体のIN点/OUT点を見つけるためには多大な労力を要する。
この問題を解決するために、例えば特許文献1の監視システムでは、監視空間内で撮影している動画像によって動物体を認識し、認識した動物体を、監視空間を示すマップに表示する。そして、動物体をクリックすることで過去の蓄積映像を再生する方法が開示されている。このシステムでは、マップ上で場所を範囲指定して、そこに出現した動物体の過去の蓄積映像を検索すると共に、蓄積映像撮影時の時刻分布を表示する方法が開示されている。
また、例えば特許文献2の監視システムでは、複数の監視対象それぞれに監視対象を識別するための識別情報を有する標識を付着させ、その監視対象を監視装置の複数の撮像装置で撮像する。そして、撮像された撮像画像中の標識から監視対象を特定して予め割り当てられた端末に配信する方法が開示されている。このシステムでは、監視対象を撮像出来ない期間があったとしても、標識を利用して検知した監視対象の位置情報に基づいて監視対象の軌跡を表示させることで、監視対象の大まかな位置を確認できるようにしている。
また、特許文献3の軌跡捕捉装置では、移動体を撮影する際に移動体の位置情報を検出して蓄積しておき、移動体が映っている蓄積映像を再生するときに移動体の移動軌跡も併せて再生する方法が開示されている。
更に、特許文献4の編集システムでは、各映像オブジェクトが各時刻において蓄積映像中に存在するか否かを帯グラフにより可視化したタイムラインを表示し、効率的に映像オブジェクトが映っている映像の検索や編集を可能とする方法が開示されている。
特開2005−218014号公報 特開2006−74822号公報 特開平7−160856号公報 特開2003−158710号公報
しかしながら、特許文献1の監視システムは、場所を範囲指定してそこに出現した動物体の過去の蓄積映像を検索して再生するためのものであり、特定の動物体の監視空間における移動の軌跡を表示するものではない。そのため、特定の動物体の撮影履歴(過去の複数の撮影区間)を一覧性良く確認したり、その中から容易に撮影区間を指定して過去の蓄積映像を再生したりすることができないという問題があった。
また、特許文献2の監視システムは、監視対象を識別して位置検出し、その監視対象を撮像した際にその撮像映像を配信するためのものであるが、そもそも監視映像における監視対象の撮影履歴の一覧を確認する手段を有していない。また、監視対象が撮像出来ない期間があった場合などに位置情報に基づいた監視対象の移動軌跡を表示させていたが、当該軌跡は補助的情報としての意味しか有していない。ゆえに、監視対象の存在位置や移動経路の情報に基づいて撮影履歴の一覧を確認したり、その中から所望の撮影区間を指定して蓄積映像を再生したりすることができない。
また、特許文献3の軌跡捕捉装置は、監視対象の識別と位置検出自体は行っているが、撮影した映像における監視対象の撮影区間については何ら考慮していない。そのため、映像と同時に再生する軌跡上で移動体の映っている区間を確認したり指定したりすることができない。
更に、特許文献4の編集システムは、蓄積映像における各オブジェクトの存在時間を取得し、それを利用した映像の検索を可能としているが、オブジェクトの存在位置については何ら考慮していない。
以上のように、従来の監視システムは、蓄積映像において特定の移動体が映っている区間を、移動体が存在した位置や移動した経路に基づいて一覧性良く表示することができない。また、所望の撮影区間を容易に指定できるようなGUI(グラフィカルユーザインタフェース)を提供することもしない。とりわけ、特定の移動体の撮影区間を当該移動体の移動軌跡上で一覧性良く表示すると共に、表示された撮影区間の中から所望の撮影区間を容易に指定して蓄積映像を再生表示できるような、ユーザが直感的に利用可能なGUIを提供しない。
本発明はこのような状況に鑑みてなされたものであり、映像データにおける移動体の移動軌跡と撮影区間とをユーザが容易に把握し、所望の撮影区間を容易に指定して映像を再生することを可能とする技術を提供することを目的とする。
上記課題を解決するために、第1の本発明は、監視空間に設置された撮影装置が撮影した映像データと、前記監視空間における移動体の位置に関する位置情報と、前記映像データにおける前記移動体の撮影区間に関する存在情報とを取得する取得手段と、前記位置情報に基づいて、前記監視空間における前記移動体の移動軌跡を表示する移動軌跡表示手段であって、前記存在情報に基づいて、前記移動軌跡において前記撮影区間に対応する部分を他の部分と識別可能に表示する移動軌跡表示手段と、前記移動軌跡における撮影区間を選択する第1選択手段と、前記映像データのうち、前記第1選択手段で選択された撮影区間に対応する部分を再生表示する第1再生表示手段と、を備えることを特徴とする情報処理装置を提供する。
また、第2の本発明は、監視空間に設置された撮影装置が撮影した映像データと、前記監視空間における移動体の位置に関する位置情報と、前記映像データにおける前記移動体の撮影区間に関する存在情報とを取得する取得工程と、前記位置情報に基づいて、前記監視空間における前記移動体の移動軌跡を表示する移動軌跡表示工程であって、前記存在情報に基づいて、前記移動軌跡において前記撮影区間に対応する部分を他の部分と識別可能に表示する移動軌跡表示工程と、前記移動軌跡における撮影区間を選択する第1選択工程と、前記映像データのうち、前記第1選択工程で選択された撮影区間に対応する部分を再生表示する第1再生表示工程と、を備えることを特徴とする情報処理方法を提供する。
また、第3の本発明は、コンピュータを、監視空間に設置された撮影装置が撮影した映像データと、前記監視空間における移動体の位置に関する位置情報と、前記映像データにおける前記移動体の撮影区間に関する存在情報とを取得する取得手段、前記位置情報に基づいて、前記監視空間における前記移動体の移動軌跡を表示する移動軌跡表示手段であって、前記存在情報に基づいて、前記移動軌跡において前記撮影区間に対応する部分を他の部分と識別可能に表示する移動軌跡表示手段、前記移動軌跡における撮影区間を選択する第1選択手段、前記映像データのうち、前記第1選択手段で選択された撮影区間に対応する部分を再生表示する第1再生表示手段、として機能させるためのプログラムを提供する。
なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための最良の形態における記載によって更に明らかになるものである。
以上の構成により、本発明によれば、映像データにおける移動体の移動軌跡と撮影区間とをユーザが容易に把握し、所望の撮影区間を容易に指定して映像を再生することが可能となる。
以下、添付図面を参照して、本発明の実施形態を説明する。以下で説明される個別の実施形態は、本発明の上位概念から下位概念までの種々の概念を理解するために役立つであろう。
なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。
以下の各実施形態を具体的に説明する前に、各実施形態のコンセプトを簡単に説明する。但し、ここでの説明はあくまでも各実施形態の理解を助けるためになされるものに過ぎず、以下の各実施形態は、ここに説明する内容に限定されるわけではない。
以下の各実施形態は、カメラ制御サーバと、映像蓄積サーバと、クライアントと、監視空間とを備える監視システムに関する。クライアントは、本発明に係る情報処理装置の一形態である。
第1の実施形態では、1台のカメラ装置が監視空間に設置され、このカメラ装置が監視空間の映像を撮影する。監視対象の移動体(例えば、人間や動物)には、ICタグが付着されており、監視空間に設置された位置検出装置(ICタグリーダライタ)がICタグの位置を検出する。これにより、カメラ制御サーバは、監視空間の映像データと、各移動体の位置情報を得ることができる。クライアントは、例えば図10Aに示すような監視画面を提示する。これにより、ユーザは、各移動体の移動軌跡と撮影区間を容易に把握できる。また、所望の撮影区間を選択して再生表示することが容易にできる。なお、第1の実施形態では、カメラ装置は1台しか設置されていないが、複数台設置されていても構わない。
第2の実施形態では、2台のカメラ装置が監視空間に設置され、このカメラ装置が監視空間の映像を撮影する。従って、第2の実施形態を読めば、第1の実施形態においてもカメラ装置が複数台設置されていても構わないということが更に明確に理解できよう。第2の実施形態は、監視システムにおいて蓄積されている映像データをユーザがより容易に編集できるようにすることが考慮されている。従って、第1の実施形態の図10Aと、第2の実施形態の図9Bとを対比すれば理解できるように、第2の実施形態では、監視画面に編集映像プレイリストが追加されている。そして、図11Bから理解できるように、ユーザが所望の撮影区間を選択して編集映像プレイリストに挿入(登録)することで、映像データの編集が容易に行われる。また、第2の実施形態では、映像データから所定の間隔で抽出した代表画像を撮影区間の近傍に表示することで、映像データの内容をおおまかに把握しながら編集が行えるようにする。更に、引出線を使用して代表画像を表示することで、撮影区間が短い場合でも、代表画像の視認性が低下することが抑制される。
第3の実施形態では、第1の実施形態において位置検出に利用された、ICタグなど物体を各移動体は備えない。代わりに、カメラ装置が例えば自動焦点検出機能を利用して映像データから各移動体の位置を検出することができる。
以下の各実施形態は、監視システムについて説明されているが、例えば、クライアントと、クライアントが提示する監視画面(例えば、図10A)のみに注目しても、上述した、各移動体の移動軌跡と撮影区間を容易に把握できるなどの効果が得られる。従って、例えば、クライアントは、監視空間において得られた、映像データや位置情報などの各種情報を取得し、これに基づいて監視画面をユーザに提示する。そして、映像データや位置情報などが監視空間においてどのようにして得られるかは、クライアントにのみ注目すれば、それほど重要なことではない。
監視空間における映像データや位置情報の取得、或いは、クライアントにおける監視画面の表示などは、ハードウェアとソフトウェアの協働によって実現される。以下の各実施形態では、ハードウェアとソフトウェアがどのように協働するかについても説明する。しかし、例え詳しい説明が存在しなくても、例えば、図2Eに示すクライアントのCPUが、外部記憶装置に格納されたアプリケーションプログラムを実行して表示装置に画面を表示できるということは、当業者であれば容易に理解できよう。本発明において重要なことは、単に画面が表示装置に表示されるということではなく、上述した効果を得るためにどのような画面(監視画面)が表示されるかということである。従って、以下の各実施形態では、監視画面の構成について詳細に説明する。
[第1の実施形態]
<監視システム10a>
図1Aは、第1の実施形態に係る監視システム10aの一形態を示す概念図である。監視システム10aでは、1つのカメラ装置4が複数の移動体7(監視対象の被写体)を撮影するものとする。
1は、カメラ制御サーバであり、カメラ装置4が出力した映像データ及び制御情報(カメラの向きに関する情報など)と、移動体位置検出装置6が出力した各移動体7の位置情報とを、映像蓄積サーバ2に対して送信する。映像データ、制御情報、及び位置情報を含むデータを、以下、「監視データ」と呼ぶ。図1Aの例では、カメラ制御サーバ1の外部にカメラ装置4が接続されているが、これらは一体に構成されていてもよい。
2は、映像蓄積サーバであり、カメラ制御サーバ1から受信した監視データの蓄積を行う。また、制御情報と位置情報とに基づいて、各移動体7がカメラ装置4の視野範囲9内に存在しているか否かの判断を逐次行う。そして、映像データにおける各移動体7の撮影区間(存在時刻範囲)を求め、撮影区間に関する情報(以下、「存在情報」と呼ぶ)を監視データに追加する。
なお、視野範囲9、及び存在情報を判断する処理のアルゴリズムは、映像蓄積サーバ2が実行する処理のフローチャート(図17)を参照して後述する。また、この判断処理は、映像蓄積サーバ2ではなく、カメラ制御サーバ1が実行してもよい。
3は、クライアントであり、映像蓄積サーバ2から取得した監視データに基づいて、各移動体7の移動軌跡12や撮影区間などを含む監視画面を表示装置247(図2E参照)に表示する。また、監視画面上で撮影区間のいずれかが選択された場合、選択された撮影区間に対応する映像データを映像蓄積サーバ2から取得して再生表示する。
4は、カメラ装置であり、監視空間11の映像を撮影し、映像データをカメラ制御サーバ1へ送信する。なお、本実施形態におけるカメラ装置4は、視軸の方向やズームの制御が可能なPan/Tilt/Zoomカメラであるものとするが、これに限定される訳ではなく、例えばズームが固定されたカメラを利用してもよい。
6は、位置検出装置であり、監視空間11における1以上(Nobj個とする)の監視対象(移動体7)に付着させたタグ(例えばICタグ8)を検知する。そして、位置情報としてICタグ8の空間的位置座標Pi(xi,yi,zi)(i=0,...,Nobj)を取得する。そして、取得した位置情報をカメラ制御サーバ1へ送信する。位置検出装置6としては、例えば、非接触型のICタグリーダライタが用いられる。なお、Pi(xi,yi,zi)の各要素x,y,zは、例えば、次のように定められる。即ち、図1Aの監視空間11においてカメラ装置4の位置を原点とする座標系(xyzの座標軸で表されるもの)を考える。そして、監視空間11の(平面の)横と縦の長さ、及び高さをそれぞれ1とした場合の比率(0〜1.0の範囲の数値)でx,y,zを表す。
なお、本実施形態では、移動体7の位置を検出するために、アクティブ型或いはパッシブ型のICタグを用いるが、PHSやGPSなどを用いてもよい。更には、映像データ中の移動体7を認識する画像認識処理によって位置を検出してもよい。
5は、ネットワークであり、本実施形態では、TCP/IPネットワークであるものとする。ネットワーク5は、インターネットやイントラネットなどのネットワークである。また、通信プロトコルはTCP/IPに限定されず、IPX/ISXやAppleTalk(登録商標)などのプロトコルを用いてもよい。また、データ伝送媒体には、これらのプロトコルを利用できるものであれば、有線LANや無線LANなど、いかなるものを用いてもよい。
<カメラ制御サーバ1>
図2Aは、第1の実施形態に係るカメラ制御サーバ1の構成を示す機能ブロック図である。カメラ制御サーバ1は、CPU201と、RAM202と、ROM211と、通信部203とを備える。カメラ制御サーバ1はまた、カメラ制御サーバ1の操作等のために必要なデータを入力するための入力部204と、処理に必要なデータを格納するための外部記憶装置205とを備える。カメラ制御サーバ1はまた、カメラ装置4が撮影した映像データを入力するための映像入力部206と、外部機器(例えば、カメラ装置4及び位置検出装置6)との間で制御信号等の送受信を行うための外部機器信号送受信部207とを備える。カメラ制御サーバ1はまた、位置検出装置6が出力した位置座標データを入力するための位置データ入力部208と、表示装置210へ映像を出力する映像出力部209とを備える。カメラ制御サーバ1は更に、これらの各構成要素を相互に接続するためのバス212を備える。
RAM202は、任意のアドレスを指定して読み書きすることが可能な半導体メモリであり、カメラ制御サーバ1用のアプリケーションプログラムがロードされる。また、CPU201による処理に必要なデータ等を一時的に記憶し、必要に応じてバス212に出力する。
ROM211は、CPU201による処理に必要な制御プログラムを記憶している読み出し専用のメモリであり、所定のタイミングで必要な制御プログラムをバス212に出力する。
CPU201は、RAM202にロードされているアプリケーションプログラムや、ROM211に記憶されている制御プログラムなどを実行することにより、カメラ制御サーバ1全体を制御する。
通信部203は、カメラ制御サーバ1から出力するデータ及びカメラ制御サーバ1に入力するデータに対してプロトコルの変換等を行う。これにより、ネットワーク5を経由した映像蓄積サーバ2、及びクライアント3とのデータ通信が可能になる。
入力部204は、キーボード、マウス等を含み、カメラ制御サーバ1のユーザの操作により入力されたデータを、バス212を介してCPU201等に出力する。
外部記憶装置205は、CPU201による処理に必要なデータを格納する。
映像入力部206は、カメラ装置4が撮影して生成した、例えばMPEG形式のデジタル映像データや、例えばNTSC規格やPAL規格に準拠したアナログ映像データを入力する。
外部機器信号送受信部207は、カメラ装置4や位置検出装置6などの外部機器との間で、カメラ装置4のPan、Tilt、及びZoomに関する情報や、フォーカス及び絞りに関する情報などを送受信する。また、位置検出インターバル等の設定情報、各種ステータス情報などの制御情報も送受信する。
位置データ入力部208は、位置検出装置6がある一定のタイミングで出力する各移動体7の位置情報(3次元データPi(xi,yi,zi)(i=0,...,Nobj))を入力する。
映像出力部209は、カメラ制御サーバ1の操作画面を表示するためのデータなどを、液晶ディスプレイなどの表示装置210に出力する。
<映像蓄積サーバ2>
図2Dは、第1の実施形態に係る映像蓄積サーバ2の構成を示す機能ブロック図である。映像蓄積サーバ2は、図2Dに示すように、CPU221と、RAM222と、ROM229と、通信部223とを備える。映像蓄積サーバ2はまた、映像蓄積サーバ2の操作等のために必要なデータを入力するための入力部224と、処理に必要なデータを格納するための外部記憶装置225とを備える。映像蓄積サーバ2はまた、各移動体7の撮影区間を判断するための撮影区間判断部228と、表示装置227へ映像を出力する映像出力部226とを備える。映像蓄積サーバ2は更に、これらの各構成要素を相互に接続するためのバス230を備える。
RAM222は、任意のアドレスを指定して読み書きすることが可能な半導体メモリであり、映像蓄積サーバ2用のアプリケーションプログラムがロードされる。また、CPU221による処理に必要なデータ等を一時的に記憶し、必要に応じてバス230に出力する。
ROM229は、CPU221による処理に必要な制御のプログラムを記憶している読み出し専用のメモリであり、所定のタイミングで必要な制御プログラムをバス230に出力する。
CPU221は、RAM222にロードされているアプリケーションプログラムや、ROM211に記憶されている制御プログラムなどを実行することにより、映像蓄積サーバ2全体を制御する。
通信部223は、映像蓄積サーバ2から出力するデータ及び映像蓄積サーバ2に入力するデータに対してプロトコルの変換等を行う。これにより、ネットワーク5を経由したカメラ制御サーバ1、及びクライアント3とのデータ通信が可能になる。
入力部224は、キーボード、マウス等を含み、映像蓄積サーバ2のユーザの操作により入力されたデータを、バス230を介してCPU221等に出力する。
外部記憶装置225は、CPU221による処理に必要なデータを格納する。
映像出力部226は、映像蓄積サーバ2の操作画面を表示するためのデータなどを、液晶ディスプレイなどの表示装置227に出力する。
撮影区間判断部228は、カメラ装置4の制御情報と各移動体7の位置情報とに基づいて、カメラ装置4が撮影した映像データにおける各移動体7の撮影区間(存在時刻範囲)を求める。
<クライアント3>
図2Eは、第1の実施形態に係るクライアント3の構成を示す機能ブロック図である。クライアント3は、CPU241と、RAM242と、ROM248と、通信部243とを備える。クライアント3はまた、入力部244と、外部記憶装置246と、映像出力部245と、GUI描画部250と、これらの各構成要素を相互に接続するためのバス249を備える。
RAM242は、任意のアドレスを指定して読み書きすることが可能な半導体メモリであり、クライアント3用のアプリケーションプログラムがロードされる。また、CPU241による処理に必要なデータ等を一時的に記憶し、必要に応じてバス249に出力する。
ROM248は、CPU241による処理に必要な制御プログラムを記憶している読み出し専用のメモリであり、所定のタイミングで必要な制御プログラムをバス249に出力する。
CPU241は、RAM242にロードされているアプリケーションプログラムや、ROM248に記憶されている制御プログラムなどを実行することにより、クライアント3全体を制御する。
通信部243は、クライアント3から出力するデータ及びクライアント3に入力するデータに対してプロトコルの変換等を行う。これにより、ネットワーク5を経由したカメラ制御サーバ1、及び映像蓄積サーバ2とのデータ通信が可能になる。
入力部244は、キーボード、マウス等を含み、クライアント3のユーザの操作により入力されたデータを、バス249を介してCPU241等に出力する。
外部記憶装置246は、CPU241による処理に必要なデータを格納する。
映像出力部245は、クライアント3の操作画面(監視画面を含む)を表示するためのデータなどを、液晶ディスプレイなどの表示装置247に出力する。
GUI描画部250は、ユーザが監視システム10aを監視するために利用する監視画面などのGUIを表示するために必要な各種の処理を実行する。
<カメラ制御サーバ1における処理>
図16は、カメラ制御サーバ1における処理の流れを示すフローチャートである。本フローチャートにおける各処理は、図2Aに示す各機能ブロックによって実行される。ユーザが通信部203や入力部204などを介して処理開始の命令を入力すると、本フローチャートの処理が開始する。
S1601で、CPU201は、各種の初期化処理を行う。具体的には、例えば、カメラ制御サーバ1用のアプリケーションプログラムをRAM202にロードする。そして、プログラム中の変数、通信経路、カメラ装置4、及び位置検出装置6などの初期化を行う。この時点で、映像蓄積サーバ2やクライアント3との通信経路の確保や各種機器の稼動準備が終了する。
S1602で、CPU201は、カメラ制御サーバ1の処理を終了するか否かを判定する。処理を終了する場合とは、例えば、ユーザが通信部203や入力部204などを介して処理終了の命令を入力した場合などである。処理を終了する場合はS1607へ、処理を終了しない(継続する)場合はS1603へ進む。
S1603で、CPU201は、入力部204や、(通信部203を介して)クライアント3などからカメラ制御コマンドを受信した場合、受信したカメラ制御コマンドに従い、外部機器信号送受信部207を介してカメラ装置4を制御する。ここで、カメラ制御コマンドには、
・Pan、Tilt、Zoomコマンド
・フォーカス・絞り調節コマンド
などがある。
S1604で、CPU201は、位置検出装置6から移動体7の位置情報を受信する。具体的には、次の処理が行われる。まず、位置検出装置6が一定のインターバルで監視空間11におけるNobj個の移動体7が有するICタグ8の空間的位置座標
Pi(xi,yi,zi), i=0,...,Nobj
を検出する。次に、位置検出装置6は、検出した座標Pi(xi,yi,zi)をカメラ制御サーバ1へ出力し、CPU201が位置データ入力部208を介してこれを受信し、RAM202に格納する。
S1605で、CPU201は、カメラ装置4が出力した映像データを、映像入力部206を介して受信し、時刻発生部(不図示)が発生したタイプスタンプtsを付加して映像蓄積サーバ2へ送信する。
S1606で、CPU201は、カメラ装置4の現在の制御情報と、S1604において受信した位置情報と、タイプスタンプtsとを一組にしたデータセットを、映像蓄積サーバ2へ送信する。ここで、制御情報は、
・Pan、Tilt、Zoom情報
・フォーカス・絞り情報
などを含む。また、データセットは、例えば、
[(Pan,Tilt,Zoom情報),(フォーカス・絞り情報),Pi(xi,yi,zi),ts] (i=0,...,Nobj)
のように表現される。
次いで、S1602に戻り、処理を終了すると判定されるまで同様の処理を繰り返す。S1602において処理を終了すると判定された場合、S1607で、CPU201は、映像蓄積サーバ2やクライアント3との通信経路を切断するなどの後処理を行った後、処理を終了する。
ここで、図7を参照して、Pan、Tilt、Zoom情報の詳細について説明する。図7は、カメラ装置4の方向及び視野角と、視野範囲との関係を、監視空間11の平面図701と側面図711に示す図である。
Pan及びTiltに関する情報は、符号703及び713で示される方向ベクトルに対応する。また、Zoomに関する情報は、符号704及び714で示される横(水平)方向の視野角αと縦(垂直)方向の視野角βに対応する。従って、カメラ装置4の視野範囲9は、符号705及び715で示される空間である。図7の例では、監視空間11に存在する4個の移動体7のうち、カメラ装置4の視野範囲9の中に存在するのは移動体B及びCであり、視野範囲9の外に存在するのは移動体A及びDである。
また、図示しないが、Zoomに関する情報は、カメラ装置4からの距離と視野範囲9との関係も示す。例えば、Zoomに関する情報が望遠側であることを示す場合、符号705及び715で示される空間であっても、カメラ装置4に近い部分は、視野範囲9の外になる。
<映像蓄積サーバ2が蓄積する情報>
図3Aは、第1の実施形態において映像蓄積サーバ2が外部記憶装置225に蓄積する情報を示す図である。
外部記憶装置225には、蓄積映像情報301として、
・映像ID(後述するカメラIDと同じものを利用可能。以下、cidとも記載する)
・映像データ(実際の映像のデジタルデータ。タイムスタンプts(時刻情報)付)
などの情報が記録される。本実施形態では、カメラ装置4は1台しか使用されないが、複数台使用される場合、それぞれのカメラ装置についてこれらの情報が記録される。
外部記憶装置225にはまた、カメラ情報302として、
・カメラID
・Pan、Tilt、Zoom情報(タイムスタンプts付の時系列情報)
・フォーカス・絞り情報(タイムスタンプts付の時系列情報)
・設置情報(エリア番号、設置位置・方向、など)
などの情報が記録される。本実施形態では、カメラ装置4は1台しか使用されないが、複数台使用される場合、それぞれのカメラ装置についてこれらの情報が記録される。
外部記憶装置225にはまた、位置情報303として、
・ICタグリーダライタID(本実施形態ではICタグリーダライタは1つであるとする)
・設置情報(エリア番号、設置位置・方向、など)
・ICタグID(0〜Nobj)
・検出位置情報Pti(xi,yi,zi,ts)(位置検出装置6が出力した各ICタグ8の3次元位置座標。タイムスタンプts付の時系列情報)
・存在フラグef(i,cid,ts)(カメラ別)(座標Ptiがカメラ装置の視野範囲に入っているか否かを示すフラグ。タイムスタンプts付の時系列情報)
などの情報が記録される。本実施形態では、カメラ装置4は1台しか使用されないので、存在フラグef(i,cid,ts)は1台のカメラ装置4についてのみ記録される。しかし、複数台使用される場合、それぞれのカメラ装置について存在フラグef(i,cid,ts)が記録される。また、本実施形態では、カメラ装置4は1台しか使用されないので、存在フラグがcidを有する必要は無く、ef(i,ts)としてもよい。以下に示す撮影区間テーブルETab(i,cid)などについても同様である。
外部記憶装置225にはまた、移動体情報304として、
・移動体ID
・保有ICタグID
・撮影区間テーブルETab(i,cid)(カメラ別)
・撮影回数情報(カメラ別)
・撮影時間合計(カメラ別)
・個体情報(氏名、サムネイル画像、など)
などの情報が記録される。本実施形態では、カメラ装置4は1台しか使用されないので、撮影区間テーブルETab(i,cid)、撮影回数情報、及び撮影時間合計はそれぞれ、1台のカメラ装置4についてのみ記録される。しかし、複数台使用される場合、それぞれのカメラ装置についてこれらの情報が記録される。
外部記憶装置225にはまた、監視空間情報305として、
・エリアID
・形状・サイズ情報(監視空間11の3次元形状データ、サイズ情報)
・個体情報(名称、サムネイル画像、など)
などの情報が記録される。
<映像蓄積サーバ2における処理>
図17は、映像蓄積サーバ2における処理の流れを示すフローチャートである。本フローチャートにおける各処理は、図2Dに示す各機能ブロックによって実行される。ユーザが通信部223や入力部224などを介して処理開始の命令を入力すると、本フローチャートの処理が開始する。
S1701で、CPU221は、各種の初期化処理を行う。具体的には、例えば、映像蓄積サーバ2用のアプリケーションプログラムをRAM222にロードする。そして、プログラム中の変数、及び通信経路などの初期化を行う。この時点で、カメラ制御サーバ1やクライアント3との通信経路の確保が終了する。なお、変数を初期化する際には、各移動体7について1つ前のタイミングにおける存在フラグを代入する変数PreExist(i), (i=0,...,Nobj)を0(偽)で初期化する。
S1702で、CPU221は、映像蓄積サーバ2の処理を終了するか否かを判定する。処理を終了する場合とは、例えば、ユーザが通信部223や入力部224などを介して処理終了の命令を入力した場合などである。処理を終了する場合はS1706へ、処理を終了しない(継続する)場合はS1703へ進む。
S1703で、CPU221は、カメラ制御サーバ1が送信した映像データ(タイムスタンプts付)を、通信部223を介して受信し、外部記憶装置225に蓄積映像情報301として所定の場所に追加して記録する。
S1704で、CPU221は、カメラ制御サーバ1が送信したデータセット(図16のS1606参照)を、通信部223を介して受信し、RAM222に格納する。そして、データセットに含まれるPan、Tilt、Zoom情報、フォーカス・絞り情報、及びタイムスタンプtsを外部記憶装置225にカメラ情報302として所定の場所に追加して記録する。同様に、空間的位置座標Pi(xi,yi,zi)とタイムスタンプtsとを組にしたPti(xi,yi,zi,ts)を、外部記憶装置225に位置情報303として所定の場所に追加して記録する。ここで、i=0,...,Nobjである。
S1705で、CPU221は、RAM222上のPan、Tilt、Zoom情報(タイムスタンプts付)とPti(xi,yi,zi,ts)とを利用して、各移動体7の撮影区間テーブルETab(i,cid)を更新する。ここで、i=0,...,Nobjである。撮影区間テーブルETab(i,cid)は、映像データにおける各移動体7の撮影区間を格納するものであり、例えば、図19Aに示すように、各行のIN点(撮影開始時刻)とOUT点(撮影終了時刻)が1つの撮影区間を示している。
次いで、S1702に戻り、処理を終了すると判定されるまで同様の処理を繰り返す。S1702において処理を終了すると判定された場合、S1706で、CPU221は、カメラ制御サーバ1やクライアント3との通信経路を切断するなどの後処理を行った後、処理を終了する。
図18A及び図7を参照して、撮影区間テーブルETab(i,cid)の更新処理を詳細に説明する。図18Aは、第1の実施形態における、撮影区間テーブルETab(i,cid)の更新処理の詳細な流れを示すフローチャートである。本フローチャートにおける各処理は、撮影区間判断部228がCPU221の指示に従って実行する。
S1801で、撮影区間判断部228は、変数iに0を代入する。
S1802で、撮影区間判断部228は、変数iがNobj以上であるか否かを判定する。判定結果が真の場合、処理を終了する。判定結果が偽の場合、S1803に進む。
S1803で、撮影区間判断部228は、i番目の移動体の位置Pti(xi,yi,zi,ts)が、同じ時刻tsのPan、Tilt、及びZoom情報を元に求めたカメラ装置4の視野範囲(図7参照)内に存在するか否かを判定する。存在する場合はS1803に進み、存在しない場合はS1809に進む。
S1804で、撮影区間判断部228は、存在フラグef(i,ts)に、移動体が視野範囲内に存在することを意味する値1(真)を代入する。
S1805で、撮影区間判断部228は、PreExist(i)=1(PreExist(i)が真)であるか否かを判定する。PreExist(i)が真であればS1807に進み、偽であればS1806に進む。
S1806で、撮影区間判断部228は、i番目の移動体の撮影区間テーブルETab(i,cid)に新規に行を作成し、その行のIN点とOUT点の両欄にそれぞれタイムスタンプtsの値を代入する。
一方、S1807では、撮影区間判断部228は、i番目の移動体の撮影区間テーブルETab(i,cid)において最も新しい撮影区間を示す行のOUT点欄にタイムスタンプtsの値を代入(上書きで更新)する。
S1808で、撮影区間判断部228は、PreExist(i)に1(真)を代入する。
S1803における判定結果が偽であった場合、S1809で、撮影区間判断部228は、存在フラグef(i,ts)に、移動体が視野範囲内に存在しないことを意味する値0(偽)を代入する。
次いで、S1810で、撮影区間判断部228は、PreExist(i)に1(偽)を代入する。
S1811では、撮影区間判断部228は、iの値を1インクリメントする。
次いで、S1802に戻り、変数iがNobj以上であると判定されるまで同様の処理を繰り返す。
<監視画面>
以下、図9A乃至図14Aを参照して、クライアント3の表示装置247に表示される、監視空間11のための監視画面について説明する。
以下の説明においては、ユーザが監視画面を閲覧中(監視中)も、カメラ装置4による撮影が継続している(即ち、カメラ制御サーバ1が継続的に監視データを取得し、映像蓄積サーバ2を経由してクライアント3へ送信される)ものとする。しかし、本実施形態に係る監視画面の構成とその描画技術は、カメラ装置4による撮影の停止後に、映像蓄積サーバ2に蓄積済みの監視データをユーザが確認する際にも有効である。
●起動直後
図9Aは、クライアント3が監視画面を表示するためのアプリケーションプログラムを起動した直後に表示装置247に表示される監視画面900の概観図である。
監視画面900は、監視空間マップ901、タイムチャート902、及び再生画面903を含む。また、表示装置247には、マウスポインタ904が表示され、ユーザはマウスポインタ904を使用して監視画面900に対して各種指示を与えることができる。即ち、クライアント3は、監視空間情報に基づいて監視空間11の平面図(後述するように、平面図に限られるものではない)を表示する監視空間表示手段を備える。
監視空間マップ901は、監視空間11の全体(或いは、一部分)を俯瞰するマップである。本実施形態では、監視空間マップ901は、監視空間11を上から見た平面図を示す。
905は、監視空間11に存在する人物、動物、物体などの移動体7の位置を示す移動体アイコンであり、中央に各移動体ID(例えば、「A」、「B」、・・・)が示されることで各移動体7を識別できるようになっている。図9Aには、7つの移動体アイコン905が表示されている。また、各移動体アイコン905に隣接して、各移動体7の特徴を表すサムネイル画像906が表示される。サムネイル画像906は、例えば、GUI描画部250が映像データから所定のフレームを抽出し、そのフレームに含まれる移動体7の縮小画像を生成することによって得られる。各移動体アイコン905及びサムネイル画像906は、監視空間11における各移動体7の移動に伴って移動する。
907は、カメラ装置4に対応するカメラアイコンを示し、908は、カメラ装置4の方向を示し、909は、視野範囲を示す。カメラ装置4のPan、Tilt、或いはZoomが変更されると、それに合わせて方向908及び視野範囲909も変化する。
タイムチャート902は、各移動体7の撮影区間を時間軸上に表示する。タイムチャート902には、監視空間11に存在する各移動体7の過去の撮影区間がそれぞれ別々のライン上に示される。また、時間の経過と共に左方向へ自動的にスクロールし、画面上に表示しきれない領域を閲覧するためには、タイムチャート902の下方のスクロールバー910をスライドさせる。即ち、クライアント3は、時間軸表示手段を備える。
911は、各移動体7の監視空間11における存在時間を示すライン(細いグレーのライン)である。
912は、各移動体7の撮影区間を示すラインであり、存在ライン911上に太いラインで示される。913は、現在時刻を示す。現在時刻913における撮影区間は、例えばラインの色を変えるなどして過去の撮影区間と区別可能に表示される(図9Aでは、現在時刻913において移動体B、C、Gが撮影されている)。
また、タイムチャート902には、各移動体7の移動体ID、サムネイル画像、ダイジェスト再生ボタン(後述)、撮影回数、撮影時間合計なども表示される。
再生画面903には、映像蓄積サーバ2に蓄積された過去の映像又はライブ映像(現在時刻の映像)のいずれかが表示される(図9Aではライブ映像が表示されている)。現在、このライブ映像には、移動体B、C、Gが映っており、各移動体の付近(例えば、各移動体に付着されたICタグ付近)には移動体ID914が表示される。
このように、監視画面900には種々の情報が表示され、ユーザは監視画面900を介して、監視空間11に存在する各移動体7の動き、現在のライブ映像、及び各移動体7の撮影区間の一覧などを簡単に確認することができる。
●移動体アイコン選択時
図10Aは、移動体アイコンが選択された時の監視画面900の概観図である。図10Aにおいて、図9Aと同一の要素には同一の符号を付し、説明を省略する。
特定の移動体(図10Aでは、移動体A)の移動体アイコン905がマウスポインタ904によって選択されたものとする(複数の移動体を選択することも可能である)。
1001は、選択された移動体アイコン905に対応する移動体の位置の軌跡(移動軌跡)である。移動軌跡1001が表示された状態では、対応する移動体アイコン905の位置が時々刻々と変化するのに応じて、移動軌跡1001もその位置をトレースして延びていく。即ち、クライアント3は、移動体選択手段と、移動軌跡表示手段とを備える。そして、移動軌跡は、例えば監視空間の平面図(監視空間マップ901に対応)上に表示される。
1002、1003、及び1004は、移動軌跡1001に重畳表示された、移動体Aの撮影区間ラインである。図10Aでは、各撮影区間ラインには異なる色が自動で割り当てられているが、タイムチャート902における移動体Aの撮影区間ラインにも同じ色が割り当てられる。撮影区間ラインは「移動軌跡1001に重畳表示され」るが、換言すれば、移動軌跡1001において撮影区間に対応する部分が他の部分と識別可能に表示されるということである。従って、撮影区間ラインの表示形態は、ここで説明する具体例に限定されるものではない。
なお、図10Aの状態では、ダイジェスト再生(連結再生)のモードになっている。そのため、上記3つの撮影区間ラインにおいて最初の撮影区間ライン1002のIN点と最後の撮影区間ライン1004のOUT点にそれぞれ「START」と「END」の文字が表示されている。また、これら3つの撮影区間ラインを結ぶ破線も示されている。
ボタン1005は、映像の再生、一時停止、停止などを指示するためのものである。図10Aに示されるように、選択された移動体アイコン905付近に表示される場合は、ダイジェスト再生(連結再生)を制御するボタンとして機能する。
1006は、映像データにおける現在の再生位置を示す再生位置ポインタである。図10Aでは、最初の撮影区間のIN点の位置(即ち、「START」の位置)で停止している。即ち、クライアント3は、ポインタ表示手段を備える。
タイムチャート902においては、選択された移動体Aに対応するラインが他のラインと区別可能に表示される。また、移動体の選択は、タイムチャート902において所望の移動体のラインをマウスポインタ904で指定することでも行うことが可能である。タイムチャート902上である移動体が選択された場合は、監視空間マップ901上で対応する移動体アイコン905が他と区別可能に表示され、移動軌跡1001やボタン1005なども表示される。即ち、監視空間マップ901とタイムチャート902での移動体の選択は、相互に反映される。
また、タイムチャート902において、選択された移動体のライン上の各々の撮影区間ラインには、監視空間マップ901において対応する撮影区間ラインと同じ色が割り当てられる。また、移動軌跡1001の場合と同様に、タイムチャート902における3つの撮影区間ラインの最初のIN点と最後のOUT点にそれぞれ「START」と「END」の文字が表示される。また、3つの撮影区間ラインを結ぶ破線も表示される。
また、タイムチャート902におけるダイジェスト再生ボタンもアクティブ(選択可能)になる。
再生位置ポインタ1007は、再生位置ポインタ1006に対応する。図10Aでは、最初の撮影区間のIN点の位置(即ち、「START」の位置)で停止している。
この状態において、再生画面903には、映像データにおける再生位置ポインタ1007(或いは、1006)の位置が示すフレーム(静止画像)が表示されている(図10Aでは、移動体A、C、Fが映っている)。
このようにして、選択した移動体の複数の撮影区間を、撮影場所と撮影時刻の両方の視点で、ユーザが効率良く確認することができる。
●再生ボタン選択時
図11Aは、再生ボタンが選択された時の監視画面900の概観図である。再生ボタンは、選択中の移動体アイコン付近のボタン1005、或いはタイムチャート902におけるダイジェスト再生ボタンの中に含まれる。図11Aにおいて、図10Aと同一の要素には同一の符号を付し、説明を省略する。
再生ボタンが選択(クリック)されると、監視空間マップ901及びタイムチャート902それぞれにおいてIN点の位置(「START」の位置)にある再生位置ポインタ1006及び1007が、同時にそれぞれの撮影区間ライン上で移動を開始する。
そして、最初の撮影区間ラインのOUT点まで移動すると、続いて2番目の撮影区間ラインのIN点からOUT点を移動し、最後に、3番目の撮影区間ラインのIN点からOUT点(「END」の位置)まで移動して停止する。このようにして、再生位置ポインタ1006及び1007は、3つの撮影区間を自動で連結して(シームレスに)移動する。
これら2つの再生位置ポインタ1006及び1007の移動中、再生画面903には、再生位置ポインタ1006及び1007が時点のフレームが逐次表示される(図11Aでは、移動体A、C、及びFが映っている)。
このようにして、選択した移動体Aの3つの撮影区間を自動的に連結再生(ダイジェスト再生)した映像(動画像)をユーザが簡単に見ることができる。
●撮影区間選択時
図12Aは、移動軌跡1001上の撮影区間が選択された時の監視画面900の概観図である。図12Aにおいて、図10Aと同一の要素には同一の符号を付し、説明を省略する。
選択された移動体Aの移動軌跡1001、又はタイムチャート902において、撮影区間ラインのいずれか1つ、例えば撮影区間ライン1004がマウスポインタ904により選択された場合を考える。すると、監視空間マップ901及びタイムチャート902において、選択された撮影区間ライン1004に対応する位置にボタン1005及び1201が表示される。また、再生位置ポインタ1006及び1007が対応する位置に移動する。この時、タイムチャート902におけるダイジェスト再生ボタンは非アクティブの状態になる。また、撮影区間ライン1004及び1202のIN点とOUT点の位置に、それぞれ、「START」と「END」の文字が表示される。
この状態において、再生画面903には、再生位置ポインタ1006及び1007の位置が指すフレーム(静止画像)が表示される(図12Aでは、移動体A及びCが映っている)。即ち、クライアント3は、第1選択手段を備え、第1選択手段による撮影区間の選択に従って映像を再生する第1再生表示手段を備える。
このようにして、撮影場所と撮影時刻の両方の視点から移動体の任意の撮影区間をユーザが簡単に選んで指定することができる。即ち、クライアント3は、タイムチャート902の時間軸における撮影区間を選択する第2選択手段と、第2選択手段による撮影区間の選択に従って映像を再生する第2再生表示手段も備える。
●撮影区間選択後、再生ボタン選択時
図13Aは、再生ボタンが選択(クリック)された時の監視画面900の概観図である。ボタン1005及び1201に含まれる再生ボタンのいずれかが選択されると、撮影区間ライン1004及び1202のIN点の位置(「START」の位置)にある2つの再生位置ポインタ1006及び1007が移動を開始する。
そして、再生位置ポインタ1006及び1007が撮影区間ライン1004及び1202のOUT点(「END」の位置)まで到達した後、再生を停止する。再生位置ポインタ1006及び1007の移動中、再生位置ポインタ1006及び1007の位置のフレームが映像蓄積サーバ2から読み込まれ、再生画面903に逐次表示される(図13Aでは、移動体A、C、D、及びFが映っている)。
このようにして、選択した移動体Aの所望の撮影区間の映像(動画像)をユーザが簡単に見ることができる。
なお、再生ボタンが押下されなくても、撮影区間が選択された時点で、クライアント3は選択された撮影区間に対応する映像データの再生表示を行ってもよい。
●再生位置ポインタのドラッグ時
図14Aは、撮影区間ライン上の再生位置ポインタがドラッグされた時の監視画面900の概観図である。
選択された撮影区間ライン1004及び1202のいずれか一方における再生位置ポインタ1006又は1007をマウスポインタ904で(時間的に)前後にドラッグする。すると、再生位置ポインタ1006及び1007が撮影区間ライン1004及び1202の上をスライドする。こスライド中、再生位置ポインタ1006及び1007が示す位置のフレームが映像蓄積サーバ2から読み込まれ、再生画面903に表示される(図では、移動体A、C、D、及びFが映っている)。即ち、クライアント3は、ポインタ移動手段を備える。
このようにして、特定の移動体の撮影区間における所望の時刻のフレームをユーザが容易に指定して確認できる。
<GUI(監視画面)描画用データ>
図8Aは、クライアント3が監視画面を描画するために使用するGUI描画用データについて示す図である。なお、図8Aに示すGUI描画用データ801は、クライアント3が映像蓄積サーバから監視データを受信し、受信した監視データを任意の方法で処理することにより生成される。
GUI描画用データ801は、移動体数Nobj、移動体描画データObj(i)、映像種別、自動再生フラグ、再生対象移動体ID、再生位置ポインタ変数tpを含む。
各移動体描画データObj(i)802は、各移動体の描画データを格納するもので、移動体ID、被選択フラグ、位置情報テーブルPTab(i)803、撮影区間テーブルSTab(i)804を含む。
映像種別は、ライブ映像か蓄積映像かを示すフラグであり、0(ライブ映像)又は1(蓄積映像)が格納される。
自動再生フラグは、自動再生か手動再生かを示すフラグであり、0(自動再生)又は1(手動再生)が格納される。
再生対象移動体IDには、再生対象となる移動体のID(0〜Nobjのいずれか)が格納される。
再生時刻ポインタtpには、現在の再生時刻を示す時刻情報が格納される。
移動体IDには、各移動体のインデックス番号(0〜Nobjのいずれか)などが格納される。
被選択フラグは、その移動体が選択されたか否かを示すもので、0(非選択)又は1(選択中)が格納される。
位置情報テーブルPTab(i)803には、映像蓄積サーバ2から読み込まれた、タイムスタンプts付の3次元座標データPti(xi,yi,zi,ts)と存在フラグef(i,cid,ts)の情報が格納される。
再生区間テーブルSTab(i)804には、映像蓄積サーバ2から読み込まれた各移動体の撮影区間テーブルETab(i,cid)に再生フラグ欄が付与されたテーブルが格納される。但し、再生フラグとは、その行が示す区間の映像を再生するか否かを示すためのフラグであり、0(再生)と1(非再生)の値が格納される。
<クライアント3における処理>
図4、及び図5A〜図5Hを参照して、クライアント3における処理を説明する。
●メインルーチン
図4は、クライアント3における処理のメインルーチンを示すフローチャートである。ユーザが入力部244などを介して、監視画面900を表示するためのアプリケーションプログラムを起動する命令を入力すると、本フローチャートの処理が開始する。
S401で、CPU241は、各種の初期化処理を行う。具体的には、例えば、クライアント3の監視画面900用のアプリケーションプログラムをRAM242にロードする。そして、前述のGUI描画用データ801を含むプログラム中の変数や、通信経路の初期化を行う。この時点で、カメラ制御サーバ1や映像蓄積サーバ2との通信経路の確保が終了する。
S402で、CPU241は、GUI(監視画面900)の初期化及び表示を行う。GUIの表示を行うことで、クライアント3の表示装置247上に、GUIを初めとする各種情報が表示される。
S403で、CPU241は、映像表示スレッドを開始する(図5H)。この映像表示スレッドは、監視画面900の表示のために、撮影中の映像、又は指定された時刻からの監視データを映像蓄積サーバ2からダウンロードしながら、表示装置247上に表示し、参照時間を進め、動画像再生を実現するものである。なお、クライアント3は、蓄積済みの監視データを事前に(例えばS401で)取得していても構わない。その上で、時間の経過と共に新たに蓄積される監視データについては、映像表示スレッドが取得することもできる。
S404で、CPU241は、イベントの発生を待ち、発生したイベントに基づく処理を行う(図5A〜図5Hを参照して後述)。即ち、監視画面900を表示するためのアプリケーションプログラムは基本的に、イベントドリブン型の設計がされている。S404においてアプリケーションプログラムを終了するイベントが発生して処理されると、S405に進む。
S405で、CPU241は、映像表示スレッドを停止させる。
S406で、CPU241は、カメラ制御サーバ1や映像蓄積サーバ2との通信経路を切断するなどの後処理が行い、処理を終了する。
●メインルーチンのイベント処理
図5Aは、メインルーチンのイベント処理の流れを示すフローチャートである。図5A〜図5Hにおける各ステップは、クライアント3のCPU241及びGUI描画部250がアプリケーションプログラムに従って動作することによって実現可能である。
S5101で、CPU241は、イベントの発生を待つ。発生し得るイベントには、スレッドの終了、タイマーイベント、マウスの移動、マウスのドラッグ、マウスのクリックなどが含まれる。
S5101においてスレッドの終了イベントが発生した場合、S5102に進み、CPU241はイベント処理を終了して図4のS405に戻る。
S5101においてタイマーイベントが発生した場合、S5103に進む。タイマーイベントとは、何もしなくても定期的な間隔(例えば、0.5秒間隔)で発生するイベントである。
S5101においてマウスの移動イベントが発生した場合、S5104に進む。次いで、S5105で、CPU241は、マウスポインタ904(図9A参照)の座標(以下、「マウス座標」と呼ぶ)を更新する。マウス座標は、例えばRAM242に記憶されている。
S5101においてマウスのドラッグイベントが発生した場合、S5106に進む。次いで、S5107で、CPU241は、S5105と同様にマウス座標を更新する。S5108で、CPU241は、マウス座標が再生位置ポインタ1006又は1007など(図10A参照)の上にあれば、S5109で再生位置ポインタ処理ルーチン(図5F)を呼び出す。そうでなければ、S5119に進む。
S5101においてマウスのクリックイベントが発生した場合、S5110に進む。ここでは、GUIで提供する様々なGUIオブジェクト(例えば、図9Aの移動体アイコン905など)のどれをクリックされたのかを判定する処理を行う(S5111、S5113、S5115、及びS5117)。
移動体アイコンがクリックされた場合、S5112で、CPU241は、移動体アイコン処理ルーチン(図5C)を呼び出す。
撮影区間ラインがクリックされた場合、S5114で、CPU241は、撮影区間処理ルーチン(図5E)を呼び出す。
再生位置ポインタがクリックされた場合、S5116で、CPU241は、再生位置ポインタ処理ルーチン(図5F)を呼び出す。
(例えば図10Aのボタン1005に含まれる)再生・一時停止・停止ボタンがクリックされた場合、S5118で、CPU241は、再生・一時停止・停止処理ルーチン(図5G)を呼び出す。
また、図示しないが、タイムチャート902において所定の移動体に対応するラインがクリックされると、CPU241は、移動体タイムチャート処理ルーチン(図5D)を呼び出す。
このように、映像表示スレッドはイベントドリブン型であるため、マウスポインタ904の挙動、及びどのオブジェクトに対してのイベントであるのかが判定され、判定結果に応じた処理が行われる。
タイマーイベント、マウスの移動イベント、及びマウスのドラッグイベントに関する処理終了後、S5119で、CPU241は、マウスポインタ904を表示する。
S5119に続いて、或いはマウスのクリックイベントに関する処理終了後、S5120で、CPU241は、GUI描画処理ルーチン5120を呼び出す。
次いで、S5101に戻り、終了イベントが発生するまで同様の処理を繰り返す。
●GUI描画処理ルーチン
図5Bは、GUI描画処理ルーチンにおける処理の流れを示すフローチャートである。
S5201で、画面のクリアを行う。
S5202で、映像蓄積サーバ2と通信を行い、監視空間情報305を読み込み、S5203で、その中の形状データを元に監視画面900に監視空間マップ901の描画を行う。
S5204で、映像蓄積サーバ2と通信を行い、カメラ情報302を読み込み、S5205で、カメラアイコンの表示を、S5206で、カメラの視野範囲の表示を行う。
S5207で、映像蓄積サーバ2と通信を行い、移動体情報304及び位置情報303内の必要なデータを読み込み、GUI描画用データ801における移動体描画データObj(i)802内の適切な場所に格納する。具体的には、
撮影区間テーブルETab(i,cid)(移動体情報304内)
−−>再生区間テーブルSTab(i)804(Obj(i)802内)へ格納
検出位置情報Pti(xi,yi,zi,ts)、存在フラグef(i,cid,ts)(位置情報303内)
−−>位置情報テーブルPTab(i)803(Obj(i)802内)へ格納。
S5208で、この位置情報テーブルPTab(i)803に基づいて、監視空間マップ901上に各移動体アイコンの表示を行う。
S5209で、Obj(i)802における被選択フラグが1になっている移動体については、Pt(i)803における各位置座標を直線で結ぶなどしてマップ上に移動軌跡1001の描画を行う。
S5210で、非選択フラグが1になっている移動体については、位置情報テーブルPTab(i)803の存在フラグ欄で1が連続している部分の位置座標を太線で結ぶことにより同移動体の複数の撮影区間を移動軌跡1001上に重畳して描画する。但し、各連続部分の太線には、異なる色を割り当てる。
S5211で、PTab(i)803に基づいて、各移動体のタイムチャート902上に存在ライン911を描画する。
S5212で、STab(i)804に基づいて、存在ライン911の上に、移動体の(複数の)撮影区間を太線(例えば、色は黒)にて重畳して描画する。但し、この際、被選択フラグが1になっている移動体の撮影区間を示すタイムチャート902上の太線については、S5210で描画した移動軌跡1001の各撮影区間を示す太線と同じ色を割り当てる。
S5213で、映像蓄積サーバ2と通信を行い、再生時刻ポインタ変数tp(GUI描画用データ801内)が現在ポイントしている映像フレームを取得する。
S5214で、現在被選択フラグが1になっている移動体が存在する場合は、再生対象移動体ID(GUI描画用データ801内)が示すマップ上の移動体の移動軌跡におけるtpが示す適切な位置に再生位置ポインタを描画する。
S5215で、移動体の移動軌跡上の適切な位置に再生・一時停止・停止ボタンを表示する。
●移動体アイコン処理ルーチン
図5Cは、移動体アイコン処理ルーチンにおける処理の流れを示すフローチャートである。
S5301で、被選択フラグに1(移動体が選択されたことを示す)を設定すると共に、再生対象移動体IDに選択された移動体のIDを設定する。
S5302で、映像種別に1(蓄積映像を示す)を設定する。
S5303で、自動再生モードに1(自動再生を示す)を設定する。
S5304で、STab(再生対象移動体ID)804が示すテーブルのすべての行の再生フラグに1を代入する。
S5305で、再生時刻ポインタ変数tpにS5304でチェックした再生対象行の最初のIN点の時刻情報を設定する。
●移動体タイムチャート処理ルーチン
図5Dは、移動体タイムチャート処理ルーチンにおける処理の流れを示すフローチャートである。
図5Dの各ステップにおける処理は、図5Cの各ステップにおける処理と同様であるため、同一の符号を付して説明を省略する。
●撮影区間処理ルーチン
図5Eは、撮影区間処理ルーチンにおける処理の流れを示すフローチャートである。なお、移動体の移動軌跡とタイムチャートのいずれかの上に重畳表示された撮影区間(target番目とする)がクリックされたものとする。
S5501で、映像種別に1(蓄積映像を示す)を設定する。
S5502で、自動再生モードに1(自動再生を示す)を設定する。
S5503で、STab(再生対象移動体ID)804が示すテーブルのtarget番目の再生フラグに1を代入し、それ以外の行には0を代入する。
S5504で、再生時刻ポインタ変数tpにS5503でチェックした再生対象行の最初のIN点の時刻情報を設定する。
●再生位置ポインタ処理ルーチン
図5Fは、再生位置ポインタ処理ルーチンにおける処理の流れを示すフローチャートである。
S5601で、映像種別に1(蓄積映像を示す)を設定する。
S5602で、自動再生モードに0(手動再生を示す)を設定する。
S5603で、移動軌跡或いはタイムチャート上の再生位置ポインタの位置に応じて、再生時刻ポインタ変数tpの値を適切に増減を加えて更新する。
●再生・一時停止・停止処理ルーチン
図5Gは、再生・一時停止・停止処理ルーチンにおける処理の流れを示すフローチャートである。
S5701で、押されたボタンの種類を判別し、S5702で、押されたボタンに応じて、映像表示スレッドの起動、停止を制御する。
このような処理によって、映像の再生と停止を自由にユーザが変更する事が可能になる。
●映像表示スレッド
図5Hは、映像表示スレッドにおける処理の流れを示すフローチャートである。この映像表示スレッドは、メインのスレッド(メインルーチン)と平行して処理が行われる。
S5801で、GUI描画用データ801における映像種別が0(ライブ映像)か1(蓄積映像)に応じて、S5802又はS5804へ進む。
S5802で、現在時刻の映像フレームを映像蓄積サーバ2から読み取り、S5803で、読み取った映像フレームの表示を行う。
一方、S5804では、再生時刻ポインタ変数tpが示す映像フレームを映像蓄積サーバ2から読み取り、S5805で、読み取った映像フレームの表示を行う。
次に、S5806で、自動再生モードが1(自動再生)か0(手動再生)によって分岐する。自動再生モードが1ならばS5807へ進み、0ならばS5801へ戻る。
S5807で、STab(再生対象移動体ID)804のテーブル情報とtpに基づいて、テーブル情報が含む再生対象区間の最後まで再生したかどうかを判断し、最後まで再生した場合はS5801へ戻り、そうでなければS5808へ進む。
S5808で、tpが示す時刻を所定量だけ進めた後、S5809にて、tpが示す時刻に応じて画面上の移動体の移動軌跡とタイムチャートそれぞれの上の再生位置ポインタの描画位置を適切に変更する。
以降、この処理を繰り返し、映像(動画像)の表示を行う。
映像表示スレッドは、その後、ずっとループを行う。スレッドの起動、停止、一時停止などは、メインスレッド側から制御される。これによって動画の再生、停止、一時停止などが可能になる。
(変形例1−1)
第1の実施形態では、監視空間マップ901としては、監視空間11を上から見た平面図を用いたが、それに限られるものではない。例えば、監視空間11における可視範囲に入る画像を合成した監視空間11のパノラマ画像を監視空間マップとし、監視空間パノラマ画像上に各移動体のアイコン、移動軌跡、及び撮影区間などの情報を重畳表示するようにしてもよい。
以下、図15を参照して、第1の実施形態の変形例1−1を説明する。
図15は、監視空間11のパノラマ画像上で移動軌跡の上の撮影区間ラインが選択された時の監視画面の概観図である。図15において、図10A及び図12Aと同様の要素には同一の符号を付し、説明を省略する。
1500は、表示装置247に表示される監視画面である。
1501は、第1の実施形態と同様、監視空間11の全体(或いはある部分領域)を俯瞰するマップを示しているが、監視空間11におけるカメラ装置4の可視範囲に入る画像を合成したパノラマ画像となっている。
監視空間パノラマ画像1501は、監視空間マップ901と同様であるが、カメラ装置4が現在撮影している撮影フレーム1502を示す矩形が追加表示される。
その他、選択された移動体Aについて移動軌跡1001が表示される点などは、監視空間マップ901と同様である。
このようにして、監視空間マップ901の代わりに監視空間パノラマ画像1501を用いた際も同様に、撮影時に移動体が動いた経路と撮影時間の両視点から移動体の撮影区間を、ユーザは効率よく確認できる。また、その中から任意の撮影区間を容易に指定して蓄積映像を再生することが可能である。
また、監視空間マップ901の代わりに、3次元CGで表現されたマップ(3次元監視空間マップ)を使用することもできる(不図示)。但し、この3次元監視空間マップとは、次の説明するものを指す。3次元仮想空間に配置した監視空間の3次元形状モデル(例えば、映像蓄積サーバ2の監視空間情報305における形状・サイズ情報がこれに相当)を仮想の視点(ビューポイント)から見たイメージを考える。そして、このイメージを透視投影変換などの手法で計算した監視空間の3次元画像のことを指す。
実際の監視空間における移動体の位置情報や撮影履歴の情報を元に、3次元監視空間マップ上の適切な位置に移動体のアイコン、移動軌跡、撮影履歴を描画する。そして、視野変換(視点の移動、回転、パン、チルト、ズーム)により見る位置や方向を様々に変化させる。このように操作しながら、3次元マップ上から特定の移動体の所望の撮影区間を指定して蓄積映像を再生するよう構成することでも同様の効果が得られる。この場合は、見る方向を自由に変化させて各移動体の移動軌跡とその軌跡上に重畳された撮影区間を観察することができるため、各移動体が撮影時にどのような経路で移動していたのかを様々な角度から明確に確認できるようになる。
また、第1の実施形態では、移動軌跡及びタイムチャート上に表示された撮影区間のラインの太さは一定であった。しかし、例えば、撮影時のカメラと移動体の間の距離(画面に対する比率)に応じてラインの太さや明度などの属性を変化させるようにしても良い。このようにすれば、各移動体が撮影区間の中でどの時刻に大きく映っているかをラインの属性(太さや明度)によって明確に判別できるようになるので、撮影区間の指定がより容易になるという利点がある。
以上説明したように、本実施形態によれば、クライアント3は監視データに基づいて図9Aなどに示した監視画面900を表示装置247に表示する。
これにより、各移動体の撮影区間を撮影時の移動経路(移動軌跡)と撮影時間と共に一覧性良く容易に確認できると共に、その中から所望の撮影区間を容易に指定して蓄積映像を再生することができるようになる。
[第2の実施形態]
第2の実施形態では、第1の実施形態と異なり、2台のカメラ装置が監視空間に設置される。また、監視画面は、映像データの編集が容易になるように構成される。
なお、映像編集の分野では、映像クリップ(映像素材データ)内にIN点(再生開始点)とOUT点(再生終了点)を指定することで必要な部分だけを取り出し、不要部分を取り除く作業を「トリミング」と呼ぶ場合が多い。しかしながらこれは、静止画像データにおける部分領域を切り取る作業を指す「トリミング」と混同する可能性がある。そこで、本実施形態では、映像編集での「トリミング」を「部分区間指定」という用語に統一して記述する。
<監視システム10b>
図1Bは、第2の実施形態に係る監視システム10bの一形態を示す概念図である。図1Bにおいて、第1の実施形態(図1A参照)と同一の構成要素には同一の符号を付し、説明を省略する。
第1の実施形態と異なり、監視システム10bは、複数のカメラ装置(本実施形態では、カメラ装置4a及び4bの2台とする)を備える。また、カメラ装置4a及び4bそれぞれに対応する視野範囲9a及び9bが存在する。カメラ装置4a及び4bそれぞれの構成は、図1Aのカメラ装置4と同様である。
また、クライアント3は、監視画面上で撮影区間のいずれかが選択された場合、再生表示する映像データ(第1の実施形態参照)の代表映像フレームを取得して縮小静止画像を生成し、監視画面に表示する。
<カメラ制御サーバ1>
図2Bは、第2の実施形態に係るカメラ制御サーバ1の構成を示す機能ブロック図である。図2Bにおいて、第1の実施形態(図2A参照)と同一の構成要素には同一の符号を付し、説明を省略する。カメラ制御サーバ1自体の構成は、第1の実施形態と同様であるが、第1の実施形態と異なり、映像入力部206及び外部機器信号送受信部207には、2台のカメラ装置4a及び4bが接続されている。
<映像蓄積サーバ2>
映像蓄積サーバ2の構成は、第1の実施形態と同様である(図2D参照)。但し、第2の実施形態においては、2台のカメラ装置4a及び4bが存在するので、撮影区間判断部228は、カメラ装置4a及び4bそれぞれが撮影した映像データについて撮影区間を求める。
<クライアント3>
クライアント3の構成は、第1の実施形態と同様である(図2E参照)。但し、第2の実施形態においては、GUI描画部250が描画するGUIは監視空間10b(図1B参照)のためのものである。
<カメラ制御サーバ1における処理>
カメラ制御サーバ1における処理は、第1の実施形態と同様である(図16及び図7参照)。但し、2台のカメラ装置4a及び4bが存在することに伴って、例えば映像データがそれぞれのカメラ装置4a及び4bについて処理されるなどの変更がなされる。
<映像蓄積サーバ2が蓄積する情報>
第2の実施形態において映像蓄積サーバ2が外部記憶装置225に蓄積する情報は、第1の実施形態と同様である(図3A参照)。但し、第2の実施形態においては2台のカメラ装置4a及び4bが使用されるため、第1の実施形態において説明した通り、蓄積映像情報301や存在フラグef(i,cid,ts)などは、それぞれのカメラ装置4a及び4bについて記録される。
<映像蓄積サーバ2における処理>
映像蓄積サーバ2における処理は、第1の実施形態と同様である(図17参照)。但し、第2の実施形態においては2台のカメラ装置4a及び4bが使用されるので、撮影区間テーブルETab(i,cid)の構成は第1の実施形態と異なり、例えば図19Bに示すようになる。また、撮影区間テーブルETab(i,cid)の更新のために撮影区間判断部228が実行する処理も異なる。以下、図18Bを参照して説明する。図18Bにおいて、第1の実施形態と同様の処理が行われるステップには同一の符号を付し、説明を省略する。
S1821で、撮影区間判断部228は、変数cidに0を代入する。
S1822で、撮影区間判断部228は、変数cidが(Ncam-1)(Ncamはカメラ装置の数)以上であるか否かを判定する。判定結果が真の場合、処理を終了する。判定結果が偽の場合、S1801に進む。即ち、本実施形態では、第1の実施形態において図18Aを参照して説明した処理と同様の処理を、カメラ装置の数だけ繰り返す。
S1823で、撮影区間判断部228は、PreExistを初期化する。即ち、PreExist(i), (i=0,...,Nobj-1)に0を代入する。
S1824では、撮影区間判断部228は、cidを1インクリメントし、S1822に戻る。即ち、第1の実施形態では、S1802における判定結果が真の場合は処理が終了したが、第2の実施形態では、すべてのカメラ装置について処理が繰り返される。
<監視画面>
以下、図9B乃至図12Bを参照して、クライアント3の表示装置247に表示される、監視空間11のための監視画面について説明する。
以下の説明においては、ユーザが監視画面を閲覧中(監視中)も、カメラ装置4a及び4bによる撮影が継続している(即ち、カメラ制御サーバ1が継続的に監視データを取得し、映像蓄積サーバ2を経由してクライアント3へ送信される)ものとする。しかし、本実施形態に係る監視画面の構成とその描画技術は、カメラ装置4a及び4bによる撮影の停止後に、映像蓄積サーバ2に蓄積済みの監視データをユーザが確認する際にも有効である。
●起動直後
図9Bは、クライアント3が監視画面を表示するためのアプリケーションプログラムを起動した直後に表示装置247に表示される監視画面900の概観図である。図9Bにおいて、第1の実施形態(図9A)と同一の要素には同一の符号を付し、説明を省略する。
第2の実施形態においては、2台のカメラ装置4a及び4bが使用されるので、対応する2つのカメラアイコン907a及び907b、方向908a及び908b、視野範囲909a及び909bが表示される。
また、タイムチャート902においては、カメラ装置毎の存在ライン911a及び911b、及び撮影区間ライン912a及び912bが表示される。但し、アイコン915をクリックして表示を「−」から「+」に変更することにより、各カメラ装置のラインが統合して表示されてもよい(移動体Cのライン参照)。即ち、図9Bから分かるように、時間軸上で、各移動体を相互に識別可能なように、且つ各撮影区間がどのカメラ装置によって撮影されたか識別可能なように、タイムチャート902において撮影区間が表示される。
また、第2の実施形態においては、現在時刻913における撮影区間ラインは他の撮影区間ラインよりも太く表示されることにより区別可能(識別可能)である。
また、監視空間マップ901には、選択されている移動体(図9Bにおいては移動体A及びB)の移動した軌跡も表示される。
監視画面900はまた、監視空間マップ901において師弟した撮影区間の映像編集用の編集映像プレイリスト916、及び編集した映像を再生、停止、或いは保存等するためのボタン917を含む。即ち、第2の実施形態に係るクライアント3は、プレイリスト表示手段を備える。
また、再生画面903には、選択されたカメラが撮影中の映像が映っている。
●移動体アイコン選択時
図10Bは、移動体アイコンが選択された時の監視画面900における監視空間マップ901の拡大概略図である。図10Bにおいて、図9A及び図9Bと同一の要素には同一の符号を付し、説明を省略する。
図10Bにおいては、2つのカメラアイコン907a及び907bが同時に選択されているものとする。このように、カメラアイコンは複数選択することが可能である。また、移動体アイコンA及びBが選択され、他の移動体アイコンと区別可能に表示されている。このように、移動体アイコンは複数選択することが可能である。
以下、移動体アイコンBを例にとって説明する。
1008は、選択された移動体アイコンBの移動軌跡である。移動軌跡1008が表示された状態では、選択された移動体アイコンBが位置が時々刻々と変化するのに応じて、移動軌跡1008もその位置をトレースして延びていく。
また、移動軌跡1008の両側に(移動軌跡1008の実線に沿って)補助線1009及び1010が表示される。補助線1009及び1010はそれぞれ、カメラアイコン907a(カメラ装置4a)とカメラアイコン907b(カメラ装置4b)による移動体Bの撮影区間を示すためのものである。撮影区間ライン1011及び1012は、カメラ装置4aが移動体Bを撮影した撮影区間を示す。また、撮影区間ライン1013及び1014は、カメラ装置4bが移動体Bを撮影した撮影区間を示す。即ち、補助線も含めて移動軌跡と考えると、各撮影区間がどのカメラ装置によって撮影されたものであるか識別可能なように、移動軌跡が表示される。
なお、図10Bでは、撮影区間の表示方法が「カメラ別(移動体アイコン上の「−」マーク)」になっているので別々の補助線上に示されている。その「−」マークをマウスポインタ904で選択して「+」に変えることで、撮影区間の表示方法が「マージ」に変化し、複数のカメラ装置の撮影区間が1本のライン上に融合した状態で表示される(不図示)。
このようにして、本実施形態によれば、各移動体の軌跡上において複数のカメラ装置が移動体を撮影した撮影区間を一括して表示することが可能である。
●撮影区間選択時
図11Bは、選択された移動体Bのカメラ装置4bに関する撮影区間ライン1011が選択された時の、監視空間マップ901及び編集映像プレイリスト916の拡大概略図である。但し、図10Bの場合と同様、カメラ装置4a及び4bと、移動体A及びBとが選択状態にあるとする。図11Bにおいて、図10Bと同一の要素には同一の符号を付し、説明を省略する。
1111は、選択された撮影区間から所定の間隔で抽出した代表映像フレームの縮小静止画像を示している。但し、各々の縮小静止画像1111は、図11Bに示すのように、選択された撮影区間の軌跡の適切な位置に重ねて(代表映像フレームの撮影時刻における移動体の位置と対応付けて)並べられるものとする。即ち、クライアント3は、画像表示手段を備える。
次に、1112及び1113は、縮小静止画像1111の中からマウスポインタ904により選択されたIN点(再生開始点)とOUT点(再生終了点)の画像を示している(即ち、クライアント3は画像選択手段を備える)。選択された縮小静止画像1112及び1113には、図11Bに示すように、それぞれ「IN」マークと「OUT」マークが付与される。また、図11Bでは、1つの撮影区間内で指定されたIN点とOUT点の画像の組は一組であるが、1つの撮影区間から複数組のIN点とOUT点を指定することも可能である。
このようにして、選択した移動体の撮影区間ラインにおける映像の内容を、撮影位置を確認しながら直感的に把握できるようになる。加えて、選択した撮影区間の映像の内容全体を見渡しながらIN点とOUT点の画像を選択することで、部分区間指定が容易に行えるようになる。
このようにして指定した部分区間(縮小静止画像1112及び1113のIN点及びOUT点で指定される区間)は、マウスポインタ904により、矢印1114で示すように編集映像プレイリスト916の任意の位置にドラッグ&ドロップで挿入できる。これにより、映像データの編集作業を行うことができる。ここで、複数の部分区間が一括である位置に挿入された場合は、例えば、撮影開始時刻が早い順に同部分区間をプレイリスト上に並べる。この際、各部分区間の重複部分を削除するなどして並べてもよい。
完成した映像コンテンツは、ボタン917を使用して、再生画面903上で再生したり、所定の映像データ形式に変換して外部記憶装置246内に保存したりすることができる。
図12Bは、移動体の移動軌跡上で選択された撮影区間ラインの長さが短い場合の、監視空間マップ901及び編集映像プレイリスト916の拡大概略図である。但し、図11Bの場合と同様、カメラ装置4a及び4bと、移動体A及びBとが選択状態にあるとする。図12Bにおいて、図10Bと同一の要素には同一の符号を付し、説明を省略する。
1203、及び1204はそれぞれ、移動体A及びBの移動軌跡上で選択された2つの撮影区間ラインを示している。
1205、及び1206は、撮影区間ライン1203及び1204から放射状に描かれた複数の引出線を示している。但し、図12Bでは、引出線の端点が撮影区間ラインの形状を相似形に拡大したようになっているが、本発明はこの限りでなく、同端点が一直線上に並ぶように引出線を描いてもよい。
1207は、撮影区間ライン1203(カメラ装置4aに対応)の部分の映像から所定の間隔で抽出され、引出線1205の端点に配置された代表映像フレームの縮小静止画像群を示している。一方、1208は、撮影区間ライン1204(カメラ装置4bに対応)の部分の映像から所定の間隔で抽出され、引出線1206の端点に配置された代表映像フレームの縮小静止画像群を示している。即ち、クライアント3は、縮小静止画像と、対応する代表映像フレームの撮影時刻における移動体の位置とを結ぶ引出線を表示する引出線表示手段を備える。また、各縮小静止画像は、それぞれが相互に重ならないように表示される。
縮小静止画像1209及び1210はそれぞれ、引出線1205の端点の縮小静止画像群1207の中から選択されたIN点(再生開始点)とOUT点(再生終了点)の画像を示している。なお、選択された縮小静止画像1209及び1210にはそれぞれ、「IN」マークと「OUT」マークが付与される。一方、縮小静止画像1211及び1212はそれぞれ、引出線1206の端点の縮小静止画像群1208の中から選択されたIN点(再生開始点)とOUT点(再生終了点)の画像を示している。また、図12Bでは、1つの撮影区間ラインにおいて指定されたIN点とOUT点の組は一組であるが、1つの撮影区間ラインから複数組指定することも可能である。
このように、引出線を用いて放射状に縮小静止画像が表示されるので、選択した移動体の撮影区間ラインが短い場合であっても、撮影区間における映像の内容を、撮影位置を確認した上で直感的に把握できるようになる。加えて、撮影区間の映像の内容全体を見渡しながらIN点とOUT点の選択をすることで、部分区間指定が容易に行えるようになる。なお、以上の引出線による部分区間指定方法は、上記のように撮影区間ラインが短い場合だけに限らず、複数の撮影区間ラインが狭い範囲に固まっている場合にも有効である。
上記のようにして指定した2組の部分区間(縮小静止画像1209及び1210による部分区間、及び縮小静止画像1211及び1212による部分区間)は、マウスポインタ904によりそれぞれ編集映像プレイリスト916へ挿入可能である。具体的には、図12Bの矢印1213及び1214で示すように、編集映像プレイリスト916の任意の位置にドラッグ&ドロップで挿入することができる。また、これらの複数の部分区間が一括で所定の位置に挿入された場合は、例えば、撮影開始時刻が早い順に部分区間を並べることができる。この際、各部分区間の重複部分を削除するなどして並べてもよい。
このような編集作業の末に完成した映像コンテンツは、ボタン917を使用して再生画面903上で再生したり、所定の映像データ形式に変換して外部記憶装置246内に保存したりすることができる。
<GUI(監視画面)描画用データ>
図8Bは、クライアント3が監視画面を描画するために使用するGUI描画用データについて示す図である。なお、図8Bに示すGUI描画用データ811は、クライアント3が映像蓄積サーバから監視データを受信し、受信した監視データを任意の方法で処理することにより生成される。
GUI描画用データ811は、カメラ数Ncam、カメラ描画データCam(i)812、移動体数Nobj、移動体描画データObj(i)813、映像チャネル、再生位置ポインタ変数tp、再生区間テーブルSTab814を含む。
カメラ描画データCam(i)812は、各カメラの描画データを格納するもので、カメラ番号(cid)、被選択フラグ、カメラ位置情報Pcを含む。
カメラ番号には、各カメラのID(本実施形態では1か2であり、それぞれカメラ装置4a、4bを示すものとする)が格納される。
被選択フラグは、そのカメラが選択中か否かを示すもので、0(非選択)又は1(選択中)が格納される。
カメラ位置情報Pcには、監視空間10bにおける各カメラの3次元位置座標(xc,yc,zc)が格納される。
各移動体描画データObj(i)813は、各移動体の描画データを格納するもので、移動体ID、被選択フラグ、位置情報テーブルPTab(i)814、撮影区間テーブルETab’(i,cid)815を含む。但し、ETab’(i,cid)815は、映像蓄積サーバ2の移動体情報304から読み込まれたETab(i,cid)のテーブルに選択用フラグの欄が加えられたものになっている。
移動体IDには、各移動体のID(0〜Nobjのいずれか)などが格納される。
被選択フラグは、その移動体が選択中か否かを示すもので、0(非選択)又は1(選択中)が格納される。
位置情報テーブルPTab(i)813には、映像蓄積サーバ2から読み込まれた、タイムスタンプts付の3次元座標データPti(xi,yi,zi,ts)とカメラ別の存在フラグef(i,cid,ts)の情報が格納される。
<映像関連データ>
図8Cは、クライアント3が監視画面を描画するために使用する映像関連データについて示す図である。なお、図8Cに示す映像関連データ821は、クライアント3が映像蓄積サーバから監視データを受信し、受信した監視データを任意の方法で処理することにより生成される。
映像関連データ821は、映像チャネル、現在時刻tc、部分区間テーブルPL-S、再生位置ポインタ変数tp_S、編集映像テーブルPL-E、再生位置ポインタ変数tp_Eを含む。
映像チャネルは、どの映像ソースを表示するかの情報が格納される。映像チャネルがC1,C2の場合はそれぞれカメラ1と2(カメラ装置4a、4b)のライブ映像の表示を示す。またS、Eの場合は、蓄積映像を表示する場合であり、それぞれ、部分区間テーブルPL-Sと編集映像テーブルPL-Eの再生を示すものとする。
部分区間テーブルPL-S822は、選択中の1以上の部分区間の再生順番の情報を格納するためのものである。
再生位置ポインタtp_Sは、PL-S822における再生位置を示すためのものである。
編集映像テーブルPL-E823は、クライアント3の監視画面900の編集映像プレイリスト916用の情報を格納するためのものである。
再生位置ポインタtp_Eは、PL-E823における再生位置を示すためのものである。
<クライアント3における処理>
図4、及び図6A〜図6Jを参照して、クライアント3における処理を説明する。なお、図6Aにおいて、図5Aと同様の処理が行われるステップには同一の符号を付し、説明を省略する。
●メインルーチン
メインルーチンに関しては、第1の実施形態と同様であるので、説明を省略する(図4参照)。
●メインルーチンのイベント処理
図6Aは、メインルーチンのイベント処理の流れを示すフローチャートである。図6A〜図6Jにおける各ステップは、クライアント3のCPU241及びGUI描画部250がアプリケーションプログラムに従って動作することによって実現可能である。
第2の実施形態では、第1の実施形態で説明した種類のイベントに加えて、マウスのリリースイベントが含まれる。また、マウスのドラッグイベント、及びマウスのクリックイベントにおける処理が、第1の実施形態とは異なる。
S5101においてマウスのドラッグイベントが発生した場合、S5106及びS5107を経て、S6113に進む。CPU241は、S6113で、選択部分区間処理ルーチン(図6G)を呼び出し、S6114で、領域指定処理ルーチン(図6I)を呼び出し、S5119に進む。
S5101においてマウスのクリックイベントが発生した場合、S5110に進む。ここでは、GUIで提供する様々なGUIオブジェクト(例えば、図9Bの移動体アイコン905など)のどれをクリックされたのかを判定する処理を行う(S6101、S5111、S5113、S6103、S6105、及びS6107)。
カメラアイコンがクリックされた場合、S6102で、CPU241は、カメラアイコン処理ルーチン(図6C)を呼び出す。
移動体アイコンがクリックされた場合、S5112で、CPU241は、移動体アイコン処理ルーチン(図6D)を呼び出す。
撮影区間ラインがクリックされた場合、S5114で、CPU241は、撮影区間処理ルーチン(図6E)を呼び出す。
縮小静止画像がクリックされた場合、S6103で、CPU241は、縮小静止画像処理ルーチン(図6F)を呼び出す。
選択部分区間がクリックされた場合、S6106で、CPU241は、選択部分区間処理ルーチン(図6G)を呼び出す。
編集映像再生・保存ボタンがクリックされた場合、S6108で、CPU241は、編集映像再生・保存ボタン処理ルーチン(図6H)を呼び出す。
上記以外であれば、S6109で、CPU241は、領域指定処理ルーチン(図6I)を呼び出す。
S5101においてマウスのリリースイベントが発生した場合、S6110に進む。CPU241は、S6111で、選択部分区間処理ルーチン(図6G)を呼び出し、S6114で、領域指定処理ルーチン(図6I)を呼び出し、S5119に進む。
このように、映像表示スレッドはイベントドリブン型であるため、マウスポインタ904の挙動、及びどのオブジェクトに対してのイベントであるのかが判定され、判定結果に応じた処理が行われる。
●GUI描画処理ルーチン
図6Bは、GUI描画処理ルーチンにおける処理の流れを示すフローチャートである。図6Bにおいて、図5Bと同様の処理が行われるステップには同一の符号を付し、説明を省略する。
S6201で、映像蓄積サーバ2と通信を行い、カメラ情報302を読み込み、カメラ描画データCam(i)812の適切な場所に格納する。S6202で、複数のカメラアイコンの表示を、S6203で、カメラの視野範囲の表示を行う。
S6204で、同じく被選択フラグが1になっている移動体については、位置情報テーブルPTab(i)814の各カメラ用の存在フラグにおける1の連続部分の位置座標を太線で結ぶ。これにより、各カメラによる撮影区間を移動軌跡上で識別できるようにして表示する。すなわち、例えば、図10Bのように、選択中の移動体の軌跡の実線の両側にカメラ装置4a及び4bの撮影区間を表示するための点線を設け、PTab(i,cid)814を利用して各カメラの撮影区間を各々の点線上に重畳する。
S6205で、撮影区間テーブルETab’(i,cid)815の選択フラグに1が代入されている撮影区間がある場合、蓄積映像から所定の間隔で取得した代表映像フレームの縮小静止画像を撮影区間ラインの軌跡に重ねて表示する(図11B参照)。但し、この所定の間隔とは、「移動体の移動量での間隔」、「一定時間間隔」、「映像変化点が出現する間隔(任意のアルゴリズムを利用可能)」などの中から適切なものを選ぶことができる。
S6206で、撮影区間テーブルETab’(i,cid)815の選択フラグに2が代入されている撮影区間がある場合、蓄積映像から所定の間隔で取得した代表映像フレームを選出する。その後、この撮影区間から放射状に代表映像フレームと同数の引出線を描画する。その後、各代表映像フレームの縮小静止画像を引出線の端点上に並べて表示する(図12B参照)。
S6207で、撮影区間ラインに重ねて配置された縮小静止画像の中でIN点(再生開始点)、或いは、OUT点(再生終了点)として指定されたものがある場合を考える。この場合は、その画像上に、IN点マーク、或いはOUT点マークを付与する(図11B参照)。
S6208で、映像関連データ821における編集映像テーブルPL-Eに基づいて、編集映像プレイリストをGUIウィンドウ上に表示する(図9B参照)。
S6209で、再生位置ポインタを表示する。
●カメラアイコン処理ルーチン
図6Cは、カメラアイコン処理ルーチンにおける処理の流れを示すフローチャートである。
S6301で、カメラ描画データCam(i)812における被選択フラグに1(このカメラが選択されたことを示す)を設定する。
●移動体アイコン処理ルーチン
図6Dは、移動体アイコン処理ルーチンにおける処理の流れを示すフローチャートである。
S6401で、移動体描画データObj(i)813における被選択フラグに1(この移動体が選択されたことを示す)を設定する。
●撮影区間処理ルーチン
図6Eは、撮影区間処理ルーチンにおける処理の流れを示すフローチャートである。
S6501で、撮影区間部分の軌跡の形状・大きさを分析し、軌跡がある程度長い場合と、短い(或いは狭い範囲に固まっている)場合のどちらの状態であるかを判断する。
S6502で、前者の場合は、撮影区間テーブルETab’(i,cid)815におけるクリックされた撮影区間の選択フラグに1(撮影区間上に表示)を代入する。また、後者の場合は、同選択フラグに2(引出線の端点上へ表示)を代入する。
●縮小静止画像処理ルーチン
図6Fは、撮影区間処理ルーチンにおける処理の流れを示すフローチャートである。
S6601で、まだIN点が設定されてない場合は、クリックされた縮小静止画像にIN点(再生開始点)を設定する。
S6602、IN点が設定済みの場合は、クリックされた縮小静止画像にOUT点(再生終了点)を設定する。
このようなIN−OUT点の指定によって、撮影区間内の部分区間が指定されることになる。
なお、本実施例ではある1つの撮影区間ラインにおいて指定されるIN−OUT点の組は一組であるが、ある撮影区間ラインにおいてIN−OUT点用の縮小静止画像の組を複数指定して複数の部分区間を指定するように構成しても良い。
以上のようにして指定された1以上の部分区間は、映像関連データ821における部分区間テーブル822に適切に設定される。なお、この部分区間テーブル822の内容は、再生・停止ボタンの押下により、再生画面903上で連結して再生することが可能である。
●選択部分区間処理ルーチン
図6Gは、選択部分区間処理ルーチンにおける処理の流れを示すフローチャートである。
S6701で、マウスクリック、マウスドラッグ、マウスリリースのいずれのイベントか判断する。
S6702で、マウスクリックの場合の処理を行う。すなわち、選択中の1以上の部分区間を「挿入対象」に設定した上で、マウスドラッグ時の表示に用いる領域データを初期化する。
S6703で、マウスドラッグの場合の処理を行う。すなわち、マウスドラッグのマウスの位置に応じて領域データを適切に更新する。
S6704で、マウスリリースの場合の処理を行う。まず、編集映像プレイリスト916上でマウスリリースされた場合は、そのリリース位置に1以上の部分区間を適切な順番で挿入した上で、「挿入対象」の設定を解除する。但し、この際、映像関連データ821における編集映像テーブル823の適切な行に当該1以上の部分区間の情報を挿入する。また、編集映像プレイリスト916以外の位置でリリースされた場合は、編集映像プレイリスト916には変更を加えないで「挿入対象」の設定の解除のみを行う。
●編集映像再生・保存ボタン処理ルーチン
図6Hは、編集映像再生・保存ボタン処理ルーチンにおける処理の流れを示すフローチャートである。
S6801で、押されたボタンの判別を行う。
S6802で、押されたボタンが再生ボタンの場合は、現在の編集映像プレイリスト916が示す内容を編集映像テーブル823から読み出し、再生画面903に再生表示する(停止ボタンの場合は、再生中の映像を停止する)。
S6803で、押されたボタンが保存ボタンの場合は、現在の編集映像プレイリスト916に基づいて各カメラの蓄積映像から必要な部分をコピーして1つの適切な映像形式の映像データに融合する。次に、作成した映像データのファイルを外部記憶装置246の適切な場所に格納する。
●領域指定処理ルーチン
これについては、変形例2−1において後述する。
●映像表示スレッド
図6Jは、映像表示スレッドにおける処理の流れを示すフローチャートである。この映像表示スレッドは、メインのスレッド(メインルーチン)と平行して処理が行われる。
S6951で、映像関連データ821における現在の映像チャネルによる分岐を行う。すなわち、映像チャネルがライブ映像(C1又はC2)の場合は、S6952へ、蓄積映像(S又はE)の場合はS6954へ進む。
C1,C2の場合は、それぞれ、カメラ装置4a及び4bのライブ映像を意味している。この場合は、S6952で、現在時刻tcのカメラ装置4a或いはカメラ装置4bの映像フレームを映像蓄積サーバ2から読み取る。次のS6953で、読み取った映像フレームを再生画面903上へ表示する。
一方、S、Eの場合は蓄積映像を意味している。この場合は、S6954で、部分区間テーブルPL-S(或いは編集映像テーブルPL-E)における再生時刻ポインタ変数tp_S(或いはtp_E)が指す位置の映像フレームを映像蓄積サーバ2から読み取る。次にS6955で、読み取った映像フレームを再生画面903に表示する。
次に、S6956で、現在のtp_S(或いはtp_E)に基づいて、部分区間テーブルPL-S(或いは編集映像テーブルPL-E)の最後まで再生したかどうかを判断し、最後まで再生した場合はS6951へ戻り、そうでなければS6957へ進む。
次に、S6957で、tp_S(或いはtp_E)が示す時刻を所定量だけ進めた後、S6951へ戻る。
以降、この処理を繰り返し、映像(動画像)の表示を行う。
映像表示スレッドは、その後、ずっとループを行う。スレッドの起動、停止、一時停止などは、メインスレッド側から制御される。これによって動画の再生、停止、一時停止などが可能になる。
なお、本実施形態では、各移動体の撮影区間の蓄積映像から所定の間隔で選出した代表映像フレームの縮小静止画像を同撮影区間部分の軌跡上に並べて配置した。しかし、より詳細に撮影区間の蓄積映像の内容を確認したり部分区間指定をしたりする場合は、次のようにしてもよい。
まず、並べられた縮小静止画像の中からマウス等により隣り合う2画像を別途選択する。次に、選択された縮小静止画像に対応する2つの代表映像フレームの間の蓄積映像から更に細かい間隔で複数の映像フレームを選出し、選択された縮小静止画像の付近に並べて配置する。こうした上で、撮影区間上に並べられた縮小静止画像と詳細表示用の縮小静止画像の両者からIN点とOUT点の画像を選択し部分区間指定をするように構成してもよい。
<変形例2−1>
第2の実施形態では、映像データから切り出す部分区間をユーザが指定した。変形例2−1では、監視空間マップ901においてユーザが所望の領域を選択することにより、選択された領域内の移動軌跡から部分区間が自動的に指定される。これにより、ユーザが部分区間を指定する労力が軽減される。自動的に指定される部分区間を決定する基準は、任意の基準でよい。例えば、ユーザが選択した領域に含まれる全ての撮影区間を部分区間として指定してもよいし、以下に説明するように、撮影区間の一部のみを部分区間として指定してもよい。
図13Bは、図10Bの監視空間マップ901においてユーザが所望の領域を選択した状態を示す概観図である。図13Bにおいては、図10Bの場合と同様、カメラ装置4a及び4B、及び移動体A及びBが選択状態にあるとする。
1301は、監視空間マップ901上でマウスポインタ904により選択された領域を示している。但し、図13Bでは、選択された領域は矩形であるが、これに限られるものではなく、例えば、円形(楕円形)、多角形、フリーハンドによる形など、任意の形を指定することができる。
1302及び1303と、1304及び1305とは、領域1301の内部において、移動体Aに関してカメラ装置4a及び4bの撮影区間の中から自動的に抽出された撮影区間に付与されたIN−OUT点の組である。撮影区間の抽出は、例えば、CPU241が監視画面900用のアプリケーションプログラムを実行することにより実現される。本実施形態では、CPU241は、カメラ装置4a及び4bの両方に同時に撮影された撮影区間を指定する。
同様に、1306及び1307と、1308及び1309とは、領域1301の内部において、移動体Bに関してカメラ装置4a及び4bの撮影区間の中から自動的に抽出された撮影区間に付与されたIN−OUT点の組である。
以上の結果、移動体と複数のカメラ装置とを指定した上で、監視空間マップ901上で任意に指定した領域において、指定された全カメラ装置によって同時に撮影された撮影区間に対する部分区間指定が容易に行えるようになる。
このようにして自動指定された4組の部分区間は、マウスポインタ904により矢印1310のように編集映像プレイリスト916の任意の位置にドラッグ&ドロップで挿入することができる。このように、複数の部分区間が一括で特定の位置に挿入された場合は、例えば、撮影開始時刻が早い順に同部分区間をプレイリスト上に並べる。この際、各部分区間の重複部分を削除するなどして並べてもよい。
このような編集作業の末に完成した映像データは、ボタン917の押下により、再生画面903上で再生・停止したり、適切な映像データ形式に変換して外部記憶装置246内に保存したりすることができる。
なお、図13Bでは、複数の移動体と複数のカメラ装置を指定した上で、監視空間マップ901上で指定した任意の領域に対する撮影区間から自動的に部分区間指定を行ったが、これに限られるものではない。例えば、単一のカメラ装置を指定した上で、そのカメラ装置によって撮影された撮影区間から自動的に部分区間指定を行ってもよい。
図13Bでは、部分区間が指定されていない状態で監視空間マップ901における領域1301が選択された。図14Bでは、所定の部分区間が(自動又手動を問わず)指定された状態で、監視空間マップ901における所望の領域がユーザによって選択された場合を説明する。図14Bでは、図10Bの場合と同様、カメラ装置4a及び4b、及び移動体A及びBが選択状態にあるとする。
1402及び1403は、任意の方法(手動又は自動を問わず)で指定された部分区間(IN−OUT点の組)を示している。
1401は、監視空間マップ901上でマウスポインタ904により指定された領域を示している。但し、図14Bでは、指定された領域は矩形であるが、これに限られるものではなく、円形(楕円形)、多角形、フリーハンドによる形など、任意の形を指定することができる。
1404及び1405と、1406及び1407と、1408及び1409とは、領域1401の内部において自動的に指定された部分区間を示す。これらの部分区間は、移動体A或いはBの撮影区間において最初に指定されていた部分区間(1402と1403)と同じ時間帯に撮影された撮影区間である。但し、図14Bでは、移動体Bの撮影区間には最初に指定された区間と同じ時間帯に撮影された部分が無い。そのため、自動的に部分区間指定されたのは移動体Aの撮影区間のみとなっている。
以上の結果、移動体と複数のカメラ装置を指定した上で、監視空間マップ901上で任意に指定した領域において、最初に指定した部分区間に対して同じ時間帯に撮影された撮影区間への部分区間指定が容易に行えるようになる。
このようにして自動的に指定された3組の部分区間は、マウスポインタ904により矢印1410に示すように編集映像プレイリスト916の任意の位置にドラッグ&ドロップで挿入することができる。このように、複数の部分区間が一括で特定の位置に挿入された場合は、例えば、撮影開始時刻が早い順に同部分区間をプレイリスト上に並べる。この際、各部分区間の重複部分を削除するなどして並べてもよい。
このような編集作業の末に完成した映像データは、ボタン917の押下により、再生画面903上で再生・停止したり、適切な映像データ形式に変換して外部記憶装置246内に保存したりすることができる。
以上に説明した図13B及び14Bにおける領域1301及び1401を指定する処理は、図6Iにおける領域指定処理ルーチンで実行される。以下、この領域指定処理ルーチンについて説明する。
S6901で、マウスクリック、マウスドラッグ、マウスリリースのいずれのイベントか判断する。
S6902で、マウスクリック時の処理を行う。すなわち、クリックされた位置を第1座標(基準座標)に設定する。
S6903で、マウスドラッグ時の処理を行う。すなわち、マウスの位置座標を矩形領域の第2座標に設定する。
S6904で、マウスリリース時の処理を行う。すなわち、まず、リリース位置を第2座標に設定し、第1と第2の座標で決定される矩形領域を自動部分区間指定の対象領域とする。次に、任意の方法により最初に1以上の部分区間(IN−OUT点が付与された区間)が指定されていない場合といる場合で異なる自動部分区間指定の処理(以下)を行う。
●最初に部分区間が指定されていない場合
上記対象領域において、各移動体を撮影した1以上のカメラ装置による過去の撮影区間の中から、同じ時間帯に撮影された箇所を全て自動で抽出する。次に、その抽出した各々の部分に自動でIN−OUT点を付与し部分区間指定を行う(図13B参照)。但し、この場合の処理はこの方法だけに限らず、例えば、特定の単一のカメラ装置による撮影区間を全て自動抽出してそれらの部分に自動で部分区間指定するようにしてもよい。
●最初に部分区間が指定されている場合
上記対象領域において、各移動体を撮影した1以上のカメラ装置による過去の撮影区間の中から、最初に指定された部分区間と同じ時間帯に撮影された箇所を全て自動で抽出する。次に、その抽出した各々の部分に自動でIN−OUT点を付与し部分区間指定を行う(図14B参照)。
以上のようにして自動で指定された1以上の部分区間は、映像関連データ821における部分区間テーブル822に適切に設定される。なお、この部分区間テーブル822の内容は、ボタン917における再生ボタンの押下により、再生画面903上で連結して再生して内容を確認することができる。
<変形例2−2>
第2の実施形態及び変形例2−1では、監視空間マップ901上の各移動体の移動軌跡上に移動体の過去の撮影区間を全て表示させて部分区間指定を行っていたが、これに限られるものではない。例えば、過去の任意の時間帯(開始時刻−終了時刻)を1以上指定して、その1以上の時間帯に含まれる移動軌跡と撮影区間のみを監視空間マップ901上に表示し、表示された撮影区間に対してのみ部分区間指定を行うように構成してもよい。これにより、時間帯を特定して移動体の移動軌跡上での部分区間指定が行えるようになる。
以上説明したように、本実施形態によれば、クライアント3は監視データに基づいて図9Bなどに示した監視画面900を表示装置247に表示する。
これにより、映像データの編集が更に容易になる。
[第3の実施形態]
<監視システム10c>
第3の実施形態では、第1及び第2の実施形態と異なり、位置検出のための物体(ICタグなど)を移動体に付着させない。これにより、監視対象の移動体に事前にICタグを付着させるなどの作業が不要になり、監視システムをより柔軟に運用することが可能となる。
図1Cは、第3の実施形態に係る監視システム10cの一形態を示す概念図である。図1Cにおいて、第1の実施形態及び第2の実施形態(図1A及び図1B参照)と同一の構成要素には同一の符号を付し、説明を省略する。
第1及び第2の実施形態と異なり、監視システム10cは、位置検出装置6及びICタグ8を備えない。本実施形態においては、カメラ制御サーバ1が備える位置データ処理部213(図2C参照)が、例えば特開2000−224457号公報に開示される技術を利用して、移動体7の位置情報を求める。
<カメラ制御サーバ1>
図2Cは、第3の実施形態に係るカメラ制御サーバ1の構成を示す機能ブロック図である。図2Cにおいて、第2の実施形態(図2B参照)と同一の構成要素には同一の符号を付し、説明を省略する。
カメラ制御サーバ1は、監視空間11においてカメラ装置4a及び4bが認識した移動体7の位置情報を求める位置データ処理部213を備える。また、第2の実施形態と異なり、位置データ入力部208は、位置データ処理部213から位置情報を入力する。
<映像蓄積サーバ2>
映像蓄積サーバ2の構成は、第1の実施形態と同様である(図2D参照)。但し、第3の実施形態においては、2台のカメラ装置4a及び4bが存在するので、撮影区間判断部228は、カメラ装置4a及び4bそれぞれが撮影した映像データについて撮影区間を求める。
<クライアント3>
クライアント3の構成は、第1の実施形態と同様である(図2E参照)。但し、第3の実施形態においては、GUI描画部250が描画するGUIは監視空間10c(図1C参照)のためのものである。
<カメラ制御サーバ1における処理>
カメラ制御サーバ1における処理は、第1の実施形態と同様である(図16及び図7参照)。但し、2台のカメラ装置4a及び4bが存在することに伴って、例えば映像データがそれぞれのカメラ装置4a及び4bについて処理されるなどの変更がなされる。
また、本実施形態では、移動体7の位置情報の検出にICタグが使用されない。従って、例えば、カメラ装置4a及び4bはAF機能を備え、S1604において、例えば特開2000−224457号公報に開示されているように、自動焦点検出機能を用いて移動体7の空間的位置座標を検出する。或いは、3台以上のカメラ装置を用いて、それぞれのPan角度から撮影方向を示す直線が1点で交わる場合は交点を空間的位置座標とし、1点で交わらずに3つの交点が存在する場合はその重心を空間的位置座標としてもよい。
<映像蓄積サーバ2が蓄積する情報>
図3Bは、第3の実施形態において映像蓄積サーバ2が外部記憶装置225に蓄積する情報を示す図である。第3の実施形態において映像蓄積サーバ2が外部記憶装置225に蓄積する情報は、位置情報303を除き、第2の実施形態と同様である。
本実施形態では、位置検出のためにICタグが使用されない。そのため、位置情報303として、
・移動体ID(0〜Nobj)
・検出位置情報Pti(xi,yi,zi,ts)(位置データ処理部213が出力した各移動体7の3次元位置座標。タイムスタンプts付の時系列情報)
・存在フラグef(i,cid,ts)(カメラ別)(座標Ptiがカメラ装置の視野範囲に入っているか否かを示すフラグ。タイムスタンプts付の時系列情報)
などの情報が記録される。
<映像蓄積サーバ2における処理>
映像蓄積サーバ2における処理は、第1の実施形態と同様である(図17参照)。また、撮影区間テーブルETab(i,cid)の構成は第2の実施形態と同様であり(図19B参照)、撮影区間テーブルETab(i,cid)の更新のために撮影区間判断部228が実行する処理も第2の実施形態と同様である(図18B参照)。
<監視画面>
以下、図9C乃至図12Cを参照して、クライアント3の表示装置247に表示される、監視空間11のための監視画面について説明する。
以下の説明においては、ユーザが監視画面を閲覧中(監視中)も、カメラ装置4a及び4bによる撮影が継続している(即ち、カメラ制御サーバ1が継続的に監視データを取得し、映像蓄積サーバ2を経由してクライアント3へ送信される)ものとする。しかし、本実施形態に係る監視画面の構成とその描画技術は、カメラ装置4a及び4bによる撮影の停止後に、映像蓄積サーバ2に蓄積済みの監視データをユーザが確認する際にも有効である。
●起動直後
図9Cは、クライアント3が監視画面を表示するためのアプリケーションプログラムを起動した直後に表示装置247に表示される監視画面900の概観図である。図9Cにおいて、第1及び第2の実施形態(図9A、図9B)と同一の要素には同一の符号を付し、説明を省略する。
第3の実施形態においては、前述の通り、各移動体7の位置情報は(例えばAF機能を備えた)カメラ装置4a及び4bによって取得されるので、撮影区間外では位置情報が得られない。従って、撮影区間ライン912は表示されるが、存在ライン911は表示されない。
また、選択されたカメラ装置に対応する視野範囲(図9Cでは視野範囲909a)は、視野範囲909bと区別可能に表示される。
●移動体アイコン選択時
図10Cは、移動体アイコンが選択された時の監視画面900の概観図である。図10Cにおいて、図9Cと同一の要素には同一の符号を付し、説明を省略する。
図10Cでは、移動体Bが選択されているが、複数選択することも可能である。タイムチャート902において、選択された移動体に対応するラインが他のラインと区別可能に表示されている。また、移動体の選択は、タイムチャート902において所望の移動体のラインをマウスポインタ904で指定することでも行うことが可能であり、監視空間マップ901とタイムチャート902での移動体の選択は、相互に反映される。
1015は、選択された移動体アイコンに付随して表示される、移動体の移動軌跡を示す(但し、撮影区間外の移動軌跡は表示されない)。移動軌跡1015が表示された状態では、選択された移動体アイコンの位置が時々刻々と変化するのに応じて、移動軌跡1015もその位置をトレースして延びていく。1019は、撮影時において移動体が視野範囲909a及び909bの外に出て移動軌跡1015が途切れた場合に、途切れた部分を連結する補助線である。
1016、1017、及び1018は、移動軌跡1015に重畳表示された、カメラ装置4a及び4bによる移動体Bの撮影区間を示している。撮影区間ライン1016、1017、及び1018はそれぞれ、タイムチャート902において、撮影区間ライン1020、1021、及び1022に対応する。各撮影区間ラインには異なる色が自動で割り当てられるものとするが、図10Cでは省略する。監視空間マップ901とタイムチャート902において対応する撮影区間ラインには、同じ色が割り当てられる。例えば、監視空間マップ901の撮影区間ライン1018とタイムチャート902の撮影区間ライン1022が同じ赤色で表示される。また、監視空間マップ901の撮影区間ライン1017とタイムチャート902の撮影区間ライン1021が同じ青色で表示される。また、監視空間マップ901の撮影区間ライン1016とタイムチャート902の撮影区間ライン1020が同じ緑色で表示される。
複数の移動体が選択された場合は、移動体ごとの撮影区間ラインがそれぞれ同じ色で表示される。例えば、移動体Bと移動体Cが選択された場合は、監視空間マップ901とタイムチャート902で、移動体Bの撮影区間ラインは共に赤で表示され、移動体Cの撮影区間ラインは共に青で表示される。
ボタン1023は、移動体Bが選択されることでアクティブになる。ボタン1023は、タイムチャート902における移動体Bのダイジェスト再生ボタンに対応する。ダイジェスト再生については、図12Cを参照して後述する。
1024、及び1025はそれぞれ、映像データにおける再生位置を示す再生位置ポインタである。図10Cでは、再生位置ポインタ1024及び1025は、移動体Bが選択された時点の撮影区間における最新の位置を指している。
この状態において、再生画面903には、再生位置ポインタ1024及び1025の位置に対応するフレーム(静止画像)が表示される(図10Cでは、移動体A、B、及びDが映っている)。
このようにして、選択した移動体の複数の撮影区間を、撮影場所と撮影時刻の両方の視点で、ユーザが効率良く確認することができる。
●カメラ装置別の撮影区間ライン
図11Cは、図10Cに示した撮影区間ラインを、カメラ装置毎に表示する監視画面の概略図である。図11Cにおいて、図10Cと同一の要素には同一の符号を付し、説明を省略する。
監視空間マップ901において移動体Bの移動体アイコン1121付近のボタン1122(タイムチャート902上ではボタン1123)をマウスポインタ904により選択すると、ボタン1122及び1123の状態が「+」から「−」に変化する。そして、カメラ装置毎の撮影区間ラインが表示しされる。
カメラ装置4aの視野範囲909aは、カメラ装置4aに割り当てられた色(例えば、灰色)で塗り潰され、移動体Bの監視空間マップ901におけるカメラ装置4aによる撮影区間ライン1124、1125、及び1126も、同じ色で塗り潰される。また、タイムチャート902における撮影区間ライン1127、1128、及び1129も同じ色で塗り潰される。
カメラ装置4bの視野範囲909bは、カメラ装置4bに割り当てられた色(例えば、黒色)で塗り潰され、移動体Bの監視空間マップ901におけるカメラ装置4bによる撮影区間ライン1130、1131、及び1132も、同じ色で塗り潰される。また、タイムチャート902における撮影区間ライン1133、1134、及び1135も同じ色で塗り潰される。
なお、ボタン1122又は1123が再び選択されると、図10Cの状態に戻る。
●再生区間選択時
図12Cは、移動軌跡1015の撮影区間ラインにおいて、再生区間が選択された時の監視画面900の概観図である。図12Cにおいて、図10と同一の要素には同一の符号を付し、説明を省略する。
選択された移動体Bの移動軌跡1015、又はタイムチャート902において、撮影区間ラインのいずれか1つ(図12Cでは、撮影区間ライン1017又は1021)がマウスポインタ904により選択されたとする。すると、再生位置ポインタ1024及び1025が、図10Cに示した位置から図12Cに示す位置へ移動する。
撮影区間ライン1017又は1021をマウスポインタ904で選択して、そのままドラッグすると、ドラッグ終了位置までが再生区間として選択される。そして、再生画面903には、再生位置ポインタ1024及び1025がドラッグ中に通る位置に合わせたフレームが表示される。
撮影区間ライン1017又は1021がダブルクリックで選択された場合は、再生位置ポインタ1024及び1025がダブルクリックされた位置へ移動することに加えて、ダブルクリックされた撮影区間全体が再生区間として選択される。
選択された再生区間は網掛け等で強調表示される。図12Cでは、撮影区間ライン1017及び1021においてドラッグで選択された箇所が強調表示されている。また、再生画面903には、映像における再生位置ポインタ1024及び1025の位置が指すフレーム(静止画像)が表示される(図12Cでは、移動体A、B、及びDが映っている)。
このようにして、監視空間マップ901から撮影場所と撮影時刻の両方の視点から、任意の移動体における任意の撮影区間から再生区間をユーザが簡単に選んで指定することができる。この指定方法で連続的に指定することにより、複数の撮影区間を再生区間として指定することも可能である。また、タイムチャート902における撮影区間ラインに対しても、同様の手段で再生区間として指定することができる。
再生区間を単数もしくは複数選択された状態で、ダイジェスト再生ボタンが選択されると、選択された再生区間の映像が映像蓄積サーバから逐次読み込まれて再生される。再生中は、監視空間マップ901とタイムチャート902の両者における再生区間上の再生位置ポインタ1024及び1025が、再生の進行に合わせて移動する。
<GUI(監視画面)描画用データ>
GUI描画用データの構成は、第1の実施形態と同様であるが(図8A参照)、2台のカメラ装置4a及び4bが使用されることに伴って適宜変更され得る。
<クライアント3における処理>
クライアント3における処理の流れは、第1の実施形態と同様なので説明を省略する(図4、及び図5A〜図5H参照)。但し、2台のカメラ装置4a及び4bが使用されることに伴って適宜変更され得る。変更の内容は、上で説明した、図9C、図10C、図11C、及び図12C、及びこれらの図に対応する説明を参照すれば、当業者であれば容易に理解できるであろう。
以上説明したように、本実施形態によれば、位置検出のための物体(ICタグなど)を移動体に付着させる必要が無い。
これにより、監視対象の移動体に事前にICタグを付着させるなどの作業が不要になり、監視システムをより柔軟に運用することが可能となる。
[その他の実施形態]
上述した各実施形態の機能を実現するためには、各機能を具現化したソフトウェアのプログラムコードを記録した記録媒体をシステム或は装置に提供してもよい。そして、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによって、上述した各実施形態の機能が実現される。この場合、記録媒体から読み出されたプログラムコード自体が上述した各実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。このようなプログラムコードを供給するための記録媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。
また、上述した各実施形態の機能を実現するための構成は、コンピュータが読み出したプログラムコードを実行することだけには限られない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって上述した各実施形態の機能が実現される場合も含まれている。
更に、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって上述した各実施形態の機能が実現される場合も含むものである。
第1の実施形態に係る監視システムの一形態を示す概念図である。 第2の実施形態に係る監視システムの一形態を示す概念図である。 第3の実施形態に係る監視システムの一形態を示す概念図である。 第1の実施形態に係るカメラ制御サーバの構成を示す機能ブロック図である。 第2の実施形態に係るカメラ制御サーバの構成を示す機能ブロック図である。 第3の実施形態に係るカメラ制御サーバの構成を示す機能ブロック図である。 第1乃至第3の実施形態に係る映像蓄積サーバの構成を示す機能ブロック図である。 第1乃至第3の実施形態に係るクライアントの構成を示す機能ブロック図である。 第1及び第2の実施形態において映像蓄積サーバが外部記憶装置に蓄積する情報を示す図である。 第3の実施形態において映像蓄積サーバが外部記憶装置に蓄積する情報を示す図である。 クライアント3における処理のメインルーチンを示すフローチャートである。 第1の実施形態における、メインルーチンのイベント処理の流れを示すフローチャートである。 第1の実施形態における、GUI描画処理ルーチンにおける処理の流れを示すフローチャートである。 第1の実施形態における、移動体アイコン処理ルーチンにおける処理の流れを示すフローチャートである。 第1の実施形態における、移動体タイムチャート処理ルーチンにおける処理の流れを示すフローチャートである。 第1の実施形態における、撮影区間処理ルーチンにおける処理の流れを示すフローチャートである。 第1の実施形態における、再生位置ポインタ処理ルーチンにおける処理の流れを示すフローチャートである。 第1の実施形態における、再生・一時停止・停止処理ルーチンにおける処理の流れを示すフローチャートである。 第1の実施形態における、映像表示スレッドにおける処理の流れを示すフローチャートである。 第2の実施形態における、メインルーチンのイベント処理の流れを示すフローチャートである。 第2の実施形態における、GUI描画処理ルーチンにおける処理の流れを示すフローチャートである。 第2の実施形態における、カメラアイコン処理ルーチンにおける処理の流れを示すフローチャートである。 第2の実施形態における、移動体アイコン処理ルーチンにおける処理の流れを示すフローチャートである。 第2の実施形態における、撮影区間処理ルーチンにおける処理の流れを示すフローチャートである。 第2の実施形態における、撮影区間処理ルーチンにおける処理の流れを示すフローチャートである。 第2の実施形態における、選択部分区間処理ルーチンにおける処理の流れを示すフローチャートである。 第2の実施形態における、編集映像再生・保存ボタン処理ルーチンにおける処理の流れを示すフローチャートである。 第2の実施形態における、領域指定処理ルーチンにおける処理の流れを示すフローチャートである。 第2の実施形態における、映像表示スレッドにおける処理の流れを示すフローチャートである。 カメラ装置の方向及び視野角と、視野範囲との関係を、監視空間11の平面図と側面図に示す図である。 第1の実施形態において、クライアントが監視画面を描画するために使用するGUI描画用データについて示す図である。 第2の実施形態において、クライアントが監視画面を描画するために使用するGUI描画用データについて示す図である。 第2の実施形態において、クライアント3が監視画面を描画するために使用する映像関連データについて示す図である。 第1の実施形態において、クライアントが監視画面を表示するためのアプリケーションプログラムを起動した直後に表示装置に表示される監視画面の概観図である。 第2の実施形態において、クライアントが監視画面を表示するためのアプリケーションプログラムを起動した直後に表示装置に表示される監視画面の概観図である。 第3の実施形態において、クライアントが監視画面を表示するためのアプリケーションプログラムを起動した直後に表示装置に表示される監視画面の概観図である。 第1の実施形態において、移動体アイコンが選択された時の監視画面の概観図である。 第2の実施形態において、移動体アイコンが選択された時の監視画面における監視空間マップ901の拡大概略図である。 第3の実施形態において、移動体アイコンが選択された時の監視画面の概観図である。 第1の実施形態において、再生ボタンが選択された時の監視画面の概観図である。 第2の実施形態において、選択された移動体のカメラ装置に関する撮影区間ラインが選択された時の、監視空間マップ及び編集映像プレイリストの拡大概略図である。 第3の実施形態において、図10Cに示した撮影区間ラインを、カメラ装置毎に表示する監視画面の概略図である。 第1の実施形態において、移動軌跡上の撮影区間が選択された時の監視画面の概観図である。 第2の実施形態において、移動体の移動軌跡上で選択された撮影区間ラインの長さが短い場合の、監視空間マップ及び編集映像プレイリストの拡大概略図である。 第3の実施形態において、移動軌跡の撮影区間ラインにおいて、再生区間が選択された時の監視画面の概観図である。 第1の実施形態において、再生ボタンが選択された時の監視画面の概観図である。 図10Bの監視空間マップにおいてユーザが所望の領域を選択した状態を示す概観図である。 第1の実施形態において、撮影区間ライン上の再生位置ポインタがドラッグされた時の監視画面の概観図である。 所定の部分区間が(自動又手動を問わず)指定された状態で、監視空間マップにおける所望の領域がユーザによって選択された場合を説明する図である。 第1の実施形態の変形例において、監視空間のパノラマ画像上で移動軌跡の上の撮影区間ラインが選択された時の監視画面の概観図である。 カメラ制御サーバ1における処理の流れを示すフローチャートである。 映像蓄積サーバ2における処理の流れを示すフローチャートである。 第1の実施形態における、撮影区間テーブルの更新処理の詳細な流れを示すフローチャートである。 第2及び第3の実施形態における、撮影区間テーブルの更新処理の詳細な流れを示すフローチャートである。 第1の実施形態における、撮影区間テーブルの構成例を示す図である。 第2及び第3の実施形態における、撮影区間テーブルの構成例を示す図である。

Claims (13)

  1. 監視空間に設置された撮影装置が撮影した映像データと、前記監視空間における移動体の位置に関する位置情報と、前記映像データにおける前記移動体の撮影区間に関する存在情報とを取得する取得手段と、
    前記位置情報に基づいて、前記監視空間における前記移動体の移動軌跡を表示する移動軌跡表示手段であって、前記存在情報に基づいて、前記移動軌跡において前記撮影区間に対応する部分を他の部分と識別可能に表示する移動軌跡表示手段と、
    前記移動軌跡における撮影区間を選択する第1選択手段と、
    前記映像データのうち、前記第1選択手段で選択された撮影区間に対応する部分を再生表示する第1再生表示手段と、
    を備えることを特徴とする情報処理装置。
  2. 移動体を選択する移動体選択手段を更に備え、
    前記移動軌跡表示手段は、前記移動体選択手段で選択された移動体についてのみ前記移動軌跡を表示する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1再生表示手段が再生中の映像データの撮影時刻における、前記移動体の前記移動軌跡における位置を示すポインタを表示するポインタ表示手段を更に備えることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記移動軌跡に沿って前記ポインタを移動させるポインタ移動手段を更に備え、
    前記第1再生表示手段は、前記映像データのうち、前記ポインタ移動手段により移動された前記ポインタが示す位置に対応する前記監視空間における位置に前記移動体が存在した時刻に撮影された部分を再生表示する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記移動軌跡表示手段は、前記撮影区間がそれぞれ前記撮影装置のいずれによって撮影されたものであるかを識別可能なように前記移動軌跡を表示することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記存在情報に基づいて、前記移動体の撮影区間を時間軸上に表示する時間軸表示手段と、
    前記時間軸における撮影区間を選択する第2選択手段と、
    前記映像データのうち、前記第2選択手段で選択された撮影区間に対応する部分を再生表示する第2再生表示手段と、
    を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記時間軸表示手段は、前記移動体を相互に識別可能なように、且つ前記撮影区間がそれぞれ前記撮影装置のいずれによって撮影されたものであるかを識別可能なように、前記撮影区間を時間軸上に表示する
    ことを特徴とする請求項6に記載の情報処理装置。
  8. 前記映像データのうち、前記第1選択手段で選択された撮影区間に対応する部分から予め定められた間隔で代表映像フレームを抽出する抽出手段と、
    前記代表映像フレームに基づく画像を、当該代表映像フレームの撮影時刻における、前記移動体の前記移動軌跡における位置と対応付けて表示する画像表示手段と、
    を更に備えることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記画像表示手段が表示する、前記代表映像フレームに基づく画像と、当該代表映像フレームの撮影時刻における、前記移動体の前記移動軌跡における位置とを結ぶ引出線を表示する引出線表示手段を更に備え、
    前記画像表示手段は、前記代表映像フレームに基づく画像それぞれが相互に重ならないように表示する
    ことを特徴とする請求項8に記載の情報処理装置。
  10. 前記映像データから切り出された部分をプレイリストとして識別可能に表示するプレイリスト表示手段と、
    前記画像表示手段で表示した画像のうちの2つを選択する画像選択手段と、
    前記映像データのうち、前記画像選択手段で選択した2つの画像それぞれに対応する2つの代表映像フレームそれぞれの撮影時刻の間に撮影された部分を前記プレイリストに登録する登録手段と、
    を更に備えることを特徴とする請求項8又は9に記載の情報処理装置。
  11. 前記取得手段は、前記監視空間に関する監視空間情報も取得し、
    前記監視空間情報に基づいて前記監視空間の平面図を表示する監視空間表示手段を更に備え、
    前記移動軌跡表示手段は、前記監視空間表示手段が表示した前記監視空間の平面図に前記移動軌跡を表示する
    ことを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 監視空間に設置された撮影装置が撮影した映像データと、前記監視空間における移動体の位置に関する位置情報と、前記映像データにおける前記移動体の撮影区間に関する存在情報とを取得する取得工程と、
    前記位置情報に基づいて、前記監視空間における前記移動体の移動軌跡を表示する移動軌跡表示工程であって、前記存在情報に基づいて、前記移動軌跡において前記撮影区間に対応する部分を他の部分と識別可能に表示する移動軌跡表示工程と、
    前記移動軌跡における撮影区間を選択する第1選択工程と、
    前記映像データのうち、前記第1選択工程で選択された撮影区間に対応する部分を再生表示する第1再生表示工程と、
    を備えることを特徴とする情報処理方法。
  13. コンピュータを、
    監視空間に設置された撮影装置が撮影した映像データと、前記監視空間における移動体の位置に関する位置情報と、前記映像データにおける前記移動体の撮影区間に関する存在情報とを取得する取得手段、
    前記位置情報に基づいて、前記監視空間における前記移動体の移動軌跡を表示する移動軌跡表示手段であって、前記存在情報に基づいて、前記移動軌跡において前記撮影区間に対応する部分を他の部分と識別可能に表示する移動軌跡表示手段、
    前記移動軌跡における撮影区間を選択する第1選択手段、
    前記映像データのうち、前記第1選択手段で選択された撮影区間に対応する部分を再生表示する第1再生表示手段、
    として機能させるためのプログラム。
JP2007153391A 2007-06-08 2007-06-08 情報処理装置、及び情報処理方法 Active JP4933354B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007153391A JP4933354B2 (ja) 2007-06-08 2007-06-08 情報処理装置、及び情報処理方法
US12/127,194 US8437508B2 (en) 2007-06-08 2008-05-27 Information processing apparatus and information processing method
CN200810110639XA CN101321271B (zh) 2007-06-08 2008-06-06 信息处理设备和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007153391A JP4933354B2 (ja) 2007-06-08 2007-06-08 情報処理装置、及び情報処理方法

Publications (3)

Publication Number Publication Date
JP2008306604A true JP2008306604A (ja) 2008-12-18
JP2008306604A5 JP2008306604A5 (ja) 2010-07-08
JP4933354B2 JP4933354B2 (ja) 2012-05-16

Family

ID=40095915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007153391A Active JP4933354B2 (ja) 2007-06-08 2007-06-08 情報処理装置、及び情報処理方法

Country Status (3)

Country Link
US (1) US8437508B2 (ja)
JP (1) JP4933354B2 (ja)
CN (1) CN101321271B (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011059243A2 (en) * 2009-11-13 2011-05-19 Samsung Electronics Co., Ltd. Server, user terminal, and service providing method, and control method thereof
JP2014053722A (ja) * 2012-09-06 2014-03-20 Canon Inc 撮像システム及び撮像方法
JP2014086797A (ja) * 2012-10-22 2014-05-12 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
WO2014087620A1 (ja) * 2012-12-06 2014-06-12 日本電気株式会社 視界表示システム、視界表示方法および視界表示プログラム
JP2014153813A (ja) * 2013-02-06 2014-08-25 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2015072635A (ja) * 2013-10-03 2015-04-16 富士ゼロックス株式会社 音声解析装置、表示装置、音声解析システムおよびプログラム
JP2015115955A (ja) * 2013-12-13 2015-06-22 華為技術有限公司Huawei Technologies Co.,Ltd. 映像要約方法および装置
JP2016042306A (ja) * 2014-08-18 2016-03-31 株式会社リコー 軌跡描画装置、軌跡描画方法、軌跡描画システム、及びプログラム
KR20160049391A (ko) * 2014-10-27 2016-05-09 한화테크윈 주식회사 로이터링 시각화 장치 및 방법
WO2016136748A1 (ja) * 2015-02-24 2016-09-01 博司 青山 管理システム、サーバ、管理装置、および、管理方法
JP2017092808A (ja) * 2015-11-13 2017-05-25 株式会社日立国際電気 画像監視システム
JP2017146644A (ja) * 2016-02-15 2017-08-24 株式会社東芝 検索装置、検索方法および検索システム
JP2017200102A (ja) * 2016-04-28 2017-11-02 富士通株式会社 位置・出力決定装置、位置・出力決定方法、および位置・出力決定プログラム
JP2018032950A (ja) * 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
JP2018534826A (ja) * 2015-09-23 2018-11-22 ノキア テクノロジーズ オーユー ビデオコンテンツの選択
JP2019176378A (ja) * 2018-03-29 2019-10-10 京セラドキュメントソリューションズ株式会社 制御装置、監視システム、及び監視カメラ制御方法
KR102125870B1 (ko) * 2020-03-23 2020-06-23 주식회사 라이브시큐 레이더와 cctv를 이용한 3차원 영상분석 장치
JP2020123845A (ja) * 2019-01-30 2020-08-13 シャープ株式会社 監視装置及び監視方法
JP2020167720A (ja) * 2017-03-31 2020-10-08 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
JP2020178149A (ja) * 2019-04-15 2020-10-29 シャープ株式会社 監視装置及び監視方法
US11080977B2 (en) 2015-02-24 2021-08-03 Hiroshi Aoyama Management system, server, management device, and management method
JP7116833B1 (ja) 2021-09-28 2022-08-10 Kddi株式会社 移動体管理装置及び移動体管理方法

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9224425B2 (en) * 2008-12-17 2015-12-29 Skyhawke Technologies, Llc Time stamped imagery assembly for course performance video replay
JP4924633B2 (ja) * 2009-02-27 2012-04-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8600114B2 (en) * 2010-03-19 2013-12-03 Sony Corporation Image processing apparatus and image processing method
US20110310433A1 (en) * 2010-06-17 2011-12-22 Toshiba Tec Kabushiki Kaisha Print data delivery device, image forming apparatus and image forming system
GB2482127B (en) * 2010-07-19 2015-01-14 Ipsotek Ltd Apparatus, system and method
JP2012034151A (ja) * 2010-07-30 2012-02-16 Sony Corp カメラ装置、カメラシステム、制御装置、及びプログラム
JP2012124739A (ja) * 2010-12-09 2012-06-28 Sony Corp 画像処理装置および画像処理方法
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
US9129414B2 (en) * 2011-10-14 2015-09-08 Morpho, Inc. Image compositing apparatus, image compositing method, image compositing program, and recording medium
CN103093487B (zh) * 2011-11-04 2016-02-10 北京迪生数字娱乐科技股份有限公司 一种三维定格动画制作系统、方法及控制系统
US10841528B2 (en) * 2012-07-31 2020-11-17 Nec Corporation Systems, methods and apparatuses for tracking persons by processing images
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
CN103079061B (zh) * 2013-01-30 2016-07-13 浙江宇视科技有限公司 一种视频跟踪处理装置以及视频链处理装置
JP5356615B1 (ja) * 2013-02-01 2013-12-04 パナソニック株式会社 顧客行動分析装置、顧客行動分析システムおよび顧客行動分析方法
JP5506990B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6194963B2 (ja) * 2014-02-14 2017-09-13 日本電気株式会社 映像処理システム
KR102256474B1 (ko) * 2014-04-08 2021-05-26 한화테크윈 주식회사 네트워크 보안 시스템 및 방법
GB2528039A (en) * 2014-07-01 2016-01-13 Canon Kk Method for identifying objects across time periods and corresponding device
US10176683B2 (en) * 2014-09-18 2019-01-08 Honeywell International Inc. Virtual panoramic thumbnail to summarize and visualize video content in video surveillance and in connected home business
CN104486436A (zh) * 2014-12-22 2015-04-01 齐晓辰 一种基于智能终端的监控打猎相机的方法及应用系统
EP3177005B1 (en) * 2015-03-30 2023-09-27 Rakuten Group, Inc. Display control system, display control device, display control method, and program
KR102334767B1 (ko) * 2015-07-23 2021-12-02 한화테크윈 주식회사 네트워크 카메라 제어 장치 및 방법
JP2017173252A (ja) * 2016-03-25 2017-09-28 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10629166B2 (en) * 2016-04-01 2020-04-21 Intel Corporation Video with selectable tag overlay auxiliary pictures
JP6660236B2 (ja) * 2016-04-15 2020-03-11 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
CN105872489A (zh) * 2016-06-08 2016-08-17 胡渐佳 基于监护对象的视频位置列表建立系统和方法
CN106162106A (zh) * 2016-08-26 2016-11-23 浙江大华技术股份有限公司 一种视频监控系统中的数据存储方法及装置
WO2018085982A1 (zh) * 2016-11-08 2018-05-17 深圳市大疆创新科技有限公司 视频录制方法、装置及拍摄设备
DE112016007463A5 (de) * 2016-11-21 2019-09-05 Robert Bosch Gmbh Anzeigevorrichtung für eine videoüberwachungsanlage und videoüberwachungsanlage mit der anzeigevorrichtung
EP3593324B1 (en) * 2017-03-06 2023-05-17 Innovative Signal Analysis, Inc. Target detection and mapping
JP6760485B2 (ja) 2017-03-31 2020-09-23 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
JP6834765B2 (ja) * 2017-05-16 2021-02-24 株式会社リコー インクジェットプリンタ、及び三次元プリント方法
CN107104693A (zh) * 2017-05-22 2017-08-29 成都亿盟恒信科技有限公司 一种车辆监控设备的视频上传控制系统
CN107690088A (zh) * 2017-08-04 2018-02-13 天脉聚源(北京)传媒科技有限公司 一种智能播放视频的方法及装置
CN110019431B (zh) * 2017-12-11 2022-04-12 北京京东尚科信息技术有限公司 数据可视化的处理方法、系统及终端设备
WO2019153345A1 (zh) * 2018-02-12 2019-08-15 深圳前海达闼云端智能科技有限公司 环境信息确定方法、装置、机器人及存储介质
US11080877B2 (en) 2018-08-02 2021-08-03 Matthew B. Schoen Systems and methods of measuring an object in a scene of a captured image
JP6529062B1 (ja) * 2019-02-27 2019-06-12 株式会社 テクノミライ デジタルアキュレート・セキュリティシステム、方法及びプログラム
US20230056155A1 (en) * 2020-01-31 2023-02-23 Nec Corporation Information processing apparatus, information processing method, and storage medium
CN113411654A (zh) * 2020-03-17 2021-09-17 清研讯科(北京)科技有限公司 信息显示方法、设备和定位系统
CN112135046B (zh) * 2020-09-23 2022-06-28 维沃移动通信有限公司 视频拍摄方法、视频拍摄装置及电子设备
CN114040167B (zh) * 2021-11-11 2023-11-03 浩云科技股份有限公司 一种人员轨迹生成方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005511A (ja) * 2002-03-26 2004-01-08 Toshiba Corp 監視システム、監視方法および監視プログラム
JP2004312511A (ja) * 2003-04-09 2004-11-04 Nippon Telegr & Teleph Corp <Ntt> 映像編集システム,園児モニタリングシステム,福祉施設モニタリングシステム,記念ビデオ作成システム,行動モニタリングシステムおよび映像編集方法
JP2006245795A (ja) * 2005-03-01 2006-09-14 Toa Corp 動体追跡装置及び動体追跡表示装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3148373B2 (ja) * 1992-06-25 2001-03-19 三洋電機株式会社 硬質ウレタンフォームに接触する熱交換体の防食方法
JPH07160856A (ja) 1993-12-01 1995-06-23 Mitsui Constr Co Ltd 移動体の軌跡捕捉装置
CA2155719C (en) * 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
JP2000224457A (ja) 1999-02-02 2000-08-11 Canon Inc 監視システムおよびその制御方法およびそのプログラムを記憶した記憶媒体
JP4244221B2 (ja) 2001-08-30 2009-03-25 株式会社日立国際電気 監視映像配信方法及び監視映像配信装置並びに監視映像配信システム
JP3919163B2 (ja) 2001-11-20 2007-05-23 日本放送協会 映像オブジェクト編集装置及び映像オブジェクト編集プログラム
JP2005218014A (ja) 2004-02-02 2005-08-11 Canon Inc 監視システム
US7996771B2 (en) * 2005-06-17 2011-08-09 Fuji Xerox Co., Ltd. Methods and interfaces for event timeline and logs of video streams
WO2007096004A1 (en) * 2006-02-27 2007-08-30 Robert Bosch Gmbh Video retrieval system, method and computer program for surveillance of moving objects
DE102007001649A1 (de) * 2007-01-11 2008-07-17 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zur Selbstkalibrierung einer Überwachungskamera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005511A (ja) * 2002-03-26 2004-01-08 Toshiba Corp 監視システム、監視方法および監視プログラム
JP2004312511A (ja) * 2003-04-09 2004-11-04 Nippon Telegr & Teleph Corp <Ntt> 映像編集システム,園児モニタリングシステム,福祉施設モニタリングシステム,記念ビデオ作成システム,行動モニタリングシステムおよび映像編集方法
JP2006245795A (ja) * 2005-03-01 2006-09-14 Toa Corp 動体追跡装置及び動体追跡表示装置

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101631497B1 (ko) 2009-11-13 2016-06-27 삼성전자주식회사 디스플레이 장치, 사용자 단말 장치 및 그 방법들
US11776185B2 (en) 2009-11-13 2023-10-03 Samsung Electronics Co., Ltd. Server, user terminal, and service providing method, and control method thereof for displaying photo images within a map
US10586365B2 (en) 2009-11-13 2020-03-10 Samsung Electronics Co., Ltd. Server, user terminal, and service providing method, and control method thereof
US9080893B2 (en) 2009-11-13 2015-07-14 Samsung Electronics Co., Ltd Server, user terminal, and service providing method, and control method thereof
US9546881B2 (en) 2009-11-13 2017-01-17 Samsung Electronics Co., Ltd Server, user terminal, and service providing method, and control method thereof
US10977850B2 (en) 2009-11-13 2021-04-13 Samsung Electronics Co., Ltd. Server, user terminal, and service providing method, and control method thereof
US10438388B2 (en) 2009-11-13 2019-10-08 Samsung Electronics Co., Ltd. Server, user terminal, and service providing method, and control method thereof
WO2011059243A3 (en) * 2009-11-13 2011-09-29 Samsung Electronics Co., Ltd. Server, user terminal, and service providing method, and control method thereof
KR20110052829A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 디스플레이 장치, 사용자 단말 장치 및 그 방법들
WO2011059243A2 (en) * 2009-11-13 2011-05-19 Samsung Electronics Co., Ltd. Server, user terminal, and service providing method, and control method thereof
JP2014053722A (ja) * 2012-09-06 2014-03-20 Canon Inc 撮像システム及び撮像方法
JP2014086797A (ja) * 2012-10-22 2014-05-12 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US9807310B2 (en) 2012-12-06 2017-10-31 Nec Corporation Field display system, field display method, and field display program
JPWO2014087620A1 (ja) * 2012-12-06 2017-01-05 日本電気株式会社 視界表示システム、視界表示方法および視界表示プログラム
WO2014087620A1 (ja) * 2012-12-06 2014-06-12 日本電気株式会社 視界表示システム、視界表示方法および視界表示プログラム
JP2014153813A (ja) * 2013-02-06 2014-08-25 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2015072635A (ja) * 2013-10-03 2015-04-16 富士ゼロックス株式会社 音声解析装置、表示装置、音声解析システムおよびプログラム
US9454701B2 (en) 2013-12-13 2016-09-27 Huawei Technologies Co., Ltd. Video synopsis method and apparatus
JP2015115955A (ja) * 2013-12-13 2015-06-22 華為技術有限公司Huawei Technologies Co.,Ltd. 映像要約方法および装置
JP2016042306A (ja) * 2014-08-18 2016-03-31 株式会社リコー 軌跡描画装置、軌跡描画方法、軌跡描画システム、及びプログラム
KR20160049391A (ko) * 2014-10-27 2016-05-09 한화테크윈 주식회사 로이터링 시각화 장치 및 방법
KR102282465B1 (ko) * 2014-10-27 2021-07-27 한화테크윈 주식회사 로이터링 시각화 장치 및 방법
WO2016136748A1 (ja) * 2015-02-24 2016-09-01 博司 青山 管理システム、サーバ、管理装置、および、管理方法
JPWO2016136748A1 (ja) * 2015-02-24 2017-12-28 博司 青山 管理システム、サーバ、管理装置、および、管理方法
US10354506B2 (en) 2015-02-24 2019-07-16 Hiroshi Aoyama Management system, server, management device, and management method
US11080977B2 (en) 2015-02-24 2021-08-03 Hiroshi Aoyama Management system, server, management device, and management method
JP2018534826A (ja) * 2015-09-23 2018-11-22 ノキア テクノロジーズ オーユー ビデオコンテンツの選択
JP2017092808A (ja) * 2015-11-13 2017-05-25 株式会社日立国際電気 画像監視システム
JP2017146644A (ja) * 2016-02-15 2017-08-24 株式会社東芝 検索装置、検索方法および検索システム
US11347739B2 (en) 2016-02-15 2022-05-31 Kabushiki Kaisha Toshiba Performing a chained search function
JP2017200102A (ja) * 2016-04-28 2017-11-02 富士通株式会社 位置・出力決定装置、位置・出力決定方法、および位置・出力決定プログラム
US10719946B2 (en) 2016-08-23 2020-07-21 Canon Kabushiki Kaisha Information processing apparatus, method thereof, and computer-readable storage medium
JP2018032950A (ja) * 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
JP2020167720A (ja) * 2017-03-31 2020-10-08 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
US11748892B2 (en) 2017-03-31 2023-09-05 Nec Corporation Video image processing device, video image analysis system, method, and program
JP2019176378A (ja) * 2018-03-29 2019-10-10 京セラドキュメントソリューションズ株式会社 制御装置、監視システム、及び監視カメラ制御方法
JP2020123845A (ja) * 2019-01-30 2020-08-13 シャープ株式会社 監視装置及び監視方法
JP7258580B2 (ja) 2019-01-30 2023-04-17 シャープ株式会社 監視装置及び監視方法
JP2020178149A (ja) * 2019-04-15 2020-10-29 シャープ株式会社 監視装置及び監視方法
JP7317556B2 (ja) 2019-04-15 2023-07-31 シャープ株式会社 監視装置及び監視方法
KR102125870B1 (ko) * 2020-03-23 2020-06-23 주식회사 라이브시큐 레이더와 cctv를 이용한 3차원 영상분석 장치
JP7116833B1 (ja) 2021-09-28 2022-08-10 Kddi株式会社 移動体管理装置及び移動体管理方法
JP2023048334A (ja) * 2021-09-28 2023-04-07 Kddi株式会社 移動体管理装置及び移動体管理方法

Also Published As

Publication number Publication date
JP4933354B2 (ja) 2012-05-16
US8437508B2 (en) 2013-05-07
CN101321271A (zh) 2008-12-10
CN101321271B (zh) 2010-12-29
US20080304706A1 (en) 2008-12-11

Similar Documents

Publication Publication Date Title
JP4933354B2 (ja) 情報処理装置、及び情報処理方法
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP4201025B2 (ja) 監視装置、監視システム及びフィルタ設定方法、並びに監視プログラム
JP4760892B2 (ja) 表示制御装置、表示制御方法及びプログラム
RU2691057C1 (ru) Устройство помощи в слежении, система помощи в слежении и способ помощи в слежении
AU2022201303A1 (en) Selective capture and presentation of native image portions
WO2017119034A1 (ja) 撮影システム、撮影方法およびプログラム
US8174571B2 (en) Apparatus for processing images, apparatus for processing reproduced images, method of processing images, and method of processing reproduced images
JP6412001B2 (ja) 放送内で対象を追跡及びタグ付けするシステム及び方法
US11074458B2 (en) System and method for searching video
WO2018037631A1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
US11258985B2 (en) Target tracking in a multi-camera surveillance system
WO2020045186A1 (ja) 情報処理装置、方法、及びプログラム
JP5195156B2 (ja) 監視装置、監視システム及びフィルタ設定方法
JP2000261794A (ja) 動画像表示システム及びこの表示方法
TWI808350B (zh) 組成視訊材料之方法及系統
KR101118926B1 (ko) 주, 야간 겸용 이동물체 관측시스템
US20120079406A1 (en) Method and System for Configuring a Sequence of Positions of a Camera
KR20210108691A (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
JP2004088483A (ja) 映像情報配信システムと映像情報配信方法とそのためのサーバ
JP4185376B2 (ja) 画像処理システム
JP2004088558A (ja) モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2003324717A (ja) モニタリングシステムおよび方法、並びにプログラムおよび記録媒体
US20230128305A1 (en) Information processing apparatus, image processing system, and information processing method
KR20230103972A (ko) 영상 수신/검색 장치 및 영상 표시 방법

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120216

R151 Written notification of patent or utility model registration

Ref document number: 4933354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3