JP2008099248A - 定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置、前記ビデオのインタフェースと表示を提供する方法、及びプログラム - Google Patents

定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置、前記ビデオのインタフェースと表示を提供する方法、及びプログラム Download PDF

Info

Publication number
JP2008099248A
JP2008099248A JP2007200524A JP2007200524A JP2008099248A JP 2008099248 A JP2008099248 A JP 2008099248A JP 2007200524 A JP2007200524 A JP 2007200524A JP 2007200524 A JP2007200524 A JP 2007200524A JP 2008099248 A JP2008099248 A JP 2008099248A
Authority
JP
Japan
Prior art keywords
video stream
camera
video
main
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007200524A
Other languages
English (en)
Other versions
JP5200446B2 (ja
Inventor
Andreas Girgensohn
ガーゲンソン アンドレアス
M Shipman Frank
エム.シップマン フランク
Lynn D Wilcox
ディー.ウィルコックス リン
Anthony Dunnigan
ダニガン アンソニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of JP2008099248A publication Critical patent/JP2008099248A/ja
Application granted granted Critical
Publication of JP5200446B2 publication Critical patent/JP5200446B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】定位置にある複数のカメラからのビデオに対するインタフェースと表示を提供する。
【解決手段】メインカメラによって取得されたメインビデオストリームを第1のインタフェース部分に表示し、前記メインビデオストリームに時間的に関連する1以上のビデオストリームを追加インタフェース部分に表示する。前記ビデオストリームは、カメラの集合と前記メインカメラとによって取得される。前記ビデオストリームの表示は、前記ビデオストリームの各々において、前記メインビデオストリームの時点、それ以前、それ以降の各々のビデオ再生位置の集合の内の1つ以上を含む。
【選択図】図1

Description

本発明は、一般的にはビデオシステムの分野に関し、より詳しくはビデオ監視システムに関する。即ち、定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置、前記ビデオのインタフェースと表示を提供する方法、及びプログラムに関する。
ビデオ監視システムは、商業環境、工業環境、住宅環境において一般的なものとなっている(例えば、非特許文献1〜3参照)。一般的な監視活動は、人があるカメラから別のカメラに移動する際にそれを追跡したり、特に重要な人物や不審な行動をする人物を追跡したりすることである。警備担当者は、監視対象の行動(活動)を識別して、定位置の複数のカメラから得られる様々なビデオストリームに映っている動作間の相互関係を判断する必要がある。これらのビデオストリームから、警備担当者は、特定の出来事につながった、またはこの後に発生した一連の動作を理解するようにする必要がある。例えば、オフィスビルにあるビデオ警備システムでは、複数のカメラに映る動作を絶えず記録している。このビルで爆発が起これば、警備担当者は、ビデオカメラから得られたデータを分析して、この爆発の原因を判定することを求められる。これには、原因を判定するために、爆発時以前の複数のカメラから得られる数時間分のデータを探索する必要がある。メインカメラのビデオストリームに対象の人物が映っている場合、この人物が見出されるその他のカメラが、警備担当者にとって関心対象となる。これらその他のカメラは、メインカメラに地理的に近くである傾向がある。
さらに、大型の防犯設備には、多数の警備カメラが含まれる場合がある。ビデオハードウエアの経費が減少するにつれて、1設備当たりのビデオストリームの数が増している。しかしながら、人間の注目能力とビデオストリームの数には限界があるため、このようなシステムのコストパフォーマンスと効果が制約される。さらに、カメラからカメラへと行動を追跡することはしばしば困難である。これは、オフィスビルの廊下などの場所は全く同じように見えることがあり、カメラの空間的近接度が分からないからである。その結果、警備担当者には、ビデオストリーム間で行動を追跡することが非常に難しい。以降、「ユーザ」という用語を、「警備担当者」の代わりに用い、警備担当者を含むがこれに限られないも
のとする。
E. Ardizzoneら著「遺跡発掘現場における監視及びモニタリングのための統合アーキテクチャ」、ビデオ監視及びセンサーネットワークに関するACMワークショップ会報、シンガポール、79-85ページ、2005年11月11日発行(Ardizzone, E. et al. "An Integrated Architecture for Surveillance and Monitoring in an Archaeological Site", Proc. ACM Workshop on Video Surveillance and Sensor Networks, Singapore, pp. 79-85, November 11, 2005) P. K. Atreyら著「マルチメディア監視システムにおけるタイムラインベース情報同一化」、ビデオ監視及びセンサーネットワークに関するACMワークショップ会報、シンガポール、103-112ページ、2005年11月11日発行(Atrey, P. K. et al. "Timeline-based Information Assimilation in Multimedia Surveillance and Monitoring Systems", Proc. ACM Workshop on Video Surveillance and Sensor Networks, Singapore, pp. 103-112, November 11, 2005) R. Cucchiara著「マルチメディア監視システム」、ビデオ監視及びセンサーネットワークに関するACMワークショップ会報、シンガポール、2005年11月11日発行(Cucchiara, R. "Multimedia Surveillance Systems", Proc. ACM Workshop on Video Surveillance and Sensor Networks, Singapore, 8 pages, November 11, 2005)
現在のところ、警備カメラの1集合から得られた同期したビデオストリームから対象の行動を識別することは、ビデオの分量が多いことや、記述されたメタデータやビデオストリームの索引付けが欠如しているため困難である。現時点では、警備ビデオは通常、利用可能なカメラを示すカメラのバンクを介して観察され、互いに情報をやり取りしている。現在の多重チャネルビデオプレイヤ(再生装置)は、一般的に、小型ビデオ表示と大型のビデオ表示のバンク(蓄積部)を有している。ユーザは、このカメラバンクからカメラを選んで、1つのビューから別のビューへと行動を追跡する。ユーザにとって、追跡されている人物が、メインカメラのビュー(視野)から出た後で、どのカメラビューに現われるかを予測することは困難である。多くのビデオプレイヤではカメラバンク内の画像は小さくなる傾向があり、このため、これらの画像から追跡中の人物を突き止めて認識することはユーザにとって困難である。
このため、1つのカメラのビューから別のカメラのビュー内の位置に移動する人物のビデオストリームを監視するシステムが必要となる。大部分の行動を映しているビデオストリームのセグメントを選ぶ方法や、これらのセグメント内の代表的なキーフレームを選ぶ方法が必要であり、ここで、キーフレームとは、ビデオストリーム内のある時点におけるフレームすなわちスナップショットのことである。特に、メインカメラから得られたビデオストリームを、行動を示している他の近傍のカメラから得られたビデオストリームと共に提示して、監視対象のイベントを追跡しやすくする方法が必要である。カメラの空間的ビューを示すマップも用意し、このマップ上にカメラと共にビデオストリームも映す必要がある。加えて、見られているビデオストリームの時点の少し前と少し後の部分を提示して、映っている人々がどこから来てどこに行くのかユーザが判断しやすいようにする方法が必要である。さらに、同じビデオストリーム内の別の時点に迅速にスキップしたり、別のビデオストリームに切り替えたりすることによって、ユーザがビデオをブラウジングして、監視対象の行動をその視界内に保つようにする方法が必要である。加えて、ビデオ表示とマップを動画化して、ユーザが別のビデオストリームに切り替えたときにユーザが正しい方向を向いているように保つことが必要である。
上記課題を考慮し、本発明は定位置にある複数のカメラからのビデオに対するインタフェース装置、前記インタフェースとビデオ表示を提供する方法及びプログラムを提供する。本発明では、あるカメラが取得(キャプチャ)した主要なビデオストリームをメインビデオストリームとして選択し、インタフェース(インタフェース画面)に表示する。表示されているこのメインビデオストリームと時間的に関連している、カメラの集合とメインカメラとによって取得された1以上のビデオストリームが選択され、これには、前記ビデオストリームの各々においてメインビデオストリームの時点である第1の時間セグメントと、前記ビデオストリームの各々においてメインビデオストリームの時点に先立つ第2の時間セグメントと、前記ビデオストリームの各々においてメインビデオストリームの時点の後である第3の時間セグメントとの内の1つ以上から得られた再生位置が含まれる。選択されたビデオストリームは、メインビデオストリームの表示と時間的に関連付けられてインタフェースに表示される。
即ち、請求項1に係る発明は、定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置であって、メインカメラによって取得されたメインビデオストリームを前記インタフェースに表示する第1のインタフェース部分と、前記表示されたメインビデオストリームに時間的に関連する1以上のビデオストリームを表示する1つ以上の追加インタフェース部分と、を備え、前記ビデオストリームがカメラの集合と前記メインカメラとによって取得されたものであり、前記ビデオストリームの表示が、前記ビデオストリームの各々において、前記メインビデオストリームの時点である第1の時間セグメントのビデオ再生位置の第1の集合と、前記ビデオストリームの各々において、前記メインビデオストリームの時点以前の第2の時間セグメントのビデオ再生位置の第2の集合と、前記ビデオストリームの各々において、前記メインビデオストリームの時点以後の第3の時間セグメントのビデオ再生位置の第3の集合と、の内の1つ以上を含むことを特徴とする。
請求項2に係る発明は、請求項1のインタフェース装置において、前記1つ以上のビデオストリーム表示の内の1つと関連するビデオストリームが、ユーザが前記ビデオストリーム表示をクリックしたときに対応するビデオ再生位置と共に前記インタフェースに表示される、前記メインビデオストリームとなることを特徴とする。
請求項3に係る発明は、請求項1のインタフェース装置において、前記ビデオストリーム表示の内の1つ以上が静的キーフレームであり、前記キーフレームが、前記ビデオストリームのビデオ再生位置の時点に近いビデオストリームから取られた代表的なビデオフレームであることを特徴とする。
請求項4に係る発明は、請求項3のインタフェース装置において、前記キーフレームが、前記第1、第2および第3の時間セグメントの内の1つの時間セグメント内の行動の大部分を含むビデオストリームシーケンスから取られた代表的なビデオフレームであることを特徴とする。
請求項5に係る発明は、請求項4のインタフェース装置において、前記行動の大部分を含む前記ビデオストリームシーケンスにおいて、前記シーケンス内のビデオフレーム間で変化する画素数が最大であることを特徴とする。
請求項6に係る発明は、請求項1のインタフェース装置において、ビデオ再生位置の前記第2の集合が、ビデオストリームの各々において、前記メインカメラの前記ビデオストリームの時点以前の第1の固定時点から始まるものであり、ビデオ再生位置の前記第3の集合が、ビデオストリームの各々において、前記メインカメラの前記ビデオストリームの時点以後の第2の固定時点から始まるものであることを特徴とする。
請求項7に係る発明は、請求項1のインタフェース装置において、前記インタフェース表示でのビデオストリーム表示の色分けにより、ビデオストリームのソースカメラを識別することを特徴とする。
請求項8に係る発明は、請求項1のインタフェース装置において、前記カメラ集合と前記メインカメラとに対するカメラ位置及びこれらに対応する視野角の空間的ビューを示すマップが、前記インタフェースと共に表示されることを特徴とする。
請求項9に係る発明は、請求項8のインタフェース装置において、前記マップ上で、1つ以上のビデオストリームがこれらに対応するソースカメラの隣に表示されることを特徴とする。
請求項10に係る発明は、請求項9のインタフェース装置において、前記マップに表示される前記カメラとこれらに対応する視野角とが、前記インタフェースに表示されるソースカメラを識別するためのビデオストリーム表示の色分けと一致するように色分けされることを特徴とする。
請求項11に係る発明は、請求項1のインタフェース装置において、前記第2及び第3のビデオ再生位置集合と関連する前記ビデオストリーム表示の各々が、前記メインビデオストリーム表示の両端部の帯状領域に表示されることを特徴とする。
請求項12に係る発明は、請求項11のインタフェース装置において、前記帯状領域と前記メインビデオストリーム表示との隣に表示されるタイムラインをさらに備えることを特徴とする。
請求項13に係る発明は、請求項11のインタフェース装置において、前記複数のカメラの視野方向が固定されていることを特徴とする。
請求項14に係る発明は、請求項1のインタフェース装置において、前記複数のカメラが、前記インタフェースが生のビデオストリームを表示するときにパン動作、傾斜動作およびズーム動作の内の1つ以上を実行することを特徴とする。
請求項15に係る発明は、請求項1のインタフェース装置において、前記カメラ集合が、前記メインカメラに対して空間的に近接していることを特徴とする。
請求項16に係る発明は、請求項1のインタフェース装置において、前記第1、第2および第3のビデオ再生位置の集合と関連する前記ビデオストリーム表示が、前記ビデオストリーム内の行動、録画されている空間内の対象のポイントに近いところでの動き、および赤外線運動センサー、顔検出、無線IDタグから得られたイベントの内の1つ以上に対する評価をさらに含むことを特徴とする。
請求項17に係る発明は、請求項1のインタフェース装置において、前記第1、第2および第3のビデオ再生位置の集合と関連するビデオストリーム表示が、前記表示された前記メインカメラからのビデオストリームと空間的に関連付けられて前記インタフェースに表示され、前記空間的な関連性が、前記メインカメラの物理的位置に対する前記カメラ集合の各々のカメラの相対的な物理的位置に対応し、前記ビデオストリーム表示が、前記メインカメラに最も近いカメラ集合のビデオストリームから取られることを特徴とする。
請求項18に係る発明は、請求項17のインタフェース装置において、前記1つ以上のビデオストリーム表示の内の1つと関連するビデオストリームが、ユーザが前記ビデオストリーム表示をクリックしたときに対応するビデオ再生位置と共に前記インタフェースに表示される、前記メインビデオストリームになることを特徴とする。
請求項19に係る発明は、請求項17のインタフェース装置において、前記ビデオストリーム表示の内の1つ以上が静的キーフレームであり、前記キーフレームが、前記ビデオストリームのビデオ再生位置の時点に近いビデオストリームから取られた代表的なビデオフレームであることを特徴とする。
請求項20に係る発明は、請求項19のインタフェース装置において、前記キーフレームが、前記第1、第2および第3の時間セグメントの内の1つの時間セグメント内の行動の大部分を含むビデオストリームシーケンスから取られた代表的なビデオフレームであることを特徴とする。
請求項21に係る発明は、請求項20のインタフェース装置において、前記行動の大部分を含む前記ビデオストリームシーケンスにおいて、前記シーケンス内のビデオフレーム間で変化する画素数が最大であることを特徴とする。
請求項22に係る発明は、請求項17のインタフェース装置において、前記カメラ集合と前記メインカメラとに対する、カメラ位置及びこれらに対応する視野角の空間的ビューを示すマップが、前記インタフェースと共に表示されることを特徴とする。
請求項23に係る発明は、請求項22のインタフェース装置において、前記マップ上で、1つ以上のビデオストリームがこれらに対応するソースカメラの隣に表示されることを特徴とする。
請求項24に係る発明は、請求項23のインタフェース装置において、ユーザが前記マップ上で前記ビデオストリームの一つとこれに対応するカメラをクリックすると、前記ビデオストリームが前記メインビデオストリームになることを特徴とする。
請求項25に係る発明は、請求項17のインタフェース装置において、前記新しいメインビデオストリームの周りを回転し、前記新しいメインビデオストリームに空間的に関連する自身の新たな位置にまで達するように、前記ビデオストリーム表示が動画化されることを特徴とする。
請求項26に係る発明は、請求項22のインタフェース装置において、前記1つ以上のビデオストリーム表示の内の1つと関連するビデオストリームが、ユーザが前記ビデオストリーム表示をクリックしたときに対応するビデオ再生位置と共に前記インタフェースに表示される前記メインビデオストリームになり、前記インタフェースに表示される前記新しいビデオストリームに対応する前記新たに選択されたカメラの新たな視点に対して前記マップが中心合わせされるように前記マップの回転運動を示すために、前記空間的マップを動画化することを特徴とする。
請求項27に係る発明は、請求項26のインタフェース装置において、前記新しいメインビデオストリームの周りを回転して、自身の新たな位置にまで達するよう動画化された、前記新しいメインビデオストリームに空間的に関連するビデオストリーム表示の動画化と、前記空間的マップの動画化が同期されることを特徴とする。
請求項28に係る発明は、請求項17のインタフェース装置において、前記メインカメラに対する前記カメラ集合内の各々のカメラの近接度が、前記カメラ集合の内の各々のカメラと前記メインカメラとの間の1つ以上の焦点間の距離の和の平均値を含むことを特徴とする。
請求項29に係る発明は、請求項17のインタフェース装置において、前記メインビデオストリーム表示に対するビデオストリーム表示の空間的関連度が、前記メインカメラの焦点から前記ビデオストリーム表示に対応するカメラの焦点に至るラインと、前記メインカメラの前記焦点から前記メインカメラに至るラインとが形成する角度の測定値をさらに含み、各々のビデオストリーム表示が、前記メインビデオストリーム表示に対して前記測定角度で表示されることを特徴とする。
請求項30に係る発明は、請求項17のインタフェース装置において、前記インタフェース表示でのビデオストリーム表示の色分けにより、ビデオストリームのソースカメラを識別することを特徴とする。
請求項31に係る発明は、請求項22のインタフェース装置において、前記マップに表示される前記カメラとこれらに対応する視野角とが、前記インタフェースに表示されるビデオストリーム表示のソースカメラを識別するための色分けと一致するように色分けされることを特徴とする。
請求項32に係る発明は、請求項17のインタフェース装置において、前記複数のカメラの視野方向が固定されていることを特徴とする。
請求項33に係る発明は、請求項17のインタフェース装置において、前記複数のカメラが、前記インタフェースが生のビデオストリームを表示するときにパン動作、傾斜動作およびズーム動作の内の1つ以上を実行することを特徴とする。
請求項34に係る発明は、請求項17のインタフェース装置において、前記第1、第2および第3のビデオ再生位置の集合と関連する前記ビデオストリーム表示が、前記ビデオストリーム内の行動、録画されている空間内の対象のポイントに近いところでの動き、および赤外線運動センサー、顔検出、無線IDタグから得られたイベントの内の1つ以上に対する評価をさらに含むことを特徴とする。
請求項35に係る発明は、定位置にある複数のカメラからのビデオに対するインタフェースと表示とを提供する方法であって、あるカメラが取得したビデオストリームをメインビデオストリームとして選択し、前記メインビデオストリームを前記インタフェースの第1の部分に表示し、前記表示されたメインビデオストリームに時間的に関連する、前記カメラの集合と前記メインカメラとによって取得された1以上のビデオストリームを選択することであって、前記選択が、前記ビデオストリームの各々において、前記メインビデオストリームの時点の第1の時間セグメントの再生位置の第1の集合を選択し、前記ビデオストリームの各々において、前記メインビデオストリームの時点以前の第2の時間セグメントの再生位置の第2の集合を選択し、前記ビデオストリームの各々において、前記メインビデオストリームの時点以後の第3の時間セグメントの再生位置の第3の集合を選択すること、の内の1つ以上を含み、前記選択されたビデオストリームを、前記メインビデオストリームの表示と時間的に関連させて、1つ以上の追加インタフェース部分に表示すること、を含むことを特徴とする。
請求項36に係る発明は、請求項35の方法において、前記ビデオストリームの選択が、前記メインカメラに最も近いカメラの集合が取得したビデオストリームを選択することをさらに含むことを特徴とする。
請求項37に係る発明は、請求項36の方法において、1つ以上の追加インタフェース部分への表示が、前記選択されたビデオストリームを前記表示されたメインビデオストリームと空間的に関連させて表示することを含み、前記空間的関連性が、前記メインカメラの物理的位置に対する、カメラ集合内の各々のカメラの相対的な物理的位置に対応することを特徴とする。
請求項38に係る発明は、プロセッサを含むコンピュータにおいて、定位置にある複数のカメラからのビデオのインタフェースと表示とを提供する処理を実行するために前記コンピュータが実行可能な命令からなるプログラムであって、前記プログラムは前記プロセッサにより実行されることにより、前記コンピュータに、あるカメラが取得したビデオストリームをメインビデオストリームとして選択し、前記メインビデオストリームを前記インタフェースの第1の部分に表示し、前記表示されたメインビデオストリームに時間的に関連する、前記カメラ集合と前記メインカメラとによって取得された1以上のビデオストリームを選択することであって、前記選択が、前記ビデオストリームの各々において、前記メインビデオストリームの時点の第1の時間セグメントの再生位置の第1の集合を選択し、前記ビデオストリームの各々において、前記メインビデオストリームの時点以前の第2の時間セグメントの再生位置の第2の集合を選択し、前記ビデオストリームの各々において、前記メインビデオストリームの時点以後の第3の時間セグメントの再生位置の第3の集合を選択すること、の内の1つ以上を含み、前記選択されたビデオストリームを、前記メインビデオストリームの表示と時間的に関連させて、1つ以上の追加インタフェース部分に表示すること、を含む処理を実行させることを特徴とする。
請求項39に係る発明は、請求項38のプログラムにおいて、前記ビデオストリームの選択が、前記メインカメラに最も近いカメラの集合が取得したビデオストリームを選択することをさらに含むことを特徴とする。
請求項40に係る発明は、請求項39のプログラムにおいて、前記1つ以上の追加インタフェース部分への表示が、前記選択されたビデオストリームを前記表示されたメインビデオストリームと空間的に関連させて表示することを含み、前記空間的関連性が、前記メインカメラの物理的位置に対する、カメラ集合内の各々のカメラの相対的な物理的位置に対応することを特徴とする。
本発明によれば、定位置にある複数のカメラからのビデオを表示する際、メインのビデオストリームを、行動を映し出している他の近傍のカメラから得られたビデオストリームと共に提示するインタフェースを提供することにより、ユーザが監視対象のイベントを追跡しやすくする効果がある。加えて、メインのビデオストリームの時点、及びその前後の部分を映したビデオストリームを表示することにより、監視対象の行動を追跡しやすくする効果がある。
本発明の好ましい実施形態を、図面に基づいて詳細に説明する。
(ビデオ内の行動の識別)
ある実施形態では、異なる2つの方式を用いて、ビデオストリーム内の行動を判断することが可能であり、これらの方式は双方ともが、連続するビデオフレーム内の前景画素の変化に注目する。第1の方式は、連続するビデオフレームを比較して、前景の画素であろうとなかろうと変化する画素を判断する。連続するフレーム内で変化する画素の数をカウントし、その数が多いほど、そのフレーム内での行動が多いことになる。第2の方式は、カメラビューの背景をモデル化し、すべてのビデオフレーム内で前景画素を判断する。第2の方式では、この前景画素の情報を用いて、全体的な動きの方向と速度を測定する。
所与のカメラの集合から得られた所与のビデオストリームの集合について、閾値を超える量の活動があるフレームをビデオセグメントに分類する。本実施形態では、第1と第2の双方の方式で画素の変化に基づいて行動を検出する場合、あるビデオフレーム内の画素の総数の2%〜5%の間の閾値を用いる。この閾値は、例えば屋内であるとか屋外であるとかのカメラの位置と、具体的な用途とに基づいて選択される。これらセグメントはその各々が、例えば10秒という等しい長さのサブセグメントに分割される。本実施形態では、これらサブセグメントの時間長は任意である。各々のサブセグメントは単一のキーフレームで表され、このキーフレームとは、上述したように行動の大部分を含むと判断されたサブセグメント内にあるフレームのことである。その結果、サブセグメントの代表的なキーフレームが、以下で説明する、キーフレーム表示として選択される候補となる。
(表示目的のキーフレームの選択)
多重カメラビデオプレイヤ(再生装置)で表示するためには、通常は、キーフレームの表示用に利用可能なスロットの数より多い数のキーフレームが、ある時間セグメントのビデオストリームから利用可能である。ある実施形態では、上述したようなキーフレームの対応するビデオシーケンスのフレーム内の行動の量と、録画されているスペース(空間)内の対象ポイント近傍の動き、及び他の技法やセンサー(例えば、赤外線運動センサー、顔検出、無線IDタグ)から得られたイベントの任意の組み合わせに基づいて、サブ集合のキーフレームを利用可能なキーフレームのグループから選択する。キーフレームのビデオシーケンスのフレーム内の行動の量に基づいてキーフレームを選択する場合、隣同士のフレーム間で行動や画素の変化が多いほど、このビデオシーケンスから表示用のキーフレームが選ばれる確率が高くなる。対象ポイント近傍の動きに基づいてキーフレームを選択する場合、このキーフレームは、いくつかのカメラのビューを比較して、対象ポイントからの運動の3次元距離を判定するよう計算することによって選択可能である。キーフレームのビデオシーケンス内のフレームにおいて対象ポイントからの運動の距離が短いほど、このビデオシーケンスから表示用のキーフレームが選ばれる確率が高い。例えば運動センサーなどの他の技法やセンサーに基づいてキーフレームを選択するものと仮定する。利用可能なキーフレームに対応しているカメラについて、問題となっている時間セグメントの間で特定のカメラまたはこのカメラの焦点の近傍で運動センサーによって検出される行動が多いほど、このカメラに対応するキーフレームが表示用に選ばれる確率が高くなる。
(時間的表示の作成)
ある実施形態では、第1のタイプの多重カメラビデオプレイヤで表示する場合、複数のカメラビューからのビデオストリームを選択してビデオプレイヤに表示するように編成する。これらのビデオストリームは、主としてカメラ間の時間的な関係に基づいて選択されて編成される。ビデオストリームは、二次的には、カメラ間の地理的関係に基づいて編成される。
図1に、ある実施形態に関連する、メインカメラビューからのビデオストリームと2つのバンド(帯状領域)とを示す、時間的なビデオプレイヤの表示画面の例を示されており、複数のカメラビューの過去と未来のビデオストリームの各々がこのメインカメラビューから得られたビデオストリームと時間的に関連しており、これにより、この複数のカメラビューのビデオストリームが、ある時間範囲からのものであるよう構成されている。メインカメラの視野からのビデオストリーム表示110が、ビデオプレイヤで再生されるメインビデオとして選択されている。このメインビデオは、ユーザによって選択されるか、または、検出されたイベント(事象)から判断される。後者の場合、検出されたイベントは、ある期間内でまたはある時点において活動の大部分を有するビデオシーケンスであってよい。検出されるイベントもまた、ある特定の対象のロケーションで発生する行動であってよい。例えば、特定のエレベータなどのロケーションの場合、この特定のエレベータでエレベータドアのイベントが検出されると、このエレベータドアを表示しているカメラのビデオをメインビデオとして選択することができる。
ビデオプレイヤ111のコントロールボタンが、ビデオストリーム表示110の下に示されている。これらの標準のビデオプレイヤのコントロールボタンには、音声オン/オフ112、再生/停止113、一時停止(図示せず)、巻戻し(図示せず)、早送り(図示せず)、後退114および前進115が含まれるが、これらに限られない。コントロールボタンにはまた再生ポイントボタン117が含まれ、このボタンはユーザが左右にドラッグして、ビデオストリームの位置を見つけるためのものである。コントロールボタンにはまた、以下に説明する図3に示すコントロールボタンのいずれをも含んでよい。表示画面上で、現時点で再生中のビデオストリームのポイントが再生位置であり、これもボタン117が示している。プレイヤ画面の左側にあるタイムライン140もまた、左右どちらかの側に青色の方形のあるバーで示す時間145により再生位置を表示する。図1に示すように、再生位置時間は約14:37:20、すなわち、午後2時37分20秒である。
メインカメラのビデオストリームと時間的に近いビデオストリームを映しているカメラのグループが選択される。このカメラグループから、再生しているビデオストリームのメインカメラに空間的にどれがより近いかを判断することにより、またはユーザが選ぶことにより、最終的なカメラ集合を表示目的で選択する。図1の場合、例として5台のカメラからなる集合を表示目的として選ばれる。メインカメラのビデオストリームを含むこれら5台のカメラのビデオストリームを、メインカメラビデオストリーム表示110の上方と下方に2つずつ、図1に示す4つの水平方向のバンド(帯状領域)に表示する。第2のバンド125と第3のバンド130に、メインカメラビデオストリームに対してそれぞれ過去と未来0〜30秒の間のカメラビューからのビデオストリームを示す。最上部のバンド120と最下部のバンド135に、メインカメラのビデオストリームに対してそれぞれ過去と未来30秒〜3分の間のカメラビューからのビデオストリームを示す。ある実施形態では、これらの領域は所望により変更可能である。
メインビデオストリームに近い、大きいビデオストリームは、このメインビデオストリームに対して近い過去および未来のものである。メインビデオストリームから遠い、小さいビデオストリームは、過去および未来において、このメインビデオストリームから時間的に隔たっている行動を示している。5台のカメラのビュースロットが、第1すなわち最上部のバンド120と、第4すなわち最下底部のバンド135に割り当てられている。3つのカメラのビュースロットが、第2のバンド125と第3のバンド130に割り当てられている。しかしながら、ある実施形態では、任意の定まった数のカメラビュースロットを互いに異なった時間的バンドに割り当てることができる。メインビデオストリーム及びその他のビデオストリームは、最上部に色つきのバーを有し、実際のソースカメラを示すようにしている。図1の5台のカメラの集合に対するバーの色は、赤、ピンク、緑、黄色、青であり、青がメインカメラのバーの色である。メインビデオストリーム以外のビデオストリームの上部には、ビデオストリームの時刻が示されている。ある実施形態では、時刻は、ビデオストリーム表示内の任意の位置に示すことができる。ある実施形態では、メインビデオストリームもまた、ビデオストリームの表示の上部その時刻が示されている。
タイムライン140は、ビデオストリームの時刻に対する色付きのドットを表示する。これらドットの色は、カメラのバーの色に対応していて、各々のビデオストリームの時点を示す。これらドットは、互いにオーバーラップしないように配置される。したがって、14:34:21から14:34:38の範囲の時間を示すビデオストリームの第1のバンド120は、タイムライン140の色付きドット150によって示されている。14:37:00から14:37:11の範囲の時間を示すビデオストリームの第2のバンド125は、タイムライン140の再生位置145の上方にグループ化されている色付きドットによって示されている。14:37:31から14:37:51の範囲の時間を示すビデオストリームの第3のバンド130は、タイムライン140の再生位置145の下方にグループ化されている色付きドットによって示されている。最後に、14:39:57から14:40:20の範囲の時間を示すビデオストリームの第4のバンド135は、タイムライン140内の色付きドット155によって示されている。
ビデオストリーム中の画像のリフレッシュ速度を変化させて、ビデオがほとんど流れるように再生されるような効果から、数秒から数分にまで及ぶ間にわたって画像が静止したままとどまるような効果にいたる、様々な効果を生じさせることができる。フレーム速度が低い、例えば、毎秒1フレーム未満であるような実施形態では、ビデオフレームを定まった時間間隔でサンプリングすることができる。フレーム速度が低い他の実施形態では、キーフレームの選択が問題となる。ある実施形態では、キーフレームを、性能上の理由で用いたり、一連の動画より良好にイベントを可視化できるという理由で用いたりすることができる。
各々のバンドでは、ビデオストリーム用のスロットの数は限られている。例えば図1の場合は、選ばれたカメラの集合は5台のカメラを含んでいるが、バンド125は3つのビデオストリームしか表示できない。この状況では、表示用のビデオストリームは、キーフレームの選択に基づいて選ばれる。最初に、上述したように、あるグループのキーフレームを、5台のカメラの集合のビデオストリームのサブセグメントから決定する。最上部バンドの時間フレームは、メインビデオストリームに対して過去の30秒から3分までとなっている。最上部バンド120の時間期間は、14:37:20という再生位置に対して約14:34:20から14:36:50である。したがって、このキーフレームグループのサブグループを、この2分30秒という時間期間内の10秒間からなる第2のサブセグメントから取る。次に、プレイヤに対して表示されるキーフレームを、上述したようにこのサブグループから選択する。キーフレームは、ピンク色カメラから1つ、赤色カメラから1つ、緑色カメラから1つ、青色カメラすなわちメインカメラから2つ選ばれ、黄色カメラからは何も選ばれない。次に、これら5つのキーフレームに対応するビデオストリームを、最上部バンド120に表示する。このカメラの集合内の特定のカメラからはビデオストリームもキーフレームも表示しない実施形態もあれば、特定のカメラからの2つ以上のビデオストリームまたはキーフレームを表示する実施形態もある。
ある実施形態では、キーフレームまたはビデオストリームのサンプル画像を、ビデオストリームの代わりにこのバンドに表示することができる。さらに、ある実施形態では、ビデオストリーム、キーフレームおよびサンプル画像の任意の組み合わせをバンド内に表示することができる。加えて、メインカメラビデオストリームからのキーフレームまたはサンプル画像を、表示110内でビデオストリームの代わりに表示することができる。ある実施形態では、メインカメラからのビデオストリームは、バンドのビデオストリーム内には示されない。
ある実施形態では、任意の数の時間的バンドが表示画面に示される。ある実施形態では、これらのバンドはサイズを変更することが可能であり、また、任意の数のビデオストリーム、キーフレーム、サンプル画像を各バンドに表示することができる。ある実施形態では、これらバンドは、左から右方向に縦方向に列を成して表示し、タイムラインはカメラのビューの下方に表示されることができる。ある実施形態では、タイムラインは表示されない。メインビデオストリームと他のビデオストリームは、任意の順序でまたは任意の相対的関連性で表示することができる。ある実施形態では、様々なカメラからのビューを、色以外の方法で区別することができる。
図2に、ある実施形態に関連する、メインカメラのビューからのビデオストリームと1つのバンドとを示す、時間的なビデオプレイヤの表示画面の代替例を示しており、複数のカメラビューからの過去と未来のビデオストリームの各々がこのメインカメラビデオストリームと時間的に関連しており、これにより、メインカメラビデオストリームの時点以前と以後のある時点から得られたビデオストリームが、定まった時間期間にわたって表示され続けるように同期されるよう構成されている。
メインカメラのビューからのビデオストリーム表示210が、ビデオプレイヤ上で表示されるメインビデオとして選択される。ビデオプレイヤのコントロールボタンは、ビデオ表示(図示せず)の一部である。2つの縦方向バンドのビデオストリーム220と230が、メインビデオストリーム表示210の両端側に表示されている。ビデオストリーム表示210の左側にある第1のバンド220は、メインビデオストリームが表示210で再生されている時点の5秒前からのビデオストリームを表示する3つのカメラビューを示している。ビデオストリーム表示210の右側にある第2のバンド230は、ビデオストリームが表示210で再生されている時点の5秒後からのビデオストリームを表示する3つのカメラビューを示している。メインビデオストリーム表示を再生される時点に対して3秒から10秒のオフセットがあると、あるカメラビューから別のカメラビューへと歩いている人物を追跡するのに最も有効である。ある実施形態では、このオフセットは所望により変更可能である。これらのビデオストリーム中の画像のリフレッシュ速度を変更させて、ビデオがほとんど流れるように再生されるような効果から数秒から数分にまで及ぶ間にわたって画像が静止したままとどまるような効果にいたる、様々な効果を生じさせることができる。
カメラと画像は上述した図1の場合のように選択される。図2では、メインビデオストリームとその他のビデオストリームは、実際のソースカメラを示す色付きの境界を有している。例として、メインカメラを含む6台のカメラを表示目的で選択する。この6台のカメラの集合に対する境界色は、赤色、紺色、水色、暗緑色、ピンクおよび黄色であり、黄色がメインカメラの境界色となっている。
ある実施形態では、ビデオストリームの時刻をビデオストリーム表示の最上部に示すことができる。メインビデオストリームもまた、その時刻を、ビデオストリーム表示の最上部に示すことができる。このような時刻は、ビデオストリーム表示内の任意の位置に示すことができる。ある実施形態では、キーフレームまたはサンプル画像を、ビデオストリームの代わりにバンドに表示することができる。さらに、ビデオストリーム、キーフレームおよびサンプル画像の任意の組み合わせをも、バンドに表示することができる。加えて、メインカメラビデオストリームから得られたキーフレームまたはサンプル画像を、表示210内にビデオストリームの代わりに表示することもできる。またある実施形態では、メインカメラからのビデオストリーム、キーフレームおよびサンプル画像は、バンド内にあるビデオストリーム、キーフレーム、およびサンプル画像内には示さない。カメラの集合内の特定のカメラからのビデオストリーム、キーフレームおよびサンプル画像を全く表示しない場合もあり、特定のカメラからのビデオストリーム、キーフレームまたはサンプル画像の内の2つ以上を表示する場合もある。
ある実施形態では、任意の数の時間的バンドを表示画面上に示して、メインビデオストリーム表示210の時刻の前と後の他の定まった期間から得られたビデオストリームを再生する。ある実施形態では、バンドのサイズを変更したり、任意の数のビデオストリーム、キーフレームおよびサンプル画像を各々のバンドに表示したりすることができる。ある実施形態では、バンドを上から下へ横方向に行を成して表示することができる。ある実施形態では、メインビデオストリーム表示とビデオストリームを、任意の順序または任意の相互関連性で表示することができる。ある実施形態では、様々なカメラからのビューを色以外の方法で区別することができる。
(空間的な表示の作成)
ある実施形態では、第2のタイプの多重カメラビデオプレイヤ表示画面において、主としてカメラ間の地理的または空間的関係に基づいて、複数のカメラビューからのビデオストリームを選択して編成する。これらのビデオストリームは、二次的にはカメラ間の時間的な関係に基づいて編成される。このタイプのカメラ表示の利点は、1つのカメラビューから特定の方向に離れていくことが示されている人物は、この方向に置かれたカメラの別のカメラビューに現われる確率が高いことである。
図3は、実施形態にしたがった、メインカメラに空間的に近接した複数のカメラから得られたビデオストリームによって囲まれたこのメインカメラのビューから得られたビデオストリームを示す、ビデオプレイヤによる空間的表示画面の例を示す図である。このプレイヤ表示画面のレイアウトは、図1と2に示す時間的表示のそれと類似している。ビデオストリーム表示310が、ビデオプレイヤで再生されるメインビデオとして選ばれる。このメインビデオは、ユーザによって選ばれるか、または、検出されたイベントから判断される。後者の場合、検出されたイベントは、ある時間期間内でまたはある時点において活動の大部分を有するビデオシーケンスであってもよい。検出されるイベントもまた、ある特定の対象ロケーションで発生する行動であってもよい。例えば、特定のエレベータなどのロケーションの場合、この特定のエレベータでエレベータドアのイベントが検出されると、このエレベータドアを表示しているカメラのビデオをメインビデオとして選ぶことができる。
あるバンク内に入手可能なあらゆるカメラビューを表示するのではなく、メインカメラに空間的に近い位置にあるカメラのグループを選択する。このカメラグループから、メインカメラのビデオストリームに時間的に近いビデオストリームを有しているかどうかを判断することにより、表示のためのカメラ集合を最終的に選ぶ。表示されるビデオストリーム中の画像のリフレッシュ速度を変化させて、ビデオがほとんど流れるように再生されるような効果から数秒から数分にまで及ぶ間にわたって画像が静止したままとどまるような効果にいたる様々な効果を生じさせることができる。フレーム速度が低い、例えば、毎秒1フレーム未満であるような実施形態では、ビデオフレームを定まった時間間隔でサンプリングすることができる。フレーム速度が低い実施形態では、キーフレームの選択は問題となる。ある実施形態では、キーフレームを、性能上の理由で用いたり、一連の動画より良好にイベントを可視化できるという理由で用いたりすることができる。
ある実施形態では、キーフレームを、メインビデオストリームの表示を取り囲むように表示することができる。時間的近接度をゼロに設定した場合、キーフレームは、キーフレームが更新された時に、カメラの集合のリアルタイムビデオストリームから選ばれる。更新されていない場合、キーフレームは、上述のように表示のために選択される。キーフレームのリフレッシュ速度を変化させて、ビデオがほとんど流れるように再生されるような効果から数秒から数分にまで及ぶ間にわたって画像が静止したままとどまるような効果にいたる様々な効果を生じさせることができる。
図3において、メインビデオストリームと他のビデオストリームは、実際のソースカメラを示す色付き境界を有している。例として、メインカメラを含む12台のカメラを表示のために選択する。この12台のカメラ集合に対する境界の色は、紺色、薄ピンク色、水色、赤色、オレンジ色、濃紺色、暗緑色、黄色、紫色、褐色、濃ピンク色および明緑色であり、明緑色がメインカメラの境界色となっている。
第1のカメラの視界から歩いて去る人物が隣にある第2のカメラの視界に現われる確率が高くなるように、ビデオストリームをメインビデオストリームの周りに配置するが、このとき、ビデオ表示内の第2のカメラのビデオストリームは、この人物が第1のカメラの視界から歩き去った方向と第1のカメラから見て同じ方向にある。メインビデオストリーム310は、赤いボックスで囲まれた二人の人物を映している。この赤いボックスは、活動エリアもしくは対象となる可能性のあるエリアまたは活動が発見されたエリアを示している。このエリアは、例えば、他のビデオストリーム330、350、360および370にも見られる。これらの赤いボックスが示されない実施形態もある。
図3のビデオプレイヤ表示画面はタイムライン380をも有しており、これは、メインカメラのビデオストリーム310の再生位置時刻382を示している。プレイヤ表示画面のコントロールボタンには、低速(Slower)ボタン384、高速(Faster)ボタン386および巻き戻し(Reverse)ボタン388が含まれているが、本発明の構成はこれに限られない。ビデオ再生の現在速度390は1.0であると示されている。現在速度390がこれより高い数値であれば早送り、負の数値であれば巻き戻し再生であることを示している。このプレイヤ表示画面は、図1の場合に上述したコントロールボタンの内のいずれでも有することができる。
1以上のビデオストリームが、メインカメラに対するビデオストリームのカメラの物理的位置から計算された角度でメインビデオストリームを取り囲むように表示される。メインカメラのビデオストリーム内に示される視野の方向は、表示の最上部を指している。メインカメラのビデオストリームの中心から各ビデオストリームの中心までの角度は、メインカメラとこのビデオストリームに対応するカメラとの成す角度に等しいのが理想的である。単純な方法としては、メインカメラから第2のカメラまでの角度を判定し、第2のカメラからのビデオストリームを表示上でのこの方向に配置することができる。しかしながら、この方法では、カメラはカメラ位置からある程度離れた活動動作を映し出すということを考慮に入れていない。メインカメラの物理的位置と第2のカメラの物理的位置との成す角度を用いる代わりに、これら2つのカメラの焦点が成す角度を用いて、第2のカメラのビデオストリームの表示上の位置を決定することができる。
図4に、ある実施形態に関連する、2つのカメラの焦点間の角度を示す図である。焦点距離が変動すると、メインビデオストリーム表示に対するビデオストリームの表示上の配置が非常に異なってしまう可能性がある。図4では、メインカメラ410は焦点420と視界430とを有している。第2のカメラ440は焦点450と視界460とを有している。カメラの物理的位置の成す角度を用いて、表示されるビデオストリームのメインビデオストリーム表示に対する角度を決定した場合、カメラ420からのビデオストリームは、メインカメラ410のビデオストリーム表示の「右」「上」の方向に、図4中の“X”で示されるように配置される。
焦点420及び450を用いる場合、今度は、カメラ420からのビデオストリームが、メインカメラ410のビデオストリーム表示の「左」「下」方向に、図4中の“Y”で示すように配置される。別の説明の仕方をすると、カメラ420のビデオストリーム表示の角度は、メインカメラ410からメインカメラ焦点420に向かうライン480と、メインカメラ焦点420から第2のカメラ焦点450に向かうライン490が形成する角度470である。このビデオストリームの配置は正確であるが、これは、ある人物が、メインカメラ410の視界の左側から歩き出て行っても、依然としてカメラ440のビューで見えているからである。
この方式は、隣接するカメラのビューがオーバーラップしている場合に最も利点がある。このタスクは自動的に実行できるため、この方式によって、多くのビデオストリーム表示の位置に影響を与えることなく個々のカメラを後で配置し直すことができる。この方式を、さらに多数のカメラに規模拡大することもできる。
カメラの相対的な物理的位置を決定する場合、焦点がカメラから10〜20フィート(約3〜6メートル)の間にあると、オフィスビルや、例えば空港などの他の人物追跡用途において効果がある。例えば駐車場でのカメラでは、この駐車場の大きさに応じて焦点距離を変動させる必要がある。カメラの焦点は、広角レンズの場合にはカメラにより近づける必要がある。次の式(1)に示す式は、焦点に位置する物体の相対的なサイズを一定に保つための、カメラの視野角αに対する焦点までの距離dを決定する。
Figure 2008099248
例えば、48度という視野角を持つカメラの焦点距離を20フィート(約6.1メートル)とすると、tan(48/2)=tan(24)=0.445、tan(100/2)=tan(50)=1.192であり、したがって(20×tan(48/2))/tan(100/2)=7.47であるから、視野角が100度のカメラの焦点距離は7.47フィート(約2.278メートル)であるべきである。一般的に、カメラの視野角αは通常のレンズの場合には48度であり、広角レンズの場合には100度である。
図3において、より多くのビデオストリームをビデオ表示上に嵌め合わせるため、メインカメラビデオストリームと他のビデオストリームの成す角度をある値に上げ下げして調整することができる。角度誤差の最小面積によって、ビデオストリームの表示上での最良の配置を決定することができる。例えば、ビデオストリームをある誤差範囲、例えば45度以内で表示上に位置付けすることが不可能な場合、表示されるビデオストリームの数を減らして、各ビデオストリームとメインカメラビデオストリームの間の空間的位置関係を維持する必要がある。
選択されたカメラに最も近い複数のカメラからのビデオストリームが表示に含まれる。ビデオストリームに対して存在する利用可能な表示配置場所より多くのカメラが上記のカメラ集合内に存在する場合、これらの最も近いカメラからのキーフレームが、図1に関連して上述したものと同じ方法で選択され、これらのキーフレームに対応するビデオストリームが表示される。しかしながら、最も近いカメラを選ぶには、カメラ間のユークリッド距離を測定すること以上の情報を必要とする。例えば、ユークリッド距離は、壁や廊下のためにカメラが互いに隔てられるため、オフィスビル内であるカメラから別のカメラにまで人が歩いていくための必要な時間を正しくは反映しない。その代わり、水平距離と垂直距離の和によって決定することが可能な街区間距離の方が正確な結果を生じる。複数フロアの建物の場合、エレベータと階段の位置を考慮すべきである。カメラがそれぞれ違うフロアにある場合、カメラ間の距離は、それぞれのフロアでの最も近いエレベータ/階段との間の距離と、このエレベータに乗るための時間との組み合わせとして決定することができる。
さらに、焦点を用いてカメラ間の距離を測定することによりメインカメラに対する他のカメラの空間的近接度を測定するが、互いに近いが互いに向き合ってはいないカメラではなく、視界が共通であり、程度の差はあっても互いに向き合っているカメラを、特に空間的に近接していると見なすべきである。1対のカメラについて、各々のカメラに対して互いに異なった4つの焦点を選択するものとする。例えば、各々のカメラからの距離として、5フィート(1.525メートル)、10フィート(3.05メートル)、20フィート(6.1メートル)および40フィート(12.2メートル)という値を選択する。2つのカメラの互いに対応する焦点間の距離の平均を、これらのカメラ間の距離として用いる。この平均値を用いると、互いに近接しているが視界は共有していないカメラを無視することなく、互いを指し示すかまたは互いに向かってって視界を共有しているカメラの対が強調される。図6に見ることができる例では、マップの右上の角にあるカメラ692からのビデオストリームはこのマップ上の表示に含まれる。これは、このカメラが、マップの右下の角にあるメインカメラ640の方を向いているからである。しかしながら、マップ上のカメラ692の直ぐ下にあるカメラ694からのビデオストリームはマップには含まれない。これは、このカメラがメインカメラ640とは異なる方向を向いているからである。
ある実施形態では、様々な建築構造物とカメラ取り付け位置とに対して、様々な焦点距離集合を用いることができる。互いに異なる焦点距離を任意の数だけ計算で用いることができる。ビデオストリームの時刻をビデオストリーム表示の最上部に示すことが可能な実施形態もある。このような時刻は、ビデオストリーム表示内であればどの位置にでも示すことができる。メインビデオストリームもまた、その時刻を、ビデオストリームの表示の最上部に示すことができる。ある実施形態では様々なカメラからのビューを色以外の方法で区別することができる。
ある実施形態では、カメラの集合からのキーフレームまたはサンプル画像を、ビデオストリームの代わりに表示することができる。さらに、ビデオストリームとキーフレームの任意の組み合わせを表示することができる。加えて、メインカメラビデオストリームから得られたキーフレームまたはサンプル画像を、表示310内にビデオストリームの代わりに表示することができる。このカメラの集合内の特定のカメラからのビデオストリーム、キーフレームおよびサンプル画像を全く表示しない場合もあれば、特定のカメラからのビデオストリーム、キーフレームまたはサンプル画像の内の2つ以上を表示する場合もある。
図5に、ある実施形態に関連する、複数のカメラビューから得られたビデオストリームの内の1つを、マップの上での対応するカメラ位置の近傍に示す、ビデオプレイヤの空間的表示画面のカメラ位置マップの代替例を示す。このマップは、廊下502、共有エリア504、さらに、オフィスと他の部屋506を持つオフィスビルフロアを示している。これらのカメラはマップ上に色分けされて示されている。カメラ510について、対応するビデオストリーム520がカメラ510の近くに表示されている。カメラ510に対して用いられている同じピンク色をビデオストリーム520の境界として用いて、このカメラとこれに対応するビデオストリーム表示を共に結び付けている。他の3つのカメラ、すなわち、赤色カメラ540、黄色カメラ530および青色カメラ550がこの表示用に選択されている。カメラ560などの表示用に選択されていないカメラを含むマップ上のすべてのカメラについて、カメラの位置をマップ上ではドットとして示し、カメラの視界をシェーディング(影付きに)されたエリアとして示している。さらに、カメラの視野方向を強調し、矢印で示す。表示用に選択されたこれら4つのカメラを、これらのドットを丸で囲んで表示したり、これらのドット、丸、矢印を色コードで示したりすることによって強調する。図5には示していないが、メインカメラは、そのドット、矢印および視界を拡大することによってさらに強調されている。
ある実施形態では、ライン570がビデオストリーム520をメインビデオストリーム表示(図示せず)に接続して、ピンク色のカメラ510のビデオストリームが表示されるメインカメラとして新たに選択されたことを示している。カメラ510が選ばれたことを示すために、このカメラと対応するビデオストリーム520が次第に明るくなり(フェードインされ)、ライン570がメインビデオストリーム表示(図示せず)にまで伸びて、ビデオストリーム520がメインビデオ表示となる。次に、ライン570とビデオストリーム520が次第に消えていき(フェードアウトし)、新しいカメラが選択されたことを示す。
図5に示すこの種の表示は、図3の表示よりカメラ間の空間的位置関係を良好に維持するとはいえ、これに含まれる同じ表示エリア内の同じサイズのカメラビューやビデオストリームの数は少なくなる。また、図3の表示内のカメラのより抽象的な配置の方が、カメラからカメラを見ながら人物を追跡しやすい。
ある実施形態では、メインカメラからのビデオストリームを、マップの近くに別個に、またはマップ上でメインカメラの近くに表示することができる。複数のビデオストリームをマップに表示したり、どのビデオストリームもマップに表示しないようにしたりする実施形態もある。ある実施形態では、キーフレームまたはサンプル画像をビデオストリームの代わりにマップに表示することができる。ある実施形態では、クロップされた(切り取られた)キーフレーム、画像またはビデオストリームをマップに表示することができる。ある実施形態では、以下に説明する図6に示すように、マップを、時間的または空間的なビデオプレイヤ表示画面と共に表示することができる。ある実施形態では、ドット、丸、矢印、シェーディング(影)、色分け、拡大およびその他の種類の区別するための印の任意の組み合わせを用いて、カメラをマップ上で示したり強調したりすることができる。ビデオストリームを、色以外の方法で区別することができる実施形態もある。
図6に、ある実施形態に関連する、図3に示すものと類似したビデオプレイヤの空間的表示画面の横に図5に示すものと類似したカメラ位置のマップ表示画面を有する例を示す。空間的ビデオプレイヤ表示画面が左側に示されており、マップ表示画面が右側に示されている。空間的ビデオプレイヤ表示画面は、あるカメラのビューと近傍のカメラビューの配置とを描いており、これらのビュー(視野)には2つの廊下の内のどちらかを歩いて行くとたどり着く。図6のマップは、これらの近傍のカメラが物理的にどこに位置しているかを示しており、また、これらのカメラから得られる部分的ビューを示すものである。このマップは、廊下602、共有エリア604およびオフィスその他の部屋606があるオフィスビルのフロア602を示している。メインビデオストリーム表示610の左側に映っている女性の片足が、ビデオストリーム615に示す彼女の左側にあるカメラのビューに見える。彼女は、右折して左上のビデオストリーム625に示すカメラビューに現われるか、または、直進して左側の中央のビデオストリーム620に示すカメラのビューに現われる可能性がある。メインビデオストリーム表示610に映った他方の女性は、右上のストリーム635に示すカメラビューの遠方に既に部分的に見えている。ビデオストリーム630に示されている残りのカメラビューは配置されている方向は正しいが、より直接的に行ける通路が壁によって塞がれているため、中間にある2つのカメラビューを歩いて通っていかないとたどり着けない。
ビデオプレイヤ表示では、メインビデオストリームとその他のビデオストリームとは、境界に色が着いており、これにより、実際のソースカメラが示されるようになっている。例として、メインカメラを含む6台のカメラを表示用に選択する。この6台のカメラの集合に対する境界の色は、ピンク615、黄色620、明緑色625、暗緑色630、青色635および赤色であり、赤色がメインカメラの境界色となっている。図6に示すマップ上では、これら6台のカメラは、空間的ビデオプレイヤ表示画面の場合と同じように色分けされて示されている。これらのカメラからのビデオストリームもまた、マップ上でのこれらに対応するカメラの近くに表示される。この例では、ビデオストリームの境界は色分けされていない。マップに表示されるビデオストリームは部分的なビデオストリーム、すなわちクロップされることにより、行動や監視対象の項目の大部分をビデオストリームに示すようにしている。したがって、赤で色分けされているメインカメラ640は、部分的ビデオストリーム645とメインビデオストリーム表示610とに対応している。メインカメラ640は、拡大されたドット、丸および矢印を表示することによって強調されている。ピンクに色分けされているカメラ650は、部分的ビデオストリーム652とプレイヤビデオストリーム615とに対応している。黄色に色分けされているカメラ654は、部分的ビデオストリーム656とプレイヤビデオストリーム620とに対応している。明緑色に色分けされているカメラ660は、部分的ビデオストリーム662とプレイヤビデオストリーム625とに対応している。暗緑色に色分けされているカメラ670は、部分的ビデオストリーム672とプレイヤビデオストリーム630とに対応している。青に色分けされているカメラ692は、部分的ビデオストリーム696とプレイヤビデオストリーム635とに対応している。
本発明の実施形態では、プレイヤとマップを互いにいかなる関連性によっても表示することができる。ある実施形態では、ビデオストリームなしで、または1つ以上のビデオストリームと共にマップを表示することができる。ある実施形態では、クロップされたキーフレーム、サンプル画像またはビデオストリームをマップに表示することができる。ある実施形態では、ドット、丸、矢印、シェーディング、色分け、拡大およびその他の種類の区別するための印の任意の組み合わせを用いて、カメラをマップ上で示したり強調したりすることができる。ある実施形態では、ビデオストリームを、色でまたは色以外の方法で区別することができる。
ある実施形態では、ビデオストリーム、キーフレームおよびサンプル画像の任意の組み合わせをマップまたはプレイヤ画面上で表示することができる。加えて、メインカメラビデオストリームから得られたキーフレームまたはサンプル画像を、表示110内にビデオストリームの代わりに表示することができる。メインカメラからのビデオストリームやキーフレームが、メインビデオストリームやキーフレーム以外のビデオストリームやキーフレーム内に示されない実施形態もある。タイムラインが表示される実施形態もある。ビデオストリームまたはキーフレーム内に時刻が表示される実施形態もある。
(カメラビュー表示との対話)
警備担当者などのユーザは、上記の時間的表示と地理的表示の内のいずれかをクリックすることで、再生中のメインビデオストリームが、選択されたビデオストリームに対応するカメラと再生位置に切り替わるようにすることによって、複数のビデオカメラをブラウジングすることができる。ユーザは、マップのビデオストリームまたは図7に示す従来式のカメラバンクビデオストリームをクリックすることによってカメラを選択することができる。この技法を用いると、ユーザは、あるカメラビューから別のカメラビューへと行動を追うことができる。ビデオプレイヤと対話するという従来の手段を用いて別の再生位置にスキップする方法に併せて、この技法を用いることができる。例えば、ユーザは依然として再生/一時停止ボタンを用いたり、タイムライン上の位置を選択したりすることができ、これに応じて、システムが、時間的表示と地理的表示用に選択されたカメラビューを自動的に更新する。
空間的表示画面では、カメラビューを変更する場合、ユーザ指向のために、ビデオストリームの新たな位置への移動が動画(アニメーション)化される。ビデオストリームを直線に沿って動画化するのでなく、メインビューの境界の周りで視野の回転を示すように動画化する。ビデオストリームは、同じ方向、すなわち、時計回り方向または反時計回り方向のどちらかの方向に主として回転させることにより、視野の回転を示す。あるビデオストリームを大部分のビデオストリームとは反対の方向に回転させて、その移動距離を減らすようにすることもある。この動画化の持続時間は、非常に速い動きや非常に遅い動きを避けるためにビデオストリームが移動しなければならない距離によって異なる。
図7に、ある実施形態に従った、ユーザが選択したカメラの視界に合うように回転されて中心合わせされる複数のカメラの空間的概観を提供するマップを含む、ビデオプレイヤの空間的表示画面の全体構成の例を示す。図7の例は、図6に部分的に描かれているプレイヤ表示画面の全体構成を示している。加えて、図7は、利用可能なすべてのカメラからのビデオストリームを示しており、ビデオストリームは、従来のカメラバンク710として表示されている。このカメラ720のバンクは上部に、空間的ビデオプレイヤ表示720は左下に、カメラ位置の回転空間マップ730は右下に示されている。通常は、このカメラバンクは追跡タスクには必要ない。これは、追跡されている人物は、メインビデオストリーム表示750を取り囲んでいるビデオストリーム760の内の1つに現われるはずであるからである。しかしながら、追跡中の人物が、あるカメラがカバーしていないエリアに入り込んだり、ユーザが間違ったカメラを選択したりしてビューから完全に消えると、このカメラバンクが、追跡中の人物を再度捕捉するための唯一の手段となる可能性がある。
図7に示すマップ730は、ユーザが選んだカメラの視界に合うように回転され中心合わせされるカメラの空間的概観を提供する。このマップは、図5の場合と同じ種類のマップである。ユーザは、マップ上でカメラをクリックするか、空間的ビデオ表示内のビデオストリームをクリックすることにより、カメラビューをメインカメラビデオに選ぶことができる。すると、このマップは、新たに選ばれたカメラのカメラビューと再生位置とに合うように自動的に回転して中心合わせされる。上方向が、この新たなカメラの視野方向である。このようにマップを回転させるのは、ユーザに向きを合わせ、紙の地図の回転をシミュレートするためである。図7では、この新たに選択されたカメラ770とそのビューを紫色で示す。この新たに選択されたカメラビューのビデオストリーム750もまた、空間的ビデオ表示画面上に示されている。
新たに選択されたカメラの新たな視点に合うようにマップが回転され中心合わせされている間、ユーザ指向のためにマップの動作を動画化することができる。マップ動作の動画化の持続時間は、空間的表示の回転動画と同期を取ることができる。
ある実施形態では、マップ、表示およびバンクを、互いに対してどの位置にでも表示することができる。ある実施形態では、キーフレームやサンプル画像をビデオストリームの代わりに表示することができる。ビデオストリーム、キーフレームおよびサンプル画像のどの組み合わせでも表示することが可能な実施形態もある。
ある実施形態では、ビデオストリーム、キーフレームまたはサンプル画像もまた、マップ上で対応するソースカメラの近くに表示することができる。この場合、ユーザはマップ上に表示されている任意のカメラまたは任意のキーフレームをクリックすることによって、あるカメラを、ビデオストリームを表示するメインカメラとして選択することができる。
図8は、ある実施形態に従った、ユーザが選択したカメラのビューに合うように回転されて中心合わせされる、複数のカメラの空間的概観を提供するマップの例を示す。このマップは、廊下802、共有エリア804、さらに、オフィスとその他の部屋806を持つオフィスビルフロアを示している。この回転されたマップは、図7のマップに類似したマップを拡大したビューを示している。ビデオ表示または空間的表示に示すメインビデオストリームに対応するメインカメラ810は、紫色のドットとして示されている。このメインカメラは、そのドット、矢印および視界を拡大することによりさらに強調される。メインカメラの視界は、表示の上部の方向に向けられている。他の10台のカメラがこの表示用に選ばれており、その内訳は、青色カメラ815、褐色カメラ820、濃ピンク色カメラ825、緑色カメラ830、水色カメラ835、紺色カメラ840、黄色カメラ845、薄ピンク色カメラ850、暗赤色カメラ855および薄赤色カメラ860である。カメラ870などの表示用に選ばれていないカメラを含むすべてのカメラについて、カメラの位置をマップ上のドットとして示し、カメラの視界をシェーディングされたエリアとして示している。さらに、カメラのビュー方向を矢印で強調して示している。表示用に選ばれたメインカメラ以外の他の10台のカメラは、そのドットの周りに丸を表示し、さらに、これらのドット、丸および矢印を色分けすることによって強調されている。
プレイヤが生映像のビューまたは記録されているビデオをサポートしていて、次々にシームレスに切り替えることができるような実施形態もある。記録されたビデオは、様々な速度で見たり逆転したりすることもできる。
(システムのハードウエア、ソフトウエアおよびコンポーネント)
本発明は、コンピュータ技術の当業者には明らかなように、本発明の教示にしたがってプログラムされた、従来型の汎用または専用のデジタルコンピュータまたはマイクロプロセッサを用いて簡便に実施することができる。
Axis IPカメラなどの適切なカメラを用いてビデオストリームを取得し、HTTPを介してMotion JPEGとして、またはRTPを介してMPEG−4としてビデオにアクセスすることができる。しかしながら、Motion JPEGは処理が簡単であり、様々な時刻に対する検索をサポートしている。さらに、Motion JPEGは、クライアント側で専用のコーデック(圧縮伸張プログラム)や、データストリームエンコーダ/デコーダを必要とせず、したがって、ビデオプレイヤウインドウ(表示画面)を動画化するJava(登録商標)のクライアントを構築することができる。ビデオストリームは様々な解像度で記録することができる。生映像のビデオと記録されたビデオの双方を、デジタルビデオレコーダからHTTPを介してMotion JPEGとして提供することができる。サーバは、いくつかのビデオプレイヤをサポートすることが可能であり、主に記録されているビデオに対して様々なビデオプレイヤが様々な時間にアクセスする際のハードディスクの待ち時間によって制約される。
本発明はこのようなサーバ等のコンピュータを、本発明のビデオプレイヤ表示画面を含む、定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置として実現できる。
また、本発明はコンピュータをこのようなインタフェース装置として機能させる方法、及びプログラムとして実現できる。コンピュータはプロセッサ及び記憶装置(後述するようなあらゆる機械可読媒体を含む)を備えたコンピュータであってよい。本発明のプログラムは前記記憶装置に記憶されることができ、プロセッサにより実行されることにより、コンピュータを本発明のインタフェース装置として動作させることができる。
ソフトウエア分野の当業者には明らかなように、熟練したプログラマであれば、本発明の教示にしたがって適切なソフトウエアコーディングが容易に作成可能である。汎用/専用コンピュータまたはマイクロプロセッサのプログラミングやソフトウエアには、本発明の教示を実施するソフトウエアモジュールが含まれる。本発明はまた、当業者には容易に分かるように、ASIC(特定用途向けIC)を作成することによって、または従来型のコンポーネント回路を相互接続することによってハードウエアにより実現することもできる。
本発明には、命令を記憶している1つ以上の記憶媒体であり、本明細書に開示する特徴のいずれかを実行するようにコンピュータをプログラムするために用いることが可能なコンピュータプログラム製品を含んでいる。このような記憶媒体には、これらに限られないが、フレキシブルディスク、光ディスク、DVD、CD−ROM、マイクロドライブおよび光磁気ディスク、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、フラッシュメモリーデバイス、磁気カードもしくは光カード、ナノシステム(分子メモリーIC)を含む任意のタイプのディスクまたは命令およびデータを記憶するのに適した任意のタイプの媒体やデバイスが含まれる。様々な実施形態には、1つ以上のパブリックネットワークおよびプライベートネットワークの少なくともいずれかを介して全体をまたは部分的に送信することが可能なコンピュータプログラム製品が含まれる。前記送信内容には命令および情報が含まれるが、これらを1つ以上のプロセッサで用いて、本書に公開する特徴のいずれかを実行することができる。様々な実施形態において、前記送信は、互いに別個の送信内容を複数個含めることができる。
コンピュータ読み取り可能媒体の内のいずれかに格納されるものとして、本発明は、汎用/専用コンピュータおよび/またはマイクロプロセッサの双方のハードウエアを制御し、コンピュータおよび/またはマイクロプロセッサが、人間のユーザまたは本発明の成果を利用する他のメカニズムと対話することを可能とするソフトウエア(プログラム)を含んでいる。このようなソフトウエアには、これに限られないが、デバイスドライバ、オペレーティングシステム、ユーザインタフェースおよびアプリケーションが含まれる。最終的に、このようなコンピュータ読み取り可能媒体には、本発明の実施形態を実行するソフトウエアがさらに含まれる。
本発明によるプログラムコードは直接的に実行することもできるし間接的に実行することもできる。このコードには、コンパイル言語、インタープリタ言語および他のタイプの言語が含まれる。請求項によって制限される場合を除き、ある機能のためのコードおよび/またはコードセグメントの実行および送信する動作には、この機能を実施するために、ローカルであれリモートであれ、他のソフトウエアまたはデバイスを起動したり、これらをコール(呼び出し)したりすることが含まれうる。これら起動やコールには、この機能を実行するために、ライブラリモジュール、デバイスドライバ、インタフェースドライバおよびリモートソフトウエアを起動したりこれらをコールしたりすることが含まれうる。これら起動やコールには、分散システムおよびクライアント/サーバシステムにおける起動やコールが含まれうる。
本発明の好ましい実施形態に関する前述の説明は、図示と説明を目的としたものである。本発明は開示するそのままの形態により網羅したりこれらに限定したりすることを意図するものではない。当業者には、多くの修正例や変更例が明らかであろう。本発明の他の特徴、態様および目的は、図面とクレームをよく読めば理解されるであろう。本発明の他の実施形態を開発することが可能であり、これらもまた本発明の精神と請求項の範囲に含まれることを理解されたい。上記の実施形態は、本発明とその実際の応用例とを最もよく説明し、これによって、他の当業者が、様々な実施形態に対する、また、予測される特定の用途に適する様々な修正例を持つ本発明を理解することを可能とするように選ばれている。本発明の範囲は、請求項とその等価物によって定められることを意図するものである。
本実施形態に関連する、メインカメラビューからのビデオストリームと2つのバンド(帯状領域)とを示す、時間的なビデオプレイヤ表示画面の例を示す図であり、複数のカメラビューの過去と未来のビデオストリームの各々がこのメインカメラビューから得られたビデオストリームと時間的に関連しており、これにより、この複数のカメラビューのビデオストリームが、ある時間範囲からのものであるよう構成されている。 本実施形態に関連する、メインカメラのビューからのビデオストリームと1つのバンドとを示す、複数のカメラビューからの過去と未来のビデオストリームの各々がこのメインカメラビデオストリームと時間的に関連しており、これにより、メインカメラビデオストリームの時点以前と以後のある時点から得られたビデオストリームが、定まった時間期間にわたって表示され続けるように同期される。 本実施形態に関連する、メインカメラに空間的に近接した複数のカメラから得られたビデオストリームによって囲まれた、メインカメラのビューから得られたビデオストリームを示す、ビデオプレイヤによる空間的表示画面の例を示す図である。 本実施形態に関連する、2つのカメラの焦点間の角度を示す図である。 本実施形態に関連する、カメラ位置のマップを表示するビデオプレイヤの空間的表示画面の代替例を示す図であり、マップ上でのカメラ位置に対応する近傍の複数のカメラビューから得られたビデオストリームの内の1つを示している。 本実施形態に関連する、図5に示したものと類似したカメラ位置のマップ表示を含む、図3に示したものと類似したビデオプレイヤの空間的表示画面の例を示す図である。 本実施形態に関連する、ユーザが選択したカメラのビューが中心合わせされるように回転される、複数のカメラの空間的概観を示しているマップを含む、ビデオプレイヤの空間的表示画面の全体構成の例を示す図である。 本実施形態に関連する、ユーザが選択したカメラのビューが中心合わせされるように回転される、複数のカメラの空間的概観を提供するマップの例を示す図である。

Claims (40)

  1. 定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置であって、
    メインカメラによって取得されたメインビデオストリームを前記インタフェースに表示する第1のインタフェース部分と、
    前記表示されたメインビデオストリームに時間的に関連する1以上のビデオストリームを表示する1つ以上の追加インタフェース部分と、を備え、
    前記ビデオストリームがカメラの集合と前記メインカメラとによって取得されたものであり、前記ビデオストリームの表示が、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点である第1の時間セグメントのビデオ再生位置の第1の集合と、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点以前の第2の時間セグメントのビデオ再生位置の第2の集合と、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点以後の第3の時間セグメントのビデオ再生位置の第3の集合と、
    の内の1つ以上を含む、
    インタフェース装置。
  2. 前記1つ以上のビデオストリーム表示の内の1つと関連するビデオストリームが、ユーザが前記ビデオストリーム表示をクリックしたときに対応するビデオ再生位置と共に前記インタフェースに表示される、前記メインビデオストリームとなる、請求項1に記載のインタフェース装置。
  3. 前記ビデオストリーム表示の内の1つ以上が静的キーフレームであり、前記キーフレームが、前記ビデオストリームのビデオ再生位置の時点に近いビデオストリームから取られた代表的なビデオフレームである、請求項1に記載のインタフェース装置。
  4. 前記キーフレームが、前記第1、第2および第3の時間セグメントの内の1つの時間セグメント内の行動の大部分を含むビデオストリームシーケンスから取られた代表的なビデオフレームである、請求項3に記載のインタフェース装置。
  5. 前記行動の大部分を含む前記ビデオストリームシーケンスにおいて、前記シーケンス内のビデオフレーム間で変化する画素数が最大である、請求項4に記載のインタフェース装置。
  6. ビデオ再生位置の前記第2の集合が、ビデオストリームの各々において、前記メインカメラの前記ビデオストリームの時点以前の第1の固定時点から始まるものであり、
    ビデオ再生位置の前記第3の集合が、ビデオストリームの各々において、前記メインカメラの前記ビデオストリームの時点以後の第2の固定時点から始まるものである、請求項1に記載のインタフェース装置。
  7. 前記インタフェース表示でのビデオストリーム表示の色分けにより、ビデオストリームのソースカメラを識別する、請求項1に記載のインタフェース装置。
  8. 前記カメラ集合と前記メインカメラとに対するカメラ位置及びこれらに対応する視野角の空間的ビューを示すマップが、前記インタフェースと共に表示される、請求項1に記載のインタフェース装置。
  9. 前記マップ上で、1つ以上のビデオストリームがこれらに対応するソースカメラの隣に表示される、請求項8に記載のインタフェース装置。
  10. 前記マップに表示される前記カメラとこれらに対応する視野角とが、前記インタフェースに表示されるソースカメラを識別するためのビデオストリーム表示の色分けと一致するように色分けされる、請求項9に記載のインタフェース装置。
  11. 前記第2及び第3のビデオ再生位置集合と関連する前記ビデオストリーム表示の各々が、前記メインビデオストリーム表示の両端部の帯状領域に表示される、請求項1に記載のインタフェース装置。
  12. 前記帯状領域と前記メインビデオストリーム表示との隣に表示されるタイムラインをさらに備える、請求項11に記載のインタフェース装置。
  13. 前記複数のカメラの視野方向が固定されている、請求項11に記載のインタフェース装置。
  14. 前記複数のカメラが、前記インタフェースが生のビデオストリームを表示するときにパン動作、傾斜動作およびズーム動作の内の1つ以上を実行する、請求項1に記載のインタフェース装置。
  15. 前記カメラ集合が、前記メインカメラに対して空間的に近接している、請求項1に記載のインタフェース装置。
  16. 前記第1、第2および第3のビデオ再生位置の集合と関連する前記ビデオストリーム表示が、前記ビデオストリーム内の行動、録画されている空間内の対象のポイントに近いところでの動き、および赤外線運動センサー、顔検出、無線IDタグから得られたイベントの内の1つ以上に対する評価をさらに含む、請求項1に記載のインタフェース装置。
  17. 前記第1、第2および第3のビデオ再生位置の集合と関連するビデオストリーム表示が、前記表示された前記メインカメラからのビデオストリームと空間的に関連付けられて前記インタフェースに表示され、
    前記空間的な関連性が、前記メインカメラの物理的位置に対する前記カメラ集合の各々のカメラの相対的な物理的位置に対応し、
    前記ビデオストリーム表示が、前記メインカメラに最も近いカメラ集合のビデオストリームから取られる、
    請求項1に記載のインタフェース装置。
  18. 前記1つ以上のビデオストリーム表示の内の1つと関連するビデオストリームが、ユーザが前記ビデオストリーム表示をクリックしたときに対応するビデオ再生位置と共に前記インタフェースに表示される、前記メインビデオストリームになる、請求項17に記載のインタフェース装置。
  19. 前記ビデオストリーム表示の内の1つ以上が静的キーフレームであり、前記キーフレームが、前記ビデオストリームのビデオ再生位置の時点に近いビデオストリームから取られた代表的なビデオフレームである、請求項17に記載のインタフェース装置。
  20. 前記キーフレームが、前記第1、第2および第3の時間セグメントの内の1つの時間セグメント内の行動の大部分を含むビデオストリームシーケンスから取られた代表的なビデオフレームである、請求項19に記載のインタフェース装置。
  21. 前記行動の大部分を含む前記ビデオストリームシーケンスにおいて、前記シーケンス内のビデオフレーム間で変化する画素数が最大である、請求項20に記載のインタフェース装置。
  22. 前記カメラ集合と前記メインカメラとに対する、カメラ位置及びこれらに対応する視野角の空間的ビューを示すマップが、前記インタフェースと共に表示される、請求項17に記載のインタフェース装置。
  23. 前記マップ上で、1つ以上のビデオストリームがこれらに対応するソースカメラの隣に表示される、請求項22に記載のインタフェース装置。
  24. ユーザが前記マップ上で前記ビデオストリームの一つとこれに対応するカメラをクリックすると、前記ビデオストリームが前記メインビデオストリームになる、請求項23に記載のインタフェース装置。
  25. 前記新しいメインビデオストリームの周りを回転し、前記新しいメインビデオストリームに空間的に関連する自身の新たな位置にまで達するように、前記ビデオストリーム表示が動画化される、請求項17に記載のインタフェース装置。
  26. 前記1つ以上のビデオストリーム表示の内の1つと関連するビデオストリームが、ユーザが前記ビデオストリーム表示をクリックしたときに対応するビデオ再生位置と共に前記インタフェースに表示される前記メインビデオストリームになり、
    前記インタフェースに表示される前記新しいビデオストリームに対応する前記新たに選択されたカメラの新たな視点に対して前記マップが中心合わせされるように前記マップの回転運動を示すために、前記空間的マップを動画化する、
    請求項22に記載のインタフェース装置。
  27. 前記新しいメインビデオストリームの周りを回転して、自身の新たな位置にまで達するよう動画化された、前記新しいメインビデオストリームに空間的に関連するビデオストリーム表示の動画化と、前記空間的マップの動画化が同期される、請求項26に記載のインタフェース装置。
  28. 前記メインカメラに対する前記カメラ集合内の各々のカメラの近接度が、前記カメラ集合の内の各々のカメラと前記メインカメラとの間の1つ以上の焦点間の距離の和の平均値を含む、請求項17に記載のインタフェース装置。
  29. 前記メインビデオストリーム表示に対するビデオストリーム表示の空間的関連度が、前記メインカメラの焦点から前記ビデオストリーム表示に対応するカメラの焦点に至るラインと、前記メインカメラの前記焦点から前記メインカメラに至るラインとが形成する角度の測定値をさらに含み、各々のビデオストリーム表示が、前記メインビデオストリーム表示に対して前記測定角度で表示される、請求項17に記載のインタフェース装置。
  30. 前記インタフェース表示でのビデオストリーム表示の色分けにより、ビデオストリームのソースカメラを識別する、請求項17に記載のインタフェース装置。
  31. 前記マップに表示される前記カメラとこれらに対応する視野角とが、前記インタフェースに表示されるビデオストリーム表示のソースカメラを識別するための色分けと一致するように色分けされる、請求項22に記載のインタフェース装置。
  32. 前記複数のカメラの視野方向が固定されている、請求項17に記載のインタフェース装置。
  33. 前記複数のカメラが、前記インタフェースが生のビデオストリームを表示するときにパン動作、傾斜動作およびズーム動作の内の1つ以上を実行する、請求項17に記載のインタフェース装置。
  34. 前記第1、第2および第3のビデオ再生位置の集合と関連する前記ビデオストリーム表示が、前記ビデオストリーム内の行動、録画されている空間内の対象のポイントに近いところでの動き、および赤外線運動センサー、顔検出、無線IDタグから得られたイベントの内の1つ以上に対する評価をさらに含む、請求項17に記載のインタフェース装置。
  35. 定位置にある複数のカメラからのビデオに対するインタフェースと表示とを提供する方法であって、
    あるカメラが取得したビデオストリームをメインビデオストリームとして選択し、
    前記メインビデオストリームを前記インタフェースの第1の部分に表示し、
    前記表示されたメインビデオストリームに時間的に関連する、前記カメラの集合と前記メインカメラとによって取得された1以上のビデオストリームを選択することであって、前記選択が、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点の第1の時間セグメントの再生位置の第1の集合を選択し、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点以前の第2の時間セグメントの再生位置の第2の集合を選択し、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点以後の第3の時間セグメントの再生位置の第3の集合を選択すること、
    の内の1つ以上を含み、
    前記選択されたビデオストリームを、前記メインビデオストリームの表示と時間的に関連させて、1つ以上の追加インタフェース部分に表示すること、
    を含む方法。
  36. 前記ビデオストリームの選択が、前記メインカメラに最も近いカメラの集合が取得したビデオストリームを選択することをさらに含む、請求項35に記載の方法。
  37. 1つ以上の追加インタフェース部分への表示が、前記選択されたビデオストリームを前記表示されたメインビデオストリームと空間的に関連させて表示することを含み、前記空間的関連性が、前記メインカメラの物理的位置に対する、カメラ集合内の各々のカメラの相対的な物理的位置に対応する、請求項36に記載の方法。
  38. プロセッサを含むコンピュータにおいて、定位置にある複数のカメラからのビデオのインタフェースと表示とを提供する処理を実行するために前記コンピュータが実行可能な命令からなるプログラムであって、前記プログラムは前記プロセッサにより実行されることにより、前記コンピュータに、
    あるカメラが取得したビデオストリームをメインビデオストリームとして選択し
    前記メインビデオストリームを前記インタフェースの第1の部分に表示し、
    前記表示されたメインビデオストリームに時間的に関連する、前記カメラ集合と前記メインカメラとによって取得された1以上のビデオストリームを選択することであって、前記選択が、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点の第1の時間セグメントの再生位置の第1の集合を選択し、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点以前の第2の時間セグメントの再生位置の第2の集合を選択し、
    前記ビデオストリームの各々において、前記メインビデオストリームの時点以後の第3の時間セグメントの再生位置の第3の集合を選択すること、
    の内の1つ以上を含み、
    前記選択されたビデオストリームを、前記メインビデオストリームの表示と時間的に関連させて、1つ以上の追加インタフェース部分に表示すること、
    を含む処理を実行させる、プログラム。
  39. 前記ビデオストリームの選択が、前記メインカメラに最も近いカメラの集合が取得したビデオストリームを選択することをさらに含む、請求項38に記載のプログラム。
  40. 前記1つ以上の追加インタフェース部分への表示が、前記選択されたビデオストリームを前記表示されたメインビデオストリームと空間的に関連させて表示することを含み、前記空間的関連性が、前記メインカメラの物理的位置に対する、カメラ集合内の各々のカメラの相対的な物理的位置に対応する、請求項39に記載のプログラム。
JP2007200524A 2006-10-13 2007-08-01 定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置、前記ビデオのインタフェースと表示を提供する方法、及びプログラム Active JP5200446B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/580775 2006-10-13
US11/580,775 US8274564B2 (en) 2006-10-13 2006-10-13 Interface for browsing and viewing video from multiple cameras simultaneously that conveys spatial and temporal proximity

Publications (2)

Publication Number Publication Date
JP2008099248A true JP2008099248A (ja) 2008-04-24
JP5200446B2 JP5200446B2 (ja) 2013-06-05

Family

ID=39314986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007200524A Active JP5200446B2 (ja) 2006-10-13 2007-08-01 定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置、前記ビデオのインタフェースと表示を提供する方法、及びプログラム

Country Status (2)

Country Link
US (1) US8274564B2 (ja)
JP (1) JP5200446B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012015813A (ja) * 2010-06-30 2012-01-19 Toshiba Tec Corp 動線表示装置及び方法並びにプログラム
WO2013175836A1 (ja) * 2012-05-23 2013-11-28 ソニー株式会社 監視カメラ管理装置、監視カメラ管理方法およびプログラム
WO2015073924A1 (en) * 2013-11-14 2015-05-21 Smiletime, Inc. Social multi-camera interactive live engagement system
JPWO2014064878A1 (ja) * 2012-10-23 2016-09-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2020127222A (ja) * 2014-10-30 2020-08-20 日本電気株式会社 監視システム、監視方法およびプログラム

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10271017B2 (en) * 2012-09-13 2019-04-23 General Electric Company System and method for generating an activity summary of a person
WO2006034135A2 (en) 2004-09-17 2006-03-30 Proximex Adaptive multi-modal integrated biometric identification detection and surveillance system
WO2007031697A1 (en) * 2005-09-16 2007-03-22 Trevor Burke Technology Limited Method and apparatus for classifying video data
US8656440B2 (en) * 2006-12-27 2014-02-18 Verizon Patent And Licensing Inc. Method and system of providing a virtual community for participation in a remote event
US9521371B2 (en) 2006-12-27 2016-12-13 Verizon Patent And Licensing Inc. Remote station host providing virtual community participation in a remote event
US7777783B1 (en) 2007-03-23 2010-08-17 Proximex Corporation Multi-video navigation
US9544563B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation system
US8918714B2 (en) * 2007-04-11 2014-12-23 Adobe Systems Incorporated Printing a document containing a video or animations
WO2008147874A2 (en) * 2007-05-22 2008-12-04 Vidsys, Inc. Event capture, cross device event correlation, and responsive actions
US20090047004A1 (en) * 2007-08-17 2009-02-19 Steven Johnson Participant digital disc video interface
KR100891263B1 (ko) * 2007-11-15 2009-03-30 에스케이 텔레콤주식회사 단말기 움직임으로 단말기에 미디어를 재생하는 방법,시스템 및 서버
US8208024B2 (en) * 2007-11-30 2012-06-26 Target Brands, Inc. Communication and surveillance system
US8400507B2 (en) * 2008-03-17 2013-03-19 International Business Machines Corporation Scene selection in a vehicle-to-vehicle network
US9123241B2 (en) 2008-03-17 2015-09-01 International Business Machines Corporation Guided video feed selection in a vehicle-to-vehicle network
US9043483B2 (en) * 2008-03-17 2015-05-26 International Business Machines Corporation View selection in a vehicle-to-vehicle network
US8345098B2 (en) * 2008-03-17 2013-01-01 International Business Machines Corporation Displayed view modification in a vehicle-to-vehicle network
US8237791B2 (en) * 2008-03-19 2012-08-07 Microsoft Corporation Visualizing camera feeds on a map
US8531522B2 (en) 2008-05-30 2013-09-10 Verint Systems Ltd. Systems and methods for video monitoring using linked devices
US8885047B2 (en) * 2008-07-16 2014-11-11 Verint Systems Inc. System and method for capturing, storing, analyzing and displaying data relating to the movements of objects
US9071626B2 (en) 2008-10-03 2015-06-30 Vidsys, Inc. Method and apparatus for surveillance system peering
JP2010130510A (ja) * 2008-11-28 2010-06-10 Brother Ind Ltd 印刷装置及びプログラム
JP4692614B2 (ja) * 2008-11-28 2011-06-01 ブラザー工業株式会社 印刷装置及びプログラム
JP4692615B2 (ja) * 2008-11-28 2011-06-01 ブラザー工業株式会社 印刷装置及びプログラム
WO2010106525A1 (en) * 2009-03-20 2010-09-23 Koninklijke Philips Electronics N.V. Visualizing a view of a scene
CN101901622B (zh) * 2009-05-27 2012-08-29 鸿富锦精密工业(深圳)有限公司 音频资料定位方法
US8698878B2 (en) * 2009-07-02 2014-04-15 Sony Corporation 3-D auto-convergence camera
US8878908B2 (en) * 2009-07-02 2014-11-04 Sony Corporation 3-D auto-convergence camera
JP5343739B2 (ja) * 2009-07-02 2013-11-13 ブラザー工業株式会社 出力装置及びプログラム
CN102472959A (zh) * 2009-07-02 2012-05-23 索尼公司 3d自动会聚照相机
CN102215365B (zh) 2010-04-01 2013-11-06 鸿富锦精密工业(深圳)有限公司 媒体数据播放装置及其回放方法
US20110242327A1 (en) * 2010-04-05 2011-10-06 Honeywell International Inc. Intelligent camera display based on selective searching
US20110249123A1 (en) * 2010-04-09 2011-10-13 Honeywell International Inc. Systems and methods to group and browse cameras in a large scale surveillance system
GB201017711D0 (en) * 2010-10-20 2010-12-01 Sonitor Technologies As Position determination system
US8193909B1 (en) * 2010-11-15 2012-06-05 Intergraph Technologies Company System and method for camera control in a surveillance system
US9100587B2 (en) * 2011-07-22 2015-08-04 Naturalpoint, Inc. Hosted camera remote control
US20130039634A1 (en) * 2011-08-12 2013-02-14 Honeywell International Inc. System and method of creating an intelligent video clip for improved investigations in video surveillance
US9282296B2 (en) * 2011-12-07 2016-03-08 Siemens Aktiengesellschaft Configuration tool for video analytics
JP6065195B2 (ja) * 2012-05-08 2017-01-25 パナソニックIpマネジメント株式会社 表示映像形成装置及び表示映像形成方法
EP2860970A4 (en) * 2012-06-08 2016-03-30 Sony Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING, PROGRAM AND MONITORING CAMERA SYSTEM
TWI555407B (zh) * 2012-07-18 2016-10-21 晶睿通訊股份有限公司 影像播放設定方法
US9087386B2 (en) 2012-11-30 2015-07-21 Vidsys, Inc. Tracking people and objects using multiple live and recorded surveillance camera video feeds
US20140211027A1 (en) * 2013-01-31 2014-07-31 Honeywell International Inc. Systems and methods for managing access to surveillance cameras
JP6187811B2 (ja) * 2013-09-09 2017-08-30 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9392189B2 (en) * 2014-02-28 2016-07-12 Intel Corporation Mechanism for facilitating fast and efficient calculations for hybrid camera arrays
CN104023193A (zh) * 2014-06-12 2014-09-03 武汉烽火众智数字技术有限责任公司 一种历史视频回放细节控制和提取的方法及装置
US9685194B2 (en) * 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
US9361011B1 (en) * 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10219026B2 (en) * 2015-08-26 2019-02-26 Lg Electronics Inc. Mobile terminal and method for playback of a multi-view video
US9992413B2 (en) * 2015-09-18 2018-06-05 Raytheon Company Method and system for creating a display with a distributed aperture system
TWI663466B (zh) * 2015-09-25 2019-06-21 佳能企業股份有限公司 攝像裝置及其操作方法
CN105516734B (zh) * 2015-12-10 2019-11-15 腾讯科技(深圳)有限公司 一种视频可播放性的检测方法和装置
CN105872570A (zh) * 2015-12-11 2016-08-17 乐视网信息技术(北京)股份有限公司 一种多机位视频同步播放的实现方法及装置
US10028016B2 (en) 2016-08-30 2018-07-17 The Directv Group, Inc. Methods and systems for providing multiple video content streams
US10386999B2 (en) 2016-10-26 2019-08-20 Google Llc Timeline-video relationship presentation for alert events
GB2556910A (en) 2016-11-25 2018-06-13 Nokia Technologies Oy Virtual reality display
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US11094212B2 (en) * 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph
US10635981B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
CN108882018B (zh) 2017-05-09 2020-10-20 阿里巴巴(中国)有限公司 虚拟场景中的视频播放、数据提供方法、客户端及服务器
US10819921B2 (en) 2017-05-25 2020-10-27 Google Llc Camera assembly having a single-piece cover element
US10972685B2 (en) 2017-05-25 2021-04-06 Google Llc Video camera assembly having an IR reflector
US10683962B2 (en) 2017-05-25 2020-06-16 Google Llc Thermal management for a compact electronic device
US10405060B2 (en) 2017-06-28 2019-09-03 At&T Intellectual Property I, L.P. Method and apparatus for augmented reality presentation associated with a media program
WO2019028321A1 (en) * 2017-08-03 2019-02-07 Perryman David G METHOD AND SYSTEM FOR PROVIDING ONE OR MORE LIVE VIEWS GENERATED BY AN ELECTRONIC VIDEO CAMERA TO A USER SCREEN
US11323407B2 (en) 2017-10-26 2022-05-03 Halo Innovative Solutions Llc Methods, systems, apparatuses, and devices for facilitating managing digital content captured using multiple content capturing devices
US11553216B2 (en) 2017-10-26 2023-01-10 Halo Innovative Solutions Llc Systems and methods of facilitating live streaming of content on multiple social media platforms
US10693830B2 (en) 2017-10-26 2020-06-23 Halo Innovative Solutions Llc Methods, systems, apparatuses and devices for facilitating live streaming of content on multiple social media platforms
CN107846623B (zh) * 2017-10-31 2020-12-22 广东中星电子有限公司 一种视频联动方法和系统
US11399207B2 (en) * 2018-02-02 2022-07-26 Comcast Cable Communications, Llc Image selection using motion data
JP7254464B2 (ja) * 2018-08-28 2023-04-10 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
CN110248147B (zh) 2018-09-25 2022-08-23 浙江大华技术股份有限公司 一种图像显示方法及装置
US11721187B2 (en) 2018-11-06 2023-08-08 Motorola Solutions, Inc. Method and system for displaying video streams
CN111787341B (zh) * 2020-05-29 2023-12-05 北京京东尚科信息技术有限公司 导播方法、装置及系统
RU2742582C1 (ru) * 2020-06-25 2021-02-08 Общество с ограниченной ответственностью "Ай Ти Ви групп" Система и способ отображения движущихся объектов на карте местности
DE102020213288A1 (de) * 2020-10-21 2022-04-21 Robert Bosch Gesellschaft mit beschränkter Haftung Anzeigevorrichtung für ein Videoüberwachungssystem, Videoüberwachungssystem sowie Verfahren
CN113824901A (zh) * 2021-09-28 2021-12-21 北京七维视觉科技有限公司 视频信号切换方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261794A (ja) * 1999-03-10 2000-09-22 Toshiba Corp 動画像表示システム及びこの表示方法
JP2002094898A (ja) * 2000-09-20 2002-03-29 Hitachi Kokusai Electric Inc 映像記録システムにおける映像データ検索表示方法
JP2004274779A (ja) * 2004-03-29 2004-09-30 Syst Five:Kk 情報提供装置
JP2005117424A (ja) * 2003-10-08 2005-04-28 Mitsubishi Electric Corp 監視システム
JP2005176134A (ja) * 2003-12-12 2005-06-30 Canon Inc 画像記録装置、記録画像表示方法およびプログラム
JP2005269342A (ja) * 2004-03-19 2005-09-29 Tietech Co Ltd 記録再生装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7401351B2 (en) 2000-12-14 2008-07-15 Fuji Xerox Co., Ltd. System and method for video navigation and client side indexing
US7062712B2 (en) * 2002-04-09 2006-06-13 Fuji Xerox Co., Ltd. Binding interactive multichannel digital document system
US7683940B2 (en) * 2003-09-12 2010-03-23 Canon Kabushiki Kaisha Streaming non-continuous video data
US20050071736A1 (en) 2003-09-26 2005-03-31 Fuji Xerox Co., Ltd. Comprehensive and intuitive media collection and management tool
US20050069225A1 (en) 2003-09-26 2005-03-31 Fuji Xerox Co., Ltd. Binding interactive multichannel digital document system and authoring tool
US7843491B2 (en) * 2005-04-05 2010-11-30 3Vr Security, Inc. Monitoring and presenting video surveillance data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261794A (ja) * 1999-03-10 2000-09-22 Toshiba Corp 動画像表示システム及びこの表示方法
JP2002094898A (ja) * 2000-09-20 2002-03-29 Hitachi Kokusai Electric Inc 映像記録システムにおける映像データ検索表示方法
JP2005117424A (ja) * 2003-10-08 2005-04-28 Mitsubishi Electric Corp 監視システム
JP2005176134A (ja) * 2003-12-12 2005-06-30 Canon Inc 画像記録装置、記録画像表示方法およびプログラム
JP2005269342A (ja) * 2004-03-19 2005-09-29 Tietech Co Ltd 記録再生装置
JP2004274779A (ja) * 2004-03-29 2004-09-30 Syst Five:Kk 情報提供装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012015813A (ja) * 2010-06-30 2012-01-19 Toshiba Tec Corp 動線表示装置及び方法並びにプログラム
WO2013175836A1 (ja) * 2012-05-23 2013-11-28 ソニー株式会社 監視カメラ管理装置、監視カメラ管理方法およびプログラム
JPWO2013175836A1 (ja) * 2012-05-23 2016-01-12 ソニー株式会社 監視カメラ管理装置、監視カメラ管理方法およびプログラム
US9948897B2 (en) 2012-05-23 2018-04-17 Sony Corporation Surveillance camera management device, surveillance camera management method, and program
JPWO2014064878A1 (ja) * 2012-10-23 2016-09-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
WO2015073924A1 (en) * 2013-11-14 2015-05-21 Smiletime, Inc. Social multi-camera interactive live engagement system
US9253527B2 (en) 2013-11-14 2016-02-02 Smiletime Inc Social multi-camera interactive live engagement system
JP2020127222A (ja) * 2014-10-30 2020-08-20 日本電気株式会社 監視システム、監視方法およびプログラム
US11800063B2 (en) 2014-10-30 2023-10-24 Nec Corporation Camera listing based on comparison of imaging range coverage information to event-related data generated based on captured image

Also Published As

Publication number Publication date
US20080088706A1 (en) 2008-04-17
JP5200446B2 (ja) 2013-06-05
US8274564B2 (en) 2012-09-25

Similar Documents

Publication Publication Date Title
JP5200446B2 (ja) 定位置にある複数のカメラからのビデオの表示を提供するインタフェース装置、前記ビデオのインタフェースと表示を提供する方法、及びプログラム
JP4829290B2 (ja) インテリジェントなカメラ選択および対象追跡
EP2553924B1 (en) Effortless navigation across cameras and cooperative control of cameras
US9087386B2 (en) Tracking people and objects using multiple live and recorded surveillance camera video feeds
US7787011B2 (en) System and method for analyzing and monitoring 3-D video streams from multiple cameras
US7944454B2 (en) System and method for user monitoring interface of 3-D video streams from multiple cameras
US9430923B2 (en) Moving object detection, tracking, and displaying systems
Haering et al. The evolution of video surveillance: an overview
Morse et al. UAV video coverage quality maps and prioritized indexing for wilderness search and rescue
CN105554440B (zh) 监控方法和设备
KR100885465B1 (ko) 비디오 추적 시스템, 및 자동 비디오 추적 시스템에서 목표물을 선택하기 위한 방법 및 장치
Milosavljević et al. Integration of GIS and video surveillance
US20080292140A1 (en) Tracking people and objects using multiple live and recorded surveillance camera video feeds
US20140211019A1 (en) Video camera selection and object tracking
JP2007299381A (ja) 監視データベースへの問合せ方法
JP2009134688A (ja) センサデータ内の活動の地理分布に基づく時間のセグメント化
Girgensohn et al. DOTS: support for effective video surveillance
JP6013923B2 (ja) ビデオエピソードの閲覧及び検索のためのシステム及び方法
EP3973446A1 (en) Forensic video exploitation and analysis tools
RU2742582C1 (ru) Система и способ отображения движущихся объектов на карте местности
CN113905211A (zh) 一种视频巡逻方法、装置、电子设备及存储介质
Roth et al. Next-generation 3D visualization for visual surveillance
JP2011145730A (ja) 監視画面表示制御装置
Girgensohn et al. Effects of presenting geographic context on tracking activity between cameras
CN115424320A (zh) 一种在三维场景中显示人员移动轨迹的方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130128

R150 Certificate of patent or registration of utility model

Ref document number: 5200446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350