JP2001034250A - 映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体 - Google Patents
映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体Info
- Publication number
- JP2001034250A JP2001034250A JP11204655A JP20465599A JP2001034250A JP 2001034250 A JP2001034250 A JP 2001034250A JP 11204655 A JP11204655 A JP 11204655A JP 20465599 A JP20465599 A JP 20465599A JP 2001034250 A JP2001034250 A JP 2001034250A
- Authority
- JP
- Japan
- Prior art keywords
- video
- importance
- information
- display
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
いることにより、映像の重要度に応じてレイアウト等を
自動的に決定して映像を表示する映像表示装置、映像表
示方法および映像を表示するためのプログラムを記録し
た記録媒体を提供する。 【解決手段】 撮影された空間に存在する被写体と被写
体の重要性を表す被写体重要度との対応関係を含む被写
体情報を管理する被写体情報管理部と、被写体情報管理
部によって管理される被写体情報に基づいて、映像の重
要性を表す映像重要度を計算する映像重要度計算部と、
空間を撮影した映像の情報を、映像情報として取得する
映像情報取得部と、少なくとも映像重要度計算部によっ
て計算された映像重要度に基づいて、映像情報取得部に
よって取得された映像情報が表す映像の表示を制御する
表示制御部と、表示制御部の制御にしたがって映像を表
示する表示部とを備えた映像表示装置。
Description
視、プラント運転制御、設備管理あるいはスポーツや祭
り等のテレビ放送など、複数の映像を表示するための映
像表示装置、映像表示方法に関する。
は、建物や設備が存在する現場の状況を複数の監視カメ
ラで撮影し、現場と離れた監視センタで必要な映像を随
時切り替えて表示する映像監視が行われている。表示す
る映像には、ライブ映像や、VTR(Video Ta
pe Recorder)やハードディスクなどに記録
された蓄積映像が含まれる。ライブ映像は、監視対象の
現在の状況をリアルタイムで確認するために用いられ
る。蓄積映像は、検索することによって事件発生前の状
況を確認し、あるいは現象を繰り返し表示して詳細に分
析するために用いられることが多い。
低価格化に伴い、現場に設置されるカメラ台数は年々増
加している。現在、大規模施設では数十台のカメラが設
置されている。このような施設では、少数のオペレータ
が多数のカメラ映像を効率的に監視できるような工夫が
なされている。例えば、グループ化された複数カメラの
画像がモニタ画面に縮小して合成表示される、マルチ画
面合成表示である(図2参照)。このマルチ画面合成表
示では、一定時間毎あるいはオペレータの指示により別
のカメラグループの合成画面に切り替えることができ
る。別の例は、強調表示であり、カメラが撮影する物体
やエリアなどの重要度に応じて各々の映像の大きさを変
化させ、監視員に映像の重要度を意識させる(例えば図
18(a)参照)。さらに別の例では、各映像の撮影位
置を容易に理解することができるよう、監視する地域の
地図や建物のレイアウト図を背景として表示し、撮影位
置に対応するその図の位置の近傍にその映像を表示する
(例えば図18(b)参照)。「Multi Scop
e」(NECシステム建設カタログ)は、このような表
示を可能にする従来の映像表示装置の一つである。
成を示すブロック図である。
1a〜391nと、映像情報取得部392と、表示レイ
アウト情報修正部393と、表示レイアウト情報格納部
394と、表示制御部395と、表示部396とを含
む。映像情報取得部392は、より具体的に図40に示
されるようにビデオマトリクススイッチャ401を含
む。ビデオマトリクススイッチャ401は、表示制御部
395からの指定に基づいて、M個の入力映像信号から
指定されたN個の映像信号を表示制御部395に出力す
る。表示制御部395は、少なくともグラフィックスボ
ード402とマルチ画面オーバレイボード403とを含
む。グラフィックスボード402とマルチ画面オーバレ
イボード403は、受け取った映像情報と表示レイアウ
ト情報とに基づいて、表示装置に表示すべき映像の表示
データを作成する。なお、グラフィックスボード402
とマルチ画面オーバレイボード403とはいずれも製品
化されているので、その詳細な説明は省略する。
で映像を表示する場合、ユーザは、予め表示レイアウト
情報修正部393(図39)を介して表示レイアウト情
報を設定する。上述のように、表示制御部395は、設
定されている表示レイアウト情報に基づいて映像の表示
を制御し、映像を表示する。
39)において表示レイアウト情報を設定するための操
作画面の例を示す。
情報の設定は対話的に定義することができる。システム
設計者あるいはオペレータは、各カメラに写る被写体の
種類、重要度、写り具合等、オペレータの判断に基づい
て、見やすい表示レイアウトを頭の中で考える。オペレ
ータは、表示レイアウト情報修正部393(図39)を
介してその表示レイアウトを入力することによって、表
示レイアウト情報を設定する。
ム420の構成を示すブロック図である。
像送信端末421a〜421nと、画像多重化装置42
2と、画像受信端末425とを含む。複数の画像送信端
末421a〜421nで撮影され、所定の処理を施され
た画像情報は、画像多重化装置422に送信され、さら
なる処理を加えられた後、画像受信端末425に送信さ
れ、表示される。
−1と、画像符号化装置421a−2と、センサ421
a−3とを含む。センサ421a−3は、カメラ421
a−1に対応して設けられる。センサ421a−3は、
カメラ421a−1の撮影空間で発生した異常を検出
し、そのセンサレベル信号を画像多重化装置422に送
信する。
23と、優先順位決定部424とを含む。画像多重化部
423は、受け取った画像信号とその表示優先順位情報
とを多重化して、画像受信端末425に送信する。優先
順位決定部424は、表示優先順位情報を管理し、セン
サレベルが変化するとその値が高いカメラから表示の順
番付けを行う。
2)が管理する表示優先順位情報の例を示す。図43に
示されるカメラIDとは、カメラ421a―1〜421
n―1にそれぞれ割り当てられたIDである。
5は、画像符号化装置426と、表示部427とを含
む。画像受信端末425は、画像多重化装置422から
受け取った画像情報を復号化し、優先順位情報に基づい
て、画像を表示すべき順序に並べ、マルチウィンドウ表
示する。
90(図39)では、予めオペレータが被写体の位置や
重要度を考慮して表示レイアウトを考え、対話的に定義
するという煩雑な作業が必要である。さらに被写体の位
置や重要度が変わるとその度にオペレータは表示すべき
映像の表示レイアウト決定を繰り返さねばならない。よ
り複雑な、複数の被写体をそれぞれ含む複数の映像の表
示が必要な場合、オペレータの考慮した表示レイアウト
等では客観性に欠け、映像の重要性に応じた表示が実現
されているか不明確である。
2)では、センサの計測値に基づき互いの優先順位がわ
かるよう複数の画像を自動的に表示することができる。
例えば500℃が警戒レベルの工場設備の映像監視装置
において、500℃に近い値を検出する温度センサに対
応するカメラの画像から順に画面上に表示することがで
きる。
設けられたセンサのセンサレベルでしか評価されないた
め、撮影された画像に含まれる被写体の重要性に応じて
画像の重要性を決定することができない。このようなシ
ステムでは、カメラを移動させながら撮影する場合に、
カメラで撮影した画像に何が写っているかによって画像
の重要性を判断することできず、利用が大きく制限され
る。さらに、カメラ毎にセンサが設けられているため、
ある被写体の異常を一つのセンサで検知し、その被写体
の異常発生状態を異なる視点から複数のカメラで撮影し
同様な重要度で表示することはできない。
はイベント情報を用いることにより、映像の重要度に応
じてレイアウト等を自動的に決定して映像を表示する映
像表示装置、映像表示方法および映像を表示するための
プログラムを記録した記録媒体を提供することである。
は、撮影された空間に存在する被写体と前記被写体の重
要性を表す被写体重要度との対応関係を含む被写体情報
を管理する被写体情報管理部と、前記被写体情報管理部
によって管理される前記被写体情報に基づいて、前記映
像の重要性を表す映像重要度を計算する映像重要度計算
部と、前記空間を撮影した映像の情報を、映像情報とし
て取得する映像情報取得部と、少なくとも前記映像重要
度計算部によって計算された前記映像重要度に基づい
て、前記映像情報取得部によって取得された前記映像情
報が表す前記映像の表示を制御する表示制御部と、前記
表示制御部の制御にしたがって前記映像を表示する表示
部とを備えており、これにより上記目的が達成される。
する映像情報格納部をさらに備え、前記映像情報取得部
は、前記映像情報格納部から前記映像情報を読み出すこ
とによって前記映像情報を取得してもよい。
が入力される入力部をさらに備え、前記被写体情報管理
部は、前記入力部からの入力に応答して、前記被写体重
要度を入力された前記新たな被写体重要度に変更して保
持することにより管理し、前記映像重要度計算部は、前
記被写体情報管理部による前記新たな被写体重要度の保
持に応答して、保持された被写体重要度に基づいて映像
重要度を計算してもよい。
な空間であってもよい。
に関する撮影時刻情報を含み、前記被写体情報は、前記
被写体に発生したイベントと前記イベントが発生した時
刻を表すイベント発生時刻とに関するイベント情報を含
み、前記映像重要度計算部は、さらに前記イベント情報
と前記撮影時刻情報とに基づいて前記映像重要度を計算
してもよい。
映像の情報と前記映像を撮影した時刻に関する撮影時刻
情報とを格納する映像情報格納部と、前記映像情報格納
部から前記映像情報を読み出す映像情報読み出し部と、
前記空間で発生したイベントと、前記イベントが発生し
た発生時刻、前記イベントの重要性を表すイベント重要
度および前記映像との対応関係を含むイベント情報を管
理するイベント情報管理部と、前記イベント情報管理部
によって管理される前記イベント情報と前記映像情報格
納部に格納された前記撮影時刻情報とに基づいて、前記
映像重要度を計算する映像重要度計算部と、少なくとも
前記映像重要度計算部によって計算された前記映像重要
度に基づいて、前記映像情報が表す映像の表示を制御す
る表示制御部と、前記表示制御部の制御にしたがって前
記映像を表示する表示部とを備えており、これにより上
記目的が達成される。
影した複数の映像であって、前記映像重要度計算部は、
前記複数の映像のそれぞれについて前記映像重要度を計
算し、前記表示制御部は、少なくとも前記映像重要度計
算部によって計算された前記映像重要度に基づいて、前
記複数の映像それぞれの表示を制御してもよい。
によって計算された前記映像重要度と前記映像を表示す
る規則を規定する表示規則とに基づいて、前記複数の映
像それぞれの表示を制御してもよい。
置、時間、順序または大きさを規定してもよい。
ぞれについて前記映像重要度計算部によって計算された
前記映像重要度と、前記映像重要度に応じて適用される
表示規則とに基づいて、前記複数の映像それぞれを強調
表示するよう表示を制御してもよい。
ぞれについて前記映像重要度計算部によって計算された
前記映像重要度と、前記映像重要度に応じて適用される
表示規則とに基づいて、前記複数の映像のそれぞれの品
質を決定し、決定された品質で前記複数の映像それぞれ
の表示を制御してもよい。
画像フレームは2以上の領域を含み、前記映像重要度計
算部は、前記2以上の領域のそれぞれについて前記映像
重要度を計算し、前記表示制御部は、前記映像重要度計
算部によって計算された前記映像重要度に基づいて、前
記2以上の領域のそれぞれを表示する態様を決定して前
記画像フレームの表示を制御してもよい。
の映像と、第2の時刻に撮影された第2の映像を含み、
前記映像重要度計算部は、前記第1の映像の映像重要度
である第1映像重要度と、前記第2の映像の映像重要度
である第2映像重要度とを計算し、前記表示制御部は、
前記映像を表示するための規則を規定する表示規則と前
記映像重要度計算部によって計算された前記第1映像重
要度および第2映像重要度とに基づいて前記映像を表示
する態様を決定し、撮影された時刻に基づいて前記第1
の映像と前記第2の映像とが同期するよう表示を制御し
てもよい。
ぞれが撮影された位置と前記映像重要度計算部によって
計算された前記映像重要度とに基づいて前記複数の映像
それぞれの表示を制御してもよい。
一の時刻であってもよい。
に存在する被写体と前記被写体の重要性を表す被写体重
要度との対応関係を含む被写体情報を管理するステップ
と、前記被写体情報に基づいて、前記映像の重要性を表
す映像重要度を計算するステップと、前記空間を撮影し
た映像の情報を、映像情報として取得するステップと、
少なくとも前記映像重要度に基づいて、前記映像情報が
表す前記映像の表示を制御するステップと、前記映像の
表示の制御にしたがって前記映像を表示するステップと
を包含し、これにより上記目的が達成される。
するステップをさらに包含し、前記映像情報を取得する
ステップは、格納された前記映像情報を読み出すことに
よって、前記映像情報を取得するステップであってもよ
い。
を入力するステップをさらに包含し、前記被写体情報を
管理するステップは、前記新たな被写体重要度を入力す
るステップによる入力に応答して、前記被写体重要度を
入力された前記新たな被写体重要度に変更して保持する
ことにより管理するステップであり、前記映像重要度を
計算するステップは、前記新たな被写体重要度の保持に
応答して、保持された被写体重要度に基づいて映像重要
度を計算するステップであってもよい。
に関する撮影時刻情報を含み、前記被写体情報は、前記
被写体に発生したイベントと前記イベントが発生した時
刻を表すイベント発生時刻とに関するイベント情報を含
み、前記映像重要度を計算するステップは、さらに前記
イベント情報と前記撮影時刻情報とに基づいて前記映像
重要度を計算するステップであってもよい。
映像の情報と前記映像を撮影した時刻に関する撮影時刻
情報とを格納するステップと、格納された前記映像情報
を読み出すステップと、前記空間で発生したイベント
と、前記イベントが発生した発生時刻、前記イベントの
重要性を表すイベント重要度および前記映像との対応関
係を含むイベント情報を管理するステップと、管理され
た前記イベント情報と格納された前記撮影時刻情報とに
基づいて、前記映像重要度を計算するステップと、少な
くとも計算された前記映像重要度に基づいて、前記映像
情報が表す映像の表示を制御するステップと、前記制御
にしたがって前記映像を表示するステップとを包含し、
これにより上記目的が達成される。
記画像フレームは2以上の領域を含み、前記映像重要度
を計算するステップは、前記2以上の領域のそれぞれに
ついて前記映像重要度を計算するステップであり、前記
表示を制御するステップは、計算された前記映像重要度
に基づいて、前記2以上の領域のそれぞれを表示する態
様を決定して前記画像フレームの表示を制御するステッ
プであってもよい。
の映像と、第2の時刻に撮影された第2の映像を含み、
前記映像重要度を計算するステップは、前記第1の映像
の映像重要度である第1映像重要度と、前記第2の映像
の映像重要度である第2映像重要度とを計算するステッ
プであり、前記表示を制御するステップは、前記映像を
表示するための規則を規定する表示規則と計算された前
記第1映像重要度および第2映像重要度とに基づいて前
記映像を表示する態様を決定し、撮影された時刻に基づ
いて前記第1の映像と前記第2の映像とが同期するよう
表示を制御するステップであってもよい。
た記録媒体は、撮影された空間に存在する被写体と前記
被写体の重要性を表す被写体重要度との対応関係を含む
被写体情報を管理するステップと、前記被写体情報に基
づいて、前記映像の重要性を表す映像重要度を計算する
ステップと、前記空間を撮影した映像の情報を、映像情
報として取得するステップと、少なくとも前記映像重要
度に基づいて、前記映像情報が表す前記映像の表示を制
御するステップと、前記映像の表示の制御にしたがって
前記映像を表示するステップとを含み、これにより上記
目的が達成される。
するステップをさらに包含し、前記映像情報を取得する
ステップは、格納された前記映像情報を読み出すことに
よって、前記映像情報を取得するステップであってもよ
い。
を入力するステップをさらに包含し、前記被写体情報を
管理するステップは、前記新たな被写体重要度を入力す
るステップによる入力に応答して、前記被写体重要度を
入力された前記新たな被写体重要度に変更して保持する
ことにより管理するステップであり、前記映像重要度を
計算するステップは、前記新たな被写体重要度の保持に
応答して、保持された被写体重要度に基づいて映像重要
度を計算するステップであってもよい。
に関する撮影時刻情報を含み、前記被写体情報は、前記
被写体に発生したイベントと前記イベントが発生した時
刻を表すイベント発生時刻とに関するイベント情報を含
み、前記映像重要度を計算するステップは、さらに前記
イベント情報と前記撮影時刻情報とに基づいて前記映像
重要度を計算するステップであってもよい。
た記録媒体は、空間を撮影した映像の情報と前記映像を
撮影した時刻に関する撮影時刻情報とを格納するステッ
プと、格納された前記映像情報を読み出すステップと、
前記空間で発生したイベントと、前記イベントが発生し
た発生時刻、前記イベントの重要性を表すイベント重要
度および前記映像との対応関係を含むイベント情報を管
理するステップと、管理された前記イベント情報と格納
された前記撮影時刻情報とに基づいて、前記映像重要度
を計算するステップと、少なくとも計算された前記映像
重要度に基づいて、前記映像情報が表す映像の表示を制
御するステップと、前記制御にしたがって前記映像を表
示するステップとを含み、これにより上記目的が達成さ
れる。
記画像フレームは2以上の領域を含み、前記映像重要度
を計算するステップは、前記2以上の領域のそれぞれに
ついて前記映像重要度を計算するステップであり、前記
表示を制御するステップは、計算された前記映像重要度
に基づいて、前記2以上の領域のそれぞれを表示する態
様を決定して前記画像フレームの表示を制御するステッ
プであってもよい。
の映像と、第2の時刻に撮影された第2の映像を含み、
前記映像重要度を計算するステップは、前記第1の映像
の映像重要度である第1映像重要度と、前記第2の映像
の映像重要度である第2映像重要度とを計算するステッ
プであり、前記表示を制御するステップは、前記映像を
表示するための規則を規定する表示規則と計算された前
記第1映像重要度および第2映像重要度とに基づいて前
記映像を表示する態様を決定し、撮影された時刻に基づ
いて前記第1の映像と前記第2の映像とが同期するよう
表示を制御するステップであってもよい。
の名称と、前記被写体が存在する位置と、前記被写体重
要度とをそれぞれを関連づけて格納したデータ構造を有
していてもよい。
発明の実施の形態を説明する。
に存在する被写体と被写体の重要性を表す被写体重要度
との対応関係を含む被写体情報に基づいて、映像の重要
性が計算され、映像が表示される。「対応関係」とは、
その被写体がどの程度の被写体重要度であるかの対応付
けである。これにより、重要な被写体であれば映像重要
度が高く計算されそれに応じた表示がなされるので、ど
のカメラで撮影した映像であっても、重要な被写体が含
まれる映像は重要性が高いことがわかるように表示する
ことができる。
要度が入力され保持されると、それに応答して、保持さ
れた被写体重要度に基づいた映像重要度が計算される。
これにより、被写体重要度が変更されると、即座にその
変更が反映された映像表示が実現される。
ムやアクション等のイベントが発生した場合に、さらに
イベント情報と撮影時刻情報とに基づいて映像重要度が
計算される。被写体そのものの重要度だけでなくイベン
トの重要度に応じた映像の表示が実現されるので、同じ
被写体を撮影した映像であっても、イベントが撮影され
た映像の映像重要度がより高くなり、その映像の重要性
が高いことがわかるよう表示することができる。よっ
て、素早く的確なイベントの観察ができる。
撮影時刻情報とに基づいても前記映像重要度を計算する
ことができる。これにより、イベントの発生前後の状態
を含むイベントに関する情報のみに基づいたイベントの
観察が可能になる。
を示すブロック図である。
は、ライブ映像を映像の重要性に応じてグループに分割
し、複数の映像を表示するマルチ画面合成表示を行う
(図2(a)および(b))。その際、撮影された映像
に含まれる被写体に被写体重要度を設定し、被写体情報
に基づいて映像全体の映像重要度を決定する。重要な被
写体ほど映像重要度に与える影響が大きい。したがって
その被写体を含む映像であれば、重要度の高い映像とし
て強調表示等を施すことによって他の映像と識別できる
よう自動的に表示レイアウトを決定し表示することがで
きる(図3(a)および(b)、図18(a))。
置の構成および動作 (a)本実施の形態における映像表示装置の構成 映像表示装置10は、複数のカメラ11a〜11nと、
映像情報取得部12と、被写体情報管理部13と、被写
体情報格納部14と、映像重要度計算部15と、表示制
御部16と、表示部17とを含む。
を撮影し、撮影した映像を映像情報取得部12に送信す
る。複数のカメラ11a〜11nは、撮影方向、範囲あ
るいは設置位置等が固定されていても、可動であっても
よい。以下では、映像情報は、複数のカメラ11a〜1
1nからそれぞれ送信される複数の映像情報であるとし
て説明するが、単一のカメラからの複数の映像情報であ
っても、単一のカメラからの単一の映像情報であっても
よい。
し、表示制御部16へ取得した映像情報を供給するため
に設けられている。映像情報取得部12は、複数のカメ
ラ11a〜11nから映像情報を受け取る。映像情報取
得部12は、さらに表示制御部16からどの映像情報を
選択すべきかを選択する選択指示命令を受け取る。映像
情報取得部12は、選択指示命令に基づいて、受け取っ
た映像情報から表示すべき必要な映像情報を選択し、表
示制御部16に送信する。映像情報取得部12のより詳
しい構成および動作は後述される。
理する。ここで「被写体情報」とは、撮影された空間に
存在する被写体と、被写体の重要性を表す被写体重要度
との対応関係を含む情報である(被写体情報については
図5を参照しながら後述する)。「被写体情報を管理す
る」とは、被写体情報管理部13がユーザ(オペレー
タ)からの被写体情報の変更を受け付け、新たな被写体
情報を設定し、あるいは設定された被写体情報を保持す
ることを表す。被写体情報管理部13は、設定された被
写体情報を被写体情報格納部14に送り、被写体情報格
納部14でその被写体情報を保持する。被写体情報管理
部13は、ユーザ(オペレータ)からの被写体情報の変
更を受け付けるために、被写体情報の編集機能を有す
る。編集機能は、テキストエディタ等のソフトウェア的
あるいはハードウェア的に被写体情報の設定を変更する
手段として提供される。テキストエディタ等を用いた場
合、オペレータは、設定の変更を対話的に行うことがで
きる。
部13から、設定された被写体情報を受け取り、格納す
る。被写体情報格納部14は、映像重要度計算部15に
被写体情報を提供する。被写体情報格納部14は、RA
M(Random Access Memory)ある
いはROM(Read Only Memory)に代
表される半導体メモリ、ハードディスク等の磁気記憶媒
体を用いた記憶装置、光ディスク等、公知のデータ記憶
手段であり得る。
度を計算するために設けられている。「映像重要度」と
は、被写体を含むその空間を撮影した映像の重要性を表
すその程度である。映像重要度計算部15は、被写体情
報格納部14から被写体情報を受け取り、受け取った被
写体情報に基づいて、映像重要度を計算する。映像重要
度計算部15は、計算した映像重要度を表示制御部16
へ送信する。映像重要度計算部15はさらに、映像重要
度が高い映像を撮影するカメラを、順に所定のグループ
に分類し、そのそれぞれのグループにグループIDを付
す。
なデータ処理、例えば映像の表示位置の決定や合成処理
等を行う。表示制御部16は、映像重要度計算部15か
ら計算された映像重要度を受け取る。続いて表示制御部
16は、受け取った映像重要度に基づいて、映像情報取
得部12にどの映像情報を選択すべきかを選択する選択
指示命令を送り、その指示命令にしたがった映像情報を
受け取る。続いて表示制御部16は、映像の表示を制御
する。「映像の表示を制御する」とは、受け取った映像
重要度に基づいて、映像情報が表す映像をどのように表
示するかを決定することを表す。映像の表示の決定に
は、合成されて表示される映像の大きさや表示位置など
を計算し、適当な信号処理を行うことにより合成画面の
データを生成することが含まれる。表示制御部16は、
生成した合成画面のデータを表示部17に送信する。
装置である。表示部17は、モニタ等であり得る。
16の具体的な構成を、図40を参照して説明する。
表示制御部16(図1)の具体的な構成を示すブロック
図である。
もビデオマトリクススイッチャ401を含む。ビデオマ
トリクススイッチャ401は、表示制御部16からの指
定に基づいて、M個の入力映像信号から指定されたN個
の映像信号を表示制御部16に出力する(M≧N)。
クスボード402とマルチ画面オーバレイボード403
とを含む。グラフィックスボード402は、マルチ画面
オーバレイボード403において生成された合成画面デ
ータを受け取り、表示部17(図1)において表示する
映像データを生成する。マルチ画面オーバレイボード4
03は、映像情報取得部12からN個の映像信号と、映
像重要度計算部(図1)から映像重要度とを受け取る。
受け取ったN個の映像信号と映像重要度とに基づいて、
マルチ画面オーバレイボード403は、映像信号のそれ
ぞれを映像ウィンドウとして重畳表示するために映像の
大きさや表示位置などを計算する。計算して生成された
合成画面データはグラフィックスボード402に送信さ
れる。
イッチャ401、グラフィックスボード402およびマ
ルチ画面オーバレイボード403はいずれも製品化され
ており、これ以上の詳細な説明は省略する。
の動作 図4は、映像表示装置10(図1)の動作手順を表すフ
ローチャートである。
あらかじめ被写体情報格納部14(図1)に格納されて
いる被写体情報に基づいて、映像情報が表す映像の映像
重要度を計算する(ステップ40)。これにより、被写
体重要度の高い被写体を撮影しているカメラの映像はど
の映像でも、その被写体重要度に応じた映像重要度を有
することになり、定量的な判断の下、適切にその映像を
表示することができる。被写体情報を利用することによ
る大きな利点の一つは、1つの映像に複数の被写体が含
まれる場合である。別個の重要性を有する被写体が1つ
の映像に含まれていると、被写体の被写体重要度の関係
も考慮した上でその映像を表示する必要がある。被写体
ごとに被写体重要度を設定すると、そのような場合にも
自動的に適切な表示を実現することができる。例えば、
複数の被写体それぞれの被写体重要度の総和をその映像
の映像重要度とすることができる。以下、被写体情報と
映像重要度についてそれぞれ説明する。
報は、前述のようにカメラで撮影された空間に存在する
被写体と、被写体の重要性を表す被写体重要度との対応
関係を含む情報である。より詳しくは、被写体情報は、
被写体を識別するID、被写体の名称、種類、存在する
位置座標、被写体を撮影するカメラのカメラID、被写
体の重要度等が対応付けて記述される。必要に応じて備
考欄を設け、より特定的な情報を含めることもできる。
被写体情報は、例えばテキストファイルとして被写体情
報格納部14(図1)に格納され、被写体情報管理部1
3(図1)によって管理される。被写体情報に含まれる
いずれの情報も、その被写体の特性、性質等を特定でき
る情報であればその形式は問わない。例えば、被写体が
存在する位置座標は、緯度および経度によって表されて
いてもよいし、またはその住所等によってあらわされて
いてもよい。
す。映像重要度は、被写体情報に基づいて計算される。
映像重要度の計算は、例えば複数のカメラ11a〜11
n(図1)のそれぞれが撮影する空間に被写体情報に記
述された被写体が複数存在する場合、上述のように、複
数の被写体それぞれの被写体重要度の総和を、そのカメ
ラが撮影した映像の映像重要度とすることができる。あ
るいは、撮影する空間内の被写体の中で最大の被写体重
要度を持つ被写体の被写体重要度を、そのカメラが撮影
した映像の映像重要度とすることもできる。どのような
計算方法を用いるかは、撮影の目的、被写体の性質等に
応じて適宜変更され得る。図6に例示される映像重要度
は、カメラIDにより特定されるカメラの映像の重要性
と被写体の重要性とが対応していることを示す。なお、
本発明で用いられる映像重要度は、従来の映像表示装置
420(図42)で用いられていた表示優先順位情報
(図43)に対応する。ただし、本発明では、映像重要
度は被写体情報に記述された被写体重要度に基づいて計
算されるのに対し、従来の映像表示装置420(図4
2)では、カメラの撮影した映像の表示優先順位が、カ
メラに付属したセンサの計測値により決定される点が異
なる。
要度は、映像重要度計算部15(図1)の内部あるいは
外部の、図1には図示されないデータ格納部に格納され
る(ステップ41)。この図示されないデータ格納部
は、公知の半導体メモリやハードディスク等であり得
る。
1a〜11nのうち、表示すべき映像を撮影しているカ
メラグループのカメラ(たとえば4台)の映像情報を選
択し取得する(ステップ42)。これは、同一のグルー
プIDを有するカメラの映像情報を選択することである
といえる。映像情報の選択は、上述のように、表示制御
部16(図1)が映像重要度を受け取り、その映像重要
度に基づいて映像情報取得部12にどの映像情報を選択
すべきかを選択する選択指示命令を送ることにより実現
される。
び映像重要度に基づいて、受け取った映像情報の表示態
様を計算し、その結果を表示部17(図1)に送信する
ことによって表示する(ステップ43)。ここで、表示
規則とは、例えば優先順位に応じて表示部のどの位置
に、どのような大きさで、どれだけの時間表示すべきか
等を記述した映像を表示するに際して参照される規則で
ある。
って被写体情報が変更されたか否かについての判定が行
われる(ステップ44)。この判定は、図1には図示さ
れない中央演算部等の処理回路が行う。あるいはこの判
定は、映像重要度計算部15(図1)が定時的にあるい
は被写体情報管理部13(図1)からの入力があった際
に行ってもよい。
写体情報が変更されたと判定された場合には、表示制御
部16(図1)は映像の表示を中止し(ステップ4
5)、変更された被写体情報を被写体情報格納部14
(図1)に格納する(ステップ46)。その後、ステッ
プ40からの動作を繰り返し、変更された新たな被写体
情報から映像重要度が計算され、変更を反映させた表示
が再び行われる。ここで、被写体情報が変更される場合
とは、例えばある被写体が消滅した場合や、新たに被写
体が登場した場合、あるいは既に被写体情報に含まれて
いる被写体の被写体重要度が変化した場合等である。
写体情報が変更されたと判定されない場合には、続い
て、映像の表示を中止するよう指示されたか否かについ
ての判定が行われる(ステップ47)。この映像の表示
を中止する指示は、オペレータ等によって、外部から与
えられる。
合には、ステップ42からの動作を繰り返し、映像を表
示するために映像情報を取得する。この判定が複数回連
続する場合、取得される映像情報は、その直前に選択さ
れた映像の映像重要度の次に映像重要度が高い映像の映
像情報とされる。したがって、その次に映像重要度が高
い映像を提供しているカメラグループからの映像情報が
取得されることになる。なお、映像重要度が最低の映像
まで表示が終了すると、再び映像重要度が最高の映像が
表示される。
には、処理が終了し、映像の表示が中止される。
の動作が行われる。
は、さらに表示レイアウト部が含まれてもよい。表示レ
イアウト部(図示せず)は、例えば表示制御部16(図
1)の内部に設けられ、映像重要度計算部15(図1)
で計算された映像重要度に基づいて映像の表示レイアウ
トを決定するための表示レイアウト情報を作成する。
プを含む、映像表示装置10(図1)の動作手順を表す
フローチャートである。このフローチャートにおいて、
ステップ70、71は、図4のステップ40、41にそ
れぞれ対応し、ステップ73は図4のステップ42に対
応し、ステップ75〜78は、図4のステップ44〜4
7にそれぞれ対応するのでそれらの説明は省略する。そ
こで、ステップ72およびステップ74で行われる処理
について説明する。
要度計算部(図1)で計算された映像重要度に基づい
て、表示レイアウトを決定し、表示レイアウト情報を作
成する(ステップ72)。
表示レイアウト情報は、1グループが4台のカメラから
構成される複数のグループの映像を表示するために用い
られる情報である。表示レイアウト情報は、各カメラに
より撮影された映像が表示される表示時間、その映像を
撮影したカメラのカメラID、画面上の映像の表示位
置、表示サイズ(表示ウインドウの縦横のドット数)等
の情報を含む。
び表示レイアウト情報に基づいて映像情報が表す映像を
表示する(ステップ74)。図4のステップ43では、
映像表示装置10(図1)は表示規則および映像重要度
に基づいて映像を表示していたが、表示レイアウトをあ
らかじめ決定しておくことにより、より高速な映像表示
処理が実現できる。
の映像の表示 以下では、映像表示装置10(図1)の処理動作により
表示部17(図1)に表示される映像の表示態様につい
て説明する。
10(図1)の処理動作により表示される映像の態様の
一例を示す。この表示は、例えば観光案内等で、著名な
建築物の映像を所定の順序で視聴したい場合に有用な表
示である。
の建築物を撮影した映像が表示される(図2(a))。
このように表示されるのは、被写体たる公共施設関連の
建築物それぞれには高い被写体重要度が設定されおり、
その公共施設を撮影した映像の映像重要度が高くなった
(ここでは重要度第1番目)からである。その後、重要
度第nグループの住宅関連の建築物を撮影した映像が表
示される(図2(b))。公共施設関連の建築物に設定
された被写体重要度と比較すると、住宅関連の建築物に
設定された被写体重要度は小さい。そのため、住宅関連
の建築物を撮影した映像の映像重要度も比較的小さくな
り(ここでは重要度第n番目)、公共施設関連の建築物
よりも遅く住宅関連の建築物が表示される。
撮影した映像の映像重要度にも差があることに鑑み、映
像を表示する位置にも差を設けている。
像の表示位置を示す例である。
度が最も高い映像は画面の左上に、映像重要度が最も低
い映像は画面の右下に表示される。図3(a)は図2に
示す画面を4分割した場合の映像の表示例である。図3
(b)は、画面を9分割した場合の映像の表示例であ
る。画面のどの位置にどの映像重要度の映像を表示する
かは適宜決定し、表示規則として規定することができ
る。さらには、所定数の映像重要度が高い映像をより大
きく、残りの映像はより小さく表示するという表示規則
を規定することも可能である(図18(a)参照)。オ
ペレータの指示により対話的に各グループの表示を選択
し切り替えることも可能である。
8)で説明した表示時間等も併せて規定することができ
る。したがって、重要度の高いグループほど表示される
時間が長く設定すること等が可能である。例えば、最も
重要度の高いグループは60秒、2番目は50秒、3番
目は40秒と設定することができる。
ータは、映像表示装置10(図1)を動作させるために
中央演算装置(図示せず)で実行されるソフトウェアプ
ログラム内に書きこまれている(以下、「ハードコーデ
ィングされている」という)、あるいは変更可能なパラ
メータ記述ファイル等を別に設け、そのパラメータを随
時参照することにより、変更を反映した表示を実現する
ことが可能である。さらには表示規則全体を、自然言語
に近い表現で、エンドユーザが簡易に記述できる言語で
あるスクリプト等で記述し、スクリプトファイルとして
変更できるようにすることで、多くのバリエーションを
もった表示の仕方から選択することができる。
る映像表示装置10(図1)によれば、被写体それぞれ
の被写体重要度を含む被写体情報に基づいて、映像の映
像重要度が計算され、その映像重要度に基づいて映像が
表示される。したがって、映像に含まれる被写体の重要
性に応じた映像の表示が可能になる。オペレータは、被
写体の重要度を決定するだけで被写体の重要性に応じた
映像の表示をさせることができるので、表示レイアウト
を決定する煩雑な手間が不要になり、かつ客観性のある
映像表示を得ることができる。さらに、表示規則を規定
することにより、オペレータは重要なグループほど長時
間観察でき、画面内でも決められた重要度の配置でみる
ことができるといった、柔軟な映像表示が実現される。
ても静止画であってもよく、さらにはそれらの混在であ
ってもよい。
を示すブロック図である。
は、映像情報は、複数のカメラから入力される映像情報
を直接用いるのではなく、記憶装置に蓄積された映像情
報を用いて映像の表示を行う。
に、映像を撮影した位置を視覚的に理解するために地図
を用い、地図上の対応する位置の近傍にその撮影された
映像を表示する(図10(a)、(b)および
(c))。実施の形態1で説明したように、映像の表示
はさらに被写体情報に基づいて計算された映像重要度を
用いて重要な映像から順に表示するよう行われる。した
がって、実施の形態1において説明した映像表示装置1
0(図1)で得られた利点も全て得ることができる。
置の構成および動作 (a)本実施の形態における映像表示装置の構成 映像表示装置90は、複数のカメラ11a〜11nと、
映像情報取得部12と、被写体情報管理部13と、被写
体情報格納部14と、映像重要度計算部15と、表示制
御部16と、表示部17とを含む。映像表示装置90は
さらに、映像情報格納部93と、地図情報格納部94
と、地図情報読み出し部95と、操作部96とを含む。
うち、映像表示装置10(図1)の構成要素と同一の符
号が付された構成要素については、映像表示装置10
(図1)の構成要素の構成および機能と同一であるので
その説明は省略する。したがって、以下では、映像情報
格納部93と、地図情報格納部94と、地図情報読み出
し部95と、操作部96とについて説明する。映像表示
装置10(図1)と異なる動作または追加の動作が行わ
れる場合には、その都度説明する。
は、映像情報入力部91と、映像情報読み出し部92と
を含む。映像情報入力部91には、カメラ11a〜11
nからの映像情報が入力される。映像情報入力部91
は、入力された映像情報を映像情報格納部93に格納す
る。映像情報読み出し部92は、映像情報格納部93に
格納された映像情報を読み出し、表示制御部16に送信
する。どの映像情報を選択して読み出すかは、実施の形
態1において説明したように表示制御部16からの選択
指示命令に基づく。
じめ格納しておくために設けられている。映像情報格納
部93は、映像情報入力部91から映像情報を受け取
り、その映像情報を格納する。映像情報格納部93に格
納される映像情報は、複数の位置で複数のカメラによっ
て撮影された複数の映像情報であり得る。映像情報格納
部93は、被写体情報格納部14と同様、RAMあるい
はROMに代表される半導体メモリ、ハードディスク等
の磁気記憶媒体を用いた記憶装置、光ディスク等、公知
のデータ記憶手段であり得る。映像情報格納部93は、
映像情報読み出し部92からの読み出し信号に基づいて
所定の映像情報を読み出し、映像情報読み出し部92に
送信する。
施の形態による映像表示装置90では、実施の形態1の
ようにカメラ11a〜11nからの映像情報が直接表示
に利用されるのではなく、一旦映像情報格納部93に格
納され、必要な情報が適宜表示に利用される。
割を果たす地図情報をあらかじめ格納しておくために設
けられている。地図情報格納部94は、映像が撮影され
た位置を視覚的に表示するための地図に関する地図情報
を格納する。地図情報格納部94は、図示されない適当
な入力手段からあらかじめ地図情報を受け取り、受け取
った地図情報を格納する。地図情報格納部94は、地図
情報読み出し部に地図情報を提供する。
み出すために設けられている。地図情報読み出し部95
は、表示制御部16から地図読み出し命令を受け取り、
それに応じて地図情報格納部94から地図情報を読み出
す。地図情報読み出し部95は、読み出した地図情報を
表示制御部16に送信する。
レータからの指示を受けて重畳表示された映像を選択的
に表示するために、または他の映像を表示するよう指示
するために用いられる。操作部96は、例えばキーボー
ド、マウス、タッチパネル等公知の入力手段であり得
る。
納部93および地図情報格納部94は別々の記憶装置で
あっても、同一の記憶装置(例えばハードディスク)内
の別々の位置の領域であってもよい。
の動作および映像表示例 図11は、映像表示装置90(図9)の動作手順を表す
フローチャートである。
写体情報と映像管理情報とに基づいて映像重要度を計算
する(ステップ110)。より詳しくは、映像重要度
は、映像に含まれる被写体の位置座標およびその映像を
撮影したカメラの位置座標とに基づいて計算される。
「映像に含まれる被写体の位置座標」は、被写体情報
(図5)に含まれている。「その映像を撮影したカメラ
の位置座標」は、映像管理情報に含まれている。映像管
理情報は、映像重要度計算部15(図1)の内部あるい
は外部の、図9には図示されないデータ格納部に格納さ
れる。
管理情報は、複数の映像情報それぞれの特性を記載した
管理情報である。映像管理情報は、映像ID、映像の種
類(動画か静止画か、映像の解像度、符号化方式等)、
カメラそれぞれに割り当てられたカメラID、映像のフ
ァイル名、映像を撮影した時刻、映像を撮影した撮影位
置、映像重要度等を含む。映像重要度は、以下で述べる
ステップ111において格納される。
る。映像重要度計算部15は、被写体情報(図5)に記
述された被写体の位置と映像管理情報(図12)に記述
された撮影位置とを比較する。比較の結果、その差が一
定範囲内にあれば(すなわち被写体とカメラとが一定距
離内にあれば)、映像重要度計算部15は、カメラがそ
の被写体あるいはその近傍を撮影していると推定するこ
とができる。複数の被写体が存在する場合には、映像重
要度計算部15は、そのそれぞれについて上述した比
較、推定を行うことにより、カメラがどの被写体を撮影
しているかを推定できる。映像重要度計算部15は、カ
メラが撮影していると推定される被写体の被写体重要度
の総和を求めることにより、または被写体の被写体重要
度の最大値を採用することにより映像重要度を得ること
ができる。
算された映像重要度は、映像管理情報の一部として映像
管理情報に格納される(ステップ111)。
報読み出し部95(図9)を介して地図情報格納部94
(図9)に格納された地図情報を読み込み、読み込んだ
地図情報に基づいてその地図情報が表す地図を表示部1
7(図9)に表示する(ステップ112)。このとき、
地図表示情報が、表示制御部16(図9)の内部あるい
は外部の、図9には図示されないデータ格納部に格納さ
れる。地図表示情報とは、地図の表示範囲や縮尺等、表
示されている地図の特性を表す情報である。
情報とに基づいて、映像情報を読み出す(ステップ11
3)。より詳しくは、表示制御部16は、地図表示情報
に記述されている地図の表示範囲に存在する撮影位置
(単数または複数)を特定し、その撮影位置のカメラか
らの映像を、例えば映像重要度の高い順にN個選択す
る。表示制御部16は、選択した映像情報を、映像情報
読み出し部92(図9)を介して映像情報格納部93
(図9)から読み出す。なお、映像は映像重要度の高い
順にN個選択されるとしたが、これは表示規則によって
変更することができる。
要度に基づいて、読み出した映像情報を実際の撮影位置
に対応する地図上の位置の近傍に表示する(ステップ1
14)。
て表示された映像を示す。
像を表示する例を示す。各映像と、各映像が撮影された
位置とが視覚的に理解できるよう表示されているので、
状況が容易に把握できる。ここで、撮影位置が同一であ
る場合、または撮影位置が地図上で近い場合には、それ
ら複数の映像を一つのグループとして全て読み出し、例
えば撮影時刻の古い映像を代表映像として表示すること
ができる。このとき、例えば代表映像ウインドウの下に
重畳的に別のウインドウを表示することにより、オペレ
ータは他の映像が存在することを容易に把握することが
できる。
数同時に表示する例を示す。図10(b)に示される例
は、原則として図10(a)を参照して説明した例と同
じである。ただし、図10(a)の例では複数の映像が
表示される場合には代表映像1つを表示するとしたが、
本例では、その複数の映像を所定数毎に同時に表示する
点が異なる。表示すべき映像の指定は、所定のカメラで
撮影された映像である。オペレータは、カメラと同時表
示すべき映像とを指定することができる。なお図10
(a)の例で説明した代表映像のみの表示は、適当な操
作により本例の表示へと移行することができる。例え
ば、同じグループに属する他の映像を見たい場合は、地
図上で映像を指定してメニューを開き、メニューにある
“他の映像表示”を選択することにより実現される。
関連づけられて映像が表示されると、続いて地図の表示
を変更するようオペレータからの指示があったかが判定
される(ステップ115)。これは、オペレータが、操
作部96(図9)を介して地図のスクロールや縮尺変更
等の地図操作を行った場合である。この地図操作は、地
図の縮尺が大きすぎるので地域をより限定して映像を見
たい場合等に行われる。
合、表示制御部16(図9)は、映像の表示内容および
地図表示情報を変更する(ステップ116)。すなわ
ち、新たな地図に対応して表示すべき映像およびその地
図の縮尺等の地図表示情報を変更する。その後、処理は
ステップ112まで戻る。
(b)に示す日本全国の表示設定を、九州地方に変更し
て表示した例を示す。表示設定が変更されても、図10
(a)または(b)で説明したと同様の処理により映像
が表示される。したがって、新たに表示された地図範囲
に存在する重要度の高い映像が更新されて表示される。
な被写体あるいはその被写体の近傍を撮影した映像を、
地図上で撮影位置を把握しながら見ることができるとい
う視覚的効果を得ることができる。さらに、被写体の追
加や削除、被写体の重要度の変化に対しても被写体情報
を修正するだけで対応することができ、煩雑な表示レイ
アウト修正作業を省略することができる。さらに、撮影
した映像を一旦蓄積して使用するため、被写体を同じ重
要度で、または重要度を変更して、繰り返し複数の映像
を表示して観察することができる。
撮影位置と被写体の位置との間の距離だけで、カメラが
その被写体あるいはその近傍を撮影していると推定して
いる。しかしこの場合、距離は近くても被写体(撮影対
象)がカメラの撮影範囲に入っておらず、撮影されてい
ないという問題が起こり得る。この問題は、カメラの撮
影可能範囲に関する撮影範囲情報を映像管理情報(図1
2)に記述することにより解決される。撮影範囲情報に
は例えば、カメラの位置、方向およびズーム画角が記述
される。ここで「ズーム画角」とは、カメラが撮影する
ことができる範囲を示す角度である。カメラの位置、方
向およびズーム画角により被写体がカメラの撮影範囲に
存在するか否かを判断する手順を説明する。
ズーム画角と被写体の位置関係を示す。被写体がカメラ
の撮影範囲に存在するか否かは、幾何計算から求めるこ
とができる。すなわち、カメラ位置と被写体位置を結ぶ
直線とカメラ方向の直線が作る角度(Φ1およびΦ2)
を求め、その絶対値がズーム画角θの半分(θ/2)以
下であれば被写体は撮影範囲に存在すると判定すること
ができる。例えば、撮影範囲内にある被写体1は|Φ1
|<θ/2、撮影範囲外にある被写体2は|Φ2|>θ
/2である。したがって、被写体1は撮影範囲に存在す
るが、被写体2は撮影範囲に存在しない、と判定でき
る。
下のように求めることができる。
撮像される図を示す。図示されるように、焦点距離を
F、撮影素子の大きさをSとすると、
できる。
きさを表す外接多角形情報を記述することによって、被
写体がそのカメラにどれくらいの大きさで撮影されるか
を計算することができる。外接多角形情報とは、被写体
の形状が複雑であったり曲線部分を含むような場合、そ
の被写体の存在領域を近似的に表すために用いられる、
その被写体に外接する2次元または3次元の多角形の情
報をいう。
状態を示す。
(文字「A」)が存在する場合を示す。文字「A」の外
接多角形情報は、図示されるように文字「A」に外接す
る長方形である。このとき図示されるように、被写体は
映像の中央部に存在する。図15(b)は、撮影範囲の
一部(撮影範囲の下方)に被写体(文字「A」)が存在
する場合を示す。このとき、撮影された映像の下方に被
写体が存在する。なお、実際には被写体の全体は表示さ
れないが、撮影面と被写体との関係を明確にするために
被写体の全体を図示している。
合に、被写体がどの程度写っているかを定量的に計算す
る手順を以下に説明する。例えば図14に示されるよう
に、まず撮影面を(X−Y)平面とする。つづいて被写
体の近傍に存在しカメラの撮影方向に直交する(x−
y)平面を考え、この(x−y)平面に被写体の外接多
角形を射影する。ここで、(x−y)平面と撮影方向が
交わる点を(x−y)平面の原点とする。この(x−
y)平面において、射影した外接多角形の1つの頂点座
標を(x0,y0)とすると、その頂点に対応する撮影
面(X−Y平面)上の点の座標(X0,Y0)は、
被写体が射影された平面(すなわちx−y平面)までの
距離を表す。(x−y)平面は被写体の近傍に存在する
ので、被写体の位置情報を、レンズから(x−y)平面
までの距離として利用してもよい。このような手順によ
れば、外接多角形の頂点に対応する撮影面上での座標を
得ることができる。座標が得られると、その座標によっ
て囲まれる撮影面上の多角形の面積と、撮影面の面積と
の比を算出し、撮影面に占める被写体の割合を近似的に
求めることができる。
5(b)に例示したように、カメラの撮影範囲と被写体
の存在位置との関係で被写体の一部しか撮影されていな
い場合には、被写体がカメラに写る割合(面積比)と被
写体の被写体重要度とを乗算した値をその映像の映像重
要度とすれば、被写体重要度の高い被写体がよく写って
いる映像を高い映像重要度を持つ映像として優先的に表
示することができる。
範囲が固定されたカメラだけでなく、移動カメラや首振
りカメラで撮影した動画であっても、各画像フレーム毎
に撮影範囲情報を記述しておくことにより、重要な被写
体が写っている動画部分のみを抜き出して優先的に表示
することができる。
て上述した映像の表示態様は一例であり、表示規則を適
当に変更することによってより柔軟な映像表示を実現す
ることができる。上述した例(2−2.(b))で表示
規則として規定していたのは、表示されるのが重要度の
高いN個の映像であること、地図上での映像の表示位置
は撮影位置の近傍とすること、同じ位置またはかなり近
い位置で撮影した映像のグループは撮影時刻の古いもの
から表示すること、および同一のグループに属する映像
のうち、代表映像以外の映像をオペレータの操作により
選択的に表示することである。しかし、例えば、閾値以
上の映像重要度を有する映像すべてを表示したり、閾値
以上でN個を超えない映像を表示する等の表示規則が適
用でき、オペレータの目的に応じて使い分けることがで
きる。
像を、例えばカメラの形をしたアイコンとして表示され
た地図上の撮影位置近傍に表示し、オペレータが地図上
でそのカメラアイコンを選択して映像表示を指示するよ
うにすれば、どのような映像重要度であっても任意の映
像を簡単な操作により見ることができる。
構成を示すブロック図である。
は、映像の重要性に応じて複数の映像を表示する。映像
の重要性は、映像に含まれる被写体に設定された被写体
重要度に基づいて決定される。映像表示装置160は、
映像の表示中であっても被写体重要度を変更することが
でき、その変更を映像の表示にリアルタイムに反映させ
る。例えば、プラント監視において燃料バルブのセンサ
からアラームが発生すると、オペレータや運転制御を行
う外部モジュールからの指示により、燃料バルブ付近に
存在する被写体や燃料系の被写体の被写体重要度を上
げ、その被写体を含む映像重要度を上げる。これによ
り、その近辺や系統的に繋がりのある被写体が優先的に
表示される。
置の構成および動作 (a)本実施の形態における映像表示装置の構成 映像表示装置160は、複数のカメラ11a〜11n
と、映像情報取得部12と、被写体情報管理部13と、
被写体情報格納部14と、映像重要度計算部15と、表
示制御部16と、表示部17とを含む。映像表示装置1
60はさらに、入力部161および/または外部モジュ
ール162とを含む。
のうち、映像表示装置10(図1)の構成要素と同一の
符号が付された構成要素については、映像表示装置10
(図1)の構成要素の構成および機能と同一であるので
その説明は省略する。したがって、以下では、入力部1
61と外部モジュール162とについて説明する。映像
表示装置10(図1)と異なる動作または追加の動作が
行われる場合には、その都度説明する。
を修正、変更して設定するための入力装置である。入力
部161は、例えばキーボード等であり得る。入力部1
61から変更、設定される被写体情報は被写体情報管理
部13に送信される。
計算するシミュレータ等であり、運転制御を行う。外部
モジュール162から変更、設定される被写体情報は被
写体情報管理部13に送信される。
よび/または外部モジュール162から被写体情報を変
更するよう指示を受け取り、さらに新たな被写体情報を
受け取る。被写体情報管理部13は、受け取った新たな
被写体情報を対応する前の被写体情報にかえて被写体情
報格納部14に格納する。なお被写体情報の変更指示
は、新たな被写体情報と別個に受け取られるのではな
く、被写体情報管理部13が新たな被写体情報を受け取
ったときに与えられたとみなしてもよい。
の動作および映像表示例 図17は、映像表示装置160(図16)の動作手順を
表すフローチャートである。このフローチャートに示さ
れたステップのうち、被写体重要度に基づいて映像重要
度を計算し、映像情報が表す映像を表示するステップ1
70〜173は、図4を参照して説明したフローチャー
トのステップ40〜43とそれぞれ同じであるので、そ
の説明は省略する。
写体情報管理部13(図16)によって変更されたか否
かが判定される。
6)によって変更されたと判定されると(すなわち入力
部161(図16)または外部モジュール162(図1
6)から被写体重要度を変更するよう指示を受け取った
被写体情報管理部13(図16)が、所定の被写体情報
を受け取った新たな被写体情報に変更すると)、被写体
情報管理部13(図16)は、新たな被写体情報を被写
体情報格納部14(図16)に格納する(ステップ17
5)。映像重要度計算部15(図16)は、変更された
新たな被写体情報に基づいてリアルタイムかつ自動的に
映像重要度を変更し、表示する映像を変更する。これは
ステップ175に続いて、ステップ170〜173が次
々実行されることにより実現される。
6)によって変更されていないと判定されると、変更の
指示があるまで待機し、映像の表示を続行する。なお、
被写体情報の変更指示があるまでステップ172〜17
4からの処理を繰り返すことにより、映像の表示を次々
に行うことができる。これは、図4に示されるステップ
42〜44およびステップ47の処理を繰り返し行うこ
とと同じである。
ても静止画であってもよく、さらにはそれらの混在であ
ってもよい。表示する表示規則に基づいて、映像が表示
されるのは既に説明したとおりであるが、その表示規則
は任意に変更しうる。
表示中であっても、被写体情報管理部13(図16)
は、入力部161(図16)や外部モジュール162
(図16)からの要求に従い、被写体情報に含まれる被
写体重要度を変更する。表示制御部16(図16)は、
被写体情報の変更が反映された結果変更された映像重要
度に応じて、複数の映像の表示を自動的に変更する。し
たがって、注目すべき被写体の種類や位置などが状況に
応じて変化する場合でも、映像重要度の高い映像が自動
的に選択表示され、オペレータは素早く的確な被写体観
察ができる。言うまでもなく、実施の形態1で説明した
映像表示装置10(図1)の効果も得ることができる。
時間を変化させ、または複数の映像のうちN個の映像を
選択して表示した。本実施の形態では、映像重要度に従
って、映像の表示サイズを変更し、または映像を表示す
るウインドウの枠の太さや色を変更する強調表示の度合
いを変化させる。
の形態1〜3で説明した映像表示装置のいずれでもよ
い。映像表示装置10、90、160(図1、9、1
6)は、表示する映像の映像重要度に応じて以下のよう
に映像を表示する。
サイズを大きくする表示画面の例を示す。
像表示装置10(図1)を用いて映像を表示させた例を
示す。表示画面は10分割され、映像重要度が最も高い
映像と2番目に高い映像とが画面の上半分に、その他の
映像が画面の下半分に表示されている。画面の上半分に
表示された映像の表示サイズは、他の映像の表示サイズ
の例えば4倍である。
像表示装置90(図9)を用いて映像を表示させた例を
示す。撮影された位置に対応する地図上の位置に表示さ
れる映像のうち、映像重要度が大きい順に2つの映像が
拡大されて表示され、映像重要度が小さい映像ほど、小
さく表示されている。
像表示装置90(図9)を用いて映像を表示させた例を
示す。撮影された位置に対応する地図上の位置に表示さ
れる映像のうち、映像重要度が大きい映像ほど、映像を
表示するウィンドウの枠が太く、色が濃く表示されてい
る。
度(表示サイズ)を変更するための表示規則の例を示
す。図18(a)〜(c)で用いられた映像表示装置1
0、90、160(図1、9、16)の表示制御部16
(図1、9、16)は、このような表示規則と映像重要
度とを用いることによって、上述のような映像の表示を
実現することができる。
表示サイズをより大きく表示するための表示規則であ
り、例えば1番目の映像重要度の映像を表示するサイズ
は480×320ドット、2番目は450×300ドッ
トなどと規定している。
表示ウィンドウの枠を太く、色を変更して表示する規則
であり、例えば、1番目はのウィンドウ枠は3ポイント
の赤色、2番目は2.5ポイントの橙色などと規定して
いる。色は目立つ色から順に用いられるようにしてもよ
い。なお、上述した強調表示の表示規則は一例にすぎ
ず、他の例として、重要な映像のウィンドウ枠をブリン
ク表示する、重要な映像のコントラストや輝度を上げる
等、オペレータが映像表示装置10、90、160(図
1、9、16)を利用する目的に応じてさまざまな表示
規則を規定し、変更することができる。
像は、動画であっても静止画であってもよく、さらには
それらの混在であってもよい。
規則と映像重要度とに基づいて、表示制御部16(図
1、9、16)が映像の強調表示の度合いを変化させて
表示するようにしたので、重要な映像ほど大きく表示す
る、または重要な映像を表示するウインドウの枠の色を
目立つようにする等、被写体の重要性をより意識して観
察することができる。
でもよかったが、本実施の形態では、映像は動画であ
る。本実施の形態では、映像重要度が高い映像ほど映像
の品質を高くして表示する。
の形態1〜4で説明した映像表示装置のいずれでもよ
い。映像表示装置10、90、160(図1、9、1
6)は、表示する映像の映像重要度に応じて以下に説明
する映像を表示する。
映像の表示品質を変更するための表示規則の例を示す。
像重要度とこの表示規則とに基づいて映像を表示する。
例えば、1番目の映像重要度の映像を表示する表示品質
は、30フレーム/秒で解像度が480×320、2番
目は25フレーム/秒の450×300、…となる。フ
レームレートが高いほど滑らかな動きを表示することが
でき、解像度が高いほど映像を緻密に表示することがで
きる。周知のように、動画は、時間的に連続した複数の
画像フレームを表示したときに実現される。
制御部16(図1、9、16)は表示規則および映像重
要度に基づいてフレームレートや解像度等の映像品質の
度合いを変化させて表示するよう映像の表示を制御す
る。したがって映像重要度の高い映像(すなわち重要な
映像)がより見やすくかつ緻密に表示されるので、オペ
レータは自然と重要な映像を注視することができる。さ
らに、比較的映像重要度が低い映像(すなわち比較的重
要でない映像)は画像フレームが間引かれて表示される
ので、映像表示装置10、90、160(図1、9、1
6)にかかる表示処理の負荷は軽くなり、比較的安価な
処理回路を用いても映像表示装置10、90、160
(図1、9、16)を製造することができる。したがっ
て、映像表示装置10、90、160(図1、9、1
6)の製造コストを低く抑えることができる。
graphic ExpertsGroup)のような
フレーム間符号化のない符号化方式を用いて圧縮・記録
されている場合は、フレームレートに合わせて必要な映
像情報だけを効率的に読み出すことができる。さらに本
発明による映像表示装置90(図9)を用いると、映像
情報格納部93(図9)に同じ映像を異なる解像度で、
または映像の低周波数成分から高周波数成分を何段階か
に分けて符号化(階層的符号化)して、映像情報を格納
しておき、表示に際して必要な解像度の映像情報のみを
読み出すようにすることができる。これにより、読み出
し処理の負荷を軽くすることができる。なお、階層的符
号化は公知の技術であり、本発明の本質ではないので説
明は省略する。なおJPEGが静止画に多く利用される
符号化であることを鑑みると、本実施の形態の説明は、
動画のみではなく静止画にも応用することができる。静
止画を利用する場合には、フレームレートに関する条件
を無効にし、解像度のみを有効にすればよい。
90、160(図1、9、16)では、その装置が有す
る映像の読み出し速度、表示性能等の処理能力に応じ
て、その表示能力を超えないよう映像に表示品質を設定
することにより、その装置が有する能力を最大限使った
品質のよい複数の映像を表示することができる。
構成を示すブロック図である。
は、実施の形態5で説明したと同様、映像重要度が高い
映像ほど映像の品質を高くして表示する。ただし、本実
施の形態の映像表示装置210は、映像を映像情報とし
て受け取り、格納し、ネットワークを介してその映像情
報を配信する映像サーバ211と、ネットワークから映
像情報を受信し、表示する映像表示端末212とを含む
一体的な装置である。映像サーバ211は、映像表示端
末212から所定の映像品質の映像情報を送信するよう
要求されると、その映像品質で映像情報を映像表示端末
212に送信する。
置の構成および動作 (a)本実施の形態における映像表示装置の構成 映像表示装置210は、複数のカメラ11a〜11n
と、映像サーバ211と、映像表示端末212とを含
む。映像サーバ211は、映像情報を格納する映像デー
タベース的な役割を果たし、要求に応じて保持している
映像情報を提供する。映像表示端末212は必要な映像
情報を映像サーバ211に要求し、受け取った映像情報
を表示する。
映像は、映像情報として映像サーバ211へ送信され
る。映像サーバ211は、複数のカメラ11a〜11n
から送信された映像情報を受け取って蓄積し、映像表示
端末212からの要求に応答して、映像情報を映像表示
端末212へ送信する。映像表示端末212は、映像サ
ーバ211へ映像情報の送信を要求し、送信された映像
情報を受け取った後、その映像情報が表す映像を表示す
る。
と映像情報格納部23と送受信部213とを含む。
のうち、映像表示装置10(図1)および映像表示装置
90(図9)の構成要素と同一の符号が付された構成要
素については、映像表示装置10(図1)および映像表
示装置90(図9)の構成要素の構成および機能と同一
であるのでその説明は省略する。既に説明した動作と異
なる動作または追加の動作が行われる場合には、その都
度説明する。
2から送信された所定の映像情報の送信要求を送受信部
213を介して受け取り、その映像情報を映像情報格納
部93から読み出す。映像情報取得部12は、読み出し
た映像情報を送受信部213を介して映像表示端末21
2に送信する。映像情報格納部93には、同じ映像を表
すが異なる表示品質の映像情報が複数格納されている。
送受信するための機能を有する。送受信部213は、映
像表示端末212から送信された映像情報送信要求その
他の情報を受信し、映像情報取得部12へ送信する。送
受信部213は、映像情報取得部12から映像情報その
他の情報を受け取り、映像表示端末212へ送信する。
送受信部213は、映像サーバ211をネットワーク回
線等の情報通信媒体に接続する。
と、被写体情報管理部13と、被写体情報格納部14
と、映像重要度計算部15と、表示制御部16と、表示
部17とを含む。
計算部15において計算された映像重要度とに基づい
て、表示すべき映像の映像品質を決定する。表示制御部
16は、送受信部214を介して、その映像品質を有す
る映像情報の送信を映像サーバ211に要求する。映像
表示部16は、送受信部214を介して、映像サーバ2
11から送信された映像情報を表示するよう表示を制御
する。
送受信するための機能を有する。送受信部214は、表
示制御部16から映像情報送信要求その他の情報を受け
取り、映像サーバ211へ送信する。送受信部214
は、映像サーバ211から送信された映像情報その他の
情報を受信し、表示制御部16へ送信する。送受信部2
14は、映像表示端末212をネットワーク回線等の情
報通信媒体に接続する。
の動作および映像表示例 図22は、映像表示装置210(図21)の動作手順を
表すフローチャートである。
テップ220)および計算した映像重要度の格納(ステ
ップ221)については、図4のステップ40および4
1と同じであるのでその説明は省略する。
21)は、映像重要度および表示規則に基づいて表示す
べき映像の表示品質を決定する。表示品質とは、実施の
形態5に関連して説明したように、映像重要度に応じて
決定される動画のフレームレートおよび解像度(図2
0)を表す。映像の表示品質を決定すると、表示制御部
16(図21)は、その映像の映像情報の送信を映像サ
ーバ211(図21)に要求する。この要求は、表示す
べき映像の映像IDおよびその映像の映像品質を送信す
ることによって行われる。送信を要求される映像情報
は、1つに限らず、表示可能な数の映像に対応する複数
の映像情報であり得る。
(図21)が要求された映像情報を読み出し、映像表示
端末212(図21)に送信する。映像表示端末212
(図21)の表示制御部16(図21)は、送信されて
きた映像情報を受信する。なお映像情報の受信は静止画
であれば1度で終了するが、動画の場合には以下に説明
するステップが行われている間にも連続して行われるこ
とがあり得る。
21)は、表示規則に基づいて受信した映像情報が表す
映像を表示する。本実施の形態は映像の表示品質に関し
ているので、実施の形態1〜4に説明した表示態様と組
み合わせることで、実施の形態1〜4で説明したと同じ
効果を得ることができる。なお、実施の形態1〜4で説
明した映像表示装置には、本実施の形態で説明した映像
表示装置210(図21)には示されていない構成要素
が含まれている場合がある。その場合であっても、全く
同様の構成要素を映像表示装置210(図21)に設け
ればよい。
16(図21)は、オペレータ等から映像の表示を終了
する指示を受け取ったか否かが判定される。この映像の
表示を中止する指示は、オペレータ等によって、外部か
ら与えられる。
ない場合には、再びステップ222からの処理を繰り返
し、映像の表示を続行する。例えば、本実施の形態によ
る映像表示装置210(図21)に実施の形態1にかか
る映像表示装置10(図1)と同様の表示パターンで映
像の表示を行わせる場合には、スムーズかつ高い解像度
で表示された映像重要度の高い映像のグループから、間
引かれかつ低い解像度で表示された映像重要度の低い映
像のグループへと表示時間を変えながら映像が繰り返し
表示されることになる。
合には、映像の表示を終了する。
制御部16(図21)は表示規則および映像重要度に基
づいてフレームレートや解像度等の映像品質の度合いを
変化させて表示するよう映像の表示を制御する。したが
って映像重要度の高い映像(すなわち重要な映像)がよ
り見やすくかつ緻密に表示されるので、オペレータは自
然と重要な映像を注視することができる。さらに、比較
的映像重要度が低い映像(すなわち比較的重要でない映
像)は画像フレームが間引かれて表示されるので、映像
表示装置210(図21)にかかる表示処理の負荷を軽
くすることができ、比較的安価な処理回路を用いても映
像表示装置210(図21)を製造することができる。
したがって、映像表示装置210(図21)の製造コス
トを低く抑えることができる。表示規則は、目的に応じ
て適切に変更することができる。
表示端末212(図21)とがネットワークで接続され
た構成であっても、ネットワーク上は表示に必要な映像
品質の情報しか伝送されないため、ネットワーク資源や
サーバおよび端末の計算機資源を有効に利用することが
できる。それらの資源が有する伝送帯域や処理速度等の
性能に応じてその性能を超えないよう映像に映像品質を
設定することにより、そのネットワークベースの映像表
示装置210(図21)が有する能力を最大限使った品
質のよい複数の映像を表示することができる。
は同じ映像を表す異なる表示品質の映像情報が複数格納
されているとしたが、1つの高解像度映像を格納し、解
像度を適宜変換して必要な表示品質の映像にしてもよ
い。そのためには、読み出した符号化データを、その直
交変換領域(JPEGの場合は離散コサイン変換した周
波数領域)を維持したまま解像度を下げる等の幾何変換
を行う公知のアルゴリズムを利用することが好ましい。
このアルゴリズムは、映像サーバ211(図21)に高
解像度映像をJPEG等の圧縮符号化して記録され、そ
の後読み出された符号化データに対して適用される。読
み出された符号化データは幾何変換により解像度の低い
符号化データに変換され、伝送される。このアルゴリズ
ムによれば、一度イメージデータに復号化して解像度を
低下させ、その解像度が低い映像を再度符号化する場合
に比べ、処理時間は大幅に短縮される。さらに、同じ映
像を表す表示品質の異なる複数の映像情報を格納する領
域を設ける必要がなくなり、有効に記憶領域を利用する
ことができる。
それぞれに着目する。すなわち、1枚の画像フレームの
映像を、例えばそれぞれ1つの被写体を含む複数の領域
(部分空間)に分割し、部分空間それぞれを異なる態様
で強調して表示する。複数の画像フレームそれぞれに同
様の処理を施すことにより、映像に含まれるそれぞれの
被写体を強調して表示することできる。
の形態1〜6で説明した映像表示装置のいずれでもよ
い。映像表示装置10、90、160、210(図1、
9、16、21)の表示制御部16は、表示する映像の
映像重要度に応じて以下のように映像の表示を制御す
る。
と、本実施の形態による処理を施されて表示された被写
体の例を示す。3つの被写体「A」、「B」および
「C」に設定された被写体重要度は、それぞれ0.8、
1.0および0.6とする。撮影された映像は、画像フ
レームの映像毎に複数の部分領域に仮想的に分割され、
被写体「A」、「B」および「C」はそれぞれ別個の部
分空間に存在する。
よび「C」が存在する部分領域の映像重要度に応じて、
表示される被写体を囲む枠の色を変えて映像を表示させ
た例を示す。図23(a)では、被写体「B」が写って
いる中央の領域を濃い色の枠で囲い、被写体「A」また
は被写体「C」が写っているその左右の部分領域をより
薄い色の枠で囲む。枠の色は、その部分領域の映像重要
度に基づいて決定される。部分領域の映像重要度は、映
像重要度計算部15(図1、9、16、21)によっ
て、映像が表示されるその瞬間瞬間の画像フレームの部
分領域それぞれについて計算される。映像重要度は、そ
の領域内に存在する被写体の被写体重要度に基づいて計
算される。以上のように画像フレームを部分領域に分割
し、その部分領域毎に映像重要度を規定したので、部分
領域毎に映像重要度に応じた濃さの枠で映像を部分領域
毎に強調して表示することができるようになる。
像は、動画であっても静止画であってもよく、さらには
それらの混在であってもよい。
よび「C」が存在する部分領域の映像重要度に応じて、
表示される被写体の表示品質を変えて映像を表示させた
例を示す。表示品質とは、動画の場合には実施の形態5
に関連して説明したように、映像重要度に応じて決定さ
れるフレームレートおよび解像度(図20)を表す。静
止画の場合には、その静止画の解像度等を表す。部分領
域毎の映像重要度の決定手順については図23(a)に
おいてした説明と同じである。図23(b)では、被写
体「B」が存在する中央の領域は一番映像品質を高く、
次に被写体「A」が存在する領域、その次は被写体
「C」が存在する領域と映像品質を下げている。部分領
域毎に映像の品質を変化させた符号化映像情報を生成す
ることができる符号化方式として、JPEG2000な
どが既に開発されているが、公知の技術であるため説明
は省略する。映像は、リアルタイムの映像であっても、
一旦映像情報格納部93(図9、21)に格納された映
像であってもよい。
体が存在するかについては、実施の形態2の変形例にお
いて図14、15を参照して説明したように、各画像フ
レームに対して撮影範囲情報と被写体情報に被写体の位
置と大きさを示す外接多角形等の情報とを用いて、幾何
的に計算することができる。
の映像の中で注目すべき箇所をより明確に表示すること
ができる。
対象としての建築物、設備、人物などの物体を主として
説明した。本実施の形態では、町名や番地等で指定され
る撮影対象空間の部分空間も、被写体として定義し、被
写体情報に記述する。観察対象として重要な町(映像重
要度が高い町)等を撮影した映像を優先的に表示するこ
と、またはオペレータが町名または番地で指示すること
により優先的に表示するという点では、例えば実施の形
態2の映像表示装置90(図9)と同様の意義を有す
る。
置の動作 本実施の形態において用いられる映像表示装置は、実施
の形態1〜7で説明した映像表示装置のいずれでもよ
い。
写体情報の例を示す。被写体情報は、空間を識別するI
D、町名等の名称および区、郡等の種類、空間の領域を
示す座標、空間を撮影するカメラのカメラID、被写体
重要度などが定義される。映像重要度計算部15(図
1、9、16、21)はこの被写体情報に基づいて映像
の映像重要度を計算し、表示制御部16(図1、9、1
6、21)が映像重要度の高い空間を写す画像を優先的
に表示するよう、表示を制御する。さらに、映像表示装
置10、90、160、210(図1、9、16、2
1)は、オペレータ等により外部から、被写体情報に記
述されているパラメータ(名称、種類、領域またはカメ
ラID等)を受け取ると、その被写体を含む映像を他の
映像よりも優先して表示する。これによりオペレータ
は、任意の被写体が撮影された映像を観察することがで
きる。
体として地点や地域といった撮影対象空間における部分
空間も含むようにしたので、建物等の物体だけでなく、
町名や地図上での位置などで特定される空間を撮影した
映像を優先的に表示することができる。
地など固定的な地域として説明したが、これに限定され
ない。例えば、図9に示す地図と連動した映像表示装置
90において、オペレータがマウス等で指定した地図上
の地点およびその近傍を動的な部分空間として定義し、
この部分空間の映像重要度を上げる。これにより、指定
した地点の近傍を写す映像が表示され、オペレータが関
心をもつ空間の映像を地図に基づいて表示することがで
きる。この部分空間毎に、実施の形態7に説明したよう
に表示規則にしたがって表示品質を変えて表示すること
もできる。さらに、例えばマウスを地図上の道路に沿っ
て動かすとその近傍の映像が次々と表示され、地図上で
のウォークスルーに対応した映像表示も実現することが
できる。
構成を示すブロック図である。
は、被写体に発生したイベントをイベント発生検出部2
51で検出し、そのイベントの重要性を示すイベント重
要度、イベントの発生時刻等と上述した被写体重要度と
に基づいて、映像重要度を求め、映像重要度に基づい
て、イベントが発生した位置を撮影していたカメラ(図
26のカメラA)、およびイベントが発生した位置の近
傍を撮影していたカメラ(図26のカメラB)がイベン
ト発生前後に撮影した映像の表示を行う(図27)。な
お、本実施の形態では、映像は主として静止画を表す。
映像が動画である場合については実施の形態10で説明
される。
置の構成および動作 (a)本実施の形態における映像表示装置の構成 映像表示装置250は、複数のカメラ11a〜11n
と、映像情報取得部12と、被写体情報管理部13と、
被写体情報格納部14と、映像重要度計算部15と、表
示制御部16と、表示部17と、映像情報格納部93
と、地図情報格納部94と、地図情報読み出し部95
と、操作部96とを含む。映像表示装置250はさら
に、イベント発生検出部251を含む。
のうち、映像表示装置90(図9)の構成要素と同一の
符号が付された構成要素については、映像表示装置90
(図9)の構成要素の構成および機能と同一であるので
その説明は省略する。したがって、以下ではイベント発
生検出部251について説明する。他の構成要素につい
て映像表示装置90(図9)と異なる動作または追加の
動作が行われる場合には、その都度説明する。
においては、映像情報格納部93に格納される映像情報
には、実際の映像を表す情報と、その映像が撮影された
時刻を表す撮影時刻情報とが含まれる。映像情報が格納
される手順は、映像情報入力部91が、映像を表す情報
をカメラ11a〜11nから受け取り、その映像を表す
情報を映像情報格納部93に格納する。格納に際して
は、映像を表す情報には撮影された時刻を表すタイムス
タンプが付される。本実施の形態では、タイムスタンプ
は、画像フレーム毎、または連続する画像フレームの集
合毎に付される。連続する画像フレームの集合毎にタイ
ムスタンプを付す場合には、少なくとも先頭フレームの
撮影時刻とフレームレートがタイムスタンプとして付さ
れる。以下では、このタイムスタンプを利用して映像情
報がどの時刻に撮影された映像を含むかが判断される。
発生を検出するために設けられている。イベントの例と
しては、プラント設備において発生した温度異常や圧力
異常、高速道路で発生した事故である。前者の場合は、
イベント発生検出部251は温度センサまたは圧力セン
サ等のセンサ、後者の場合は、イベント発生検出部25
1は電話、非常ボタン等による通報を検出する装置が該
当する。イベント発生検出部251は、イベントを検出
すると、被写体情報管理部13に対し被写体情報を変更
するよう指示し、発生したイベントに関する情報を被写
体情報管理部13に送信し、被写体情報に記述させる。
発生したイベントに関するイベント情報は、イベントが
発生した被写体のID、イベントの種類、時刻、重要度
等である。
更指示と記述すべきイベント情報とを受信すると、被写
体情報格納部14に格納された被写体情報にイベント情
報を書き込む。
の例を示す。
8(a))とイベント情報テーブル(図28(b))と
から構成される。被写体情報テーブル(図28(a))
には、被写体で発生したイベントの数と、イベント情報
テーブルを参照するためのポインタとが記述される。イ
ベント情報テーブル(図28(b))には、イベントの
ID、種類、発生時刻、イベントの重要度等が記述され
る。
の動作および映像表示例 図26は、カメラA,BおよびCの位置とイベントEが
発生した位置の位置関係を示す。図26に示されるよう
に、イベントEは時刻te、位置(xe, ye)で発
生したことが理解される。このような位置関係にあるカ
メラA,BおよびCとイベントについて、以下どのよう
に映像が表示されるかを説明する。
(図25)の処理手順は、図11に示す映像表示装置9
0(図9)の動作手順と同じである。ただし、「被写体
情報と映像管理情報とに基づいて各映像の映像重要度を
計算する」(図11、ステップ110)際の映像重要度
の計算内容のみが異なる。以下、その計算内容について
説明する。
カメラによって撮影された映像であれば、イベント発生
時刻に近い映像ほど、より大きい映像重要度になるよう
計算する。
算部15(図25)はまず、イベントの発生位置を撮影
していたカメラの映像撮影時刻と、イベントの発生時刻
との時間差tを計算する。カメラの映像撮影時刻は映像
管理情報(図12)に記述されており、イベントの発生
時刻はイベント情報テーブルに記述されている。映像重
要度計算部15(図25)は、イベントの発生位置を撮
影していたカメラ(図26のカメラA)およびイベント
の発生位置の近傍を撮影していたカメラ(図26のカメ
ラB)からの映像について、上述した時間差を計算す
る。時間差を計算され、表示される対象となる映像は、
適当な時間的範囲、例えばイベントが発生した時間の前
後30分に撮影された映像であるとしてもよい。この時
間的範囲は任意に調整され得る。
イベント重要度関数We(t)に与え、イベントに対す
る映像重要度Weを計算する。
の例を示す。イベント重要度関数はイベント発生時刻の
映像重要度を最大値(1.0)として時間差tの絶対値
に比例して小さくなる関数である。ただし、イベント発
生位置の近傍を撮影していたカメラの映像に対しては、
映像重要度の最大値は0.5とする。したがって、カメ
ラAはこのイベントが発生した位置を撮影しており、最
大値は1.0である。カメラBはイベントが発生した位
置の近傍を撮影しているので、最大値は0.5である。
一方、カメラCはイベントの発生位置びその近傍を撮影
していないので、時間差tに関係なく映像重要度は0と
される。
うに映像重要度を得ることができる。すなわち、イベン
トの発生時刻(t=0)を13時20分とし、カメラA
がイベント発生位置を、カメラBがイベント発生位置の
近傍を撮影しているとする。撮影時刻は、カメラAは1
3時10分と13時22分、カメラBは13時15分と
13時25分、カメラBは13時20分である。カメラ
Aで撮影した画像A1はt=−8(分)、We=0.
3、画像A2はt=2(分)、We=0.8となる。カ
メラBで撮影した画像B1はt=−5(分)、We=
0.3、画像B2はt=5(分)、We=0.3とな
る。カメラCで撮影した画像C1は、t=0(分)、W
e=0.0である。上述した最終的な映像重要度は、イ
ベント重要度関数Weの値をそのまま用いたが、イベン
ト重要度関数Weの値と被写体情報に記述された被写体
重要度Woの値の積を映像重要度としてもよい。
って、映像が表示される態様を説明する。
トが発生した時に表示される複数の映像の例を示す。イ
ベント発生位置を撮影したカメラAの2つの映像ととも
に、その近傍を撮影したカメラBの2つの映像が表示さ
れる。
カメラAの映像について、イベント発生時刻により近い
時刻の映像(13時22分に撮影された映像)の映像重
要度が最も大きいので(We=0.8)、その映像が最
も大きく表示される。他方の映像は比較的小さく表示さ
れる。イベントの発生位置の近傍を撮影していたカメラ
Bの映像については、いずれの映像も、映像重要度は同
じであり(We=0.3)、かつカメラAの撮影した映
像の映像重要度と同じであるので、いずれも同じサイズ
で表示される。イベントの発生位置びその近傍を撮影し
ていないカメラCの映像は、映像重要度が0であるので
表示されていない。
することもできる。ただし、その説明は既に実施の形態
5、6および7で説明したとおりなので省略する。
管理情報(図12)に映像の撮影時刻を記述し、被写体
情報にある時刻に発生したイベントに関するイベント情
報を記述し、これらに基づいて映像重要度計算部15
(図25)が映像重要度を計算するので、被写体そのも
のの重要度だけでなく、被写体に発生したセンサ異常等
のイベントの重要度に従い、対応する映像を優先的に表
示することができる。これにより、素早く的確にイベン
トを観察することができる。さらにイベント発生時刻の
近傍はより強調して表示するなどにより、映像の重要性
を時間的に意識して観察することができる。
として規定され得る。したがって、図29に示すイベン
ト重要度関数に限らない、他のイベント重要度関数を用
いて映像重要度を決定することもできる。
す。
す。図31(b)および(c)はイベントが発生する時
刻(t=0)の前後にピークが存在する。このようなイ
ベント重要度関数は、センサの感度等によりアラーム発
生時刻よりも以前あるいは以降に重要なシーンがあるよ
うな場合に有効である。
衰が小さい関数である。この関数は、イベント発生時刻
(t=0)以降が重要な場合に有効である。
テップ関数を利用することで、映像重要度計算の処理を
簡単にすることができる。
である。この関数は、イベント発生時刻(t=0)の前
後のある時点で重要なシーンがある場合に有効である。
1(a)〜(f)に示す関数および例示していない他の
多くの関数を用いることができる。
28)にイベント情報テーブルへのポインタを記述し被
写体とイベントを関連付けているが、これに限定される
ことはない。すなわち、被写体の位置が記述されている
被写体情報(図5)とイベント発生地点の位置情報が記
述されているイベント情報(図38)とを参照すること
により、被写体の位置とイベントの発生位置とが所定の
距離内にあれば、イベントがその被写体で発生したイベ
ントであると推定することができる。このように、被写
体とイベントとの関連付けを行うこともできる。
るカメラ管理情報を用いて、被写体とイベントとが適切
に撮影された映像を得ることができる。
メラ管理情報は、カメラID、カメラの撮影範囲をあら
わすカメラの位置、水平および垂直角度、ズーム度が記
述されている。
被写体の位置情報およびイベント情報(図38)に記述
されたイベントの発生位置情報に加え、さらにカメラ管
理情報のカメラの位置および角度情報を利用することに
より、イベントがその被写体の近傍で発生したと推定で
きるのみならず、カメラがその被写体およびイベントを
撮影していたか否か、さらにカメラが被写体およびイベ
ントを撮影している場合には、その被写体およびイベン
トがその映像に占める割合等も判断することができる。
どのようにその判断が行われるかの詳細は、本明細書2
−2.(c)で説明したので省略する。カメラ管理情報
を利用することにより、その被写体およびイベントを撮
影していたカメラが複数ある場合などは、その中から最
も的確にイベントおよび被写体を捉えているカメラの映
像を表示に利用することができる。したがって、映像の
表示をより柔軟に行うことができる。
主として静止画を表すと述べたが、これに限定されるこ
とはない。すなわち、映像が動画像であってもよい。そ
の際には、イベント発生時刻との時間差との計算におい
て、撮影開始時刻、撮影終了時刻、撮影時刻中の時刻の
いずれを上述した映像の撮影時刻にしてもよい。どの時
刻を映像の撮影時刻として採用するかは本発明の本質的
な問題ではなく、目的に応じて使い分けることができ
る。
要 実施の形態9においては、イベントの発生時刻に関連し
て、撮影時刻の異なる静止画を表示する場合を主として
説明した。本実施の形態では、イベントの発生時刻に関
連して、複数の動画を撮影時刻に応じて表示する場合を
説明する。撮影された動画は、その撮影時刻がイベント
発生時刻に近づくと表示サイズが徐々に広げられ(図3
2(a)および(b))、撮影時刻がイベント発生時刻
から経過するにつれ表示サイズが徐々に縮小される(図
32(c))。このとき、複数の動画のそれぞれは、撮
影時刻に基づいて同期して再生・表示される(図32に
おけるカメラAおよびB近傍に表示された映像)。
語は、複数の映像のそれぞれが、撮影された時刻に基づ
いて表示される際に用いられる。同期して表示されてい
る複数の映像とは、画像フレームレベルで同じ時刻に撮
影された複数の映像であって、その撮影時刻に基づいて
再生・表示された複数の映像のことをいう。なお、「同
じ撮影時刻」は、必ずしも厳密かつ正確に計測された時
刻でなくともよい。映像の同期表示の際には、映像それ
ぞれのフレームレートの差異、表示するハードウェアの
性能等によって撮影時刻に厳密に対応する時刻に表示さ
れなくともよく、多少のずれが生じてもよい。
装置の動作および映像表示例 本実施の形態における映像表示装置は、実施の形態9で
説明した映像表示装置250(図25)と同じである。
したがって、映像表示装置250(図25)の具体的な
構成については説明を省略する。
250(図25)の動作を説明する。映像表示装置25
0(図25)が動作する状況に関して、カメラの配置お
よびその撮影範囲、イベントの発生時刻および発生位置
は、図26に示されるとおりとする。映像情報格納部9
3(図25)には、映像情報としてカメラA,Bおよび
C(図26)が撮影した動画像が格納されている。
の動作手順を表すフローチャートである。
み出し部95(図25)を介して地図情報格納部94
(図25)に格納された地図情報を読み込み、読み込ん
だ地図情報に基づいてその地図情報が表す地図を表示部
17(図25)に表示する(ステップ330)。
レータ等が操作部96(図25)を介して入力した、映
像の再生開始時刻Tsと、再生終了時刻Teとを受け取
る(ステップ331)。ここでいう再生開始時刻Tsお
よび再生終了時刻Teは、例えば映像が時刻13:00
から時刻13:30まで撮影されており、再生を開始し
たい時刻が時刻13:10であればTs=13:10
と、再生を終了したい時刻が時刻13:25であればT
e=13:25と設定される。
をt=Tsに設定する(ステップ332)。上記と同様
に、再生時刻tとは、再生されているその映像が実際に
撮影された時刻を表す。したがって、再生開始時刻Ts
および再生終了時刻Teについて説明した上記例では、
再生時刻tは再生開始時刻Ts(時刻13:10)から
再生終了時刻Te(時刻13:25)の間に含まれる時
刻をいう。「映像が実際に撮影された時刻」には、再生
されている画像フレームそれぞれの撮影時刻を含み得
る。
tにおける映像の映像重要度を計算する(ステップ33
3)。本実施の形態では表示すべき映像は動画であるた
め、時刻tにおける映像の映像重要度とは、時刻tにお
ける動画のフレームを表す映像の映像重要度を表す。動
画を構成する各画像フレームの撮影時刻は、映像管理情
報(図12)に記述されている撮影開始時刻と終了時刻
およびフレームレートから求めることができる。映像重
要度の計算は、実施の形態9で説明したように行われ
る。すなわち、時刻tにおける画像フレームの映像重要
度は、再生時刻とイベント発生時刻との時間差を求め、
イベント重要度関数を用いてその時間差に対応する映像
重要度の値を求めることができる。
の時間差に応じて配列された画像フレームの集合とイベ
ント重要度関数との対応関係を示す。本実施の形態では
映像は動画であるため、映像の表示は画像フレームの連
続表示により実現される。図34の時間軸に沿った直方
体を時間軸に垂直に切断した面は、その時間における画
像フレームを表す。画像フレームそれぞれについて(す
なわち画像フレームの撮影時刻ごとに)映像重要度を計
算することにより、動画像の映像重要度がリアルタイム
で変更されていると考えることができる。なお、イベン
ト重要度関数は実施の形態9で示したイベント重要度関
数と同じである。すなわち、イベント重要度関数はイベ
ント発生時刻の映像重要度を最大値(1.0)として時
間差tの絶対値に比例して小さくなる関数である。ただ
し、イベント発生位置の近傍を撮影していたカメラの映
像に対しては、映像重要度の最大値は0.5とする。し
たがって、カメラAはこのイベントが発生した位置を撮
影しており、最大値は1.0である。カメラBはイベン
トが発生した位置の近傍を撮影しているので、最大値は
0.5である。一方、カメラCはイベントの発生位置び
その近傍を撮影していないので、時間差に関係なく映像
重要度は0とされる。
要度は、映像管理情報の一部として映像管理情報に格納
される(ステップ334)。
み出し部92(図9)を介して映像情報格納部93(図
9)から時刻tにおける映像の映像情報を読み出す(ス
テップ335)。
時刻tにおける映像重要度とに基づいて表示サイズを決
定し、時刻tにおける映像を表示部17(図25)表示
する(ステップ336)。
tが再生終了時刻Teに達していないかどうか(すなわ
ち、t<Teかどうか)を判定する(ステップ33
6)。
していない場合には、再生時刻tを所定の時間Δtだけ
進める、すなわち、tをt+Δtとして設定する(ステ
ップ338)。その後は、ステップ333以降の処理を
繰り返すことで再生が進行する。
した場合(すなわち、t≧Teの場合)には、続いて動
画像の再生時刻が変更されたか否か、すなわち再生開始
時刻Tsまたは再生終了時刻Teが変更されたか否かを
判定する(ステップ339)。
表示制御部16(図25)は変更された再生時刻を受け
取り、再びステップ331からの処理を繰り返す。
には、オペレータが次の再生時刻を入力されるまで、ス
テップ339の判定を繰り返し行う。
250(図25)の処理手順について説明した。なお上
述した処理は、動画像それぞれが再生時刻に基づいて同
期して再生・表示されるように行われる。このような同
期再生・表示が行われることを条件とすれば、上述した
処理で、複数の動画の各画像フレームの全てについてあ
るステップの処理が終了して次のステップに移行すると
しても、複数の動画の各画像フレームについての処理が
独立かつ並行に行われるとしてもよい。
トの発生に応じて表示される複数の映像の例を示す。イ
ベント発生位置を撮影したカメラAの動画像とともに、
その近傍を撮影したカメラBの動画像がそれぞれの撮影
時刻に基づいて同時に表示される。カメラCの撮影した
映像は上述のように映像重要度が0であるので表示され
ていない。
イベントに対して、13時10分に撮影された映像を表
示した状態を示す。ここでは、映像は動画である。カメ
ラAおよびBの各画像フレームの映像重要度は、イベン
トが発生するまで間があるため比較的小さい。したがっ
て表示される映像のサイズは比較的小さい。
3時20分)に撮影された映像を表示した状態を示す。
イベントの発生位置を撮影していたカメラAの映像は、
図32(a)に示す映像よりも表示サイズが大きい。表
示サイズは、画像フレームの映像重要度の増加に応じて
滑らかに拡大する。すなわち、イベント発生時刻に近づ
くに従ってカメラAの映像の表示サイズが拡大する。イ
ベントの発生位置の近傍を撮影していたカメラBの映像
についても同様である。なお、同時刻におけるカメラA
の映像の映像重要度は、カメラBの映像の映像重要度よ
りも大きいので、より大きなサイズで表示される。
イベントに対して、13時25分に撮影された映像を表
示した状態を示す。イベント発生時刻から時間が経過す
るにつれて、画像フレームの映像重要度は小さくなり、
それにしたがって表示サイズは小さくなる。
上記の例では、表示される映像は、それぞれのカメラA
およびBで現実に撮影された時刻に基づいて同期して再
生・表示されている。
ば、撮影時刻毎に動画をなす画像フレームの映像重要度
を計算し、表示制御部16(図25)が重要度に従って
表示サイズを決めて、その撮影時刻に基づいて同期して
再生・表示するようにしたので、一つのカメラでは撮影
できないイベントの周辺状況を見やすく表示することが
できる。さらに、例えばカメラが移動した場合、または
異なる時間に異なる位置で複数のイベントが発生する場
合に対しても、撮影時刻に基づいて映像を表示し、およ
び全体の状況を広い視点で表示することができるので、
時間的・空間的に容易に把握することができる。比較的
近い位置で複数のイベントが発生した場合を、以下に簡
単に説明する。
ベントとそのイベントを撮影するカメラの位置関係を示
す。
る。イベントFは時刻te、位置(xe,ye)で発生
し、イベントFは時刻tf、位置(xf,yf)で発生
したと仮定する(te<tf)。さらにカメラAはイベ
ントEの発生した位置を撮影し、かつイベントFの発生
した位置の近傍をも撮影している。カメラBはイベント
Fの発生した位置を撮影し、かつイベントEの発生した
位置の近傍をも撮影していたとする。
ときに用いられるイベント重要度関数の例を示す。
映像重要度を計算するためのイベント重要度関数を示
す。図36には、イベントEおよびFが単独で発生した
場合にそれぞれカメラAに対して用いられるイベント重
要度関数がオーバーラップして表示されている。イベン
トEの発生位置を撮影していた時間と、イベントFの発
生位置の近傍を撮影していた時間とは、異なるイベント
重要度関数が用いられる。これは上述したとおりであ
る。カメラAの映像は、まずそれぞれのイベントEおよ
びFについて映像重要度を計算され、その後最終的な映
像重要度が決定される。最終的な映像重要度は、イベン
トEおよびイベントFそれぞれの映像についての映像重
要度の和を採用する、またはより大きい値を持つ映像重
要度を採用する等、どのように決定してもよい。これは
カメラBの撮影した映像についても同様である。
が、静止画を含んでいてもよい。但し、静止画1枚をそ
の撮影時刻に一瞬表示するだけでは見にくいので、撮影
時刻の前後一定時間の間再生することが好ましい。この
とき、動画と静止画とを区別するために表示枠の色を変
えて明示してもよい。これは、表示規則を変更すること
により設定することができる。同様の表示処理は、動画
の最初あるいは最後の画像フレームを表示する場合にも
有効である。例えば、カメラAの動画がカメラBの動画
より終了時刻が早い場合、カメラAの最後の画像フレー
ムが表示された後、その表示枠の色を変化させ、再生終
了を知らせる。これにより、オペレータは再生開始また
は終了時刻の再設定を遅滞なく行うことができる。
要 図37は、本実施の形態における映像表示装置370の
構成を示すブロック図である。
生したとき、そのイベントの重要性を示すイベント重要
度、イベントの発生時刻等に加え、被写体重要度も利用
して映像重要度を計算し、映像を表示していた。本実施
の形態における映像表示装置250は、イベント重要
度、イベントの発生時刻等に基づいて映像重要度を計算
し、被写体重要度を用いない。映像表示装置250は、
計算した映像重要度に基づいてイベント発生前後に撮影
された映像を表示する。
装置の構成および動作 (a)本実施の形態における映像表示装置の構成 映像表示装置370は、複数のカメラ11a〜11n
と、映像情報取得部12と、映像重要度計算部15と、
表示制御部16と、表示部17と、映像情報格納部93
と、地図情報格納部94と、地図情報読み出し部95
と、操作部96と、イベント発生検出部251とを含
む。映像表示装置250はさらに、イベント情報管理部
371と、イベント情報格納部372とを含む。
のうち、実施の形態2における映像表示装置90(図
9)の構成要素と同一の符号が付された構成要素につい
ては、映像表示装置90(図9)の構成要素の構成およ
び機能と同一であるのでその説明は省略する。したがっ
て、以下では、イベント情報管理部371と、イベント
情報格納部372について説明する。他の構成要素につ
いて映像表示装置90(図9)と異なる動作または追加
の動作が行われる場合には、その都度説明する。なお映
像表示装置90(図9)の被写体情報管理部13(図
9)および被写体情報格納部14(図9)は、本実施の
形態における映像表示装置370には存在しない。被写
体情報を利用しないからである。
報を管理する。イベント情報とは、イベントの発生時
刻、イベントの種類、イベント重要度、映像との対応関
係を含む情報である。イベント情報管理部371は、イ
ベント発生検出部251によりイベント発生が検出さ
れ、イベント情報が送信されてくると、イベント情報を
設定しまたは変更する。イベント情報管理部371は、
設定しまたは変更したイベント情報をイベント情報格納
部372に格納する。
ベントに関するイベント情報が格納される。イベント情
報格納部372は、イベント情報管理部371から、設
定されたイベント情報を受け取り、格納する。イベント
情報格納部372は、映像重要度計算部15にイベント
情報を提供する。イベント情報格納部372は、RAM
あるいはROMに代表される半導体メモリ、ハードディ
スク等の磁気記憶媒体を用いた記憶装置、光ディスク
等、公知のデータ記憶手段であり得る。
よび表示規則に基づいて映像重要度を決定する。
情報の例を示す。
生時刻および発生位置、そのイベントを撮影しているカ
メラID、イベント重要度等の情報を含む。
ント情報のこれらの情報を利用して映像重要度を計算す
る。映像重要度の計算は、実施の形態9で説明した映像
重要度の計算と同じであるので、その説明は省略する。
6(図37)はその映像重要度に基づいて映像の表示を
制御する。映像を表示する際には、これまでの実施の形
態で説明した表示規則を用いて、位置、時間、品質等の
制御を行うことができる。表示規則は適切に変更するこ
とができる。さらに、映像が静止画である場合または動
画である場合のいずれの場合でも、これまでの実施の形
態で説明した動作と同じ動作を行うことができるが、そ
の説明は省略する。
重要度計算部15(図37)はイベント情報および表示
規則に基づいてイベント発生時刻と撮影時刻との時間関
係を用いて映像重要度を計算するので、イベントの発生
前後の状態を含むイベントに関する情報のみに基づいた
イベントの観察が可能になる。本実施の形態によれば、
実施の形態9では必要であった被写体情報は利用しない
ので、被写体情報の管理が不要になり、映像重要度の計
算処理を高速に行うことができる。
を始めとする本発明の映像表示装置の動作は、そのよう
に動作するように記述されたコンピュータプログラムと
しても実現され得る。そのようなコンピュータプログラ
ムは、光ディスク、フロッピーディスク等の磁気記憶媒
体、フラッシュROM等の半導体記憶媒体等、適当な記
憶媒体に記録することができる。ここで、「記憶媒体」
の概念には、インターネット等の通信回線を介してコン
テンツを提供するコンピュータ等の記憶装置も含まれ
る。したがって、本発明の動作を実現するためのコンピ
ュータプログラムを格納し、そのプログラムを他の端末
に送信するためのサーバ等は、コンピュータプログラム
を記録した記憶媒体の範疇に含まれる。記憶媒体には、
例えば被写体情報は、図5に図示されるように、少なく
とも前記被写体の名称と、前記被写体が存在する位置
と、前記被写体重要度とをそれぞれを関連づけたデータ
構造として記録される。被写体情報にイベント情報が含
まれる場合にも、同様に上記実施の形態で説明したイベ
ントに関する情報もあわせて対応付けたデータ構造とし
て、記録媒体に記録される。図示された他の表示レイア
ウト情報(図8)、映像管理情報(図12)、カメラ管
理情報(図30)についても同様のデータ構造で記録さ
れ得る。
置座標のいずれも、現実に存在する位置を特定できる情
報である。実施の形態1において図5を参照して説明し
たと同様に、位置座標は緯度および経度によって表され
ていてもよいし、またはその住所等によってあらわされ
ていてもよい。
被写体それぞれの被写体重要度を含む被写体情報に基づ
いて、映像の映像重要度が計算され、その映像重要度に
基づいて映像が表示される。したがって、映像に含まれ
る被写体の重要性に応じた映像の表示が可能になる。オ
ペレータは、被写体の重要度を決定するだけで被写体の
重要性に応じた映像の表示をさせることができるので、
表示レイアウトを決定する煩雑な手間が不要になり、か
つ客観性のある映像表示を得ることができる。さらに、
表示規則を規定することにより、オペレータは重要なグ
ループほど長時間観察でき、画面内でも決められた重要
度の配置でみることができるといった、柔軟な映像表示
が実現される。
の被写体の近傍を撮影した映像を、地図上で撮影位置を
把握しながら見ることができるという視覚的効果を得る
ことができる。さらに、被写体の追加や削除、被写体の
重要度の変化に対しても被写体情報を修正するだけで対
応することができ、煩雑な表示レイアウト修正作業を省
略することができる。さらに、撮影した映像を一旦蓄積
して使用するため、被写体を同じ重要度で、または重要
度を変更して、繰り返し複数の映像を表示して観察する
ことができる。
被写体情報管理部13(図16)は、入力部161(図
16)や外部モジュール162(図16)からの要求に
従い、被写体情報に含まれる被写体重要度を変更する。
表示制御部16(図16)は、被写体情報の変更が反映
された結果変更された映像重要度に応じて、複数の映像
の表示を自動的に変更する。したがって、注目すべき被
写体の種類や位置などが状況に応じて変化する場合で
も、映像重要度の高い映像が自動的に選択表示され、オ
ペレータは素早く的確な被写体観察ができる。
に基づいて、表示制御部16(図1、9、16)が映像
の強調表示の度合いを変化させて表示するようにしたの
で、重要な映像ほど大きく表示する、または重要な映像
を表示するウインドウの枠の色を目立つようにする等、
被写体の重要性をより意識して観察することができる。
よび映像重要度に基づいてフレームレートや解像度等の
映像品質の度合いを変化させて表示するよう映像の表示
を制御する。したがって映像重要度の高い映像(すなわ
ち重要な映像)がより見やすくかつ緻密に表示されるの
で、オペレータは自然と重要な映像を注視することがで
きる。さらに、比較的映像重要度が低い映像(すなわち
比較的重要でない映像)は画像フレームが間引かれて表
示されるので、映像表示装置にかかる表示処理の負荷は
軽くなり、比較的安価な処理回路を用いても映像表示装
置を製造することができる。したがって、映像表示装置
の製造コストを低く抑えることができる。
よび映像重要度に基づいてフレームレートや解像度等の
映像品質の度合いを変化させて表示するよう映像の表示
を制御する。したがって映像重要度の高い映像(すなわ
ち重要な映像)がより見やすくかつ緻密に表示されるの
で、オペレータは自然と重要な映像を注視することがで
きる。さらに、比較的映像重要度が低い映像(すなわち
比較的重要でない映像)は画像フレームが間引かれて表
示されるので、映像表示装置にかかる表示処理の負荷を
軽くすることができ、比較的安価な処理回路を用いても
映像表示装置を製造することができる。したがって、映
像表示装置の製造コストを低く抑えることができる。
ットワークで接続された構成であっても、ネットワーク
上は表示に必要な映像品質の情報しか伝送されないた
め、ネットワーク資源やサーバおよび端末の計算機資源
を有効に利用することができる。それらの資源が有する
伝送帯域や処理速度等の性能に応じてその性能を超えな
いよう映像に映像品質を設定することにより、そのネッ
トワークベースの映像表示装置が有する能力を最大限使
った品質のよい複数の映像を表示することができる。
映像の中で注目すべき箇所をより明確に表示することが
できる。
といった撮影対象空間における部分空間も含むようにし
たので、建物等の物体だけでなく、町名や地図上での位
置などで特定される空間を撮影した映像を優先的に表示
することができる。
影時刻を記述し、被写体情報にある時刻に発生したイベ
ントに関するイベント情報を記述し、これらに基づいて
映像重要度計算部が映像重要度を計算するので、被写体
そのものの重要度だけでなく、被写体に発生したセンサ
異常等のイベントの重要度に従い、対応する映像を優先
的に表示することができる。これにより、素早く的確に
イベントを観察することができる。さらにイベント発生
時刻の近傍はより強調して表示するなどにより、映像の
重要性を時間的に意識して観察することができる。
画像フレームの映像重要度を計算し、表示制御部が重要
度に従って表示サイズを決めて同期して表示するように
したので、一つのカメラでは撮影できないイベントの周
辺状況を見やすく表示することができる。さらに、例え
ばカメラが移動した場合、または異なる時間に異なる位
置で複数のイベントが発生する場合に対しても、全体の
状況を広い視点で表示するので時間的・空間的に容易に
把握することができる。
ント情報および表示規則に基づいてイベント発生時刻と
撮影時刻との時間関係を用いて映像重要度を計算するの
で、イベントの発生前後の状態を含むイベントに関する
情報のみに基づいたイベントの観察が可能になる。さら
に被写体情報を利用することなく映像重要度を計算する
ことにより、被写体情報の管理が不要になり、映像重要
度の計算処理を高速に行うことができる。
成を示すブロック図を示す。
表示される映像の態様の一例を示す図である。
置を示す例を示す図である。
フローチャートを示す図である。
映像表示装置10(図1)の動作手順を表すフローチャ
ートを示す図である。
成を示すブロック図を示す図である。
た映像を示す図である。
すフローチャートを示す図である。
と被写体の位置関係を示す図である。
図である。
図である。
の構成を示すブロック図である。
を表すフローチャートを示す図である。
きくする表示画面の例を示す図である。
イズ)を変更するための表示規則の例を示す図である。
品質を変更するための表示規則の例を示す図である。
の構成を示すブロック図である。
を表すフローチャートを示す図である。
の形態による処理を施されて表示された被写体の例を示
す図である。
例を示す図である。
の構成を示すブロック図である。
が発生した位置の位置関係を示す図である。
た時に表示される複数の映像の例を示す図である。
図である。
図である。
に応じて表示される複数の映像の例を示す図である。
を表すフローチャートである。
応じて配列された画像フレームの集合とイベント重要度
関数との対応関係を示す図である。
のイベントを撮影するカメラの位置関係を示す図であ
る。
られるイベント重要度関数の例を示す図である。
0の構成を示すブロック図である。
を示す図である。
ロック図である。
の具体的な構成を示すブロック図である。
いて表示レイアウト情報を設定するための操作画面の例
を示す図である。
構成を示すブロック図である。
る表示優先順位情報の例を示す図である。
写体情報管理部、14被写体情報格納部、15 映像重
要度計算部、16 表示制御部、17 表示部、92
映像情報読み出し部、93 映像情報格納部、161
入力部、251イベント発生検出部、371 イベント
情報管理部、372 イベント情報格納部
Claims (33)
- 【請求項1】 撮影された空間に存在する被写体と前記
被写体の重要性を表す被写体重要度との対応関係を含む
被写体情報を管理する被写体情報管理部と、 前記被写体情報管理部によって管理される前記被写体情
報に基づいて、前記映像の重要性を表す映像重要度を計
算する映像重要度計算部と、 前記空間を撮影した映像の情報を、映像情報として取得
する映像情報取得部と、 少なくとも前記映像重要度計算部によって計算された前
記映像重要度に基づいて、前記映像情報取得部によって
取得された前記映像情報が表す前記映像の表示を制御す
る表示制御部と、 前記表示制御部の制御にしたがって前記映像を表示する
表示部とを備えた映像表示装置。 - 【請求項2】 前記映像表示装置は、 前記映像情報を格納する映像情報格納部をさらに備え、 前記映像情報取得部は、前記映像情報格納部から前記映
像情報を読み出すことによって前記映像情報を取得す
る、請求項1に記載の映像表示装置。 - 【請求項3】 前記映像表示装置は、新たな被写体重要
度が入力される入力部をさらに備え、 前記被写体情報管理部は、前記入力部からの入力に応答
して、前記被写体重要度を入力された前記新たな被写体
重要度に変更して保持することにより管理し、 前記映像重要度計算部は、前記被写体情報管理部による
前記新たな被写体重要度の保持に応答して、保持された
被写体重要度に基づいて映像重要度を計算する、請求項
1または2に記載の映像表示装置。 - 【請求項4】 前記被写体は、前記空間に含まれる部分
的な空間である、請求項1または2に記載の映像表示装
置。 - 【請求項5】 前記映像情報は、前記映像を撮影した時
刻に関する撮影時刻情報を含み、 前記被写体情報は、前記被写体に発生したイベントと前
記イベントが発生した時刻を表すイベント発生時刻とに
関するイベント情報を含み、 前記映像重要度計算部は、さらに前記イベント情報と前
記撮影時刻情報とに基づいて前記映像重要度を計算す
る、請求項1または2に記載の映像表示装置。 - 【請求項6】 空間を撮影した映像の情報と前記映像を
撮影した時刻に関する撮影時刻情報とを格納する映像情
報格納部と、 前記映像情報格納部から前記映像情報を読み出す映像情
報読み出し部と、 前記空間で発生したイベントと、前記イベントが発生し
た発生時刻、前記イベントの重要性を表すイベント重要
度および前記映像との対応関係を含むイベント情報を管
理するイベント情報管理部と、 前記イベント情報管理部によって管理される前記イベン
ト情報と前記映像情報格納部に格納された前記撮影時刻
情報とに基づいて、前記映像重要度を計算する映像重要
度計算部と、 少なくとも前記映像重要度計算部によって計算された前
記映像重要度に基づいて、前記映像情報が表す映像の表
示を制御する表示制御部と前記表示制御部の制御にした
がって前記映像を表示する表示部とを備えた、映像表示
装置。 - 【請求項7】 前記映像は、前記空間を複数の視点から
撮影した複数の映像であって、 前記映像重要度計算部は、前記複数の映像のそれぞれに
ついて前記映像重要度を計算し、 前記表示制御部は、少なくとも前記映像重要度計算部に
よって計算された前記映像重要度に基づいて、前記複数
の映像それぞれの表示を制御する、請求項1、2または
6に記載の映像表示装置。 - 【請求項8】 前記表示制御部は、前記映像重要度計算
部によって計算された前記映像重要度と前記映像を表示
する規則を規定する表示規則とに基づいて、前記複数の
映像それぞれの表示を制御する、請求項1、2、6また
は7に記載の映像表示装置。 - 【請求項9】 前記表示規則は、前記映像が表示される
位置、時間、順序または大きさを規定する、請求項8に
記載の映像表示装置。 - 【請求項10】 前記表示制御部は、前記複数の映像の
それぞれについて前記映像重要度計算部によって計算さ
れた前記映像重要度と、前記映像重要度に応じて適用さ
れる表示規則とに基づいて、前記複数の映像それぞれを
強調表示するよう表示を制御する、請求項8に記載の映
像表示装置。 - 【請求項11】 前記表示制御部は、前記複数の映像の
それぞれについて前記映像重要度計算部によって計算さ
れた前記映像重要度と、前記映像重要度に応じて適用さ
れる表示規則とに基づいて、前記複数の映像のそれぞれ
の品質を決定し、決定された前記品質で前記複数の映像
それぞれの表示を制御する、請求項8に記載の映像表示
装置。 - 【請求項12】 前記表示規則は変更可能である、請求
項8または9に記載の映像表示装置。 - 【請求項13】 前記映像は画像フレームから構成さ
れ、前記画像フレームは2以上の領域を含み、 前記映像重要度計算部は、前記2以上の領域のそれぞれ
について前記映像重要度を計算し、 前記表示制御部は、前記映像重要度計算部によって計算
された前記映像重要度に基づいて、前記2以上の領域の
それぞれを表示する態様を決定して前記画像フレームの
表示を制御する、請求項1、2または6に記載の映像表
示装置。 - 【請求項14】 前記映像は、第1の時刻に撮影された
第1の映像と、第2の時刻に撮影された第2の映像を含
み、 前記映像重要度計算部は、前記第1の映像の映像重要度
である第1映像重要度と、前記第2の映像の映像重要度
である第2映像重要度とを計算し、 前記表示制御部は、前記映像を表示するための規則を規
定する表示規則と前記映像重要度計算部によって計算さ
れた前記第1映像重要度および第2映像重要度とに基づ
いて前記映像を表示する態様を決定し、撮影された時刻
に基づいて前記第1の映像と前記第2の映像とが同期す
るよう表示を制御する、請求項5または6に記載の映像
表示装置。 - 【請求項15】 前記表示制御部は、前記複数の映像の
それぞれが撮影された位置と前記映像重要度計算部によ
って計算された前記映像重要度とに基づいて前記複数の
映像それぞれの表示を制御する、請求項7に記載の映像
表示装置。 - 【請求項16】 前記映像は静止画である、請求項1、
2または6に記載の映像表示装置。 - 【請求項17】 前記映像は動画である、請求項1、2
または6に記載の映像表示装置。 - 【請求項18】 前記第1の時刻と前記第2の時刻と
は、同一の時刻である、請求項14に記載の映像表示装
置。 - 【請求項19】 撮影された空間に存在する被写体と前
記被写体の重要性を表す被写体重要度との対応関係を含
む被写体情報を管理するステップと、 前記被写体情報に基づいて、前記映像の重要性を表す映
像重要度を計算するステップと、 前記空間を撮影した映像の情報を、映像情報として取得
するステップと、 少なくとも前記映像重要度に基づいて、前記映像情報が
表す前記映像の表示を制御するステップと、 前記映像の表示の制御にしたがって前記映像を表示する
ステップとを包含する映像表示方法。 - 【請求項20】 前記映像表示方法は、 前記映像情報を格納するステップをさらに包含し、 前記映像情報を取得するステップは、格納された前記映
像情報を読み出すことによって、前記映像情報を取得す
るステップである、請求項19に記載の映像表示方法。 - 【請求項21】 前記映像表示方法は、新たな被写体重
要度を入力するステップをさらに包含し、 前記被写体情報を管理するステップは、前記新たな被写
体重要度を入力するステップによる入力に応答して、前
記被写体重要度を入力された前記新たな被写体重要度に
変更して保持することにより管理するステップであり、 前記映像重要度を計算するステップは、前記新たな被写
体重要度の保持に応答して、保持された被写体重要度に
基づいて映像重要度を計算するステップである、請求項
19または20に記載の映像表示方法。 - 【請求項22】 前記映像情報は、前記映像を撮影した
時刻に関する撮影時刻情報を含み、 前記被写体情報は、前記被写体に発生したイベントと前
記イベントが発生した時刻を表すイベント発生時刻とに
関するイベント情報を含み、 前記映像重要度を計算するステップは、さらに前記イベ
ント情報と前記撮影時刻情報とに基づいて前記映像重要
度を計算するステップである、請求項19または20に
記載の映像表示方法。 - 【請求項23】 空間を撮影した映像の情報と前記映像
を撮影した時刻に関する撮影時刻情報とを格納するステ
ップと、 格納された前記映像情報を読み出すステップと、 前記空間で発生したイベントと、前記イベントが発生し
た発生時刻、前記イベントの重要性を表すイベント重要
度および前記映像との対応関係を含むイベント情報を管
理するステップと、 管理された前記イベント情報と格納された前記撮影時刻
情報とに基づいて、前記映像重要度を計算するステップ
と、 少なくとも計算された前記映像重要度に基づいて、前記
映像情報が表す映像の表示を制御するステップと前記制
御にしたがって前記映像を表示するステップとを包含す
る、映像表示方法。 - 【請求項24】 前記映像は画像フレームから構成さ
れ、前記画像フレームは2以上の領域を含み、 前記映像重要度を計算するステップは、前記2以上の領
域のそれぞれについて前記映像重要度を計算するステッ
プであり、 前記表示を制御するステップは、計算された前記映像重
要度に基づいて、前記2以上の領域のそれぞれを表示す
る態様を決定して前記画像フレームの表示を制御するス
テップである、請求項19、20または23に記載の映
像表示方法。 - 【請求項25】 前記映像は、第1の時刻に撮影された
第1の映像と、第2の時刻に撮影された第2の映像を含
み、 前記映像重要度を計算するステップは、前記第1の映像
の映像重要度である第1映像重要度と、前記第2の映像
の映像重要度である第2映像重要度とを計算するステッ
プであり、 前記表示を制御するステップは、前記映像を表示するた
めの規則を規定する表示規則と計算された前記第1映像
重要度および第2映像重要度とに基づいて前記映像を表
示する態様を決定し、撮影された時刻に基づいて前記第
1の映像と前記第2の映像とが同期するよう表示を制御
するステップである、請求項22または23に記載の映
像表示方法。 - 【請求項26】 撮影された空間に存在する被写体と前
記被写体の重要性を表す被写体重要度との対応関係を含
む被写体情報を管理するステップと、 前記被写体情報に基づいて、前記映像の重要性を表す映
像重要度を計算するステップと、 前記空間を撮影した映像の情報を、映像情報として取得
するステップと、 少なくとも前記映像重要度に基づいて、前記映像情報が
表す前記映像の表示を制御するステップと、 前記映像の表示の制御にしたがって前記映像を表示する
ステップとを含むコンピュータプログラムを記録した記
録媒体。 - 【請求項27】 前記映像表示方法は、 前記映像情報を格納するステップをさらに包含し、 前記映像情報を取得するステップは、格納された前記映
像情報を読み出すことによって、前記映像情報を取得す
るステップである、請求項26に記載の記録媒体。 - 【請求項28】 前記映像表示方法は、新たな被写体重
要度を入力するステップをさらに包含し、 前記被写体情報を管理するステップは、前記新たな被写
体重要度を入力するステップによる入力に応答して、前
記被写体重要度を入力された前記新たな被写体重要度に
変更して保持することにより管理するステップであり、 前記映像重要度を計算するステップは、前記新たな被写
体重要度の保持に応答して、保持された被写体重要度に
基づいて映像重要度を計算するステップである、請求項
26または27に記載の記録媒体。 - 【請求項29】 前記映像情報は、前記映像を撮影した
時刻に関する撮影時刻情報を含み、 前記被写体情報は、前記被写体に発生したイベントと前
記イベントが発生した時刻を表すイベント発生時刻とに
関するイベント情報を含み、 前記映像重要度を計算するステップは、さらに前記イベ
ント情報と前記撮影時刻情報とに基づいて前記映像重要
度を計算するステップである、請求項26または27に
記載の記録媒体。 - 【請求項30】 空間を撮影した映像の情報と前記映像
を撮影した時刻に関する撮影時刻情報とを格納するステ
ップと、 格納された前記映像情報を読み出すステップと、 前記空間で発生したイベントと、前記イベントが発生し
た発生時刻、前記イベントの重要性を表すイベント重要
度および前記映像との対応関係を含むイベント情報を管
理するステップと、 管理された前記イベント情報と格納された前記撮影時刻
情報とに基づいて、前記映像重要度を計算するステップ
と、 少なくとも計算された前記映像重要度に基づいて、前記
映像情報が表す映像の表示を制御するステップと前記制
御にしたがって前記映像を表示するステップとを含むコ
ンピュータプログラムを記録した記録媒体。 - 【請求項31】 前記映像は画像フレームから構成さ
れ、前記画像フレームは2以上の領域を含み、 前記映像重要度を計算するステップは、前記2以上の領
域のそれぞれについて前記映像重要度を計算するステッ
プであり、 前記表示を制御するステップは、計算された前記映像重
要度に基づいて、前記2以上の領域のそれぞれを表示す
る態様を決定して前記画像フレームの表示を制御するス
テップである、請求項26、27または30に記載の記
録媒体。 - 【請求項32】 前記映像は、第1の時刻に撮影された
第1の映像と、第2の時刻に撮影された第2の映像を含
み、 前記映像重要度を計算するステップは、前記第1の映像
の映像重要度である第1映像重要度と、前記第2の映像
の映像重要度である第2映像重要度とを計算するステッ
プであり、 前記表示を制御するステップは、前記映像を表示するた
めの規則を規定する表示規則と計算された前記第1映像
重要度および第2映像重要度とに基づいて前記映像を表
示する態様を決定し、撮影された時刻に基づいて前記第
1の映像と前記第2の映像とが同期するよう表示を制御
するステップである、請求項29または30に記載の記
録媒体。 - 【請求項33】 前記被写体情報は、少なくとも前記被
写体の名称と、前記被写体が存在する位置と、前記被写
体重要度とをそれぞれを関連づけて格納したデータ構造
を有する、請求項26または27に記載の記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20465599A JP4167777B2 (ja) | 1999-07-19 | 1999-07-19 | 映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20465599A JP4167777B2 (ja) | 1999-07-19 | 1999-07-19 | 映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001034250A true JP2001034250A (ja) | 2001-02-09 |
JP4167777B2 JP4167777B2 (ja) | 2008-10-22 |
Family
ID=16494105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20465599A Expired - Fee Related JP4167777B2 (ja) | 1999-07-19 | 1999-07-19 | 映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4167777B2 (ja) |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002341755A (ja) * | 2001-05-16 | 2002-11-29 | Mitsubishi Electric Corp | 映像表示装置 |
JP2004302753A (ja) * | 2003-03-31 | 2004-10-28 | Public Works Research Institute | 河川環境の映像展示システム |
JP2005202181A (ja) * | 2004-01-16 | 2005-07-28 | Mitsubishi Electric Corp | 表示装置ドライバ |
JP2006211459A (ja) * | 2005-01-31 | 2006-08-10 | Fujitsu Ltd | 映像出力システムおよび映像を出力するための制御プログラム |
WO2007032140A1 (ja) * | 2005-09-15 | 2007-03-22 | Sharp Kabushiki Kaisha | 映像転送装置およびそれを用いた表示システム |
JP2007072360A (ja) * | 2005-09-09 | 2007-03-22 | Canon Inc | 投射型映像表示装置 |
JP2007184943A (ja) * | 2007-01-22 | 2007-07-19 | Sony Corp | 表示制御装置および方法、プログラム、並びに表示システム |
JP2007272915A (ja) * | 2004-05-06 | 2007-10-18 | Takatoshi Yanase | 情報処理システム |
JP2007304766A (ja) * | 2006-05-10 | 2007-11-22 | Mitsubishi Electric Corp | 監視表示システム |
JP2008211836A (ja) * | 2008-04-22 | 2008-09-11 | Sony Corp | 表示制御装置および方法、表示装置、並びに表示システム |
JPWO2006123744A1 (ja) * | 2005-05-18 | 2008-12-25 | 日本電気株式会社 | コンテンツ表示システム及びコンテンツ表示方法 |
JP2009010625A (ja) * | 2007-06-27 | 2009-01-15 | Canon Inc | 映像表示装置、映像表示方法、プログラム及び映像表示システム |
JP2009225275A (ja) * | 2008-03-18 | 2009-10-01 | Hitachi Kokusai Electric Inc | 映像記録配信システム |
JP2009230378A (ja) * | 2008-03-21 | 2009-10-08 | Hitachi Information Systems Ltd | Webページ画面表示制御システムと方法およびプログラム |
US8180103B2 (en) | 2005-07-19 | 2012-05-15 | Fujitsu Limited | Image determining method, image determining apparatus, and recording medium having recorded therein program for causing computer to execute image determining method |
JP2013514044A (ja) * | 2009-12-14 | 2013-04-22 | クゥアルコム・インコーポレイテッド | ビデオディスプレイシステムのためのデコンポーズドマルチストリーム(dms)技法 |
JP2013207706A (ja) * | 2012-03-29 | 2013-10-07 | Fujitsu Ltd | 映像信号伝送システム、映像信号伝送制御装置、映像信号伝送方法、およびプログラム |
US8627217B2 (en) | 2004-05-06 | 2014-01-07 | Yanase Takatoshi | Window display system, window display method, program development support device, and server device |
JP2014018491A (ja) * | 2012-07-19 | 2014-02-03 | Sankyo Co Ltd | 遊技機 |
WO2014103544A1 (ja) * | 2012-12-26 | 2014-07-03 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
JP2015015583A (ja) * | 2013-07-04 | 2015-01-22 | ブラザー工業株式会社 | 端末装置、及びプログラム |
US8964783B2 (en) | 2011-01-21 | 2015-02-24 | Qualcomm Incorporated | User input back channel for wireless displays |
JP2015053636A (ja) * | 2013-09-09 | 2015-03-19 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US9065876B2 (en) | 2011-01-21 | 2015-06-23 | Qualcomm Incorporated | User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays |
KR20150117820A (ko) * | 2014-04-11 | 2015-10-21 | 삼성전자주식회사 | 영상 표시 방법 및 전자 장치 |
US9198084B2 (en) | 2006-05-26 | 2015-11-24 | Qualcomm Incorporated | Wireless architecture for a traditional wire-based protocol |
US9264248B2 (en) | 2009-07-02 | 2016-02-16 | Qualcomm Incorporated | System and method for avoiding and resolving conflicts in a wireless mobile display digital interface multicast environment |
JP2016096515A (ja) * | 2014-11-17 | 2016-05-26 | 株式会社 日立産業制御ソリューションズ | 監視システム、監視サーバ及び監視システムの制御方法 |
US9398089B2 (en) | 2008-12-11 | 2016-07-19 | Qualcomm Incorporated | Dynamic resource sharing among multiple wireless devices |
US9413803B2 (en) | 2011-01-21 | 2016-08-09 | Qualcomm Incorporated | User input back channel for wireless displays |
JPWO2014054342A1 (ja) * | 2012-10-05 | 2016-08-25 | ソニー株式会社 | コンテンツ取得装置、携帯装置、サーバ、情報処理装置及び記憶媒体 |
US9503771B2 (en) | 2011-02-04 | 2016-11-22 | Qualcomm Incorporated | Low latency wireless display for graphics |
US9525998B2 (en) | 2012-01-06 | 2016-12-20 | Qualcomm Incorporated | Wireless display with multiscreen service |
US9582239B2 (en) | 2011-01-21 | 2017-02-28 | Qualcomm Incorporated | User input back channel for wireless displays |
US9787725B2 (en) | 2011-01-21 | 2017-10-10 | Qualcomm Incorporated | User input back channel for wireless displays |
CN107429304A (zh) * | 2015-02-17 | 2017-12-01 | 技术资源有限公司 | 喷枪疏通方法和设备 |
JP2018061181A (ja) * | 2016-10-07 | 2018-04-12 | 万弘 坂入 | 情報処理システム |
US10108386B2 (en) | 2011-02-04 | 2018-10-23 | Qualcomm Incorporated | Content provisioning for wireless back channel |
US10135900B2 (en) | 2011-01-21 | 2018-11-20 | Qualcomm Incorporated | User input back channel for wireless displays |
JP2018207279A (ja) * | 2017-06-02 | 2018-12-27 | 株式会社日立ビルシステム | 映像監視システム及び映像監視装置 |
JP2021506175A (ja) * | 2018-06-01 | 2021-02-18 | エルジー エレクトロニクス インコーポレイティド | 複数のビューポイントに関するメタデータを送受信する方法及び装置 |
JP2021196805A (ja) * | 2020-06-12 | 2021-12-27 | 3D Nest株式会社 | 画像表示方法、プログラム及びデータ生成方法 |
-
1999
- 1999-07-19 JP JP20465599A patent/JP4167777B2/ja not_active Expired - Fee Related
Cited By (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002341755A (ja) * | 2001-05-16 | 2002-11-29 | Mitsubishi Electric Corp | 映像表示装置 |
JP2004302753A (ja) * | 2003-03-31 | 2004-10-28 | Public Works Research Institute | 河川環境の映像展示システム |
JP2005202181A (ja) * | 2004-01-16 | 2005-07-28 | Mitsubishi Electric Corp | 表示装置ドライバ |
US8627217B2 (en) | 2004-05-06 | 2014-01-07 | Yanase Takatoshi | Window display system, window display method, program development support device, and server device |
JP2007272915A (ja) * | 2004-05-06 | 2007-10-18 | Takatoshi Yanase | 情報処理システム |
JP4611042B2 (ja) * | 2005-01-31 | 2011-01-12 | 富士通株式会社 | 映像出力システムおよび映像を出力するための制御プログラム |
JP2006211459A (ja) * | 2005-01-31 | 2006-08-10 | Fujitsu Ltd | 映像出力システムおよび映像を出力するための制御プログラム |
US7876463B2 (en) | 2005-01-31 | 2011-01-25 | Fujitsu Limited | Image outputting system and computer-readable medium for outputting image |
JPWO2006123744A1 (ja) * | 2005-05-18 | 2008-12-25 | 日本電気株式会社 | コンテンツ表示システム及びコンテンツ表示方法 |
US8180103B2 (en) | 2005-07-19 | 2012-05-15 | Fujitsu Limited | Image determining method, image determining apparatus, and recording medium having recorded therein program for causing computer to execute image determining method |
JP2007072360A (ja) * | 2005-09-09 | 2007-03-22 | Canon Inc | 投射型映像表示装置 |
CN101263548B (zh) * | 2005-09-15 | 2010-05-26 | 夏普株式会社 | 影像传送装置和使用该装置的显示系统 |
WO2007032140A1 (ja) * | 2005-09-15 | 2007-03-22 | Sharp Kabushiki Kaisha | 映像転送装置およびそれを用いた表示システム |
US8384825B2 (en) | 2005-09-15 | 2013-02-26 | Sharp Kabushiki Kaisha | Video image transfer device and display system including the device |
JP4680126B2 (ja) * | 2006-05-10 | 2011-05-11 | 三菱電機株式会社 | 監視表示システム |
JP2007304766A (ja) * | 2006-05-10 | 2007-11-22 | Mitsubishi Electric Corp | 監視表示システム |
US9198084B2 (en) | 2006-05-26 | 2015-11-24 | Qualcomm Incorporated | Wireless architecture for a traditional wire-based protocol |
JP2007184943A (ja) * | 2007-01-22 | 2007-07-19 | Sony Corp | 表示制御装置および方法、プログラム、並びに表示システム |
JP4618258B2 (ja) * | 2007-01-22 | 2011-01-26 | ソニー株式会社 | 表示制御装置および方法、プログラム |
JP2009010625A (ja) * | 2007-06-27 | 2009-01-15 | Canon Inc | 映像表示装置、映像表示方法、プログラム及び映像表示システム |
JP2009225275A (ja) * | 2008-03-18 | 2009-10-01 | Hitachi Kokusai Electric Inc | 映像記録配信システム |
JP2009230378A (ja) * | 2008-03-21 | 2009-10-08 | Hitachi Information Systems Ltd | Webページ画面表示制御システムと方法およびプログラム |
JP4618319B2 (ja) * | 2008-04-22 | 2011-01-26 | ソニー株式会社 | 表示制御装置および方法、記録媒体、プログラム、表示装置、並びに表示システム |
JP2008211836A (ja) * | 2008-04-22 | 2008-09-11 | Sony Corp | 表示制御装置および方法、表示装置、並びに表示システム |
US9398089B2 (en) | 2008-12-11 | 2016-07-19 | Qualcomm Incorporated | Dynamic resource sharing among multiple wireless devices |
US9264248B2 (en) | 2009-07-02 | 2016-02-16 | Qualcomm Incorporated | System and method for avoiding and resolving conflicts in a wireless mobile display digital interface multicast environment |
JP2013514044A (ja) * | 2009-12-14 | 2013-04-22 | クゥアルコム・インコーポレイテッド | ビデオディスプレイシステムのためのデコンポーズドマルチストリーム(dms)技法 |
US9582238B2 (en) | 2009-12-14 | 2017-02-28 | Qualcomm Incorporated | Decomposed multi-stream (DMS) techniques for video display systems |
US9582239B2 (en) | 2011-01-21 | 2017-02-28 | Qualcomm Incorporated | User input back channel for wireless displays |
US9065876B2 (en) | 2011-01-21 | 2015-06-23 | Qualcomm Incorporated | User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays |
US10911498B2 (en) | 2011-01-21 | 2021-02-02 | Qualcomm Incorporated | User input back channel for wireless displays |
US8964783B2 (en) | 2011-01-21 | 2015-02-24 | Qualcomm Incorporated | User input back channel for wireless displays |
US10382494B2 (en) | 2011-01-21 | 2019-08-13 | Qualcomm Incorporated | User input back channel for wireless displays |
US10135900B2 (en) | 2011-01-21 | 2018-11-20 | Qualcomm Incorporated | User input back channel for wireless displays |
US9413803B2 (en) | 2011-01-21 | 2016-08-09 | Qualcomm Incorporated | User input back channel for wireless displays |
US9787725B2 (en) | 2011-01-21 | 2017-10-10 | Qualcomm Incorporated | User input back channel for wireless displays |
US9723359B2 (en) | 2011-02-04 | 2017-08-01 | Qualcomm Incorporated | Low latency wireless display for graphics |
US10108386B2 (en) | 2011-02-04 | 2018-10-23 | Qualcomm Incorporated | Content provisioning for wireless back channel |
US9503771B2 (en) | 2011-02-04 | 2016-11-22 | Qualcomm Incorporated | Low latency wireless display for graphics |
US9525998B2 (en) | 2012-01-06 | 2016-12-20 | Qualcomm Incorporated | Wireless display with multiscreen service |
JP2013207706A (ja) * | 2012-03-29 | 2013-10-07 | Fujitsu Ltd | 映像信号伝送システム、映像信号伝送制御装置、映像信号伝送方法、およびプログラム |
JP2014018491A (ja) * | 2012-07-19 | 2014-02-03 | Sankyo Co Ltd | 遊技機 |
JPWO2014054342A1 (ja) * | 2012-10-05 | 2016-08-25 | ソニー株式会社 | コンテンツ取得装置、携帯装置、サーバ、情報処理装置及び記憶媒体 |
US9542095B2 (en) | 2012-12-26 | 2017-01-10 | Sony Corporation | Display control device, display control method, and recording medium |
WO2014103544A1 (ja) * | 2012-12-26 | 2014-07-03 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
JPWO2014103544A1 (ja) * | 2012-12-26 | 2017-01-12 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
JP2015015583A (ja) * | 2013-07-04 | 2015-01-22 | ブラザー工業株式会社 | 端末装置、及びプログラム |
JP2015053636A (ja) * | 2013-09-09 | 2015-03-19 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US11265525B2 (en) | 2013-09-09 | 2022-03-01 | Sony Group Corporation | Image information processing method, apparatus, and program utilizing a position sequence |
KR20150117820A (ko) * | 2014-04-11 | 2015-10-21 | 삼성전자주식회사 | 영상 표시 방법 및 전자 장치 |
KR102170896B1 (ko) * | 2014-04-11 | 2020-10-29 | 삼성전자주식회사 | 영상 표시 방법 및 전자 장치 |
JP2016096515A (ja) * | 2014-11-17 | 2016-05-26 | 株式会社 日立産業制御ソリューションズ | 監視システム、監視サーバ及び監視システムの制御方法 |
RU2678548C1 (ru) * | 2015-02-17 | 2019-01-29 | Тата Стил Лимитед | Способ и устройство удаления закупорки в фурме |
CN107429304B (zh) * | 2015-02-17 | 2019-09-17 | 塔塔钢铁公司 | 喷枪疏通方法和设备 |
CN107429304A (zh) * | 2015-02-17 | 2017-12-01 | 技术资源有限公司 | 喷枪疏通方法和设备 |
JP2018061181A (ja) * | 2016-10-07 | 2018-04-12 | 万弘 坂入 | 情報処理システム |
JP2018207279A (ja) * | 2017-06-02 | 2018-12-27 | 株式会社日立ビルシステム | 映像監視システム及び映像監視装置 |
JP2021506175A (ja) * | 2018-06-01 | 2021-02-18 | エルジー エレクトロニクス インコーポレイティド | 複数のビューポイントに関するメタデータを送受信する方法及び装置 |
JP2021196805A (ja) * | 2020-06-12 | 2021-12-27 | 3D Nest株式会社 | 画像表示方法、プログラム及びデータ生成方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4167777B2 (ja) | 2008-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4167777B2 (ja) | 映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体 | |
US7459685B2 (en) | Imaging device and method, computer program product on computer-readable medium, and imaging system | |
JP4790613B2 (ja) | カメラ制御装置およびこの装置におけるズーム倍率制御方法 | |
KR101302803B1 (ko) | 네트워크 카메라를 이용한 지능형 감시 방법 및 시스템 | |
US20050275721A1 (en) | Monitor system for monitoring suspicious object | |
US8004542B2 (en) | Video composition apparatus, video composition method and video composition program | |
US20070091124A1 (en) | Monitoring system and method, and program and recording medium used therewith | |
US20060268112A1 (en) | Imaging device and method, computer program product on computer-readable medium, and imaging system | |
JP2008502228A (ja) | ビデオフラッシュライトを実行する方法およびシステム | |
JPH11266487A (ja) | インテリジェント遠隔監視システムおよび記録媒体 | |
JP2006261960A (ja) | 記録再生装置及び立体映像視覚効果確認装置 | |
AU2017219030A1 (en) | Selective Capture and Presentation of Native Image Portions | |
DE102020124815A1 (de) | System und vorrichtung für benutzergesteuerte virtuelle kamera für volumetrisches video | |
US20210044793A1 (en) | Generation method for generating free viewpoint image, display method for displaying free viewpoint image, free viewpoint image generation device, and display device | |
CN101375599A (zh) | 用于执行视频监视的方法和系统 | |
CN107846623B (zh) | 一种视频联动方法和系统 | |
KR20130130544A (ko) | 감시 영상 표시 방법 및 시스템 | |
KR20150097609A (ko) | 이머전 통신 클라이언트, 서버 및 컨텐츠 뷰를 획득하는 방법 | |
CN112449160A (zh) | 一种视频监控方法、装置和可读存储介质 | |
KR101838961B1 (ko) | 영상처리보드를 이용한 외부기기 제어와 아날로그/디지털 데이터 저장 및 트렌드 표출 영상감시장치 | |
KR101778744B1 (ko) | 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템 | |
CN110740290A (zh) | 监控录像预览方法及装置 | |
JP4583717B2 (ja) | 撮像装置及び方法、画像情報提供システム、プログラム、並びに制御装置 | |
KR101522107B1 (ko) | 적외선카메라와 가시카메라를 이용한 관측장치 | |
JP2004228711A (ja) | 監視装置及び方法、プログラム並びに監視システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080603 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080626 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080722 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080804 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |