JP2002344897A - Video display device - Google Patents

Video display device

Info

Publication number
JP2002344897A
JP2002344897A JP2001146180A JP2001146180A JP2002344897A JP 2002344897 A JP2002344897 A JP 2002344897A JP 2001146180 A JP2001146180 A JP 2001146180A JP 2001146180 A JP2001146180 A JP 2001146180A JP 2002344897 A JP2002344897 A JP 2002344897A
Authority
JP
Japan
Prior art keywords
video
video data
time
camera
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001146180A
Other languages
Japanese (ja)
Inventor
Naoki Kuwabara
直樹 桑原
Toshihiko Hata
淑彦 秦
Toshiharu Nozawa
俊治 野沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001146180A priority Critical patent/JP2002344897A/en
Publication of JP2002344897A publication Critical patent/JP2002344897A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a video display device capable of deciding that a video is not displayed on a screen resulting from no existence of video data and preventing useless time from being spent by keeping observing a section with no video data without knowing that the video data do not exist. SOLUTION: A first display means 21 for synchronously reproducing many pieces of camera video data 10 photographed by a plurality of cameras and subjected to time synchronization with one another on the basis of photographing times, and a second display means 22 for displaying time sections of the video data photographed with the respective cameras are provided, and the first and second display means are interlocked with each other.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、複数のカメラで
撮影され相互に時間同期した多カメラ映像を撮影時刻に
基づき同期再生する映像表示装置に関するものであり、
例えば、プラントや道路の監視、スポーツやフェスティ
バルのテレビ中継などに用いられる映像表示装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video display device for synchronously reproducing a multi-camera video taken by a plurality of cameras and time-synchronized with each other based on a shooting time.
For example, the present invention relates to an image display device used for monitoring a plant or a road, broadcasting a sport or a festival, and the like.

【0002】[0002]

【従来の技術】図6〜図9は、例えば(秦他「映像の重
要度と地図を利用した多視点映像のブラウジング方
式」、情報処理学会データベースシステム研究会研究報
告、119−36、pp.213−218)に示された
従来の映像表示装置を説明するための図であり、図6は
従来の映像表示装置の構成を示すブロック図、図7は第
1の多カメラ映像データと第2の多カメラ映像データと
を説明する図、図8は従来の映像表示装置の表示画面の
レイアウトを示す図、図9は表示における問題点を説明
する図である。図6において、1はイベント1aやオブ
ジェクト1bなどの情報を含む要素データである。2は
複数のカメラで撮影され相互に時間同期した第1の多カ
メラ映像データであり、撮影時刻や撮影場所(撮影範
囲)などの属性データ2bや、映像実体データ2aを含
む。3は対話手段6の要求により第1の多カメラ映像デ
ータ2から条件に合った映像データを探し出して出力す
る検索手段である。4は検索手段3により出力された第
1の映像データの部分集合である第2の多カメラ映像デ
ータであり、撮影時刻や撮影場所などの属性データ4b
や、映像実体データ4aを含む。5は地図データ、6は
ユーザ(映像表示装置の使用者)との対話処理を行う対
話手段である。7は表示手段であり、第2の多カメラ映
像データ4を表示する映像表示手段7aと地図データ5
を表示する地図表示手段7bとを有する。8は画面を表
示する表示機器である。
2. Description of the Related Art FIGS. 6 to 9 show, for example, (Hata et al., "Browsing method of multi-view video using importance of video and map", IPSJ Database System Research Group Research Report, 119-36, pp. 146-64). 213-218) is a diagram for explaining the conventional video display device shown in FIG. 6, FIG. 6 is a block diagram showing the configuration of the conventional video display device, and FIG. 7 is a diagram showing first multi-camera video data and second video data. FIG. 8 is a diagram illustrating a layout of a display screen of a conventional video display device, and FIG. 9 is a diagram illustrating a problem in display. In FIG. 6, reference numeral 1 denotes element data including information such as the event 1a and the object 1b. Reference numeral 2 denotes first multi-camera video data captured by a plurality of cameras and time-synchronized with each other, and includes attribute data 2b such as a shooting time and a shooting location (shooting range), and video entity data 2a. Reference numeral 3 denotes search means for searching for and outputting video data meeting the conditions from the first multi-camera video data 2 at the request of the interactive means 6. Reference numeral 4 denotes second multi-camera video data, which is a subset of the first video data output by the search means 3, and attribute data 4b such as a shooting time and a shooting location.
And video entity data 4a. Reference numeral 5 denotes map data, and reference numeral 6 denotes an interactive means for performing interactive processing with a user (a user of the video display device). Reference numeral 7 denotes display means, which is an image display means 7a for displaying the second multi-camera image data 4 and map data 5
And a map display means 7b for displaying Reference numeral 8 denotes a display device for displaying a screen.

【0003】表示画面を示す図8において、140は映
像ウィンドウであり、地図55上に重畳して表示され
る。151、152はスクロールバー、160は再生ボ
タンである。
[0005] In FIG. 8 showing a display screen, reference numeral 140 denotes a video window, which is superimposed on the map 55 and displayed. 151 and 152 are scroll bars, and 160 is a play button.

【0004】第1の多カメラ映像データ2は、画像フレ
ームの時系列集合である実体データ2aと、各画像フレ
ームがいつ撮影されたかを示す撮影時刻および何処を撮
影したかを示す撮影範囲から構成される属性データ2b
とからなり、相互に関連付けて伝送あるいは蓄積され
る。撮影範囲はGPS(Global Positio
ning System)等から得られるカメラの位置
データやカメラ自身から出力される向き、撮影方向(パ
ン、チルト)、ズームといったカメラデータを用いて幾
何計算により求めることができる。要素データ1は、対
象とする領域に存在する建物等のオブジェクトや、交通
渋滞や火災発生等のイベントに関する情報を含むデータ
であり、オブジェクトデータ1bはオブジェクトの名称
や位置データなどを有し、イベントデータ1aはイベン
トの種類や発生した時刻及び位置データなどを有する。
The first multi-camera video data 2 includes entity data 2a which is a time-series set of image frames, a shooting time indicating when each image frame was shot, and a shooting range indicating where the image frame was shot. Attribute data 2b
And transmitted or stored in association with each other. The shooting range is GPS (Global Position)
This can be obtained by geometric calculation using camera data such as camera position data obtained from, for example, the Ning System, and camera data such as the direction, shooting direction (pan, tilt), and zoom output from the camera itself. The element data 1 is data including information on an object such as a building existing in a target area or an event such as traffic congestion or a fire occurrence. The object data 1b has an object name or position data and the like. The data 1a includes the type of event, the time when the event occurred, and position data.

【0005】次に、図7を用いて検索動作について説明
する。図7(a)は第1の多カメラ映像データを、
(b)は第2の多カメラ映像データをそれぞれ示してお
り、時間区間を線分で表し、イベントのタイプをEn
(nは自然数)で表している。ユーザは見たい要素や時
間区間を対話手段6により指定する。例えば、第1の多
カメラ映像データ2の中から、時間区間[Ts、Te]
で発生したタイプE1のイベントを写している映像区間
を抽出する場合について説明すると、検索要求を受け取
った検索手段3は、要素データ1が持つ位置や時間に関
するデータと映像の属性データ2b用いて、各々の映像
区間がどの要素を撮影しているかを計算することによ
り、図7(b)に示すような第2の多カメラ映像データ
を得、出力する。
Next, a search operation will be described with reference to FIG. FIG. 7A shows the first multi-camera video data,
(B) shows the second multi-camera video data, in which the time section is represented by a line segment and the event type is En
(N is a natural number). The user specifies an element or a time section to be viewed by the interactive means 6. For example, from the first multi-camera video data 2, a time section [Ts, Te]
In the following, a description will be given of a case where a video section in which an event of type E1 occurred in step (1) is extracted. The search unit 3 that has received the search request uses the data related to the position and time of the element data 1 and the attribute data 2b of the video. By calculating which element each video section captures, second multi-camera video data as shown in FIG. 7B is obtained and output.

【0006】図8に示すように、地図表示手段7bは、
スクロールや縮尺変更など対話手段6を経由してユーザ
から指定された領域の地図を表示する。映像表示手段7
aは、第2の多カメラ映像データ4を、地図55上で各
々のカメラや撮影範囲の近傍に、映像ウィンドウ140
として重畳表示する。従って、図9(a)に示すよう
に、地図の表示領域101に再生中の撮影時刻に対する
映像データが存在する場合には、地図上に映像が表示さ
れるが、図9(b)に示すように、地図の全域100の
中には再生中の撮影時刻に対する映像データが存在して
も、表示される地図の範囲(表示領域101)によって
はその領域を撮影する映像データが存在しないため、地
図上には映像が表示されない場合がある。また、再生モ
ードが選択されている場合、全く映像データが存在しな
い区間も画面は変化しないまま時間が経過する場合もあ
る。
[0008] As shown in FIG. 8, the map display means 7 b
A map of an area designated by the user via the interactive means 6 such as scrolling or changing the scale is displayed. Image display means 7
a shows that the second multi-camera image data 4 is displayed on the map 55 near each camera and the photographing range in the image window 140.
Is superimposed. Therefore, as shown in FIG. 9A, when video data corresponding to the shooting time being reproduced exists in the display area 101 of the map, the video is displayed on the map, but as shown in FIG. 9B. As described above, even if video data corresponding to the shooting time during reproduction exists in the entire area 100 of the map, video data for capturing that area does not exist depending on the range of the displayed map (display area 101). Video may not be displayed on the map. Also, when the reproduction mode is selected, the time may elapse without changing the screen even in a section where no video data exists.

【0007】[0007]

【発明が解決しようとする課題】従来の映像表示装置は
上記のように構成され、監視領域の一部を拡大した地図
とその地図領域を写す映像を重畳表示し、さらに検索要
求を満足する映像区間が全く存在しない場合も再生処理
を継続しているので、画面に映像が表示されない場合、
検索要求を満たす映像データが全く存在しないためなの
か、それとも表示される地図領域を写す映像データが存
在しないだけなのかを判断できず、また、映像データが
全く存在しない区間が長時間にわたる場合、全体を観察
するのに無駄な時間を費やすなどの問題点があった。
The conventional image display apparatus is constructed as described above, and superimposes a map enlarging a part of the monitoring area and an image showing the map area, and further satisfies the search request. Since the playback process is continued even when there is no section, if no image is displayed on the screen,
If it is impossible to determine whether there is no video data that satisfies the search request or only video data that captures the displayed map area does not exist, and if there is a long period where no video data exists, There were problems such as wasting time on observing the whole.

【0008】本発明は、上記のような従来のものの問題
点を解決するためになされたものであり、画面に映像が
表示されない場合、映像データが全く存在しないためな
のか否かを判断でき、映像データが全く無い区間も知ら
ずに観察し続けることで無駄な時間を費やすのを防止す
ることができる映像表示装置を得ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the related art. When an image is not displayed on a screen, it can be determined whether or not image data does not exist at all. It is an object of the present invention to provide a video display device capable of preventing useless time from being continuously observed without knowing a section having no video data.

【0009】[0009]

【課題を解決するための手段】本発明に係る映像表示装
置は、複数のカメラで撮影され相互に時間同期した多カ
メラ映像データを撮影時刻に基づき同期再生する第1の
表示手段と、各カメラで撮影された映像データの時間区
間を表示する第2の表示手段とを備え、第1の表示手段
と第2の表示手段とが連動するように構成したものであ
る。
According to the present invention, there is provided an image display apparatus comprising: first display means for synchronously reproducing multi-camera image data shot by a plurality of cameras and time-synchronized with each other based on a shooting time; And a second display means for displaying a time section of the video data photographed in step (1), wherein the first display means and the second display means are interlocked.

【0010】また、複数のカメラで撮影され相互に時間
同期した多カメラ映像データを撮影時刻に基づき同期再
生する第1の表示手段を備え、第1の表示手段は、上記
何れのカメラで撮影された映像データも存在しない区間
を飛ばして同期再生するものである。
Also, there is provided first display means for synchronously reproducing multi-camera video data taken by a plurality of cameras and time-synchronized with each other based on the shooting time, and the first display means is provided with any of the above cameras. In this case, synchronous playback is performed by skipping a section in which no video data exists.

【0011】また、複数のカメラで撮影され相互に時間
同期した多カメラ映像データを撮影時刻に基づき同期再
生する第1の表示手段を備え、第1の表示手段は、上記
何れのカメラで撮影された映像データも存在しない区間
を映像データが存在しないことを明示して同期再生する
ものである。
Also, there is provided first display means for synchronously reproducing multi-camera video data taken by a plurality of cameras and time-synchronized with each other based on the photographing time, and the first display means is provided by any of the above cameras. In the section where no video data exists, synchronous reproduction is performed by explicitly indicating that no video data exists.

【0012】さらに、複数のカメラで撮影され相互に時
間同期した第1の多カメラ映像データの中から、与えら
れた条件を満足する映像データを検索し、第2の多カメ
ラ映像データとして出力する検索手段を備え、第1の表
示手段は、第2の多カメラ映像データを撮影時刻に基づ
き同期再生するものである。
Further, from among the first multi-camera video data shot by a plurality of cameras and time-synchronized with each other, video data satisfying a given condition is searched for and output as second multi-camera video data. A search means is provided, and the first display means reproduces the second multi-camera video data synchronously based on the shooting time.

【0013】[0013]

【発明の実施の形態】実施の形態1.以下、本発明の実
施の形態について、図を参照しながら説明する。図1〜
図3は本発明の実施の形態1による映像表示装置を説明
するための図であり、より具体的には、図1は映像表示
装置の構成を示すブロック図、図2は表示画面のレイア
ウトの一例を示す図、図3は表示画面のレイアウトの別
の例を示す図である。図1において、10は複数のカメ
ラにより撮影され相互に時間同期した多カメラ映像デー
タ、21は多カメラ映像データを撮影時刻を基準に同期
再生する第1の表示手段(映像表示手段)、22は各カ
メラで撮影された映像データの時間区間を表示する第2
の表示手段(時間区間表示手段)、8は画面を表示する
CRT(Cathode Ray Tube)モニタ等
の表示機器である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Figure 1
FIG. 3 is a diagram for explaining the video display device according to the first embodiment of the present invention. More specifically, FIG. 1 is a block diagram showing the configuration of the video display device, and FIG. FIG. 3 is a diagram illustrating an example, and FIG. 3 is a diagram illustrating another example of a layout of a display screen. In FIG. 1, reference numeral 10 denotes multi-camera video data captured by a plurality of cameras and time-synchronized with each other; 21, first display means (video display means) for synchronously reproducing the multi-camera video data based on the shooting time; Second to display time section of video data shot by each camera
And display device 8 such as a CRT (Cathode Ray Tube) monitor for displaying a screen.

【0014】多カメラ映像データ10は、画像フレーム
の時系列集合である映像の実体データ10aと、各画像
フレームがいつ撮影されたかを示す撮影時刻を少なくと
も含んだ属性データ10bとからなり、相互に関連付け
て撮影現場から伝送される、あるいはハードディスクや
光ディスク等に記録蓄積される。表示手段21,22
は、パソコンやワークステーション等のグラフィックス
機能を備えた計算機に実装されるソフトウェアプログラ
ムにより、あるいはこれとリアルタイムの動画像再生を
ハードウェアで実現する映像再生ボード等とを組み合わ
せて実現される。
The multi-camera video data 10 is composed of video entity data 10a, which is a time-series set of image frames, and attribute data 10b including at least a shooting time indicating when each image frame was shot. It is transmitted from the shooting site in association with it, or recorded and stored on a hard disk, an optical disk, or the like. Display means 21, 22
Is realized by a software program mounted on a computer having a graphics function, such as a personal computer or a workstation, or by combining this with a video reproduction board that realizes real-time moving image reproduction by hardware.

【0015】図2は表示機器8に表示される表示画面の
レイアウトの一例を示している。図2において、40は
映像表示エリア、41はカメラiにより撮影された映像
を表示するウィンドウ、42はカメラjにより撮影され
た映像を表示するウィンドウであり、映像表示手段21
により、複数の映像ウインドウが同期再生される。図2
では、カメラiとカメラjの2つのカメラにより撮影さ
れた映像ウィンドウ41と42が同期再生されている例
を示している。43は背景である。また、50は撮影時
間表示エリア、51は再生中の時刻を示すバー、52は
各映像が撮影された時間区間を示すバー、53は時間
軸、54はカメラ名である。時間区間表示手段22によ
り、撮影時間区間がカメラ毎に表示されており、図2の
例では、カメラiとカメラjの撮影時間区間52が撮影
時刻を軸53とするグラフ上に表示され、そのグラフ上
で現在の映像再生時刻をバー51で示している。
FIG. 2 shows an example of a layout of a display screen displayed on the display device 8. In FIG. 2, reference numeral 40 denotes an image display area; 41, a window for displaying an image captured by the camera i; 42, a window for displaying an image captured by the camera j;
Thus, a plurality of video windows are synchronously reproduced. FIG.
Shows an example in which video windows 41 and 42 captured by two cameras, i and j, are synchronously reproduced. 43 is a background. Also, 50 is a shooting time display area, 51 is a bar showing the time during playback, 52 is a bar showing the time section in which each video was shot, 53 is a time axis, and 54 is a camera name. The shooting time section is displayed for each camera by the time section display means 22, and in the example of FIG. 2, the shooting time section 52 of the camera i and the camera j is displayed on a graph with the shooting time as the axis 53. The current video playback time is indicated by a bar 51 on the graph.

【0016】次に動作について説明する。映像表示手段
21は多カメラの映像実体データ10aを撮影時刻に基
づき同期させて表示機器8へ表示し、時間区間表示手段
22は属性データ10bから撮影時刻情報を抽出して表
示機器8へ表示する。この際、映像表示手段21と時間
区間表示手段22は、撮影時刻情報に基づいて表示映像
の更新とグラフ上のバー51,52の移動とを連動させ
て表示する。
Next, the operation will be described. The video display means 21 synchronizes and displays the video entity data 10a of the multiple cameras on the display device 8 based on the shooting time, and the time section display means 22 extracts the shooting time information from the attribute data 10b and displays it on the display device 8. . At this time, the video display means 21 and the time section display means 22 display the update of the display video and the movement of the bars 51 and 52 on the graph in association with each other based on the shooting time information.

【0017】本実施の形態では、カメラ毎に映像の撮影
時刻を把握できるため、ある映像ウィンドウが表示され
ない場合、あるいは表示が更新されなくなった場合な
ど、単に映像データが無いだけなのか、それともシステ
ム等の不具合など別の原因であるのかが一目で判断でき
る。また、映像ウィンドウの表示内容とグラフ上のバー
とが連動するため、上記グラフ上のバーにより現在の映
像再生時刻を容易に知ることができる。
In the present embodiment, since the shooting time of an image can be ascertained for each camera, when a certain image window is not displayed or when the display is not updated, whether there is simply no image data or the system It can be determined at a glance whether the cause is another cause such as a defect such as a defect. Further, since the display contents of the video window and the bar on the graph are linked, the current video playback time can be easily known from the bar on the graph.

【0018】なお、図2において背景43を地図とし、
地図上の各々のカメラや撮影範囲の近傍に映像ウィンド
ウ41,42を重畳表示する、あるいは映像ウィンドウ
41,42から地図上の撮影位置へ引込み線をひく、と
いった手法で映像と撮影場所とを対応付けることによ
り、各々のカメラの撮影場所と撮影時刻とを意識しなが
ら多カメラ映像を同期再生表示することができる。この
表示画面の一例を図3に示す。図3において、55は映
像表示エリア40に表示された地図である。このような
地図55上への映像ウィンドウ41,42の重畳表示
は、属性データ10bとして撮影範囲を含むと共に、地
図データおよび地図表示手段を備えることにより、従来
技術で説明したのと同様に実現できる。
In FIG. 2, the background 43 is a map,
The video is associated with the shooting location by a method such as superimposing the video windows 41 and 42 near each camera or shooting range on the map, or drawing a drop-in line from the video windows 41 and 42 to the shooting location on the map. Thereby, the multi-camera video can be synchronously reproduced and displayed while being aware of the shooting location and shooting time of each camera. FIG. 3 shows an example of this display screen. In FIG. 3, reference numeral 55 denotes a map displayed in the video display area 40. Such superimposed display of the video windows 41 and 42 on the map 55 can be realized in the same manner as described in the related art by including the shooting range as the attribute data 10b and providing the map data and the map display means. .

【0019】映像ウィンドウの配置方法としては、映像
ウィンドウが縦横規則的に配置されたマトリクス形状に
配置する方法や上記のように撮影位置に基づき地図上の
撮影位置と関連付けて配置する方法、あるいはCG(コ
ンピュータグラフィックス)などにより構成された3次
元空間上に地図の場合と同様に撮影位置と関連付けて配
置する方法などが考えられる。これは、後出の各実施の
形態においても特に断らないが同様である。
As a method of arranging the image windows, a method of arranging the image windows in a matrix shape arranged regularly and vertically, a method of arranging the image windows in association with the photographing position on the map based on the photographing position as described above, or CG As in the case of a map, a method of arranging images in a three-dimensional space constituted by (computer graphics) or the like in association with a shooting position can be considered. This is the same in each of the following embodiments, although not particularly specified.

【0020】映像の同期再生表示中に、ある時刻におい
ていくつかの映像ウィンドウには映像データが無い場合
がある。この際の映像ウィンドウの映像表示の仕方には
いくつかのパターンが考えられ、一例を挙げれば、最後
に表示した映像を表示したままにしておいたり、青や黒
などのモノトーンカラーの映像を表示したり、表示デー
タが有るときにだけ映像ウィンドウを表示し、表示デー
タが無いときには映像ウィンドウを閉じるまたは小さく
するというような表示手法がある。これは、後出の各実
施の形態においても特に断らないが同様である。
During the synchronous reproduction display of the video, there is a case where there is no video data in some video windows at a certain time. At this time, there are several ways to display the image in the image window.For example, the last displayed image can be kept displayed, or a monotone color image such as blue or black can be displayed. There is a display method in which the video window is displayed only when there is display data, and the video window is closed or reduced when there is no display data. This is the same in each of the following embodiments, although not particularly specified.

【0021】また、図2および図3における撮影時間表
示エリア50(グラフ)は様々な表示の仕方が考えられ
る。例えば、撮影時間帯(時間区間)を撮影の開始時刻
と終了時刻のみで表したり、グラフ上に撮影開始時刻や
終了時刻を数値で表示したり、撮影時間帯に目盛を表示
する方法も考えられる。また、撮影時刻に偏りがある場
合などはグラフの時間軸53は非線型増加で表記された
り、部分的に表記されるようなデフォルメしたものでも
よい。グラフの時間軸53は例えば撮影時刻の最古時刻
と最新時刻から構成されてもよいし、例えば13:00
〜14:00というようなある固定の時間軸幅であって
もよい。また、ある注目した撮影時間区間を元に時間軸
幅を決めることも考えられる。また、複数のカメラの撮
影時間帯を一つのグラフ上に表示するのではなく、カメ
ラ毎にグラフが表示されることも考えられる。この場合
には、グラフはある場所に並んで表示されたり、対応す
る映像ウィンドウの周辺に表示される。また、図2およ
び図3ではグラフの縦軸にカメラ名54を用いたが、カ
メラ名ではなく、撮影場所や撮影角度、撮影者、被写
体、映像のタイトルなどのメタ情報あるいは映像ウィン
ドウであってもよい。また、図2および図3では映像再
生時刻を示すインジケータにバー51を用いたが、これ
に関しても様々なものが考えられる。例えば、撮影時間
帯毎に時刻カーソルがあり、この時刻カーソルが移動し
てもよいし、撮影時間帯が部分的に点滅したり色変化し
たりすることが考えられる。また、インジケータの代わ
りに、映像ウィンドウがグラフ上を移動してもよい。あ
るいはインジケータは静止していて、撮影時間帯と時間
軸の方がスクロールしてもよい。また、撮影時間区間は
グラフ表示ではなく、単なる数値表示であってもよい。
The shooting time display area 50 (graph) in FIGS. 2 and 3 can be displayed in various ways. For example, a method of expressing the shooting time zone (time section) only by the start time and end time of shooting, displaying the shooting start time and end time in numerical values on a graph, and displaying scales in the shooting time zone are also conceivable. . Further, when there is a bias in the photographing time, the time axis 53 of the graph may be represented by a non-linear increase, or may be a deformed one that is partially represented. The time axis 53 of the graph may be composed of, for example, the oldest time and the latest time of the photographing time, for example, 13:00.
It may be a fixed time axis width such as ~ 14: 00. It is also conceivable to determine the time axis width based on a certain focused shooting time section. Further, instead of displaying the shooting time zones of a plurality of cameras on one graph, a graph may be displayed for each camera. In this case, the graphs are displayed side by side at a certain place, or displayed around the corresponding video window. In FIGS. 2 and 3, the vertical axis of the graph uses the camera name 54. However, instead of the camera name, meta information such as a shooting location, a shooting angle, a photographer, a subject, and a video title or a video window is used. Is also good. Further, in FIGS. 2 and 3, the bar 51 is used as an indicator indicating the video reproduction time, but various things can be considered. For example, a time cursor may be provided for each shooting time zone, and the time cursor may move, or the shooting time zone may partially flash or change color. Also, instead of the indicator, the video window may move on the graph. Alternatively, the indicator may be stationary, and the shooting time zone and the time axis may scroll more. Further, the shooting time section may be simply displayed as a numerical value instead of a graph.

【0022】また、映像ウィンドウとグラフとの位置関
係は、事前に決められた位置関係であってもよいし、ユ
ーザ操作により設定されてもよい。
The positional relationship between the video window and the graph may be a predetermined positional relationship or may be set by a user operation.

【0023】また、映像再生時刻の操作方法としては、
再生時刻を操作するボタンがあってもいいし、グラフ上
のインジケータをマウスドラッグなどで操作してシーク
させる方法も考えられる。
The operation method of the video reproduction time is as follows.
There may be a button for operating the playback time, or a method of seeking by operating the indicator on the graph by dragging the mouse or the like can be considered.

【0024】なお、映像表示手段21と時間区間表示手
段22との連動は、一方を操作すると他方も連動して時
刻同期するような場合と、片方からしか操作できない場
合が考えられる。両者が連動する場合には、例えば、映
像時刻を操作すると映像の同期再生に合わせてグラフ上
で時刻が図的、数字で変化、表示され、グラフのカーソ
ル等のインジケータを動かすと映像がシークされたり、
早送り表示されると言うようなことが考えられる。
The image display means 21 and the time section display means 22 can be linked in two ways: one is operated and the other is also linked to synchronize the time. When both are linked, for example, when the video time is manipulated, the time is graphically and numerically changed and displayed on the graph according to the synchronized playback of the video, and the video is sought by moving the indicator such as the cursor of the graph. Or
It is conceivable that fast-forward display is performed.

【0025】実施の形態2.図4〜図6は本発明の実施
の形態2による映像表示装置を説明するための図であ
り、より具体的には、図4は映像表示装置の構成を示す
ブロック図、図5は第1の多カメラ映像データと第2の
多カメラ映像データとを説明する図である。図4におい
て、2は複数のカメラで撮影され相互に時間同期した第
1の多カメラ映像データであり、撮影時刻や撮影場所
(撮影範囲)などの属性データ2bや、映像実体データ
2aを含む。3は対話手段6の要求により第1の多カメ
ラ映像データ2の中から与えられた条件を満足する映像
データを検索し、第2の多カメラ映像データとして出力
する検索手段である。4は検索手段3により出力された
第1の映像データの部分集合である第2の多カメラ映像
データであり、撮影時刻や撮影場所などの属性データ4
bや、映像実体データ4aを含む。70は第2の多カメ
ラ映像データ4を撮影時刻に基づき同期再生する第1の
表示手段であり、映像データが全く存在しない(検索条
件を満たす何れのカメラで撮影された映像データも存在
しない)区間を飛ばして同期再生する。8は画面を表示
するCRTモニタ等の表示機器である。
Embodiment 2 4 to 6 are views for explaining an image display device according to the second embodiment of the present invention. More specifically, FIG. 4 is a block diagram showing the configuration of the image display device, and FIG. FIG. 5 is a diagram for explaining multi-camera video data and second multi-camera video data. In FIG. 4, reference numeral 2 denotes first multi-camera video data captured by a plurality of cameras and time-synchronized with each other, and includes attribute data 2b such as a shooting time and a shooting location (shooting range), and video entity data 2a. Reference numeral 3 denotes search means for searching the first multi-camera video data 2 for video data that satisfies a given condition in response to a request from the interactive means 6, and outputting the video data as second multi-camera video data. Reference numeral 4 denotes second multi-camera video data, which is a subset of the first video data output by the search means 3, and includes attribute data 4 such as a shooting time and a shooting location.
b and the video entity data 4a. Reference numeral 70 denotes first display means for synchronously reproducing the second multi-camera video data 4 based on the shooting time, and no video data exists (no video data captured by any camera satisfying the search condition). Synchronous playback skips sections. Reference numeral 8 denotes a display device such as a CRT monitor for displaying a screen.

【0026】第1の多カメラ映像データ2は実施の形態
1と同様に、画像フレームの時系列集合である映像実体
データ2aと各画像フレームがいつ撮影されたかを示す
撮影時刻を少なくとも含んだ属性データ2bとからな
り、相互に関連付けて撮影現場から伝送される、あるい
はハードディスクや光ディスク等に記録蓄積される。第
1の表示手段70は、パソコンやワークステーション等
のグラフィックス機能を備えた計算機に実装されるソフ
トウェアプログラムにより、あるいはこれとリアルタイ
ムの動画像再生をハードウェアで実現する映像再生ボー
ド等とを組み合わせて実現される。
Similar to the first embodiment, the first multi-camera video data 2 includes video entity data 2a, which is a time-series set of image frames, and an attribute including at least a shooting time indicating when each image frame was shot. The data 2b is transmitted from the shooting site in association with each other, or recorded and stored on a hard disk, an optical disk, or the like. The first display means 70 is realized by a software program mounted on a computer having a graphics function such as a personal computer or a workstation, or a combination of the software program with a video reproduction board for real-time video reproduction by hardware. Is realized.

【0027】次に動作について説明する。検索手段3は
第1の多カメラ映像データ2の中から、検索条件を満足
する映像データを検索し、第2の多カメラ映像データ4
として抽出(出力)する。この際、検索条件は映像表示
装置内部で自動的に設定される、あるいはユーザが従来
技術と同様の対話手段(図示せず)の操作等により明示
的に指示することで決定される。図5では、多カメラの
映像データの集合である第1の多カメラ映像データ(図
5(a))の中から、時間区間[Ts、Te]内にある
映像データを検索し、第2の多カメラ映像データ(図5
(b))として抽出する例を示している。この検索は、
各フレームの撮影時刻と検索条件の時刻範囲とを比較す
ることにより行われる。なお、図5において、各カメラ
i、j、k...が撮影した映像データの時間区間を線分
で表わしている。
Next, the operation will be described. The search means 3 searches the first multi-camera video data 2 for video data that satisfies the search condition, and searches for the second multi-camera video data 4.
Is extracted (output). At this time, the search condition is automatically set inside the video display device, or is determined by the user explicitly instructing by operating the interactive means (not shown) similar to the related art. In FIG. 5, video data in a time section [Ts, Te] is searched from first multi-camera video data (FIG. 5A) which is a set of video data of multiple cameras, and a second video data is searched for. Multi-camera video data (Fig. 5
An example of extracting as (b)) is shown. This search is
This is performed by comparing the shooting time of each frame with the time range of the search condition. In FIG. 5, the time section of the video data captured by each of the cameras i, j, k,... Is represented by a line segment.

【0028】第1の表示手段70は、撮影時刻を基準に
して第2の多カメラ映像データ4を同期させ、各カメラ
に対応する表示位置へ映像を表示する。この際、第1の
表示手段70は、第2の多カメラ映像データ4の撮影時
刻を管理しており、映像データが全く存在しない時間区
間があれば次に映像データが存在する時刻まで時間シフ
トして(飛ばして)同期再生する。例えば、図5(b)
に示すような第2の多カメラ映像データを同期再生する
際には、再生時刻がTaになると、次に表示する映像フ
レームが全く存在しないため、次に何らかの映像データ
が存在する時刻Tbまで再生時刻を進めて(シフトし
て)再生を続ける。また、再生時刻Tcにも次に表示す
る映像フレームが全く存在しないため、次に何らかの映
像データが存在する時刻Tdまで再生時刻を進めて(シ
フトして)再生を続ける。
The first display means 70 synchronizes the second multi-camera video data 4 with reference to the photographing time, and displays a video at a display position corresponding to each camera. At this time, the first display means 70 manages the photographing time of the second multi-camera video data 4, and if there is a time section in which no video data exists, the first display means 70 shifts the time until the next video data exists. Then (skip) and play back synchronously. For example, FIG.
When synchronously playing back the second multi-camera video data as shown in (1), if the playback time reaches Ta, there is no video frame to be displayed next, so playback is performed until time Tb when some video data exists next. Advances (shifts) the time and continues playback. Also, since there is no video frame to be displayed next at the reproduction time Tc, the reproduction time is advanced (shifted) to the next time Td at which some video data exists, and the reproduction is continued.

【0029】すなわち、図5(b)の場合には、まず、
再生時刻Tsからカメラi,j,kの映像が同期再生さ
れ、次にカメラi,kの映像データが無くなった後しば
らくはカメラjの映像が単独で再生され、再生時刻Tb
を過ぎてカメラiが撮影された時刻に差しかかるとカメ
ラiの映像とカメラjの映像とが同期再生表示される。
その後、カメラjの映像データが無くなると再生時刻T
cまでカメラiの映像のみが再生表示される。再生時刻
Tcにおいても同様に、Tdまで再生時刻を進めて(シ
フトして)再生を続けるので、カメラiの単独映像から
カメラjの単独映像に切り替わり、カメラkが撮影され
た時刻に差しかかるとカメラjの映像とカメラkの映像
とが同期再生表示される。
That is, in the case of FIG. 5B, first,
The video of the camera i, j, and k is synchronously reproduced from the reproduction time Ts, and then the video of the camera j is reproduced independently for a while after the video data of the camera i and k disappears, and the reproduction time Tb
When the time when the camera i is shot after passing, the video of the camera i and the video of the camera j are synchronously reproduced and displayed.
Thereafter, when the video data of the camera j runs out, the reproduction time T
Only the image of camera i is reproduced and displayed up to c. Similarly, at the playback time Tc, the playback time is advanced (shifted) to Td and the playback is continued, so that the single video of the camera i is switched to the single video of the camera j, and the time when the camera k is shot is approached. The video of the camera j and the video of the camera k are synchronously reproduced and displayed.

【0030】このように本実施の形態では、第1の表示
手段70が映像データの全く存在しない時間区間を飛ば
して(時間シフトして)再生するようにしたことによ
り、映像データが全く無い区間も観察し続けることによ
り無駄な時間を費やすのを防止することができ、しか
も、画面に映像が表示されない場合には、映像データが
全く存在しないためではなく、他に原因があると判断で
きる。
As described above, in the present embodiment, the first display means 70 reproduces the image data by skipping the time section in which no video data exists at all (by shifting the time), thereby providing the section in which no video data exists. It is possible to prevent wasting time by continuing to observe, and when no image is displayed on the screen, it can be determined that there is another cause, not because there is no image data.

【0031】本実施の形態における映像データの表示画
面のレイアウトは、例えば図2の映像表示エリア40の
レイアウトと同様である。第1の表示手段70により、
複数の映像ウインドウが同期再生される。なお、背景を
地図とし、実施の形態1の図3の場合と同様の手法によ
り映像と撮影場所とを対応付けて同期再生表示すること
が考えられる。このように、地図を背景とした場合に、
従来技術では図9(b)を用いて説明したように、検索
要求を満たす映像データは存在するのにもかかわらず表
示される地図の範囲(表示領域)によってはその領域を
撮影する映像データが存在しないために地図上に映像が
表示されない場合があり、映像データが全く存在しない
ためなのか、それとも表示される地図領域を写す映像デ
ータが存在しないだけなのかを判断できないという問題
があった。これに対して、本実施の形態では、第1の表
示手段70が映像データの全く存在しない時間区間を飛
ばして再生するようにしたことにより、画面に映像が表
示されない場合には、映像データが全く存在しないため
ではなく、他に原因がある(表示される地図領域を写す
映像データが存在しないだけ)と判断できる。また、例
えば、表示地図上に表示される映像のみを検索すること
でも、表示地図上の映像かつ映像データのある時間区間
のみが再生されるため、地図上に全く映像が表示されな
いという従来技術の課題を解決できる。
The layout of the display screen of the video data in the present embodiment is the same as the layout of the video display area 40 in FIG. 2, for example. By the first display means 70,
A plurality of video windows are played back synchronously. It is conceivable that the background is a map and the video and the shooting location are associated with each other and synchronously reproduced and displayed by the same method as in FIG. 3 of the first embodiment. In this way, when the background is a map,
In the related art, as described with reference to FIG. 9B, although there is video data that satisfies the search request, depending on the range (display area) of the map to be displayed, video data that captures that area may not be available. There is a case where no video is displayed on the map because it does not exist, and there is a problem that it cannot be determined whether there is no video data or only there is no video data that captures the displayed map area. On the other hand, in the present embodiment, the first display means 70 skips the time section in which no video data exists at all and reproduces the video data, so that when the video is not displayed on the screen, the video data is displayed. It can be determined that there is another cause (just that there is no video data depicting the displayed map area), not because it does not exist at all. Also, for example, by searching for only the video displayed on the display map, since only the video on the display map and a certain time section with video data are reproduced, the conventional technology that no video is displayed on the map is used. The problem can be solved.

【0032】なお、検索手段における一般的な検索条件
としては、撮影時間区間、撮影範囲、カメラまたはカメ
ラ集合、撮影している被写体、映像撮影のトリガー種
別、注釈、シーンチェンジ等とこれらのAND、ORの
組合せが考えられる。例えば、撮影被写体を検索条件と
して検索し、該当映像のみを表示した場合、本実施の形
態では対象となる被写体を撮影した映像のみが連続的に
表示され、移動体や対象オブジェクトの追跡を容易に行
えるなどの効果が得られる。また、ある特定のカメラま
たはカメラ集合の撮影時刻を基準とする時間検索やある
被写体の撮影時刻を基準とする時間検索など、ある条件
の撮影時刻を基準とした検索が考えられる。撮影被写体
やトリガー種別、注釈による検索は、例えば、別途撮影
オブジェクトやイベント、注釈を映像区間と関連付けて
管理する従来技術で説明した要素データのようなデータ
ベースが存在することにより実現される。これは、後出
の実施の形態3においても特に断らないが同様である。
The general search conditions in the search means include a shooting time section, a shooting range, a camera or a group of cameras, a shooting subject, a type of video shooting trigger, an annotation, a scene change, and their AND, OR combinations are possible. For example, when a photographic subject is searched as a search condition and only the corresponding video is displayed, only the video of the target subject is continuously displayed in the present embodiment, and tracking of a moving object or a target object can be easily performed. The effect of being able to perform is obtained. In addition, a search based on a shooting time under a certain condition, such as a time search based on the shooting time of a specific camera or a group of cameras or a time search based on the shooting time of a certain subject, can be considered. The search based on the shooting subject, the trigger type, and the annotation is realized by, for example, the presence of a database such as the element data described in the related art that manages the shooting object, event, and annotation separately in association with the video section. The same applies to the third embodiment described later, although not particularly specified.

【0033】また、全く映像が無い時間区間を時間シフ
トして再生する際に、シフトすることを明示的にユーザ
へ知らせることで、ユーザの混乱を防ぐ効果があるが、
明示の仕方としては、映像ウィンドウの拡大表示やウィ
ンドウの淵の色が変化するといった強調表示、シフトし
たことを知らせるメッセージ表示や音などが考えられ
る。また、実施の形態1のように、表示画面上にグラフ
などにより撮影時刻(映像の時間区間)を明示すること
でも、どの区間に映像データがあるかがわかるため、時
間シフトの発生を予測できるので、ユーザの混乱を和ら
げることができる。また、ユーザの確認をとってから時
間区間を飛ばす半自動的な時間シフトも考えられる。
Further, when a time period in which there is no video at all is time-shifted and reproduced, it is possible to prevent the user from being confused by explicitly notifying the user of the shift.
As a way of specifying, a magnified display of the video window, a highlighted display such as a change in the color of the edge of the window, a message display indicating the shift, a sound, or the like can be considered. Also, as in the first embodiment, by specifying the shooting time (time section of a video) on a display screen by a graph or the like, it is possible to know in which section the video data is present, so that the occurrence of a time shift can be predicted. Therefore, confusion of the user can be reduced. Also, a semi-automatic time shift that skips a time section after a user's confirmation is considered is also conceivable.

【0034】本実施の形態による映像表示装置は、例え
ば、映像データベースから所望の映像データを検索する
場合や、映像を含むマルチメディアドキュメントや検索
結果を端末に取り組み、対話的に再生する場合などに特
に有効に利用することができる。
The video display apparatus according to the present embodiment is used, for example, when searching for desired video data from a video database, or when working on a multimedia document or a search result including video on a terminal and playing back interactively. It can be used particularly effectively.

【0035】実施の形態3.本発明の実施の形態3によ
る映像表示装置の構成は図4と同じである。次に動作に
ついて、実施の形態2との相違点に重点を置いて説明す
る。検索手段3は第1の多カメラ映像データ2の中か
ら、検索条件を満足する映像データを検索し、第2の多
カメラ映像データ4として抽出(出力)するのは、実施
の形態2と同様である。この際、検索条件は映像表示装
置内部で自動的に設定される、あるいはユーザが従来技
術と同様の対話手段(図示せず)の操作等により明示的
に指示することで決定されるのも、実施の形態2と同様
である。第1の表示手段70は、撮影時刻を基準にして
第2の多カメラ映像データ4を同期させ、各カメラに対
応する表示位置へ映像を表示する。この際、第1の表示
手段70は第2の多カメラ映像データ4の撮影時刻を管
理しており、映像データが全く存在しない(検索条件を
満たす何れのカメラで撮影された映像データも存在しな
い)時間区間があれば、映像が全く存在しなことをダイ
アログ等を表示したり音を鳴らすことによりユーザへ明
示する。これによりユーザは映像の全く無い時間区間を
認知できるため、早送りしてその区間を飛ばしたり、次
に映像データがある時刻へシークしたりすることがで
き、効率的に映像を観察することができる。
Embodiment 3 FIG. The configuration of the video display device according to the third embodiment of the present invention is the same as that of FIG. Next, the operation will be described with emphasis on the difference from the second embodiment. The search means 3 searches the first multi-camera video data 2 for video data that satisfies the search condition, and extracts (outputs) the second multi-camera video data 4 as in the second embodiment. It is. At this time, the search condition is automatically set within the video display device, or is determined by the user explicitly instructing by operating the same interactive means (not shown) as in the prior art. This is the same as in the second embodiment. The first display unit 70 synchronizes the second multi-camera video data 4 with reference to the shooting time, and displays a video at a display position corresponding to each camera. At this time, the first display means 70 manages the photographing time of the second multi-camera video data 4, and no video data exists (no video data captured by any camera satisfying the search condition). If there is a time section, the fact that there is no video is displayed to the user by displaying a dialog or the like or sounding. This allows the user to recognize a time section having no video at all, so that the user can fast-forward and skip that section, or seek to the next time at which video data is present, and efficiently observe the video. .

【0036】このように、本実施の形態では、第1の表
示手段70が映像データの全く存在しない時間区間を映
像データが存在しないことをユーザへ明示して再生する
ようにしたことにより、画面に映像が表示されない場
合、ユーザは映像データが全く存在しないためなのか否
かを判断でき、映像データが全く無い区間も知らずに観
察し続けることにより無駄な時間を費やすのを防止する
ことができる。
As described above, in the present embodiment, the first display means 70 reproduces a time section in which no video data exists at all by explicitly indicating to the user that video data does not exist. If no video is displayed, the user can determine whether or not there is no video data at all, and can avoid wasting time by continuing to observe without knowing a section without video data at all. .

【0037】なお、実施の形態1や2の場合と同様に、
映像と撮影場所とを対応付けて同期再生表示することが
考えられる。このように、地図上に映像を重畳表示する
場合、従来技術では図9(b)を用いて説明したよう
に、該当する映像データが全く存在しないために映像が
表示されないのか、それとも映像ウィンドウを表示する
レイアウト上の問題で映像が表示されないのか判断でき
ないという問題があった。これに対して本実施の形態で
は、第1の表示手段70が、映像データが全く存在しな
い区間を映像データが存在しないことを明示して同期再
生するので、ユーザの混乱を防ぐことができる効果があ
る。
As in the first and second embodiments,
It is conceivable that the video and the shooting location are associated with each other and displayed synchronously. As described above, in the related art, when the video is superimposed on the map, as described with reference to FIG. 9B, whether the video is not displayed because there is no corresponding video data, or the video window is displayed. There is a problem that it is impossible to determine whether or not an image is not displayed due to a layout problem to be displayed. On the other hand, in the present embodiment, the first display means 70 synchronously reproduces a section in which no video data exists at all by explicitly indicating that no video data exists, so that the user can be prevented from being confused. There is.

【0038】また、映像が全く無い時間区間の明示の仕
方としては、例えば、映像ウィンドウの縮小表示やウィ
ンドウの色が変化するといった強調表示、映像データが
無い旨を知らせるメッセージ表示や音などが考えられ
る。また、実施の形態1のように、表示画面上にグラフ
などにより撮影時刻(映像の時間区間)を明示すること
でも、どの区間に映像データがあるかがわかるため、類
似の効果が得られる。
As a method of clearly indicating a time period in which no video is displayed, for example, a reduced display of a video window, a highlighted display in which the color of a window is changed, a message display notifying that no video data is present, and a sound are considered. Can be Also, as in the first embodiment, specifying a shooting time (a time section of a video) by a graph or the like on the display screen allows the user to know in which section the video data is present, and similar effects can be obtained.

【0039】なお、上記実施の形態2および3では、検
索手段3を備え、第1の表示手段70は、与えられた条
件を満足する第2の多カメラ映像データ4を撮影時刻に
基づき同期再生する場合について説明したが、実施の形
態1と同様に、第1の多カメラ映像データ2全てを同期
再生する場合にも、映像データが全く存在しない区間を
飛ばして同期再生したり、映像データが存在しないこと
を明示して同期再生したりしてもよく、これらの場合に
も、画面に映像が表示されない場合、映像データが全く
存在しないためなのか否かを判断でき、映像データが全
く無い区間も知らずに観察し続けることにより無駄な時
間を費やすのを防止することができるという効果が得ら
れる。
In the second and third embodiments, the retrieval means 3 is provided, and the first display means 70 reproduces the second multi-camera video data 4 which satisfies the given conditions in synchronization with the photographing time. As described in the first embodiment, when all of the first multi-camera video data 2 are synchronously reproduced, a section in which no video data exists at all is skipped, or synchronous reproduction is performed. Synchronous playback may be performed by explicitly indicating that no video data exists. In these cases, if no video is displayed on the screen, it can be determined whether or not video data does not exist at all, and there is no video data. By observing the section without knowing the section, it is possible to prevent waste of time from being spent.

【0040】また、上記実施の形態1では多カメラ映像
データ10全てをそのまま撮影時刻に基づき同期再生す
る場合について説明したが、従来技術や上記実施の形態
2および3で説明したように、検索手段3を備え、与え
られた条件を満足する第2の多カメラ映像データ4を撮
影時刻に基づき同期再生する場合にも、第1の表示手段
21と第2の表示手段22とを備え、これらが連動する
ように構成してもよく、この場合にも、映像再生中に各
カメラの映像データの有無を映像データの時間区間の表
示から直感的に容易に把握できる結果、画面に映像が表
示されない場合、映像データが全く存在しないためなの
か否かを判断でき、映像データが全く無い区間も知らず
に観察し続けることにより無駄な時間を費やすのを防止
することができるという効果が得られる。
In the first embodiment, the case where all the multi-camera video data 10 is synchronously reproduced based on the shooting time as it is has been described. However, as described in the related art and the second and third embodiments, the search means is used. 3, the first display means 21 and the second display means 22 are also provided when the second multi-camera video data 4 that satisfies the given condition is reproduced synchronously based on the shooting time. In this case, the presence or absence of the video data of each camera can be intuitively and easily grasped from the display of the time section of the video data during the video playback, so that no video is displayed on the screen. In this case, it can be determined whether or not there is no video data at all, and it is possible to prevent wasteful time by continuing to observe without knowing a section having no video data. Say the effect can be obtained.

【0041】[0041]

【発明の効果】以上のように、本発明の第1の映像表示
装置によれば、複数のカメラで撮影され相互に時間同期
した多カメラ映像データを撮影時刻に基づき同期再生す
る第1の表示手段と、各カメラで撮影された映像データ
の時間区間を表示する第2の表示手段とを備え、第1の
表示手段と第2の表示手段とが連動するように構成した
ので、映像再生中に各カメラの映像データの有無を映像
データの時間区間の表示から直感的に容易に把握できる
結果、画面に映像が表示されない場合、映像データが全
く存在しないためなのか否かを判断でき、映像データが
全く無い区間も知らずに観察し続けることにより無駄な
時間を費やすのを防止することができるという効果があ
る。
As described above, according to the first image display device of the present invention, the first display for synchronously reproducing multi-camera image data shot by a plurality of cameras and time-synchronized with each other based on the shooting time. Means, and a second display means for displaying a time section of video data shot by each camera, and the first display means and the second display means are configured to be linked to each other. As a result, the presence or absence of the video data of each camera can be intuitively and easily grasped from the display of the time section of the video data.As a result, if the video is not displayed on the screen, it can be determined whether or not there is no video data at all, By continuously observing a section where no data exists at all, it is possible to prevent wasteful time from being spent.

【0042】また、本発明の第2の映像表示装置によれ
ば、複数のカメラで撮影され相互に時間同期した多カメ
ラ映像データを撮影時刻に基づき同期再生する第1の表
示手段を備え、第1の表示手段は、上記何れのカメラで
撮影された映像データも存在しない区間を飛ばして同期
再生するので、映像データが全く無い区間も観察し続け
ることにより無駄な時間を費やすのを防止することがで
き、しかも、画面に映像が表示されない場合には、映像
データが全く存在しないためではないと判断できるとい
う効果がある。
According to the second image display apparatus of the present invention, the image display apparatus further comprises first display means for synchronously reproducing multi-camera image data shot by a plurality of cameras and time-synchronized with each other based on the shooting time. Since the display means (1) skips a section in which no video data captured by any of the above cameras exists and performs synchronous playback, it is possible to prevent wasteful time by continuing to observe a section in which no video data is present. If no video is displayed on the screen, it can be determined that it is not because there is no video data.

【0043】また、本発明の第3の映像表示装置によれ
ば、複数のカメラで撮影され相互に時間同期した多カメ
ラ映像データを撮影時刻に基づき同期再生する第1の表
示手段を備え、第1の表示手段は、上記何れのカメラで
撮影された映像データも存在しない区間を映像データが
存在しないことを明示して同期再生するので、画面に映
像が表示されない場合、映像データが全く存在しないた
めなのか否かを判断でき、映像データが全く無い区間も
知らずに観察し続けることにより無駄な時間を費やすの
を防止することができるという効果がある。
According to the third image display device of the present invention, the image display apparatus further comprises a first display means for synchronously reproducing multi-camera image data shot by a plurality of cameras and time-synchronized with each other based on the shooting time. The first display means synchronously reproduces a section in which no video data captured by any of the above cameras exists and explicitly indicates that no video data exists. Therefore, when no video is displayed on the screen, no video data exists. It is possible to determine whether or not this is a problem, and it is possible to prevent unnecessary time from being spent by continuously observing without knowing a section where there is no video data.

【0044】さらに、本発明の第4の映像表示装置によ
れば、複数のカメラで撮影され相互に時間同期した第1
の多カメラ映像データの中から、与えられた条件を満足
する映像データを検索し、第2の多カメラ映像データと
して出力する検索手段を備え、第1の表示手段は、第2
の多カメラ映像データを撮影時刻に基づき同期再生する
ので、上記第1〜第3の映像表示装置の効果に加え、限
定された映像に対してのみ上記第1〜第3の映像表示装
置の処理を行い、対象外の映像に対する処理が不要にな
るという効果がある。
Further, according to the fourth video display device of the present invention, the first video images captured by a plurality of cameras and time-synchronized with each other are obtained.
Search means for searching video data satisfying a given condition from among the multi-camera video data, and outputting the video data as second multi-camera video data.
Of the multi-camera video data is synchronously reproduced based on the photographing time. In addition to the effects of the first to third video display devices, the processing of the first to third video display devices is limited to limited video only. Is performed, and there is an effect that the processing for the video which is not the target becomes unnecessary.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 1 is a diagram for explaining a video display device according to a first embodiment of the present invention.

【図2】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 2 is a diagram for explaining the video display device according to the first embodiment of the present invention.

【図3】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 3 is a diagram for explaining the video display device according to the first embodiment of the present invention.

【図4】 本発明の実施の形態2による映像表示装置を
説明するための図である。
FIG. 4 is a diagram for explaining an image display device according to a second embodiment of the present invention.

【図5】 本発明の実施の形態2による映像表示装置を
説明するための図である。
FIG. 5 is a diagram for explaining a video display device according to a second embodiment of the present invention.

【図6】 従来の映像表示装置を説明するための図であ
る。
FIG. 6 is a diagram for explaining a conventional video display device.

【図7】 従来の映像表示装置を説明するための図であ
る。
FIG. 7 is a diagram for explaining a conventional video display device.

【図8】 従来の映像表示装置を説明するための図であ
る。
FIG. 8 is a diagram for explaining a conventional video display device.

【図9】 従来の映像表示装置を説明するための図であ
る。
FIG. 9 is a diagram for explaining a conventional video display device.

【符号の説明】[Explanation of symbols]

1 要素データ、1a イベントデータ、1b オブジ
ェクトデータ、2 第1の多カメラ映像データ、2a
映像実体データ、2b 属性データ、3 検索手段、4
第2の多カメラ映像データ、4a 映像実体データ、
4b 属性データ、5 地図データ、6 対話手段、7
表示手段、7a 映像表示手段、7b地図表示手段、
8は画面を表示する表示機器、10 多カメラ映像デー
タ、10a 映像実体データ、10b 属性データ、2
1 第1の表示手段、22 第2の表示手段、40 映
像表示エリア、41,42 映像ウィンドウ、43 背
景、50 撮影時間表示エリア、51 再生中の時刻を
示すバー、52 各映像が撮影された時間区間を示すバ
ー、53 時間軸、54 カメラ名、55 地図、70
第1の表示手段、140 映像ウィンドウ、151,
152 スクロールバー、160 再生ボタン。
1 element data, 1a event data, 1b object data, 2 first multi-camera image data, 2a
Video entity data, 2b attribute data, 3 search means, 4
Second multi-camera video data, 4a video entity data,
4b attribute data, 5 map data, 6 means of dialogue, 7
Display means, 7a video display means, 7b map display means,
Reference numeral 8 denotes a display device for displaying a screen, 10 multi-camera video data, 10a video entity data, 10b attribute data, 2
1 first display means, 22 second display means, 40 video display area, 41, 42 video window, 43 background, 50 shooting time display area, 51 bar indicating time during playback, 52 each video was captured Bar showing time section, 53 time axis, 54 camera name, 55 map, 70
First display means, 140 video window, 151,
152 scroll bar, 160 play button.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 野沢 俊治 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 5C053 HA01 JA16 LA01 LA04 LA06 5C054 EA05 EA07 FE14 FE17 FF03 GB01 HA01 HA16 HA18 HA26 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Shunji Nozawa 2-3-2 Marunouchi, Chiyoda-ku, Tokyo F-term (reference) 5C053 HA01 JA16 LA01 LA04 LA06 5C054 EA05 EA07 FE14 FE17 FF03 GB01 HA01 HA16 HA18 HA26

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 複数のカメラで撮影され相互に時間同期
した多カメラ映像データを撮影時刻に基づき同期再生す
る第1の表示手段と、各カメラで撮影された映像データ
の時間区間を表示する第2の表示手段とを備え、第1の
表示手段と第2の表示手段とが連動するように構成した
ことを特徴とする映像表示装置。
1. A first display means for synchronously reproducing multi-camera video data shot by a plurality of cameras and time-synchronized with each other based on a shooting time, and a first display means for displaying a time section of the video data shot by each camera. An image display device comprising: a first display unit and a second display unit, wherein the first display unit and the second display unit are interlocked.
【請求項2】 複数のカメラで撮影され相互に時間同期
した多カメラ映像データを撮影時刻に基づき同期再生す
る第1の表示手段を備え、第1の表示手段は、上記何れ
のカメラで撮影された映像データも存在しない区間を飛
ばして同期再生することを特徴とする映像表示装置。
2. A multi-camera video data taken by a plurality of cameras and time-synchronized with each other, comprising first display means for synchronously reproducing based on a photographing time, wherein the first display means is provided by any one of the cameras. A video display device for performing synchronous reproduction by skipping a section where no video data exists.
【請求項3】 複数のカメラで撮影され相互に時間同期
した多カメラ映像データを撮影時刻に基づき同期再生す
る第1の表示手段を備え、第1の表示手段は、上記何れ
のカメラで撮影された映像データも存在しない区間を映
像データが存在しないことを明示して同期再生すること
を特徴とする映像表示装置。
3. A multi-camera video data which is photographed by a plurality of cameras and time-synchronized with each other, is provided with a first display means for synchronously reproducing based on a photographing time, wherein the first display means is photographed by any of the above cameras. A video display device, characterized in that a section in which no video data is present is synchronously reproduced by explicitly indicating that no video data is present.
【請求項4】 複数のカメラで撮影され相互に時間同期
した第1の多カメラ映像データの中から、与えられた条
件を満足する映像データを検索し、第2の多カメラ映像
データとして出力する検索手段を備え、第1の表示手段
は、第2の多カメラ映像データを撮影時刻に基づき同期
再生することを特徴とする請求項1ないし3のいずれか
に記載の映像表示装置。
4. Searching video data satisfying a given condition from first multi-camera video data captured by a plurality of cameras and time-synchronized with each other, and outputting the video data as second multi-camera video data. 4. The video display device according to claim 1, further comprising a search unit, wherein the first display unit reproduces the second multi-camera video data synchronously based on a shooting time.
JP2001146180A 2001-05-16 2001-05-16 Video display device Pending JP2002344897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001146180A JP2002344897A (en) 2001-05-16 2001-05-16 Video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001146180A JP2002344897A (en) 2001-05-16 2001-05-16 Video display device

Publications (1)

Publication Number Publication Date
JP2002344897A true JP2002344897A (en) 2002-11-29

Family

ID=18991871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001146180A Pending JP2002344897A (en) 2001-05-16 2001-05-16 Video display device

Country Status (1)

Country Link
JP (1) JP2002344897A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050404A (en) * 2004-08-06 2006-02-16 Hitachi Kokusai Electric Inc Recorded video editing method and display method
JP2006217356A (en) * 2005-02-04 2006-08-17 Olympus Corp Digital camera system
JP2006352879A (en) * 2005-06-17 2006-12-28 Fuji Xerox Co Ltd Method of identifying and visualizing event in video frame, and system for generating timeline of event in video stream
JP2007028209A (en) * 2005-07-15 2007-02-01 Sanyo Electric Co Ltd Content reproducing device
JP2007096721A (en) * 2005-09-28 2007-04-12 Faith Inc Moving image delivery system
US7412270B2 (en) 2003-07-28 2008-08-12 Fujitsu Limited Multifunctional mobile radio communication apparatus
JP2010171561A (en) * 2009-01-21 2010-08-05 Hitachi Ltd Video information control apparatus and method
JP2011066900A (en) * 2007-11-27 2011-03-31 Canon Inc Server apparatus, display device, transmission method, and display method
US8346014B2 (en) 2007-06-15 2013-01-01 Sony Corporation Image processing apparatus and method and program
JP2014030267A (en) * 2013-10-28 2014-02-13 Hitachi Consumer Electronics Co Ltd Imaging apparatus
JP7116833B1 (en) 2021-09-28 2022-08-10 Kddi株式会社 Mobile object management device and mobile object management method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7412270B2 (en) 2003-07-28 2008-08-12 Fujitsu Limited Multifunctional mobile radio communication apparatus
JP2006050404A (en) * 2004-08-06 2006-02-16 Hitachi Kokusai Electric Inc Recorded video editing method and display method
JP2006217356A (en) * 2005-02-04 2006-08-17 Olympus Corp Digital camera system
JP2006352879A (en) * 2005-06-17 2006-12-28 Fuji Xerox Co Ltd Method of identifying and visualizing event in video frame, and system for generating timeline of event in video stream
JP2007028209A (en) * 2005-07-15 2007-02-01 Sanyo Electric Co Ltd Content reproducing device
JP2007096721A (en) * 2005-09-28 2007-04-12 Faith Inc Moving image delivery system
US8346014B2 (en) 2007-06-15 2013-01-01 Sony Corporation Image processing apparatus and method and program
JP2011066900A (en) * 2007-11-27 2011-03-31 Canon Inc Server apparatus, display device, transmission method, and display method
JP2010171561A (en) * 2009-01-21 2010-08-05 Hitachi Ltd Video information control apparatus and method
US8566890B2 (en) 2009-01-21 2013-10-22 Hitachi Consumer Electronics Co., Ltd. Video information control apparatus and method
US9154545B2 (en) 2009-01-21 2015-10-06 Hitachi Maxell, Ltd. Video information control apparatus and method
JP2014030267A (en) * 2013-10-28 2014-02-13 Hitachi Consumer Electronics Co Ltd Imaging apparatus
JP7116833B1 (en) 2021-09-28 2022-08-10 Kddi株式会社 Mobile object management device and mobile object management method
JP2023048334A (en) * 2021-09-28 2023-04-07 Kddi株式会社 Mobile object management device and mobile object management method

Similar Documents

Publication Publication Date Title
US20170085805A1 (en) Multi-video navigation system
JP4201025B2 (en) Monitoring device, monitoring system, filter setting method, and monitoring program
US20170085803A1 (en) Multi-video navigation
JP6206857B1 (en) Tracking support device, tracking support system, and tracking support method
WO2016189782A1 (en) Tracking support apparatus, tracking support system, and tracking support method
US20080304706A1 (en) Information processing apparatus and information processing method
US8174571B2 (en) Apparatus for processing images, apparatus for processing reproduced images, method of processing images, and method of processing reproduced images
JP5524653B2 (en) Display control apparatus and control method thereof
US20040002984A1 (en) Monitoring system and method, and program and recording medium used therewith
JPH0981361A (en) Image display method, data collection method and object specifying method
JP2002344897A (en) Video display device
US20160381290A1 (en) Apparatus, method and computer program
US20160379682A1 (en) Apparatus, method and computer program
JP2010233185A (en) Apparatus, system and program for processing image
JP2002341755A (en) Video display device
JP2002152721A (en) Video display method and device for video recording and reproducing device
JP4154012B2 (en) Recording medium storing program for realizing image display method and image composition apparatus
JP2006262133A (en) Monitoring camera system
JP5066878B2 (en) Camera and display system
JP4185376B2 (en) Image processing system
JP4175622B2 (en) Image display system
JP2007189558A (en) Video display system and video storage distribution apparatus
JP6295634B2 (en) Information processing system and program
JP3838149B2 (en) Monitoring system and method, program and recording medium
JP2000125243A (en) Video recording and reproducing device and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040708