JP2002341755A - Video display device - Google Patents

Video display device

Info

Publication number
JP2002341755A
JP2002341755A JP2001146179A JP2001146179A JP2002341755A JP 2002341755 A JP2002341755 A JP 2002341755A JP 2001146179 A JP2001146179 A JP 2001146179A JP 2001146179 A JP2001146179 A JP 2001146179A JP 2002341755 A JP2002341755 A JP 2002341755A
Authority
JP
Japan
Prior art keywords
video
map
display
displayed
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001146179A
Other languages
Japanese (ja)
Inventor
Toshihiko Hata
淑彦 秦
Naoki Kuwabara
直樹 桑原
Toshiharu Nozawa
俊治 野沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001146179A priority Critical patent/JP2002341755A/en
Publication of JP2002341755A publication Critical patent/JP2002341755A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a video display device with which a video can be easily observed while grasping the variation of photographing range on the map without moving the line of sight between the map and the video. SOLUTION: The video display device reproduces video data varying in a photographing range with time and displaying them on a display screen 11 overlapping them on a map including the photographing range of the video, and is characterized in varying a display state of the video or the map correspondingly to the variation in the photographing range. Moreover, the video display device is provide with a position specifying means for specifying and inputting a desired position to display on the map displayed on the display screen, and a video frame determining means for determining a corresponding video frame from among the video data based on the desired position to display specified and inputted by the position specifying means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば移動カメラ
や旋回カメラなどの撮影範囲が時間的に変化するカメラ
で撮影した映像を、その撮影範囲を含む地図と共に表示
する映像表示装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display device for displaying an image taken by a camera whose photographing range changes with time, such as a moving camera or a turning camera, together with a map including the photographing range. .

【0002】[0002]

【従来の技術】図19は、例えば「金子他“高機能ヘリ
コプターテレビシステム”、三菱電機技報、Vol.7
1、No.8、pp.43−48、1997」に示され
た従来の映像表示装置を説明するための図であり、その
構成と表示画面を示している。図19において、1は映
像データ、2は映像の撮影時刻や撮影範囲等の属性デー
タ、3は映像フレームの時系列集合である実体データ、
4は地図データ、5は表示手段、7は実体データを表示
する映像表示手段、8は属性データを表示する属性表示
手段、9は地図を表示する地図表示手段、10はユーザ
との対話操作を管理する対話手段、11は映像や地図を
表示する表示画面、12は地図を表示する地図ウィンド
ウ、13は映像を表示する映像ウィンドウ、14は映像
の再生操作を行う映像再生ボタン、15は再生中の映像
フレームが撮影された時刻を表示する時刻表示パネル、
16は対話操作を行うマウス、17はカメラ搭載ヘリコ
プターの航行軌跡を示す曲線(以下、単にカメラ搭載ヘ
リコプターの航行軌跡と略す場合もある。)、18は現
在再生中の映像フレームが撮影されたカメラの位置を示
す×印(以下、単に撮影位置と略す場合もある。)、1
9は現在再生中の映像フレームが撮影した撮影範囲を示
す矩形(以下、単に撮影範囲と略す場合もある。)であ
る。
2. Description of the Related Art FIG. 19 shows, for example, "Kaneko et al." High-performance helicopter television system ", Mitsubishi Electric Technical Report, Vol.
1, No. 8, pp. 43-48, 1997] is a diagram for explaining the conventional video display device shown in "1997", and shows its configuration and a display screen. In FIG. 19, 1 is video data, 2 is attribute data such as a shooting time and a shooting range of the video, 3 is entity data which is a time series set of video frames,
4 is map data, 5 is display means, 7 is video display means for displaying entity data, 8 is attribute display means for displaying attribute data, 9 is map display means for displaying a map, and 10 is interactive operation with a user. Interactive means for managing, 11 a display screen for displaying a video or a map, 12 a map window for displaying a map, 13 a video window for displaying a video, 14 a video playback button for performing a video reproduction operation, and 15 a video being reproduced A time display panel that displays the time when the video frame was shot,
Reference numeral 16 denotes a mouse for performing an interactive operation; 17, a curve indicating a trajectory of a camera-equipped helicopter (hereinafter, sometimes simply referred to as a trajectory of a camera-equipped helicopter); (Hereinafter, may be simply abbreviated as a photographing position), 1
Reference numeral 9 denotes a rectangle indicating the shooting range of the currently reproduced video frame (hereinafter, may be simply referred to as a shooting range).

【0003】映像データ1は、映像フレームの時系列集
合である実体データ3と、各映像フレームがいつ撮影さ
れたかを示す撮影時刻とどこを撮影したかを示す撮影範
囲から構成される属性データ2とからなり、相互に関連
付けて伝送あるいは蓄積される。撮影範囲は、GPS
(Global Positioning Senso
r)等から得られるカメラの位置データやカメラ自身か
ら出力される向き、撮影方向(パン、チルト)、ズーム
といったカメラデータを用いて幾何計算により求めるこ
とができる。
[0003] Video data 1 includes entity data 3 which is a time-series set of video frames, attribute data 2 which is composed of a photographing time indicating when each video frame was photographed and a photographing range indicating where the photographed. And transmitted or stored in association with each other. The shooting range is GPS
(Global Positioning Senso
r) can be obtained by geometric calculation using camera data such as the position data of the camera obtained from r) or the like, the direction, the shooting direction (pan, tilt), and the zoom output from the camera itself.

【0004】表示手段5は、映像表示手段7、属性表示
手段8および地図表示手段9からなる。映像表示手段7
は映像の実体データ3を表示画面11の映像ウィンドウ
13に再生する。この映像再生に同期して、地図表示手
段9は現在表示されている映像フレームが撮影している
領域(撮影範囲19)を含む地図を、表示画面11の映
像ウィンドウ13とは別の位置に配置された地図ウィン
ドウ12に表示し、属性表示手段8は地図上にヘリコプ
ターの航行軌跡17、撮影位置18、撮影範囲19を表
示する。このような表示により、映像を観察しながら撮
影範囲19が時間的に変化する様子を地図上で確認する
ことができる。
The display means 5 comprises a video display means 7, an attribute display means 8, and a map display means 9. Image display means 7
Reproduces the video entity data 3 in the video window 13 of the display screen 11. In synchronization with this video reproduction, the map display means 9 arranges a map including the area (photographing range 19) where the currently displayed video frame is being photographed at a position different from the video window 13 on the display screen 11. The attribute display means 8 displays the trajectory 17 of the helicopter, the photographing position 18, and the photographing range 19 on the map. With such a display, it is possible to confirm on the map how the imaging range 19 changes with time while observing the video.

【0005】[0005]

【発明が解決しようとする課題】従来の映像表示装置は
以上のように構成されており、地図ウィンドウ12と映
像ウィンドウ13とを表示画面11上の異なる位置に配
置している(すなわち、地図と映像とを表示画面11上
の異なる位置に表示している)ので、地図上に表示され
た撮影範囲19と映像とを見比べる際に視線移動が生
じ、集中して観察しにくいという問題点があった。ま
た、複数のカメラで撮影した場合のように、映像ウィン
ドウ13が複数ある場合には、地図上に表示された撮影
範囲19と対応させて認識するのが難しいという問題点
もあった。
The conventional video display apparatus is configured as described above, and the map window 12 and the video window 13 are arranged at different positions on the display screen 11 (that is, the map window 12 and the video window 13 are different). Since the image and the image are displayed at different positions on the display screen 11), there is a problem that when the photographing range 19 displayed on the map is compared with the image, the line of sight shifts and it is difficult to concentrate and observe. Was. Further, when there are a plurality of video windows 13 as in the case of shooting with a plurality of cameras, there is a problem that it is difficult to recognize the video windows 13 in correspondence with the shooting range 19 displayed on the map.

【0006】本発明は、上記のような従来のものの問題
点を解決するためになされたものであり、地図と映像間
で視線移動しなくても、撮影範囲の変化を地図上で把握
しながら映像を容易に観察できる映像表示装置を提供す
ることを目的とするものである。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the related art, and it is possible to grasp a change in a photographing range on a map without moving a line of sight between a map and an image. It is an object of the present invention to provide an image display device that can easily observe an image.

【0007】[0007]

【課題を解決するための手段】本発明に係る映像表示装
置は、時間的に撮影範囲が変化する映像のデータを再生
し、前記映像の撮影範囲を含む地図上に重畳して表示画
面に表示するものであって、前記撮影範囲の変化に対応
して前記映像または地図の表示状態を変化させるもので
ある。
An image display apparatus according to the present invention reproduces data of a video whose photographing range changes over time, and superimposes the data on a map including the photographing range of the video to display the data on a display screen. And changing the display state of the video or map in response to the change in the shooting range.

【0008】また、表示画面に表示された地図上で表示
希望位置を指定入力する位置指定手段と、前記位置指定
手段で指定入力された表示希望位置に基づいて、映像デ
ータの中から該当する映像フレームを特定する映像フレ
ーム特定手段とを備えたものである。
[0008] Further, a position specifying means for specifying and inputting a desired display position on a map displayed on the display screen, and a corresponding image from the video data based on the desired display position specified and input by the position specifying means. Video frame specifying means for specifying a frame.

【0009】また、映像データは、複数のカメラで撮影
されて相互に時間同期した複数の映像データから構成さ
れ、前記複数の映像データを同期再生するものである。
The video data is composed of a plurality of video data shot by a plurality of cameras and time-synchronized with each other, and the plurality of video data are reproduced synchronously.

【0010】また、カメラを指定入力するカメラ指定手
段を備え、少なくとも前記カメラ指定手段で指定された
カメラの映像データが常に再生表示されるようにしたも
のである。
[0010] Further, a camera designating means for designating and inputting a camera is provided, and at least video data of the camera designated by the camera designating means is always reproduced and displayed.

【0011】また、複数の映像が地図上で相互に重なる
ことなく表示されるようにしたものである。
Further, a plurality of images are displayed on a map without overlapping each other.

【0012】また、複数の映像が地図上で重なる場合
に、前記各映像に与えられた優先順位に従って重畳表示
するようにしたものである。
Further, when a plurality of videos overlap on a map, they are superimposed and displayed according to the priority given to each of the videos.

【0013】[0013]

【発明の実施の形態】実施の形態1.図1〜図6は本発
明の実施の形態1による映像表示装置を説明するための
図であり、より具体的には、図1は映像表示装置の構成
と表示画面を示す図、図2は映像表示処理の流れを示す
フローチャート、図3〜6は映像の表示状態の変化の様
子を示す図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 1 to 6 are diagrams for explaining a video display device according to a first embodiment of the present invention. More specifically, FIG. 1 is a diagram showing a configuration and a display screen of the video display device, and FIG. FIGS. 3 to 6 are flowcharts showing the flow of the image display processing, and FIGS.

【0014】これらの図において、1は映像データ、2
は映像の撮影時刻や撮影範囲等の属性データ、3は映像
フレームの時系列集合である実体データ、4は地図デー
タ、5は表示手段、6は映像ウィンドウ13の地図ウィ
ンドウ12への重畳表示の仕方を決める表示レイアウト
決定手段、7は実体データ3を表示する映像表示手段、
8は属性データ2を表示する属性表示手段、9は地図デ
ータ4を表示する地図表示手段、10はユーザとの対話
操作を管理する対話手段、11は映像や地図を表示する
表示画面、12は地図を表示する地図ウィンドウ、13
は映像を表示する映像ウィンドウ、14は映像の再生操
作を行う映像再生ボタン、15は再生中の映像フレーム
が撮影された時刻を表示する時刻表示パネル、16は対
話操作を行うマウス、17はカメラの移動軌跡であり、
例えばカメラ搭載ヘリコプターの航行軌跡である。18
は現在再生中の映像フレームが撮影された位置(カメラ
の位置)、19は現在再生中の映像フレームが撮影した
撮影範囲、20(図4)はカメラの位置と撮影範囲を示
すカメラアイコンである。
In these figures, 1 is video data, 2
Is attribute data such as a photographing time and a photographing range of a video, 3 is entity data which is a time series set of video frames, 4 is map data, 5 is display means, and 6 is a superimposed display of the video window 13 on the map window 12. Display layout deciding means for deciding the method, 7 is a video display means for displaying the entity data 3,
8 is an attribute display means for displaying the attribute data 2; 9 is a map display means for displaying the map data 4; 10 is an interactive means for managing an interactive operation with the user; 11 is a display screen for displaying a video or a map; Map window displaying a map, 13
Is a video window for displaying a video, 14 is a video playback button for performing a video playback operation, 15 is a time display panel for displaying the time at which the video frame being played back was captured, 16 is a mouse for interactive operation, and 17 is a camera Is the movement trajectory of
For example, the trajectory of a camera-equipped helicopter. 18
Is a position where the currently reproduced video frame was photographed (camera position), 19 is a photographing range of the currently reproduced video frame, and 20 (FIG. 4) is a camera icon indicating the camera position and the photographing range. .

【0015】映像データ1は、映像フレームの時系列集
合である実体データ3と、各映像フレームがいつ撮影さ
れたかを示す撮影時刻とどこを撮影したかを示す撮影範
囲から構成される属性データ2とからなり、相互に関連
付けて撮影現場から伝送される、あるいはハードディス
クや光ディスク等に記録蓄積される。したがって、撮影
現場から伝送されてきた映像データ1を記録蓄積せずに
ライブで再生表示する場合もある。撮影範囲は、従来の
場合と同様に、GPS(Global Positio
ning Sensor)等から得られるカメラの位置
データやカメラ自身から出力される向き、撮影方向(パ
ン、チルト)、ズームといったカメラデータを用いて幾
何計算により求めることができる。また、地図データ4
はハードディスクや光ディスク等に記録される。
The video data 1 includes entity data 3 which is a time-series set of video frames, attribute data 2 comprising a shooting time indicating when each video frame was shot, and a shooting range indicating where the video frame was shot. And transmitted from the shooting site in association with each other, or recorded and stored on a hard disk, an optical disk, or the like. Therefore, the video data 1 transmitted from the shooting site may be reproduced and displayed live without being recorded and stored. The photographing range is the same as the conventional case, with GPS (Global Position).
It can be obtained by geometric calculation using camera position data output from the camera itself, such as the direction of the camera itself, panning, tilting, zooming, and the like. Also, map data 4
Is recorded on a hard disk, an optical disk, or the like.

【0016】表示手段5は、表示レイアウト決定手段
6、映像表示手段7、属性表示手段8および地図表示手
段9からなり、パソコンやワークステーション等のグラ
フィックス機能を備えた計算機に実装されるソフトウェ
アプログラムにより、あるいはこれとリアルタイムの動
画像再生をハードウェアで実現する映像再生ボード等と
を組み合わせて実現される。映像表示手段7は、映像の
実体データ3を表示画面11の映像ウィンドウ13に再
生する。この映像再生に同期して、地図表示手段9は、
現在表示されている映像フレームが撮影している領域
(撮影範囲19)を含む地図を、表示画面11の地図ウ
ィンドウ12に表示し、属性表示手段8は地図上にヘリ
コプターの航行軌跡17、撮影位置18、撮影範囲19
を表示する。表示レイアウト決定手段6は、後で詳細に
説明するが、撮影範囲19の変化に対応して地図または
映像の表示状態を変化するように、映像ウィンドウ13
の地図ウィンドウ12への重畳表示の仕方(すなわち映
像の地図上への重畳のさせ方)を決定する。
The display means 5 comprises a display layout determining means 6, an image display means 7, an attribute display means 8 and a map display means 9, and is a software program mounted on a computer having a graphics function such as a personal computer or a workstation. Or a combination thereof with a video reproduction board or the like that realizes real-time moving image reproduction by hardware. The image display means 7 reproduces the entity data 3 of the image in the image window 13 of the display screen 11. In synchronization with this video playback, the map display means 9
A map including the area (shooting range 19) where the currently displayed video frame is being shot is displayed in the map window 12 of the display screen 11, and the attribute display means 8 displays the helicopter's trajectory 17 and the shooting position on the map. 18, shooting range 19
Is displayed. The display layout deciding means 6, as will be described later in detail, changes the image window 13 so as to change the display state of the map or the image in response to the change of the shooting range 19.
Is determined on the map window 12 (that is, how the video is superimposed on the map).

【0017】ユーザとの対話操作を管理する対話手段1
0は、表示手段5と同様にソフトウェアプログラムによ
り構成される。表示画面11は、CRT((Catho
de Ray Tube))モニタや液晶ディスプレイ
等の表示装置によって表示される。
Interactive means 1 for managing an interactive operation with a user
0 is constituted by a software program similarly to the display means 5. The display screen 11 displays the CRT ((Catho
de Ray Tube) Displayed by a display device such as a monitor or a liquid crystal display.

【0018】次に、図2をもとに、表示手段5における
映像表示処理について、ハードディスクや光ディスク等
に記録蓄積された映像データを再生する場合を例に説明
する。ステップS1にて、再生時刻tにユーザから指定
された再生開始時刻Ts(再生を開始する撮影時刻)を
セットする。ステップS2にて、再生時刻tの映像デー
タ1を読出し、ステップS3にて、属性データ2の撮影
範囲や地図の表示パラメータ(縮尺や表示位置など)か
ら、映像ウィンドウ13を地図上でどのように重畳表示
するかを示す表示レイアウトを決定する。ステップS4
にて、再生時刻tの映像フレームを映像ウィンドウ13
に表示するとともに、ステップS5にて、再生時刻tの
撮影時刻や撮影範囲等の属性データ2を地図ウィンドウ
12や時刻表示パネル15に表示し、ステップS6に
て、再生時刻tを更新する。ステップS7にて、再生時
刻tがユーザの指定した再生終了時刻Teを超えたかど
うかをチェックし、超えていなければ上記ステップS2
〜S7を繰り返し、超えていれば映像表示処理を終了す
る。
Next, with reference to FIG. 2, the video display processing on the display means 5 will be described by taking as an example the case of reproducing video data recorded and stored on a hard disk, an optical disk or the like. In step S1, a reproduction start time Ts (imaging time at which reproduction starts) specified by the user is set as the reproduction time t. In step S2, the video data 1 at the playback time t is read, and in step S3, the video window 13 is displayed on the map using the shooting range of the attribute data 2 and the display parameters (such as scale and display position) of the map. A display layout indicating whether to perform superimposed display is determined. Step S4
, The video frame at the playback time t is
In step S5, the attribute data 2 such as the photographing time and the photographing range of the reproduction time t are displayed on the map window 12 and the time display panel 15, and in step S6, the reproduction time t is updated. In step S7, it is checked whether or not the reproduction time t has exceeded the reproduction end time Te specified by the user.
Steps S7 to S7 are repeated, and if it exceeds, the video display process ends.

【0019】ステップS3における表示レイアウトは、
撮影範囲19の変化に応じて地図と映像の表示の位置関
係が変化するように決定されるが、本実施の形態1で
は、特に地図の表示状態はそのままにし、映像の表示状
態を変化させる。ここで、撮影範囲とは各映像フレーム
が地図上のどこを撮影しているのかを表すものであり、
従来の場合と同様に、カメラの位置、方向(ヨーク)、
撮影方向(パンとチルト)、画角(ズーム)から幾何計
算により求めることができる。計算方法は公知であり説
明は省略する。ヘリコプターや自動車に搭載された移動
カメラや、撮影方向や画角を遠隔制御できる監視カメラ
の場合には撮影範囲が映像フレームごとに変化しうる
が、これらの撮影範囲を計算するための情報は、カメラ
自身またはGPS(Global Positioni
ng Sensor)等の空間センサから撮影時に獲得
し、映像と同期して蓄積・伝送することができる。この
実現方法もまた公知であり、説明は省略する。
The display layout in step S3 is as follows:
Although it is determined that the positional relationship between the map and the display of the image changes according to the change in the shooting range 19, in the first embodiment, the display state of the image is changed while the display state of the map is particularly kept unchanged. Here, the shooting range indicates where each video frame is shooting on the map,
As before, the camera position, direction (yoke),
It can be obtained by geometric calculation from the shooting direction (pan and tilt) and the angle of view (zoom). The calculation method is publicly known and the description is omitted. In the case of a mobile camera mounted on a helicopter or car, or a surveillance camera that can remotely control the shooting direction and angle of view, the shooting range can change for each video frame, but information for calculating these shooting ranges is The camera itself or GPS (Global Positionion)
ng Sensor) at the time of shooting, and can be stored and transmitted in synchronization with video. This realization method is also known, and the description is omitted.

【0020】次に、撮影範囲の変化に応じて地図と映像
の表示の位置関係を変化させる具体的な方法を説明す
る。図3は移動カメラにより撮影範囲が時間的に変化す
る場合に、静止した地図上で映像ウィンドウ13を移動
させて表示する例を示している。地図上の撮影範囲19
の近傍(図に向かって右斜め上)に映像ウィンドウ13
が表示され、映像の再生処理に同期して(すなわち、撮
影範囲の変化に対応して)、図3(a)→(b)のよう
に、映像ウィンドウ13が移動する。また、カメラの位
置18、撮影範囲19、移動軌跡(航行軌跡)17、撮
影時刻などの属性データも再生に同期して動的に変化さ
せて表示される。この表示方法は、地図上で撮影範囲1
9の変化に対応して映像ウィンドウ13を動かすことに
より、どこを撮影しているか直感的に把握できるととも
に、地図と映像の間で視点を移動させることなく観察に
集中できる効果がある。
Next, a specific method for changing the positional relationship between the map and the display of the image according to the change in the photographing range will be described. FIG. 3 shows an example in which the video window 13 is moved and displayed on a stationary map when the photographing range is temporally changed by the moving camera. Shooting range 19 on the map
Video window 13 in the vicinity of (in the upper right of the figure)
Is displayed, and the video window 13 moves in synchronization with the video reproduction process (that is, in response to a change in the shooting range) as shown in FIGS. Also, attribute data such as a camera position 18, a photographing range 19, a movement locus (a navigation locus) 17, and a photographing time are dynamically changed and displayed in synchronization with the reproduction. This display method is based on the shooting range 1 on the map.
By moving the video window 13 in response to the change of No. 9, it is possible to intuitively grasp where the image is being captured and to concentrate on observation without moving the viewpoint between the map and the video.

【0021】また、図4は旋回する監視カメラにより撮
影範囲が時間的に変化する場合に、静止した地図上で、
図4(a)→(b)のように、映像ウィンドウ13を移
動させて表示する例を示している。映像ウィンドウ13
は、図4中破線で示した撮影範囲の中央付近に配置され
て表示される。カメラアイコン20はカメラの位置と放
射状の撮影範囲を示し、映像再生と同期して動的に変化
する。この表示方法は、地図上で撮影範囲の変化に対応
して映像ウィンドウ13を動かすことにより、どこを撮
影しているか直感的に把握できるとともに、地図と映像
の間で視点を移動させることなく観察に集中できる効果
がある。
FIG. 4 is a diagram showing a case where the shooting range changes with time by a turning surveillance camera.
FIG. 4A shows an example in which the video window 13 is moved and displayed as shown in FIG. Video window 13
Are arranged and displayed near the center of the shooting range indicated by the broken line in FIG. The camera icon 20 indicates the position of the camera and the radial shooting range, and changes dynamically in synchronization with video playback. In this display method, by moving the video window 13 in response to the change of the shooting range on the map, it is possible to intuitively grasp where the shooting is being performed, and to observe without moving the viewpoint between the map and the video. Has the effect of being able to concentrate on

【0022】図5はヘリコプター搭載カメラで撮影した
上空映像にて撮影の向き(方位)が変化した場合に、静
止した地図上で、図5(a)→(b)のように、映像ウ
ィンドウ13を回転させて表示する例を示している。ヘ
リコプター搭載カメラでは常に一定の方位にカメラを向
けて(例えば撮像面の上側が常に北となるようにカメラ
を制御する)撮影するモードと、ヘリコプターの向きに
合わせて撮影の方位が変化するモードがある。ここでは
後者の場合に対応し、地図の方位と表示される映像の方
位が一致するように表示する。これにより、図3で示し
た表示方法で述べた効果に加え、撮影する方位が変化す
る映像であっても地図と同じ方位で映像を観察すること
ができ、地図と映像をより照らし合わせやすくなるとい
う効果がある。
FIG. 5 shows a video window 13 as shown in FIG. 5 (a) → (b) on a stationary map when the shooting direction (azimuth) changes in the sky video shot by the camera equipped with a helicopter. The example which displays by rotating is shown. Helicopter-equipped cameras have two modes: one is to point the camera at a fixed direction (for example, control the camera so that the upper side of the imaging surface is always north), and the other is to change the direction of shooting according to the direction of the helicopter is there. Here, corresponding to the latter case, the display is performed such that the direction of the map matches the direction of the displayed image. Thereby, in addition to the effects described in the display method shown in FIG. 3, even if the shooting direction changes, the image can be observed in the same direction as the map, and the map and the image can be more easily illuminated. This has the effect.

【0023】図6は移動カメラで撮影した映像の画角が
時間的に変化する場合に、映像に写る被写体の大きさと
地図の縮尺との関係を一定の比率に保って表示する(換
言すれば、画角に応じて映像ウィンドウ13の大きさを
変化させて同じ倍率で表示する)例を示している。例え
ば、ズームインすれば図6(b)に示すように小さな映
像ウィンドウ13で、ズームアウトすれば図6(a)に
示すように大きな映像ウィンドウ13で表示する。な
お、図6(c)は参考のために、ズームインした場合に
もズームアウトした場合と同じ大きさの映像ウィンドウ
13で表示した場合を示している。これにより、図3で
示した表示方法で述べた効果に加え、ズームインやズー
ムアウトして映像の画角が時間的に変化する場合にも、
実際の被写体の大きさを直感的に把握することができ
る。
FIG. 6 shows the relationship between the size of the subject in the video and the scale of the map at a fixed ratio when the angle of view of the video captured by the moving camera changes with time (in other words, , The size of the video window 13 is changed according to the angle of view, and displayed at the same magnification). For example, when zooming in, the image is displayed in a small video window 13 as shown in FIG. 6B, and when zooming out, the image is displayed in a large video window 13 as shown in FIG. FIG. 6C shows, for reference, a case where the image is displayed in the video window 13 having the same size as the case where the object is zoomed in and the case where the object is zoomed out. Thereby, in addition to the effects described in the display method shown in FIG. 3, even when the angle of view of the video changes over time by zooming in or out,
It is possible to intuitively grasp the actual size of the subject.

【0024】なお、図3、図5、および図6では、映像
ウィンドウ13の表示位置を撮影範囲19の近傍とした
が、撮影範囲19に重ねて表示してもよく、さらに地図
上に表示された撮影範囲19や撮影位置(カメラの位
置)18との関係を引き出し線等で結んで明示するよう
にしてもよい。これは、後出の各実施の形態においても
特に断らないが同様である。また、図4では、映像ウィ
ンドウ13の表示位置を撮影範囲の中央付近としたが、
カメラの近傍であってもよい。さらに地図上にカメラア
イコン20によって表示された撮影範囲やカメラとの関
係を引き出し線等で結んで明示するようにしてもよい。
これは、後出の各実施の形態においても特に断らないが
同様である。
In FIGS. 3, 5, and 6, the display position of the video window 13 is set in the vicinity of the photographing range 19. However, the display position may be superimposed on the photographing range 19 or displayed on a map. The relationship between the photographing range 19 and the photographing position (camera position) 18 may be clearly indicated by connecting them with a leader line or the like. This is the same in each of the following embodiments, although not particularly specified. In FIG. 4, the display position of the video window 13 is set near the center of the shooting range.
It may be near the camera. Further, the photographing range displayed by the camera icon 20 on the map and the relationship with the camera may be clearly indicated by connecting them with a leader line or the like.
This is the same in each of the following embodiments, although not particularly specified.

【0025】また、公知のマップラベリング技術を用い
て、地図の重要なラベルが映像ウィンドウ13により隠
れないようにレイアウトするようにしてもよい。これ
は、後出の各実施の形態においても特に断らないが同様
である。
Further, the layout may be such that an important label of the map is not hidden by the video window 13 by using a known map labeling technique. This is the same in each of the following embodiments, although not particularly specified.

【0026】また、映像は順方向の再生だけではなく早
送りや逆再生など特殊再生であっても、再生している影
像フレームの撮影範囲に同期して上記表示を行うように
構成することができる。これは、後出の各実施の形態に
おいても特に断らないが同様である。
In addition, even if the video is not only played in the forward direction but also in special playback such as fast-forward or reverse playback, the above display can be performed in synchronization with the shooting range of the image frame being played back. . This is the same in each of the following embodiments, although not particularly specified.

【0027】また、地図は動かないとしたが、対話的に
地図をスクロールさせたり縮尺を変更したりする手段を
設け、地図の表示範囲に応じて上記で説明したような表
示を行うように構成することも可能である。
Although the map does not move, means for interactively scrolling the map and changing the scale are provided, and the display described above is performed according to the display range of the map. It is also possible.

【0028】実施の形態2.図7〜10は本発明の実施
の形態2による映像表示装置を説明するための図であ
り、より具体的には、映像の表示状態の変化の様子を示
す図である。実施の形態2による映像表示装置の構成お
よび映像表示処理の流れは実施の形態1と同様である。
Embodiment 2 7 to 10 are diagrams for explaining the video display device according to the second embodiment of the present invention, and more specifically, diagrams showing how the display state of the video changes. The configuration of the video display device according to the second embodiment and the flow of the video display process are the same as those in the first embodiment.

【0029】以下では、異なる表示方法の部分について
のみ説明する。実施の形態1が撮影範囲の変化に応じて
地図をそのままにして映像の表示状態を変化させるのに
対し、本実施の形態2は映像の表示状態をそのままにし
て地図の表示状態を変化させるところが異なる。具体的
には以下に説明するが、本実施の形態2では、撮影範囲
と地図の位置、カメラの向き(方位)、画角といった空
間関係の変化を直感的に把握しながら、映像と地図を視
線移動なく観察できるという実施の形態1と同様な効果
を有するとともに、映像の表示状態が変化しないため、
映像をより集中して観察できるという効果がある。
In the following, only different display methods will be described. Whereas the first embodiment changes the display state of the video while keeping the map in accordance with the change in the shooting range, the second embodiment changes the display state of the map while keeping the display state of the video. different. As described in detail below, in the second embodiment, the video and the map are displayed while intuitively grasping changes in the spatial relationship such as the shooting range and the position of the map, the direction (azimuth) of the camera, and the angle of view. In addition to having the same effect as in Embodiment 1 in which observation can be performed without moving the line of sight, the display state of the video does not change.
There is an effect that the video can be observed more concentratedly.

【0030】図7は実施の形態1の図3に対応するもの
であり、図7(a)→(b)のように、移動カメラによ
り撮影範囲が変化した際に、映像ウィンドウ13は中央
付近に表示しておき、地図をスクロールさせる。
FIG. 7 corresponds to FIG. 3 of the first embodiment. When the shooting range is changed by the moving camera as shown in FIGS. And scroll the map.

【0031】また、図8は実施の形態1の図4に対応す
るものであり、図8(a)→(b)のように、カメラの
旋回に対応して、映像ウィンドウ13は中央付近に表示
しておき、地図を回転して表示する。
FIG. 8 corresponds to FIG. 4 of the first embodiment. As shown in FIGS. 8A to 8B, the video window 13 is positioned near the center in response to the turning of the camera. Display and rotate the map.

【0032】図9は実施の形態1の図5に対応するもの
であり、ヘリコプター搭載カメラで撮影した上空映像に
て撮影の向き(方位)が変化した場合、地図の方位と表
示される映像の方位が一致するように、図9(a)→
(b)のように、映像ウィンドウ13の表示位置はその
ままに地図を回転させて表示する。
FIG. 9 corresponds to FIG. 5 of the first embodiment. In the case where the shooting direction (direction) changes in the sky image shot by the helicopter-mounted camera, the direction of the map and the displayed image are changed. Fig. 9 (a) →
As shown in (b), the map is rotated and displayed without changing the display position of the video window 13.

【0033】図10は実施の形態1の図6に対応するも
のであり、移動カメラで撮影した映像の画角が時間的に
変化する場合に、映像に写る被写体の大きさと地図の縮
尺との関係を一定の比率に保つよう、映像ウィンドウ1
3の大きさはそのままに地図の縮尺を変化させて表示す
る。例えば、ズームインすれば図10(b)に示すよう
に地図を拡大して、ズームアウトすれば図10(a)に
示すように地図を縮小して表示する。
FIG. 10 corresponds to FIG. 6 of the first embodiment. In the case where the angle of view of an image taken by a moving camera changes with time, the size of the subject shown in the image and the scale of the map are reduced. Video window 1 to keep the relationship at a certain ratio
The scale of the map is changed and displayed without changing the size of 3. For example, if the user zooms in, the map is enlarged as shown in FIG. 10B, and if the user zooms out, the map is reduced and displayed as shown in FIG. 10A.

【0034】なお、実施の形態1と実施の形態2の表示
方法を監視の目的やユーザの好みに応じて、組み合せて
使える構成にしてもよい。
The display methods according to the first and second embodiments may be used in combination according to the purpose of monitoring or the user's preference.

【0035】実施の形態3.図11〜図13は本発明の
実施の形態3による映像表示装置を説明するための図で
あり、より具体的には、図11は映像表示装置の構成と
表示画面を示す図、図12は映像表示処理の流れを示す
フローチャート、図13は映像の表示状態の変化の様子
を示す図である。これらの図において、図1〜図10と
同一の符号を付したものは、同一またはこれに相当する
ものである。21はマウスカーソル24(図13)によ
り指定された地図上での注視点の位置(表示希望位置)
を取得する位置指示手段であり、例えば、ソフトウェア
プログラムにより実現され、マウスカーソル24と共
に、表示画面に表示された地図上で表示希望位置を指定
入力する位置指定手段を構成する。22は取得した位置
情報を基に、映像データ1の中から該当する映像フレー
ムを特定する映像フレーム特定手段であり、例えば、ソ
フトウェアプログラムにより実現される。23(図1
3)はマウスカーソル24により指示された注視点、2
4はマウスカーソルである。
Embodiment 3 FIG. 11 to 13 are diagrams for explaining the video display device according to the third embodiment of the present invention. More specifically, FIG. 11 is a diagram showing a configuration and a display screen of the video display device, and FIG. FIG. 13 is a flowchart showing the flow of the video display processing, and FIG. 13 is a diagram showing how the display state of the video changes. In these drawings, the components denoted by the same reference numerals as those in FIGS. 1 to 10 are the same or equivalent. Reference numeral 21 denotes the position of the gazing point on the map specified by the mouse cursor 24 (FIG. 13) (the desired display position).
The position designation means is realized by, for example, a software program, and constitutes, together with the mouse cursor 24, a position designation means for designating and inputting a desired display position on a map displayed on the display screen. Reference numeral 22 denotes a video frame specifying unit that specifies a corresponding video frame from the video data 1 based on the acquired position information, and is realized by, for example, a software program. 23 (FIG. 1
3) is the gazing point indicated by the mouse cursor 24;
4 is a mouse cursor.

【0036】次に、図12をもとに、位置指定手段で指
定入力された表示希望位置に基づく映像を表示する処理
について説明する。ステップS11において、位置指示
手段21が取得した注視点の位置が変化したか否かをチ
ェックし、変化していればステップS12において該当
する映像フレームを特定する。該当する映像フレームは
注視点の位置情報と映像の撮影範囲を比較し、例えば撮
影範囲の中に注視点を含む映像フレームや、複数の映像
フレームが注視点を撮影している場合は注視点が撮影範
囲の中心に最も近い映像フレームが選択される。この比
較を高速に行うには撮影範囲のデータ集合を空間ツリー
により構造化しておけばよい。空間ツリーとその検索ア
ルゴリズムは公知であり、ここではその説明を省略す
る。ステップS13において、特定した映像フレームの
映像データを読出し、ステップS14にて表示レイアウ
トを決定する。例えば、実施の形態1と同様に、注視点
や撮影範囲の近傍に映像ウィンドウを配置し、カメラの
向きや画角等の撮影範囲の変化も考慮して表示レイアウ
トを決める。そして、ステップS15およびステップS
16において映像の実体データおよび属性データをそれ
ぞれ表示する。ステップS11にて注視点の位置に変化
がなければ、ステップS17においてこの注視点に基づ
く表示モードが終了したか否か(ユーザが指示する)を
チェックし、終了指示がなければ再度注視点の位置変化
をチェックする。
Next, a process of displaying an image based on a desired display position specified and input by the position specifying means will be described with reference to FIG. In step S11, it is checked whether or not the position of the gazing point acquired by the position indicating means 21 has changed. If the position has changed, the corresponding video frame is specified in step S12. The corresponding video frame compares the position information of the point of interest and the shooting range of the video.For example, if the video frame includes the point of interest in the shooting range, or if multiple video frames are shooting the point of interest, the The video frame closest to the center of the shooting range is selected. In order to perform this comparison at high speed, the data set of the imaging range may be structured using a spatial tree. The spatial tree and its search algorithm are known, and the description thereof is omitted here. In step S13, the video data of the specified video frame is read, and in step S14, the display layout is determined. For example, as in the first embodiment, a video window is arranged near a gazing point and a shooting range, and a display layout is determined in consideration of a change in a shooting range such as a camera direction and an angle of view. Then, step S15 and step S
At 16, the entity data and the attribute data of the video are displayed. If there is no change in the position of the gazing point in step S11, it is checked in step S17 whether or not the display mode based on this gazing point has been completed (instructed by the user). Check for changes.

【0037】図13では、マウスカーソル24により指
定した注視点の位置を撮影する映像フレームとその属性
データが地図上で映像ウィンドウ13に表示される様子
が示されている。図13では、一例として、地図上に表
示された撮影範囲19の中心点を注視点としており、マ
ウスカーソル24により撮影範囲19をドラッグして移
動させることにより、注視点(表示希望位置)を移動さ
せ、それに連動して映像ウィンドウ13も移動している
様子を示している。このように、注視点を対話的に移動
させることにより、対応する映像データが動的に変化し
て表示される。これにより、地図上で見たい位置を探し
ながら、視線移動することなく付近の映像を観察するこ
とができる。
FIG. 13 shows a state in which a video frame that captures the position of the gazing point designated by the mouse cursor 24 and its attribute data are displayed in the video window 13 on a map. In FIG. 13, as an example, the center point of the photographing range 19 displayed on the map is set as the gazing point, and the gazing point (display desired position) is moved by dragging and moving the photographing range 19 with the mouse cursor 24. This shows that the video window 13 is also moving in conjunction therewith. In this manner, by moving the point of interest interactively, the corresponding video data is dynamically changed and displayed. Thus, while searching for a desired position on the map, it is possible to observe a nearby image without moving the line of sight.

【0038】なお、特定する映像フレームは一つである
としたが、これに限定されるものではない。例えば複数
の映像が注視点位置を撮影している場合、順番に自動再
生したり、該当する映像フレームの属性リストを表示し
てユーザが対話的に選択して再生したりしてもよい。ま
た、映像再生モードにして再生時刻を進めながら、注視
点の位置および再生時刻に基づき該当する映像フレーム
を特定するようにしてもよい。
Although the number of specified video frames is one, it is not limited to this. For example, when a plurality of videos capture the position of the point of interest, the video may be automatically played back in order, or an attribute list of the corresponding video frame may be displayed to allow the user to interactively select and play. Alternatively, a corresponding video frame may be specified based on the position of the gazing point and the reproduction time while the reproduction time is advanced in the video reproduction mode.

【0039】また、注視点ではなく、例えばマウスで指
定した地図上の領域(面的広がりを持った領域)を注視
領域とし、その注視領域を撮影する映像フレームまたは
その集合を表示してもよい。
Instead of the gaze point, for example, an area on the map (area having a two-dimensional spread) specified by the mouse may be set as the gaze area, and a video frame or a set of video frames for capturing the gaze area may be displayed. .

【0040】また、地図は動かないとしたが、対話的に
地図をスクロールさせたり縮尺を変更したりする手段を
設け、地図の表示範囲に応じて上記で説明したような表
示を行うように構成することも可能である。
Although the map is not moved, means for interactively scrolling the map and changing the scale are provided so that the above-described display is performed according to the display range of the map. It is also possible.

【0041】実施の形態4.図14は本発明の実施の形
態4による映像表示装置を説明するための図であり、よ
り具体的には、映像の表示状態の変化の様子を説明する
図である。図14(a)は3台のヘリコプターの航路を
示し、図14(b)および(c)はそれぞれの時刻にお
ける表示画面の様子を示している。実施の形態4による
映像表示装置の構成および映像表示処理の流れは実施の
形態1と同様である。
Embodiment 4 FIG. FIG. 14 is a diagram for explaining an image display device according to Embodiment 4 of the present invention, and more specifically, a diagram for explaining how a display state of an image changes. FIG. 14A shows the route of three helicopters, and FIGS. 14B and 14C show the display screen at each time. The configuration of the video display device according to the fourth embodiment and the flow of the video display process are the same as in the first embodiment.

【0042】以下では、異なる表示方法の部分について
のみ説明する。実施の形態1が一つの映像のみを表示す
るのに対し、本実施の形態4では複数の映像を同時に地
図上に表示するところが異なる。すなわち、例えば図1
4(a)に示すように、No.1〜No.3の3台のヘ
リコプターがそれぞれ異なる航路17a,17b,17
cで撮影した映像を、図14(b)および(c)に示す
ように、地図上にそれぞれNo.1〜No.3の3つの
映像ウィンドウ13a,13b,13cで同期再生す
る。図14(b)の時点すなわち2001年4月11日
の10時25分33秒においては、No.3のヘリコプ
ターの航路17cは地図ウィンドウの表示範囲に入って
おらず、したがってNo.1とNo.2の2つの映像ウ
ィンドウ13a,13bが地図に重畳して表示され、同
期再生されている。その後、No.3のヘリコプターの
航路17cは地図ウィンドウの表示範囲に入り、図14
(c)の時点すなわち2001年4月11日の10時4
0分27秒においては、No.1〜No.3の3つの映
像ウィンドウ13a,13b,13cが地図に重畳して
表示され、同期再生されている。
In the following, only different display methods will be described. Embodiment 1 differs from Embodiment 1 in that only one image is displayed, whereas Embodiment 4 displays a plurality of images simultaneously on a map. That is, for example, FIG.
As shown in FIG. 1 to No. 3 helicopters have different routes 17a, 17b, 17
The images shot at No. c are displayed on the map as shown in FIGS. 14 (b) and (c), respectively. 1 to No. 3. Synchronous reproduction is performed in three video windows 13a, 13b, and 13c. At the time point in FIG. 14B, that is, at 10:25:33 on April 11, 2001, No. The route 17c of the helicopter of No. 3 is not within the display range of the map window, and accordingly, No. 1 and No. 2, two video windows 13a and 13b are displayed so as to be superimposed on the map, and are reproduced synchronously. After that, No. The route 17c of the helicopter 3 enters the display range of the map window, and FIG.
At the time of (c), that is, 10:04 on April 11, 2001
At 0 minutes 27 seconds, No. 1 to No. 3, three video windows 13a, 13b, 13c are displayed superimposed on the map and are reproduced synchronously.

【0043】本実施の形態4では、地図の表示はそのま
まにして、地図ウィンドウに表示される地図の領域を撮
影している映像フレーム(映像ウィンドウ13a,13
b,13c)がその撮影範囲近傍に表示される。撮影範
囲の位置、カメラの向き、画角の変化等に対応して表示
レイアウトが決められるのは、実施の形態1の場合と同
様である。これによって、複数の映像に対して、それぞ
れの撮影範囲と地図との空間関係の変化を直感的に把握
しながら、映像と地図を視線移動なく容易に観察できる
という効果がある。
In the fourth embodiment, the display of the map is not changed, and the image frames (image windows 13a, 13
b, 13c) are displayed near the shooting range. The display layout is determined in accordance with the position of the shooting range, the direction of the camera, the change in the angle of view, and the like, as in the case of the first embodiment. This has the effect that, for a plurality of videos, the user can easily observe the videos and the map without moving the line of sight, while intuitively grasping the change in the spatial relationship between the shooting range and the map.

【0044】なお、地図は動かないとしたが、対話的に
地図をスクロールさせたり縮尺を変更したりする手段を
設け、地図の表示範囲に応じて上記で説明したような表
示を行うように構成することも可能である。
Although the map is not moved, means for interactively scrolling the map and changing the scale are provided so that the display as described above is performed according to the display range of the map. It is also possible.

【0045】また、複数カメラで撮影された映像を同期
再生する場合について説明したが、同じカメラの異なる
時刻の映像を同時に表示したり、異なるカメラの異なる
時刻の映像を同時に表示したりしてもよい。
Also, a case has been described in which images captured by a plurality of cameras are reproduced synchronously. However, images of the same camera at different times may be displayed simultaneously, or images of different cameras at different times may be displayed simultaneously. Good.

【0046】実施の形態5.図15および図16は本発
明の実施の形態5による映像表示装置を説明するための
図であり、より具体的には、映像の表示状態の変化の様
子を説明する図である。図15(a)および図16
(a)は3台のヘリコプターの航路を示し、図15
(b),(c)および図16(b),(c)はそれぞれ
の時刻における表示画面の様子を示している。実施の形
態5による映像表示装置の構成および表示処理の流れは
実施の形態4と同様である。
Embodiment 5 FIG. FIGS. 15 and 16 are diagrams for explaining the image display device according to the fifth embodiment of the present invention, and more specifically are diagrams for explaining how the display state of the image changes. FIG. 15A and FIG.
(A) shows the route of three helicopters, and FIG.
FIGS. 16B and 16C and FIGS. 16B and 16C show the state of the display screen at each time. The configuration of the video display device according to the fifth embodiment and the flow of display processing are the same as those of the fourth embodiment.

【0047】以下では、異なる表示方法の部分について
のみ説明する。上記実施の形態4では撮影範囲が地図ウ
ィンドウの表示範囲に入った映像を表示する場合を示し
たが、本実施の形態5は、カメラを指定入力するカメラ
指定手段を備え、指定したカメラの映像を常に表示する
ようにして、複数の映像を地図上に同時に表示する。
In the following, only different display methods will be described. In the above-described fourth embodiment, the case where an image whose shooting range is within the display range of the map window is displayed. However, in the fifth embodiment, a camera designating unit for designating and inputting a camera is provided. Is always displayed, and a plurality of images are simultaneously displayed on the map.

【0048】すなわち、例えば、図15では、(b)お
よび(c)に示すように、指定したNo.2のカメラの
撮影したNo.2の映像ウィンドウを常に地図ウィンド
ウの中央に表示し、その撮影範囲の変化に応じて地図を
スクロールさせたり、回転させたり、縮尺変更したりす
る。他のカメラの映像は表示される地図領域の変化に対
応して、その地図領域を撮影する映像が地図上に動的に
切り替わって表示される。したがって、指定したカメラ
の映像を観察しやすい。
That is, for example, in FIG. 15, as shown in (b) and (c), the designated No. No. 2 photographed by camera No. 2 The video window 2 is always displayed at the center of the map window, and the map is scrolled, rotated, or scaled according to the change of the shooting range. In response to a change in the displayed map area, the image of another camera is dynamically switched on the map to display the image capturing the map area. Therefore, it is easy to observe the image of the designated camera.

【0049】また、例えば、図16では、指定したN
o.2のカメラの映像を常に表示するが、No.2のカ
メラの撮影範囲が地図ウィンドウに表示される地図領域
の外に出ない限り、地図の表示は変化させない。表示さ
れる地図領域の外部に出る際には表示する地図領域を変
化させて、No.2のカメラの映像が常に表示されるよ
うにする。これにより、重要な映像とその撮影範囲を常
に観察できるとともに、他の映像に対しても位置関係を
把握しながら見ることができる。
Also, for example, in FIG.
o. No. 2 camera is always displayed. The display of the map is not changed unless the shooting range of the second camera falls outside the map area displayed in the map window. When going out of the displayed map area, the displayed map area is changed and The video of the second camera is always displayed. As a result, an important image and its photographing range can always be observed, and the other images can be viewed while grasping the positional relationship.

【0050】なお、カメラを指定入力するカメラ指定手
段としては、例えばカメラ番号を入力するためのキーボ
ードや画面に表示された映像ウィンドウを指示するマウ
スと、その入力を解釈して指定されたカメラを特定する
ソフトウェアプログラムから構成される。
The camera designating means for designating and inputting a camera includes, for example, a keyboard for inputting a camera number, a mouse for pointing a video window displayed on the screen, and a camera designated by interpreting the input. Consists of a software program to be specified.

【0051】また、指定するカメラは一つとして説明し
たがこれに限定されるものではなく、複数のカメラを指
定し、それらのカメラによって撮影された映像が常に表
示されるように、地図の表示を変化させる構成にするこ
とも可能である。
Although one camera is specified, the present invention is not limited to this. A plurality of cameras are specified, and a map display is performed so that images shot by the cameras are always displayed. Can be changed.

【0052】実施の形態6.図17は本発明の実施の形
態6による映像表示装置を説明するための図であり、よ
り具体的には、映像の表示状態を示す図である。実施の
形態6による映像表示装置の構成および映像表示処理の
流れは実施の形態4または5と同様である。
Embodiment 6 FIG. FIG. 17 is a diagram for explaining an image display device according to Embodiment 6 of the present invention, and more specifically, is a diagram showing a display state of an image. The configuration of the video display device according to the sixth embodiment and the flow of the video display process are the same as those of the fourth or fifth embodiment.

【0053】以下では、異なる表示方法の部分について
のみ説明する。本実施の形態6では、複数の映像ウィン
ドウが重ならないように表示レイアウトを決定する点
が、上記実施の形態4や5と異なる。すなわち、例えば
図17(a)に示すように、2つの映像ウィンドウ13
aと13bとを所定の位置(例えば地図上の撮影範囲1
9aおよび19bの右斜め上)にそれぞれ配置すると、
2つの映像ウィンドウ13aと13bとが重なって表示
される場合がある。このような場合、本実施の形態6で
は、撮影範囲19aおよび19bの近傍で二つの映像ウ
ィンドウ13aと13bとが重ならないようにレイアウ
トを決め、地図上に表示する。映像ウィンドウ13aと
13bとが重ならないような配置を決める処理は、公知
のマップラベリング処理を適用することにより実現で
き、ここでは説明は省略する。これにより、撮影範囲が
近い等の理由でそれぞれの映像ウィンドウが重なり、よ
く観察できなくなることを防止でき、複数の映像を隈無
く観察することができる。
In the following, only different display methods will be described. Embodiment 6 is different from Embodiments 4 and 5 in that the display layout is determined so that a plurality of video windows do not overlap. That is, for example, as shown in FIG.
a and 13b at a predetermined position (for example, shooting range 1 on a map)
9a and 19b).
There are cases where two video windows 13a and 13b are displayed overlapping. In such a case, in the sixth embodiment, the layout is determined so that the two video windows 13a and 13b do not overlap near the shooting ranges 19a and 19b, and are displayed on a map. The process of determining the arrangement so that the video windows 13a and 13b do not overlap can be realized by applying a known map labeling process, and a description thereof will be omitted. Accordingly, it is possible to prevent the video windows from being overlapped due to, for example, the closeness of the photographing range, and to prevent poor observation, and to observe a plurality of videos without fail.

【0054】なお、図17では、2つの映像ウィンドウ
が重なる場合について示したが、3つ以上の映像ウィン
ドウが重なる場合も同様に処理することができる。
FIG. 17 shows the case where two video windows overlap, but the same processing can be performed when three or more video windows overlap.

【0055】実施の形態7.図18は本発明の実施の形
態7による映像表示装置を説明するための図であり、よ
り具体的には、映像の表示状態を示す図である。実施の
形態7による映像表示装置の構成および映像表示処理の
流れは実施の形態4または5と同様である。
Embodiment 7 FIG. FIG. 18 is a diagram for explaining an image display device according to Embodiment 7 of the present invention, and more specifically, is a diagram showing a display state of an image. The configuration of the video display device according to the seventh embodiment and the flow of the video display process are the same as those of the fourth or fifth embodiment.

【0056】以下では、異なる表示方法の部分について
のみ説明する。本実施の形態7では複数の映像が重なっ
て表示される場合に、予め定められたカメラや映像デー
タの優先順位に基づき、重畳表示の仕方を決める点が上
記実施の形態4や5と異なる。すなわち、例えば図18
では二つの映像ウィンドウ13aと13bとが重なる場
合に、優先度の低い方を下に、高い方を上にして表示す
る例を示しており、(a)は映像ウィンドウ13aの方
が映像ウィンドウ13bよりも優先順位が高い場合、
(b)は逆の場合をそれぞれ示している。これにより、
重要な映像をよく観察することができる。
In the following, only different display methods will be described. The seventh embodiment is different from the fourth and fifth embodiments in that, when a plurality of videos are displayed in a superimposed manner, the superimposed display method is determined based on a predetermined camera or video data priority. That is, for example, FIG.
Shows an example in which, when two video windows 13a and 13b overlap, the lower priority is displayed lower and the higher priority is displayed higher. (A) shows the video window 13a in the video window 13b. Higher priority than
(B) shows the opposite case. This allows
You can observe important images well.

【0057】なお、2つの映像ウィンドウが重なる場合
について説明したが、3つ以上が重なる場合も同様に処
理することができる。
Although the case where two video windows overlap has been described, the same processing can be performed when three or more windows overlap.

【0058】また、優先順位は予め与えられた固定の順
位だけでなく、ユーザが対話的に変更したり、観察の目
的に応じて動的に変化させてもよい。
The priority order is not limited to a fixed order given in advance, but may be changed interactively by the user or dynamically changed according to the purpose of observation.

【0059】なお、上記各実施の形態では、地図が、一
般的な地図である場合について示したが、これに限るも
のではなく、例えば、屋内の設備配置図等であってもよ
い。この場合は、カメラは例えば天井や床に取り付けら
れたレールに沿って移動する移動カメラや、天井などに
取り付けられた旋回カメラなどが用いられ、監視カメラ
のように撮影方向や画角を遠隔制御できるものであって
もよい。
In each of the above embodiments, the case where the map is a general map has been described. However, the present invention is not limited to this, and may be, for example, an indoor facility layout. In this case, the camera used is, for example, a moving camera that moves along a rail mounted on the ceiling or floor, a turning camera mounted on the ceiling, etc., and remotely controls the shooting direction and angle of view like a surveillance camera It may be something that can be done.

【0060】[0060]

【発明の効果】以上のように、本発明によれば、時間的
に撮影範囲が変化する映像のデータを再生し、前記映像
の撮影範囲を含む地図上に重畳して表示画面に表示する
ものであって、前記撮影範囲の変化に対応して前記映像
または地図の表示状態を変化させるので、地図と映像間
で視線移動しなくても、撮影範囲の変化を地図上で把握
しながら映像を容易に観察できる。また、映像を変化さ
せた場合は撮影範囲が変化する様子を地図上で把握する
ことに重点を置いて観察でき、地図を変化させた場合は
映像の観察に重点を置いて撮影範囲が変化する様子を把
握できる。
As described above, according to the present invention, data of a video whose photographing range changes over time is reproduced and displayed on a display screen so as to be superimposed on a map including the photographing range of the video. Since the display state of the video or the map is changed in response to the change in the shooting range, the video is captured while grasping the change in the shooting range on the map without moving the line of sight between the map and the video. It can be easily observed. Also, when the image is changed, observation can be performed with emphasis on grasping the state of the shooting range changing on the map, and when the map is changed, the shooting range changes with emphasis on image observation You can grasp the situation.

【0061】また、表示画面に表示された地図上で表示
希望位置を指定入力する位置指定手段と、前記位置指定
手段で指定入力された表示希望位置に基づいて、映像デ
ータの中から該当する映像フレームを特定する映像フレ
ーム特定手段とを備えたので、地図上での表示希望位置
の指定入力および映像の観察が、地図と映像間で視線移
動しなくても、容易に行える。
Further, a position specifying means for specifying and inputting a desired display position on the map displayed on the display screen, and a corresponding image from the video data based on the desired display position specified and input by the position specifying means. Since the image frame specifying means for specifying the frame is provided, it is possible to easily specify the desired display position on the map and observe the image without moving the line of sight between the map and the image.

【0062】また、映像データは、複数のカメラで撮影
されて相互に時間同期した複数の映像データから構成さ
れ、前記複数の映像データを同期再生するので、複数の
映像に対して、それぞれの撮影範囲と地図との空間関係
の変化を直感的に把握しながら、映像と地図を視線移動
なく容易に観察できるという効果がある。
The video data is composed of a plurality of video data shot by a plurality of cameras and time-synchronized with each other, and the plurality of video data are reproduced in synchronization. There is an effect that the video and the map can be easily observed without moving the line of sight while intuitively grasping the change in the spatial relationship between the range and the map.

【0063】また、カメラを指定入力するカメラ指定手
段を備え、少なくとも前記カメラ指定手段で指定された
カメラの映像データが常に再生表示されるようにしたの
で、重要な映像を常に観察できる。さらに他の映像とそ
れらの撮影範囲の変化の様子も観察できる。
Further, since a camera designating means for designating and inputting a camera is provided, and at least the video data of the camera designated by the camera designating means is always reproduced and displayed, an important picture can be always observed. In addition, it is possible to observe other images and how the photographing range changes.

【0064】また、複数の映像が地図上で相互に重なる
ことなく表示されるようにしたので、複数の映像を隈無
く観察できる。
Since a plurality of images are displayed on the map without overlapping each other, the plurality of images can be observed without fail.

【0065】また、複数の映像が地図上で重なる場合
に、前記各映像に与えられた優先順位に従って重畳表示
するようにしたので、重要な映像をよく観察できる。
Further, when a plurality of videos overlap on the map, they are superimposed and displayed in accordance with the priority given to each video, so that important videos can be observed well.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 1 is a diagram for explaining a video display device according to a first embodiment of the present invention.

【図2】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 2 is a diagram for explaining the video display device according to the first embodiment of the present invention.

【図3】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 3 is a diagram for explaining the video display device according to the first embodiment of the present invention.

【図4】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 4 is a diagram for explaining the video display device according to the first embodiment of the present invention.

【図5】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 5 is a diagram for explaining the video display device according to the first embodiment of the present invention.

【図6】 本発明の実施の形態1による映像表示装置を
説明するための図である。
FIG. 6 is a diagram for explaining the video display device according to the first embodiment of the present invention.

【図7】 本発明の実施の形態2による映像表示装置を
説明するための図である。
FIG. 7 is a diagram for explaining a video display device according to a second embodiment of the present invention.

【図8】 本発明の実施の形態2による映像表示装置を
説明するための図である。
FIG. 8 is a diagram for explaining an image display device according to a second embodiment of the present invention.

【図9】 本発明の実施の形態2による映像表示装置を
説明するための図である。
FIG. 9 is a diagram for explaining an image display device according to a second embodiment of the present invention.

【図10】 本発明の実施の形態2による映像表示装置
を説明するための図である。
FIG. 10 is a diagram for explaining a video display device according to a second embodiment of the present invention.

【図11】 本発明の実施の形態3による映像表示装置
を説明するための図である。
FIG. 11 is a diagram for explaining a video display device according to a third embodiment of the present invention.

【図12】 本発明の実施の形態3による映像表示装置
を説明するための図である。
FIG. 12 is a diagram for explaining a video display device according to a third embodiment of the present invention.

【図13】 本発明の実施の形態3による映像表示装置
を説明するための図である。
FIG. 13 is a diagram for explaining a video display device according to a third embodiment of the present invention.

【図14】 本発明の実施の形態4による映像表示装置
を説明するための図である。
FIG. 14 is a diagram illustrating a video display device according to a fourth embodiment of the present invention.

【図15】 本発明の実施の形態5による映像表示装置
を説明するための図である。
FIG. 15 is a diagram for explaining a video display device according to a fifth embodiment of the present invention.

【図16】 本発明の実施の形態5による映像表示装置
を説明するための図である。
FIG. 16 is a diagram for explaining an image display device according to a fifth embodiment of the present invention.

【図17】 本発明の実施の形態6による映像表示装置
を説明するための図である。
FIG. 17 is a diagram for explaining an image display device according to a sixth embodiment of the present invention.

【図18】 本発明の実施の形態7による映像表示装置
を説明するための図である。
FIG. 18 is a diagram for explaining a video display device according to a seventh embodiment of the present invention.

【図19】 従来の映像表示装置を説明するための図で
ある。
FIG. 19 is a diagram for explaining a conventional video display device.

【符号の説明】[Explanation of symbols]

1 映像データ、 2 属性データ、 3 実体デー
タ、 4 地図データ、5 表示手段、 6 表示レイ
アウト決定手段、 7 映像表示手段、 8属性表示手
段、 9 地図表示手段、 10 対話手段、 11
表示画面、12 地図ウィンドウ、 13,13a,1
3b,13c 映像ウィンドウ、14 映像再生ボタ
ン、 15 時刻表示パネル、 16 マウス、 1
7,17a,17b,17c カメラ搭載ヘリコプター
の航行軌跡、 18 現在再生中の映像フレームが撮影
された位置、 19,19a,19b 撮影範囲、 2
0 カメラアイコン、 21 位置指示手段、 22
映像フレーム特定手段、23 注視点、 24 マウス
カーソル。
1 video data, 2 attribute data, 3 entity data, 4 map data, 5 display means, 6 display layout determining means, 7 video display means, 8 attribute display means, 9 map display means, 10 interactive means, 11
Display screen, 12 Map window, 13, 13a, 1
3b, 13c video window, 14 video playback button, 15 time display panel, 16 mouse, 1
7, 17a, 17b, 17c Navigation trajectory of a helicopter equipped with a camera, 18 Position where the currently reproduced video frame was shot, 19, 19a, 19b Shooting range, 2
0 camera icon, 21 position indicating means, 22
Video frame specifying means, 23 gazing points, 24 mouse cursor.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 野沢 俊治 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 2C032 HB22 HC24 HC25 HC26 HC32 HD03 HD16 5B069 AA01 BA01 BA04 BB16 CA15 DD15 JA02 5E501 AA02 AA23 AC15 AC33 BA03 BA05 CA02 CB09 EA11 EA13 EB05 FA14 FB43  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Shunji Nozawa 2-3-2 Marunouchi, Chiyoda-ku, Tokyo F-term (reference) 2C032 HB22 HC24 HC25 HC26 HC32 HD03 HD16 5B069 AA01 BA01 BA04 BB16 CA15 DD15 JA02 5E501 AA02 AA23 AC15 AC33 BA03 BA05 CA02 CB09 EA11 EA13 EB05 FA14 FB43

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 時間的に撮影範囲が変化する映像のデー
タを再生し、前記映像の撮影範囲を含む地図上に重畳し
て表示画面に表示するものであって、前記撮影範囲の変
化に対応して前記映像または地図の表示状態を変化させ
ることを特徴とする映像表示装置。
1. A system for reproducing data of a video whose photographing range changes over time and displaying the data on a display screen so as to be superimposed on a map including the photographing range of the video. And changing the display state of the image or map.
【請求項2】 表示画面に表示された地図上で表示希望
位置を指定入力する位置指定手段と、前記位置指定手段
で指定入力された表示希望位置に基づいて、映像データ
の中から該当する映像フレームを特定する映像フレーム
特定手段とを備えたことを特徴とする請求項1に記載の
映像表示装置。
2. A position specifying means for specifying and inputting a desired display position on a map displayed on a display screen, and a corresponding image from the video data based on the desired display position specified and input by the position specifying means. The video display device according to claim 1, further comprising: a video frame specifying unit that specifies a frame.
【請求項3】 映像データは、複数のカメラで撮影され
て相互に時間同期した複数の映像データから構成され、
前記複数の映像データを同期再生することを特徴とする
請求項1に記載の映像表示装置。
3. The video data is composed of a plurality of video data shot by a plurality of cameras and time-synchronized with each other.
The video display device according to claim 1, wherein the plurality of video data are reproduced synchronously.
【請求項4】 カメラを指定入力するカメラ指定手段を
備え、少なくとも前記カメラ指定手段で指定されたカメ
ラの映像データが常に再生表示されるようにしたことを
特徴とする請求項3に記載の映像表示装置。
4. The image according to claim 3, further comprising a camera designating means for designating and inputting a camera, wherein at least image data of the camera designated by said camera designating means is always reproduced and displayed. Display device.
【請求項5】 複数の映像が地図上で相互に重なること
なく表示されるようにしたことを特徴とする請求項3に
記載の映像表示装置。
5. The image display device according to claim 3, wherein a plurality of images are displayed on the map without overlapping each other.
【請求項6】 複数の映像が地図上で重なる場合に、前
記各映像に与えられた優先順位に従って重畳表示するよ
うにしたことを特徴とする請求項3に記載の映像表示装
置。
6. The video display device according to claim 3, wherein when a plurality of videos overlap on a map, the videos are superimposed and displayed according to a priority given to each of the videos.
JP2001146179A 2001-05-16 2001-05-16 Video display device Pending JP2002341755A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001146179A JP2002341755A (en) 2001-05-16 2001-05-16 Video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001146179A JP2002341755A (en) 2001-05-16 2001-05-16 Video display device

Publications (1)

Publication Number Publication Date
JP2002341755A true JP2002341755A (en) 2002-11-29

Family

ID=18991870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001146179A Pending JP2002341755A (en) 2001-05-16 2001-05-16 Video display device

Country Status (1)

Country Link
JP (1) JP2002341755A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250734A (en) * 2004-03-03 2005-09-15 Keiogijuku Generation method for ubiquitous environment information snapshot data, browsing method, generation device, browsing device, program, and data structure of ubiquitous environment information snapshot
JP2006171224A (en) * 2004-12-14 2006-06-29 Mitsubishi Electric Corp Photographic image processing system
JP2007135069A (en) * 2005-11-11 2007-05-31 Sony Corp Imaging reproducing apparatus
JP2007135068A (en) * 2005-11-11 2007-05-31 Sony Corp Imaging reproducing apparatus
JP2009054179A (en) * 2008-10-16 2009-03-12 Geo Technical Laboratory Co Ltd Support device for image generation, support method for image generation, computer program and recording medium
JP2009058922A (en) * 2007-09-04 2009-03-19 Sony Corp Map information display device, map information display method, and program
JP2009076084A (en) * 2008-10-16 2009-04-09 Geo Technical Laboratory Co Ltd Device and method for supporting image creation, computer program, and recording medium
WO2012132257A1 (en) * 2011-03-28 2012-10-04 パナソニック株式会社 Image display device
KR101289378B1 (en) 2005-11-11 2013-07-29 소니 가부시끼가이샤 Moving image replay device, imaging/reproducing device, moving image replay method, and computer readable recording medium
JP2014131312A (en) * 2014-02-10 2014-07-10 Sony Corp Image processing device, image processing method, and program
JP5948465B1 (en) * 2015-06-04 2016-07-06 株式会社ファンクリエイト Video processing system and video processing method
US9477388B2 (en) 2009-06-23 2016-10-25 Sony Corporation Image processing device, image processing method and program
JP7419450B1 (en) 2022-07-22 2024-01-22 セーフィー株式会社 Information processing system, information processing device, information processing method, program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242391A (en) * 1999-02-25 2000-09-08 Fujitsu Ltd Curve slider device
JP2000341681A (en) * 1999-03-23 2000-12-08 Canon Inc Information presenting device and its method and camera controller and its method and computer readable storage medium
JP2001034250A (en) * 1999-07-19 2001-02-09 Mitsubishi Electric Corp Device and method to display video and recording medium which records program for displaying video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242391A (en) * 1999-02-25 2000-09-08 Fujitsu Ltd Curve slider device
JP2000341681A (en) * 1999-03-23 2000-12-08 Canon Inc Information presenting device and its method and camera controller and its method and computer readable storage medium
JP2001034250A (en) * 1999-07-19 2001-02-09 Mitsubishi Electric Corp Device and method to display video and recording medium which records program for displaying video

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250734A (en) * 2004-03-03 2005-09-15 Keiogijuku Generation method for ubiquitous environment information snapshot data, browsing method, generation device, browsing device, program, and data structure of ubiquitous environment information snapshot
JP4502793B2 (en) * 2004-12-14 2010-07-14 三菱電機株式会社 Shooting video processing system
JP2006171224A (en) * 2004-12-14 2006-06-29 Mitsubishi Electric Corp Photographic image processing system
JP2007135069A (en) * 2005-11-11 2007-05-31 Sony Corp Imaging reproducing apparatus
JP2007135068A (en) * 2005-11-11 2007-05-31 Sony Corp Imaging reproducing apparatus
US8625956B2 (en) 2005-11-11 2014-01-07 Sony Corporation Imaging/reproducing device
KR101289378B1 (en) 2005-11-11 2013-07-29 소니 가부시끼가이샤 Moving image replay device, imaging/reproducing device, moving image replay method, and computer readable recording medium
US8462993B2 (en) 2007-09-04 2013-06-11 Sony Corporation Map information display apparatus, map information display method, and program
JP2009058922A (en) * 2007-09-04 2009-03-19 Sony Corp Map information display device, map information display method, and program
US8175340B2 (en) 2007-09-04 2012-05-08 Sony Corporation Map information display apparatus, map information display method, and program
US8824745B2 (en) 2007-09-04 2014-09-02 Sony Corporation Map information display apparatus, map information display method, and program
JP2009076084A (en) * 2008-10-16 2009-04-09 Geo Technical Laboratory Co Ltd Device and method for supporting image creation, computer program, and recording medium
JP2009054179A (en) * 2008-10-16 2009-03-12 Geo Technical Laboratory Co Ltd Support device for image generation, support method for image generation, computer program and recording medium
US9477388B2 (en) 2009-06-23 2016-10-25 Sony Corporation Image processing device, image processing method and program
WO2012132257A1 (en) * 2011-03-28 2012-10-04 パナソニック株式会社 Image display device
CN103443839A (en) * 2011-03-28 2013-12-11 松下电器产业株式会社 Image display device
US9066018B2 (en) 2011-03-28 2015-06-23 Panasonic Intellectual Property Management Co., Ltd. Image display device
JP6089337B2 (en) * 2011-03-28 2017-03-08 パナソニックIpマネジメント株式会社 Image display device and image display method
JP2014131312A (en) * 2014-02-10 2014-07-10 Sony Corp Image processing device, image processing method, and program
JP5948465B1 (en) * 2015-06-04 2016-07-06 株式会社ファンクリエイト Video processing system and video processing method
JP7419450B1 (en) 2022-07-22 2024-01-22 セーフィー株式会社 Information processing system, information processing device, information processing method, program

Similar Documents

Publication Publication Date Title
AU2019216671B2 (en) Method and apparatus for playing video content from any location and any time
US20220132036A1 (en) Display Control Apparatus, Display Control Method, And Program
JP6399356B2 (en) Tracking support device, tracking support system, and tracking support method
JP4195991B2 (en) Surveillance video monitoring system, surveillance video generation method, and surveillance video monitoring server
US11417062B2 (en) Information processing device, information processing method, and program
EP3367662B1 (en) Control device, camera system, and program
US20040179121A1 (en) System and method for displaying captured images according to imaging device position
JP2000307928A (en) Camera controller
CN105450934A (en) Camera control using preset information on panoramic picture
JP2001008232A (en) Omnidirectional video output method and apparatus
JP2012080431A (en) Panoramic image display device and panoramic image display method
JP2002341755A (en) Video display device
JPWO2017119034A1 (en) Imaging system, imaging method and program
US20210349620A1 (en) Image display apparatus, control method and non-transitory computer-readable storage medium
US6891561B1 (en) Providing visual context for a mobile active visual display of a panoramic region
JPH08149356A (en) Moving picture display device
JP2002344897A (en) Video display device
JPH10174090A (en) Monitor supporting device
US8054332B2 (en) Advanced input controller for multimedia processing
JP2003324723A (en) Monitoring system and method, program, and recording medium
JP3565445B2 (en) Video display device
JP4595322B2 (en) Image processing system, remote controller and method, image processing apparatus and method, recording medium, and program
JP5646033B2 (en) Image display device and image display method
KR101915199B1 (en) Apparatus and method of searching image based on imaging area of the PTZ camera
US11385850B2 (en) Content reproduction device, picture data output device, content creation device, content reproduction method, picture data output method, and content creation method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100629