JPH0659646A - Sign displaying method and device on screen - Google Patents

Sign displaying method and device on screen

Info

Publication number
JPH0659646A
JPH0659646A JP4215190A JP21519092A JPH0659646A JP H0659646 A JPH0659646 A JP H0659646A JP 4215190 A JP4215190 A JP 4215190A JP 21519092 A JP21519092 A JP 21519092A JP H0659646 A JPH0659646 A JP H0659646A
Authority
JP
Japan
Prior art keywords
information
image
video
tag
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4215190A
Other languages
Japanese (ja)
Other versions
JP3238205B2 (en
Inventor
Masayuki Tani
谷  正之
Kimiya Yamatari
公也 山足
Koichiro Tanikoshi
浩一郎 谷越
Masayasu Futagawa
正康 二川
Masato Hotta
正人 堀田
Shinya Tanifuji
真也 谷藤
Atsuhiko Nishikawa
敦彦 西川
Atsuhiko Hirota
敦彦 廣田
Harumi Uchigasaki
晴美 内ケ崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=16668175&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JPH0659646(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP21519092A priority Critical patent/JP3238205B2/en
Publication of JPH0659646A publication Critical patent/JPH0659646A/en
Application granted granted Critical
Publication of JP3238205B2 publication Critical patent/JP3238205B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Alarm Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Digital Computer Display Output (AREA)

Abstract

PURPOSE:To provide a plant monitoring control system or the like with a means for giving a sign on an apparatus on the site. CONSTITUTION:This device comprises a display screen 500 and the like having a sign putting ICON 530, sign ICON 700-703, pointer 501, plant configuration illustration 510, video image 520. It is thus possible to issue memorandums, messages and the like to add and see them in such a feeling as to put signs on apparatuses, resulting in improvement of work efficiency.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】ビデオ映像(以下、単に「映像」
と称することもある)を利用したマン・マシンインタフ
ェース(以下、単に「マンマシン」と称することもあ
る)システムに関し、さらに詳しくは、ビデオカメラか
ら入力された映像(以下、単に「カメラ映像」と称する
こともある)を構成する被写体に、予め設定した各種情
報を対応付けする手段を提供する方法および装置に関す
る。
[Industrial application] Video images (hereinafter referred to simply as "images")
A man-machine interface (hereinafter, also simply referred to as “man-machine”) system that utilizes such a system, more specifically, an image input from a video camera (hereinafter, simply as “camera image”) A method and an apparatus for providing a means for associating preset various information with a subject constituting (sometimes referred to as).

【0002】[0002]

【従来の技術】従来のプラント監視方法としては、例え
ば、現場に存在する機器、操作盤、ディスプレイ、系統
監視盤等にメモを貼ることにより、プラント使用者の注
意を喚起せしめている。この際、裏側に糊を付着させた
紙に、様々な内容を記載して、対象機器に貼り付けてい
る。例えば、機器の故障状態、使用上の注意事項、試験
中であることの明示、各種変更事項等を紙に記載する。
これらの紙(メモ)は、他の作業者への連絡、自分自身
の覚書等のために使用される。このように機器にメモを
貼ることを「札掛け」、メモのことを「札」と称してい
る。一方、プラント監視制御システムにおいては、監視
制御の遠隔化、集中化が進んでいる。プラント内の各種
機器は、遠隔点に存在する操作室から、集中して監視制
御され、運転員は運転、監視作業の大半を操作室にある
ディスプレイ、および、各種命令等の入力装置を介して
行う。このような作業形態では、従来の札掛けでは、非
常に不便となる。現場の機器への札掛け、現場の機器に
掛けられた札の参照等を行なうためには、実際に現場に
行く必要があるからである。また、札を掛ける対象物
が、ディスプレイ画面中にしか存在しない場合もあり得
る。例えば、従来の系統監視盤は、ディスプレイ画面上
での系統図表示に置き替りつつあり、その場合、札掛け
も画面に表示された系統図に対して行う必要がある。
しかし、ディスプレイの表示内容は、必要に応じて変更
するためディスプレイ画面にメモを貼り付けても画面上
での表示物に、メモを貼ったことにならない。 Hypert
ext '89 Proceedings (Pittsburgh, Pennsylvania , No
v. 5-7, 1989開催) ACM, New York, 1989発行、365ペー
ジから378ページに記載されている「InterNote: Extend
ing a Hypermedia framework to support annotative c
ollaboration」(Catlin, T., Bush, P.E., Yankelovic
h, N.著)には、画面上に表示された文書に「注釈」をつ
ける技術が開示されている。この技術は、画面に表示さ
れた文書の選択した部分に電子的に札掛けする技術の一
種と解釈できる。しかし、前記文献には、文書データに
札掛けする技術しか開示されておらず、文書データ等の
編集対象を除く画面構成要素、例えば、画面に表示され
たマン・マシンインタフェースの構成要素(メニュー、
アイコン、グラフ、メーター等)、ビデオ映像に映って
いる被写体等に札掛けする技術は開示されていない。
2. Description of the Related Art As a conventional plant monitoring method, for example, a memo is affixed to a device, an operation panel, a display, a system monitoring panel and the like existing on the site to call the attention of a plant user. At this time, various contents are written on the paper to which the adhesive is attached on the back side, and the paper is attached to the target device. For example, state the failure status of the equipment, precautions for use, indication that the test is in progress, and various changes on the paper.
These pieces of paper (memo) are used for contacting other workers, memorandums for themselves, and the like. Sticking a memo on a device in this way is called a "tag rack", and a memo is called a "tag". On the other hand, in plant supervisory control systems, remote control and centralization of supervisory control are in progress. Various equipment in the plant is centrally monitored and controlled from the operation room located at a remote point, and the operator performs most of the operation and monitoring work through the display in the operation room and the input device such as various commands. To do. In such a work form, the conventional bill holder is very inconvenient. This is because it is necessary to actually go to the site in order to put a tag on the device on the site or refer to a tag hung on the device on the site. In addition, there is a case in which the object to be hung up is only present in the display screen. For example, the conventional system monitoring board is being replaced by the system diagram display on the display screen, and in that case, it is also necessary to carry out the bill hanging on the system diagram displayed on the screen.
However, since the display content of the display is changed as necessary, even if a memo is pasted on the display screen, it does not mean that the memo is pasted on the display object on the screen. Hypert
ext '89 Proceedings (Pittsburgh, Pennsylvania, No
v. 5-7, 1989) ACM, New York, 1989, `` Inter Note: Extend '' on pages 365-378
ing a Hypermedia framework to support annotative c
ollaboration '' (Catlin, T., Bush, PE, Yankelovic
h, N.) discloses a technique for annotating a document displayed on the screen. This technique can be interpreted as a type of technique for electronically tagging a selected portion of a document displayed on the screen. However, the above-mentioned document only discloses a technique for tagging document data, and screen components excluding editing targets such as document data, for example, components of a man-machine interface displayed on the screen (menu,
No technology is disclosed for tagging objects such as icons, graphs, meters, etc., and subjects shown in video images.

【0003】[0003]

【発明が解決しようとする課題】上述のように、従来の
技術には、下記に示すような課題がある。第1に、現場
の機器に札掛けする場合、実際に現場に行く必要があ
り、同様に、現場の機器に掛けられた札を参照する場合
も実際に現場に行く必要があるため作業性が極めて悪
い。第2に、編集対象のデータ(例えば文書データ)以
外の画面構成要素に対して、注釈、メモ等を付けられな
い(すなわち「札掛け」を行なえない)。したがって、
本発明の目的は、前記従来技術の問題を解決し、下記事
項を達成することにある。すなわち、第1に、操作室に
いるまま現場の機器へ札掛け、および、掛けた札を参照
できるようにすること。第2に、編集対象データ以外の
画面構成要素に、札掛けできる装置を提供することであ
る。特に、ビデオ映像上に映っている被写体にメモ、注
釈等を付けられることである。
As described above, the conventional techniques have the following problems. First, when tagging equipment on site, it is necessary to actually go to the site. Similarly, when referring to tags on equipment on site, it is also necessary to actually go to the site, which makes workability easier. Extremely bad. Secondly, annotations, memos, etc. cannot be added to screen constituent elements other than the data to be edited (for example, document data) (that is, "tagging" cannot be performed). Therefore,
An object of the present invention is to solve the above-mentioned problems of the prior art and achieve the following items. That is, firstly, it is necessary to be able to refer to the tags placed on the equipment on the spot while in the operation room. Secondly, it is necessary to provide a device capable of tagging screen components other than the data to be edited. In particular, it is to be able to add notes, annotations, etc. to the subject shown in the video image.

【0004】[0004]

【課題を解決するための手段】上記課題を解決するた
め、以下の手段が考えられる。まず、ビデオ映像を表示
する際、少なくとも音声、映像を含む媒体のいずれかに
より予め必要な情報を作成し、該情報を前記被写体のビ
デオ画像中の所定の部分に関連がある事を記憶してお
き、該記憶情報に基づき、前記被写体には前記予め作成
された情報が関連付けられていることを明示するグラフ
ィックス(札)を表示する画面札掛け方法が考えられ
る。また、上記方法において、表示された札を指示手段
により指示したとき、前記予め作成された、少なくとも
音声、映像を含む媒体のいずれかによる情報を出力する
画面札掛け方法も考えられる。さらに、上記方法におい
て、被写体の複数のシーンを撮影し、ビデオ映像として
蓄積しておき、それぞれのシーンに関連付けて札を掛け
る画面札掛け方法でもよい。また、撮像手段で撮影され
た被写体のビデオ映像を表示する際、少なくとも音声、
映像を含む媒体のいずれかにより予め必要な情報を作成
し、該情報を、少なくとも、複数の撮像手段のいずれを
使用したかを示す撮像手段番号、撮像手段の設定位置を
含む撮像手段設定パラメータと関連がある事を記憶して
おき、該記憶情報に基づき、前記被写体には前記予め作
成された情報が関連付けられていることを明示するグラ
フィックス(札)を作成、記憶しておく画面札掛け方法
も考えられる。この場合、ある撮像手段設定パラメータ
が選択された場合、該撮像手段設定パラメータに関連す
る札を表示し、表示された札を指示手段により指示した
とき、前記予め作成された、少なくとも音声、映像を含
む媒体のいずれかによる情報を出力する画面札掛け方法
も考えられる。また、撮像手段で撮影された被写体のビ
デオ映像を表示する際、少なくとも音声、映像を含む媒
体のいずれかにより予め必要な情報を作成し、該情報
を、表示画像上の指定された領域に関連がある事を記憶
しておき、該記憶情報に基づき、前記被写体には前記予
め作成された情報が関連付けられていることを明示する
グラフィックス(札)を作成、記憶しておく画面札掛け
方法も考えられる。この場合、ある表示画像上の指定さ
れた領域が選択された場合、該表示画像上の指定された
領域に関連する札を表示し、表示された札を指示手段に
より指示したとき、前記予め作成された、少なくとも音
声、映像を含む媒体のいずれかによる情報を出力する画
面札掛け方法も考えられる。また、撮像手段で被写体を
撮影し、該被写体のビデオ映像を表示する際、少なくと
も音声、映像を含む媒体のいずれかにより予め必要な情
報を作成し、該情報を前記被写体のビデオ画像中の所定
の部分に関連がある事を記憶しておき、該記憶情報に基
づき、前記被写体には前記予め作成された情報が関連付
けられていることを明示するグラフィックス(札)を表
示する画面札掛け方法であって、まず、被写体のビデオ
映像のみを表示し、次に、被写体の一部の指示があった
場合にのみ、該被指示部に札が掛けられているか否かを
判断し、札が掛けられている場合、該札に関連した情報
を出力する画面札掛け方法も考えられる。さらに、上記
方法を実現する装置として、以下に示す手段が考えられ
る。撮像画像の表示手段と、札掛け処理手段を有して構
成される画面札掛け装置であって、前記札掛け処理手段
は、必要な情報を作成する情報作成手段と、作成された
情報を所定の撮像画像の一部に関連付けて記憶する手段
を有して構成され、また、前記撮像画像の表示手段は、
表示画面中に前記情報作成手段にて作成された情報と関
連付けられている画像が存在する場合に、これをグラフ
ィック(札)で明示する機能を有する画面札掛け装置で
ある。上記装置において、さらに撮像画像の一部を指示
する手段を備え、前記撮像画像の表示手段は、該表示手
段が明示するグラフィック(札)を、前記撮像画像の一
部を指示する手段で指示した場合、札に関連付けて記憶
されている作成された情報を出力する機能を有する画面
札掛け装置も考えられる。
[Means for Solving the Problems] In order to solve the above problems, the following means can be considered. First, when a video image is displayed, necessary information is created in advance by at least one of a medium including audio and video, and the information is memorized as being related to a predetermined part in the video image of the subject. Alternatively, a screen tagging method may be considered in which graphics (tags) that clearly indicate that the previously created information is associated with the subject based on the stored information are displayed. Further, in the above method, a screen tagging method is conceivable in which, when the displayed tag is instructed by the instructing means, the information generated by any one of the previously created media including at least audio and video is output. Further, in the above method, a screen tagging method may be used in which a plurality of scenes of a subject are photographed, stored as video images, and a tag is applied in association with each scene. Further, when displaying a video image of a subject captured by the image capturing means, at least audio,
Necessary information is created in advance by any of the media including the image, and the information includes at least an imaging means number indicating which of the plurality of imaging means is used and an imaging means setting parameter including a setting position of the imaging means. A screen tagging device that remembers that there is a relation, and creates and stores graphics (tags) that clearly show that the previously created information is associated with the subject based on the stored information. A method is also possible. In this case, when a certain imaging means setting parameter is selected, a tag related to the imaging means setting parameter is displayed, and when the displayed tag is instructed by the instructing means, at least the sound and the image created in advance are displayed. A screen tagging method of outputting information by any of the included media is also conceivable. Further, when displaying a video image of a subject photographed by the image pickup means, necessary information is created in advance by at least one of a medium including audio and video, and the information is related to a designated area on the display image. A screen tagging method in which a graphic (tag) that clearly indicates that the previously created information is associated with the subject is created and stored based on the stored information. Can also be considered. In this case, when a designated area on a certain display image is selected, a tag related to the designated area on the display image is displayed, and when the displayed tag is instructed by the instructing means, it is created in advance. It is also conceivable that the screen tagging method for outputting information by any one of the above-described media including at least audio and video. Further, when a subject is photographed by the image pickup means and a video image of the subject is displayed, necessary information is created in advance by at least one of a medium including a sound and an image, and the information is predetermined in a video image of the subject. Screen tagging method for storing graphics indicating that the object is associated with the previously created information based on the stored information. That is, first, only the video image of the subject is displayed, and then, only when a part of the subject is instructed, it is determined whether or not a tag is put on the instructed part, and the tag is displayed. When hanging, a screen tagging method of outputting information related to the tag is also conceivable. Furthermore, the following means can be considered as an apparatus that realizes the above method. A screen tagging device comprising a display means for displaying a picked-up image and a tagging processing means, wherein the tagging processing means is an information creating means for creating necessary information, and the created information is predetermined. And a means for storing the captured image in association with a part of the captured image.
A screen tagging device having a function of clearly showing a graphic (tag) when an image associated with the information created by the information creating means exists on the display screen. The above-mentioned device further includes means for instructing a part of the captured image, and the display means for displaying the captured image indicates a graphic (tag) clearly indicated by the display means by means for instructing a part of the captured image In this case, a screen tagging device having a function of outputting the created information stored in association with the tag is also conceivable.

【0005】[0005]

【作用】以下、作用について説明する。まず、テキス
ト、図形、音声、ビデオ等各種のメディアを使用して情
報(以下「札」あるいは「メモ」と称する)を作成す
る。次に、画面表示されたビデオ映像上で、上記情報に
対応づけを行う被写体、または、領域を指示する。かか
る対応づけを行う手段は、指示された被写体、または、
映像上の位置に対応する情報を記憶する。次に、現在表
示されている映像に、札が掛けられた被写体、または、
領域が存在すれば、札が掛けられていることを、グラフ
ィックスをビデオ映像に合成表示する等の方法により明
示する。また、札掛け状態を明示する手段によって、明
示された場所を指示すると、札の情報を出力する。情報
がテキスト、図面、ビデオ映像等であれば画面に表示
し、音声であれば、スピーカ等から必要な情報が出力さ
れることになる。もちろん、札掛け状態が明示されてい
なくても、札掛けされた被写体、または、領域が指示さ
れたら、参照すべき情報があるかぎり、情報(札に記載
された事項)は出力される。このように、操作室にいる
まま、現場の機器へ札掛け、および、掛けた札を参照で
きるようにすること、および、編集対象データ以外の画
面構成要素に、札掛けできる装置および方法を提供する
ことが可能となり、特に、ビデオ映像上に映されている
被写体にメモ、注釈等を付けれることになる。
[Operation] The operation will be described below. First, information (hereinafter referred to as "tag" or "memo") is created using various media such as text, graphics, voice, and video. Next, on the video image displayed on the screen, a subject or a region to be associated with the above information is designated. The means for making such correspondence is the designated subject, or
The information corresponding to the position on the image is stored. Next, on the currently displayed image, the subject with a tag, or
If there is an area, it is clearly indicated that the tag is hung by a method such as displaying the graphics on the video image in a composite manner. Further, when the designated location is designated by the means for clearly indicating the bill hanging state, the bill information is output. If the information is text, drawing, video image, etc., it is displayed on the screen, and if it is sound, the necessary information is output from the speaker or the like. Of course, even if the tagging state is not clearly indicated, if the tagged object or area is designated, as long as there is information to be referenced, information (items written on the tag) is output. As described above, the present invention provides a device and a method for tagging devices in the field while in the operation room and making it possible to refer to the tag applied, and for tagging screen components other than the data to be edited. This makes it possible to add notes, annotations, etc., to the subject displayed on the video image.

【0006】[0006]

【実施例】本発明の一実施例であるプラント運転監視シ
ステムを図1〜図7を参照して説明する。なお、本発明
は、発電プラント、化学プラント、鉄鋼圧延機、ビル、
道路、上下水道システム等の各種の遠隔運転監視システ
ムに適用できることは言うまでもない。本実施例におけ
る札掛け機能は、画面上の表示物にメモ(以下「札」と
称することもある)を貼りつける機能である。札は、音
声、ビデオ、テキスト、図形等の様々なメディアを使用
して記述する事が可能である。札掛けは、他の運転員へ
の伝言、自分自身のための覚書等、各種の用途がある。
画面上のグラフィック表示物だけではなく、ビデオ映像
に映される物に対しても札掛けが可能である。現場での
監視映像に対して、札掛けを行なえば、現場での実際の
札掛けを、模擬、代替できることになる。図1に、プラ
ント監視制御システムの全体構成図の一例を示す。各運
転員は、それぞれワークステーション(以下、単に「W
S」と記す事もある)を使用して、プラントの状態を監
視しながら、必要に応じて運転操作を行う。 運転員
が、運転監視に使用する一つのワークステーション10
0を図に示す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A plant operation monitoring system according to an embodiment of the present invention will be described with reference to FIGS. The present invention is a power plant, a chemical plant, a steel rolling mill, a building,
It goes without saying that it can be applied to various remote operation monitoring systems such as roads and water and sewer systems. The tagging function in the present embodiment is a function of attaching a memo (hereinafter sometimes referred to as "tag") to a display object on the screen. The tag can be described using various media such as voice, video, text, and graphics. The bill holder has various uses such as a message to other operators and a memorandum for oneself.
Not only graphic objects on the screen but also objects displayed in video images can be hung. If the tagging is performed on the surveillance video on site, the actual tagging on site can be simulated and replaced. FIG. 1 shows an example of the overall configuration of a plant monitoring control system. Each operator has a workstation (hereinafter simply referred to as "W
Sometimes referred to as "S"), the operation of the plant is performed as necessary while monitoring the state of the plant. One workstation 10 used by operators for operation monitoring
0 is shown in the figure.

【0007】ワークステーション100は、音声を入
力、記憶、再生するために、音声処理ハード120、ア
ンプ内臓型スピーカ121、122、マイク123を備
えて構成されている。音声処理ハード120は、アナロ
グの音声信号をディジタル信号に変換するA/D変換機
能、ディジタル音声信号をアナログ信号に変換するD/
A変換機能、および、ディジタル音声信号を圧縮・伸長
するための信号処理機能を有する。マイク123や、プ
ラントの存在する現場にあるマイク211等からの音声
信号は、音声処理ハード120により、ディジタル信号
化され、さらに圧縮処理され、ワークステーション10
0内のメモリ、ディスク等に記録される。逆に記録され
たディジタル音声は、音声処理ハード120により伸
長、A/D変換後、スピーカ121、122から出力さ
れる。マイク123は、主として運転員が、自分の音声
の記録、操作指令を入力するため等に使用する。マイク
123は、運転員が音声入力しやすい位置に配置され
る。ワークステーション100から離れた場所から、音
声入力を行ないたい場合には、例えばワイヤレスマイク
を用いてもよい。図1中の映像合成ハード110は、ワ
ークステーション110の映像信号と、テレビ信号とを
合成表示する手段である、カメラ111は、運転員が主
に自分の映像を記録するためのものである。映像合成ハ
ード110に、テレビ信号を入力する機器として、カメ
ラ111、プラントの存在する現場を監視するカメラ群
(例えばカメラ210等)、レーザディスクプレーヤ
(LD)220、ビデオテープレコーダ(VTR)22
1等が考えられる。これらのテレビ信号に比べ、ワーク
ステーション110の映像信号は、解像度が高い。した
がって、そのままでは両者を合成できない。したがっ
て、映像合成ハード110は、解像度の低いテレビ信号
を、ワークステーション100の解像度に適合するよう
に変換した後、両者を合成する。また、映像合成ハード
110は、いわゆるクロマキー機能を有する。クロマキ
ー機能とは、ワークステーション110の映像信号のう
ち、ある指定した色の部分だけ、ビデオ信号をインポー
ズする機能である。例えば、クロマキーとして「黒」を
指定すると、画面上の黒い部分だけに、ビデオ信号が表
示される。黒以外の部分にはビデオ信号が表示されず、
これによって、ワークステーション100のディスプレ
イ画面上に、カメラ210で撮影している現場の映像を
表示し、さらに、その映像の上にワークステーション1
00が描画したグラフィックスを合成表示できることに
なる。本システムでは、複数の運転員が協力しながら操
作できるように、ワークステーション100と同一か、
または、同等な機能を有したワークステーションが、ネ
ットワーク10を介して相互に接続される。プラント内
の各種機器の状態(もちろん札掛け情報を含む)は、ネ
ットワーク10を介して、各ワークステーションに伝送
される。また、逆に、各ワークステーションから各機器
への運転指令もネットワーク10を介して伝送される。
かかるネットワークは、例えば光ファイバ等の情報伝送
媒体を有して容易に構成されうる。ワークステーション
100は、各種のメディア機器にアクセスするためのソ
フトウエアとして、ローカルドライバ130と共有メデ
ィアサーバ1400を有する。ここでメディア機器とし
ては、映像、音声等を入力、記録、加工、出力するため
の機器一般(カメラ、LD、VTR、CD−ROMドラ
イバ(CD)等)が、考えられる。ローカルドライバ1
30、共有メディアサーバ140は、ともにワークステ
ーション100の通信ポート(RS232C、SCSI
等)を介して、各メディア機器を制御する。ローカルド
ライバ130は、個々のワークステーションごとに接続
されたメディア機器(他のワークステーションと共有し
ないメディア機器、例えば、映像合成ハード110、音
声処理ハード120、CD−ROMドライバ131等)
を制御するソフトウエアであり、個々のワークステーシ
ョンごとにインストールされる。共有メディアサーバ1
40は、複数のワークステーションにて共有されるメデ
ィア機器を制御するソフトウエアである。例えば、共有
メディアサーバ140は、ワークステーション100に
のみインストールされている。他のワークステーション
は、ネットワーク10を介して、共有メディアサーバ1
40に依頼して、共有のメディア機器にアクセスする。
共有メディア機器には、プラントの存在する現場の各所
に配置されたカメラ(例えばカメラ210等)、マイク
(例えばマイク211等)、LD220、VTR22
1、データスイッチング用マトリックススイッチャ20
0、制御用スイッチャ250、カメラコントローラ25
1、252等がある。カメラ210、マイク211等
は、操作室からプラント内の様子を、視覚や聴覚で確認
するためにある。データマトリックススイッチャ200
は、音声信号、映像信号の各々を入力信号として、M入
力対N入力のポート構成にて、任意のマトリックス状態
で接続可能な、切り替え手段である。したがって、デー
タマトリックススイッチャ200は、一つの入力端子か
らの信号を複数の出力端子に分配できる。これによっ
て、例えばカメラ210の映像を複数のディスプレイに
分配し、各々のディスプレイから見ることができる。
The workstation 100 comprises voice processing hardware 120, amplifier built-in speakers 121 and 122, and a microphone 123 for inputting, storing, and reproducing voice. The audio processing hardware 120 has an A / D conversion function for converting an analog audio signal into a digital signal and a D / D conversion function for converting a digital audio signal into an analog signal.
It has an A conversion function and a signal processing function for compressing / decompressing a digital audio signal. The voice signal from the microphone 123 or the microphone 211 at the site where the plant is present is converted into a digital signal by the voice processing hardware 120, and further compressed, and the workstation 10
It is recorded in the memory of 0, a disk, or the like. Conversely, the recorded digital voice is expanded by the voice processing hardware 120, A / D converted, and then output from the speakers 121 and 122. The microphone 123 is mainly used by an operator for recording his / her own voice and inputting an operation command. The microphone 123 is arranged at a position where an operator can easily input a voice. If voice input is desired from a location remote from the workstation 100, a wireless microphone may be used, for example. The image composition hardware 110 in FIG. 1 is a means for combining and displaying the image signal of the workstation 110 and the television signal. The camera 111 is for the operator to mainly record his or her image. As a device for inputting a television signal to the video composition hardware 110, a camera 111, a group of cameras (for example, a camera 210) that monitors a site where a plant exists, a laser disc player (LD) 220, a video tape recorder (VTR) 22.
1st grade is considered. The video signal of the workstation 110 has a higher resolution than these television signals. Therefore, the two cannot be combined as they are. Therefore, the video compositing hardware 110 converts a television signal having a low resolution so as to match the resolution of the workstation 100, and then synthesizes the two. The video composition hardware 110 also has a so-called chroma key function. The chroma key function is a function of imposing a video signal only on a part of a specified color in the video signal of the workstation 110. For example, if "black" is specified as the chroma key, the video signal is displayed only in the black portion on the screen. The video signal is not displayed in areas other than black,
As a result, the image of the scene taken by the camera 210 is displayed on the display screen of the workstation 100, and the workstation 1 is displayed on the image.
The graphics drawn by 00 can be combined and displayed. In this system, it is the same as the workstation 100 so that multiple operators can operate in cooperation with each other.
Alternatively, workstations having equivalent functions are connected to each other via the network 10. The states of various devices in the plant (including tagging information, of course) are transmitted to each workstation via the network 10. On the contrary, the operation command from each workstation to each device is also transmitted via the network 10.
Such a network can be easily configured with an information transmission medium such as an optical fiber. The workstation 100 has a local driver 130 and a shared media server 1400 as software for accessing various media devices. Here, as the media device, general devices (camera, LD, VTR, CD-ROM driver (CD), etc.) for inputting, recording, processing, and outputting video, audio, etc. can be considered. Local driver 1
30 and the shared media server 140 are both communication ports (RS232C, SCSI) of the workstation 100.
Etc.) to control each media device. The local driver 130 is a media device connected to each workstation (a media device that is not shared with other workstations, for example, the video composition hardware 110, the audio processing hardware 120, the CD-ROM driver 131, etc.).
It is the software that controls and is installed on each workstation. Shared media server 1
Reference numeral 40 is software that controls media devices shared by a plurality of workstations. For example, shared media server 140 is installed only on workstation 100. Other workstations are connected to the shared media server 1 via the network 10.
40 to access the shared media device.
The shared media device includes a camera (for example, a camera 210 or the like), a microphone (for example, a microphone 211 or the like), an LD 220, a VTR 22 arranged at various places on the site where the plant exists.
1. Matrix switcher 20 for data switching
0, control switcher 250, camera controller 25
There are 1, 252 and so on. The camera 210, the microphone 211, and the like are provided to visually and aurally check the inside of the plant from the operation room. Data matrix switcher 200
Is a switching means that can be connected in an arbitrary matrix state in an M input to N input port configuration using each of an audio signal and a video signal as an input signal. Therefore, the data matrix switcher 200 can distribute the signal from one input terminal to a plurality of output terminals. Thereby, for example, the image of the camera 210 can be distributed to a plurality of displays and can be viewed from each display.

【0008】LD220は、マニュアル用の映像情報を
格納する。VTR221は、スイッチャ200の入力側
と出力側の両方に接続される。これによって、現場を監
視しているカメラの映像や、カメラ111の映像を記録
し、記録された映像をワークステーション200のディ
スプレイ画面に出力できる。運転員は、カメラ111を
使用して、例えば、自分の話している映像を撮影し、こ
れをVTR221に記録することにより、映像による伝
言を、他の運転員に伝えることができる。もちろん、映
像をVTR221に記録する替りに、音声と同様に、デ
ジタル化した後、圧縮して、ワークステーションのメモ
リ、ディスク等に記憶しておいてもよい。また、図1に
おいて、カメラコントローラ251、252は、現場に
設置されたカメラ(カメラ210等)を制御するための
手段であり、制御用スイッチャ250は、カメラコント
ローラ251、252と、現場に設置されたカメラとの
接続を切り換える手段である。カメラコントローラ25
1、252と制御用スイッチャ250は、それぞれワー
クステーション100の通信ポートに接続されている。
カメラコントローラ251、252は、制御用スイッチ
ャ250を介して接続されたカメラの向きや、画角を自
由に設定する手段である。共有メディアサーバ140
は、ワークステーション上のクライアントプロセス(C
P1とする)から、現場にあるカメラ(例えばカメラ2
10とする)を制御したい旨の要求を受けると、次の手
順でCP1にカメラ210の制御権を割り当てる。ま
ず、第1の手順について説明する。制御したい旨の要求
のあったカメラ210の制御権が、他のクライアントプ
ロセスに割り当てられていないかどうかをチェックす
る。すでに制御権が割り当てられている場合には、カメ
ラ210が、使用中であることをCP1に連絡して、制
御権割り当て処理を終了する。制御権が割り当てられて
いない場合には、第2の手順に進む。第2の手順は、他
のクライアントプロセスが使用していないカメラコント
ローラを探索する。全てのカメラコントローラが使用中
であるときには、その旨をCP1に連絡して制御権割り
当て処理を終了する。使用中でないカメラコントローラ
が存在する場合には、それをCP1に割り当てる。最後
に、手順3にて、制御用スイッチャ250に指令を出力
して、CP1に割り当てられたコントローラ(コントロ
ーラ251とする)と、カメラ210との制御線を接続
する。上記手順により制御権が得られた後、例えば、C
P1からカメラ210を左にパン(カメラを水平方向に
回転移動することを称する)したいという要求がある
と、共有メディアサーバ140は、カメラコントローラ
251に左にパンするための操作指令を送る。操作指令
を受けたカメラコントローラ251は、カメラ210の
雲台(駆動部を備えるカメラの装着台を称する)のモー
タを駆動・制御して、カメラ210を左にパンする。C
P1は、カメラ210の使用が終了すると、その旨を共
有メディアサーバ140に伝え、カメラ210の制御権
を開放する。以上のような手順で、カメラを制御するこ
とにより、現場に設置されたカメラの数より少ない数の
カメラコントローラで、任意のカメラを複数のクライア
ントプロセスから制御することができる。すなわち、同
時に操作したいカメラの数だけカメラコントローラを用
意すればよいわけである。図2に、ワークステーション
100のディスプレイ画面に表示された監視画面の一例
を示す。図2において、ワークステーション100のデ
ィスプレイ画面500は、プラントの構成図510、制
御データ等のグラフィックス表示、カメラ、LD22
0、VTR221等からのビデオ信号を表示したビデオ
映像520、札掛けアイコン530、札掛けメニュー5
31、マウスなどのポインティングデバイスと連動して
表示されるポインタ501を有して構成される。本実施
例では、ポインティングデバイスの一例としてマウスを
使用する。マウスには、2つのボタンが設けられてお
り、それぞれ左ボタン、右ボタンと称する。 特に、左
・右のボタンを区別しなくても良い場合には、単にボタ
ンと記載することにする。もちろん、マウスの替りにタ
ブレット、タッチパネル、トラックボール等の他のポイ
ンティングデバイスを用いてもよいことは言うまでもな
い。
The LD 220 stores manual video information. The VTR 221 is connected to both the input side and the output side of the switcher 200. As a result, the image of the camera monitoring the site and the image of the camera 111 can be recorded, and the recorded image can be output to the display screen of the workstation 200. The operator can use the camera 111 to capture an image of his / her talking and record the image in the VTR 221, thereby transmitting the message by the image to other operators. Of course, instead of recording the video in the VTR 221, it may be digitized and then compressed and stored in the memory, disk, or the like of the workstation in the same manner as the audio. Further, in FIG. 1, camera controllers 251 and 252 are means for controlling a camera (camera 210 or the like) installed on the site, and a control switcher 250 is installed on the site together with the camera controllers 251 and 252. It is a means to switch the connection with the camera. Camera controller 25
1, 252 and the control switcher 250 are connected to the communication port of the workstation 100, respectively.
The camera controllers 251 and 252 are means for freely setting the orientation and the angle of view of the cameras connected via the control switcher 250. Shared media server 140
Is the client process (C
P1) to a camera (eg, camera 2) on site
10)), the control right of the camera 210 is assigned to CP1 in the following procedure. First, the first procedure will be described. It is checked whether or not the control right of the camera 210, which has been requested to be controlled, is assigned to another client process. If the control right has already been assigned, the camera 210 informs the CP 1 that the camera is in use, and ends the control right assigning process. When the control right is not assigned, the procedure proceeds to the second procedure. The second procedure searches for a camera controller that is not used by another client process. When all the camera controllers are in use, the fact is notified to CP1 and the control right allocation processing is ended. If there is a camera controller that is not in use, assign it to CP1. Finally, in step 3, a command is output to the control switcher 250 to connect the controller assigned to CP1 (referred to as the controller 251) and the control line to the camera 210. After the control right is obtained by the above procedure, for example, C
When there is a request from P1 to pan the camera 210 to the left (referred to rotating the camera horizontally), the shared media server 140 sends an operation command for panning left to the camera controller 251. Upon receiving the operation command, the camera controller 251 drives and controls the motor of the pan head (referred to as a mounting base of the camera including the drive unit) of the camera 210 to pan the camera 210 to the left. C
When P1 finishes using the camera 210, P1 notifies the shared media server 140 of the fact and releases the control right of the camera 210. By controlling the cameras in the above-described procedure, it is possible to control an arbitrary camera from a plurality of client processes with a camera controller that is smaller in number than the number of cameras installed in the field. In other words, it is only necessary to prepare camera controllers for the number of cameras to be operated simultaneously. FIG. 2 shows an example of the monitor screen displayed on the display screen of the workstation 100. In FIG. 2, a display screen 500 of the workstation 100 is a plant configuration diagram 510, a graphic display of control data and the like, a camera, an LD 22.
0, a video image 520 displaying a video signal from the VTR 221, a tag icon 530, a tag menu 5
31 and a pointer 501 displayed in conjunction with a pointing device such as a mouse. In this embodiment, a mouse is used as an example of the pointing device. The mouse is provided with two buttons, which are called a left button and a right button, respectively. In particular, when it is not necessary to distinguish between the left and right buttons, they will be simply referred to as buttons. Of course, other pointing devices such as a tablet, a touch panel, and a trackball may be used instead of the mouse.

【0009】本実施例においては、マウスを用いて下記
の操作を行なう。「クリック」なる操作は、マウスのボ
タン押し下げて、そのままマウスの位置を動かさずに押
し下げていたボタンを解放する操作である。この操作
は、主に画面500内の位置の指定、表示物の指定等に
使用する。「ドラッグ」なる操作は、マウスのボタンを
押し下げ、そのままマウスを動かす操作である。ドラッ
グ操作は、押し下げていたボタンを解放することによっ
て終了する。ドラッグ操作によって、画面500内の2
点を指定できる。すなわち、ドラッグ開始時(ボタン押
し下げ時)のポインタ501の位置と、ドラッグ終了時
(ボタン解放時)のポインタ501の位置の2点であ
る。マウスを操作して、画面500上の表示物の上に、
ポインタ501を置き、マウスをクリック(またはドラ
ッグ)することを、表示物をクリック(またはドラッ
グ)すると称する。札掛けメニュー531は、選択項目
として例えば、「札掛けシート」、「リンク」、「アイ
コン表示」、「検索」、「カット」、「ペースト」等を
有する。
In the present embodiment, the following operation is performed using a mouse. The operation of "clicking" is an operation of pressing the button of the mouse and releasing the button that has been pressed without moving the position of the mouse. This operation is mainly used for designating a position within the screen 500, designating a display object, and the like. The operation of "drag" is an operation of pressing down the mouse button and moving the mouse as it is. The drag operation ends by releasing the button that was being pressed. 2 on the screen 500 by dragging
You can specify points. That is, there are two points: the position of the pointer 501 at the start of dragging (when the button is pressed down) and the position of the pointer 501 at the end of dragging (when the button is released). Operate the mouse to display on the screen 500
Placing the pointer 501 and clicking (or dragging) the mouse is referred to as clicking (or dragging) the display object. The billing menu 531 has, for example, “pulling sheet”, “link”, “icon display”, “search”, “cut”, “paste” and the like as selection items.

【0010】各項目の機能は、下記のようになる。項目
「札掛けシート」は、札を作成、編集するためのツール
である札掛けシートを開く処理である。項目「リンク」
は、札とオブジェクトとを対応付ける(リンクと称す
る)処理である。項目「アイコン表示」は、札掛けされ
てことを示すアイコン(札アイコンと称する)を表示す
る処理である。本項目を選択すると、項目名が「アイコ
ン非表示」に変る。「アイコン非表示」を選択すると、
札アイコンの表示が消え、項目名が「アイコン表示」に
変る。項目「検索」は、札の内容に基づいてキーワード
検索する処理である。キーワードを入力すると、そのキ
ーワードを含む札とその札がリンクされているオブジェ
クトを表示する。項目「カット」は、現在選択中の札ア
イコンに対応する札を消去するとともに、その札のデー
タを、ペーストバッファと呼ばれる一種のバッファに格
納する処理である。項目「ペースト」は、ペーストバッ
ファに格納されている札を、現在選択されているオブジ
ェクトにリンクする処理である。以下、画面上のオブジ
ェクトに札掛けをする標準的な手順の概略を示す。ま
ず、札掛けメニュー531の項目「札掛けシート」を選
択して、図3に示す札掛けシート600を開く。札掛け
メニュー531は、札掛けアイコン530をクリックし
て呼び出す。
The function of each item is as follows. The item "tagging sheet" is a process of opening a tagging sheet which is a tool for creating and editing tags. Item "link"
Is a process of associating a bill with an object (referred to as a link). The item "icon display" is a process of displaying an icon (referred to as a bill icon) indicating that the bill is hung. When this item is selected, the item name changes to "Hide icon". If you select "Hide Icon",
The display of the tag icon disappears and the item name changes to "icon display". The item "search" is a keyword search process based on the content of the tag. When a keyword is input, the tag containing the keyword and the object to which the tag is linked are displayed. The item “cut” is a process of deleting the tag corresponding to the currently selected tag icon and storing the data of the tag in a kind of buffer called a paste buffer. The item "paste" is a process of linking the tag stored in the paste buffer to the currently selected object. The following outlines a standard procedure for hanging objects on the screen. First, select the item “Payment sheet” of the panel menu 531 to open the panel sheet 600 shown in FIG. The billing menu 531 is called by clicking the billing icon 530.

【0011】札掛けメニュー531の項目を選択するに
は、所望の項目をマウスでクリックすればよい。(以上
「手順1」)次に、札掛けシート600を使用して札を
作成、編集する。札は、図形(テキストを含む)デー
タ、音声データ、ビデオデータ等からなる。札掛けシー
ト600は、それらのデータを編集するために、図形編
集機能、音声録音機能、ビデオ録画機能等を備えてい
る。(以上「手順2」)次に、作成した札を保存し、札
掛けシート600を終了する。札掛けシート600が閉
じると、画面500のデフォルトの位置に、札アイコン
が表示される。
To select an item on the billing menu 531, a desired item may be clicked on with a mouse. (The above is "Procedure 1") Next, a bill is created and edited using the bill hanging sheet 600. The tag includes graphic (including text) data, voice data, video data, and the like. The bill hanging sheet 600 has a graphic editing function, a voice recording function, a video recording function, and the like in order to edit the data. (The above "procedure 2") Next, the created bill is saved and the bill hanging sheet 600 is ended. When the billing sheet 600 is closed, the bill icon is displayed at the default position on the screen 500.

【0012】次に、作成した札をオブジェクトにリンク
する。表示された札アイコンをドラッグして、札掛けし
たいオブジェクトの上に移動させ、札掛けメニュー53
1の「リンク」の項目を選択すると、札が、オブジェク
トにリンクされることになる。(以上「手順3」)上記
手順において、オブジェクトとは下記のものを含む。ま
ず、グラフィックス表示703の構成要素である。例え
ば、図形、メニュー、アイコン等のユーザインタフェー
スツール、グラフ、画像等である。さらに、複数の構成
要素をグループ化したものも、オブジェクトとなりう
る。次に、ビデオ映像520の被写体、ビデオ映像に映
っている機器や物も含まれる。さらに、ビデオ映像その
ものも含まれる。ビデオ映像の各シーンも、オブジェク
トになりうる。カメラパラメータ、すなわち、カメラの
撮影方向(パン操作等によって変化する)や、画角(ズ
ーム操作によって変化する)等が変化すれば対象シーン
も変化する。あるカメラパラメータに対応するシーン
も、一つのオブジェクト(シーンオブジェクトと称す
る)になる。また、LD220、VTR221等に蓄積
されたビデオ映像の、ある時間における映像もシーンオ
ブジェクトとなる。カメラで撮影されているシーンオブ
ジェクトをライブビデオオブジェクト、蓄積されたビデ
オ映像のシーンオブジェクトを蓄積ビデオオブジェクト
と呼ぶことにする。したがって、ビデオ映像(シーンオ
ブジェクト)上の領域、シーンオブジェクト内の領域
(点も含む)もオブジェクトとなりうる。領域は、例え
ば図形の形状で定義できる。次に、図3を参照して、札
掛けシートによる、札の作成、編集方法を説明する。
図3に、札のタイトルを入力、表示する領域610、札
の作成者の名前を入力、表示する領域611、札の宛名
を入力、表示する領域612、札を作成している時点の
日時表示613、図形編集領域620、図形編集領域62
0に作画した図面を左右、上下にスクロールするための
スクロールバー621、622、図形編集領域620に作
画する図形オブジェクトを選択するための図形メニュー
625、図形編集領域620に作画した図面を拡大または
縮小表示するためのメニュー626、記録、再生する対
象(音声かビデオ)を指定するメニュー630、音声ま
たは映像を記録、再生を制御するためのアイコン631
〜635、札データを管理するための管理メニュー64
0、現在作成中の札がリンクされているオブジェクト名
のリスト表示650、リスト表示650をスクロールする
ためのスクロールバー651を示す。まず、図形メニュ
ー625の項目とその機能を以下に記す。項目「文字」
は、文字を描画する機能である。本項目を選択した後、
マウスで編集領域620内の1点をクリックし、キーボ
ードから文字を入力していくと、クリックした位置から
入力した文字が描画される。ポインタ501を現在入力
中の文字列以外の場所に移動し、マウスをクリックする
と文字列入力が終了する。
Next, the created tag is linked to the object. Drag the displayed tag icon to move it over the object you want to tag, and click the tag menu 53.
When the item of "link" of 1 is selected, the tag is linked to the object. (The above "procedure 3") In the above procedure, the objects include the following. First, the components of the graphics display 703. Examples include user interface tools such as graphics, menus, icons, graphs, images and the like. Further, a group of a plurality of constituent elements can be an object. Next, the subject of the video image 520 and the devices and objects shown in the video image are also included. In addition, the video image itself is also included. Each scene of the video image can also be an object. If the camera parameter, that is, the shooting direction of the camera (changes by a pan operation or the like), the angle of view (changes by a zoom operation), or the like changes, the target scene also changes. A scene corresponding to a certain camera parameter also becomes one object (referred to as a scene object). Further, a video image stored in the LD 220, VTR 221, etc. at a certain time also becomes a scene object. The scene object shot by the camera is called a live video object, and the scene object of the stored video image is called a stored video object. Therefore, an area on the video image (scene object) and an area (including points) in the scene object can also be objects. The area can be defined by, for example, the shape of a figure. Next, with reference to FIG. 3, a method of creating and editing a tag using a tag-hanging sheet will be described.
In FIG. 3, an area 610 for inputting and displaying a tag title, an area 611 for inputting and displaying the name of the creator of the tag, an area 612 for inputting and displaying the address of the tag, and a date and time display at the time of creating the tag 613, figure editing area 620, figure editing area 62
Scroll bars 621 and 622 for scrolling the drawing drawn in 0 to the left, right, up and down, a figure menu 625 for selecting a figure object to be drawn in the figure editing area 620, and enlarging or reducing the drawing drawn in the figure editing area 620. A menu 626 for displaying, a menu 630 for specifying an object (audio or video) to be recorded or reproduced, an icon 631 for controlling recording or reproduction of audio or video.
~ 635, management menu 64 for managing bill data
0, a list display 650 of object names to which the currently created tag is linked, and a scroll bar 651 for scrolling the list display 650 are shown. First, the items and functions of the graphic menu 625 will be described below. Item "character"
Is a function for drawing a character. After selecting this item,
When one point in the edit area 620 is clicked with the mouse and characters are input from the keyboard, the input character is drawn from the clicked position. When the pointer 501 is moved to a place other than the character string currently being input and the mouse is clicked, the character string input ends.

【0013】項目「直線」は、直線を作画する機能であ
る。本項目を選択した後、編集領域620内でマウスを
ドラッグすると、ドラッグ開始時のポインタ501の位
置と、ドラッグ終了時のポインタ501の位置とを結ぶ
直線が作画される。項目「矩形」は、矩形を作画する機
能である。本項目を選択した後、編集領域620内でマ
ウスをドラッグすると、ドラッグ開始時のポインタ50
1の位置と、ドラッグ終了時のポインタ501の位置と
を対角の頂点とする矩形が作画される。 項目「楕円」
は、楕円を作画する機能である。本項目を選択した後、
編集領域620内でマウスをドラッグすると、ドラッグ
開始時のポインタ501の位置と、ドラッグ終了時のポ
インタ501の位置とを対角線とする矩形に内接する楕
円が作画される。項目「折れ線」は、折れ線を作画する
機能である。本項目を選択した後、編集領域620内で
マウスの移動とクリックを繰り返し、最後に同じ位置で
2度クリックすると、クリックされた時のポインタ50
1の位置を順次直線で結んでできる折れ線が作画され
る。項目「多角形」は、多角形を作画する機能である。
本項目を選択した後、編集領域620内でマウスの移動
とクリックを繰り返し、最後に同じ位置で2度クリック
すると、クリックされた時のポインタ501の位置を順
次直線で結び、最後の点と最初の点を直線で結んででき
る多角形が作画される。項目「手書き」は、フリーハン
ドで線を描く機能である。マウスをドラッグするとポイ
ンタ501の通過点を結ぶ線が描かれる。編集領域62
0上に作画された図形は、マウスを用いて選択、移動で
きる。マウスを動かしてポインタ501を所望の図形上
に移動して、左ボタンをクリックするとその図形が選択
される。また、編集領域620上でマウスをドラッグす
ると、ドラッグ開始時のポインタ501の位置と、ドラ
ッグ終了時のポインタ501の位置とを対角の頂点とす
る矩形領域内に含まれる全ての図形が選択状態になる。
一方、マウスを動かしてポインタ501を所望の図形上
に移動して、左ボタンを押し下げてマウスをドラッグす
ると、ポインタ501と一緒に、図形が移動する。編集
領域620上にポインタ501があるとき、マウスの右
ボタンを押し下げると、図形オブジェクト編集メニュー
(図示せず)が表示される。右ボタンを押し下げたまま
マウスを動かして図形オブジェクト編集メニューの所望
の項目上にポインタ501を移動し、右ボタンを解放す
ると、所望の項目が選択される。右ボタンが解放される
と図形オブジェクト編集メニューの表示が消去される。
以下、図形オブジェクト編集メニューの項目とその機能
を示す。項目「削除」は、選択されている図形を削除す
ると同時に、前記図形をペーストバッファに格納する命
令である。項目「複写」は、選択されている図形をペー
ストバッファに複写する命令である。項目「貼付」は、
最も最近マウスがクリックされた時のポインタ501の
位置にペーストバッファの内容を作画する命令である。
項目「回転」は、所望の位置を中心として、所望の角度
だけ選択されている図形を回転する命令である。項目
「拡縮」は、所望の大きさに選択されている図形を拡
大、または縮小する命令である。項目「合成」は、選択
されている複数の図形をグループ化する命令である。グ
ループ化された図形は一つの図形として編集操作でき
る。項目「分解」は、グループ化した図形を個々の図形
に分解する命令である。次に、図3を参照して、札を使
用し、音声でメモを残す方法について説明する。 ま
ず、メニュー630の項目「音声」を選択する。次にア
イコン635をクリックすると、アイコン635の表示
が強調される。アイコン635の強調表示は、音声録
音、または、ビデオ録画モードにあることを示す。音声
録音モードに入ると、札掛けシート600は、共有メデ
ィアサーバ140に、マイク123の出力ポートと、音
声処理ハード120の入力ポートとを接続することを依
頼する。依頼を受けた共有メディアサーバ140は、ワ
ークステーション100内に設けられている通信ポート
を介して、データスイッチング用マトリクススイッチャ
200の切替処理を行なう。次に、アイコン633をク
リックすると録音が開始される。マイク123に向かっ
て話しをすれば、それが札の音声データとして記録され
る。マイク123から入力された音声は、音声処理ハー
ド120により、いわゆるA/D変換され、さらに、圧
縮処理されワークステーション100内のメモリ(図示
せず)、ディスク(図示せず)等に記録される。音声の
記録を終了する場合には、アイコン632をクリックす
る。録音を終了すると、アイコン635の強調表示が解
除され、再生モードに移る様にしておけばよい。録音内
容を確認する場合には、まずアイコン631をクリック
して、録音データの先頭にポインタを移動する。ここ
で、「ポインタ」とは、記録や再生を開始するデータ上
の位置を意味する。 アイコン633をクリックする
と、録音した音声データがポインタの位置から再生され
る。すなわち、メモリ、ディスク等に記憶されている音
声データが、ポインタの位置から読みだされ、音声処理
ハード120によって伸長処理、およびD/A変換処理
が行なわれ、音声がスピーカ121、122から出力さ
れる。さらに、音声を追加録音する場合には、まず、ア
イコン634をクリックしてポインタを記録データの終
りに移動すればよい。次に、アイコン635、633を
順次クリックすれば、追加録音が開始されることにな
る。次に、札にビデオを使用してメモを残す方法につい
て説明する。まず、メニュー630の項目「ビデオ」を
選択する。次に、アイコン635をクリックすると、ア
イコン635の表示が強調される。 この時、札掛けシ
ート600は、共有メディアサーバ140に、(1)マ
イク123の出力ポートと、音声処理ハード120の入
力ポートとを接続すること、(2)カメラ121の出力
ポートと、画像合成ハード110の入力ポートおよびV
TR221の入力ポートとを接続することを依頼する。
依頼を受けた共有メディアサーバ140は、ワークステ
ーション100内に設けられている通信ポートを介し
て、データスイッチング用マトリクススイッチャ200
の接続処理を行なう。次に、アイコン633をクリック
すると録画が開始されることになる。この時、札掛けシ
ート600は、共有メディアサーバ140にVTR22
1の録画開始を依頼する。依頼を受けた共有メディアサ
ーバ140は、ワークステーション100内に設けられ
ている通信ポートを介して、VTR221に録画開始を
指示する。同時に、ワークステーション100内のメモ
リ上には、札オブジェクト(後述する)が生成され、札
オブジェクトの札情報格納フィールドにVTR221の
録画開始アドレスが記憶される。アドレスは、例えばフ
レーム番号で指定する。もちろん、タイムコード等によ
る指定も可能である。カメラ111およびマイク123
に向かって話せば、話者の映像と音声がVTR221に
記録されることになる。ビデオでの記録を終了する場合
には、アイコン632をクリックする。録画を終了する
と、アイコン635の強調表示が解除され再生モードに
移る。
The item "straight line" is a function for drawing a straight line. When this item is selected and the mouse is dragged in the editing area 620, a straight line connecting the position of the pointer 501 at the start of dragging and the position of the pointer 501 at the end of dragging is drawn. The item “rectangle” is a function of drawing a rectangle. After selecting this item, if you drag the mouse in the edit area 620, the pointer 50
A rectangle whose diagonal vertices are the position 1 and the position of the pointer 501 at the end of dragging is drawn. Item "oval"
Is a function for drawing an ellipse. After selecting this item,
When the mouse is dragged in the editing area 620, an ellipse inscribed in a rectangle whose diagonal is the position of the pointer 501 at the start of dragging and the position of the pointer 501 at the end of dragging is drawn. The item “polyline” is a function for drawing a polyline. After selecting this item, repeatedly moving and clicking the mouse in the editing area 620, and finally clicking twice at the same position, the pointer 50 when clicked
A polygonal line formed by connecting the positions of 1 with a straight line is drawn. The item “polygon” is a function of drawing a polygon.
After selecting this item, repeatedly moving and clicking the mouse in the editing area 620, and finally clicking twice at the same position, the position of the pointer 501 at the time of clicking is sequentially connected by a straight line, and the last point and the first point. A polygon is created by connecting the points of with a straight line. The item “handwriting” is a function for drawing a line by freehand. When the mouse is dragged, a line connecting the passing points of the pointer 501 is drawn. Edit area 62
The figure drawn on 0 can be selected and moved using the mouse. When the mouse is moved to move the pointer 501 to a desired figure and the left button is clicked, the figure is selected. When the mouse is dragged in the editing area 620, all the figures included in the rectangular area whose diagonal vertices are the position of the pointer 501 at the start of dragging and the position of the pointer 501 at the end of dragging are selected. become.
On the other hand, when the mouse is moved to move the pointer 501 to a desired figure, the left button is pressed down and the mouse is dragged, the figure moves together with the pointer 501. When the right button of the mouse is pressed while the pointer 501 is on the edit area 620, a graphic object edit menu (not shown) is displayed. With the right button held down, move the mouse to move the pointer 501 to the desired item in the graphic object edit menu, and release the right button to select the desired item. When the right button is released, the display of the graphic object edit menu disappears.
The items and functions of the graphic object edit menu are shown below. The item “delete” is an instruction to delete the selected figure and at the same time store the figure in the paste buffer. The item “copy” is a command to copy the selected figure to the paste buffer. The item "Paste" is
This is an instruction to draw the contents of the paste buffer at the position of the pointer 501 when the mouse was most recently clicked.
The item “rotate” is an instruction to rotate the figure selected by a desired angle around the desired position. The item “enlarge / reduce” is an instruction for enlarging or reducing the figure selected to have a desired size. The item “composite” is an instruction to group a plurality of selected figures. The grouped figures can be edited and operated as one figure. The item “decomposition” is a command to decompose the grouped figures into individual figures. Next, with reference to FIG. 3, a method for leaving a memo by voice using a tag will be described. First, the item “voice” of the menu 630 is selected. Next, when the icon 635 is clicked, the display of the icon 635 is highlighted. The highlighted display of the icon 635 indicates that the audio recording mode or the video recording mode is set. When the voice recording mode is entered, the bill hanging sheet 600 requests the shared media server 140 to connect the output port of the microphone 123 and the input port of the voice processing hardware 120. Upon receiving the request, the shared media server 140 performs the switching process of the data switching matrix switcher 200 via the communication port provided in the workstation 100. Next, when the icon 633 is clicked, recording is started. If you speak into the microphone 123, it will be recorded as the voice data of the bill. The voice input from the microphone 123 is so-called A / D converted by the voice processing hardware 120, further compressed and recorded in a memory (not shown), a disk (not shown), etc. in the workstation 100. . To end recording the voice, click the icon 632. When the recording is finished, the highlighting of the icon 635 is canceled and the playback mode may be entered. When confirming the recorded contents, first, the icon 631 is clicked to move the pointer to the beginning of the recorded data. Here, the "pointer" means a position on the data where recording or reproduction is started. When the icon 633 is clicked, the recorded voice data is reproduced from the position of the pointer. That is, the audio data stored in the memory, the disk or the like is read out from the position of the pointer, the audio processing hardware 120 performs the expansion processing and the D / A conversion processing, and the audio is output from the speakers 121 and 122. It Furthermore, in the case of additionally recording voice, first, the icon 634 may be clicked to move the pointer to the end of the recorded data. Next, if the icons 635 and 633 are sequentially clicked, additional recording will be started. Next, we will explain how to use a video on a tag to leave notes. First, the item “video” of the menu 630 is selected. Next, when the icon 635 is clicked, the display of the icon 635 is highlighted. At this time, the billing sheet 600 connects (1) the output port of the microphone 123 and the input port of the audio processing hardware 120 to the shared media server 140, and (2) the output port of the camera 121 and image composition. Hardware 110 input port and V
Request to connect with the input port of TR221.
Upon receiving the request, the shared media server 140 transmits the data switching matrix switcher 200 via the communication port provided in the workstation 100.
Connection process. Next, when the icon 633 is clicked, recording will be started. At this time, the bill hanging sheet 600 is transferred to the shared media server 140 by the VTR 22.
Request to start recording 1. Upon receiving the request, the shared media server 140 instructs the VTR 221 to start recording via the communication port provided in the workstation 100. At the same time, a bill object (described later) is generated on the memory in the workstation 100, and the recording start address of the VTR 221 is stored in the bill information storage field of the bill object. The address is designated by a frame number, for example. Of course, designation by a time code or the like is also possible. Camera 111 and microphone 123
When the user speaks to, the video and audio of the speaker will be recorded in the VTR 221. To end the video recording, click the icon 632. When the recording is finished, the highlighted display of the icon 635 is canceled and the mode is changed to the reproduction mode.

【0014】録画終了時には、録画開始時に生成された
札オブジェクトの札情報格納フィールドに録画終了アド
レスが、新たに記憶される。また、録画内容を確認する
場合は、まずアイコン631をクリックして、録画デー
タの先頭にポインタを移動する。すなわち、共有メディ
アサーバ140に依頼して、札オブジェクトに記憶され
ている録画開始アドレスまでVTR221を巻戻すよう
にする。アイコン633をクリックすると、巻き戻した
箇所からVTR221の再生が開始される。さらに、ビ
デオ情報を追加録画する場合には、まず、アイコン63
4をクリックして、VTR221をビデオテープの録画
していない部分の先頭まで「早送り」すればよい。次
に、アイコン635、633を順次クリックすれば、追
加録画が開始されることになる。さて、上述の処理を経
て作成した札は、メニュー640を用いて管理する。メ
ニュー640の主な機能を以下に記す。「新規」は、新
たに札を作成する機能である。「開く」は、既存の札を
開く機能である。「保存」は、現在編集中の札を保存す
る機能である。「終了」は、札掛けシート600を終了
する機能である。リスト表示650により、現在編集中
の札が掛けられているオブジェクトを表示するだけでな
く、札掛けすべきオブジェクトの指定、変更等を行なえ
る。リンク表示650は、普通のテキスト編集機能を備
えており、マウス、キーボード等を使用して、オブジェ
クト名の入力、すでに表示されているオブジェクト名の
変更、修正等を行なえる。次に、札を参照する手順を以
下に記す。まず、札掛メニュー531の項目「アイコン
表示」を選択して、札アイコンを表示する(手順1)。
もちろん、すでに札アイコンが表示されている場合に
は、本手順は不要である。次に、参照したい札の札アイ
コンを2回連続してクリック(これを「ダブルクリッ
ク」と称する)する(手順2)。ダブルクリックする
と、札掛けシート600が開き、ダブルクリックした札
のデータが表示される。すなわち、札のタイトル、作成
者、宛名が、各々、領域610、611、612に表示
される。また、札が掛けられいる全てのオブジェクト名
が、リスト650に表示される。その札が、図形データ
を有しておれば、図形データが、図形編集領域620に
表示される。札が、音声データを有していれば、メニュ
ー630の項目「音声」が、選択状態になり、ビデオデ
ータを有していれば項目「ビデオ」が、選択状態にな
る。
At the end of recording, a recording end address is newly stored in the tag information storage field of the tag object generated at the start of recording. When confirming the recorded contents, first, the icon 631 is clicked to move the pointer to the beginning of the recorded data. That is, the shared media server 140 is requested to rewind the VTR 221 to the recording start address stored in the tag object. When the icon 633 is clicked, the reproduction of the VTR 221 is started from the rewound portion. Furthermore, when additionally recording video information, first, the icon 63
Click 4 to "fast forward" the VTR 221 to the beginning of the unrecorded portion of the videotape. Next, if the icons 635 and 633 are sequentially clicked, additional recording will be started. Now, the bill created through the above processing is managed using the menu 640. The main functions of the menu 640 are described below. "New" is a function for creating a new bill. "Open" is a function to open an existing tag. "Save" is a function for saving the currently edited tag. “End” is a function of ending the bill hanging sheet 600. With the list display 650, not only the objects currently being edited but with tags attached can be displayed, and the objects to be attached with tags can be specified and changed. The link display 650 has an ordinary text editing function, and can input an object name, change an already displayed object name, and modify it by using a mouse, a keyboard, or the like. Next, the procedure for referring to the tag will be described below. First, the item "icon display" of the tag menu 531 is selected to display the tag icon (procedure 1).
Of course, if the bill icon is already displayed, this procedure is unnecessary. Next, the tag icon of the tag to be referred to is clicked twice consecutively (this is referred to as "double click") (step 2). When double-clicked, the billing sheet 600 opens and the data of the double-clicked bill is displayed. That is, the title, creator, and address of the bill are displayed in the areas 610, 611, and 612, respectively. In addition, the names of all the objects to which the tags are attached are displayed in the list 650. If the tag has graphic data, the graphic data is displayed in the graphic editing area 620. If the card has audio data, the item "audio" of the menu 630 is selected, and if it has video data, the item "video" is selected.

【0015】両方のデータを有している場合には、項目
「ビデオ」がデフォルト状態で選択される(もちろん、
項目「音声」が、デフォルト状態で選択される構成にな
っていてもよい)。再生アイコン633をクリックする
と、メニュー630で選択されているデータが再生され
る。上記手順2では、札アイコンをダブルクリックし
て、札掛けシート600を開いたが、札アイコンを1回
クリックした後、札掛けメニュー531の項目「札掛け
シート」を選択しても、札掛けシート600を開くこと
ができる。また、上記手順1は、必ずしも必要でない。
つまり、アイコンが表示されていなくても、札が掛けら
れているオブジェクトを、直接マウスでクリックした
後、札掛けメニュー531の項目「札掛けシート」を選
択しても、札掛けシート600を開くことができる。図
4に、上記手順1における、札アイコン表示時の画面の
一例を示す。本図において、札アイコン700、70
1、702、703を例示する。札アイコンは、3つの
シンボル、すなわち、紙を表すシンボル、スピーカを表
すシンボル、人(丸と三角)を表すシンボル−の組み合
せからなる。それぞれのシンボルは、札が有するデータ
の種類を表す。紙シンボルは、図形データ、スピーカシ
ンボルは音声データ、人シンボルはビデオデータをもつ
ことを表す。すなわち、図4において、札アイコン70
0、701、702、703は、それぞれ対応する札
が、音声データだけをもつ、図形データだけをもつ、図
形データとビデオデータをもつ、図形データと音声デー
タをもつことを意味する。札は、タイトル、作成者の名
前、宛先、日付、札掛けされたオブジェクト名、図形編
集領域620に入力されたテキスト等に基づいて検索で
きる。検索条件に適合する札は、札掛けされたオブジェ
クトとともに表示される。例えば、ビデオ映像520の
被写体に札が掛けられている場合には、札が検索される
と同時に、ビデオ映像520にも、当該被写体の映像が
映し出される。図5は、ビデオ映像の被写体に札掛けす
る場合の実現方法の概念図である。図5にて、カメラ7
51で撮影されているビデオ映像750、ビデオ映像7
50に、何が映されているかの情報を有するモデリング
オブジェクト761、モデリングオブジェクトが、ビデ
オ映像750のどの領域に対応しているかを定義する図
形オブジェクト760、モデリングオブジェクト761
にリンクされた札オブジェクト762を示す。モデリン
グオブジェクト761は、ビデオ映像に何が映っている
かを定義する。 図形オブジェクト760は、モデリン
グオブジェクト761が、ビデオ映像750上のどの位
置に映っているかを定義する。運転員が、ビデオ映像7
50上の位置を指示すると、その位置にある図形オブジ
ェクトが同定され(指示された被指示体が何であるかを
調べることを称する)、その図形オブジェクトが所属し
ているモデリングオブジェクト、すなわち被写体が同定
される。カメラの撮影方向、姿勢、画角等のカメラパラ
メータが変更されれば、被写体、映像上の被写体の形
状、位置等が変化する。もちろん、カメラが複数台設置
されておれば、カメラごとに被写体は異なる。従って、
カメラと、そのカメラのカメラパラメータに対応して、
図形オブジェクト760、モデリングオブジェクト等が
定義される。また、蓄積されたビデオ映像の場合には、
再生区間ごとにシーンが変化するため、再生区間に対応
して、図形オブジェクト760、モデリングオブジェク
ト等が定義される。札は、ビデオ映像750上の領域、
図形オブジェクト760、モデリングオブジェクト76
1のいずれにもリンクできる。本図においては、札オブ
ジェクト762は、モデリングオブジェクト761にリ
ンクされている。図6に本実施例の詳細なデータ構造例
を示す。まず、シーンごとに定義されるライブビデオオ
ブジェクト800、801について説明する。一つのシ
ーンに、一つのライブビデオオブジェクトが対応するこ
とになる。また、ライブビデオオブジェクトは、以下に
記載する属性を有する。「活性状態」は、対話操作(オ
ペレータとワークステーション間での操作)が可能か否
かを2値フラグにより示す。「偽」(例えば「0」)の
とき、対話操作は受け付けられない。「真」(例えば
「1」)のとき、対話操作を受け付ける。ここでは、対
話操作を可能にすることを「活性化」すると称し、対話
操作を不可能にすることを「不活性化」すると称する。
また本情報は、全てのオブジェクトが有する。「領域情
報」は、ワークステーション100の画面上での領域を
指定する属性である。カメラの映像は、領域情報が指定
する画面上の領域に表示されることになる。「カメラ情
報」は、撮影するカメラ識別子とカメラパラメータを有
して構成される属性である。カメラ識別子は、複数台存
在するカメラの一台を特定し、カメラパラメータは、あ
るシーンを撮影する際の、カメラの位置、画角、撮影方
向(水平角度および垂直角度)、姿勢等を含む情報から
なる。すなわち、本カメラ情報によって、シーンが決定
される。「オブジェクトリスト」には、あるシーンに対
して定義された図形オブジェクトへのポインタ、あるい
は、あるシーンに対して掛けられている札オブジェクト
へのポインタが格納されている。「付加情報」は、シー
ンに関連する上記以外の情報、例えば、カメラの種類、
メンテナンス履歴等の情報が格納されている。蓄積され
たビデオ映像のシーンには、ライブビデオオブジェクト
の替りに、図7に示す蓄積ビデオオブジェクト840が
対応する。蓄積ビデオオブジェクト840は、カメラ情
報の替りに、ビデオ情報属性を有する。ビデオ情報属性
は、再生に使用するビデオ機器の識別子と、そのシーン
の再生区間に関する情報を有して構成される。再生区間
は、フレーム番号、または、タイムコードで再生開始ア
ドレスと終了アドレスを指定する。他の属性に関して
は、ライブビデオオブジェクトと同様である。また、こ
こでは、ライブビデオオブジェクトと蓄積ビデオオブジ
ェクトを総称して、ビデオオブジェクトと称する。図6
には、シーンごとに定義される図形オブジェクト810
〜813も示されている。図形オブジェクトは、円、矩
形、多角形、線等の各種の図形要素に対応するデータで
ある。一つまたは複数個の図形オブジェクトによって被
写体の概形と位置を定義する。かかる図形オブジェクト
は、以下の属性を有する。「活性状態」は、対話操作
(オペレータとワークステーション間での操作)が可能
か否かを2値フラグにより示す。「偽」(例えば
「0」)のとき、対話操作は受け付けられない。「真」
(例えば「1」)のとき、対話操作を受け付ける。
If it has both data, the item "video" is selected by default (of course,
The item “voice” may be selected in the default state). When the play icon 633 is clicked, the data selected in the menu 630 is played. In step 2 above, the tag icon is double-clicked to open the tag hanging sheet 600. However, even if you click the tag icon once and then select the item "Tag hanging sheet" in the tag menu 531, The seat 600 can be opened. Further, the above procedure 1 is not always necessary.
In other words, even if the icon is not displayed, even if the object on which the tag is hung is directly clicked with the mouse and then the item “Clip sheet” of the tag menu 531 is selected, the tag sheet 600 is opened. be able to. FIG. 4 shows an example of the screen when the tag icon is displayed in the above procedure 1. In this figure, the tag icons 700, 70
1, 702 and 703 are illustrated. The bill icon is composed of a combination of three symbols, that is, a symbol representing paper, a symbol representing a speaker, and a symbol representing a person (circle and triangle). Each symbol represents the type of data that the tag has. The paper symbol indicates that it has graphic data, the speaker symbol has voice data, and the person symbol has video data. That is, in FIG. 4, the tag icon 70
0, 701, 702, and 703 mean that the corresponding tags have only audio data, only graphic data, graphic data and video data, and graphic data and audio data. The tag can be searched based on the title, the creator's name, the destination, the date, the tagged object name, the text entered in the graphic editing area 620, and the like. Tags that match the search conditions are displayed along with the suspended objects. For example, when a tag is placed on the subject of the video image 520, the tag is searched, and at the same time, the image of the subject is displayed on the video image 520. FIG. 5 is a conceptual diagram of an implementation method in the case of tagging a subject of a video image. In FIG. 5, the camera 7
Video footage 750, video footage 7 taken at 51
50, a modeling object 761 having information about what is shown, a graphic object 760 defining which area of the video image 750 the modeling object corresponds to, and a modeling object 761
Shows a tag object 762 linked to. The modeling object 761 defines what is shown in the video image. The graphic object 760 defines where on the video image 750 the modeling object 761 appears. Video footage of operator 7
When a position on the position 50 is designated, the graphic object at the position is identified (referring to checking what the designated designated object is), and the modeling object to which the graphic object belongs, that is, the subject is identified. To be done. If the camera parameters such as the shooting direction, orientation, and angle of view of the camera are changed, the shape, position, etc. of the subject, the subject on the image, changes. Of course, if multiple cameras are installed, the subject will be different for each camera. Therefore,
Depending on the camera and the camera parameters of that camera,
A graphic object 760, a modeling object, etc. are defined. In the case of accumulated video images,
Since the scene changes for each reproduction section, a graphic object 760, a modeling object, etc. are defined corresponding to the reproduction section. The tag is an area on the video image 750,
Graphic object 760, modeling object 76
You can link to any of the above. In this figure, the tag object 762 is linked to the modeling object 761. FIG. 6 shows a detailed data structure example of this embodiment. First, live video objects 800 and 801 defined for each scene will be described. One live video object corresponds to one scene. In addition, the live video object has the attributes described below. The "active state" indicates, by a binary flag, whether or not interactive operation (operation between the operator and the workstation) is possible. When "false" (for example, "0"), the interactive operation is not accepted. When "true" (for example, "1"), the interactive operation is accepted. Here, enabling interactive operation is referred to as “activating”, and disabling interactive operation is referred to as “inactivating”.
Further, this information is included in all objects. “Area information” is an attribute that specifies an area on the screen of the workstation 100. The video of the camera will be displayed in the area on the screen specified by the area information. “Camera information” is an attribute configured to include a camera identifier for shooting and camera parameters. The camera identifier identifies one of a plurality of cameras, and the camera parameters include information such as the position, angle of view, shooting direction (horizontal angle and vertical angle), and attitude of the camera when shooting a certain scene. Consists of. That is, the scene is determined by the camera information. The "object list" stores a pointer to a graphic object defined for a certain scene or a pointer to a tag object hung on a certain scene. "Additional information" is information other than the above related to the scene, for example, the type of camera,
Information such as maintenance history is stored. Instead of the live video object, the accumulated video object 840 shown in FIG. 7 corresponds to the scene of the accumulated video image. The stored video object 840 has video information attributes instead of camera information. The video information attribute includes an identifier of a video device used for reproduction and information about a reproduction section of the scene. In the reproduction section, a reproduction start address and an end address are designated by a frame number or a time code. Other attributes are the same as the live video object. Also, here, the live video object and the accumulated video object are collectively referred to as a video object. Figure 6
Includes a graphic object 810 defined for each scene.
~ 813 are also shown. The graphic object is data corresponding to various graphic elements such as a circle, a rectangle, a polygon, and a line. The outline and position of the subject are defined by one or more graphic objects. Such a graphic object has the following attributes. The "active state" indicates, by a binary flag, whether or not interactive operation (operation between the operator and the workstation) is possible. When "false" (for example, "0"), the interactive operation is not accepted. "true"
When (for example, “1”), the interactive operation is accepted.

【0016】ライブビデオオブジェクトが活性化される
と、そのオブジェクトリストに登録されている全ての図
形オブジェクトも活性化される。「領域情報」は、ワー
クステーション100の画面上で、本図形オブジェクト
が占める領域を定義する。本領域情報で定義される領域
が指定されると、本図形オブジェクトが選択されたこと
になる。「part−of」は、図形オブジェクトが領
域を表すモデリングオブジェクトへの、ポインタであ
る。画面上で図形オブジェクトが選択されると、par
t−of情報にポインタが格納されているモデリングオ
ブジェクトも選択されたことになる。一般にpart−
ofには、親オブジェクトへのポインタが格納される。
ここに、親オブジェクトとは、複数の他のオブジェクト
(子オブジェクトと称する)から構成されるオブジェク
トのことを指して言う。「付加情報」とは、上記以外の
図形に関する情報、例えば、図形の種別、色、塗り潰し
の有無等の情報をいう。モデリングオブジェクト820
〜823の一例を図6に示す。モデリングオブジェクト
は、被写体に対応する概念的なオブジェクトで、被写体
に関する情報を有している。モデリングオブジェクト
は、少なくとも一つの図形オブジェクト、または、他の
モデリングオブジェクトから構成される。例えば、バー
ナオブジェクト820は、図形オブジェクト810から
構成され、燃料パイプオブジェクト821は、図形オブ
ジェクト811、821から構成され、さらに、ボイラ
オブジェクト823は、バーナオブジェクト820、燃
料パイプオブジェクト821から構成される。運転員が
映像上の一点を指示すると、その一点を領域内に含む図
形オブジェクトが同定され、さらにその図形オブジェク
トがリンクしているモデリングオブジェクトが同定され
る。図形オブジェクトとモデリングオブジェクトのリン
クは前述のように、図形オブジェクトのpart−of
属性にモデリングオブジェクトへのポインタを格納する
ことで実現できる。
When the live video object is activated, all graphic objects registered in the object list are also activated. “Area information” defines the area occupied by this graphic object on the screen of the workstation 100. When the area defined by this area information is designated, this figure object is selected. “Part-of” is a pointer to a modeling object in which a graphic object represents a region. When a graphic object is selected on the screen, par
The modeling object in which the pointer is stored in the t-of information is also selected. Generally part-
A pointer to the parent object is stored in of.
Here, the parent object refers to an object composed of a plurality of other objects (referred to as child objects). The "additional information" refers to information relating to figures other than the above, for example, information such as the type of figure, color, and presence / absence of painting. Modeling object 820
6 to 823 are shown in FIG. The modeling object is a conceptual object corresponding to the subject and has information about the subject. The modeling object is composed of at least one graphic object or another modeling object. For example, the burner object 820 is composed of a graphic object 810, the fuel pipe object 821 is composed of graphic objects 811, 821, and the boiler object 823 is composed of a burner object 820 and a fuel pipe object 821. When the operator points to a point on the image, a graphic object including the point in the area is identified, and a modeling object linked to the graphic object is identified. As described above, the link between the graphic object and the modeling object is part-of the graphic object.
It can be realized by storing the pointer to the modeling object in the attribute.

【0017】なお、モデリングオブジェクトは、下記の
属性を有する。「活性状態」は、対話操作(オペレータ
とワークステーション間での操作)が可能か否かを2値
フラグにより示す。「偽」(例えば「0」)のとき、対
話操作は受け付けられない。「真」(例えば「1」)の
とき、対話操作を受け付ける。
The modeling object has the following attributes. The "active state" indicates, by a binary flag, whether or not interactive operation (operation between the operator and the workstation) is possible. When "false" (for example, "0"), the interactive operation is not accepted. When "true" (for example, "1"), the interactive operation is accepted.

【0018】また、子オブジェクトである図形オブジェ
クトが活性化されると、親オブジェクトであるモデリン
グオブジェクトも活性化される。「札オブジェクト」
は、札オブジェクトへのポインタであり、複数の札が一
つのモデリングオブジェクトに掛けられた場合は、リス
ト状に札が接続される。「part−of」は、親とな
るモデリングオブジェクトへのポインタである。図6に
示す例では、ボイラオブジェクトは、バーナオブジェク
ト820、燃料パイプオブジェクト821の親オブジェ
クトであり、それぞれのpart−of属性には、ボイ
ラオブジェクト823へのポインタが格納される。「付
加情報」には、上記以外の被写体に関する情報、例え
ば、バーナオブジェクト820は、バーナに関する設計
情報、マニュアル情報、メンテナンス情報等を付加情報
として有する。さらに、札オブジェクト830、831
を図6に示す。札オブジェクトは、札掛けシート600
によって作成された情報を保持し、下記の属性を有す
る。「活性状態」は、対話操作(オペレータとワークス
テーション間での操作)が可能か否かを2値フラグによ
り示す。「偽」(例えば「0」)のとき、対話操作は受
け付けられない。「真」(例えば「1」)のとき、対話
操作を受け付ける。
When a graphic object which is a child object is activated, a modeling object which is a parent object is also activated. "Tag object"
Is a pointer to a bill object. When a plurality of bills are hung on one modeling object, the bills are connected in a list. “Part-of” is a pointer to a modeling object that is a parent. In the example shown in FIG. 6, the boiler object is a parent object of the burner object 820 and the fuel pipe object 821, and a pointer to the boiler object 823 is stored in each part-of attribute. In the "additional information", information regarding the subject other than the above, for example, the burner object 820 has design information regarding the burner, manual information, maintenance information, and the like as additional information. Furthermore, the tag objects 830 and 831
Is shown in FIG. The bill object is a bill hanging sheet 600
It holds information created by and has the following attributes. The "active state" indicates, by a binary flag, whether or not interactive operation (operation between the operator and the workstation) is possible. When "false" (for example, "0"), the interactive operation is not accepted. When "true" (for example, "1"), the interactive operation is accepted.

【0019】札オブジェクトを活性化すると、札アイコ
ンが画面に表示される。「領域情報」は、ワークステー
ション100の画面上札オブジェクトに対応する札アイ
コンの表示領域を指定する情報である。「札オブジェク
ト」は、後続の札オブジェクトへのポインタであり、一
つのモデリングオブジェクトに複数の札が掛けられてい
るときには、この属性を使用して札オブジェクトをリス
ト状に接続する。後続の札が存在しないときには、例え
ば、「0」が設定される。「札情報」は、札掛けシート
600によって作成された札の内容に関する情報であ
り、図形データへのポインタ、音声データの開始アドレ
スと終了アドレス、録画データへの開始アドレスと終了
データ等を有して構成される。作成されなかったデータ
には、「無効アドレス」が格納される。ここで「無効ア
ドレス」とは、実際のデータへのアドレスとして使用す
ることのないアドレスのことである。「付加情報」は、
上記以外の情報、例えば、札の作成者、作成日時、参照
回数、参照者、参照日時等に関する情報を有する。シー
ンを表示する際の処理手順の一例を図8に示す。以下、
各処理手順を詳細に説明する。まず、指定されたシーン
に対応するビデオオブジェクトを活性化する(ステップ
1100)。
When the tag object is activated, a tag icon is displayed on the screen. The “area information” is information that specifies the display area of the tag icon corresponding to the on-screen tag object of the workstation 100. The "card object" is a pointer to the subsequent card object. When one modeling object has a plurality of cards, this attribute is used to connect the card objects in a list. When there is no subsequent bill, for example, "0" is set. “Bill information” is information about the contents of the bill created by the bill hanging sheet 600, and has a pointer to graphic data, a start address and an end address of audio data, a start address and an end data of recorded data, and the like. Consists of An "invalid address" is stored in the data that has not been created. Here, the “invalid address” is an address that is not used as an address for actual data. "Additional information" is
Information other than the above, for example, the creator of the bill, the creation date and time, the reference count, the referrer, the reference date and time, and the like are included. FIG. 8 shows an example of a processing procedure for displaying a scene. Less than,
Each processing procedure will be described in detail. First, the video object corresponding to the designated scene is activated (step 1100).

【0020】次に、活性化されたビデオオブジェクトの
オブジェクトリストに登録されている全てのオブジェク
トに活性化する旨の指示を送る。オブジェクトリストに
登録されているオブジェクトが、図形オブジェクトの場
合には、活性化の指令に対応して活性状態が「真」に設
定される。活性化されたオブジェクトは、part−o
f属性で指定された親のオブジェクトに活性化する旨の
指示を送り、親オブジェクトも活性化する。活性化され
たモデリングオブジェクトは、札オブジェクト属性に札
オブジェクトへのポインタが登録されていたら、その札
オブジェクトへ活性化する旨の指令を送り、札オブジェ
クトを活性化する。活性化された札オブジェクトは、後
続の札オブジェクトが存在すれば(すなわち、札オブジ
ェクト属性にポインタが登録されていれば)、該札オブ
ジェクトを活性化する。札オブジェクトは、活性化する
旨の指令を受け取ると、活性状態を「真」に設定するだ
けでなく、札アイコンも画面に表示する(ステップ11
10)。
Next, an instruction to activate is sent to all the objects registered in the object list of activated video objects. When the object registered in the object list is a graphic object, the active state is set to "true" in response to the activation command. The activated object is part-o
An instruction to activate is sent to the parent object specified by the f attribute, and the parent object is also activated. When the pointer to the bill object is registered in the bill object attribute, the activated modeling object sends a command to activate the bill object to activate the bill object. The activated bill object activates the bill object if a subsequent bill object exists (that is, if a pointer is registered in the bill object attribute). When the tag object receives the command to activate it, it not only sets the active state to "true" but also displays the tag icon on the screen (step 11).
10).

【0021】次に、指定されたシーンがカメラからのラ
イブ映像か、VTR221、LD220等による蓄積画
像であるかによってシーンの表示処理を分けて行なう。
ライブ映像の場合には、以下のステップ1130から1
140の処理が行なわれ、蓄積画像の場合には、以下の
ステップ1150から1160の処理が行なわれる(ス
テップ1120)。ステップ1130では、共有メディ
アサーバ140に依頼して、ライブビデオオブジェクト
のカメラ情報属性で指定されるカメラと映像合成ハード
110を接続する。ステップ1140では、共有メディ
アサーバ140に依頼して、ライブビデオオブジェクト
のカメラ情報属性で指定されるカメラパラメータを前記
カメラに設定する。ステップ1150では、指定された
シーンが蓄積映像である場合、蓄積ビデオオブジェクト
のビデオ情報属性で指定されるビデオ機器(VTR22
1またはLD220)と映像合成ハード110とを、共
有メディアサーバ140に依頼して接続する。ステップ
1160では、共有メディアサーバ140に依頼して、
蓄積ビデオオブジェクトのビデオ情報属性で指定される
開始アドレスと終了アドレス間の繰返し再生をビデオ機
器に指示する。最後に、ビデオオブジェクトの領域情報
を呼び出して、ローカルメディアドライバ130を介し
て映像合成ハード110に映像の表示位置を指示し、映
像の、ワークステーション100の画面への合成表示を
開始する。映像は、札アイコンの表示色とは異なる色へ
の、クロマキー機能を使用した合成で表示される(ステ
ップ1170)。これにより、ステップ1110で表示
された札アイコンは、映像の上に表示される。図8に示
した処理手順では映像を表示する際に、札アイコンも表
示するようにしている(ステップ1110参照)。もち
ろん、映像表示の際には札アイコンは表示せずに、オペ
レータからの要求があった時点(例えば、札掛けメニュ
ー531の項目「アイコン表示」を選択した時点)で、
札アイコンを表示するようにしても良い。また、図6に
示すデータ構造では、ビデオオブジェクトとモデリング
オブジェクトが、札オブジェクトとリンクできる構成と
なっている。つまり、ビデオオブジェクトは、オブジェ
クトリスト属性に札オブジェクトへのポインタを設定す
ることにより、札オブジェクトとリンクする。モデリン
グオブジェクトは、札オブジェクト属性に札オブジェク
トへのポインタを設定することにより、札オブジェクト
とリンクする。ビデオオブジェクトに札オブジェクトを
リンクした場合には、札アイコンは、ビデオオブジェク
トが指定するシーンにのみ表示される。モデリングオブ
ジェクトに札オブジェクトをリンクした場合には、モデ
リングオブジェクトに対応する被写体が表示されている
シーン全てに、札アイコンが表示される。もちろん、ビ
デオオブジェクト、モデリングオブジェクト以外のオブ
ジェクト(図形オブジェクトや、図6に図示されていな
い他のオブジェクト、例えば、メニュー、アイコン等の
ユーザインタフェースツール、グラフ、画像等)に札オ
ブジェクト属性を設けて、札オブジェクトとリンクでき
る構成としても良い。以上のように、本発明によれば、
以下に示す効果が得られることになる。第1に、運転員
は、操作室にいながら、現場の機器へのメモ付け、メモ
の参照等ができることになる。監視カメラの映像に映っ
ている機器にメモを対応付け、付加することにより、現
場で実際に札掛けしている感覚で作業を行なえる。第2
に、メモをワークステーション、パーソナルコンピュー
タ等の計算機で管理できる。これによって、紙による札
掛けに比べ、保存等の信頼性を向上でき、また、検索の
高速化が図れる等の利点を有する。第3に、テキストの
みならず、音声、映像等のメディアを使用した札掛けが
可能となる。これにより、メモを録音、録画等により簡
単に作成できる。第4に、現場の機器のみならず、画面
上のマン・マシン構成要素に対しても、メモを付けられ
る。これによって、画面操作上の注意事項等を伝達でき
る。第5に、運転員間のコミュニケーションを促進でき
る。すなわち、運転員が交代する場合等に、次の運転員
への申し送り事項等を画面の表示物に対応させて作成す
ることにより、わかりやすく確実な申し送りが可能にな
る。
Next, scene display processing is performed separately depending on whether the designated scene is a live image from a camera or an accumulated image by the VTR 221, LD 220 or the like.
For live video, follow steps 1130 through 1 below.
The processing of 140 is performed, and in the case of the stored image, the processing of the following steps 1150 to 1160 is performed (step 1120). In step 1130, the shared media server 140 is requested to connect the camera specified by the camera information attribute of the live video object and the video compositing hardware 110. In step 1140, the shared media server 140 is requested to set the camera parameters specified by the camera information attribute of the live video object in the camera. In step 1150, if the specified scene is an accumulated video, the video device (VTR22) specified by the video information attribute of the accumulated video object.
1 or LD 220) and the video compositing hardware 110 are requested to the shared media server 140 and connected. At step 1160, the shared media server 140 is requested to
Instructs the video device to repeat playback between the start address and end address specified by the video information attribute of the stored video object. Lastly, the area information of the video object is called, the video display hardware 110 is instructed via the local media driver 130 about the display position of the video, and the composite display of the video on the screen of the workstation 100 is started. The image is displayed in a color different from the display color of the bill icon by combining using the chroma key function (step 1170). Accordingly, the tag icon displayed in step 1110 is displayed on the image. In the processing procedure shown in FIG. 8, when displaying an image, a tag icon is also displayed (see step 1110). Of course, the tag icon is not displayed at the time of image display, and at the time of a request from the operator (for example, when the item “icon display” of the tag rack menu 531 is selected),
A bill icon may be displayed. Further, in the data structure shown in FIG. 6, the video object and the modeling object can be linked with the bill object. That is, the video object is linked to the bill object by setting the pointer to the bill object in the object list attribute. The modeling object is linked to the bill object by setting a pointer to the bill object in the bill object attribute. When the tag object is linked to the video object, the tag icon is displayed only in the scene designated by the video object. When the tag object is linked to the modeling object, the tag icon is displayed in all the scenes in which the subject corresponding to the modeling object is displayed. Of course, objects other than video objects and modeling objects (graphic objects and other objects not shown in FIG. 6, for example, user interface tools such as menus and icons, graphs, images, etc.) are provided with tag object attributes, It may be configured so that it can be linked to the bill object. As described above, according to the present invention,
The following effects can be obtained. First, the operator can add notes to the equipment on site and refer to the notes while in the operation room. By associating and adding a memo to the device shown in the video of the surveillance camera, you can work as if you were actually hanging on the site. Second
Moreover, the memo can be managed by a computer such as a workstation or a personal computer. As a result, there are advantages that the reliability of storage and the like can be improved and the search speed can be increased, as compared with the paper tagging. Thirdly, it is possible to make a bill using not only text but also media such as audio and video. As a result, the memo can be easily recorded and recorded. Fourth, memos can be attached not only to on-site equipment but also to man-machine components on the screen. As a result, it is possible to convey the precautions for screen operation. Fifth, communication between operators can be promoted. That is, when the operator changes, the matters to be sent to the next operator are created in correspondence with the displayed objects on the screen, so that it is possible to make an easy-to-understand and sure offer.

【0022】[0022]

【発明の効果】ビデオカメラで撮影中のビデオ映像に映
っている被写体にリンクして情報を記憶、参照でき、遠
隔にある機器への札掛けを画面上で模擬でき、運転者は
操作室にいながら、現場の機器へのメモ付け、メモの参
照等ができる。さらに、情報保存の信頼性の向上、情報
検索の高速化等の利点を有する。
[Effects of the Invention] Information can be stored and referred to by linking to a subject appearing in a video image taken by a video camera, and tagging to a remote device can be simulated on the screen, so that the driver can operate in the operation room. While on the go, you can add memos to on-site equipment and refer to memos. Further, there are advantages such as improvement in reliability of information storage and speedup of information retrieval.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明にかかるプラント監視制御システムの全
体構成図例である。
FIG. 1 is an example of an overall configuration diagram of a plant monitoring control system according to the present invention.

【図2】本発明にかかるプラント監視制御システムのデ
ィスプレイ上への表示例の説明図である。
FIG. 2 is an explanatory diagram of a display example on a display of the plant monitoring control system according to the present invention.

【図3】札掛けシートの表示例の説明図である。FIG. 3 is an explanatory diagram of a display example of a bill hanging sheet.

【図4】札アイコンの表示例の説明図である。FIG. 4 is an explanatory diagram of a display example of a bill icon.

【図5】ビデオ映像への札掛けの実現概念を示す説明図
である。
FIG. 5 is an explanatory diagram showing a concept of implementing tagging on a video image.

【図6】ビデオ映像への札掛けのためのデータ構造例の
説明図である。
FIG. 6 is an explanatory diagram of an example of a data structure for tagging a video image.

【図7】蓄積ビデオオブジェクトのデータ構造例の説明
図である。
FIG. 7 is an explanatory diagram of an example of a data structure of a stored video object.

【図8】シーン表示の際の処理例の説明図である。FIG. 8 is an explanatory diagram of a processing example when a scene is displayed.

【符号の説明】[Explanation of symbols]

10…ネットワーク、100…ワークステーション、1
10…映像合成ハード、111…カメラ、120…音声
処理ハード、121…スピーカ、122…スピーカ、1
23…マイク、130…ローカルメディアドライバ、1
40…共有メディアドライバ、200…データスイッチ
ング用マトリクススイッチャ、210…カメラ、211
…マイク、220…レーザディスク(LD)、221…
ビデオテープレコーダ(VTR)、250…制御用スイ
ッチャ、251…カメラコントローラ、252…カメラ
コントローラ、500…ディスプレイ画面、501…ポ
インタ、510…プラント構成図、520…画面500
に表示されたビデオ映像、530…札掛けアイコン、5
31…札掛けメニュー、600…札掛けシート、610
…札のタイトルを入力、表示する領域、611…札の作
成者の名前を入力、表示する領域、612…札の宛名を
入力、表示する領域、613…札を作成している時点の
日時表示、620…(図形)編集領域、621…スクロ
ールバー、622…スクロールバー、625…図形メニ
ュー、626…拡大または縮小するためのメニュー、6
30…記録再生する対象を指定するメニュー、631…
アイコン、632…アイコン、633…アイコン、63
4…アイコン、635…アイコン、640…管理メニュ
ー、650…オブジェクト名のリスト表示、651…ス
クロールバー、700…札アイコン、701…札アイコ
ン、702…札アイコン、703…札アイコン、750
…ビデオ映像、751…カメラ、760…図形オブジェ
クト、761…モデリングオブジェクト(ボイラオブジ
ェクト)、762…札オブジェクト、800…ライブビ
デオオブジェクト、801…ライブビデオオブジェク
ト、810…図形オブジェクト、811…図形オブジェ
クト、812…図形オブジェクト、813…図形オブジ
ェクト、820…モデリングオブジェクト、821…モ
デリングオブジェクト、822…モデリングオブジェク
ト、823…モデリングオブジェクト、830…札オブ
ジェクト、831…札オブジェクト、840…蓄積ビデ
オオブジェクト
10 ... network, 100 ... workstation, 1
10 ... Video synthesis hardware, 111 ... Camera, 120 ... Audio processing hardware, 121 ... Speaker, 122 ... Speaker, 1
23 ... Microphone, 130 ... Local media driver, 1
40 ... Shared media driver, 200 ... Data switching matrix switcher, 210 ... Camera, 211
… Microphone, 220… Laser disk (LD), 221…
Video tape recorder (VTR), 250 ... Control switcher, 251, ... Camera controller, 252 ... Camera controller, 500 ... Display screen, 501 ... Pointer, 510 ... Plant configuration diagram, 520 ... Screen 500
Video image displayed on the screen, 530 ... Billboard icon, 5
31 ... Billing menu, 600 ... Billing sheet, 610
… Title title input and display area, 611… Title creator name input and display area, 612… Title address input and display area, 613… Date and time when bill is created , 620 ... (Figure) editing area, 621 ... Scroll bar, 622 ... Scroll bar, 625 ... Figure menu, 626 ... Menu for enlarging or reducing, 6
30 ... Menu for specifying recording / reproducing target, 631 ...
Icon, 632 ... Icon, 633 ... Icon, 63
4 ... Icon, 635 ... Icon, 640 ... Management menu, 650 ... Object name list display, 651 ... Scroll bar, 700 ... Tag icon, 701 ... Tag icon, 702 ... Tag icon, 703 ... Tag icon, 750
... video image, 751 ... camera, 760 ... graphic object, 761 ... modeling object (boiler object), 762 ... bill object, 800 ... live video object, 801 ... live video object, 810 ... graphic object, 811 ... graphic object, 812 ... graphic object, 813 ... graphic object, 820 ... modeling object, 821 ... modeling object, 822 ... modeling object, 823 ... modeling object, 830 ... bill object, 831 ... bill object, 840 ... accumulated video object

───────────────────────────────────────────────────── フロントページの続き (72)発明者 二川 正康 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 堀田 正人 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 谷藤 真也 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 (72)発明者 西川 敦彦 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 (72)発明者 廣田 敦彦 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 (72)発明者 内ケ崎 晴美 茨城県日立市久慈町4026番地 株式会社日 立製作所日立研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Masayasu Futagawa 4026 Kuji Town, Hitachi City, Ibaraki Prefecture Hitate Manufacturing Co., Ltd.Hitachi Research Laboratory (72) Masato Hotta 4026 Kuji Town Hitachi City, Ibaraki Prefecture Nitate Manufacturing Co., Ltd. Hitachi Research Laboratory (72) Inventor Shinya Yato 4026 Kuji-machi, Hitachi City, Ibaraki Prefecture Hitachi Co., Ltd. Hitachi Research Laboratory (72) Inventor Atsuhiko Nishikawa 5-2-1 Omika-cho, Hitachi City, Ibaraki Hitachi, Ltd. Inside the Omika Plant (72) Inventor Atsuhiko Hirota 5-2-1 Omika-cho, Hitachi City, Ibaraki Prefecture Hitachi Ltd. Inside the Omika Plant (72) Inventor Harumi Uchigasaki 4026 Kuji Town, Hitachi City, Ibaraki Nitate Manufacturing Co., Ltd. Hitachi Research Laboratory

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】ビデオ映像を表示する際、少なくとも音
声、映像を含む媒体のいずれかにより予め必要な情報を
作成し、該情報を前記被写体のビデオ画像中の所定の部
分に関連がある事を記憶しておき、該記憶情報に基づ
き、前記被写体には前記予め作成された情報が関連付け
られていることを明示するグラフィックス(札)を表示
することを特徴とする画面札掛け方法。
1. When displaying a video image, necessary information is created in advance by at least one of a medium including a sound and an image, and the information is related to a predetermined portion in a video image of the subject. A screen tagging method characterized by storing and displaying graphics (tags) that clearly indicates that the previously created information is associated with the subject based on the stored information.
【請求項2】請求項1記載において、表示された札を指
示手段により指示したとき、前記予め作成された、少な
くとも音声、映像を含む媒体のいずれかによる情報を出
力することを特徴とする画面札掛け方法。
2. The screen according to claim 1, wherein when the displayed tag is instructed by the instructing means, the information produced by any one of the media created at least including audio and video is output. Billing method.
【請求項3】撮像手段で撮影された被写体のビデオ映像
を表示する際、少なくとも音声、映像を含む媒体のいず
れかにより予め必要な情報を作成し、該情報を、少なく
とも、複数の撮像手段のいずれを使用したかを示す撮像
手段番号、撮像手段の設定位置を含む撮像手段設定パラ
メータと関連がある事を記憶しておき、該記憶情報に基
づき、前記被写体には前記予め作成された情報が関連付
けられていることを明示するグラフィックス(札)を作
成、記憶しておくことを特徴とする画面札掛け方法。
3. When displaying a video image of a subject photographed by the image pickup means, necessary information is created in advance by at least one of a medium including a sound and an image, and the information is stored in at least a plurality of image pickup means. It is stored that there is a relation with the image pickup unit setting parameter including the image pickup unit number and the setting position of the image pickup unit that indicates which one is used, and based on the stored information, the previously created information is stored in the subject. A screen tagging method characterized by creating and storing graphics (tags) that clearly indicate that they are associated.
【請求項4】請求項3記載において、ある撮像手段設定
パラメータが選択された場合、該撮像手段設定パラメー
タに関連する札を表示し、表示された札を指示手段によ
り指示したとき、前記予め作成された、少なくとも音
声、映像を含む媒体のいずれかによる情報を出力するこ
とを特徴とする画面札掛け方法。
4. A method according to claim 3, wherein when a certain image pickup means setting parameter is selected, a tag associated with the image pickup means setting parameter is displayed, and when the displayed tag is instructed by the instructing means, it is created in advance. A screen tagging method, characterized in that the information is output by any one of the recorded media including at least audio and video.
【請求項5】撮像手段で撮影された被写体のビデオ映像
を表示する際、少なくとも音声、映像を含む媒体のいず
れかにより予め必要な情報を作成し、該情報を、表示画
像上の指定された領域に関連がある事を記憶しておき、
該記憶情報に基づき、前記被写体には前記予め作成され
た情報が関連付けられていることを明示するグラフィッ
クス(札)を作成、記憶しておくことを特徴とする画面
札掛け方法。
5. When displaying a video image of a subject photographed by the image pickup means, necessary information is created in advance by at least one of a medium including audio and video, and the information is designated on the display image. Remember that it is related to the area,
A screen tagging method characterized by creating and storing graphics (tags) that clearly shows that the previously created information is associated with the subject based on the stored information.
【請求項6】請求項5記載において、ある表示画像上の
指定された領域が選択された場合、該表示画像上の指定
された領域に関連する札を表示し、表示された札を指示
手段により指示したとき、前記予め作成された、少なく
とも音声、映像を含む媒体のいずれかによる情報を出力
することを特徴とする画面札掛け方法。
6. The apparatus according to claim 5, wherein when a designated area on a certain display image is selected, a tag associated with the designated area on the displayed image is displayed, and the displayed bill is designated. The screen tagging method is characterized in that, when instructed by, the information generated by any one of the previously created media including at least audio and video is output.
【請求項7】請求項1または2記載において、被写体の
複数のシーンを撮影し、ビデオ映像として蓄積してお
き、それぞれのシーンに関連付けて札を掛けることを特
徴とする画面札掛け方法。
7. The screen tagging method according to claim 1 or 2, wherein a plurality of scenes of a subject are photographed, accumulated as video images, and a tag is applied in association with each scene.
【請求項8】撮像手段で被写体を撮影し、該被写体のビ
デオ映像を表示する際、少なくとも音声、映像を含むい
ずれかの媒体により予め必要な情報を作成し、該情報を
前記被写体のビデオ画像中の所定の部分に関連がある事
を記憶しておき、該記憶情報に基づき、前記被写体には
前記予め作成された情報が関連付けられていることを明
示するグラフィックス(札)を表示する画面札掛け方法
であって、 まず、被写体のビデオ映像のみを表示し、次に、被写体
の一部の指示があった場合にのみ、該被指示部に札が掛
けられているか否かを判断し、札が掛けられている場
合、該札に関連した情報を出力することを特徴とする画
面札掛け方法。
8. When a subject is photographed by an imaging means and a video image of the subject is displayed, necessary information is created in advance by at least one medium including audio and video, and the information is used as a video image of the subject. A screen for displaying that graphics (tags) that clearly indicate that the subject is associated with the previously created information based on the stored information that is related to a predetermined portion therein is stored. A method of tagging, in which only a video image of a subject is first displayed, and then, only when a part of the subject is instructed, it is determined whether or not a tag is placed on the instructed part. A screen tagging method, wherein when a tag is hung, information related to the tag is output.
【請求項9】撮像画像の表示手段と、札掛け処理手段を
有して構成される画面札掛け装置であって、 前記札掛け処理手段は、必要な情報を作成する情報作成
手段と、作成された情報を所定の撮像画像の一部に関連
付けて記憶する手段を有して構成され、 また、前記撮像画像の表示手段は、表示画面中に前記情
報作成手段にて作成された情報と関連付けられている画
像が存在する場合に、これをグラフィック(札)で明示
する機能を有することを特徴とする画面札掛け装置。
9. A screen tagging device comprising a display means for displaying a picked-up image and a tagging processing means, wherein the tagging processing means is an information creating means for creating necessary information. And a means for storing the captured information in association with a part of a predetermined captured image, and the display means for displaying the captured image is associated with the information created by the information creating means on the display screen. A screen tagging device characterized by having a function of clearly indicating a displayed image by a graphic (tag) when the image is present.
【請求項10】請求項7記載において、さらに撮像画像
の一部を指示する手段を備え、 前記撮像画像の表示手段は、該表示手段が明示するグラ
フィック(札)を、前記撮像画像の一部を指示する手段
で指示した場合、札に関連付けて記憶されている作成さ
れた情報を出力する機能を有することを特徴とする画面
札掛け装置。
10. The device according to claim 7, further comprising means for instructing a part of the captured image, wherein the display means for displaying the captured image includes a graphic (tag) clearly indicated by the display means as a part of the captured image. The screen tagging device having a function of outputting the created information stored in association with the tag when instructed by the means for instructing.
JP21519092A 1992-08-12 1992-08-12 Screen tagging method and device Expired - Lifetime JP3238205B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21519092A JP3238205B2 (en) 1992-08-12 1992-08-12 Screen tagging method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21519092A JP3238205B2 (en) 1992-08-12 1992-08-12 Screen tagging method and device

Publications (2)

Publication Number Publication Date
JPH0659646A true JPH0659646A (en) 1994-03-04
JP3238205B2 JP3238205B2 (en) 2001-12-10

Family

ID=16668175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21519092A Expired - Lifetime JP3238205B2 (en) 1992-08-12 1992-08-12 Screen tagging method and device

Country Status (1)

Country Link
JP (1) JP3238205B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106435A (en) * 1994-10-07 1996-04-23 Sony Corp Cyberspace system
US5943236A (en) * 1996-05-20 1999-08-24 Hitachi, Ltd. Plant-operation-information displaying method and plant-operation monitoring apparatus
JP2002152713A (en) * 2000-11-10 2002-05-24 Sony Corp Apparatus and method for processing object information
US7355633B2 (en) 1997-01-07 2008-04-08 Canon Kabushiki Kaisha Video-image control apparatus and method with image generating mechanism, and storage medium containing the video-image control program
JP2011070673A (en) * 2009-09-23 2011-04-07 Fisher-Rosemount Systems Inc Dynamically linked graphical message for process control system
US8022936B2 (en) 2000-04-18 2011-09-20 Fujifilm Corporation Image display apparatus and image display method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106435A (en) * 1994-10-07 1996-04-23 Sony Corp Cyberspace system
US5943236A (en) * 1996-05-20 1999-08-24 Hitachi, Ltd. Plant-operation-information displaying method and plant-operation monitoring apparatus
US7355633B2 (en) 1997-01-07 2008-04-08 Canon Kabushiki Kaisha Video-image control apparatus and method with image generating mechanism, and storage medium containing the video-image control program
US8022936B2 (en) 2000-04-18 2011-09-20 Fujifilm Corporation Image display apparatus and image display method
JP2002152713A (en) * 2000-11-10 2002-05-24 Sony Corp Apparatus and method for processing object information
JP2011070673A (en) * 2009-09-23 2011-04-07 Fisher-Rosemount Systems Inc Dynamically linked graphical message for process control system

Also Published As

Publication number Publication date
JP3238205B2 (en) 2001-12-10

Similar Documents

Publication Publication Date Title
JP3185505B2 (en) Meeting record creation support device
JP3526067B2 (en) Reproduction device and reproduction method
US5513306A (en) Temporal event viewing and editing system
US5717869A (en) Computer controlled display system using a timeline to control playback of temporal data representing collaborative activities
EP0660221B1 (en) Method and apparatus for controlling real-time presentation of audio/visual data on a computer system
US5786814A (en) Computer controlled display system activities using correlated graphical and timeline interfaces for controlling replay of temporal data representing collaborative activities
JP3821170B2 (en) Method for managing collaborative work information and collaborative work support system
US7486254B2 (en) Information creating method information creating apparatus and network information processing system
JP2006146415A (en) Conference support system
US8006192B1 (en) Layered graphical user interface
CA2202106C (en) A non-timeline, non-linear digital multimedia composition method and system
JPWO2006028154A1 (en) Information management system, information management method, information management program and recording medium thereof
Harmon et al. The virtual annotation system
JPH06266632A (en) Method and device for processing information of electronic conference system
JPH09138790A (en) Scenario editing device
JP4010094B2 (en) Lecture information presentation device for remote locations
JP3238205B2 (en) Screen tagging method and device
JPH0789267B2 (en) Data editing / presentation method and device
JP4244545B2 (en) Information creation method, information creation apparatus, and network information processing system
JP3439034B2 (en) Abstract video browsing method and apparatus
JP2004128570A (en) Contents creation and demonstration system, and contents creation and demonstration method
JPH06274552A (en) Multi-media data link system
JPH09128310A (en) Information sharing device/method
JP2001350775A (en) Method and device for presenting a plurality of information
JP2005167822A (en) Information reproducing device and information reproduction method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071005

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081005

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091005

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091005

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 11

EXPY Cancellation because of completion of term