JP2001078091A - Device and method for displaying and editing media scene information and storage medium storing program related to the method - Google Patents

Device and method for displaying and editing media scene information and storage medium storing program related to the method

Info

Publication number
JP2001078091A
JP2001078091A JP24875499A JP24875499A JP2001078091A JP 2001078091 A JP2001078091 A JP 2001078091A JP 24875499 A JP24875499 A JP 24875499A JP 24875499 A JP24875499 A JP 24875499A JP 2001078091 A JP2001078091 A JP 2001078091A
Authority
JP
Japan
Prior art keywords
scene information
media scene
media
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP24875499A
Other languages
Japanese (ja)
Other versions
JP4404172B2 (en
Inventor
Yasuyuki Oki
康幸 大木
Rie Kobayashi
り恵 小林
Akio Nagasaka
晃朗 長坂
Tadashi Yamamitsu
忠 山光
Junichi Hatooka
順一 鳩岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP24875499A priority Critical patent/JP4404172B2/en
Publication of JP2001078091A publication Critical patent/JP2001078091A/en
Application granted granted Critical
Publication of JP4404172B2 publication Critical patent/JP4404172B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To more easily grasp the relevance between scene information by displaying extracted media scene information related to selected media scene information so as to identify it from the other media scene information on a picture. SOLUTION: Three (sub) windows are displayed in a main window 501 for displaying the scene information easily to recognize. The first sub-window is a time line display window 502, the second sub-window is an icon display window 504 and the third sub-window is a table display window 503. Not only one but also plural windows can be respectively arranged as well. When plural windows are arranged, one piece of scene information can be more versatilely grasped. A main menu 506 is provided on the main window 501 so that the read/write of the file of scene information, editing operation or retrieving operation can be instructed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、メディアシーン情
報表示編集装置、方法、および該方法に係るプログラム
を記憶した記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for displaying and editing media scene information, and a storage medium storing a program according to the method.

【0002】[0002]

【従来の技術】近年、大容量ハードディスクの低価格
化、PCの処理性能の向上、様々な映像・音声圧縮技術
の登場、およびビデオオンデマンドの浸透などにより、
映像データや音声データなどのメディアデータをコンピ
ュータ上で容易に管理・検索・視聴できるようになって
きた。また、このようなメディアデータを、コンピュー
タの特色を生かして効率よく管理・検索・視聴したいと
いうニーズが増えてきている。従来のメディアデータの
管理方法は、メディアデータファイルや映像・音声テー
プに簡単なキーワードやタイトル、作者名などをつけて
検索するといった、データボリューム単位の情報管理が
基本であった。しかし、ユーザが望むメディアデータの
情報は、単純に映画の監督やテープタイトルなどのボリ
ューム情報だけではなく、そのボリュームの中のいつど
こで誰が写っているかあるいは話しているかなどの細か
い単位の情報である場合も多い。近年、このような理由
から、メディアデータ全体に情報を登録するだけでな
く、メディアデータ中のシーンと呼ばれる内部単位にま
でも情報を登録し管理できるシステムが望まれている。
2. Description of the Related Art In recent years, the price of large-capacity hard disks has been reduced, the processing performance of PCs has been improved, various video and audio compression technologies have appeared, and video-on-demand has spread.
Media data such as video data and audio data can be easily managed, searched, and viewed on a computer. In addition, there is an increasing need to efficiently manage, search, and view such media data by utilizing the characteristics of computers. Conventional media data management methods are based on information management in units of data volumes, such as searching for a media data file or a video / audio tape with a simple keyword, title, author name, or the like. However, the media data information desired by the user is not only volume information such as movie directors and tape titles, but also information in fine units such as when and where in the volume and who is talking. Often. In recent years, for such a reason, a system that can register and manage information not only in the entire media data but also in an internal unit called a scene in the media data has been desired.

【0003】なお、本願において、「メディアデータ」
とは、映像データや音声データだけでなく、静止画像に
時間情報がついたスライドショーデータや、テキストデ
ータに時間情報がついたクローズド・キャプション(字
幕)データなど、時間情報を持ったデータ全体を指すも
のとする。メディアデータの一部分区間を切り出したも
のを「シーン」と呼び、またメディアデータの一部分に
付随させた情報を「メディアシーン情報」、または単に
「シーン情報」と呼ぶ。また「属性」とは時間情報を持
たない付加的な情報の一般名称として用いる。なお、後
述する発明の実施の形態においては、「部分空間」を主
にビデオ形式のメディアデータのシーンを現す用語とし
て用いるものとする。
[0003] In the present application, "media data"
The term refers to not only video data and audio data, but also entire data with time information, such as slide show data with time information added to still images and closed caption (subtitle) data with time information added to text data. Shall be. A portion obtained by cutting out a partial section of the media data is called a "scene", and information attached to a portion of the media data is called "media scene information" or simply "scene information". The “attribute” is used as a general name of additional information having no time information. In the embodiments of the invention described below, “subspace” is mainly used as a term representing a scene of media data in video format.

【0004】これまで、メディアデータ中のシーンの単
位までデータを扱えるシステムとしては、映像の場合、
映像編集ソフトや、映像内容を自動的に解析してシーン
情報を登録する自動インデキシングシステムなどが存在
している。
Hitherto, as a system that can handle data up to a scene unit in media data, in the case of video,
There are video editing software and automatic indexing systems that automatically analyze video content and register scene information.

【0005】従来の代表的な映像編集ソフトとしては、
複数のメディアデータを繋ぎあわせて新しい1本のメデ
ィアデータを作成するソフトが知られている。このよう
なソフトでは、画面上に映画のフィルムに似せたメディ
アデータ表現を複数本表示し、このフィルム状メディア
データをユーザがマウスなどを用いて直接画面上で操作
することにより、映像の再生時点や2本のフィルム状メ
ディアデータ間の特殊効果付けなどを指示することがで
きる(特開平07-046462号など)。
Conventional representative video editing software includes:
Software that creates a new piece of media data by connecting a plurality of media data is known. In such software, a plurality of media data expressions resembling a movie film are displayed on the screen, and the user manipulates the film-like media data directly on the screen using a mouse or the like, so that the playback time of the video can be reduced. Or a special effect between two pieces of film media data can be instructed (Japanese Patent Laid-Open No. 07-046462).

【0006】自動インデキシングシステムの代表的なも
のとして、たとえばシーン情報を登録したいメディアデ
ータを指定すると、自動的に映像内容を解析し、その解
析結果とそれに付随する時間情報を表形式で表示するも
のがある。
As a typical example of an automatic indexing system, for example, when media data for which scene information is to be registered is designated, video contents are automatically analyzed, and the analysis result and accompanying time information are displayed in a table format. There is.

【0007】[0007]

【発明が解決しようとする課題】上記の従来技術では、
与えられたメディアデータに対してメディアデータ内の
シーンの情報を登録・管理するにあたり、次のような課
題が残されている。
In the above prior art,
In registering and managing scene information in media data with respect to given media data, the following problems remain.

【0008】上記の映像編集ソフトでは、複数のシーン
間の時間的配置を容易に把握できるが、複数のメディア
データを組み合わせて1本のメディアデータを作成する
ソフトであるため、ユーザが既に所有しているメディア
データに対して後からシーン情報だけを登録したり削除
したりすることができない。
[0008] In the above-mentioned video editing software, the temporal arrangement between a plurality of scenes can be easily grasped. However, since the software is a software for creating one piece of media data by combining a plurality of media data, the user already owns it. It is not possible to register or delete only the scene information later for the media data.

【0009】上記の自動インデキシングシステムでは、
メディアデータからシーン情報だけを自動的に抽出し登
録できるが、自動抽出が難しい登場人物名や人物の年齢
など、ユーザ独自のシーン情報を自由に追加したり削除
したりできない。また、これらのデータは主に表形式で
表現されているため、複数のシーン情報間の相互関係を
把握しにくいという課題がある。たとえば、表形式のシ
ーン情報の表現の場合、複数の人物が同時に現れるシー
ンなどといった、シーン情報間の時間的な相関関係や、
ドラマの中にオープニング、本編、CM、およびエンデ
ィングというシーンが含まれているなどといったシーン
の包含関係を簡潔に表示できないため、シーン情報を把
握しにくい。
In the above automatic indexing system,
Although only scene information can be automatically extracted and registered from media data, user-unique scene information such as a character name or a person's age, which is difficult to automatically extract, cannot be freely added or deleted. In addition, since these data are mainly expressed in a table format, there is a problem that it is difficult to grasp a mutual relationship between a plurality of pieces of scene information. For example, in the case of a representation of scene information in a table format, a temporal correlation between scene information, such as a scene in which a plurality of people appear simultaneously,
Since the inclusion relation of scenes such as the scenes of the opening, the main story, the CM, and the ending in the drama cannot be simply displayed, it is difficult to grasp the scene information.

【0010】本発明の目的は、メディアデータに対して
該メディアデータ中のシーンの情報を登録するにあた
り、シーン情報間の関連性をより簡単に把握可能にする
こと、および、より容易にシーン情報を編集可能にする
ことにある。
An object of the present invention is to make it possible to more easily grasp the relevance between scene information when registering information of a scene in the media data with respect to the media data. Is to be editable.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するた
め、本発明は以下の構成を採る。まず、メディアシーン
情報のデータ構造としては、たとえば、時間情報を有し
たデータ(メディアデータ)の部分単位であるシーンの
集合と、ユーザが登録する属性情報の集合と、これらシ
ーンと属性情報との間の関連付けであるリンク情報の集
合をメディアシーン情報として定義する。
In order to achieve the above object, the present invention employs the following constitution. First, as a data structure of media scene information, for example, a set of scenes, which are partial units of data (media data) having time information, a set of attribute information registered by a user, and a set of these scenes and attribute information A set of link information, which is an association between them, is defined as media scene information.

【0012】本発明に係る装置には、まずメディアデー
タ自身を格納するメディアデータ格納手段と、メディア
シーン情報を格納するメディアシーン情報格納手段を用
意する。これらの格納手段に情報を格納するには、本発
明の実施の形態で述べるシステムを用いてユーザが手作
業で情報を登録する方法以外にも、ビデオサーバやファ
イルシステムに格納されたメディアデータファイルおよ
びメディアシーン情報ファイルを読み込んでも良いし、
さらには、膨大なメディアシーン情報データベースから
ある検索条件によって抽出されたメディアシーン情報を
格納しても良い。
In the apparatus according to the present invention, first, media data storage means for storing media data itself and media scene information storage means for storing media scene information are prepared. In order to store information in these storage means, in addition to a method in which a user manually registers information using the system described in the embodiment of the present invention, a media data file stored in a video server or a file system is used. And a media scene information file.
Furthermore, media scene information extracted from a huge media scene information database according to a certain search condition may be stored.

【0013】次に、これらメディアシーン情報を表示す
るためのディスプレイ手段を有する。次に、表示された
メディアシーン情報から任意のメディアシーン情報を選
択する選択手段を設ける。あるいはメディアシーン情報
を抽出する条件を指定する抽出条件指定手段を設ける。
抽出条件指定手段の実現方法としては、装置の起動時に
固定の抽出条件を定めても良いし、実行時にユーザから
の指示により抽出条件を動的に定めても良い。このメデ
ィアシーン情報抽出手段によって、ユーザは必要な時期
に必要な分だけのデータ抽出条件を指定することができ
るようになり、より効率的なメディアシーン情報の内容
確認や編集作業を行うことができる。
Next, a display means for displaying the media scene information is provided. Next, there is provided a selecting means for selecting arbitrary media scene information from the displayed media scene information. Alternatively, an extraction condition specifying means for specifying conditions for extracting the media scene information is provided.
As a method of realizing the extraction condition specifying means, a fixed extraction condition may be determined at the time of starting the apparatus, or the extraction condition may be dynamically determined at the time of execution by an instruction from a user. With this media scene information extracting means, the user can specify only necessary data extraction conditions at a required time, and can perform more efficient content confirmation and editing of the media scene information. .

【0014】さらに、選択されたメディアシーン情報に
関連付けされているメディアシーン情報を抽出し、ある
いは指定された条件にしたがってメディアシーン情報を
抽出するメディアシーン情報抽出手段を用意する。本手
段を用いることにより、メディアシーン情報間の複雑な
関連性をわかりやすく表現したり、膨大なメディアシー
ン情報からユーザが実際に編集したい情報だけを画面上
に表示することにより、従来難しかったメディアシーン
情報の編集作業を容易にすることができる。本発明で
は、さらに、該メディアシーン情報抽出手段により抽出
されたメディアシーン情報をディスプレイ手段上に表示
するため、メディアシーン情報表示制御手段を設ける。
これにより、抽出されたメディアシーン情報を他のメデ
ィアシーン情報と画面上で識別(区別)可能なように表
示する。具体的には、後述する発明の実施の形態のよう
に、選択状態に応じて色を変えて表示したり、ユーザが
指定した様々な検索条件ごとに別々の色で表示すること
により、ユーザが画面を見た際に一目でメディアシーン
情報の種別を確認できるようにする。さらに抽出表示さ
れたメディアシーン情報を加工できるメディアシーン情
報加工手段を設ける。
Further, there is provided media scene information extracting means for extracting media scene information associated with the selected media scene information or extracting media scene information according to designated conditions. By using this method, complex relationships between media scene information can be expressed in an easy-to-understand manner, and only the information that the user actually wants to edit from the vast amount of media scene information is displayed on the screen, making it difficult for media Editing of scene information can be facilitated. In the present invention, media scene information display control means is provided for displaying the media scene information extracted by the media scene information extraction means on a display means.
Thereby, the extracted media scene information is displayed so as to be distinguishable (distinguished) from other media scene information on the screen. Specifically, as in the embodiment of the invention described later, the user can change the color according to the selection state and display the image, or display the image in different colors for various search conditions specified by the user, so that the user When viewing the screen, the type of the media scene information can be confirmed at a glance. Further, a media scene information processing means capable of processing the extracted and displayed media scene information is provided.

【0015】本発明では、メディアシーン情報間の関連
性をより分かりやすく表現するため、以下の3つのメデ
ィアシーン情報の表現形式を提供することもできる。
In the present invention, the following three media scene information expression formats can be provided in order to more easily express the relationship between the media scene information.

【0016】1つ目は、メディアシーン情報の時間的な
相関関係を表現するためのタイムライン表現形式であ
る。この表現形式では、メディアシーン情報を、ディス
プレイ手段上に定められた時間軸方向に沿って、そのメ
ディアシーン情報が有する時間情報に従った画面位置に
表示する。
The first is a timeline expression format for expressing a temporal correlation of media scene information. In this expression format, the media scene information is displayed at a screen position along the time axis direction defined on the display means according to the time information included in the media scene information.

【0017】2つ目は、複数のメディアシーン情報の構
成要素を視覚的に一覧表示するアイコン表示形式であ
る。この表現形式では、1つ1つのメディアシーン情報
を視覚的に分かりやすいアイコン形式で画面内に配置す
ることにより、メディアシーン情報の構成要素を一目で
把握することができる。
The second is an icon display format for visually displaying a list of a plurality of components of media scene information. In this expression format, the components of the media scene information can be grasped at a glance by arranging each piece of media scene information in an easily understandable icon format on the screen.

【0018】3つ目は、複数のメディアシーン情報の詳
細な内容を表示することが可能なテーブル表現である。
この表現形式を用いると、先の2つの表示形式では表示
しきれなかった属性名や属性値などの情報を表示でき
る。また本表示形式を用いれば、属性名や属性値を直接
選択できるので、これらの値を簡単に修正することがで
きる。
The third is a table expression capable of displaying detailed contents of a plurality of pieces of media scene information.
By using this expression format, information such as attribute names and attribute values that could not be displayed in the above two display formats can be displayed. Also, if this display format is used, the attribute name and the attribute value can be directly selected, so that these values can be easily corrected.

【0019】その他の本発明の特徴的なメディアシーン
情報表示・編集方法および装置などは、明細書中の記載
から自ずと明らかになるであろう。
Other features and methods of displaying and editing media scene information of the present invention will be apparent from the description in the specification.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態を図1
から図15までを用いて説明する。まず図1を用いて本
実施形態で用いるコンピュータ装置を説明する。次に図
2、図3、および図4を用いて本実施形態におけるデー
タ構造を説明する。図5および図11は本実施形態にお
けるメディアシーン情報表示編集装置の実行画面であ
る。最後に図6〜図15の構造化フローチャートなどを
用いて本実施形態の処理方式を説明する。
FIG. 1 is a block diagram showing an embodiment of the present invention.
This will be described with reference to FIGS. First, a computer device used in the present embodiment will be described with reference to FIG. Next, a data structure according to the present embodiment will be described with reference to FIGS. 2, 3, and 4. FIG. FIG. 5 and FIG. 11 are execution screens of the media scene information display / edit device according to the present embodiment. Finally, the processing method of the present embodiment will be described with reference to the structured flowcharts of FIGS.

【0021】なお、本実施形態では説明を簡単にするた
め、映像データにユーザの作成した属性情報を付加する
映像シーン情報表示方法について述べるが、本システム
は、映像データだけでなく、音声データやスライドショ
ーデータなど時間情報を有した他形式のメディアデータ
にも容易に適用できる。
In this embodiment, for the sake of simplicity, a video scene information display method for adding attribute information created by a user to video data will be described. The present invention can be easily applied to other types of media data having time information such as slide show data.

【0022】まず図1を用いて、本発明の一実施形態で
用いるコンピュータ装置を説明する。101はコンピュ
ータ装置の本体であり、内部にCPU装置110とメモ
リ装置111を有する。また本コンピュータ装置本体1
01には、外部入出力手段として、キーボードやマウス
などのユーザからの入力を受け取る入力装置115と、
CPU装置110で処理した内容をユーザに表示するた
めのディスプレイ装置113が用意されている。また本
コンピュータ装置では、必要に応じて補助記憶装置11
4から、本実施形態の装置で用いるメディアシーン情報
を読み込んだり格納したりすることができる。
First, a computer device used in an embodiment of the present invention will be described with reference to FIG. Reference numeral 101 denotes a main body of the computer device, which has a CPU device 110 and a memory device 111 therein. In addition, the computer device body 1
01, an input device 115 that receives input from a user such as a keyboard and a mouse as external input / output means;
A display device 113 for displaying the content processed by the CPU device 110 to the user is prepared. In the present computer device, the auxiliary storage device 11
From 4, the media scene information used in the apparatus of the present embodiment can be read and stored.

【0023】本実施形態では、メモリ装置111または
補助記憶装置114を用いて、メディアデータとメディ
アシーン情報群を格納している。また、CPU装置11
0とメモリ装置111により、メディアシーン情報群を
抽出してディスプレイ装置113上に表示するメディア
シーン情報抽出手段とメディアシーン情報表示制御手
段、メディアシーン情報を加工するメディアシーン情報
加工手段、およびユーザ入力に従った表示の変更を行う
ユーザ指示解析手段を実現している。
In the present embodiment, the memory device 111 or the auxiliary storage device 114 is used to store media data and media scene information groups. Also, the CPU device 11
0 and a memory device 111, a media scene information extraction unit and a media scene information display control unit for extracting a media scene information group and displaying the same on the display device 113, a media scene information processing unit for processing the media scene information, and a user input. User instruction analysis means for changing the display according to the above.

【0024】図2は、本実施形態で用いるメディアシー
ン情報のデータ構造の概念図である。本実施形態でのメ
ディアシーン情報は、大きく分けて3つの部分から構成
されている。1つ目は、時間情報を有したメディアデー
タである映像データ201の部分単位であるシーン、す
なわち映像201中の部分であるシーンの時間存在位置
を示す211,212,213などのデータである。こ
れは、ユーザが属性情報を登録したい部分映像データ
(シーン)を直接定義する情報である。2つ目は、ユー
ザが映像データ中のシーンに対して実際に登録したい属
性情報221,222,223である。3つ目は、これ
ら映像データの時間情報211,212,213とユー
ザが作成した属性情報221,222,223とを関連
付けるためのリンク情報231〜234である。このよ
うに2つの情報の間をリンクで結ぶというデータ構造を
用いることにより、すでにある映像データに対して、ユ
ーザが後から簡単に属性情報を加えることが可能とな
る。
FIG. 2 is a conceptual diagram of the data structure of the media scene information used in the present embodiment. The media scene information in the present embodiment is roughly divided into three parts. The first is a scene which is a partial unit of the video data 201 which is media data having time information, that is, data such as 211, 212, and 213 indicating a temporal existence position of a scene which is a part in the video 201. This is information that directly defines partial video data (scene) for which the user wants to register attribute information. The second is attribute information 221, 222, 223 that the user actually wants to register for a scene in the video data. The third is link information 231 to 234 for associating the time information 211, 212, 213 of the video data with the attribute information 221, 222, 223 created by the user. By using a data structure in which two pieces of information are linked by a link as described above, it is possible for a user to easily add attribute information to existing video data later.

【0025】なお、本実施形態では、211,212,
213のような映像データ(または一般的にメディアデ
ータ)に直接関わるデータを「部分空間」(シーン)と
呼ぶ。これは、本発明の方式で属性を付加できる映像デ
ータの部分は、図2のような時間的な区切りで区切った
部分だけでなく、映像データの画面中の一部分に写って
いる人物の座標位置や3次元CG映像中の一部分である
一つの球体の領域など、XY座標空間(3次元の場合は
XYZ座標空間)における部分領域も指定可能なためで
ある。本実施の形態では、映像データの時間的な部分を
例に説明するので、映像データの時間的な区間を「部分
空間」と呼ぶ。
In this embodiment, 211, 212,
Data related directly to video data (or media data in general) such as 213 is called a “subspace” (scene). This is because not only the part of the video data to which the attribute can be added by the method of the present invention but also the part separated by a temporal delimiter as shown in FIG. This is because a partial area in an XY coordinate space (in the case of three dimensions, an XYZ coordinate space) such as an area of one sphere which is a part of a three-dimensional CG image can be specified. In the present embodiment, a temporal portion of video data will be described as an example, and a temporal section of video data will be referred to as a “subspace”.

【0026】図2内の符号について簡単に説明する。映
像データ201は、人のシーン、車のシーン、および家
と人のシーンの3つのシーンから構成されている。従来
は、これらのシーンの内容を確認するには、映像データ
201を再生するしか手段がなかった。また従来は、こ
れらシーンに登場する人物の名前や年齢などのシーン情
報を確認する手段はなかった。
The symbols in FIG. 2 will be described briefly. The video data 201 is composed of three scenes: a person scene, a car scene, and a house and person scene. Conventionally, the only way to confirm the contents of these scenes is to reproduce the video data 201. Conventionally, there is no means for confirming scene information such as names and ages of persons appearing in these scenes.

【0027】本実施形態のシステムでは、このような映
像データ201に、たとえばシーン情報として、人物A
の情報221を後から登録できる。人物Aの情報221
(本実施形態では「属性情報」と呼ぶ)には、現在、人
物の名前が「A」であり、人物の年齢が26歳であるこ
とが記録されている。またこの人物は、映像データ20
1のうち、0:00から0:01までの「部分空間1」
(またはシーン1)211と、0:05から0:06ま
での「部分空間3」(またはシーン3)に登場してい
る。このため、本実施形態のシステムでは、属性情報
「Aさん」221と「部分空間1」211との間、およ
び属性情報「Aさん」221と「部分空間3」213と
の間に、リンク情報「登場」231,232を付加して
いる。
In the system according to the present embodiment, a person A is added to such video data 201 as scene information, for example.
Can be registered later. Information 221 of person A
(Called “attribute information” in the present embodiment) records that the name of the person is “A” and the age of the person is 26 years old. In addition, this person is the video data 20
“Subspace 1” from 0:00 to 0:01 of 1
(Or scene 1) 211 and appear in “subspace 3” (or scene 3) from 0:05 to 0:06. For this reason, in the system of the present embodiment, the link information is provided between the attribute information “Mr. A” 221 and the “subspace 1” 211 and between the attribute information “Mr. A” 221 and the “subspace 3” 213. "Appearances" 231 and 232 are added.

【0028】なお、属性情報としては、先の「Aさん」
などの文字列以外にも、属性情報222のように「c:/c
ar.doc」などと外部ファイルのリンク情報を埋め込んで
もよいし、その他にも車や背景の色情報を光の3元色値
(RGB値)で表現した情報や、あるアプリケーション
だけが解釈できる特殊なバイト列データなどを埋め込ん
でも良い。
As the attribute information, "A"
Other than the character string such as “c: / c” as in the attribute information 222.
ar.doc "and other external file link information. Other information such as car and background color information expressed in ternary color values (RGB values) of light, or special information that can be interpreted only by a certain application. It may be possible to embed various byte string data.

【0029】図3は、図2の概念的なデータ構造を、図
1のコンピュータ装置101で実際に扱えるように変換
したデータ構造の一例である。本実施形態では、1つの
部分空間に関する情報や、1つの属性情報などを、C+
+プログラミング言語などで用いるオブジェクトデータ
として扱う。C++のオブジェクトデータでは、複数の
変数をまとめて管理できる。たとえば部分空間211の
情報は、オブジェクトデータ311として表現される。
部分空間の開始時間「0:00」はオブジェクト内の変
数beginに、終了時間「0:01」は同じく変数e
ndに、部分空間のもととなる映像データ201の情報
は同じく変数file「sample.mpg」に、展開される。
同様に、部分空間212,213も部分空間のオブジェ
クト312,313として表現される。
FIG. 3 is an example of a data structure obtained by converting the conceptual data structure of FIG. 2 so that the computer device 101 of FIG. 1 can actually handle the data structure. In the present embodiment, information on one subspace, one attribute information, etc.
+ Handled as object data used in programming languages. In the C ++ object data, a plurality of variables can be managed collectively. For example, information of the subspace 211 is expressed as object data 311.
The start time “0:00” of the subspace is assigned to the variable begin in the object, and the end time “0:01” is assigned to the variable e.
The information of the video data 201 that is the basis of the subspace is similarly expanded to the variable “file” “sample.mpg”.
Similarly, the subspaces 212 and 213 are also represented as objects 312 and 313 of the subspace.

【0030】属性情報221は、オブジェクトデータ3
31に変換される。ただし属性情報221は複数の(属
性名,属性値)の組を有するため、本実施形態では属性
集合オブジェクトの中に「meta(属性名,属性値)」
という別オブジェクトを複数持つ構造をとっている。同
様にして、属性情報222,223は、属性情報オブジ
ェクト332,333に変換される。
The attribute information 221 includes the object data 3
It is converted to 31. However, since the attribute information 221 has a plurality of (attribute name, attribute value) pairs, in the present embodiment, “meta (attribute name, attribute value)” is included in the attribute set object.
It has a structure with multiple different objects. Similarly, the attribute information 222, 223 is converted into attribute information objects 332, 333.

【0031】図2のリンク情報は、本実施形態では簡単
のため、1本のリンクに対し、1つのリンクオブジェク
トを用意している。リンクオブジェクトには、リンクの
種別type、リンク元オブジェクトの参照情報sr
c、リンク先オブジェクトの参照情報dstを登録でき
る。たとえば図2のリンク231は、リンクオブジェク
ト321に変換されている。リンク231の名称「登
場」は、リンクオブジェクト321内の変数typeに
格納される。リンクオブジェクト321の変数srcに
は、リンク231のリンク元である属性情報221を図
3のオブジェクトに変換した属性情報オブジェクト33
1が登録される。本図では、リンク先を分かりやすく図
示するために、srcの値を属性情報331の変数id
である「Aさん」としているが、実際は属性情報オブジ
ェクト331のメモリ上のアドレス値など、コンピュー
タ処理に向いた値を登録する。リンクオブジェクト32
1の変数dstも同様に、リンク231の先に示されて
いる「部分空間1」に対応する部分空間オブジェクト3
11を示すことになる。以下同様にして、図2のリンク
232,233,234は、リンクオブジェクト32
2,323,324に変換される。
In the link information of FIG. 2, one link object is prepared for one link for simplicity in this embodiment. The link object includes a link type type and reference information sr of the link source object.
c, Reference information dst of the link destination object can be registered. For example, the link 231 in FIG. 2 is converted to a link object 321. The name “appearance” of the link 231 is stored in a variable type in the link object 321. The variable src of the link object 321 includes an attribute information object 33 obtained by converting the attribute information 221 that is the link source of the link 231 into the object of FIG.
1 is registered. In this figure, the value of src is set to the variable id of the attribute information 331 in order to clearly show the link destination.
In practice, a value suitable for computer processing, such as the address value of the attribute information object 331 on the memory, is registered. Link object 32
Similarly, the variable dst of the subspace object 3 corresponding to the “subspace 1” shown at the end of the link 231
11 will be shown. Similarly, the links 232, 233, and 234 in FIG.
2,323,324.

【0032】最後に、本実施形態のシステムでは、それ
ぞれ複数個ある部分空間オブジェクト311〜313、
リンクオブジェクト321〜324、および属性オブジ
ェクト331〜333を、部分空間の集合データ30
1、リンクの集合データ302、および属性の集合デー
タ303に格納している。これら集合データを実現する
には、C++ Standard Template Libraryなどに含まれて
いるSet型を用いれば良い。これらのライブラリを用い
れば、集合データから要素を一つずつ取り出す処理や、
和や差などの集合演算の処理を簡単に実現できる。
Finally, in the system of this embodiment, a plurality of subspace objects 311 to 313,
The link objects 321 to 324 and the attribute objects 331 to 333 are stored in the set data 30 of the partial space.
1, link set data 302 and attribute set data 303. In order to realize such set data, a Set type included in the C ++ Standard Template Library or the like may be used. If you use these libraries, you can extract elements one by one from the set data,
Processing of set operations such as sum and difference can be easily realized.

【0033】なお、図2の概念図で示したリンクの実現
方法については、本実施形態のリンクオブジェクトを作
成する方法以外も適用できる。たとえば、属性情報オブ
ジェクトに、部分空間オブジェクトを参照するポインタ
を配列として持たせる方法を用いても良い。同様に部分
空間オブジェクトにも属性情報をポイントする逆参照を
持たせても良い。
The link realizing method shown in the conceptual diagram of FIG. 2 can be applied to methods other than the method of creating a link object according to the present embodiment. For example, a method may be used in which the attribute information object has an array of pointers that refer to the subspace objects. Similarly, a subspace object may have a dereference pointing to attribute information.

【0034】図4は、図3に示したデータ構造の仕様を
より詳しく説明した図であり、オブジェクトのクラスの
関連を表す図である。ここでのクラスとはC++のクラ
スなどオブジェクト指向プログラミングで用いる用語と
同一である。また本図で示したクラスの表記方法は、U
ML(Uniformed Modeling Laguage)図式に基づいてい
る。
FIG. 4 is a diagram for explaining the specifications of the data structure shown in FIG. 3 in more detail, and is a diagram showing the relationship between object classes. The class here is the same as a term used in object-oriented programming such as a C ++ class. In addition, the class notation shown in FIG.
It is based on the ML (Uniformed Modeling Laguage) scheme.

【0035】図4において、図3の部分空間オブジェク
トのクラスは、本実施形態ではクラス「Frag」40
4になる。また属性情報オブジェクトのクラスは、クラ
ス「Attr」405になる。リンクオブジェクトのク
ラスは、クラス「Link」403になる。なお、本実
施形態では簡単のため、これらFragとAttrのク
ラスオブジェクトを統一的に扱えるスーパークラス「O
bject」402を用意する。Objectを設ける
ことにより、図3の部分空間の集合301と属性の集合
303とを1つの集合として簡単に扱うことができる。
Objectクラス402には、オブジェクトのクラス
がAttrかFragを区別するためのメンバ変数cl
assと、オブジェクトに名前をつけるためのメンバ変
数idがある。
In FIG. 4, the class of the subspace object in FIG.
It becomes 4. The class of the attribute information object is the class “Attr” 405. The class of the link object is the class “Link” 403. In this embodiment, for the sake of simplicity, a superclass “O” that can uniformly handle the Frag and Attr class objects is used.
object "402 is prepared. By providing the object, the set 301 of the subspace and the set 303 of the attributes in FIG. 3 can be easily handled as one set.
The object class 402 includes a member variable cl for distinguishing between Attr and Frag.
and a member variable id for naming the object.

【0036】また、本実施形態では、オブジェクトの選
択状態に応じてオブジェクトごとに色をつけて表示でき
るようにするため、selectColor変数も設け
ている。なおselectColorを設ける方法以外
に、選択状態変数selectなどを設けて、オブジェ
クト表示時に選択状態に従って色を選ぶ方法を採っても
良い。本実施形態では、さらに、selectColo
r変数をリスト型として実現することにより、1つのオ
ブジェクトに複数の色を同時に登録できるようにしてい
る。これにより、マウス選択状態の色だけでなく、選択
されたオブジェクトに関連づけられている部分空間や属
性情報などを別色で画面上に表示したり、ユーザが指定
した様々な検索条件ごとに別々の色を登録することもで
き、ユーザが画面を見た際に一目でオブジェクトの種別
を確認できるようになっている。
In the present embodiment, a variable selectColor is also provided so that objects can be displayed in different colors depending on the selected state of the objects. In addition to the method of providing selectColor, a method of selecting a color according to the selected state when displaying an object by providing a selection state variable select or the like may be adopted. In the present embodiment, selectColo
By realizing the r variable as a list type, a plurality of colors can be simultaneously registered in one object. As a result, not only the color of the mouse selected state, but also the subspace and attribute information associated with the selected object are displayed on the screen in different colors, and a separate search condition is specified for various search conditions specified by the user. Colors can also be registered, and the user can confirm the type of the object at a glance when looking at the screen.

【0037】Fragクラス404のメンバ変数には、
図3で説明したbegin,end,fileがある。
クラス「Meta」406は、複数の(属性名,属性
値)の情報をAttrクラス405に持たせるためにあ
る。Metaクラス406には、属性名を表すメンバ変
数nameと属性値を表すメンバ変数contents
がある。Attrクラス405では、このMetaクラ
スオブジェクトを複数持つために、集合型のメンバ変数
mlistを持っている。
The member variables of the Frag class 404 include:
There are begin, end, and file described in FIG.
The class “Meta” 406 is for providing the Attr class 405 with a plurality of (attribute name, attribute value) information. The Meta class 406 includes a member variable name representing an attribute name and a member variable contents representing an attribute value.
There is. The Attr class 405 has a set-type member variable mlist in order to have a plurality of Meta class objects.

【0038】Linkクラス403のメンバ変数には、
図3で説明したtype,src,dstがある。sr
cとdstは、共にObjectクラスオブジェクトを
参照できる。
The member variables of the link class 403 include:
There are type, src, and dst described in FIG. sr
Both c and dst can refer to an Object class object.

【0039】最後にクラス「本システム」401につい
て説明する。クラス「本システム」401には、表示・
編集する対象となるシーン情報として、部分空間と属性
情報の集合であるメンバ変数Sと、リンクの集合である
メンバ変数Lとを有している。
Finally, the class "this system" 401 will be described. The class “this system” 401 includes
The scene information to be edited includes a member variable S which is a set of a subspace and attribute information and a member variable L which is a set of links.

【0040】図5は、本実施形態のシステムの実行画面
の一例である。メインウィンドウ501の中には、シー
ン情報を分かりやすく表示するための3つの(サブ)ウ
ィンドウが表示されている。1つ目はタイムライン表示
ウィンドウ502、2つ目はアイコン表示ウィンドウ5
04、3つ目はテーブル表示ウィンドウ503である。
なお、これら以外にもシーン情報を画面上に表現できる
手段があれば、これら3種類のウィンドウは表示しなく
とも良い。また逆に、これらウィンドウはそれぞれ1枚
だけでなくとも、それぞれ複数枚設けても良い。複数枚
ウィンドウを設ければ、一つのシーン情報をより多面的
に把握することが可能となる。
FIG. 5 is an example of an execution screen of the system of this embodiment. In the main window 501, three (sub) windows for displaying scene information in an easy-to-understand manner are displayed. The first is a timeline display window 502 and the second is an icon display window 5
04 and the third is a table display window 503.
Note that, if there is a means other than these that can express scene information on the screen, these three types of windows need not be displayed. Conversely, not only one window but a plurality of windows may be provided. If a plurality of windows are provided, it is possible to grasp one scene information from multiple sides.

【0041】メインウィンドウ501には、メインメニ
ュー506が設けられており、これによりシーン情報の
ファイルの読み書きや、編集操作、検索操作などを指示
することができる。
The main window 501 is provided with a main menu 506, by which reading and writing of a file of scene information, editing operation, search operation, and the like can be instructed.

【0042】以降では、タイムライン表示ウィンドウ5
02、アイコン表示ウィンドウ504、およびテーブル
表示ウィンドウ503の順に内容を説明する。その後、
ユーザの操作方法について説明する。
Hereinafter, the timeline display window 5
02, the icon display window 504, and the table display window 503 in this order. afterwards,
A user operation method will be described.

【0043】タイムライン表示ウィンドウ502では、
画面上の横向きの時間軸に沿ってシーン情報を表示する
ことにより、シーン情報間の時間的な関係を一見にして
把握できる。本実施形態では、タイムライン表示ウィン
ドウ502に、属性付けの対象となる映像データ51
1、該映像に付随する音声データ512、およびユーザ
が付加した属性情報や部分空間などの情報を情報の種別
ごとに表示したユーザデータ513,514,515が
表示されている。なお、タイムライン表示ウィンドウ5
02では、ユーザデータが1本だけ時間軸上に表示され
ていれば良く(たとえば513だけ)、他のデータ51
1,512,514,515などは表示されていなくと
も良い。また、時間軸の向きは画面内で設定されていれ
ば、横向きだけでなく、縦向きでも、3次元表示中の奥
行き方向でも構わない。図5では、時間として0:00
から0:06まで時間区間のシーン情報を表示してい
る。映像データ511では、該時間区間中のフレーム画
像を表示している。音声データ512では、該時間区間
中の音声波形グラフを表示している。
In the timeline display window 502,
By displaying the scene information along the horizontal time axis on the screen, the temporal relationship between the scene information can be grasped at a glance. In the present embodiment, the video data 51 to be attributed is displayed in the timeline display window 502.
1, audio data 512 attached to the video, and user data 513, 514, and 515 in which information such as attribute information and partial space added by the user are displayed for each type of information. Note that the timeline display window 5
In 02, it is sufficient that only one user data is displayed on the time axis (for example, only 513), and the other data 51 is displayed.
1, 512, 514, 515, etc. need not be displayed. If the direction of the time axis is set within the screen, it may be not only horizontally but also vertically or in the depth direction during three-dimensional display. In FIG. 5, the time is 0:00.
From 0:06 to scene information of a time section. In the video data 511, a frame image in the time section is displayed. The audio data 512 displays an audio waveform graph during the time section.

【0044】ユーザデータのうち「部分空間一覧」51
3では、本システムが格納しているシーン情報のうち、
複数の部分空間オブジェクトを時間軸上に表現してい
る。たとえば、図3「部分空間1」311は、時間0:
00から0:01までの情報を表すデータであるが、こ
の情報は図5では画面上の0:00から0:01までに
表示されている部分空間バー521として表現される。
同様に、図3の「部分空間2」312,「部分空間3」
313は、部分空間バー522,523として表現され
る。このように部分空間オブジェクトは、メンバ変数b
egin,endの値に応じた画面上の座標位置に表示
される。この時間座標変換は、タイムライン表示ウィン
ドウ502の位置と幅、および同ウィンドウ内の表示開
始時間と終了時間から、単純な比例関係により計算でき
る。
"Partial space list" 51 of user data
In 3, the scene information stored in this system is
A plurality of subspace objects are represented on a time axis. For example, “subspace 1” 311 in FIG.
This is data representing information from 00 to 0:01, and this information is represented as a partial space bar 521 displayed from 0:00 to 0:01 on the screen in FIG.
Similarly, “subspace 2” 312 and “subspace 3” in FIG.
313 is represented as subspace bars 522, 523. Thus, the subspace object has the member variable b
It is displayed at a coordinate position on the screen according to the values of egin and end. This time coordinate conversion can be calculated by a simple proportional relationship from the position and width of the timeline display window 502, and the display start time and end time in the window.

【0045】なお、ユーザデータを「部分空間一覧」5
13、「字幕一覧」514、および「ズーム一覧」51
5のように分類して表示するためには、「部分空間一
覧」用と「字幕一覧」用と「ズーム一覧」用の3つのシ
ーン情報データを用意し、それぞれに対応するタイムラ
イン表示ウィンドウを別途作成すれば良い。シーン情報
データを別々に用意する簡単な方法としては、3つのシ
ーン情報ファイルを開いたり、1つのシーン情報ファイ
ル中に3つのパートを設けたりする方法がある。その他
の方法としては、1つのシーン情報データから、「字幕
一覧」に関する情報だけを検索し抽出することとしても
良い。これは言い換えると、シーン情報データを図3に
示したような集合として考えた場合、「部分空間一覧」
用部分集合、「字幕一覧」用部分集合、「ズーム一覧」
用部分集合を、抽出・表示することに相当する。
It should be noted that the user data is stored in the “subspace list” 5
13, “Subtitle list” 514, and “Zoom list” 51
In order to classify and display the data as shown in FIG. 5, three pieces of scene information data for “subspace list”, “subtitle list”, and “zoom list” are prepared, and the corresponding timeline display windows are provided. It may be created separately. As a simple method of preparing scene information data separately, there are a method of opening three scene information files and a method of providing three parts in one scene information file. As another method, it is also possible to search and extract only information relating to the “subtitle list” from one piece of scene information data. In other words, when the scene information data is considered as a set as shown in FIG.
Subset, "subtitle list" subset, "zoom list"
This is equivalent to extracting and displaying a subset for use.

【0046】なお、これら複数の部分集合は、互いに背
反でなくとも良く、共通部分を持っても良い。たとえ
ば、図3の集合に対し、「Aさん一覧」部分集合と「家
一覧」部分集合を定義した場合、「部分空間3」313
はどちらの部分空間にも属する。タイムライン表示ウィ
ンドウにて「Aさん一覧」部分集合と、「家一覧」部分
集合とを別々に表示すると、「部分空間3」の部分空間
バーは、どちらの表示にも現れることになる。
The plurality of subsets need not be mutually exclusive, and may have a common part. For example, if a “Ms. A list” subset and a “house list” subset are defined for the set of FIG.
Belongs to both subspaces. When the “A list” subset and the “house list” subset are separately displayed in the timeline display window, the subspace bar of “subspace 3” appears in both displays.

【0047】アイコン表示ウィンドウ504は、シーン
情報に含まれる部分空間オブジェクト、または属性オブ
ジェクトを、アイコン形式で視覚的に列挙表示するウィ
ンドウである。本ウィンドウを用いることにより、シー
ン情報に含まれる複数のオブジェクトを視覚的に一覧表
示でき、ユーザは一見にしてシーン情報の内容を把握で
きる。タイムライン表示では全体のうちある時間区間の
間のデータしか表示できないが、アイコン表示ウィンド
ウであれば、ある条件に従ったシーン情報を時間を無視
して列挙でき、より少ない画面スペースで多くのシーン
情報を閲覧できる。
The icon display window 504 is a window for visually enumerating and displaying subspace objects or attribute objects included in scene information in an icon format. By using this window, a plurality of objects included in the scene information can be visually displayed in a list, and the user can grasp the contents of the scene information at a glance. In the timeline display, only data during a certain time section of the whole can be displayed, but in the icon display window, scene information according to certain conditions can be enumerated ignoring time, and many scenes can be displayed in less screen space View information.

【0048】本実施形態では、アイコン表示ウィンドウ
に、図3の例で示した3つの部分空間、すなわち「部分
空間1」311、「部分空間2」312、および「部分
空間3」313の情報を、アイコン541,542,5
43として表示している。本実施形態の場合、アイコン
は、オブジェクトの中身を視覚的に表現する画像データ
と、それに付随する文字列から構成されている。本実施
形態では、部分空間オブジェクトのアイコンの場合、こ
の画像データとして、メンバ変数beginの時間位置
での、映像データのフレーム画像を用いている。これに
より、部分空間の内容を視覚的に把握できる。属性オブ
ジェクトを表すアイコンの場合や、音声データに対する
部分空間を表すアイコンの場合は、映像データから簡単
に画像を取得できないので、ある決まった図柄データを
用いればよい。
In the present embodiment, the information of the three subspaces shown in the example of FIG. 3, ie, “subspace 1” 311, “subspace 2” 312, and “subspace 3” 313, is displayed in the icon display window. , Icons 541, 542, 5
43 is displayed. In the case of the present embodiment, the icon is composed of image data that visually represents the contents of the object, and a character string attached thereto. In the present embodiment, in the case of the icon of the partial space object, a frame image of the video data at the time position of the member variable begin is used as the image data. Thereby, the contents of the subspace can be visually grasped. In the case of an icon representing an attribute object or an icon representing a partial space for audio data, an image cannot be easily obtained from video data, and thus, fixed pattern data may be used.

【0049】なお、アイコン画像は、1枚の静止画でな
くとも良い。たとえばアイコンに動画を用いる場合、部
分空間のbeginからendまでの映像を常時再生す
れば良い。その他、部分空間のbeginからendま
での任意の4枚程度の画像を並べたり切り換えたりして
1つのアイコン画像としても良い。
The icon image need not be a single still image. For example, when a moving image is used for the icon, the video from the begin to end of the subspace may be constantly reproduced. In addition, it is also possible to arrange or switch about four arbitrary images from begin to end of the partial space to form one icon image.

【0050】テーブル表示ウィンドウ503は、シーン
情報に含まれる部分空間オブジェクト、属性オブジェク
ト、およびリンクオブジェクトの内容(内容=メンバ変
数の値)を表形式で表示するウィンドウである。本ウィ
ンドウにより、タイムライン表示やアイコン表示では表
示しきれなかった詳細な属性情報をより多く表示するこ
とができる。ここでは処理方法の詳細を説明しないが、
本ウィンドウを用いて、ユーザは、内容の確認だけでな
く属性値の追加、削除、および変更などを行うこともで
きる。
The table display window 503 is a window for displaying the contents (contents = values of member variables) of the subspace objects, attribute objects, and link objects included in the scene information in a table format. With this window, more detailed attribute information that could not be displayed by the timeline display or the icon display can be displayed more. I will not explain the details of the processing method here,
Using this window, the user can not only check the contents but also add, delete, and change attribute values.

【0051】図5は、「部分空間3」523をマウス5
05で選択したときの画面であり、「部分空間3」に関
連する情報がテーブル表示ウィンドウ503にすべて表
示されている。たとえば531は、「Aさん」の属性と
して、「名前がA」で「年齢が26」であることを表し
ている。532は「家」の属性情報を表している。
FIG. 5 shows that “subspace 3” 523 is
This is the screen at the time of selection at 05, and all information related to “subspace 3” is displayed in the table display window 503. For example, 531 indicates that “name is A” and “age is 26” as attributes of “A”. Reference numeral 532 represents attribute information of “house”.

【0052】なお、本ウィンドウ503に属性情報では
なく部分空間オブジェクトの情報を表示する場合は、部
分空間の名前と、メンバ変数begin,end,sr
cなどの値を表示すれば良い。本ウィンドウ503にリ
ンク情報を表示する場合は、メンバ変数type,sr
c,dstの値などを表示すれば良い。なお、部分空間
オブジェクトやリンクオブジェクトの詳細を表示する
と、表が大きくなり分かり難くなるので、属性情報だけ
を表に表示するようなオプションを用意しても良い。
When displaying the information of the subspace object instead of the attribute information in the window 503, the name of the subspace and the member variables begin, end, sr
A value such as c may be displayed. When displaying link information in this window 503, the member variables type, sr
The values of c and dst may be displayed. When the details of the subspace object and the link object are displayed, the table becomes large and difficult to understand. Therefore, an option for displaying only the attribute information in the table may be prepared.

【0053】また、表を見やすくするために、表の横に
ツリー構造の表示を追加しても良い。たとえば、現在5
31では、「attr,Aさん」の行の下にそのまま
「名前」と「年齢」を表示しているが、ツリー構造の表
示であれば、「attr,Aさん」を親ノードとし、
「名前」と「年齢」をその子ノードとすれば、より分か
りやすい表示となる。同様にリンクオブジェクトを親ノ
ードとし、リンク先データを子ノードとして表示すれ
ば、ツリー構造表示の操作だけで、リンク先の詳細な内
容を確認できるようになる。
Further, in order to make the table easy to see, a display of a tree structure may be added beside the table. For example, currently 5
In 31, “name” and “age” are displayed as they are below the line of “attr, A”, but in the case of a tree structure display, “attr, A” is the parent node,
If "name" and "age" are the child nodes, the display will be easier to understand. Similarly, if the link object is set as a parent node and the link destination data is displayed as a child node, the detailed contents of the link destination can be confirmed only by the operation of displaying the tree structure.

【0054】図5の最後の説明として、ユーザの操作方
法について簡単に説明する。以降ではまずクリック時の
選択操作を述べ、次に編集操作方法について述べる。
As a final explanation of FIG. 5, a method of operation by the user will be briefly described. Hereinafter, first, the selection operation at the time of clicking will be described, and then the editing operation method will be described.

【0055】ユーザは、視覚的に表現されたシーン情報
をマウス505を用いて操作することができる。たとえ
ばユーザが「部分空間3」に対応するタイムライン表示
(部分空間バー)523をクリックすると、部分空間バ
ー523が選択表示される。この際、本実施形態では、
アイコン表示ウィンドウ504に表示されている同一デ
ータ543も選択表示される。またこの際、本実施形態
では、選択されたオブジェクト自身とそれに関連する属
性情報オブジェクトが、テーブル表示ウィンドウ503
に表示されるようになっている。
The user can operate the visually represented scene information by using the mouse 505. For example, when the user clicks the timeline display (subspace bar) 523 corresponding to “subspace 3”, the subspace bar 523 is selectively displayed. At this time, in the present embodiment,
The same data 543 displayed in the icon display window 504 is also selectively displayed. At this time, in the present embodiment, the selected object itself and the attribute information object related thereto are displayed in the table display window 503.
Is displayed.

【0056】また、本実施形態では、オブジェクトがク
リックされて選択状態になると、そのオブジェクトに関
連する(すなわち、リンクが張られた)オブジェクト
が、関連選択表示という、選択表示とは違う色で表現さ
れる。たとえば、「部分空間3」523と「字幕3」5
51および「ズーム2」552とに「包含」関係のリン
クが張られていたとすると、「字幕3」551および
「ズーム2」552は、選択中の「部分空間3」523
とは別色で表示される。
In the present embodiment, when an object is clicked to be in a selected state, an object related to the object (ie, a linked object) is expressed in a related selection display, a color different from the selection display. Is done. For example, “subspace 3” 523 and “subtitle 3” 5
Assuming that a link of a “containment” relationship has been established between the “subtitle 3” 551 and the “zoom 2” 552, the “subtitle 3” 523 is selected.
It is displayed in a different color from.

【0057】また、本実施形態では、ある条件に従った
シーン情報だけを別の色で表現することもできる。たと
えば、Aさんが現れるシーンを青色に、またあるCM映
像だけを緑色に、またエンディングシーンを非表示に
(透明に)、またあるシーンに登場する(と関連付けら
れている)人物をすべて赤色に、それぞれ表示すること
もできる。この具体的な操作方法や実現方法は、後の構
造化フローチャートにて説明する。
In the present embodiment, only scene information according to a certain condition can be expressed in another color. For example, the scene in which Mr. A appears is blue, only a certain CM image is green, the ending scene is hidden (transparent), and all the characters appearing in (associated with) a certain scene are red. , Respectively. This specific operation method and realization method will be described later in a structured flowchart.

【0058】以上のように本実施形態では、シーン情報
中の複雑な関連情報を色分けして表示することにより、
シーン情報をより簡単に把握することができる。
As described above, in the present embodiment, complex related information in the scene information is displayed in different colors.
Scene information can be grasped more easily.

【0059】次に、本実施形態のシステムにおける編集
操作方法について簡単に説明する。タイムライン表示ウ
ィンドウ502では、ユーザはウィンドウ内の一時間点
を指定して部分空間を追加・削除できる。また部分空間
バーの時間位置をマウスのドラッグにより変更できる。
また複数の部分空間を選択してリンクを設定することが
できる。アイコン表示ウィンドウ504では、部分空間
や属性情報を追加・削除できる。テーブル表示ウィンド
ウ503では、属性値を変更することができる。部分空
間、属性情報、あるいはリンク情報を追加・削除した場
合は、図3で示した集合301,302,303に対し
て要素の追加・削除を行えば良い。オブジェクトの値を
変更する場合は、ユーザが選択した座標位置から対応オ
ブジェクト集合を探し出して、オブジェクトの値を変更
すれば良い。より具体的な編集操作の実現方法について
は、図15の構造化フローチャートなどを用いて説明す
る。
Next, an editing operation method in the system of the present embodiment will be briefly described. In the timeline display window 502, the user can add / delete a partial space by specifying an hour point in the window. The time position of the subspace bar can be changed by dragging the mouse.
Also, a link can be set by selecting a plurality of subspaces. In the icon display window 504, a subspace and attribute information can be added and deleted. In the table display window 503, the attribute value can be changed. When the partial space, attribute information, or link information is added or deleted, elements may be added or deleted from the sets 301, 302, and 303 shown in FIG. When changing the value of an object, a corresponding object set may be searched from the coordinate position selected by the user, and the value of the object may be changed. A more specific method of implementing the editing operation will be described with reference to the structured flowchart in FIG.

【0060】次に、図6、図7、図8、図9、および図
10の構造化フローチャートを用いて本実施形態におけ
る画面表示の処理方式を説明する。図6は、本実施形態
のシステムのメイン処理である。図7は、タイムライン
表示処理である。図8は、アイコン表示処理である。図
9は、テーブル表示処理とそれに関わるサブルーチンで
ある。図10は、ユーザマウスクリック時の選択処理と
それに関わるサブルーチンである。
Next, a screen display processing method in the present embodiment will be described with reference to the structured flowcharts of FIGS. 6, 7, 8, 9 and 10. FIG. 6 shows a main process of the system according to the present embodiment. FIG. 7 shows a timeline display process. FIG. 8 shows an icon display process. FIG. 9 shows a table display process and a subroutine related thereto. FIG. 10 shows a selection process at the time of a user mouse click and a subroutine related thereto.

【0061】まず図6の本実施形態のシステムのメイン
処理600を説明する。
First, the main processing 600 of the system according to the present embodiment shown in FIG. 6 will be described.

【0062】システムが起動されると、まずステップ6
01で、本システムが持つメンバ変数であるObjec
tの集合S0(=部分空間の集合∪属性の集合)とLi
nkの集合L0を初期化する。この初期化の方法として
は、次のようにする。新規作成の場合、S0=L0=φ
として初期化すれば良い。ファイルから読み込む場合
は、ユーザが指定したシーン情報のファイルを読み込
み、S0とL0に代入すれば良い。その他の方法として
は、DBの映像検索結果をシーン情報としてS0とL0
に代入したり、(株)日立製作所製の映像解析ライブラリ
Mediachef Componentを用いて解析した映像データのシ
ーン情報をS0とL0に追加したりしても良い。なお、
このS0とL0を合わせたものが本実施形態でのメディ
アシーン情報全体であり、S0とL0を格納するメモリ
領域がメディアシーン情報格納手段となっている。
When the system is started, first, step 6
01, Objectc which is a member variable of this system
set S0 of t (= set of subspaces 集合 set of attributes) and Li
The set L0 of nk is initialized. The method of this initialization is as follows. For new creation, S0 = L0 = φ
It may be initialized as When reading from a file, a file of the scene information designated by the user may be read and assigned to S0 and L0. As another method, the video search results of the DB are used as scene information for S0 and L0.
Or a video analysis library manufactured by Hitachi, Ltd.
Scene information of video data analyzed using Mediachef Component may be added to S0 and L0. In addition,
The sum of S0 and L0 is the entire media scene information in the present embodiment, and the memory area storing S0 and L0 is the media scene information storage means.

【0063】次にステップ602にて、画面の表示処理
やマウスの選択処理などで用いるマウス選択オブジェク
ト集合SS、および関連オブジェクト集合SRと、検索
処理で用いる登録条件リストCLを空集合φで初期化す
る。
Next, in step 602, a mouse selected object set SS and a related object set SR used in screen display processing and mouse selection processing, and a registration condition list CL used in search processing are initialized with an empty set φ. I do.

【0064】次にステップ700にて、タイムライン表
示ウィンドウ502を作成して、タイムライン表示処理
DrawTimeLine(S0, L0)を呼び出すことにより、タイムラ
イン表示ウィンドウ502を初期描画する。ステップ8
00にて、アイコン表示ウィンドウ504を作成して、
アイコン表示処理DrawIcon(S0, L0)を呼び出すことによ
り、アイコン表示ウィンドウ504を初期描画する。ス
テップ900にて、テーブル表示ウィンドウ503を作
成して、テーブル表示処理DrawTable(SS, L0)を呼び出
すことにより、テーブル表示ウィンドウ503を初期描
画する。本実施形態では、DrawTableのパラメタとして
現在選択されているシーン情報の集合SSを渡してい
る。これにより、テーブル表示ウィンドウ503では、
現在選択中のシーン情報だけについて詳細な内容を表示
することができる。
Next, at step 700, a timeline display window 502 is created and a timeline display process is performed.
The timeline display window 502 is initially drawn by calling DrawTimeLine (S0, L0). Step 8
At 00, an icon display window 504 is created,
By calling the icon display process DrawIcon (S0, L0), the icon display window 504 is initially drawn. In step 900, the table display window 503 is created, and the table display window 503 is initially drawn by calling the table display process DrawTable (SS, L0). In the present embodiment, a set SS of scene information currently selected is passed as a parameter of DrawTable. Thereby, in the table display window 503,
Detailed contents can be displayed for only the currently selected scene information.

【0065】なお、図5の説明でも述べたように、これ
ら3種類のウィンドウは複数作成しても良いし、別の表
示手段を用いる場合は表示しなくとも良い。
As described with reference to FIG. 5, a plurality of these three types of windows may be created, or may not be displayed when another display means is used.

【0066】次にループ処理603にて、ユーザ終了指
示があるまで、ステップ621以降のユーザ操作解析処
理を繰り返す。ユーザ操作解析処理では、ステップ62
1で、入力装置115からのユーザ指示を待ち、次にス
テップ622にて、ユーザ指示に従ったユーザ操作処理
を行う。ユーザがマウスなどをクリックした場合は、ス
テップ1000にて選択処理を呼び出す。ユーザが部分
空間や属性情報やリンク情報などのオブジェクトの追加
・削除・変更指示をした場合は、ステップ1500に
て、その編集指示に従った編集処理を行う。ユーザが検
索メニューを選択した場合は、ステップ632にて検索
処理を行う。なお、検索処理632のフローチャートに
ついては、検索メニューのうち、条件の登録メニュー
と、既に登録された条件のメニューのみについて後述す
る。
Next, in a loop process 603, the user operation analysis process from step 621 is repeated until a user end instruction is issued. In the user operation analysis process, step 62
In step 1, the user waits for a user instruction from the input device 115, and then in step 622, a user operation process according to the user instruction is performed. When the user clicks the mouse or the like, a selection process is called in step 1000. When the user gives an instruction to add / delete / change an object such as a partial space, attribute information, or link information, in step 1500, an editing process is performed in accordance with the editing instruction. When the user selects the search menu, a search process is performed in step 632. Note that, regarding the flowchart of the search process 632, only the condition registration menu and the already registered condition menu among the search menus will be described later.

【0067】次に図7を用いて、タイムライン表示処理
DrawTimeLine(S,L)(ステップ700)を説明する。Dra
wTimeLine()の入力パラメタとして、表示対象となるO
bjectの集合S(=部分空間の集合∪属性の集合)
とLinkの集合Lが渡される。
Next, a time line display process will be described with reference to FIG.
DrawTimeLine (S, L) (step 700) will be described. Dra
As an input parameter of wTimeLine (), O
b set of objects (= set of subspaces∪set of attributes)
And a set L of Link.

【0068】まずステップ701では、部分空間と属性
情報からなるオブジェクトの集合Sから、部分空間だけ
からなる集合を抽出するために、集合Sの全要素を調
べ、集合Sの要素eのメンバ変数classの値が"frag"で
ある要素だけを取り出し、それを集合Fに追加する処理
を行う。なお、処理の効率化のため、あらかじめ集合S
を部分空間の集合Fと属性の集合とに分割しておいても
良い。次に部分空間の集合Fの全ての要素eに対して、
タイムライン表示の部分空間バーを表示するため、ルー
プ処理702を行う。
First, in step 701, all elements of the set S are examined to extract a set consisting of only the subspace from the set S of objects consisting of the subspace and the attribute information, and the member variable class of the element e of the set S is extracted. Is performed to extract only the element whose value is “frag” and add it to the set F. Note that the set S
May be divided into a set F of subspaces and a set of attributes. Next, for all elements e of the set F of subspaces,
A loop process 702 is performed to display the partial space bar of the timeline display.

【0069】ループ処理702の中では、まずステップ
711にて、e.beginの時間値とe.endの時間値を、画面
上の時間軸の座標位置bx,exに変換する。ある時間
tを画面上の座標xに変換するには、 座標x=時間to座標変換(t) =(t−画面上の時間軸の開始時間)÷ (画面上の時間軸の終了時間−開始時間)× 画面上の時間軸の幅+画面上の時間軸開始座標 とすれば良い。
In the loop process 702, first, in step 711, the time value of e.begin and the time value of e.end are converted into the coordinate position bx, ex on the time axis on the screen. To convert a certain time t to a coordinate x on the screen, coordinate x = time to coordinate conversion (t) = (t−start time of time axis on screen) ÷ (end time of time axis on screen−start) Time) x width of the time axis on the screen + start coordinate of the time axis on the screen.

【0070】次にステップ712にて、部分空間バーの
外枠を描画するために、左上座標(bx,0)、右下座
標(ex,10)の四角形を描画する。次に部分空間バ
ーの中に部分空間の名称e.idを表示する。場所は(b
x,0)とする。次にステップ713にて、部分空間バ
ーの先頭位置に小さなアイコン画像を表示する。これに
より、部分空間バーだけを見てもどのような内容の映像
データかを瞬時に確認できるようになる。画像は、e.fi
leに指定された映像ファイルを開き、その中の時間位置
e.beginにあるフレーム画像を表示する。画像の表示位
置は座標(bx,30)とし、先の文字列より若干下に
表示する。
Next, at step 712, a rectangle having upper left coordinates (bx, 0) and lower right coordinates (ex, 10) is drawn to draw the outer frame of the partial space bar. Next, the subspace name e.id is displayed in the subspace bar. The location is (b
x, 0). Next, in step 713, a small icon image is displayed at the head position of the partial space bar. As a result, it is possible to instantly confirm what kind of content the video data is by looking only at the partial space bar. The image is e.fi
Open the video file specified as le and the time position in it
Display the frame image in e.begin. The display position of the image is set to coordinates (bx, 30) and is displayed slightly below the preceding character string.

【0071】最後にステップ714にて、ステップ71
2で表示した四角形を、オブジェクトの表示色情報であ
る、e.selectColorを用いて表示する。たとえば、e.sel
ectColorの色を、図5の選択状態の部分空間523のよ
うに四角形の塗りつぶし色として表示しても良いし、同
図の関連選択中の部分空間551のように、四角形の枠
の色として表示しても良い。なお、selectColorには複
数の色が同時に登録されている場合があるが、この場合
は、部分空間を複数の別々の色枠で囲ったり、部分空間
の上部に小さな旗のようなカラーのアイコンを色の数だ
け並べるなどの画面上で識別可能な方法を取れば良い。
その他にも、selectColorの色リストが空の場合や、あ
る決められた透明色などが設定されていた場合は、該当
する部分空間を表示しない方法でもよい。加えて言え
ば、オブジェクトの選択状態や検索結果状態を示すsele
ctColorを、現在は色を用いて画面上のオブジェクトと
多重表示させているが、色以外にも画面上で識別可能な
表現形式を用いて、これらの識別状態を表現しても良
い。たとえば、部分空間の塗りつぶし模様を選択状態に
よって変化させたり、識別番号や識別文字列や識別アイ
コンなどを用いた小さな旗状のアイコンを識別状態ごと
に画面上に表示しても良い。
Finally, at step 714, step 71
The rectangle indicated by 2 is displayed using e.selectColor, which is the display color information of the object. For example, e.sel
The color of ectColor may be displayed as a square fill color as in the selected subspace 523 in FIG. 5, or may be displayed as a square frame color as in the related selected subspace 551 in FIG. You may. Note that multiple colors may be registered in selectColor at the same time.In this case, the subspace is surrounded by a plurality of different color frames, or a color icon such as a small flag is placed at the top of the subspace. What is necessary is just to take the method which can be distinguished on the screen, such as arranging by the number of colors.
In addition, when the color list of selectColor is empty, or when a predetermined transparent color or the like is set, a method of not displaying the corresponding partial space may be used. In addition, sele indicating the selection state and search result state of the object
At present, ctColor is multiplexed with objects on the screen using colors, but these identification states may be expressed using an expression format that can be identified on the screen other than colors. For example, the fill pattern of the partial space may be changed depending on the selected state, or a small flag-like icon using an identification number, an identification character string, an identification icon, or the like may be displayed on the screen for each identification state.

【0072】なお、図7のタイムライン表示処理700
では、部分空間のみをタイムライン表示の対象とした
が、属性についても次の方法によりタイムライン表示を
適用することができる。そのためにはまず、ある属性a
にリンクされているオブジェクトの集合を後述(ステッ
プ902)の関数GetLinkedObj( a, L0 )で取り出した
後、この集合を新しいSとして、ステップ701および
ループ処理702を行えば良い。表示対象が複数の属性
からなる集合の場合は、先の一属性の表示処理を全属性
分だけ繰り返せば良い。
The time line display processing 700 shown in FIG.
In the above, only the partial space is subjected to the timeline display, but the timeline display can be applied to the attribute by the following method. To do so, first, a certain attribute a
After extracting a set of objects linked to, by a function GetLinkedObj (a, L0) described later (step 902), this set is set as a new S, and the step 701 and the loop processing 702 may be performed. In the case where the display target is a set including a plurality of attributes, the display processing of the one attribute may be repeated for all attributes.

【0073】次に図8を用いて、アイコン表示処理Draw
Icon(S,L)(ステップ800)を説明する。DrawIcon()
の入力パラメタには、ステップ700のDrawTimeLine()
と同様のObjectの集合SとLinkの集合Lが渡
される。
Next, referring to FIG. 8, the icon display processing Draw
Icon (S, L) (step 800) will be described. DrawIcon ()
DrawTimeLine () in step 700
A set S of objects and a set L of links are passed.

【0074】まずステップ801では、ステップ701
と同様の方法により、集合Sから部分空間の集合Fを抽
出する。次にステップ802で、アイコンの表示座標
x,yを左上座標(0,0)に初期化する。次に部分空
間の集合Fの全ての要素eに対して、アイコンを表示す
るため、ループ処理803を行う。
First, in step 801, step 701 is executed.
A set F of subspaces is extracted from the set S by the same method as in. Next, in step 802, the display coordinates x, y of the icon are initialized to the upper left coordinates (0, 0). Next, a loop process 803 is performed to display icons for all elements e of the set F of the subspace.

【0075】ループ処理803の中では、まずステップ
811にて、映像データe.fileのe.beginの時間位置の
フレーム画像を、座標(x,y)に表示する。次にステ
ップ812にて、部分空間の名前e.id、開始時間e.begi
n、および終了時間e.endを文字列にて表示する。文字列
の表示位置は画像の下とするため、座標(x,y+画像
の高さ)とする。次にステップ813にて、画像と文字
列のある所をオブジェクトの選択状態の色e. selectCol
orを用いて表示する。
In the loop processing 803, first, at step 811, a frame image at the time position of e.begin of the video data e.file is displayed at coordinates (x, y). Next, in step 812, the name e.id of the subspace and the start time e.begi
Displays n and end time e.end as character strings. Since the display position of the character string is below the image, the coordinates are (x, y + the height of the image). Next, in step 813, the place where the image and the character string are located is the color of the selected state of the object e. SelectCol
Display using or.

【0076】次に、アイコンの表示位置を変更する処理
を行う。ステップ814では、次のアイコンを右横に表
示するため、xにアイコンの幅と、アイコン間のスペー
スの幅(隙間幅)を足す。この際、xがアイコン表示ウ
ィンドウ504の幅を超えた場合(条件815)、ステ
ップ821にて、xの位置を左に戻し、表示位置を改行
すため、x←0とし、yにアイコンの高さ(画像と文字
列の高さ)と縦方向スペースの高さを足す。もちろん、
y座標がアイコン表示ウィンドウ504の高さを超えた
場合はループ803を停止する処理を入れても良い。
Next, a process of changing the display position of the icon is performed. In step 814, the width of the icon and the width of the space between the icons (gap width) are added to x in order to display the next icon on the right side. At this time, if x exceeds the width of the icon display window 504 (condition 815), in step 821, the position of x is returned to the left, and the display position is line-feeded. Add the height (the height of the image and text) and the height of the vertical space. of course,
If the y coordinate exceeds the height of the icon display window 504, a process for stopping the loop 803 may be included.

【0077】本実施形態のアイコン表示処理800は、
部分空間のみを表示対象としていたが、以下の処理を追
加することにより、属性情報やリンク情報もアイコン表
示することが可能である。たとえばステップ803の後
に、オブジェクトの集合Sから属性情報の集合Aだけを
抜き出す処理(A←S−F)を行い、抜き出した全ての
属性情報に対して、一属性情報のアイコン表示処理を繰
り返せば良い。一属性情報をアイコンとして表す場合、
アイコン画像として、属性を表す既定の図形を用い、ア
イコン文字列として、属性情報が有するmeta情報
(=(属性名,属性値)の集合)を用いれば良い。
The icon display processing 800 according to the present embodiment
Although only the partial space is a display target, attribute information and link information can also be displayed as icons by adding the following processing. For example, after step 803, a process of extracting only the set A of attribute information from the set S of objects (A ← SF) is performed, and the icon display process of one attribute information is repeated for all extracted attribute information. good. When representing one attribute information as an icon,
As the icon image, a predetermined figure indicating an attribute may be used, and as the icon character string, meta information (= (attribute name, attribute value) set) included in the attribute information may be used.

【0078】表示処理の説明の最後として、図9を用い
て、テーブル表示処理DrawTable(S,L)(ステップ90
0)と、それに関わるサブルーチンを説明する。テーブ
ル表示処理DrawTable()の入力パラメタには、ステップ
700のDrawTimeLine()と同じ、Objectの集合S
とLinkの集合Lが渡される。
At the end of the description of the display processing, table display processing DrawTable (S, L) (step 90) will be described with reference to FIG.
0) and its related subroutines will be described. The input parameters of the table display process DrawTable () include the same set of Objects S as in DrawTimeLine () in step 700.
And a set L of Link.

【0079】まずステップ901では、オブジェクトの
集合Sに関連付けられているオブジェクトをすべて抽出
する関数GetLinkedObjSet()を用いて、現在の選択状態
Sに関連するオブジェクトを集合Rに代入する。次にル
ープ処理902にて、関連オブジェクトの集合Rのすべ
ての要素eに対して、その内容をテーブルの行として出
力する処理を繰り返す。
First, in step 901, the object associated with the current selected state S is assigned to the set R by using a function GetLinkedObjSet () for extracting all objects associated with the object set S. Next, in a loop process 902, a process of outputting the contents of all the elements e of the set R of the related objects as rows of the table is repeated.

【0080】ループ処理902では、まず条件ステップ
911にて、オブジェクトの種別ごとのテーブル出力処
理を行う。要素eの種別が属性情報の場合(e.class="a
ttr"の場合)、ステップ921以降にて属性情報の詳細
を出力する処理を行う。まずループ処理921で、属性
情報eが持つ(属性名,属性値)のmeta集合を出力
するため、meta集合e.mlistの全ての要素mに対し
て、ステップ922の処理を行う。ステップ922で
は、1つのmetaオブジェクトmをテーブルに追加す
るために、表の行オブジェクトを作成し、行の「ID」欄
をe.id、行の「名前」欄をm.name、行の「値」欄をm.co
ntentsとし、最後にこの行オブジェクトをテーブルに追
加している。なお、図5のテーブル表示ウィンドウ50
3では、「ID」欄を表示していない。
In the loop processing 902, first, in a conditional step 911, table output processing is performed for each type of object. When the type of element e is attribute information (e.class = "a
In the case of "ttr"), the process of outputting the details of the attribute information is performed in step 921 and thereafter. First, in the loop process 921, the metadata set of (attribute name, attribute value) included in the attribute information e is output. The process of step 922 is performed on all elements m of e.mlist. In step 922, a row object of the table is created to add one meta object m to the table, and the “ID” column of the row is created. E.id, m.name in the “name” column of the row, m.co in the “value” column of the row
ntents, and finally this row object is added to the table. The table display window 50 shown in FIG.
In No. 3, the "ID" column is not displayed.

【0081】条件ステップ911にて、要素eの種別が
部分空間であった場合、ステップ925にて3つの行を
追加する。ステップ925で表に追加される行は、映像
ファイル名(e.id, "file", e.file)と、開始時間(e.i
d, "begin", e.begin)と、終了時間(e.id, "end", e.en
d)である。
If the type of the element e is a partial space in the conditional step 911, three rows are added in a step 925. The row added to the table in step 925 includes a video file name (e.id, "file", e.file) and a start time (ei.
d, "begin", e.begin) and end time (e.id, "end", e.en
d).

【0082】ステップ912では、今回ステップ922
や925で追加したテーブルの行をオブジェクトの選択
状態の色e.selectColorを用いて表示する。
In step 912, this time step 922
And 925 are displayed using the color e.selectColor of the selected state of the object.

【0083】次にサブルーチン関数であるステップ90
1のGetLinkedObjSet(S,L)の詳細を説明する。この関数
の入力パラメタはオブジェクトの集合Sとリンクの集合
Lであり、この関数のリターン値は、オブジェクトの集
合Sに関連付けられているオブジェクトをすべて抽出し
た集合である。この処理では、まずステップ941でリ
ターン値となる集合Rを空集合φで初期化し、次に集合
Sの全ての要素eに対してループ処理942を行うこと
により、結果集合Rを求めていく。ループ処理942で
は、まずステップ951にて、要素eに関連付けられて
いるObjectの集合をGetLinkedObj(e,L)により求
め、SLに代入する。次のステップ952では、求めた
集合SLを結果集合Rに追加する。最後にステップ94
3にて、全ての要素に対して求めた関連オブジェクトの
集合Rをリターンする。
Next, step 90 which is a subroutine function
The details of No. 1 GetLinkedObjSet (S, L) will be described. The input parameters of this function are a set S of objects and a set L of links, and the return value of this function is a set obtained by extracting all objects associated with the set S of objects. In this process, a set R, which is a return value, is initialized with an empty set φ in step 941, and a loop process 942 is performed on all elements e of the set S, thereby obtaining a result set R. In the loop processing 942, first, in step 951, a set of objects associated with the element e is obtained by GetLinkedObj (e, L), and is substituted into SL. In the next step 952, the obtained set SL is added to the result set R. Finally step 94
At 3, the set R of related objects determined for all elements is returned.

【0084】図9の最後として、サブルーチンGetLinke
dObj(e,L) (ステップ951)の詳細を説明する。この
関数の入力パラメタは1つのオブジェクトeとリンクの
集合Lであり、この関数のリターン値は、1つのオブジ
ェクトeに関連付けられているオブジェクトをすべて抽
出した集合である。この処理では、まずステップ971
で、リターン値となる集合SLを空集合φで初期化し、
次にリンク集合Lの全ての要素linkに対してループ
処理972を行うことにより、結果集合SLを求めてい
く。ループ処理972では、まずステップ981にて、
リンクlinkの内容を調べる。リンクlinkのリン
ク元が自オブジェクトeの場合、結果集合SLにリンク
先のオブジェクトlink.dstを加える(ステップ98
3)。リンクlinkのリンク先が自オブジェクトeの
場合、結果集合SLにリンク元のオブジェクトlink.src
を加える(ステップ985)。最後にステップ973に
て、全てのリンク要素に対して求めた関連オブジェクト
の集合SLをリターンする。
As the last part of FIG. 9, the subroutine GetLinke
Details of dObj (e, L) (step 951) will be described. The input parameter of this function is a set L of one object e and a link, and the return value of this function is a set obtained by extracting all objects associated with one object e. In this processing, first, step 971
Then, a set SL which is a return value is initialized with an empty set φ,
Next, a result set SL is obtained by performing a loop process 972 on all the elements link of the link set L. In the loop process 972, first, in step 981,
Check the contents of the link. If the link source of the link is the own object e, the link destination object link.dst is added to the result set SL (step 98).
3). If the link destination of the link "link" is the own object e, the link set object link.src is added to the result set SL.
Is added (step 985). Finally, in step 973, the set SL of related objects obtained for all link elements is returned.

【0085】図10は、ユーザのクリック入力に対する
選択処理(ステップ1000)の詳細である。この処理
の入力は、ユーザがクリックした座標位置(x,y)であ
る。
FIG. 10 shows the details of the selection process (step 1000) in response to the user's click input. The input of this processing is the coordinate position (x, y) clicked by the user.

【0086】まずステップ1001にて、ユーザがクリ
ックした位置の現在の表示形式を調べる。
First, in step 1001, the current display format of the position clicked by the user is checked.

【0087】表示形式がタイムライン表示の場合、ステ
ップ1011以降にて、選択された部分空間を特定する
処理を行う。まずステップ1011にて、クリック位置
xの座標値を画面時間軸上の時間値に変更し、選択時間
tに代入する。この計算は、ステップ711で説明した
関数である時間to座標変換(t)の逆関数を用いれば良
い。次にステップ1012にて、選択時間tを含む部分
空間オブジェクトをオブジェクトの集合S0から抽出す
るため、関数FindObject()を呼び出し、その結果を新し
い選択集合SSnewに代入する。FindObject関数で
は、検索条件としてユーザがクリックした時間位置tを
含むことを表す条件関数Within(*,t,t)をパラメタとし
て指定している。この指定は、区間t〜t、つまり時点
tを含むオブジェクトの抽出を行なうことを指定するも
のである。条件関数の利用方法およびその定義の詳細
は、後述の検索処理の実現方法にて説明する。
When the display format is the timeline display, a process for specifying the selected partial space is performed in step 1011 and thereafter. First, in step 1011, the coordinate value of the click position x is changed to a time value on the screen time axis, and is substituted for the selection time t. For this calculation, the inverse function of the time-to-coordinate transformation (t), which is the function described in step 711, may be used. Next, in step 1012, a function FindObject () is called to extract a subspace object including the selection time t from the object set S0, and the result is substituted into a new selection set SSnew. In the FindObject function, a condition function Within (*, t, t) indicating that a time position t clicked by the user is included as a search condition is specified as a parameter. This designation designates that an object including the section tt, that is, the object including the time point t is to be extracted. Details of how to use the conditional function and its definition will be described in a method of implementing search processing described later.

【0088】ステップ1001において、クリックした
位置の表示形式がアイコンであった場合、ステップ10
14にて、選択されたアイコンからそれに対応する部分
空間オブジェクトを取得し、それを新しい選択集合SS
newに設定する。これを実現するには、アイコンを描
画する際に、アイコンの表示位置や画像を覚えておく表
示用アイコン情報の中に、対応する部分空間オブジェク
トを登録しておけば良い。
In step 1001, if the display format of the clicked position is an icon, step 10
At 14, the corresponding subspace object is obtained from the selected icon and is assigned to a new selection set SS.
Set to new. In order to realize this, when drawing the icon, the corresponding partial space object may be registered in the display icon information for remembering the display position and the image of the icon.

【0089】ステップ1001において、クリックした
位置の表示形式がテーブルであった場合、ステップ10
17にて、クリックされた行のみを選択表示し、ステッ
プ1018にて、本選択処理1000を終了する。ここ
で関数を終了する理由は、他の表示形式と同様にクリッ
ク時に選択状態を変更してしまうと、テーブルをクリッ
クしただけで、後の表示の更新処理にて自分自身のテー
ブルの表示内容が変更されてしまい、正しく情報を操作
できないためである。ここでは、テーブルをクリックし
た場合だけ、選択状態を変更しないようにしている。
If the display format of the clicked position is a table in step 1001, step 10
At 17, only the clicked line is selected and displayed, and at step 1018, the main selection processing 1000 is terminated. The reason for terminating the function here is that if you change the selection state when clicking like other display formats, just click on the table and the display contents of your own table will be updated in the subsequent display update process This is because the information has been changed and the information cannot be operated correctly. Here, the selection state is not changed only when the table is clicked.

【0090】ステップ1002では、ユーザが選択した
オブジェクトの集合SSnewに関連付けられているオ
ブジェクトの集合を、GetLinkedObject(SSnew,L0)によ
り求めて、関連集合SRnewに代入する。最後にステ
ップ1003にて、マウスの選択状態を本関数で求めた
SSnewとSRnewで更新する。
At step 1002, a set of objects associated with the set of objects SSnew selected by the user is obtained by GetLinkedObject (SSnew, L0), and is substituted into the related set SRnew. Finally, in step 1003, the selection state of the mouse is updated with SSnew and SRnew obtained by this function.

【0091】ステップ1003のマウス選択の更新処理
NewSelectionについて詳しく説明する。本関数のパラメ
タは、新しい選択オブジェクトの集合SSnewと、新
しい関連オブジェクトの集合SRnewである。
Update processing of mouse selection in step 1003
NewSelection will be described in detail. The parameters of this function are a new set of selected objects SSnew and a new set of related objects SRnew.

【0092】まずステップ1051にて、現在選択され
ているオブジェクトに登録されているマウス選択色とマ
ウス選択関連色を取り除く。具体的には、グローバル変
数SS(選択状態の集合)とSR(関連選択状態の集
合)に含まれる全てのオブジェクトobjに対してルー
プを行い、選択色リストobj.selectColorから、マウス
選択色とマウス関連選択色を削除する。
First, in step 1051, the mouse selection color and the mouse selection related color registered in the currently selected object are removed. Specifically, a loop is performed for all objects obj included in the global variables SS (set of selected states) and SR (set of related selected states), and a mouse selection color and a mouse are selected from the selection color list obj.selectColor. Delete the related selection color.

【0093】次にステップ1052と1053にて、新
しい選択状態オブジェクトと新しい関連選択状態オブジ
ェクトのそれぞれに、マウス選択色とマウス関連色を登
録する。具体的には、SSnewとSRnewのそれぞ
れの集合ごとに要素を取り出し、該当するオブジェクト
のselectColorに該当する色情報を追加する。
Next, in steps 1052 and 1053, the mouse selection color and the mouse-related color are registered in the new selected state object and the new related selected state object, respectively. Specifically, an element is extracted for each set of SSnew and SRnew, and color information corresponding to selectColor of the corresponding object is added.

【0094】最後にステップ1054にて新しい色情報
を用いて画面の再表示を行い、ステップ1055にてグ
ローバル変数SSとSRに新しい選択情報SSnewと
SRnewを登録する。
Finally, in step 1054, the screen is redisplayed using the new color information. In step 1055, new selection information SSnew and SRnew are registered in global variables SS and SR.

【0095】次に図11から図14までを用いて、本実
施形態のシステムにおける検索処理を説明する。図11
は、検索処理の実行画面である。図12および図13
は、検索処理の構造化フローチャートである。図14
は、検索処理で用いる検索条件関数の実現方法を示す表
である。
Next, a search process in the system according to the present embodiment will be described with reference to FIGS. FIG.
Is an execution screen of the search process. 12 and 13
Is a structured flowchart of a search process. FIG.
9 is a table showing a method of implementing a search condition function used in search processing.

【0096】まず図11を参照して、検索処理の実行画
面について説明する。検索処理は、メインメニュー50
6のうち、検索メニューを選択することにより行う。検
索メニューの中には、検索のための条件の登録を行うメ
ニュー1101と、既に登録された条件を一覧表示する
メニュー1102が表示される。条件の登録メニュー1
101を選択すると、1105に示すような条件の登録
画面が表示される。
First, the execution screen of the search process will be described with reference to FIG. The search process is performed in the main menu 50
6 is performed by selecting a search menu. The search menu includes a menu 1101 for registering conditions for search and a menu 1102 for displaying a list of registered conditions. Condition registration menu 1
When 101 is selected, a registration screen for conditions as shown in 1105 is displayed.

【0097】条件の登録画面1105では、検索結果の
表示方法と検索条件とを指定できる。これらの情報を設
定した後、検索ボタン1151を押すことにより、検索
処理を実行できる。検索結果は、本条件登録画面で指定
した色で画面上に表示される。具体的には、メディア情
報に含まれるすべてのオブジェクトのうち、本条件登録
画面で指定された条件を満足するオブジェクトだけが、
本条件登録画面で指定した色情報で、メインウィンドウ
501上に表示される。なお、キャンセルボタン115
2を押すと、本検索処理は打ち切られる。
On the condition registration screen 1105, a display method of search results and search conditions can be specified. After setting these pieces of information, a search process can be executed by pressing a search button 1151. The search result is displayed on the screen in the color specified on the condition registration screen. Specifically, of all the objects included in the media information, only the objects that satisfy the conditions specified on this condition registration screen are
The color information specified on the condition registration screen is displayed on the main window 501. The cancel button 115
Pressing 2 terminates the search process.

【0098】本条件登録画面1105で指定できる検索
結果の表示方法では、検索条件の名称1111と検索結
果の表示色1112が指定できる。検索条件の名称11
11は、後に本条件が検索メニューに登録される際に表
示される名称である。また検索結果の表示色1112
は、検索条件を満足するオブジェクトを表示する際に用
いる色である。この色の選択は、たとえば1112をク
リックすることによって決められた色が順々に表れるよ
うにして行うことができる。また応用例として、この選
択色の中に透明色を指定可能にしても良い。たとえば透
明色が指定された場合、検索結果を表示しないこととな
り、ユーザは画面上の冗長なシーン情報を本検索処理に
よって非表示にすることが可能になり、シーン情報の確
認・編集作業をより効率化できる。
In the search result display method that can be specified on the condition registration screen 1105, the name 1111 of the search condition and the display color 1112 of the search result can be specified. Search condition name 11
Numeral 11 is a name displayed when this condition is registered in the search menu later. Also, the display color 1112 of the search result
Is a color used when displaying an object satisfying the search condition. This color selection can be performed, for example, such that colors determined by clicking on 1112 appear one after another. Further, as an application example, a transparent color may be specified in the selected color. For example, if a transparent color is specified, the search result will not be displayed, and the user will be able to hide redundant scene information on the screen by this search processing, making it easier to check and edit scene information. Can be more efficient.

【0099】本条件登録画面1105で指定できる検索
条件としては、ある時間範囲で検索する方法と、ある属
性名だけを検索する方法と、ある属性値だけを検索する
方法を指定できる。これらは時間検索のチェックボック
ス1121、属性名検索のチェックボックス1131、
および属性値検索のチェックボックス1141を用い
て、複数同時に指定することができる。本実施形態で
は、複数条件が指定された場合、それらの条件はAND
条件で結合されていると考える。なお、各チェックボッ
クスがONの場合、それらに対応する条件値として、時
間区間の開始位置1122や終了位置1123、属性名
1132、および属性値1142の入力領域がそれぞれ
有効になり、値を設定できるようになる。
As the search conditions that can be specified on the condition registration screen 1105, a method of searching within a certain time range, a method of searching only a certain attribute name, and a method of searching only a certain attribute value can be specified. These are a check box 1121 for time search, a check box 1131 for attribute name search,
Using the check box 1141 for attribute value search, a plurality of items can be specified at the same time. In this embodiment, when a plurality of conditions are specified, those conditions are AND
Think of them as being joined by a condition. When each check box is ON, the input area of the start position 1122 and the end position 1123 of the time section, the attribute name 1132, and the attribute value 1142 are enabled as the corresponding condition values, and the values can be set. Become like

【0100】なお、時間の開始位置1122および終了
位置1123を指定する別の方法として、図5のタイム
ライン表示502の画面上に表示時間位置を変更するた
めのスクロールバーを取りつけ、スクロールバーの移動
操作により、検索すべき時間範囲の指定を行う方法を採
っても良い。また、逆に言えば、タイムライン表示50
2とは、ユーザに指定された表示開始時間と表示終了時
間に挟まれたシーン情報を検索・表示するためのユーザ
操作画面であると考えても良い。また同様に、図10で
述べたユーザ選択処理を、ユーザが選択したオブジェク
トに関連するオブジェクトを動的に検索するユーザ操作
方法と考えても良い。
As another method of specifying the start position 1122 and the end position 1123 of the time, a scroll bar for changing the display time position is attached on the screen of the timeline display 502 in FIG. A method of specifying a time range to be searched by an operation may be adopted. Conversely, the timeline display 50
2 may be considered as a user operation screen for retrieving and displaying scene information between the display start time and the display end time designated by the user. Similarly, the user selection processing described in FIG. 10 may be considered as a user operation method for dynamically searching for an object related to the object selected by the user.

【0101】なお、ここで述べた内容は本発明の一実施
形態であり、他にも様々な条件や設定項目を指定させる
こともできる。たとえば検索条件として、複数の検索条
件のORを取ったり、複合検索条件式を入力したり、あ
る検索結果に関連付けられるオブジェクトだけを抜き出
したり(図9のサブルーチン901GetLinkedObjSet()を
用いる)、関連オブジェクトの検索の際に関連名称を指
定したり、さらには部分空間に登録されているメディア
データのファイルを開いて該当する建物が現れた瞬間を
含むシーンを画像解析を用いて検索することなどを指定
できるようにしても良い。このような場合、検索条件の
一覧リストを表示し動的に検索条件を追加できるように
した方が、処理の実現上、かつ操作性の観点上望まし
い。
The contents described here are one embodiment of the present invention, and various other conditions and setting items can be designated. For example, as a search condition, an OR of a plurality of search conditions, a complex search condition expression is input, only an object associated with a certain search result is extracted (using a subroutine 901 GetLinkedObjSet () in FIG. 9), It is possible to specify a related name at the time of search, and also to open a file of media data registered in a subspace and search for a scene including the moment when the corresponding building appears using image analysis, etc. You may do it. In such a case, it is desirable to display a list of search conditions and dynamically add search conditions from the viewpoint of realizing processing and operability.

【0102】本実施形態では、検索ボタン1151によ
り検索を行うと、検索されたオブジェクトが、1112
で指定した色で表示されると同時に、編集操作対象とし
てマウス選択状態となる。ユーザは必要に応じて検索結
果の更新や削除を行うことができる。また、本実施形態
では、検索を行うと過去数件分の検索条件が保存され、
検索メニュー上に検索条件名が検索結果表示色と共に表
示される。ユーザは検索メニューを見ることにより、画
面上のどの色のオブジェクトがどのような条件を満足す
るオブジェクトであるか、検索結果後に確認できる。ま
た、このメニューを選択することにより、前回指定した
検索条件を用いて再度検索処理を実行することができ
る。
In this embodiment, when a search is performed using the search button 1151, the searched object is
Is displayed in the color specified by, and at the same time, the mouse is selected as an editing operation target. The user can update or delete the search result as needed. Further, in the present embodiment, when a search is performed, search conditions for the past several cases are stored,
The search condition name is displayed on the search menu together with the search result display color. By looking at the search menu, the user can confirm, after the search result, which color object on the screen satisfies what condition. Further, by selecting this menu, the search process can be executed again using the search condition specified last time.

【0103】なお、検索操作方法の応用例として、検索
メニューに「次の検索結果オブジェクトへ」というメニ
ューを追加しても良い。この場合、検索結果を一度に表
示するのではなく、このメニューを何度も選択すること
により、ユーザは検索結果のオブジェクトを1つずつ確
認しながら編集処理を行うことができる。このメニュー
はさらに、先述の特定の物体を画像解析手法を用いて検
索する場合に非常に有効である。なぜなら、検索実行時
にメディアデータを全て解析する必要がなく、ユーザが
次の検索結果を望んだ時点で、逐一画像解析を部分的に
適用すれば良く、ユーザの待ち時間を大幅に短縮するこ
とができるからである。
As an application example of the search operation method, a menu “to next search result object” may be added to the search menu. In this case, rather than displaying the search results at once, by selecting this menu many times, the user can perform the editing process while checking the objects of the search results one by one. This menu is also very effective when the aforementioned specific object is searched by using an image analysis method. This is because it is not necessary to analyze all the media data at the time of executing a search, and when the user desires the next search result, the image analysis may be partially applied one by one, and the waiting time of the user can be greatly reduced. Because you can.

【0104】図12および図13は、本実施形態での検
索処理の構造化フローチャートである。ここでは検索メ
ニューのうち「条件の登録」メニュー1101と登録さ
れた条件のメニュー1102の処理について述べる。
FIG. 12 and FIG. 13 are structuralized flowcharts of the search processing in this embodiment. Here, the processing of the “register condition” menu 1101 and the registered condition menu 1102 of the search menu will be described.

【0105】ステップ1200は、条件の登録メニュー
1101が選択された際の処理である。ステップ121
1では、まず検索条件の登録画面1105を表示し、ユ
ーザに検索条件を登録させる。次にステップ1212〜
1215で、検索条件式を条件関数のリストfuncListと
して組み立て、ステップ1202で、組み立てた条件関
数のリストfuncListを用いて検索を実行し、検索結果を
条件の登録画面1105に指定された色で表示する。最
後にステップ1216で、今回指定された検索条件の情
報(条件名や色や条件関数リスト)などをグローバル変
数である登録条件リストCLに追加し、またステップ1
217で、メインメニュー506の検索メニューに今回
の条件名と色情報を追加する。
Step 1200 is processing when the condition registration menu 1101 is selected. Step 121
In step 1, a search condition registration screen 1105 is displayed, and the user is caused to register search conditions. Next, step 1212
At step 1215, the search condition formula is assembled as a list of condition functions funcList, and at step 1202, a search is executed using the assembled condition function list funcList, and the search results are displayed in the designated color on the condition registration screen 1105. . Finally, in step 1216, information on the search condition specified this time (condition name, color, condition function list) and the like are added to the registration condition list CL, which is a global variable.
At 217, the current condition name and color information are added to the search menu of the main menu 506.

【0106】次に検索条件式の実現方法と組み立て方法
について説明する。条件関数リストfuncListに登録され
る条件関数は、メモリ上では(関数アドレス,ユーザパ
ラメタ値)により表現される。本実施形態では、関数ア
ドレスとして、図14に示す条件関数の先頭アドレスを
登録可能である。また、これらの条件関数を実行するに
は、関数パラメタとして、ここで指定されたユーザパラ
メタ値と共に、条件を判定したいメディアシーン情報オ
ブジェクトのアドレスを追加して、指定された関数アド
レスを呼出せば良い。関数の結果は集合値として呼出し
処理にリターンされるよう定義する(条件不成立なら
φ、成立ならφ以外)。
Next, a method of realizing and assembling a search condition expression will be described. The condition function registered in the condition function list funcList is represented in the memory by (function address, user parameter value). In the present embodiment, the start address of the condition function shown in FIG. 14 can be registered as the function address. To execute these condition functions, add the address of the media scene information object whose condition is to be determined together with the user parameter value specified here as a function parameter, and call the specified function address. good. The result of the function is defined to be returned to the calling process as a set value (φ if the condition is not satisfied, other than φ if the condition is satisfied).

【0107】図14に示した条件関数を用いて、ステッ
プ1212〜1215の条件関数式の組み立て処理を詳
しく説明する。まずステップ1212にて、条件関数リ
ストfuncListを空にする。次にステップ1213にて、
条件登録画面1105でユーザが時間の検索を指定して
いるか否か調べ、時間の指定がある場合、ステップ12
21にて条件関数リストfuncListに時間条件関数Within
()を追加する。この際、条件関数Withinのユーザパラメ
タとして、ユーザが指定した開始時間と、同終了時間を
登録する。属性名の検索についても同様に、ステップ1
214にてユーザの検索指示の有無を判別し、属性名検
索を行う場合は、ステップ1223にてfuncListに条件
関数SameName()を登録する。この際のユーザパラメタ
は、ユーザが指定した属性名である。属性値の検索につ
いても同様に、ステップ1215にてユーザの検索指示
の有無を判別し、属性値検索を行う場合は、ステップ1
223にてfuncListに条件関数SameValue()を登録す
る。この際のユーザパラメタは、ユーザが指定した属性
値である。
Using the condition functions shown in FIG. 14, the processing for assembling the conditional function formulas in steps 1212 to 1215 will be described in detail. First, in step 1212, the condition function list funcList is emptied. Next, in step 1213,
It is checked whether or not the user has designated time search on the condition registration screen 1105.
At 21, the time condition function Within is added to the condition function list funcList.
Add (). At this time, the start time and the end time specified by the user are registered as user parameters of the conditional function Within. Step 1 also applies to the search for the attribute name.
At 214, it is determined whether or not there is a user's search instruction, and when performing an attribute name search, the condition function SameName () is registered in funcList at step 1223. The user parameter at this time is an attribute name specified by the user. Similarly, in the search for the attribute value, in step 1215, it is determined whether or not the user has issued a search instruction.
At 223, the condition function SameValue () is registered in funcList. The user parameter at this time is an attribute value specified by the user.

【0108】本実施形態では時間、属性名、および属性
値の検索条件について述べたが、その他の条件について
も同様に拡張できる。基本的に検索条件を追加する場合
は、検索条件ごとに、個別条件設定手段と、オブジェク
トとユーザパラメタを入力して集合値を返す条件関数を
用意すればよい。検索条件モジュールでは、必要に応じ
て設定画面を提供し、ユーザから該当する条件指定の有
無や詳細な条件値の設定を行えるようにすればよい。
In the present embodiment, search conditions for time, attribute name, and attribute value have been described. However, other conditions can be similarly extended. Basically, when a search condition is added, an individual condition setting means and a condition function that inputs an object and a user parameter and returns a set value may be prepared for each search condition. In the search condition module, a setting screen may be provided as necessary so that the user can specify whether or not a corresponding condition is specified and set detailed condition values.

【0109】次に検索メニューのうち、すでに登録され
た検索条件のメニューが選択された場合の処理1201
について説明する。検索条件がすでに登録されている場
合、ユーザが指定したメニューの番号値などを用いて検
索条件リストCLから該当する検索条件の情報condを取得
する(ステップ1231)。検索条件情報condの中には
検索の実行に必要な検索条件リストと、検索結果の表示
に必要な色情報が含まれているので、これらの値を用い
て検索実行処理1202を呼び出せば、ユーザが以前設
定した条件のままで検索を再実行することができる(ス
テップ1202)。
Next, the processing 1201 when the menu of the already registered search condition is selected from the search menu
Will be described. If the search condition is already registered, the information cond of the corresponding search condition is obtained from the search condition list CL using the menu number value designated by the user (step 1231). Since the search condition information cond includes a search condition list necessary for executing the search and color information necessary for displaying the search result, if the search execution process 1202 is called using these values, the user Can be executed again with the previously set conditions (step 1202).

【0110】最後に検索実行処理1202について説明
する。本処理の入力パラメタは、先に設定した検索条件
関数のリストと検索結果の表示色からなる。まず検索に
あたって、ステップ1241にて、検索結果集合Srを
検索対象集合S0で初期化する。本例では検索条件リス
トをAND条件の並びとして検索するため、Srはまず
全オブジェクトを現すグローバル変数S0としている。
次に検索条件リストfuncListに含まれる全検索条件関数
funcについてループし(ステップ1242)、ステップ
1300のFindObject()処理を用いて、検索条件関数fu
ncで結果集合Srを絞り込んでいく。ループ処理124
2が終了した段階で、すべての検索条件についてAND
をとった条件を満たすオブジェクトの集合がSrに格納
される。
Finally, the search execution processing 1202 will be described. The input parameters of this processing include a list of search condition functions set previously and a display color of the search result. First, in search, in step 1241, the search result set Sr is initialized with the search target set S0. In this example, to search the search condition list as a list of AND conditions, Sr is first set to a global variable S0 representing all objects.
Next, all search condition functions included in the search condition list funcList
A loop is performed for func (step 1242), and the search condition function fu is obtained using the FindObject () process of step 1300.
The result set Sr is narrowed down by nc. Loop processing 124
After the completion of step 2, AND for all search conditions
Is stored in Sr.

【0111】次に検索結果Srの全要素objについてル
ープ処理1243を行い、指定された検索結果色color
をオブジェクトの選択表示色リストselectColorに追加
する(ステップ1252)。最後にステップ1244に
て、後の編集のために検索結果をマウス選択状態と同一
に扱えるよう、マウス選択の更新処理を行う。なお、マ
ウス選択更新の処理内にて画面の再描画も行っているた
め、ループ処理1243で設定した検索結果色も画面に
表示される。
Next, the loop processing 1243 is performed on all the elements obj of the search result Sr, and the designated search result color
Is added to the selection color list selectColor of the object (step 1252). Finally, in step 1244, a mouse selection updating process is performed so that the search result can be handled in the same manner as the mouse selection state for later editing. Note that since the screen is redrawn in the mouse selection update processing, the search result color set in the loop processing 1243 is also displayed on the screen.

【0112】次に図13を参照して、ステップ1300
の検索条件を満足するオブジェクトの抽出処理FindObje
ct()について説明する。本関数の入力は、検索対象オブ
ジェクトの集合Sと、1つの検索条件関数f()である。
また本関数の出力は、Sのうち検索条件関数f()を満足
するオブジェクトの集合である。
Next, referring to FIG.
FindObje: Extraction of Objects Satisfying the Search Conditions
ct () will be described. The input of this function is a set S of search target objects and one search condition function f ().
The output of this function is a set of objects in S that satisfy the search condition function f ().

【0113】本関数では、まず検索結果の集合Srを空
にし(ステップ1310)、次にループ処理1311に
て、S中のすべての検索対象オブジェクトobjについて
条件の判定を行う。条件の判定には、オブジェクトobj
が検索条件を満たすかどうか調べるために、条件関数f
(obj)を呼び出す(ステップ1321)。この際あらか
じめ図12のステップ1221などで設定されたユーザ
パラメタも同時に渡されるものとする。条件関数の判定
結果が真である場合、条件関数の結果として検索結果集
合Srに追加すべきオブジェクト集合が返されるので、
Srに追加する。なお、判定結果が偽の場合、判定関数
の結果は空集合φが返されるものとする。ループ処理1
311が終了した段階で検索結果がSrに格納されてい
るので、これを本処理の戻り値として設定し、本処理を
終了する。
In this function, first, a set Sr of search results is emptied (step 1310), and then, in a loop process 1311, conditions are determined for all the search target objects obj in S. To determine the condition, the object obj
Condition function f to check whether satisfies the search condition
(obj) is called (step 1321). At this time, the user parameters set in advance in step 1221 in FIG. 12 and the like are also passed at the same time. If the determination result of the condition function is true, an object set to be added to the search result set Sr is returned as a result of the condition function.
Add to Sr. When the judgment result is false, the result of the judgment function is assumed to be an empty set φ. Loop processing 1
Since the search result is stored in Sr at the stage when 311 ends, this is set as the return value of this processing, and this processing ends.

【0114】図14は、検索処理で用いる検索条件関数
の実現方法を示す表である。
FIG. 14 is a table showing a method for realizing a search condition function used in the search processing.

【0115】まず、ある時区間を含むオブジェクトを判
別する条件関数Within()1401を説明する。Within()
は、開始時間tbと終了時間teをユーザパラメタとして持
つ。その結果は、関数パラメタとして指定されたオブジ
ェクトが部分空間であり(object.class="flag")、か
つ、実数集合[object.begin, object.end]と実数集合[t
b,te]とが重なる場合、抽出結果として追加すべき内容
として集合{ object }を返す。つまり区間[tb,te]の一
部でも部分空間objectが触れたら{ object }を返す。な
お、オブジェクトが属性情報の場合は、空集合φを返
す。
First, the condition function Within () 1401 for determining an object including a certain time interval will be described. Within ()
Has a start time tb and an end time te as user parameters. As a result, the object specified as the function parameter is a subspace (object.class = "flag"), and the real number set [object.begin, object.end] and the real number set [t
b, te], returns a set {object} as the content to be added as an extraction result. That is, if the subspace object touches even a part of the section [tb, te], {object} is returned. If the object is attribute information, an empty set φ is returned.

【0116】次に属性名が同一であるかを判定する条件
関数SameName()1402について説明する。SameName()
のユーザパラメタは属性名nameである。本関数が成立す
る条件は、関数パラメタとして指定されたオブジェクト
が属性であり(object.class="attr")、かつ、その属性
オブジェクトが持つMetaクラスリストmlistのいずれか
一つのmetaについて属性名meta.nameがnameと等しい場
合とし、戻り値として{ object }を返す。
Next, the condition function SameName () 1402 for determining whether the attribute names are the same will be described. SameName ()
Is the attribute name name. The condition that this function is satisfied is that the object specified as the function parameter is an attribute (object.class = "attr"), and the attribute name meta for any one meta of the Meta class list mlist of the attribute object If .name is equal to name, return {object} as the return value.

【0117】同様に、属性値が同一であるかを判定する
条件関数SameValue()1403の場合、ユーザパラメタ
は属性値contentsであり、関数パラメタとして指定され
たオブジェクトが属性であり、かつその属性値meta.con
tents=contentsとなるmetaがMetaクラスリストに一つ以
上存在すれば{ object }を返す。なお、SameName()とSa
meValue()は、上述した条件が不成立の場合、または、
関数パラメタとして指定されたオブジェクトが部分空間
の場合は、空集合φとする。
Similarly, in the case of the condition function SameValue () 1403 for determining whether the attribute values are the same, the user parameter is the attribute value contents, the object specified as the function parameter is the attribute, and the attribute value is meta.con
Returns {object} if there is at least one meta with tents = contents in the Meta class list. Note that SameName () and Sa
meValue () is used if the above condition is not satisfied, or
If the object specified as a function parameter is a subspace, it is an empty set φ.

【0118】最後に条件関数の応用例として、人物が画
面内に入った瞬間の部分空間であれば、その瞬間の部分
空間を返す条件関数GotIt()を説明する。GotIt()では、
関数パラメタとして指定されたobjectが部分空間の場
合、object.fileに示される映像ファイルをオープン
し、映像を画像処理を用いて解析し、人物が画面内に入
ったことを認識したら、新たに部分空間オブジェクトne
wObjを生成し、人物の出現時間をnewObj.beginとnewOb
j.endに指定し、{ newObj }を返す。この画像処理の実
現には、たとえば特開平8−221577号の「移動体
検出・抽出装置及び方法」に示す画像認識アルゴリズム
を用いればよい。もちろん、複数の人物を検出したら複
数の部分空間の要素からなる集合を返してもよい。
Finally, as an application example of the conditional function, a conditional function GotIt () which returns a partial space at the moment when a person enters the screen will be described if the partial space is at the moment when a person enters the screen. In GotIt (),
If the object specified as a function parameter is a subspace, open the video file indicated in object.file, analyze the video using image processing, and recognize that a person has entered the screen, and then add a new Space object ne
Generate wObj and set the appearance time of the person to newObj.begin and newOb
Specify in j.end and return {newObj}. In order to realize this image processing, for example, an image recognition algorithm described in “Moving Object Detection / Extraction Apparatus and Method” in JP-A-8-221577 may be used. Of course, if a plurality of persons are detected, a set of elements of a plurality of subspaces may be returned.

【0119】図15は、本実施形態における編集処理の
構造化フローチャートである。本実施形態では、編集処
理として、選択されたオブジェクトを削除する処理と、
選択されたすべての部分空間の時間位置をある決まった
時間分だけ移動する時間移動処理について、説明する。
FIG. 15 is a structural flowchart of the editing process according to the present embodiment. In the present embodiment, as an editing process, a process of deleting the selected object,
A description will be given of a time movement process of moving the time positions of all the selected subspaces by a predetermined time.

【0120】まずステップ1501にて、ユーザの編集
指示内容を判断する。指示内容が削除の場合、グローバ
ル変数にある選択オブジェクトの集合SSに含まれるす
べてのオブジェクトobjについてループ処理1510を
行い、オブジェクトobjを全オブジェクトの集合S0と
全リンクの集合L0から削除する(ステップ151
3)。また編集指示内容が時間移動の場合、まずステッ
プ1520にてユーザに移動時間量dtを指定してもら
う。その後、すべての選択オブジェクトSSについてル
ープ処理1521を行い、オブジェクトが部分空間であ
れば(ステップ1530)、その部分空間の開始時間と
終了時間をともにdt分だけ移動する(ステップ153
3)。
First, in step 1501, the content of the user's editing instruction is determined. If the instruction is to be deleted, the loop processing 1510 is performed on all the objects obj included in the set SS of the selected objects in the global variable, and the object obj is deleted from the set S0 of all objects and the set L0 of all links (step 151).
3). If the content of the editing instruction is time movement, first, in step 1520, the user is asked to specify a movement time amount dt. Thereafter, the loop processing 1521 is performed on all the selected objects SS, and if the object is a subspace (step 1530), the start time and the end time of the subspace are both moved by dt (step 153).
3).

【0121】ここでオブジェクトの削除1513につい
て説明する。まずループ処理1550にてすべてのリン
クlinkを調べて、リンクの先端または末尾が削除対象オ
ブジェクトobjであるものを探し、該当するリンクlink
を見つけたら(条件判定ステップ1560)、その場で
linkをリンクの集合Lから削除する(ステップ156
3)。ループ処理1550が終了したら、最後に全オブ
ジェクトの集合Sから該当するオブジェクトobjを削除
する(ステップ1551)。
Here, the object deletion 1513 will be described. First, in the loop processing 1550, all links are checked to find a link whose end or end is the object to be deleted obj, and the corresponding link link
Is found (condition determination step 1560),
delete link from link set L (step 156)
3). When the loop processing 1550 ends, the corresponding object obj is finally deleted from the set S of all objects (step 1551).

【0122】[0122]

【発明の効果】本発明を用いることにより、与えられた
メディアデータに対してメディアデータ中のシーンの情
報を登録・管理する作業を次のように効率よく行うこと
ができる。まず、既にユーザが所持しているメディアデ
ータに対してユーザが後から属性情報を容易に登録で
き、従来の映像編集ソフトなどのように、メディアデー
タ自身を変更することなく、簡単にユーザ固有情報を登
録できる。メディアシーン情報間の複雑な時間情報、関
連づけ情報、および属性情報を画面上で視覚的に表現で
きるため、メディアシーン情報の内容把握およびメディ
アシーン情報の加工が大幅に容易になる。具体的には、
メディアシーン情報の時間的な前後関係をたとえば実施
の形態で説明したようなタイムライン表示形式により明
確に表示できる。また、従来は画面に表示されていなか
ったメディアシーン情報間の関連付け情報や、属性情報
の存在位置を、色などを用いて一目で識別可能な表示を
行うことができる。その他、表形式やアイコン形式を用
いることにより、ユーザが確認したい情報量に応じて、
メディアシーンの表示密度を変更できる。さらに本発明
では、これらの視覚的に分かりやすい表現形式上でメデ
ィアシーン情報を直接操作によって検索・選択・編集で
きるため、従来より簡単な編集を行うことができる。
According to the present invention, the operation of registering and managing scene information in media data with respect to given media data can be performed efficiently as follows. First, the user can easily register the attribute information for the media data already possessed by the user later, and can easily register the user-specific information without changing the media data itself, unlike conventional video editing software. Can be registered. Since complicated time information, association information, and attribute information between media scene information can be visually represented on a screen, it is significantly easier to grasp the contents of the media scene information and to process the media scene information. In particular,
The temporal context of the media scene information can be clearly displayed, for example, in a timeline display format as described in the embodiment. Further, it is possible to perform a display in which association information between media scene information, which has not been conventionally displayed on the screen, and an existing position of attribute information can be identified at a glance by using colors or the like. In addition, by using a table format or icon format, depending on the amount of information that the user wants to check,
The display density of the media scene can be changed. Further, according to the present invention, media scene information can be searched, selected, and edited by directly operating on these visually understandable expression formats, so that editing can be performed more easily than in the past.

【図面の簡単な説明】[Brief description of the drawings]

【図1】メディアシーン表示編集装置の一実現例を示す
図。
FIG. 1 is a view showing an example of realizing a media scene display / editing apparatus.

【図2】本実施形態で用いるメディアシーン情報のデー
タ構造の概念図。
FIG. 2 is a conceptual diagram of a data structure of media scene information used in the embodiment.

【図3】図2の概念的なデータ構造に対応する実際のデ
ータ構造の例を示す図。
FIG. 3 is a view showing an example of an actual data structure corresponding to the conceptual data structure of FIG. 2;

【図4】図3のデータ構造の詳細(クラス)を示す図。FIG. 4 is a diagram showing details (classes) of the data structure of FIG. 3;

【図5】実施形態の実行画面を示す図。FIG. 5 is a diagram showing an execution screen according to the embodiment.

【図6】本実施形態のシステムのメイン処理を示す図。FIG. 6 is an exemplary view showing main processing of the system according to the embodiment.

【図7】本実施形態のタイムライン表示処理を示す図。FIG. 7 is an exemplary view showing a timeline display process according to the embodiment;

【図8】本実施形態のアイコン表示処理を示す図。FIG. 8 is a view showing an icon display process according to the embodiment.

【図9】本実施形態のテーブル表示処理を示す図。FIG. 9 is a view showing a table display process according to the embodiment;

【図10】本実施形態のユーザー選択処理を示す図。FIG. 10 is a view showing a user selection process of the embodiment.

【図11】本実施形態の検索処理実行画面を示す図。FIG. 11 is a view showing a search processing execution screen according to the embodiment;

【図12】本実施形態の検索メニュー処理を示す図。FIG. 12 is a view showing search menu processing according to the embodiment.

【図13】本実施形態の検索条件実行処理を示す図。FIG. 13 is a view showing search condition execution processing according to the embodiment.

【図14】本実施形態の検索条件関数一覧を示す図。FIG. 14 is a view showing a list of search condition functions according to the embodiment;

【図15】本実施形態の編集処理を示す図。FIG. 15 is a diagram showing an editing process according to the embodiment.

【符号の説明】[Explanation of symbols]

501…メインウィンドウ、502…タイムライン表示ウィン
ドウ、503…テーブル表示ウィンドウ、504…アイコン表
示ウィンドウ、505…マウスポインタ、506…メインメニ
ュー、511…ビデオのタイムライン表示、512…オーディ
オのタイムライン表示、513〜515…ユーザデータのタイ
ムライン表示、521,522…部分空間のバー表示、523…選
択状態の部分空間バー、531,532…選択状態の部分空間
に関連した属性情報、541,542…部分空間のアイコン表
示、543…選択状態の部分空間アイコン、551,552…選択
された部分空間に関連した部分空間、1101…検索条件の
登録メニュー、1102…すでに登録されている検索条件と
その表示色、1105…検索条件登録画面。
501: Main window, 502: Timeline display window, 503: Table display window, 504: Icon display window, 505: Mouse pointer, 506: Main menu, 511: Video timeline display, 512: Audio timeline display, 513 to 515: timeline display of user data, 521, 522: bar display of partial space, 523: partial space bar in selected state, 531,532 ... attribute information related to selected partial space, 541,542 ... icon display of partial space, 543 ... Selected subspace icons, 551 and 552... Subspaces related to the selected subspace, 1101... Search condition registration menu, 1102... Registered search conditions and their display colors, 1105.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長坂 晃朗 東京都国分寺市東恋ケ窪一丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 山光 忠 神奈川県横浜市戸塚区戸塚町5030番地 株 式会社日立製作所ソフトウェア開発本部内 (72)発明者 鳩岡 順一 神奈川県横浜市戸塚区戸塚町5030番地 株 式会社日立製作所ソフトウェア開発本部内 Fターム(参考) 5C023 AA02 AA14 AA38 CA01 CA04 CA05 DA04 DA08 5C053 FA14 HA29 HA40 JA16 KA04 KA05 KA24 LA06 LA11  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Akira Nagasaka 1-280 Higashi-Koigakubo, Kokubunji-shi, Tokyo Inside the Central Research Laboratory, Hitachi, Ltd. (72) Inventor Junichi Hatooka 5030 Totsuka-cho, Totsuka-ku, Yokohama-shi, Kanagawa Prefecture F term (reference) 5C023 AA02 AA14 AA38 CA01 CA04 CA05 DA04 DA08 5C053 FA14 HA29 HA40 JA16 KA04 KA05 KA24 LA06 LA11

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】時間情報を有するデータであるメディアデ
ータの部分単位であるシーンに対して属性情報を関連付
けたデータであるメディアシーン情報を、表示・加工す
るメディアシーン情報表示編集装置において、 メディアデータを格納するメディアデータ格納手段と、 メディアシーン情報を格納するメディアシーン情報格納
手段と、 上記メディアシーン情報を表示するディスプレイ手段
と、 表示されたメディアシーン情報から任意のメディアシー
ン情報を選択する選択手段と、 選択されたメディアシーン情報に関連付けされているメ
ディアシーン情報を抽出するメディアシーン情報抽出手
段と、 抽出されたメディアシーン情報を他のメディアシーン情
報と画面上で識別可能なように表示するメディアシーン
情報表示制御手段とを備えたことを特徴とするメディア
シーン情報表示編集装置。
1. A media scene information display / edit device for displaying and processing media scene information which is data in which attribute information is associated with a scene which is a partial unit of media data which is data having time information. Data storage means for storing media scene information, media scene information storage means for storing media scene information, display means for displaying the media scene information, and selection means for selecting arbitrary media scene information from the displayed media scene information And media scene information extracting means for extracting media scene information associated with the selected media scene information; and media for displaying the extracted media scene information so that it can be identified on the screen from other media scene information. Scene information display control means Media scene information display editing apparatus according to claim the door.
【請求項2】時間情報を有するデータであるメディアデ
ータの部分単位であるシーンに対して属性情報を関連付
けたデータであるメディアシーン情報を、表示・加工す
るメディアシーン情報表示編集装置において、 メディアデータを格納するメディアデータ格納手段と、 メディアシーン情報を格納するメディアシーン情報格納
手段と、 上記メディアシーン情報を表示するディスプレイ手段
と、 上記メディアシーン情報格納手段からメディアシーン情
報を抽出する条件を指定する抽出条件指定手段と、 指定された抽出条件を満足するメディアシーン情報を、
上記メディアシーン情報格納手段から抽出するメディア
シーン情報抽出手段と、 抽出されたメディアシーン情報を他のメディアシーン情
報と画面上で識別可能なように表示するメディアシーン
情報表示制御手段とを備えたことを特徴とするメディア
シーン情報表示編集装置。
2. A media scene information display and editing apparatus for displaying and processing media scene information which is data in which attribute information is associated with a scene which is a partial unit of media data which is data having time information. , Media scene information storing means for storing media scene information, display means for displaying the media scene information, and conditions for extracting media scene information from the media scene information storing means. Extracting condition specifying means, and media scene information satisfying the specified extracting condition,
Media scene information extracting means for extracting from the media scene information storing means; and media scene information display controlling means for displaying the extracted media scene information so that it can be distinguished from other media scene information on a screen. A media scene information display / editing device characterized by the above-mentioned.
【請求項3】請求項1または2に記載のメディアシーン
情報表示編集装置において、 前記ディスプレイ手段は、時間軸を表示するとともに、
各メディアシーン情報を表示する位置をそのメディアシ
ーン情報が持つ情報の開始時間に対応する時間軸上の位
置に表示するタイムライン表示画面で表示することを特
徴とするメディアシーン情報表示編集装置。
3. The media scene information display editing device according to claim 1, wherein the display means displays a time axis,
A media scene information display / editing device, wherein a position at which each media scene information is displayed is displayed on a timeline display screen that displays the position on a time axis corresponding to a start time of the information included in the media scene information.
【請求項4】請求項1または2に記載のメディアシーン
情報表示編集装置において、 前記ディスプレイ手段は、メディアシーン情報をアイコ
ン表示するアイコン表示画面で表示することを特徴とす
るメディアシーン情報表示編集装置。
4. The media scene information display / editing apparatus according to claim 1, wherein said display means displays the media scene information on an icon display screen for displaying icons. .
【請求項5】請求項3または4に記載のメディアシーン
情報表示編集装置において、 前記タイムライン表示画面またはアイコン表示画面で表
示されたメディアシーン情報から何れかのメディアシー
ン情報を選択すると、該選択されたメディアシーン情報
に関連するメディアシーン情報の内容を表形式で一覧表
示するテーブル表示画面を設けたことを特徴とするメデ
ィアシーン情報表示編集装置。
5. The media scene information display and editing device according to claim 3, wherein when any one of the media scene information is selected from the media scene information displayed on the timeline display screen or the icon display screen, the selection is performed. A media scene information display / editing device comprising a table display screen for displaying a list of contents of media scene information related to the selected media scene information in a table format.
【請求項6】請求項2に記載のメディアシーン情報表示
編集装置において、 前記抽出条件指定手段は、前記ディスプレイ手段にメデ
ィアシーン情報抽出のための条件を登録する画面を表示
し、該画面によりユーザに条件を設定させることを特徴
とするメディアシーン情報表示編集装置。
6. The media scene information display / editing device according to claim 2, wherein the extraction condition designation means displays a screen for registering conditions for extracting media scene information on the display means, and displays the screen by the user. A media scene information display / editing device, wherein a condition is set by the user.
【請求項7】請求項2に記載のメディアシーン情報表示
編集装置において、 前記抽出条件指定手段は、メディアシーン情報中に含ま
れる検索文字列を指定するものであり、 前記メディアシーン情報抽出手段は、指定された検索文
字列を含むメディアシーン情報を抽出するものであるこ
とを特徴とするメディアシーン情報表示編集装置。
7. The media scene information display / edit device according to claim 2, wherein the extraction condition specifying means specifies a search character string included in the media scene information, and the media scene information extracting means A media scene information display / editing device for extracting media scene information including a designated search character string.
【請求項8】請求項2に記載のメディアシーン情報表示
編集装置において、 前記メディアシーン情報抽出手段は、抽出するか否かを
判断する対象のメディアシーン情報に対し、該メディア
シーン情報に関連するメディアデータを直接解析し、そ
の結果をもとにメディアシーン情報が条件を満たすか満
たさないかの判断を行なうものであることを特徴とする
メディアシーン情報表示編集装置。
8. The media scene information display / editing device according to claim 2, wherein the media scene information extracting means associates the media scene information with the target media scene information for determining whether or not to extract the media scene information. A media scene information display / editing device which directly analyzes media data and determines whether or not the media scene information satisfies or does not satisfy a condition based on the result.
【請求項9】請求項1または2に記載のメディアシーン
情報表示編集装置において、 前記抽出されたメディアシーン情報を加工するためのメ
ディアシーン情報加工手段をさらに備えたことを特徴と
するメディアシーン情報表示編集装置。
9. The media scene information display / editing apparatus according to claim 1, further comprising: media scene information processing means for processing the extracted media scene information. Display editing device.
【請求項10】時間情報を有するデータであるメディア
データの部分単位であるシーンに対して属性情報を関連
付けたデータであるメディアシーン情報を、表示・加工
するメディアシーン情報表示編集方法であって、 メディアシーン情報を表示するステップと、 表示されたメディアシーン情報から任意のメディアシー
ン情報を選択するステップと、 選択されたメディアシーン情報に関連付けされているメ
ディアシーン情報を抽出するステップと、 抽出されたメディアシーン情報を他のメディアシーン情
報と画面上で識別可能なように表示するステップとを備
えたことを特徴とするメディアシーン情報表示編集方
法。
10. A media scene information display and editing method for displaying and processing media scene information which is data in which attribute information is associated with a scene which is a partial unit of media data which is data having time information, Displaying media scene information; selecting arbitrary media scene information from the displayed media scene information; extracting media scene information associated with the selected media scene information; Displaying the media scene information so as to be distinguishable from other media scene information on a screen.
【請求項11】時間情報を有するデータであるメディア
データの部分単位であるシーンに対して属性情報を関連
付けたデータであるメディアシーン情報を、表示・加工
するメディアシーン情報表示編集方法であって、 メディアシーン情報を表示するステップと、 メディアシーン情報を抽出する条件を指定するステップ
と、 指定された条件に応じてメディアシーン情報を抽出する
ステップと、 抽出されたメディアシーン情報を他のメディアシーン情
報と画面上で識別可能なように表示するステップとを備
えたことを特徴とするメディアシーン情報表示編集方
法。
11. A media scene information display and editing method for displaying and processing media scene information which is data in which attribute information is associated with a scene which is a partial unit of media data which is data having time information, Displaying the media scene information; specifying conditions for extracting the media scene information; extracting media scene information according to the specified conditions; and extracting the extracted media scene information to other media scene information. And displaying the image so as to be identifiable on a screen.
【請求項12】時間情報を有するデータであるメディア
データの部分単位であるシーンに対して属性情報を関連
付けたデータであるメディアシーン情報を、表示・加工
するメディアシーン情報表示編集プログラムを記憶した
記憶媒体であって、 該メディアシーン情報表示編集プログラムは、 メディアシーン情報を表示するステップと、 表示されたメディアシーン情報から任意のメディアシー
ン情報を選択するステップと、 選択されたメディアシーン情報に関連付けされているメ
ディアシーン情報を抽出するステップと、 抽出されたメディアシーン情報を他のメディアシーン情
報と画面上で識別可能なように表示するステップとを備
えているものであることを特徴とする記憶媒体。
12. A storage medium storing a media scene information display editing program for displaying and processing media scene information which is data in which attribute information is associated with a scene which is a partial unit of media data which is data having time information. A medium, wherein the media scene information display / editing program includes a step of displaying media scene information, a step of selecting arbitrary media scene information from the displayed media scene information, and a program associated with the selected media scene information. Storage medium characterized by comprising a step of extracting media scene information that has been extracted, and a step of displaying the extracted media scene information so as to be distinguishable from other media scene information on a screen. .
【請求項13】時間情報を有するデータであるメディア
データの部分単位であるシーンに対して属性情報を関連
付けたデータであるメディアシーン情報を、表示・加工
するメディアシーン情報表示編集プログラムを記憶した
記憶媒体であって、 該メディアシーン情報表示編集プログラムは、 メディアシーン情報を表示するステップと、 メディアシーン情報を抽出する条件を指定するステップ
と、 指定された条件に応じてメディアシーン情報を抽出する
ステップと、 抽出されたメディアシーン情報を他のメディアシーン情
報と画面上で識別可能なように表示するステップとを備
えているものであることを特徴とする記憶媒体。
13. A storage device for storing a media scene information display / editing program for displaying and processing media scene information which is data in which attribute information is associated with a scene which is a partial unit of media data which is data having time information. A medium, wherein the media scene information display / editing program includes a step of displaying media scene information; a step of specifying conditions for extracting the media scene information; and a step of extracting media scene information according to the specified conditions. And displaying the extracted media scene information so that it can be distinguished from other media scene information on a screen.
JP24875499A 1999-09-02 1999-09-02 Media scene information display editing apparatus, method, and storage medium storing program according to the method Expired - Fee Related JP4404172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24875499A JP4404172B2 (en) 1999-09-02 1999-09-02 Media scene information display editing apparatus, method, and storage medium storing program according to the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24875499A JP4404172B2 (en) 1999-09-02 1999-09-02 Media scene information display editing apparatus, method, and storage medium storing program according to the method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006278182A Division JP4660824B2 (en) 2006-10-11 2006-10-11 Information storage device for storing attribute information of media scene, information display device, and information storage method

Publications (2)

Publication Number Publication Date
JP2001078091A true JP2001078091A (en) 2001-03-23
JP4404172B2 JP4404172B2 (en) 2010-01-27

Family

ID=17182889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24875499A Expired - Fee Related JP4404172B2 (en) 1999-09-02 1999-09-02 Media scene information display editing apparatus, method, and storage medium storing program according to the method

Country Status (1)

Country Link
JP (1) JP4404172B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002359777A (en) * 2001-05-30 2002-12-13 Toshiba Corp Time space region information processing method and time space region information processing system
JP2005210573A (en) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp Video image display system
JP2007150723A (en) * 2005-11-28 2007-06-14 Toshiba Corp Video viewing support system and method
JP2008250603A (en) * 2007-03-30 2008-10-16 Hitachi Ltd Information retrieval device and display method therefor
JP2009076982A (en) * 2007-09-18 2009-04-09 Toshiba Corp Electronic apparatus, and face image display method
JP2009088978A (en) * 2007-09-28 2009-04-23 Toshiba Corp Electronic apparatus, and image display control method
JP2009089030A (en) * 2007-09-28 2009-04-23 Toshiba Corp Electronic apparatus and image display control method
JP2012095337A (en) * 2011-12-22 2012-05-17 Toshiba Corp Electronic apparatus, and face image display method
JP2015501565A (en) * 2011-10-06 2015-01-15 トムソン ライセンシングThomson Licensing Method and apparatus for providing information on multimedia content items
JP2016154028A (en) * 2010-05-17 2016-08-25 アマゾン テクノロジーズ インコーポレイテッド Selective content presentation engine
JP2018515006A (en) * 2015-05-14 2018-06-07 グーグル エルエルシー Entity-based temporal segmentation of video streams

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002359777A (en) * 2001-05-30 2002-12-13 Toshiba Corp Time space region information processing method and time space region information processing system
JP2005210573A (en) * 2004-01-26 2005-08-04 Mitsubishi Electric Corp Video image display system
JP2007150723A (en) * 2005-11-28 2007-06-14 Toshiba Corp Video viewing support system and method
JP4550725B2 (en) * 2005-11-28 2010-09-22 株式会社東芝 Video viewing support system
JP2008250603A (en) * 2007-03-30 2008-10-16 Hitachi Ltd Information retrieval device and display method therefor
JP2009076982A (en) * 2007-09-18 2009-04-09 Toshiba Corp Electronic apparatus, and face image display method
JP2009089030A (en) * 2007-09-28 2009-04-23 Toshiba Corp Electronic apparatus and image display control method
JP2009088978A (en) * 2007-09-28 2009-04-23 Toshiba Corp Electronic apparatus, and image display control method
JP2016154028A (en) * 2010-05-17 2016-08-25 アマゾン テクノロジーズ インコーポレイテッド Selective content presentation engine
US10127195B2 (en) 2010-05-17 2018-11-13 Amazon Technologies, Inc. Selective content presentation engine
JP2015501565A (en) * 2011-10-06 2015-01-15 トムソン ライセンシングThomson Licensing Method and apparatus for providing information on multimedia content items
JP2012095337A (en) * 2011-12-22 2012-05-17 Toshiba Corp Electronic apparatus, and face image display method
JP2018515006A (en) * 2015-05-14 2018-06-07 グーグル エルエルシー Entity-based temporal segmentation of video streams

Also Published As

Publication number Publication date
JP4404172B2 (en) 2010-01-27

Similar Documents

Publication Publication Date Title
US11467706B2 (en) Multipurpose media players
JP3454764B2 (en) Search system and search method for searching video based on content
US6571054B1 (en) Method for creating and utilizing electronic image book and recording medium having recorded therein a program for implementing the method
US8204750B2 (en) Multipurpose media players
US5537528A (en) System and method for inputting scene information
US7580957B2 (en) Structured data storage device and structured data storage method
US20020126143A1 (en) Article-based news video content summarizing method and browsing system
US20090007014A1 (en) Center locked lists
US20040125124A1 (en) Techniques for constructing and browsing a hierarchical video structure
KR100493674B1 (en) Multimedia data searching and browsing system
US6343294B1 (en) Data file editor for multiple data subsets
JP3574606B2 (en) Hierarchical video management method, hierarchical management device, and recording medium recording hierarchical management program
JP4404172B2 (en) Media scene information display editing apparatus, method, and storage medium storing program according to the method
US7921127B2 (en) File management apparatus, control method therefor, computer program, and computer-readable storage medium
JP2001306579A (en) Device and method for retrieving information and computer-readable recording medium recorded with program for computer to execute the same method
KR20000038290A (en) Moving picture searching method and search data structure based on the case structure
JP3478331B2 (en) Structure display method and computer-readable recording medium storing a program for causing a computer to execute the method
JP4660824B2 (en) Information storage device for storing attribute information of media scene, information display device, and information storage method
JP2001238172A (en) Image structure editing device, structure element reconfiguration device and computer readable recording medium with program for executing computer recorded thereon as each means of those device
JP3016691B2 (en) Data search condition setting method
JPH06231030A (en) Multi-media authoring system
JP4769838B2 (en) Content operation method and content operation program
US20230032115A1 (en) Multipurpose media players
JP5617535B2 (en) Information processing apparatus, information processing apparatus processing method, and program.
JP2000076463A (en) Analyzing method of video stream structure, structure analyzing process displaying method, and structure displaying method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061011

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061031

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20061201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091027

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees