JP4660824B2 - Information storage device for storing attribute information of media scene, information display device, and information storage method - Google Patents

Information storage device for storing attribute information of media scene, information display device, and information storage method Download PDF

Info

Publication number
JP4660824B2
JP4660824B2 JP2006278182A JP2006278182A JP4660824B2 JP 4660824 B2 JP4660824 B2 JP 4660824B2 JP 2006278182 A JP2006278182 A JP 2006278182A JP 2006278182 A JP2006278182 A JP 2006278182A JP 4660824 B2 JP4660824 B2 JP 4660824B2
Authority
JP
Japan
Prior art keywords
information
media
data
search
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006278182A
Other languages
Japanese (ja)
Other versions
JP2007049739A (en
Inventor
康幸 大木
り恵 小林
晃朗 長坂
忠 山光
順一 鳩岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006278182A priority Critical patent/JP4660824B2/en
Publication of JP2007049739A publication Critical patent/JP2007049739A/en
Application granted granted Critical
Publication of JP4660824B2 publication Critical patent/JP4660824B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、メディアシーンの属性情報を格納する情報格納装置、情報表示装置、および情報格納方法に関する。 The present invention relates to an information storage device that stores attribute information of a media scene , an information display device, and an information storage method .

近年、大容量ハードディスクの低価格化、PCの処理性能の向上、様々な映像・音声圧縮技術の登場、およびビデオオンデマンドの浸透などにより、映像データや音声データなどのメディアデータをコンピュータ上で容易に管理・検索・視聴できるようになってきた。また、このようなメディアデータを、コンピュータの特色を生かして効率よく管理・検索・視聴したいというニーズが増えてきている。従来のメディアデータの管理方法は、メディアデータファイルや映像・音声テープに簡単なキーワードやタイトル、作者名などをつけて検索するといった、データボリューム単位の情報管理が基本であった。しかし、ユーザが望むメディアデータの情報は、単純に映画の監督やテープタイトルなどのボリューム情報だけではなく、そのボリュームの中のいつどこで誰が写っているかあるいは話しているかなどの細かい単位の情報である場合も多い。近年、このような理由から、メディアデータ全体に情報を登録するだけでなく、メディアデータ中のシーンと呼ばれる内部単位にまでも情報を登録し管理できるシステムが望まれている。   In recent years, media data such as video data and audio data has been made easy on computers by reducing the price of large-capacity hard disks, improving the processing performance of PCs, introducing various video and audio compression technologies, and penetrating video on demand. It has become possible to manage, search and watch. In addition, there is an increasing need to efficiently manage, search, and view such media data by taking advantage of the features of computers. The conventional media data management method is based on information management in units of data volume, such as searching by adding simple keywords, titles, author names, etc. to media data files and video / audio tapes. However, the media data information that the user wants is not just volume information such as movie directors and tape titles, but also information in small units such as when and where in the volume or who is talking. There are many cases. In recent years, for such reasons, there is a demand for a system that not only registers information in the entire media data but also registers and manages information in internal units called scenes in the media data.

なお、本願において、「メディアデータ」とは、映像データや音声データだけでなく、静止画像に時間情報がついたスライドショーデータや、テキストデータに時間情報がついたクローズド・キャプション(字幕)データなど、時間情報を持ったデータ全体を指すものとする。メディアデータの一部分区間を切り出したものを「シーン」と呼び、またメディアデータの一部分に付随させた情報を「メディアシーン情報」、または単に「シーン情報」と呼ぶ。また「属性」とは時間情報を持たない付加的な情報の一般名称として用いる。なお、後述する発明の実施の形態においては、「部分空間」を主にビデオ形式のメディアデータのシーンを現す用語として用いるものとする。   In this application, “media data” is not only video data and audio data, but also slide show data with time information attached to still images, closed caption (caption) data with time information attached to text data, etc. It refers to the entire data with time information. A piece of media data cut out is called a “scene”, and information associated with a piece of media data is called “media scene information” or simply “scene information”. The “attribute” is used as a general name of additional information that does not have time information. In the embodiments of the invention described later, “subspace” is mainly used as a term representing a scene of media data in video format.

これまで、メディアデータ中のシーンの単位までデータを扱えるシステムとしては、映像の場合、映像編集ソフトや、映像内容を自動的に解析してシーン情報を登録する自動インデキシングシステムなどが存在している。   Up to now, there are video editing software and automatic indexing system that automatically analyzes video contents and registers scene information as a system that can handle data up to scene units in media data. .

従来の代表的な映像編集ソフトとしては、複数のメディアデータを繋ぎあわせて新しい1本のメディアデータを作成するソフトが知られている。このようなソフトでは、画面上に映画のフィルムに似せたメディアデータ表現を複数本表示し、このフィルム状メディアデータをユーザがマウスなどを用いて直接画面上で操作することにより、映像の再生時点や2本のフィルム状メディアデータ間の特殊効果付けなどを指示することができる(特開平07-046462号など)。   As conventional representative video editing software, software for creating a new piece of media data by connecting a plurality of media data is known. In such software, a plurality of media data representations that resemble movie films are displayed on the screen, and the film-like media data is operated on the screen directly by the user using a mouse or the like, so that the playback time of the video is displayed. Or a special effect between two pieces of film-like media data can be instructed (Japanese Patent Laid-Open No. 07-046462, etc.).

自動インデキシングシステムの代表的なものとして、たとえばシーン情報を登録したいメディアデータを指定すると、自動的に映像内容を解析し、その解析結果とそれに付随する時間情報を表形式で表示するものがある。   As a typical automatic indexing system, for example, when media data for which scene information is desired to be registered is designated, video contents are automatically analyzed, and the analysis result and accompanying time information are displayed in a table format.

上記の従来技術では、与えられたメディアデータに対してメディアデータ内のシーンの情報を登録・管理するにあたり、次のような課題が残されている。   In the above prior art, the following problems remain in registering and managing scene information in media data for given media data.

上記の映像編集ソフトでは、複数のシーン間の時間的配置を容易に把握できるが、複数のメディアデータを組み合わせて1本のメディアデータを作成するソフトであるため、ユーザが既に所有しているメディアデータに対して後からシーン情報だけを登録したり削除したりすることができない。   In the above video editing software, it is possible to easily grasp the temporal arrangement between a plurality of scenes. However, since the software is a software that creates a piece of media data by combining a plurality of media data, the media already owned by the user It is not possible to register or delete scene information for the data later.

上記の自動インデキシングシステムでは、メディアデータからシーン情報だけを自動的に抽出し登録できるが、自動抽出が難しい登場人物名や人物の年齢など、ユーザ独自のシーン情報を自由に追加したり削除したりできない。また、これらのデータは主に表形式で表現されているため、複数のシーン情報間の相互関係を把握しにくいという課題がある。たとえば、表形式のシーン情報の表現の場合、複数の人物が同時に現れるシーンなどといった、シーン情報間の時間的な相関関係や、ドラマの中にオープニング、本編、CM、およびエンディングというシーンが含まれているなどといったシーンの包含関係を簡潔に表示できないため、シーン情報を把握しにくい。   In the above automatic indexing system, only scene information can be automatically extracted and registered from media data, but user-specific scene information such as the names of characters and people's age that are difficult to automatically extract can be freely added or deleted. Can not. Further, since these data are mainly expressed in a tabular format, there is a problem that it is difficult to grasp the mutual relationship between a plurality of pieces of scene information. For example, in the case of tabular scene information representation, temporal correlations between scene information such as scenes in which multiple persons appear simultaneously, and scenes such as opening, main part, CM, and ending are included in the drama. It is difficult to grasp the scene information because the inclusive relation of the scene such as being cannot be displayed concisely.

本発明の目的は、メディアデータに対して該メディアデータ中のシーンの情報を登録するにあたり、シーン情報間の関連性をより簡単に把握可能にすること、および、より容易にシーン情報を編集可能にすることにある。   An object of the present invention is to make it possible to more easily grasp the relationship between scene information and to edit scene information more easily when registering scene information in the media data with respect to the media data. Is to make it.

上記目的を達成するため、本発明は以下の構成を採る。まず、メディアシーン情報のデータ構造としては、たとえば、時間情報を有したデータ(メディアデータ)の部分単位であるシーンの集合と、ユーザが登録する属性情報の集合と、これらシーンと属性情報との間の関連付けであるリンク情報の集合をメディアシーン情報として定義する。   In order to achieve the above object, the present invention adopts the following configuration. First, as the data structure of media scene information, for example, a set of scenes that are partial units of data (media data) having time information, a set of attribute information registered by the user, and these scenes and attribute information A set of link information that is an association between them is defined as media scene information.

本発明に係る装置には、まずメディアデータ自身を格納するメディアデータ格納手段と、メディアシーンの属性情報と、前記格納されたメディアデータの識別情報及び当該メディアデータにおける当該メディアシーンの時間存在位置の情報を有する部分空間オブジェクトと、をスーパークラスオブジェクトにより統一的に相互に参照できるように関連付けて格納する情報格納手段を用意する。これらの格納手段に情報を格納するには、本発明の実施の形態で述べるシステムを用いてユーザが手作業で情報を登録する方法以外にも、ビデオサーバやファイルシステムに格納されたメディアデータファイルおよびメディアシーン情報ファイルを読み込んでも良いし、さらには、膨大なメディアシーン情報データベースからある検索条件によって抽出されたメディアシーン情報を格納しても良い。なお、本発明の特徴点はデータの持ち方にある。データの持ち方とは、既にできあがった一本のメディアデータに後からメタデータを任意の位置に付与できるようなデータの持ち方のことである。本発明では、メディアデータとは別に属性情報を持って、後からメディアデータの一部分に属性情報を付与することができ、この点が特徴である。従来、属性情報に基づき関連する部分空間を辿ることはできても、逆に部分空間から属性へ辿ることはできなかった。したがって、1本のメディアデータの部分空間を選択して関連する属性情報を表示する本発明の手法は、新規なものである。 The apparatus according to the present invention includes media data storage means for storing media data itself, media scene attribute information, identification information of the stored media data, and the time location of the media scene in the media data. Information storage means for storing the subspace objects having information so as to be associated with each other so as to be uniformly referred to by the superclass object is prepared. In order to store information in these storage means, in addition to a method in which a user manually registers information using the system described in the embodiment of the present invention, a media data file stored in a video server or a file system is used. Alternatively, a media scene information file may be read, and further, media scene information extracted according to a certain search condition from a huge media scene information database may be stored. The characteristic point of the present invention is in the way of holding data. The data holding method is a data holding method that allows metadata to be added to an arbitrary position later on a piece of already created media data. In the present invention, attribute information is provided separately from media data, and attribute information can be given to a part of the media data later, which is a feature. Conventionally, although a related partial space can be traced based on attribute information, it is not possible to trace from a partial space to an attribute. Therefore, the method of the present invention for selecting a partial space of one piece of media data and displaying related attribute information is novel.

次に、上記格納した部分空間オブジェクトの時間存在位置情報に対応する時間軸上の位置に、当該部分空間オブジェクトに関する情報を時間軸と併せて表示する表示手段を設ける。また、前記表示された部分空間オブジェクトに関する情報により示されるメディアシーンを選択する選択手段と、選択されたメディアシーン情報に前記記憶装置において関連付けられている属性情報を抽出する情報抽出手段と、抽出された属性情報を他のメディアシーン情報と画面上で識別可能なように表示する情報表示制御手段とを設ける。抽出条件としては、装置の起動時に固定の抽出条件を定めても良いし、実行時にユーザからの指示により抽出条件を動的に定めても良い。これにより、ユーザは必要な時期に必要な分だけのデータ抽出条件を指定することができるようになり、より効率的なメディアシーン情報の内容確認や編集作業を行うことができる。 Next, display means for displaying information related to the subspace object together with the time axis at a position on the time axis corresponding to the time location information of the stored subspace object is provided. A selection unit that selects a media scene indicated by the information about the displayed subspace object; an information extraction unit that extracts attribute information associated with the selected media scene information in the storage device; There is provided information display control means for displaying the attribute information so as to be distinguishable from other media scene information on the screen. Is an extraction condition may be set to fixed extraction condition at the time of activation of the device, or may be dynamically set the extraction conditions according to an instruction from the user at runtime. As a result , the user can designate data extraction conditions as much as necessary at a required time, and can perform more efficient confirmation and editing of media scene information.

さらに、情報格納手段に、属性情報と部分空間オブジェクトとの関連付けを示すリンクオブジェクトを格納し、情報抽出手段により、前記リンクオブジェクトが有する関連付けの情報に基づき抽出を行うようにする。これにより、メディアシーン情報間の複雑な関連性をわかりやすく表現したり、膨大なメディアシーン情報からユーザが実際に編集したい情報だけを画面上に表示することにより、従来難しかったメディアシーン情報の編集作業を容易にすることができる。 Further, a link object indicating the association between the attribute information and the subspace object is stored in the information storage means, and the information extraction means performs extraction based on the association information possessed by the link object. This makes it easy to understand the complex relationships between media scene information, and displays only the information that the user wants to edit from the vast amount of media scene information on the screen. Work can be facilitated.

本発明では、さらに、前記部分空間オブジェクトは、当該部分空間オブジェクトに対する参照情報を格納することにより、前記関連付けをするようにする。 In the present invention, the subspace object further associates the subspace object by storing reference information for the subspace object.

本発明では、メディアシーン情報間の関連性をより分かりやすく表現するため、以下の3つのメディアシーン情報の表現形式を提供することもできる。   In the present invention, the following three media scene information expression formats can also be provided in order to express the relationship between the media scene information more easily.

1つ目は、メディアシーン情報の時間的な相関関係を表現するためのタイムライン表現形式である。この表現形式では、メディアシーン情報を、ディスプレイ手段上に定められた時間軸方向に沿って、そのメディアシーン情報が有する時間情報に従った画面位置に表示する。   The first is a timeline expression format for expressing the temporal correlation of media scene information. In this representation format, media scene information is displayed at a screen position according to the time information of the media scene information along the time axis direction defined on the display means.

2つ目は、複数のメディアシーン情報の構成要素を視覚的に一覧表示するアイコン表示形式である。この表現形式では、1つ1つのメディアシーン情報を視覚的に分かりやすいアイコン形式で画面内に配置することにより、メディアシーン情報の構成要素を一目で把握することができる。   The second is an icon display format for visually displaying a list of components of a plurality of media scene information. In this representation format, each piece of media scene information is arranged on the screen in a visually easy-to-understand icon format, so that the components of the media scene information can be grasped at a glance.

3つ目は、複数のメディアシーン情報の詳細な内容を表示することが可能なテーブル表現である。この表現形式を用いると、先の2つの表示形式では表示しきれなかった属性名や属性値などの情報を表示できる。また本表示形式を用いれば、属性名や属性値を直接選択できるので、これらの値を簡単に修正することができる。   The third is a table expression capable of displaying detailed contents of a plurality of media scene information. By using this expression format, it is possible to display information such as attribute names and attribute values that could not be displayed in the previous two display formats. Also, if this display format is used, attribute names and attribute values can be directly selected, and these values can be easily corrected.

その他の本発明の特徴的なメディアシーン情報表示・編集方法および装置などは、明細書中の記載から自ずと明らかになるであろう。   Other characteristic media scene information display / editing method and apparatus of the present invention will be apparent from the description in the specification.

本発明を用いることにより、与えられたメディアデータに対してメディアデータ中のシーンの情報を登録・管理する作業を次のように効率よく行うことができる。まず、既にユーザが所持しているメディアデータに対してユーザが後から属性情報を容易に登録でき、従来の映像編集ソフトなどのように、メディアデータ自身を変更することなく、簡単にユーザ固有情報を登録できる。メディアシーン情報間の複雑な時間情報、関連づけ情報、および属性情報を画面上で視覚的に表現できるため、メディアシーン情報の内容把握およびメディアシーン情報の加工が大幅に容易になる。具体的には、メディアシーン情報の時間的な前後関係をたとえば実施の形態で説明したようなタイムライン表示形式により明確に表示できる。また、従来は画面に表示されていなかったメディアシーン情報間の関連付け情報や、属性情報の存在位置を、色などを用いて一目で識別可能な表示を行うことができる。その他、表形式やアイコン形式を用いることにより、ユーザが確認したい情報量に応じて、メディアシーンの表示密度を変更できる。さらに本発明では、これらの視覚的に分かりやすい表現形式上でメディアシーン情報を直接操作によって検索・選択・編集できるため、従来より簡単な編集を行うことができる。   By using the present invention, it is possible to efficiently perform the operation of registering and managing scene information in media data for given media data as follows. First, the user can easily register the attribute information later on the media data already owned by the user, and the user-specific information can be easily changed without changing the media data itself as in conventional video editing software. Can be registered. Since complicated time information, association information, and attribute information between media scene information can be visually expressed on the screen, it is greatly facilitated to grasp the contents of the media scene information and process the media scene information. Specifically, the temporal context of the media scene information can be clearly displayed by the timeline display format as described in the embodiment, for example. In addition, it is possible to display the association information between the media scene information that has not been displayed on the screen and the presence position of the attribute information at a glance using colors or the like. In addition, by using a table format or an icon format, the display density of the media scene can be changed according to the amount of information that the user wants to confirm. Furthermore, in the present invention, media scene information can be searched, selected, and edited by direct operation on these visually easy-to-understand expression formats, so that editing can be performed more easily than before.

以下、本発明の実施の形態を図1から図15までを用いて説明する。まず図1を用いて本実施形態で用いるコンピュータ装置を説明する。次に図2、図3、および図4を用いて本実施形態におけるデータ構造を説明する。図5および図11は本実施形態におけるメディアシーン情報表示編集装置の実行画面である。最後に図6〜図15の構造化フローチャートなどを用いて本実施形態の処理方式を説明する。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. First, a computer apparatus used in this embodiment will be described with reference to FIG. Next, the data structure in this embodiment will be described with reference to FIGS. 2, 3, and 4. 5 and 11 are execution screens of the media scene information display editing apparatus according to this embodiment. Finally, the processing method of this embodiment will be described with reference to the structured flowcharts of FIGS.

なお、本実施形態では説明を簡単にするため、映像データにユーザの作成した属性情報を付加する映像シーン情報表示方法について述べるが、本システムは、映像データだけでなく、音声データやスライドショーデータなど時間情報を有した他形式のメディアデータにも容易に適用できる。   In this embodiment, for the sake of simplicity, a video scene information display method for adding user-created attribute information to video data will be described. However, the present system is not only video data but also audio data, slide show data, etc. It can be easily applied to other types of media data having time information.

まず図1を用いて、本発明の一実施形態で用いるコンピュータ装置を説明する。101はコンピュータ装置の本体であり、内部にCPU装置110とメモリ装置111を有する。また本コンピュータ装置本体101には、外部入出力手段として、キーボードやマウスなどのユーザからの入力を受け取る入力装置115と、CPU装置110で処理した内容をユーザに表示するためのディスプレイ装置113が用意されている。また本コンピュータ装置では、必要に応じて補助記憶装置114から、本実施形態の装置で用いるメディアシーン情報を読み込んだり格納したりすることができる。   First, a computer apparatus used in an embodiment of the present invention will be described with reference to FIG. Reference numeral 101 denotes a main body of a computer apparatus, which includes a CPU device 110 and a memory device 111 therein. Further, the computer apparatus main body 101 is provided with an input device 115 for receiving input from the user such as a keyboard and a mouse and a display device 113 for displaying the contents processed by the CPU device 110 to the user as external input / output means. Has been. The computer apparatus can read and store media scene information used in the apparatus of the present embodiment from the auxiliary storage device 114 as necessary.

本実施形態では、メモリ装置111または補助記憶装置114を用いて、メディアデータとメディアシーン情報群を格納している。また、CPU装置110とメモリ装置111により、メディアシーン情報群を抽出してディスプレイ装置113上に表示するメディアシーン情報抽出手段とメディアシーン情報表示制御手段、メディアシーン情報を加工するメディアシーン情報加工手段、およびユーザ入力に従った表示の変更を行うユーザ指示解析手段を実現している。   In the present embodiment, the media data and the media scene information group are stored using the memory device 111 or the auxiliary storage device 114. The CPU 110 and the memory device 111 extract media scene information groups and display them on the display device 113. Media scene information extracting means, media scene information display control means, and media scene information processing means for processing media scene information. , And user instruction analyzing means for changing the display according to the user input.

図2は、本実施形態で用いるメディアシーン情報のデータ構造の概念図である。本実施形態でのメディアシーン情報は、大きく分けて3つの部分から構成されている。1つ目は、時間情報を有したメディアデータである映像データ201の部分単位であるシーン、すなわち映像201中の部分であるシーンの時間存在位置を示す211,212,213などのデータである。これは、ユーザが属性情報を登録したい部分映像データ(シーン)を直接定義する情報である。2つ目は、ユーザが映像データ中のシーンに対して実際に登録したい属性情報221,222,223である。3つ目は、これら映像データの時間情報211,212,213とユーザが作成した属性情報221,222,223とを関連付けるためのリンク情報231〜234である。このように2つの情報の間をリンクで結ぶというデータ構造を用いることにより、すでにある映像データに対して、ユーザが後から簡単に属性情報を加えることが可能となる。   FIG. 2 is a conceptual diagram of a data structure of media scene information used in this embodiment. The media scene information in the present embodiment is roughly divided into three parts. The first is data such as 211, 212, and 213 indicating the time location of a scene that is a partial unit of video data 201 that is media data having time information, that is, a scene that is a part in video 201. This is information that directly defines partial video data (scene) for which the user wants to register attribute information. The second is attribute information 221, 222, and 223 that the user wants to actually register for the scene in the video data. The third is link information 231 to 234 for associating the time information 211, 212, 213 of the video data with the attribute information 221, 222, 223 created by the user. By using a data structure in which two pieces of information are linked in this way, the user can easily add attribute information to existing video data later.

なお、本実施形態では、211,212,213のような映像データ(または一般的にメディアデータ)に直接関わるデータを「部分空間」(シーン)と呼ぶ。これは、本発明の方式で属性を付加できる映像データの部分は、図2のような時間的な区切りで区切った部分だけでなく、映像データの画面中の一部分に写っている人物の座標位置や3次元CG映像中の一部分である一つの球体の領域など、XY座標空間(3次元の場合はXYZ座標空間)における部分領域も指定可能なためである。本実施の形態では、映像データの時間的な部分を例に説明するので、映像データの時間的な区間を「部分空間」と呼ぶ。   In the present embodiment, data directly related to video data (or generally media data) such as 211, 212, and 213 is referred to as a “partial space” (scene). This is because the portion of the video data to which the attribute can be added according to the method of the present invention is not only the portion divided by the time division as shown in FIG. 2, but also the coordinate position of the person shown in a part of the screen of the video data This is because a partial region in the XY coordinate space (XYZ coordinate space in the case of three dimensions), such as a region of one sphere that is a part of a three-dimensional CG image, can also be specified. In this embodiment, the temporal part of the video data is described as an example, so the temporal section of the video data is referred to as a “partial space”.

図2内の符号について簡単に説明する。映像データ201は、人のシーン、車のシーン、および家と人のシーンの3つのシーンから構成されている。従来は、これらのシーンの内容を確認するには、映像データ201を再生するしか手段がなかった。また従来は、これらシーンに登場する人物の名前や年齢などのシーン情報を確認する手段はなかった。   The symbols in FIG. 2 will be briefly described. The video data 201 is composed of three scenes: a human scene, a car scene, and a house and human scene. Conventionally, the only way to check the contents of these scenes is to reproduce the video data 201. Conventionally, there has been no means for confirming scene information such as names and ages of persons appearing in these scenes.

本実施形態のシステムでは、このような映像データ201に、たとえばシーン情報として、人物Aの情報221を後から登録できる。人物Aの情報221(本実施形態では「属性情報」と呼ぶ)には、現在、人物の名前が「A」であり、人物の年齢が26歳であることが記録されている。またこの人物は、映像データ201のうち、0:00から0:01までの「部分空間1」(またはシーン1)211と、0:05から0:06までの「部分空間3」(またはシーン3)に登場している。このため、本実施形態のシステムでは、属性情報「Aさん」221と「部分空間1」211との間、および属性情報「Aさん」221と「部分空間3」213との間に、リンク情報「登場」231,232を付加している。   In the system of this embodiment, the information 221 of the person A can be registered later in such video data 201 as scene information, for example. The person A information 221 (referred to as “attribute information” in this embodiment) records that the name of the person is currently “A” and the age of the person is 26 years old. In addition, in the video data 201, this person includes “partial space 1” (or scene 1) 211 from 0:00 to 0:01 and “subspace 3” (or scene) from 0:05 to 0:06. Appears in 3). For this reason, in the system of the present embodiment, link information between the attribute information “Mr. A” 221 and “partial space 1” 211 and between the attribute information “Mr. A” 221 and “subspace 3” 213 is linked information. “Appearance” 231 and 232 are added.

なお、属性情報としては、先の「Aさん」などの文字列以外にも、属性情報222のように「c:/car.doc」などと外部ファイルのリンク情報を埋め込んでもよいし、その他にも車や背景の色情報を光の3元色値(RGB値)で表現した情報や、あるアプリケーションだけが解釈できる特殊なバイト列データなどを埋め込んでも良い。   As attribute information, in addition to the character string such as “Mr. A”, “c: /car.doc” or the like and link information of an external file may be embedded as in attribute information 222. Alternatively, information expressing the color information of the car or background with light ternary color values (RGB values) or special byte string data that can be interpreted only by a certain application may be embedded.

図3は、図2の概念的なデータ構造を、図1のコンピュータ装置101で実際に扱えるように変換したデータ構造の一例である。本実施形態では、1つの部分空間に関する情報や、1つの属性情報などを、C++プログラミング言語などで用いるオブジェクトデータとして扱う。C++のオブジェクトデータでは、複数の変数をまとめて管理できる。たとえば部分空間211の情報は、オブジェクトデータ311として表現される。部分空間の開始時間「0:00」はオブジェクト内の変数beginに、終了時間「0:01」は同じく変数endに、部分空間のもととなる映像データ201の情報は同じく変数file「sample.mpg」に、展開される。同様に、部分空間212,213も部分空間のオブジェクト312,313として表現される。   FIG. 3 is an example of a data structure obtained by converting the conceptual data structure of FIG. 2 so that the computer apparatus 101 of FIG. 1 can actually handle it. In this embodiment, information on one partial space, one attribute information, and the like are handled as object data used in a C ++ programming language or the like. With C ++ object data, a plurality of variables can be managed together. For example, the information of the partial space 211 is expressed as object data 311. The subspace start time “0:00” is the variable begin in the object, the end time “0:01” is also the variable end, and the information of the video data 201 that is the base of the subspace is the variable file “sample. expanded to mpg ". Similarly, the subspaces 212 and 213 are also expressed as subspace objects 312 and 313.

属性情報221は、オブジェクトデータ331に変換される。ただし属性情報221は複数の(属性名,属性値)の組を有するため、本実施形態では属性集合オブジェクトの中に「meta(属性名,属性値)」という別オブジェクトを複数持つ構造をとっている。同様にして、属性情報222,223は、属性情報オブジェクト332,333に変換される。   The attribute information 221 is converted into object data 331. However, since the attribute information 221 has a plurality of (attribute name, attribute value) pairs, in the present embodiment, the attribute set object has a structure having a plurality of different objects “meta (attribute name, attribute value)”. Yes. Similarly, the attribute information 222 and 223 are converted into attribute information objects 332 and 333.

図2のリンク情報は、本実施形態では簡単のため、1本のリンクに対し、1つのリンクオブジェクトを用意している。リンクオブジェクトには、リンクの種別type、リンク元オブジェクトの参照情報src、リンク先オブジェクトの参照情報dstを登録できる。たとえば図2のリンク231は、リンクオブジェクト321に変換されている。リンク231の名称「登場」は、リンクオブジェクト321内の変数typeに格納される。リンクオブジェクト321の変数srcには、リンク231のリンク元である属性情報221を図3のオブジェクトに変換した属性情報オブジェクト331が登録される。本図では、リンク先を分かりやすく図示するために、srcの値を属性情報331の変数idである「Aさん」としているが、実際は属性情報オブジェクト331のメモリ上のアドレス値など、コンピュータ処理に向いた値を登録する。リンクオブジェクト321の変数dstも同様に、リンク231の先に示されている「部分空間1」に対応する部分空間オブジェクト311を示すことになる。以下同様にして、図2のリンク232,233,234は、リンクオブジェクト322,323,324に変換される。   Since the link information in FIG. 2 is simple in the present embodiment, one link object is prepared for one link. In the link object, the link type type, the link source object reference information src, and the link destination object reference information dst can be registered. For example, the link 231 in FIG. 2 is converted into a link object 321. The name “appearance” of the link 231 is stored in a variable type in the link object 321. In the variable src of the link object 321, an attribute information object 331 obtained by converting the attribute information 221 that is the link source of the link 231 into the object of FIG. 3 is registered. In this figure, in order to illustrate the link destination in an easy-to-understand manner, the value of src is “Mr. A”, which is the variable id of the attribute information 331. Register the appropriate value. Similarly, the variable dst of the link object 321 indicates the partial space object 311 corresponding to the “subspace 1” indicated at the tip of the link 231. Similarly, the links 232, 233, and 234 in FIG. 2 are converted into link objects 322, 323, and 324, respectively.

最後に、本実施形態のシステムでは、それぞれ複数個ある部分空間オブジェクト311〜313、リンクオブジェクト321〜324、および属性オブジェクト331〜333を、部分空間の集合データ301、リンクの集合データ302、および属性の集合データ303に格納している。これら集合データを実現するには、C++ Standard Template Libraryなどに含まれているSet型を用いれば良い。これらのライブラリを用いれば、集合データから要素を一つずつ取り出す処理や、和や差などの集合演算の処理を簡単に実現できる。   Finally, in the system of this embodiment, there are a plurality of subspace objects 311 to 313, link objects 321 to 324, and attribute objects 331 to 333, subspace set data 301, link set data 302, and attributes, respectively. Are stored in the collective data 303. To realize these set data, the Set type included in the C ++ Standard Template Library may be used. By using these libraries, it is possible to easily realize processing for extracting elements one by one from the set data and processing of set operations such as sum and difference.

なお、図2の概念図で示したリンクの実現方法については、本実施形態のリンクオブジェクトを作成する方法以外も適用できる。たとえば、属性情報オブジェクトに、部分空間オブジェクトを参照するポインタを配列として持たせる方法を用いても良い。同様に部分空間オブジェクトにも属性情報をポイントする逆参照を持たせても良い。   Note that the link realizing method shown in the conceptual diagram of FIG. 2 can be applied to methods other than the method of creating a link object of the present embodiment. For example, a method in which the attribute information object has a pointer that refers to the subspace object as an array may be used. Similarly, a subspace object may have a reverse reference that points to attribute information.

図4は、図3に示したデータ構造の仕様をより詳しく説明した図であり、オブジェクトのクラスの関連を表す図である。ここでのクラスとはC++のクラスなどオブジェクト指向プログラミングで用いる用語と同一である。また本図で示したクラスの表記方法は、UML(Uniformed Modeling Laguage)図式に基づいている。   FIG. 4 is a diagram for explaining the specification of the data structure shown in FIG. 3 in more detail, and is a diagram showing the relationship between object classes. The class here is the same as a term used in object-oriented programming, such as a C ++ class. The class notation method shown in this figure is based on the UML (Uniformed Modeling Language) diagram.

図4において、図3の部分空間オブジェクトのクラスは、本実施形態ではクラス「Frag」404になる。また属性情報オブジェクトのクラスは、クラス「Attr」405になる。リンクオブジェクトのクラスは、クラス「Link」403になる。なお、本実施形態では簡単のため、これらFragとAttrのクラスオブジェクトを統一的に扱えるスーパークラス「Object」402を用意する。Objectを設けることにより、図3の部分空間の集合301と属性の集合303とを1つの集合として簡単に扱うことができる。Objectクラス402には、オブジェクトのクラスがAttrかFragを区別するためのメンバ変数classと、オブジェクトに名前をつけるためのメンバ変数idがある。   In FIG. 4, the class of the subspace object in FIG. 3 is the class “Frag” 404 in this embodiment. The class of the attribute information object is class “Attr” 405. The class of the link object is class “Link” 403. For the sake of simplicity in this embodiment, a super class “Object” 402 that can handle these Flag and Attr class objects in a unified manner is prepared. By providing an object, the subspace set 301 and the attribute set 303 of FIG. 3 can be easily handled as one set. The Object class 402 includes a member variable class for distinguishing whether the object class is Attr or Flag, and a member variable id for naming the object.

また、本実施形態では、オブジェクトの選択状態に応じてオブジェクトごとに色をつけて表示できるようにするため、selectColor変数も設けている。なおselectColorを設ける方法以外に、選択状態変数selectなどを設けて、オブジェクト表示時に選択状態に従って色を選ぶ方法を採っても良い。本実施形態では、さらに、selectColor変数をリスト型として実現することにより、1つのオブジェクトに複数の色を同時に登録できるようにしている。これにより、マウス選択状態の色だけでなく、選択されたオブジェクトに関連づけられている部分空間や属性情報などを別色で画面上に表示したり、ユーザが指定した様々な検索条件ごとに別々の色を登録することもでき、ユーザが画面を見た際に一目でオブジェクトの種別を確認できるようになっている。   In the present embodiment, a selectColor variable is also provided so that each object can be displayed with a color depending on the selection state of the object. In addition to the method of providing selectColor, a method of selecting a color according to the selection state at the time of displaying an object by providing a selection state variable select or the like may be adopted. In the present embodiment, a plurality of colors can be simultaneously registered in one object by realizing the selectColor variable as a list type. As a result, not only the color of the mouse selection state but also the partial space and attribute information associated with the selected object can be displayed on the screen in different colors, or different search conditions specified by the user can be displayed separately. Colors can also be registered, and the type of object can be confirmed at a glance when the user looks at the screen.

Fragクラス404のメンバ変数には、図3で説明したbegin,end,fileがある。クラス「Meta」406は、複数の(属性名,属性値)の情報をAttrクラス405に持たせるためにある。Metaクラス406には、属性名を表すメンバ変数nameと属性値を表すメンバ変数contentsがある。Attrクラス405では、このMetaクラスオブジェクトを複数持つために、集合型のメンバ変数mlistを持っている。   The member variables of the Flag class 404 include begin, end, and file described with reference to FIG. The class “Meta” 406 is used to cause the Attr class 405 to have a plurality of pieces of information (attribute name, attribute value). The Meta class 406 includes a member variable name representing an attribute name and member variable contents representing an attribute value. The Attr class 405 has a set type member variable mlist in order to have a plurality of Meta class objects.

Linkクラス403のメンバ変数には、図3で説明したtype,src,dstがある。srcとdstは、共にObjectクラスオブジェクトを参照できる。   The member variable of the Link class 403 includes type, src, and dst described with reference to FIG. Both src and dst can refer to the Object class object.

最後にクラス「本システム」401について説明する。クラス「本システム」401には、表示・編集する対象となるシーン情報として、部分空間と属性情報の集合であるメンバ変数Sと、リンクの集合であるメンバ変数Lとを有している。   Finally, the class “present system” 401 will be described. The class “present system” 401 includes, as scene information to be displayed / edited, a member variable S that is a set of partial spaces and attribute information, and a member variable L that is a set of links.

図5は、本実施形態のシステムの実行画面の一例である。メインウィンドウ501の中には、シーン情報を分かりやすく表示するための3つの(サブ)ウィンドウが表示されている。1つ目はタイムライン表示ウィンドウ502、2つ目はアイコン表示ウィンドウ504、3つ目はテーブル表示ウィンドウ503である。なお、これら以外にもシーン情報を画面上に表現できる手段があれば、これら3種類のウィンドウは表示しなくとも良い。また逆に、これらウィンドウはそれぞれ1枚だけでなくとも、それぞれ複数枚設けても良い。複数枚ウィンドウを設ければ、一つのシーン情報をより多面的に把握することが可能となる。   FIG. 5 is an example of an execution screen of the system of this embodiment. In the main window 501, three (sub) windows for displaying scene information in an easy-to-understand manner are displayed. The first is a timeline display window 502, the second is an icon display window 504, and the third is a table display window 503. Note that these three types of windows need not be displayed if there is a means for expressing scene information on the screen other than these. Conversely, a plurality of windows may be provided instead of only one. If a plurality of windows are provided, it is possible to grasp one scene information in a multifaceted manner.

メインウィンドウ501には、メインメニュー506が設けられており、これによりシーン情報のファイルの読み書きや、編集操作、検索操作などを指示することができる。   The main window 501 is provided with a main menu 506, which can instruct reading / writing of scene information files, editing operations, search operations, and the like.

以降では、タイムライン表示ウィンドウ502、アイコン表示ウィンドウ504、およびテーブル表示ウィンドウ503の順に内容を説明する。その後、ユーザの操作方法について説明する。   Hereinafter, the contents will be described in the order of the timeline display window 502, the icon display window 504, and the table display window 503. Then, a user's operation method is demonstrated.

タイムライン表示ウィンドウ502では、画面上の横向きの時間軸に沿ってシーン情報を表示することにより、シーン情報間の時間的な関係を一見にして把握できる。本実施形態では、タイムライン表示ウィンドウ502に、属性付けの対象となる映像データ511、該映像に付随する音声データ512、およびユーザが付加した属性情報や部分空間などの情報を情報の種別ごとに表示したユーザデータ513,514,515が表示されている。なお、タイムライン表示ウィンドウ502では、ユーザデータが1本だけ時間軸上に表示されていれば良く(たとえば513だけ)、他のデータ511,512,514,515などは表示されていなくとも良い。また、時間軸の向きは画面内で設定されていれば、横向きだけでなく、縦向きでも、3次元表示中の奥行き方向でも構わない。図5では、時間として0:00から0:06まで時間区間のシーン情報を表示している。映像データ511では、該時間区間中のフレーム画像を表示している。音声データ512では、該時間区間中の音声波形グラフを表示している。   In the timeline display window 502, by displaying the scene information along the horizontal time axis on the screen, the temporal relationship between the scene information can be grasped at a glance. In the present embodiment, the video data 511 to be attributed, the audio data 512 attached to the video, and attribute information and partial space added by the user are displayed in the timeline display window 502 for each type of information. The displayed user data 513, 514, 515 is displayed. In the timeline display window 502, only one user data needs to be displayed on the time axis (for example, only 513), and other data 511, 512, 514, 515, etc. need not be displayed. Further, as long as the direction of the time axis is set in the screen, not only the horizontal direction but also the vertical direction or the depth direction during the three-dimensional display may be used. In FIG. 5, scene information of a time section from 0:00 to 0:06 is displayed as time. In the video data 511, a frame image in the time interval is displayed. In the voice data 512, a voice waveform graph during the time interval is displayed.

ユーザデータのうち「部分空間一覧」513では、本システムが格納しているシーン情報のうち、複数の部分空間オブジェクトを時間軸上に表現している。たとえば、図3「部分空間1」311は、時間0:00から0:01までの情報を表すデータであるが、この情報は図5では画面上の0:00から0:01までに表示されている部分空間バー521として表現される。同様に、図3の「部分空間2」312,「部分空間3」313は、部分空間バー522,523として表現される。このように部分空間オブジェクトは、メンバ変数begin,endの値に応じた画面上の座標位置に表示される。この時間座標変換は、タイムライン表示ウィンドウ502の位置と幅、および同ウィンドウ内の表示開始時間と終了時間から、単純な比例関係により計算できる。   In the “subspace list” 513 of user data, a plurality of subspace objects are represented on the time axis in the scene information stored in the system. For example, “subspace 1” 311 in FIG. 3 is data representing information from time 0:00 to 0:01, but this information is displayed from 0:00 to 0:01 on the screen in FIG. It is expressed as a subspace bar 521. Similarly, “partial space 2” 312 and “partial space 3” 313 in FIG. 3 are represented as partial space bars 522 and 523. Thus, the subspace object is displayed at the coordinate position on the screen according to the values of the member variables begin and end. This time coordinate conversion can be calculated by a simple proportional relationship from the position and width of the timeline display window 502 and the display start time and end time in the window.

なお、ユーザデータを「部分空間一覧」513、「字幕一覧」514、および「ズーム一覧」515のように分類して表示するためには、「部分空間一覧」用と「字幕一覧」用と「ズーム一覧」用の3つのシーン情報データを用意し、それぞれに対応するタイムライン表示ウィンドウを別途作成すれば良い。シーン情報データを別々に用意する簡単な方法としては、3つのシーン情報ファイルを開いたり、1つのシーン情報ファイル中に3つのパートを設けたりする方法がある。その他の方法としては、1つのシーン情報データから、「字幕一覧」に関する情報だけを検索し抽出することとしても良い。これは言い換えると、シーン情報データを図3に示したような集合として考えた場合、「部分空間一覧」用部分集合、「字幕一覧」用部分集合、「ズーム一覧」用部分集合を、抽出・表示することに相当する。   In order to classify and display user data such as “partial space list” 513, “subtitle list” 514, and “zoom list” 515, “subspace list”, “subtitle list”, “ Three pieces of scene information data for the “zoom list” are prepared, and a timeline display window corresponding to each is prepared separately. As a simple method for preparing the scene information data separately, there are a method of opening three scene information files and providing three parts in one scene information file. As another method, only information related to “subtitle list” may be searched and extracted from one scene information data. In other words, when the scene information data is considered as a set as shown in FIG. 3, a “subspace list” subset, a “subtitle list” subset, and a “zoom list” subset are extracted and It corresponds to displaying.

なお、これら複数の部分集合は、互いに背反でなくとも良く、共通部分を持っても良い。たとえば、図3の集合に対し、「Aさん一覧」部分集合と「家一覧」部分集合を定義した場合、「部分空間3」313はどちらの部分空間にも属する。タイムライン表示ウィンドウにて「Aさん一覧」部分集合と、「家一覧」部分集合とを別々に表示すると、「部分空間3」の部分空間バーは、どちらの表示にも現れることになる。   Note that the plurality of subsets do not have to be mutually exclusive and may have a common portion. For example, if a “Mr. A list” subset and a “house list” subset are defined for the set of FIG. 3, “subspace 3” 313 belongs to both subspaces. If the “A-san list” subset and the “house list” subset are displayed separately in the timeline display window, the subspace bar of “subspace 3” will appear in both displays.

アイコン表示ウィンドウ504は、シーン情報に含まれる部分空間オブジェクト、または属性オブジェクトを、アイコン形式で視覚的に列挙表示するウィンドウである。本ウィンドウを用いることにより、シーン情報に含まれる複数のオブジェクトを視覚的に一覧表示でき、ユーザは一見にしてシーン情報の内容を把握できる。タイムライン表示では全体のうちある時間区間の間のデータしか表示できないが、アイコン表示ウィンドウであれば、ある条件に従ったシーン情報を時間を無視して列挙でき、より少ない画面スペースで多くのシーン情報を閲覧できる。   The icon display window 504 is a window for visually listing and displaying subspace objects or attribute objects included in the scene information in an icon format. By using this window, a plurality of objects included in the scene information can be visually displayed as a list, and the user can grasp the contents of the scene information at a glance. In the timeline display, only the data for a certain time interval can be displayed, but if it is an icon display window, scene information according to certain conditions can be enumerated ignoring time, and more scenes can be saved with less screen space. Can browse information.

本実施形態では、アイコン表示ウィンドウに、図3の例で示した3つの部分空間、すなわち「部分空間1」311、「部分空間2」312、および「部分空間3」313の情報を、アイコン541,542,543として表示している。本実施形態の場合、アイコンは、オブジェクトの中身を視覚的に表現する画像データと、それに付随する文字列から構成されている。本実施形態では、部分空間オブジェクトのアイコンの場合、この画像データとして、メンバ変数beginの時間位置での、映像データのフレーム画像を用いている。これにより、部分空間の内容を視覚的に把握できる。属性オブジェクトを表すアイコンの場合や、音声データに対する部分空間を表すアイコンの場合は、映像データから簡単に画像を取得できないので、ある決まった図柄データを用いればよい。   In the present embodiment, information on the three partial spaces shown in the example of FIG. 3, that is, “partial space 1” 311, “partial space 2” 312, and “subspace 3” 313, is displayed in the icon display window. , 542, 543. In the case of this embodiment, the icon is composed of image data that visually represents the contents of the object and a character string that accompanies the image data. In the present embodiment, in the case of an icon of a partial space object, a frame image of video data at the time position of the member variable begin is used as the image data. Thereby, the contents of the partial space can be visually grasped. In the case of an icon representing an attribute object or an icon representing a partial space with respect to audio data, an image cannot be easily acquired from video data, and therefore certain symbol data may be used.

なお、アイコン画像は、1枚の静止画でなくとも良い。たとえばアイコンに動画を用いる場合、部分空間のbeginからendまでの映像を常時再生すれば良い。その他、部分空間のbeginからendまでの任意の4枚程度の画像を並べたり切り換えたりして1つのアイコン画像としても良い。   The icon image does not have to be a single still image. For example, when a moving image is used for the icon, the video from the begin to the end of the partial space may be always reproduced. In addition, it is also possible to arrange or switch any four images from begin to end of the partial space to form one icon image.

テーブル表示ウィンドウ503は、シーン情報に含まれる部分空間オブジェクト、属性オブジェクト、およびリンクオブジェクトの内容(内容=メンバ変数の値)を表形式で表示するウィンドウである。本ウィンドウにより、タイムライン表示やアイコン表示では表示しきれなかった詳細な属性情報をより多く表示することができる。ここでは処理方法の詳細を説明しないが、本ウィンドウを用いて、ユーザは、内容の確認だけでなく属性値の追加、削除、および変更などを行うこともできる。   The table display window 503 is a window that displays the contents (contents = member variable values) of the subspace object, attribute object, and link object included in the scene information in a table format. With this window, it is possible to display more detailed attribute information that could not be displayed by timeline display or icon display. Although details of the processing method will not be described here, using this window, the user can not only confirm the contents but also add, delete, and change attribute values.

図5は、「部分空間3」523をマウス505で選択したときの画面であり、「部分空間3」に関連する情報がテーブル表示ウィンドウ503にすべて表示されている。たとえば531は、「Aさん」の属性として、「名前がA」で「年齢が26」であることを表している。532は「家」の属性情報を表している。   FIG. 5 shows a screen when “partial space 3” 523 is selected with the mouse 505, and all the information related to “partial space 3” is displayed in the table display window 503. For example, 531 indicates that “name is A” and “age is 26” as attributes of “Mr. A”. Reference numeral 532 denotes attribute information of “house”.

なお、本ウィンドウ503に属性情報ではなく部分空間オブジェクトの情報を表示する場合は、部分空間の名前と、メンバ変数begin,end,srcなどの値を表示すれば良い。本ウィンドウ503にリンク情報を表示する場合は、メンバ変数type,src,dstの値などを表示すれば良い。なお、部分空間オブジェクトやリンクオブジェクトの詳細を表示すると、表が大きくなり分かり難くなるので、属性情報だけを表に表示するようなオプションを用意しても良い。   Note that when displaying the information of the subspace object instead of the attribute information in the window 503, the name of the subspace and the values of the member variables begin, end, src, etc. may be displayed. When link information is displayed in this window 503, the values of member variables type, src, dst, etc. may be displayed. If the details of the subspace object and the link object are displayed, the table becomes large and difficult to understand. Therefore, an option for displaying only the attribute information on the table may be prepared.

また、表を見やすくするために、表の横にツリー構造の表示を追加しても良い。たとえば、現在531では、「attr,Aさん」の行の下にそのまま「名前」と「年齢」を表示しているが、ツリー構造の表示であれば、「attr,Aさん」を親ノードとし、「名前」と「年齢」をその子ノードとすれば、より分かりやすい表示となる。同様にリンクオブジェクトを親ノードとし、リンク先データを子ノードとして表示すれば、ツリー構造表示の操作だけで、リンク先の詳細な内容を確認できるようになる。   In order to make the table easier to see, a tree structure display may be added to the side of the table. For example, in the current 531, “name” and “age” are displayed as they are under the “attr, Mr. A” line. However, if the tree structure is displayed, “attr, Mr. A” is the parent node. If “name” and “age” are its child nodes, the display becomes easier to understand. Similarly, if the link object is displayed as a parent node and the link destination data is displayed as a child node, the detailed contents of the link destination can be confirmed only by a tree structure display operation.

図5の最後の説明として、ユーザの操作方法について簡単に説明する。以降ではまずクリック時の選択操作を述べ、次に編集操作方法について述べる。   As a final description of FIG. 5, a user operation method will be briefly described. In the following, the selection operation at the time of clicking will be described first, and then the editing operation method will be described.

ユーザは、視覚的に表現されたシーン情報をマウス505を用いて操作することができる。たとえばユーザが「部分空間3」に対応するタイムライン表示(部分空間バー)523をクリックすると、部分空間バー523が選択表示される。この際、本実施形態では、アイコン表示ウィンドウ504に表示されている同一データ543も選択表示される。またこの際、本実施形態では、選択されたオブジェクト自身とそれに関連する属性情報オブジェクトが、テーブル表示ウィンドウ503に表示されるようになっている。   The user can operate the visually expressed scene information using the mouse 505. For example, when the user clicks the timeline display (partial space bar) 523 corresponding to “partial space 3”, the partial space bar 523 is selectively displayed. At this time, in the present embodiment, the same data 543 displayed in the icon display window 504 is also selectively displayed. At this time, in this embodiment, the selected object itself and the attribute information object related thereto are displayed in the table display window 503.

また、本実施形態では、オブジェクトがクリックされて選択状態になると、そのオブジェクトに関連する(すなわち、リンクが張られた)オブジェクトが、関連選択表示という、選択表示とは違う色で表現される。たとえば、「部分空間3」523と「字幕3」551および「ズーム2」552とに「包含」関係のリンクが張られていたとすると、「字幕3」551および「ズーム2」552は、選択中の「部分空間3」523とは別色で表示される。   In this embodiment, when an object is clicked to be in a selected state, an object related to the object (that is, a link is established) is expressed in a color different from the selection display, that is, a related selection display. For example, assuming that “subspace 3” 523, “subtitle 3” 551, and “zoom 2” 552 are linked to “include”, “subtitle 3” 551 and “zoom 2” 552 are selected. "Partial space 3" 523 is displayed in a different color.

また、本実施形態では、ある条件に従ったシーン情報だけを別の色で表現することもできる。たとえば、Aさんが現れるシーンを青色に、またあるCM映像だけを緑色に、またエンディングシーンを非表示に(透明に)、またあるシーンに登場する(と関連付けられている)人物をすべて赤色に、それぞれ表示することもできる。この具体的な操作方法や実現方法は、後の構造化フローチャートにて説明する。   In the present embodiment, it is also possible to express only scene information according to a certain condition with another color. For example, the scene where Mr. A appears is blue, only a certain CM video is green, the ending scene is hidden (transparent), and all the people appearing in (related to) a scene are red , Each can be displayed. The specific operation method and realization method will be described later in the structured flowchart.

以上のように本実施形態では、シーン情報中の複雑な関連情報を色分けして表示することにより、シーン情報をより簡単に把握することができる。   As described above, in the present embodiment, the scene information can be more easily grasped by displaying the complicated related information in the scene information in different colors.

次に、本実施形態のシステムにおける編集操作方法について簡単に説明する。タイムライン表示ウィンドウ502では、ユーザはウィンドウ内の一時間点を指定して部分空間を追加・削除できる。また部分空間バーの時間位置をマウスのドラッグにより変更できる。また複数の部分空間を選択してリンクを設定することができる。アイコン表示ウィンドウ504では、部分空間や属性情報を追加・削除できる。テーブル表示ウィンドウ503では、属性値を変更することができる。部分空間、属性情報、あるいはリンク情報を追加・削除した場合は、図3で示した集合301,302,303に対して要素の追加・削除を行えば良い。オブジェクトの値を変更する場合は、ユーザが選択した座標位置から対応オブジェクト集合を探し出して、オブジェクトの値を変更すれば良い。より具体的な編集操作の実現方法については、図15の構造化フローチャートなどを用いて説明する。   Next, an editing operation method in the system of this embodiment will be briefly described. In the timeline display window 502, the user can add / delete a partial space by designating one time point in the window. The time position of the subspace bar can be changed by dragging the mouse. A plurality of partial spaces can be selected to set a link. In the icon display window 504, a partial space and attribute information can be added / deleted. In the table display window 503, the attribute value can be changed. When a partial space, attribute information, or link information is added / deleted, elements may be added / deleted from the sets 301, 302, 303 shown in FIG. When changing the value of an object, it is only necessary to find the corresponding object set from the coordinate position selected by the user and change the value of the object. A more specific method for realizing the editing operation will be described with reference to the structured flowchart of FIG.

次に、図6、図7、図8、図9、および図10の構造化フローチャートを用いて本実施形態における画面表示の処理方式を説明する。図6は、本実施形態のシステムのメイン処理である。図7は、タイムライン表示処理である。図8は、アイコン表示処理である。図9は、テーブル表示処理とそれに関わるサブルーチンである。図10は、ユーザマウスクリック時の選択処理とそれに関わるサブルーチンである。   Next, a screen display processing method according to the present embodiment will be described with reference to the structured flowcharts of FIGS. 6, 7, 8, 9, and 10. FIG. 6 shows the main processing of the system of this embodiment. FIG. 7 shows a timeline display process. FIG. 8 shows icon display processing. FIG. 9 shows a table display process and a subroutine related thereto. FIG. 10 shows a selection process when the user mouse is clicked and a subroutine related thereto.

まず図6の本実施形態のシステムのメイン処理600を説明する。   First, the main processing 600 of the system of this embodiment shown in FIG. 6 will be described.

システムが起動されると、まずステップ601で、本システムが持つメンバ変数であるObjectの集合S0(=部分空間の集合∪属性の集合)とLinkの集合L0を初期化する。この初期化の方法としては、次のようにする。新規作成の場合、S0=L0=φとして初期化すれば良い。ファイルから読み込む場合は、ユーザが指定したシーン情報のファイルを読み込み、S0とL0に代入すれば良い。その他の方法としては、DBの映像検索結果をシーン情報としてS0とL0に代入したり、(株)日立製作所製の映像解析ライブラリMediachef Componentを用いて解析した映像データのシーン情報をS0とL0に追加したりしても良い。なお、このS0とL0を合わせたものが本実施形態でのメディアシーン情報全体であり、S0とL0を格納するメモリ領域がメディアシーン情報格納手段となっている。   When the system is activated, first, in step 601, a set of objects S0 (= a set of subspaces and a set of attributes) which are member variables of the system and a set of links L0 are initialized. The initialization method is as follows. In the case of new creation, initialization may be performed as S0 = L0 = φ. When reading from a file, a scene information file designated by the user may be read and assigned to S0 and L0. Other methods include substituting the video search result of DB into S0 and L0 as scene information, or scene information of video data analyzed using a video analysis library Mediachef Component manufactured by Hitachi, Ltd. in S0 and L0. It may be added. Note that the sum of S0 and L0 is the entire media scene information in this embodiment, and the memory area for storing S0 and L0 is the media scene information storage means.

次にステップ602にて、画面の表示処理やマウスの選択処理などで用いるマウス選択オブジェクト集合SS、および関連オブジェクト集合SRと、検索処理で用いる登録条件リストCLを空集合φで初期化する。   Next, in step 602, the mouse selection object set SS and the related object set SR used in the screen display process and the mouse selection process and the registration condition list CL used in the search process are initialized with the empty set φ.

次にステップ700にて、タイムライン表示ウィンドウ502を作成して、タイムライン表示処理DrawTimeLine(S0, L0)を呼び出すことにより、タイムライン表示ウィンドウ502を初期描画する。ステップ800にて、アイコン表示ウィンドウ504を作成して、アイコン表示処理DrawIcon(S0, L0)を呼び出すことにより、アイコン表示ウィンドウ504を初期描画する。ステップ900にて、テーブル表示ウィンドウ503を作成して、テーブル表示処理DrawTable(SS, L0)を呼び出すことにより、テーブル表示ウィンドウ503を初期描画する。本実施形態では、DrawTableのパラメタとして現在選択されているシーン情報の集合SSを渡している。これにより、テーブル表示ウィンドウ503では、現在選択中のシーン情報だけについて詳細な内容を表示することができる。   Next, in step 700, a timeline display window 502 is created, and the timeline display window 502 is initially drawn by calling the timeline display process DrawTimeLine (S0, L0). In step 800, an icon display window 504 is created, and the icon display window 504 is initially drawn by calling icon display processing DrawIcon (S0, L0). In step 900, a table display window 503 is created and the table display window 503 is initially drawn by calling the table display process DrawTable (SS, L0). In the present embodiment, the currently selected scene information set SS is passed as a parameter of the DrawTable. As a result, the table display window 503 can display detailed contents only for the currently selected scene information.

なお、図5の説明でも述べたように、これら3種類のウィンドウは複数作成しても良いし、別の表示手段を用いる場合は表示しなくとも良い。   As described in the explanation of FIG. 5, a plurality of these three types of windows may be created, or may not be displayed when another display means is used.

次にループ処理603にて、ユーザ終了指示があるまで、ステップ621以降のユーザ操作解析処理を繰り返す。ユーザ操作解析処理では、ステップ621で、入力装置115からのユーザ指示を待ち、次にステップ622にて、ユーザ指示に従ったユーザ操作処理を行う。ユーザがマウスなどをクリックした場合は、ステップ1000にて選択処理を呼び出す。ユーザが部分空間や属性情報やリンク情報などのオブジェクトの追加・削除・変更指示をした場合は、ステップ1500にて、その編集指示に従った編集処理を行う。ユーザが検索メニューを選択した場合は、ステップ632にて検索処理を行う。なお、検索処理632のフローチャートについては、検索メニューのうち、条件の登録メニューと、既に登録された条件のメニューのみについて後述する。   Next, in a loop process 603, the user operation analysis process after step 621 is repeated until a user end instruction is issued. In the user operation analysis process, in step 621, a user instruction from the input device 115 is awaited, and in step 622, a user operation process according to the user instruction is performed. If the user clicks the mouse or the like, the selection process is called in step 1000. If the user gives an instruction to add, delete, or change an object such as a partial space, attribute information, or link information, in step 1500, an editing process is performed according to the editing instruction. If the user selects the search menu, search processing is performed in step 632. In addition, regarding the flowchart of the search process 632, only the condition registration menu and the already registered condition menu in the search menu will be described later.

次に図7を用いて、タイムライン表示処理DrawTimeLine(S,L)(ステップ700)を説明する。DrawTimeLine()の入力パラメタとして、表示対象となるObjectの集合S(=部分空間の集合∪属性の集合)とLinkの集合Lが渡される。   Next, the timeline display process DrawTimeLine (S, L) (step 700) will be described with reference to FIG. As input parameters of DrawTimeLine (), a set S of objects to be displayed (= set of subspaces∪set of attributes) and a set L of links are passed.

まずステップ701では、部分空間と属性情報からなるオブジェクトの集合Sから、部分空間だけからなる集合を抽出するために、集合Sの全要素を調べ、集合Sの要素eのメンバ変数classの値が"frag"である要素だけを取り出し、それを集合Fに追加する処理を行う。なお、処理の効率化のため、あらかじめ集合Sを部分空間の集合Fと属性の集合とに分割しておいても良い。次に部分空間の集合Fの全ての要素eに対して、タイムライン表示の部分空間バーを表示するため、ループ処理702を行う。   First, in step 701, in order to extract a set consisting only of a subspace from a set S of objects consisting of a subspace and attribute information, all elements of the set S are examined, and the value of the member variable class of the element e of the set S is determined. Only the element that is “frag” is taken out and added to the set F. Note that the set S may be divided into a subspace set F and an attribute set in advance in order to improve processing efficiency. Next, a loop process 702 is performed to display timeline display partial space bars for all elements e of the set F of partial spaces.

ループ処理702の中では、まずステップ711にて、e.beginの時間値とe.endの時間値を、画面上の時間軸の座標位置bx,exに変換する。ある時間tを画面上の座標xに変換するには、
座標x=時間to座標変換(t)
=(t−画面上の時間軸の開始時間)÷
(画面上の時間軸の終了時間−開始時間)×
画面上の時間軸の幅+画面上の時間軸開始座標
とすれば良い。
In the loop processing 702, first, in step 711, the time value of e.begin and the time value of e.end are converted to coordinate positions bx, ex on the time axis on the screen. To convert a time t to a coordinate x on the screen,
Coordinate x = time to coordinate transformation (t)
= (T-time axis start time on the screen) /
(Time axis end time on screen-start time) x
The time axis width on the screen + the time axis start coordinate on the screen may be used.

次にステップ712にて、部分空間バーの外枠を描画するために、左上座標(bx,0)、右下座標(ex,10)の四角形を描画する。次に部分空間バーの中に部分空間の名称e.idを表示する。場所は(bx,0)とする。次にステップ713にて、部分空間バーの先頭位置に小さなアイコン画像を表示する。これにより、部分空間バーだけを見てもどのような内容の映像データかを瞬時に確認できるようになる。画像は、e.fileに指定された映像ファイルを開き、その中の時間位置e.beginにあるフレーム画像を表示する。画像の表示位置は座標(bx,30)とし、先の文字列より若干下に表示する。   Next, in step 712, a rectangle with upper left coordinates (bx, 0) and lower right coordinates (ex, 10) is drawn to draw the outer frame of the partial space bar. Next, the subspace name e.id is displayed in the subspace bar. The location is (bx, 0). Next, in step 713, a small icon image is displayed at the top position of the partial space bar. As a result, even if only the partial space bar is viewed, it is possible to instantly confirm the content of the video data. For the image, the video file specified in e.file is opened, and the frame image at the time position e.begin is displayed. The display position of the image is set to coordinates (bx, 30) and is displayed slightly below the previous character string.

最後にステップ714にて、ステップ712で表示した四角形を、オブジェクトの表示色情報である、e.selectColorを用いて表示する。たとえば、e.selectColorの色を、図5の選択状態の部分空間523のように四角形の塗りつぶし色として表示しても良いし、同図の関連選択中の部分空間551のように、四角形の枠の色として表示しても良い。なお、selectColorには複数の色が同時に登録されている場合があるが、この場合は、部分空間を複数の別々の色枠で囲ったり、部分空間の上部に小さな旗のようなカラーのアイコンを色の数だけ並べるなどの画面上で識別可能な方法を取れば良い。その他にも、selectColorの色リストが空の場合や、ある決められた透明色などが設定されていた場合は、該当する部分空間を表示しない方法でもよい。加えて言えば、オブジェクトの選択状態や検索結果状態を示すselectColorを、現在は色を用いて画面上のオブジェクトと多重表示させているが、色以外にも画面上で識別可能な表現形式を用いて、これらの識別状態を表現しても良い。たとえば、部分空間の塗りつぶし模様を選択状態によって変化させたり、識別番号や識別文字列や識別アイコンなどを用いた小さな旗状のアイコンを識別状態ごとに画面上に表示しても良い。   Finally, in step 714, the square displayed in step 712 is displayed using e.selectColor, which is the display color information of the object. For example, the color of e.selectColor may be displayed as a rectangular fill color as in the selected partial space 523 in FIG. 5, or a rectangular frame as in the related selected partial space 551 in FIG. 5. It may be displayed as a color. Note that selectColor may register multiple colors at the same time. In this case, enclose the partial space with multiple separate color frames, or place a small flag-like color icon at the top of the partial space. What is necessary is just to take an identifiable method on the screen, such as arranging the number of colors. In addition, when the color list of selectColor is empty or a certain transparent color is set, a method of not displaying the corresponding partial space may be used. In addition, selectColor, which indicates the object selection status and search result status, is currently displayed in multiples with objects on the screen using colors, but in addition to colors, an expression format that can be identified on the screen is used. These identification states may be expressed. For example, the filling pattern of the partial space may be changed depending on the selection state, or a small flag-like icon using an identification number, an identification character string, an identification icon, or the like may be displayed on the screen for each identification state.

なお、図7のタイムライン表示処理700では、部分空間のみをタイムライン表示の対象としたが、属性についても次の方法によりタイムライン表示を適用することができる。そのためにはまず、ある属性aにリンクされているオブジェクトの集合を後述(ステップ902)の関数GetLinkedObj( a, L0 )で取り出した後、この集合を新しいSとして、ステップ701およびループ処理702を行えば良い。表示対象が複数の属性からなる集合の場合は、先の一属性の表示処理を全属性分だけ繰り返せば良い。   In the timeline display processing 700 of FIG. 7, only the partial space is the target of timeline display, but the timeline display can also be applied to the attributes by the following method. For this purpose, first, a set of objects linked to a certain attribute a is extracted by a function GetLinkedObj (a, L0) described later (step 902), and this set is set as a new S, and step 701 and loop processing 702 are performed. Just do it. If the display target is a set of a plurality of attributes, the display process for the one attribute may be repeated for all attributes.

次に図8を用いて、アイコン表示処理DrawIcon(S,L)(ステップ800)を説明する。DrawIcon()の入力パラメタには、ステップ700のDrawTimeLine()と同様のObjectの集合SとLinkの集合Lが渡される。   Next, the icon display process DrawIcon (S, L) (step 800) will be described with reference to FIG. As input parameters of DrawIcon (), a set S of objects and a set L of links similar to DrawTimeLine () in step 700 are passed.

まずステップ801では、ステップ701と同様の方法により、集合Sから部分空間の集合Fを抽出する。次にステップ802で、アイコンの表示座標x,yを左上座標(0,0)に初期化する。次に部分空間の集合Fの全ての要素eに対して、アイコンを表示するため、ループ処理803を行う。   First, in step 801, a set F of subspaces is extracted from the set S by the same method as in step 701. In step 802, the display coordinates x, y of the icon are initialized to the upper left coordinates (0, 0). Next, loop processing 803 is performed to display icons for all elements e of the set F of subspaces.

ループ処理803の中では、まずステップ811にて、映像データe.fileのe.beginの時間位置のフレーム画像を、座標(x,y)に表示する。次にステップ812にて、部分空間の名前e.id、開始時間e.begin、および終了時間e.endを文字列にて表示する。文字列の表示位置は画像の下とするため、座標(x,y+画像の高さ)とする。次にステップ813にて、画像と文字列のある所をオブジェクトの選択状態の色e. selectColorを用いて表示する。   In the loop processing 803, first, in step 811, the frame image at the time position of e.begin of the video data e.file is displayed at the coordinates (x, y). In step 812, the subspace name e.id, start time e.begin, and end time e.end are displayed as character strings. Since the display position of the character string is below the image, the coordinates (x, y + image height) are used. Next, in step 813, the place where the image and the character string are present is displayed using the color e.selectColor of the selection state of the object.

次に、アイコンの表示位置を変更する処理を行う。ステップ814では、次のアイコンを右横に表示するため、xにアイコンの幅と、アイコン間のスペースの幅(隙間幅)を足す。この際、xがアイコン表示ウィンドウ504の幅を超えた場合(条件815)、ステップ821にて、xの位置を左に戻し、表示位置を改行すため、x←0とし、yにアイコンの高さ(画像と文字列の高さ)と縦方向スペースの高さを足す。もちろん、y座標がアイコン表示ウィンドウ504の高さを超えた場合はループ803を停止する処理を入れても良い。   Next, processing for changing the display position of the icon is performed. In step 814, in order to display the next icon on the right side, the width of the icon and the width of the space between the icons (gap width) are added to x. At this time, if x exceeds the width of the icon display window 504 (condition 815), in step 821, the position of x is returned to the left, and the display position is changed to a new line. Add the height of the image and text and the height of the vertical space. Of course, when the y coordinate exceeds the height of the icon display window 504, processing for stopping the loop 803 may be included.

本実施形態のアイコン表示処理800は、部分空間のみを表示対象としていたが、以下の処理を追加することにより、属性情報やリンク情報もアイコン表示することが可能である。たとえばステップ803の後に、オブジェクトの集合Sから属性情報の集合Aだけを抜き出す処理(A←S−F)を行い、抜き出した全ての属性情報に対して、一属性情報のアイコン表示処理を繰り返せば良い。一属性情報をアイコンとして表す場合、アイコン画像として、属性を表す既定の図形を用い、アイコン文字列として、属性情報が有するmeta情報(=(属性名,属性値)の集合)を用いれば良い。   Although the icon display processing 800 of the present embodiment is intended to display only a partial space, attribute information and link information can be displayed as icons by adding the following processing. For example, after step 803, if only the attribute information set A is extracted from the object set S (A ← S−F) and the icon display process of one attribute information is repeated for all the extracted attribute information. good. When one attribute information is represented as an icon, a default graphic representing the attribute may be used as the icon image, and meta information (= a set of (attribute name, attribute value)) included in the attribute information may be used as the icon character string.

表示処理の説明の最後として、図9を用いて、テーブル表示処理DrawTable(S,L)(ステップ900)と、それに関わるサブルーチンを説明する。テーブル表示処理DrawTable()の入力パラメタには、ステップ700のDrawTimeLine()と同じ、Objectの集合SとLinkの集合Lが渡される。   At the end of the description of the display process, the table display process DrawTable (S, L) (step 900) and a subroutine related thereto will be described with reference to FIG. As the input parameters of the table display process DrawTable (), the same object set S and link set L as the DrawTimeLine () in step 700 are passed.

まずステップ901では、オブジェクトの集合Sに関連付けられているオブジェクトをすべて抽出する関数GetLinkedObjSet()を用いて、現在の選択状態Sに関連するオブジェクトを集合Rに代入する。次にループ処理902にて、関連オブジェクトの集合Rのすべての要素eに対して、その内容をテーブルの行として出力する処理を繰り返す。   First, in step 901, an object related to the current selection state S is substituted into the set R by using a function GetLinkedObjSet () that extracts all objects associated with the object set S. Next, in a loop process 902, the process of outputting the contents of all elements e of the related object set R as a table row is repeated.

ループ処理902では、まず条件ステップ911にて、オブジェクトの種別ごとのテーブル出力処理を行う。要素eの種別が属性情報の場合(e.class="attr"の場合)、ステップ921以降にて属性情報の詳細を出力する処理を行う。まずループ処理921で、属性情報eが持つ(属性名,属性値)のmeta集合を出力するため、meta集合e.mlistの全ての要素mに対して、ステップ922の処理を行う。ステップ922では、1つのmetaオブジェクトmをテーブルに追加するために、表の行オブジェクトを作成し、行の「ID」欄をe.id、行の「名前」欄をm.name、行の「値」欄をm.contentsとし、最後にこの行オブジェクトをテーブルに追加している。なお、図5のテーブル表示ウィンドウ503では、「ID」欄を表示していない。   In the loop processing 902, first, in a condition step 911, a table output process is performed for each object type. When the type of the element e is attribute information (when e.class = "attr"), processing for outputting details of the attribute information is performed in step 921 and subsequent steps. First, in a loop process 921, in order to output a meta set of (attribute name, attribute value) possessed by the attribute information e, the process of step 922 is performed for all elements m of the meta set e.mlist. In step 922, in order to add one meta object m to the table, a table row object is created, the “ID” column of the row is e.id, the “name” column of the row is m.name, and the “ The value column is m.contents, and finally this row object is added to the table. In the table display window 503 in FIG. 5, the “ID” column is not displayed.

条件ステップ911にて、要素eの種別が部分空間であった場合、ステップ925にて3つの行を追加する。ステップ925で表に追加される行は、映像ファイル名(e.id, "file", e.file)と、開始時間(e.id, "begin", e.begin)と、終了時間(e.id, "end", e.end)である。   In condition step 911, if the type of the element e is a partial space, three lines are added in step 925. The line added to the table in step 925 includes the video file name (e.id, “file”, e.file), start time (e.id, “begin”, e.begin), and end time (e .id, "end", e.end).

ステップ912では、今回ステップ922や925で追加したテーブルの行をオブジェクトの選択状態の色e.selectColorを用いて表示する。   In step 912, the row of the table added in steps 922 and 925 this time is displayed using the color e.selectColor of the object selection state.

次にサブルーチン関数であるステップ901のGetLinkedObjSet(S,L)の詳細を説明する。この関数の入力パラメタはオブジェクトの集合Sとリンクの集合Lであり、この関数のリターン値は、オブジェクトの集合Sに関連付けられているオブジェクトをすべて抽出した集合である。この処理では、まずステップ941でリターン値となる集合Rを空集合φで初期化し、次に集合Sの全ての要素eに対してループ処理942を行うことにより、結果集合Rを求めていく。ループ処理942では、まずステップ951にて、要素eに関連付けられているObjectの集合をGetLinkedObj(e,L)により求め、SLに代入する。次のステップ952では、求めた集合SLを結果集合Rに追加する。最後にステップ943にて、全ての要素に対して求めた関連オブジェクトの集合Rをリターンする。   Next, details of GetLinkedObjSet (S, L) in step 901, which is a subroutine function, will be described. The input parameters of this function are an object set S and a link set L, and the return value of this function is a set obtained by extracting all objects associated with the object set S. In this process, first, a set R as a return value is initialized with an empty set φ in step 941, and then a loop process 942 is performed on all elements e of the set S to obtain a result set R. In the loop process 942, first, in step 951, a set of objects associated with the element e is obtained by GetLinkedObj (e, L) and substituted into SL. In the next step 952, the obtained set SL is added to the result set R. Finally, in step 943, a set R of related objects obtained for all elements is returned.

図9の最後として、サブルーチンGetLinkedObj(e,L) (ステップ951)の詳細を説明する。この関数の入力パラメタは1つのオブジェクトeとリンクの集合Lであり、この関数のリターン値は、1つのオブジェクトeに関連付けられているオブジェクトをすべて抽出した集合である。この処理では、まずステップ971で、リターン値となる集合SLを空集合φで初期化し、次にリンク集合Lの全ての要素linkに対してループ処理972を行うことにより、結果集合SLを求めていく。ループ処理972では、まずステップ981にて、リンクlinkの内容を調べる。リンクlinkのリンク元が自オブジェクトeの場合、結果集合SLにリンク先のオブジェクトlink.dstを加える(ステップ983)。リンクlinkのリンク先が自オブジェクトeの場合、結果集合SLにリンク元のオブジェクトlink.srcを加える(ステップ985)。最後にステップ973にて、全てのリンク要素に対して求めた関連オブジェクトの集合SLをリターンする。   Details of the subroutine GetLinkedObj (e, L) (step 951) will be described at the end of FIG. An input parameter of this function is a set L of one object e and a link, and a return value of this function is a set obtained by extracting all objects associated with one object e. In this process, first, in step 971, a set SL as a return value is initialized with an empty set φ, and then a loop process 972 is performed on all the elements link of the link set L to obtain a result set SL. Go. In the loop processing 972, first, in step 981, the contents of the link link are examined. When the link source of the link link is the self object e, the link destination object link.dst is added to the result set SL (step 983). When the link destination of the link link is the self object e, the link source object link.src is added to the result set SL (step 985). Finally, in step 973, the related object set SL obtained for all the link elements is returned.

図10は、ユーザのクリック入力に対する選択処理(ステップ1000)の詳細である。この処理の入力は、ユーザがクリックした座標位置(x,y)である。   FIG. 10 shows the details of the selection process (step 1000) for the user's click input. The input of this process is the coordinate position (x, y) clicked by the user.

まずステップ1001にて、ユーザがクリックした位置の現在の表示形式を調べる。   First, in step 1001, the current display format of the position clicked by the user is checked.

表示形式がタイムライン表示の場合、ステップ1011以降にて、選択された部分空間を特定する処理を行う。まずステップ1011にて、クリック位置xの座標値を画面時間軸上の時間値に変更し、選択時間tに代入する。この計算は、ステップ711で説明した関数である時間to座標変換(t)の逆関数を用いれば良い。次にステップ1012にて、選択時間tを含む部分空間オブジェクトをオブジェクトの集合S0から抽出するため、関数FindObject()を呼び出し、その結果を新しい選択集合SSnewに代入する。FindObject関数では、検索条件としてユーザがクリックした時間位置tを含むことを表す条件関数Within(*,t,t)をパラメタとして指定している。この指定は、区間t〜t、つまり時点tを含むオブジェクトの抽出を行なうことを指定するものである。条件関数の利用方法およびその定義の詳細は、後述の検索処理の実現方法にて説明する。   When the display format is timeline display, processing for specifying the selected partial space is performed in step 1011 and subsequent steps. First, in step 1011, the coordinate value of the click position x is changed to a time value on the screen time axis, and is substituted for the selection time t. For this calculation, an inverse function of time-to-coordinate transformation (t), which is the function described in step 711, may be used. Next, in step 1012, in order to extract a subspace object including the selection time t from the object set S0, the function FindObject () is called and the result is substituted into the new selection set SSnew. In the FindObject function, a condition function Within (*, t, t) indicating that the time position t clicked by the user is included as a search condition is specified as a parameter. This designation designates that an object including the sections t to t, that is, the time t is to be extracted. Details of how to use the condition function and its definition will be described later in the method for realizing search processing.

ステップ1001において、クリックした位置の表示形式がアイコンであった場合、ステップ1014にて、選択されたアイコンからそれに対応する部分空間オブジェクトを取得し、それを新しい選択集合SSnewに設定する。これを実現するには、アイコンを描画する際に、アイコンの表示位置や画像を覚えておく表示用アイコン情報の中に、対応する部分空間オブジェクトを登録しておけば良い。   In step 1001, if the display format of the clicked position is an icon, in step 1014, a corresponding subspace object is acquired from the selected icon, and set to a new selection set SSnew. In order to realize this, it is only necessary to register a corresponding partial space object in the display icon information for remembering the icon display position and image when drawing the icon.

ステップ1001において、クリックした位置の表示形式がテーブルであった場合、ステップ1017にて、クリックされた行のみを選択表示し、ステップ1018にて、本選択処理1000を終了する。ここで関数を終了する理由は、他の表示形式と同様にクリック時に選択状態を変更してしまうと、テーブルをクリックしただけで、後の表示の更新処理にて自分自身のテーブルの表示内容が変更されてしまい、正しく情報を操作できないためである。ここでは、テーブルをクリックした場合だけ、選択状態を変更しないようにしている。   If the display format of the clicked position is a table at step 1001, only the clicked line is selected and displayed at step 1017, and the selection processing 1000 is terminated at step 1018. The reason for terminating the function here is that if the selection state is changed when clicked, as with other display formats, the display content of its own table will be displayed in the subsequent display update process simply by clicking the table. This is because the information has been changed and the information cannot be correctly operated. Here, the selection state is not changed only when the table is clicked.

ステップ1002では、ユーザが選択したオブジェクトの集合SSnewに関連付けられているオブジェクトの集合を、GetLinkedObject(SSnew,L0)により求めて、関連集合SRnewに代入する。最後にステップ1003にて、マウスの選択状態を本関数で求めたSSnewとSRnewで更新する。   In step 1002, a set of objects associated with the set of objects SSnew selected by the user is obtained by GetLinkedObject (SSnew, L0) and substituted into the related set SRnew. Finally, in step 1003, the selection state of the mouse is updated with SSnew and SRnew obtained by this function.

ステップ1003のマウス選択の更新処理NewSelectionについて詳しく説明する。本関数のパラメタは、新しい選択オブジェクトの集合SSnewと、新しい関連オブジェクトの集合SRnewである。   The mouse selection update process NewSelection in step 1003 will be described in detail. The parameters of this function are a new selection object set SSnew and a new related object set SRnew.

まずステップ1051にて、現在選択されているオブジェクトに登録されているマウス選択色とマウス選択関連色を取り除く。具体的には、グローバル変数SS(選択状態の集合)とSR(関連選択状態の集合)に含まれる全てのオブジェクトobjに対してループを行い、選択色リストobj.selectColorから、マウス選択色とマウス関連選択色を削除する。   First, in step 1051, the mouse selection color and the mouse selection related color registered in the currently selected object are removed. Specifically, a loop is performed for all the objects obj included in the global variables SS (set of selected states) and SR (set of related selected states), and the mouse selection color and the mouse are selected from the selection color list obj.selectColor. Delete related selection color.

次にステップ1052と1053にて、新しい選択状態オブジェクトと新しい関連選択状態オブジェクトのそれぞれに、マウス選択色とマウス関連色を登録する。具体的には、SSnewとSRnewのそれぞれの集合ごとに要素を取り出し、該当するオブジェクトのselectColorに該当する色情報を追加する。   Next, in steps 1052 and 1053, the mouse selection color and the mouse related color are registered in the new selection state object and the new related selection state object, respectively. Specifically, an element is extracted for each set of SSnew and SRnew, and color information corresponding to selectColor of the corresponding object is added.

最後にステップ1054にて新しい色情報を用いて画面の再表示を行い、ステップ1055にてグローバル変数SSとSRに新しい選択情報SSnewとSRnewを登録する。   Finally, in step 1054, the screen is displayed again using the new color information, and in step 1055, new selection information SSnew and SRnew are registered in the global variables SS and SR.

次に図11から図14までを用いて、本実施形態のシステムにおける検索処理を説明する。図11は、検索処理の実行画面である。図12および図13は、検索処理の構造化フローチャートである。図14は、検索処理で用いる検索条件関数の実現方法を示す表である。   Next, search processing in the system of this embodiment will be described with reference to FIGS. FIG. 11 is a search processing execution screen. 12 and 13 are structured flowcharts of the search process. FIG. 14 is a table showing a method for realizing a search condition function used in search processing.

まず図11を参照して、検索処理の実行画面について説明する。検索処理は、メインメニュー506のうち、検索メニューを選択することにより行う。検索メニューの中には、検索のための条件の登録を行うメニュー1101と、既に登録された条件を一覧表示するメニュー1102が表示される。条件の登録メニュー1101を選択すると、1105に示すような条件の登録画面が表示される。   First, a search processing execution screen will be described with reference to FIG. The search process is performed by selecting a search menu from the main menu 506. In the search menu, a menu 1101 for registering conditions for search and a menu 1102 for displaying a list of already registered conditions are displayed. When the condition registration menu 1101 is selected, a condition registration screen as shown in 1105 is displayed.

条件の登録画面1105では、検索結果の表示方法と検索条件とを指定できる。これらの情報を設定した後、検索ボタン1151を押すことにより、検索処理を実行できる。検索結果は、本条件登録画面で指定した色で画面上に表示される。具体的には、メディア情報に含まれるすべてのオブジェクトのうち、本条件登録画面で指定された条件を満足するオブジェクトだけが、本条件登録画面で指定した色情報で、メインウィンドウ501上に表示される。なお、キャンセルボタン1152を押すと、本検索処理は打ち切られる。   On the condition registration screen 1105, a search result display method and search conditions can be designated. After setting these pieces of information, the search process can be executed by pressing the search button 1151. The search result is displayed on the screen in the color specified on the condition registration screen. Specifically, among all the objects included in the media information, only the objects that satisfy the condition specified on the condition registration screen are displayed on the main window 501 with the color information specified on the condition registration screen. The Note that when the cancel button 1152 is pressed, the search process is terminated.

本条件登録画面1105で指定できる検索結果の表示方法では、検索条件の名称1111と検索結果の表示色1112が指定できる。検索条件の名称1111は、後に本条件が検索メニューに登録される際に表示される名称である。また検索結果の表示色1112は、検索条件を満足するオブジェクトを表示する際に用いる色である。この色の選択は、たとえば1112をクリックすることによって決められた色が順々に表れるようにして行うことができる。また応用例として、この選択色の中に透明色を指定可能にしても良い。たとえば透明色が指定された場合、検索結果を表示しないこととなり、ユーザは画面上の冗長なシーン情報を本検索処理によって非表示にすることが可能になり、シーン情報の確認・編集作業をより効率化できる。   In the search result display method that can be specified on the condition registration screen 1105, a search condition name 1111 and a search result display color 1112 can be specified. The search condition name 1111 is a name displayed when this condition is registered in the search menu later. The search result display color 1112 is a color used when an object satisfying the search condition is displayed. This color selection can be performed so that, for example, colors determined by clicking 1112 appear in order. As an application example, a transparent color may be designated as the selected color. For example, if a transparent color is specified, the search result will not be displayed, and the user can hide redundant scene information on the screen by this search process, making it possible to check and edit scene information more. Increase efficiency.

本条件登録画面1105で指定できる検索条件としては、ある時間範囲で検索する方法と、ある属性名だけを検索する方法と、ある属性値だけを検索する方法を指定できる。これらは時間検索のチェックボックス1121、属性名検索のチェックボックス1131、および属性値検索のチェックボックス1141を用いて、複数同時に指定することができる。本実施形態では、複数条件が指定された場合、それらの条件はAND条件で結合されていると考える。なお、各チェックボックスがONの場合、それらに対応する条件値として、時間区間の開始位置1122や終了位置1123、属性名1132、および属性値1142の入力領域がそれぞれ有効になり、値を設定できるようになる。   As a search condition that can be specified on the condition registration screen 1105, a method for searching within a certain time range, a method for searching for only a certain attribute name, and a method for searching for only a certain attribute value can be specified. A plurality of these can be specified simultaneously using a time search check box 1121, an attribute name search check box 1131 and an attribute value search check box 1141. In this embodiment, when a plurality of conditions are specified, it is considered that these conditions are combined with an AND condition. When each check box is ON, the input areas of the start position 1122 and the end position 1123 of the time section, the attribute name 1132, and the attribute value 1142 are valid as corresponding condition values, and values can be set. It becomes like this.

なお、時間の開始位置1122および終了位置1123を指定する別の方法として、図5のタイムライン表示502の画面上に表示時間位置を変更するためのスクロールバーを取りつけ、スクロールバーの移動操作により、検索すべき時間範囲の指定を行う方法を採っても良い。また、逆に言えば、タイムライン表示502とは、ユーザに指定された表示開始時間と表示終了時間に挟まれたシーン情報を検索・表示するためのユーザ操作画面であると考えても良い。また同様に、図10で述べたユーザ選択処理を、ユーザが選択したオブジェクトに関連するオブジェクトを動的に検索するユーザ操作方法と考えても良い。   As another method for specifying the start position 1122 and the end position 1123 of time, a scroll bar for changing the display time position is attached on the screen of the timeline display 502 in FIG. A method of specifying a time range to be searched may be adopted. Conversely, the timeline display 502 may be considered as a user operation screen for searching and displaying scene information sandwiched between the display start time and display end time specified by the user. Similarly, the user selection process described with reference to FIG. 10 may be considered as a user operation method for dynamically searching for an object related to the object selected by the user.

なお、ここで述べた内容は本発明の一実施形態であり、他にも様々な条件や設定項目を指定させることもできる。たとえば検索条件として、複数の検索条件のORを取ったり、複合検索条件式を入力したり、ある検索結果に関連付けられるオブジェクトだけを抜き出したり(図9のサブルーチン901GetLinkedObjSet()を用いる)、関連オブジェクトの検索の際に関連名称を指定したり、さらには部分空間に登録されているメディアデータのファイルを開いて該当する建物が現れた瞬間を含むシーンを画像解析を用いて検索することなどを指定できるようにしても良い。このような場合、検索条件の一覧リストを表示し動的に検索条件を追加できるようにした方が、処理の実現上、かつ操作性の観点上望ましい。   The content described here is one embodiment of the present invention, and various other conditions and setting items can be specified. For example, as a search condition, OR of a plurality of search conditions, a complex search condition expression is input, only an object associated with a certain search result is extracted (using subroutine 901 GetLinkedObjSet () in FIG. 9), You can specify a related name at the time of search, or even open a media data file registered in a partial space and search for a scene containing the moment when the corresponding building appears using image analysis. You may do it. In such a case, it is desirable from the viewpoint of operability and operability to display a list of search conditions so that the search conditions can be dynamically added.

本実施形態では、検索ボタン1151により検索を行うと、検索されたオブジェクトが、1112で指定した色で表示されると同時に、編集操作対象としてマウス選択状態となる。ユーザは必要に応じて検索結果の更新や削除を行うことができる。また、本実施形態では、検索を行うと過去数件分の検索条件が保存され、検索メニュー上に検索条件名が検索結果表示色と共に表示される。ユーザは検索メニューを見ることにより、画面上のどの色のオブジェクトがどのような条件を満足するオブジェクトであるか、検索結果後に確認できる。また、このメニューを選択することにより、前回指定した検索条件を用いて再度検索処理を実行することができる。   In the present embodiment, when a search is performed using the search button 1151, the searched object is displayed in the color specified in 1112 and at the same time, the mouse is selected as an editing operation target. The user can update or delete the search results as necessary. In the present embodiment, when a search is performed, the search conditions for the past several items are stored, and the search condition name is displayed on the search menu together with the search result display color. By looking at the search menu, the user can confirm which color object on the screen satisfies which condition after the search result. Also, by selecting this menu, the search process can be executed again using the previously specified search condition.

なお、検索操作方法の応用例として、検索メニューに「次の検索結果オブジェクトへ」というメニューを追加しても良い。この場合、検索結果を一度に表示するのではなく、このメニューを何度も選択することにより、ユーザは検索結果のオブジェクトを1つずつ確認しながら編集処理を行うことができる。このメニューはさらに、先述の特定の物体を画像解析手法を用いて検索する場合に非常に有効である。なぜなら、検索実行時にメディアデータを全て解析する必要がなく、ユーザが次の検索結果を望んだ時点で、逐一画像解析を部分的に適用すれば良く、ユーザの待ち時間を大幅に短縮することができるからである。   As an application example of the search operation method, a menu “to next search result object” may be added to the search menu. In this case, instead of displaying the search results at once, by selecting this menu many times, the user can perform an editing process while checking the objects of the search results one by one. Further, this menu is very effective when searching for the specific object described above using the image analysis technique. This is because it is not necessary to analyze all media data at the time of search execution, and it is sufficient to apply partial image analysis step by step when the user desires the next search result, which can greatly reduce the user's waiting time. Because it can.

図12および図13は、本実施形態での検索処理の構造化フローチャートである。ここでは検索メニューのうち「条件の登録」メニュー1101と登録された条件のメニュー1102の処理について述べる。   12 and 13 are structured flowcharts of the search processing in this embodiment. Here, the processing of the “registration condition” menu 1101 and the registered condition menu 1102 in the search menu will be described.

ステップ1200は、条件の登録メニュー1101が選択された際の処理である。ステップ1211では、まず検索条件の登録画面1105を表示し、ユーザに検索条件を登録させる。次にステップ1212〜1215で、検索条件式を条件関数のリストfuncListとして組み立て、ステップ1202で、組み立てた条件関数のリストfuncListを用いて検索を実行し、検索結果を条件の登録画面1105に指定された色で表示する。最後にステップ1216で、今回指定された検索条件の情報(条件名や色や条件関数リスト)などをグローバル変数である登録条件リストCLに追加し、またステップ1217で、メインメニュー506の検索メニューに今回の条件名と色情報を追加する。   Step 1200 is processing when the condition registration menu 1101 is selected. In step 1211, the search condition registration screen 1105 is displayed first, and the user is made to register the search condition. Next, in steps 1212 to 1215, the search condition formula is assembled as a condition function list funcList. In step 1202, a search is executed using the assembled condition function list funcList, and the search result is specified in the condition registration screen 1105. Display in the selected color. Finally, in step 1216, information on the search conditions specified this time (condition name, color, condition function list) and the like are added to the registration condition list CL, which is a global variable, and in step 1217, the search menu of the main menu 506 is added. Add the current condition name and color information.

次に検索条件式の実現方法と組み立て方法について説明する。条件関数リストfuncListに登録される条件関数は、メモリ上では(関数アドレス,ユーザパラメタ値)により表現される。本実施形態では、関数アドレスとして、図14に示す条件関数の先頭アドレスを登録可能である。また、これらの条件関数を実行するには、関数パラメタとして、ここで指定されたユーザパラメタ値と共に、条件を判定したいメディアシーン情報オブジェクトのアドレスを追加して、指定された関数アドレスを呼出せば良い。関数の結果は集合値として呼出し処理にリターンされるよう定義する(条件不成立ならφ、成立ならφ以外)。   Next, a method for realizing the search condition formula and an assembly method will be described. The conditional functions registered in the conditional function list funcList are expressed by (function address, user parameter value) on the memory. In the present embodiment, the start address of the conditional function shown in FIG. 14 can be registered as the function address. Also, to execute these conditional functions, add the address of the media scene information object whose condition you want to determine, along with the user parameter value specified here as a function parameter, and call the specified function address. good. The function result is defined to be returned to the calling process as a set value (φ if the condition is not satisfied, and other than φ if the condition is satisfied).

図14に示した条件関数を用いて、ステップ1212〜1215の条件関数式の組み立て処理を詳しく説明する。まずステップ1212にて、条件関数リストfuncListを空にする。次にステップ1213にて、条件登録画面1105でユーザが時間の検索を指定しているか否か調べ、時間の指定がある場合、ステップ1221にて条件関数リストfuncListに時間条件関数Within()を追加する。この際、条件関数Withinのユーザパラメタとして、ユーザが指定した開始時間と、同終了時間を登録する。属性名の検索についても同様に、ステップ1214にてユーザの検索指示の有無を判別し、属性名検索を行う場合は、ステップ1223にてfuncListに条件関数SameName()を登録する。この際のユーザパラメタは、ユーザが指定した属性名である。属性値の検索についても同様に、ステップ1215にてユーザの検索指示の有無を判別し、属性値検索を行う場合は、ステップ1223にてfuncListに条件関数SameValue()を登録する。この際のユーザパラメタは、ユーザが指定した属性値である。   The process of assembling the conditional function expressions in steps 1212 to 1215 will be described in detail using the conditional function shown in FIG. First, in step 1212, the conditional function list funcList is emptied. Next, in step 1213, it is checked whether or not the user has specified time search on the condition registration screen 1105. If time is specified, the time condition function Within () is added to the condition function list funcList in step 1221. To do. At this time, the start time and end time specified by the user are registered as user parameters of the conditional function With. Similarly, in the attribute name search, in step 1214, it is determined whether or not there is a user search instruction, and if the attribute name search is to be performed, the conditional function SameName () is registered in funcList in step 1223. The user parameter at this time is an attribute name designated by the user. Similarly, in the attribute value search, whether or not there is a user search instruction is determined in step 1215, and if an attribute value search is performed, the conditional function SameValue () is registered in funcList in step 1223. The user parameter at this time is an attribute value designated by the user.

本実施形態では時間、属性名、および属性値の検索条件について述べたが、その他の条件についても同様に拡張できる。基本的に検索条件を追加する場合は、検索条件ごとに、個別条件設定手段と、オブジェクトとユーザパラメタを入力して集合値を返す条件関数を用意すればよい。検索条件モジュールでは、必要に応じて設定画面を提供し、ユーザから該当する条件指定の有無や詳細な条件値の設定を行えるようにすればよい。   In the present embodiment, the search conditions for time, attribute name, and attribute value have been described, but other conditions can be similarly extended. Basically, when a search condition is added, an individual condition setting unit and a condition function that inputs an object and a user parameter and returns a set value may be prepared for each search condition. In the search condition module, a setting screen may be provided as necessary so that the user can set the presence / absence of a corresponding condition and set detailed condition values.

次に検索メニューのうち、すでに登録された検索条件のメニューが選択された場合の処理1201について説明する。検索条件がすでに登録されている場合、ユーザが指定したメニューの番号値などを用いて検索条件リストCLから該当する検索条件の情報condを取得する(ステップ1231)。検索条件情報condの中には検索の実行に必要な検索条件リストと、検索結果の表示に必要な色情報が含まれているので、これらの値を用いて検索実行処理1202を呼び出せば、ユーザが以前設定した条件のままで検索を再実行することができる(ステップ1202)。   Next, a description will be given of processing 1201 when a menu of search conditions that have already been registered is selected from the search menu. If the search condition is already registered, the information cond of the corresponding search condition is acquired from the search condition list CL using the menu number value specified by the user (step 1231). Since the search condition information cond includes a search condition list necessary for executing the search and color information necessary for displaying the search result, if the search execution process 1202 is called using these values, the user The search can be re-executed while maintaining the previously set conditions (step 1202).

最後に検索実行処理1202について説明する。本処理の入力パラメタは、先に設定した検索条件関数のリストと検索結果の表示色からなる。まず検索にあたって、ステップ1241にて、検索結果集合Srを検索対象集合S0で初期化する。本例では検索条件リストをAND条件の並びとして検索するため、Srはまず全オブジェクトを現すグローバル変数S0としている。次に検索条件リストfuncListに含まれる全検索条件関数funcについてループし(ステップ1242)、ステップ1300のFindObject()処理を用いて、検索条件関数funcで結果集合Srを絞り込んでいく。ループ処理1242が終了した段階で、すべての検索条件についてANDをとった条件を満たすオブジェクトの集合がSrに格納される。   Finally, the search execution process 1202 will be described. The input parameters of this process consist of the search condition function list set in advance and the display color of the search results. First, in the search, in step 1241, the search result set Sr is initialized with the search target set S0. In this example, since the search condition list is searched as an array of AND conditions, Sr is first set as a global variable S0 representing all objects. Next, a loop is performed for all the search condition functions func included in the search condition list funcList (step 1242), and the result set Sr is narrowed down by the search condition function func using the FindObject () process in step 1300. At the stage where the loop processing 1242 is completed, a set of objects that satisfy the conditions obtained by ANDing all the search conditions is stored in Sr.

次に検索結果Srの全要素objについてループ処理1243を行い、指定された検索結果色colorをオブジェクトの選択表示色リストselectColorに追加する(ステップ1252)。最後にステップ1244にて、後の編集のために検索結果をマウス選択状態と同一に扱えるよう、マウス選択の更新処理を行う。なお、マウス選択更新の処理内にて画面の再描画も行っているため、ループ処理1243で設定した検索結果色も画面に表示される。   Next, the loop processing 1243 is performed for all the elements obj of the search result Sr, and the specified search result color color is added to the object selection display color list selectColor (step 1252). Finally, in step 1244, the mouse selection is updated so that the search result can be handled in the same way as the mouse selection state for later editing. Since the screen is redrawn in the mouse selection update process, the search result color set in the loop process 1243 is also displayed on the screen.

次に図13を参照して、ステップ1300の検索条件を満足するオブジェクトの抽出処理FindObject()について説明する。本関数の入力は、検索対象オブジェクトの集合Sと、1つの検索条件関数f()である。また本関数の出力は、Sのうち検索条件関数f()を満足するオブジェクトの集合である。   Next, the object extraction process FindObject () satisfying the search condition in step 1300 will be described with reference to FIG. The input of this function is a set S of search target objects and one search condition function f (). The output of this function is a set of objects that satisfy the search condition function f () in S.

本関数では、まず検索結果の集合Srを空にし(ステップ1310)、次にループ処理1311にて、S中のすべての検索対象オブジェクトobjについて条件の判定を行う。条件の判定には、オブジェクトobjが検索条件を満たすかどうか調べるために、条件関数f(obj)を呼び出す(ステップ1321)。この際あらかじめ図12のステップ1221などで設定されたユーザパラメタも同時に渡されるものとする。条件関数の判定結果が真である場合、条件関数の結果として検索結果集合Srに追加すべきオブジェクト集合が返されるので、Srに追加する。なお、判定結果が偽の場合、判定関数の結果は空集合φが返されるものとする。ループ処理1311が終了した段階で検索結果がSrに格納されているので、これを本処理の戻り値として設定し、本処理を終了する。   In this function, first, the search result set Sr is emptied (step 1310), and then in a loop process 1311, conditions for all search target objects obj in S are determined. In determining the condition, a condition function f (obj) is called to check whether the object obj satisfies the search condition (step 1321). At this time, it is assumed that the user parameters set in advance in step 1221 of FIG. If the determination result of the conditional function is true, an object set to be added to the search result set Sr is returned as a result of the conditional function, and is added to Sr. When the determination result is false, an empty set φ is returned as the result of the determination function. Since the search result is stored in Sr when the loop processing 1311 is completed, this is set as a return value of this processing, and this processing ends.

図14は、検索処理で用いる検索条件関数の実現方法を示す表である。   FIG. 14 is a table showing a method for realizing a search condition function used in search processing.

まず、ある時区間を含むオブジェクトを判別する条件関数Within()1401を説明する。Within()は、開始時間tbと終了時間teをユーザパラメタとして持つ。その結果は、関数パラメタとして指定されたオブジェクトが部分空間であり(object.class="flag")、かつ、実数集合[object.begin, object.end]と実数集合[tb,te]とが重なる場合、抽出結果として追加すべき内容として集合{ object }を返す。つまり区間[tb,te]の一部でも部分空間objectが触れたら{ object }を返す。なお、オブジェクトが属性情報の場合は、空集合φを返す。   First, the condition function Within () 1401 for determining an object including a certain time interval will be described. Within () has a start time tb and an end time te as user parameters. The result is that the object specified as a function parameter is a subspace (object.class = "flag"), and the real number set [object.begin, object.end] and real number set [tb, te] overlap. In this case, the set {object} is returned as the contents to be added as the extraction result. That is, {object} is returned if the subspace object touches even a part of the interval [tb, te]. If the object is attribute information, an empty set φ is returned.

次に属性名が同一であるかを判定する条件関数SameName()1402について説明する。SameName()のユーザパラメタは属性名nameである。本関数が成立する条件は、関数パラメタとして指定されたオブジェクトが属性であり(object.class="attr")、かつ、その属性オブジェクトが持つMetaクラスリストmlistのいずれか一つのmetaについて属性名meta.nameがnameと等しい場合とし、戻り値として{ object }を返す。   Next, the condition function SameName () 1402 for determining whether or not the attribute names are the same will be described. The user parameter of SameName () is the attribute name name. The condition that this function is satisfied is that the object specified as the function parameter is an attribute (object.class = "attr"), and the attribute name meta for any one meta of the meta class list mlist that the attribute object has Assume that .name is equal to name, and return {object} as a return value.

同様に、属性値が同一であるかを判定する条件関数SameValue()1403の場合、ユーザパラメタは属性値contentsであり、関数パラメタとして指定されたオブジェクトが属性であり、かつその属性値meta.contents=contentsとなるmetaがMetaクラスリストに一つ以上存在すれば{ object }を返す。なお、SameName()とSameValue()は、上述した条件が不成立の場合、または、関数パラメタとして指定されたオブジェクトが部分空間の場合は、空集合φとする。   Similarly, in the case of the condition function SameValue () 1403 for determining whether the attribute values are the same, the user parameter is the attribute value contents, the object specified as the function parameter is the attribute, and the attribute value meta.contents Returns {object} if there is more than one meta with = contents in the Meta class list. Note that SameName () and SameValue () are assumed to be an empty set φ when the above condition is not satisfied or when the object specified as the function parameter is a partial space.

最後に条件関数の応用例として、人物が画面内に入った瞬間の部分空間であれば、その瞬間の部分空間を返す条件関数GotIt()を説明する。GotIt()では、関数パラメタとして指定されたobjectが部分空間の場合、object.fileに示される映像ファイルをオープンし、映像を画像処理を用いて解析し、人物が画面内に入ったことを認識したら、新たに部分空間オブジェクトnewObjを生成し、人物の出現時間をnewObj.beginとnewObj.endに指定し、{ newObj }を返す。この画像処理の実現には、たとえば特開平8−221577号の「移動体検出・抽出装置及び方法」に示す画像認識アルゴリズムを用いればよい。もちろん、複数の人物を検出したら複数の部分空間の要素からなる集合を返してもよい。   Finally, as an application example of the conditional function, a conditional function GotIt () that returns a partial space at the moment when a person enters the screen will be described. In GotIt (), if the object specified as a function parameter is a subspace, the video file indicated in object.file is opened and the video is analyzed using image processing to recognize that a person has entered the screen. Then, a new subspace object newObj is generated, the appearance time of the person is specified in newObj.begin and newObj.end, and {newObj} is returned. In order to realize this image processing, for example, an image recognition algorithm shown in “Moving object detection / extraction apparatus and method” of JP-A-8-221577 may be used. Of course, if a plurality of persons are detected, a set of elements of a plurality of subspaces may be returned.

図15は、本実施形態における編集処理の構造化フローチャートである。本実施形態では、編集処理として、選択されたオブジェクトを削除する処理と、選択されたすべての部分空間の時間位置をある決まった時間分だけ移動する時間移動処理について、説明する。   FIG. 15 is a structured flowchart of editing processing in this embodiment. In the present embodiment, as the editing process, a process for deleting a selected object and a time movement process for moving the time positions of all the selected partial spaces by a predetermined time will be described.

まずステップ1501にて、ユーザの編集指示内容を判断する。指示内容が削除の場合、グローバル変数にある選択オブジェクトの集合SSに含まれるすべてのオブジェクトobjについてループ処理1510を行い、オブジェクトobjを全オブジェクトの集合S0と全リンクの集合L0から削除する(ステップ1513)。また編集指示内容が時間移動の場合、まずステップ1520にてユーザに移動時間量dtを指定してもらう。その後、すべての選択オブジェクトSSについてループ処理1521を行い、オブジェクトが部分空間であれば(ステップ1530)、その部分空間の開始時間と終了時間をともにdt分だけ移動する(ステップ1533)。   First, in step 1501, the content of the user's editing instruction is determined. If the instruction content is deletion, loop processing 1510 is performed for all objects obj included in the set SS of selected objects in the global variable, and the object obj is deleted from the set S0 of all objects and the set L0 of all links (step 1513). ). If the content of the editing instruction is time movement, first, in step 1520, the user specifies the movement time amount dt. Thereafter, loop processing 1521 is performed for all selected objects SS. If the object is a partial space (step 1530), the start time and end time of the partial space are both moved by dt (step 1533).

ここでオブジェクトの削除1513について説明する。まずループ処理1550にてすべてのリンクlinkを調べて、リンクの先端または末尾が削除対象オブジェクトobjであるものを探し、該当するリンクlinkを見つけたら(条件判定ステップ1560)、その場でlinkをリンクの集合Lから削除する(ステップ1563)。ループ処理1550が終了したら、最後に全オブジェクトの集合Sから該当するオブジェクトobjを削除する(ステップ1551)。   Here, the object deletion 1513 will be described. First, in the loop processing 1550, all the links are examined, and a link whose head or tail is the object to be deleted obj is found. If a corresponding link is found (condition determination step 1560), the link is linked on the spot. Are deleted from the set L (step 1563). When the loop processing 1550 ends, the corresponding object obj is finally deleted from the set S of all objects (step 1551).

メディアシーン表示編集装置の一実現例を示す図。The figure which shows the implementation example of a media scene display edit apparatus. 本実施形態で用いるメディアシーン情報のデータ構造の概念図。The conceptual diagram of the data structure of the media scene information used by this embodiment. 図2の概念的なデータ構造に対応する実際のデータ構造の例を示す図。The figure which shows the example of the actual data structure corresponding to the conceptual data structure of FIG. 図3のデータ構造の詳細(クラス)を示す図。The figure which shows the detail (class) of the data structure of FIG. 実施形態の実行画面を示す図。The figure which shows the execution screen of embodiment. 本実施形態のシステムのメイン処理を示す図。The figure which shows the main process of the system of this embodiment. 本実施形態のタイムライン表示処理を示す図。The figure which shows the timeline display process of this embodiment. 本実施形態のアイコン表示処理を示す図。The figure which shows the icon display process of this embodiment. 本実施形態のテーブル表示処理を示す図。The figure which shows the table display process of this embodiment. 本実施形態のユーザー選択処理を示す図。The figure which shows the user selection process of this embodiment. 本実施形態の検索処理実行画面を示す図。The figure which shows the search process execution screen of this embodiment. 本実施形態の検索メニュー処理を示す図。The figure which shows the search menu process of this embodiment. 本実施形態の検索条件実行処理を示す図。The figure which shows the search condition execution process of this embodiment. 本実施形態の検索条件関数一覧を示す図。The figure which shows the search condition function list | wrist of this embodiment. 本実施形態の編集処理を示す図。The figure which shows the edit process of this embodiment.

符号の説明Explanation of symbols

501…メインウィンドウ、502…タイムライン表示ウィンドウ、503…テーブル表示ウィンドウ、504…アイコン表示ウィンドウ、505…マウスポインタ、506…メインメニュー、511…ビデオのタイムライン表示、512…オーディオのタイムライン表示、513〜515…ユーザデータのタイムライン表示、521,522…部分空間のバー表示、523…選択状態の部分空間バー、531,532…選択状態の部分空間に関連した属性情報、541,542…部分空間のアイコン表示、543…選択状態の部分空間アイコン、551,552…選択された部分空間に関連した部分空間、1101…検索条件の登録メニュー、1102…すでに登録されている検索条件とその表示色、1105…検索条件登録画面。   501 ... Main window, 502 ... Timeline display window, 503 ... Table display window, 504 ... Icon display window, 505 ... Mouse pointer, 506 ... Main menu, 511 ... Video timeline display, 512 ... Audio timeline display, 513 to 515: User data timeline display, 521,522 ... Partial space bar display, 523 ... Selected partial space bar, 531,532 ... Attribute information related to selected partial space, 541,542 ... Subspace icon display, 543 ... subspace icon in selected state, 551,552 ... subspace related to the selected subspace, 1101 ... search condition registration menu, 1102 ... already registered search conditions and their display colors, 1105 ... search condition registration screen.

Claims (6)

時間情報を有するデータであるメディアデータの部分単位であるメディアシーンの属性情報を格納する情報格納装置であって、
メディアデータを格納するメディアデータ格納手段と、
メディアシーンの属性情報と、前記格納されたメディアデータの識別情報及び当該メディアデータにおける当該メディアシーンの時間存在位置の情報を有する部分空間オブジェクトと、をスーパークラスオブジェクトにより統一的に相互に参照できるように関連付けて格納する情報格納手段と
を備えたことを特徴とする情報格納装置。
An information storage device that stores media scene attribute information that is a partial unit of media data that is data having time information,
Media data storage means for storing media data;
Media class attribute information and subspace objects having identification information of the stored media data and information on the time existence position of the media scene in the media data can be referred to each other uniformly by a super class object. And an information storage means for storing the information in association with the information storage device.
請求項1記載の情報格納装置を有する情報表示装置であって、
上記格納した部分空間オブジェクトの時間存在位置情報に対応する時間軸上の位置に、当該部分空間オブジェクトに関する情報を時間軸と併せて表示する表示手段を備えたことを特徴とする情報表示装置。
An information display device comprising the information storage device according to claim 1,
An information display device comprising: display means for displaying information on the subspace object together with the time axis at a position on the time axis corresponding to the time location information of the stored subspace object.
請求項2記載の情報表示装置であって、
前記表示された部分空間オブジェクトに関する情報により示されるメディアシーンを選択する選択手段と、
選択されたメディアシーン情報に前記記憶装置において関連付けられている属性情報を抽出する情報抽出手段と、
抽出された属性情報を他のメディアシーン情報と画面上で識別可能なように表示する情報表示制御手段と
を備えたことを特徴とする情報表示装置。
The information display device according to claim 2,
Selecting means for selecting a media scene indicated by the information about the displayed subspace object;
Information extracting means for extracting attribute information associated with the selected media scene information in the storage device;
An information display device comprising: information display control means for displaying the extracted attribute information so as to be distinguishable from other media scene information on the screen.
請求項3記載の情報表示装置において、
前記情報格納手段は、さらに、属性情報と部分空間オブジェクトとの関連付けを示すリンクオブジェクトを格納し、
前記情報抽出手段は、前記リンクオブジェクトが有する関連付けの情報に基づき前記抽出をすることを特徴とする情報表示装置。
The information display device according to claim 3,
The information storage means further stores a link object indicating an association between the attribute information and the subspace object,
The information display device is characterized in that the information extraction means performs the extraction based on association information of the link object.
請求項1記載の情報格納装置において、
前記部分空間オブジェクトは、当該部分空間オブジェクトに対する参照情報を格納することにより、前記関連付けをすることを特徴とする情報格納装置。
The information storage device according to claim 1,
The information storage device, wherein the subspace object associates the subspace object by storing reference information for the subspace object.
時間情報を有するデータであるメディアデータの部分単位であるメディアシーンの属性情報を格納する情報格納方法であって、
メディアデータ格納手段にメディアデータを格納する工程と、
情報格納手段に、メディアシーンの属性情報と、前記格納されたメディアデータの識別情報及び当該メディアデータにおける当該メディアシーンの時間存在位置の情報を有する部分空間オブジェクトと、をスーパークラスオブジェクトにより統一的に相互に参照できるように関連付けて格納する工程と
を備えたことを特徴とする情報格納方法。
An information storage method for storing attribute information of a media scene that is a unit of media data that is data having time information,
Storing media data in the media data storage means;
In the information storage means, the media class attribute information, and the sub-space object having the identification information of the stored media data and the time location information of the media scene in the media data are unified by a super class object. An information storage method comprising the steps of: storing them in association with each other so that they can be referred to each other.
JP2006278182A 2006-10-11 2006-10-11 Information storage device for storing attribute information of media scene, information display device, and information storage method Expired - Fee Related JP4660824B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006278182A JP4660824B2 (en) 2006-10-11 2006-10-11 Information storage device for storing attribute information of media scene, information display device, and information storage method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006278182A JP4660824B2 (en) 2006-10-11 2006-10-11 Information storage device for storing attribute information of media scene, information display device, and information storage method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP24875499A Division JP4404172B2 (en) 1999-09-02 1999-09-02 Media scene information display editing apparatus, method, and storage medium storing program according to the method

Publications (2)

Publication Number Publication Date
JP2007049739A JP2007049739A (en) 2007-02-22
JP4660824B2 true JP4660824B2 (en) 2011-03-30

Family

ID=37852140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006278182A Expired - Fee Related JP4660824B2 (en) 2006-10-11 2006-10-11 Information storage device for storing attribute information of media scene, information display device, and information storage method

Country Status (1)

Country Link
JP (1) JP4660824B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102084645B (en) 2008-08-22 2013-06-19 松下电器产业株式会社 Related scene addition device and related scene addition method
JP5645618B2 (en) 2009-12-24 2014-12-24 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2007049739A (en) 2007-02-22

Similar Documents

Publication Publication Date Title
US11467706B2 (en) Multipurpose media players
US20180204604A1 (en) Persistent annotation of objects in a user interface
US7165212B2 (en) Animation on object user interface
US8204750B2 (en) Multipurpose media players
US9182981B2 (en) Systems and methods for implementing pixel-based reverse engineering of interface structure
US8386919B2 (en) System for displaying an annotated programming file
US20220164526A1 (en) Method And Apparatus For Structured Documents
JP4404172B2 (en) Media scene information display editing apparatus, method, and storage medium storing program according to the method
JP2001306599A (en) Method and device for hierarchically managing video, and recording medium recorded with hierarchical management program
Cardoso et al. The Multimodal Annotation Software Tool (MAST)
JP4660824B2 (en) Information storage device for storing attribute information of media scene, information display device, and information storage method
JP3478331B2 (en) Structure display method and computer-readable recording medium storing a program for causing a computer to execute the method
JP3583970B2 (en) Image structure editing apparatus, structural element reconstructing apparatus, and computer-readable recording medium storing a program for causing a computer to execute as each means of the apparatus
Podlasov et al. Interactive state-transition diagrams for visualization of multimodal annotation
JPH06231030A (en) Multi-media authoring system
US20230032115A1 (en) Multipurpose media players
Saathoff et al. Multimedia Annotation Tools
JPH08339369A (en) Method and device for document display
JP2001223944A (en) Video image structure edit device and computer-readable recording medium for recording program for execution of computer as each means of the device
JP2002269103A (en) System and method for analyzing multimedia

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081118

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090108

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees