JP2003323434A - Image multimedia data relating device, method and program - Google Patents

Image multimedia data relating device, method and program

Info

Publication number
JP2003323434A
JP2003323434A JP2002132826A JP2002132826A JP2003323434A JP 2003323434 A JP2003323434 A JP 2003323434A JP 2002132826 A JP2002132826 A JP 2002132826A JP 2002132826 A JP2002132826 A JP 2002132826A JP 2003323434 A JP2003323434 A JP 2003323434A
Authority
JP
Japan
Prior art keywords
data
video
multimedia
matching
multimedia data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002132826A
Other languages
Japanese (ja)
Inventor
Masahide Naemura
昌秀 苗村
Bunto Tei
文濤 鄭
Toshihiko Misu
俊彦 三須
Yasuaki Kanetsugu
保明 金次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
NHK Engineering System Inc
Original Assignee
Nippon Hoso Kyokai NHK
NHK Engineering Services Inc
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, NHK Engineering Services Inc, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2002132826A priority Critical patent/JP2003323434A/en
Publication of JP2003323434A publication Critical patent/JP2003323434A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To relate the multimedia data by every object composing an image. <P>SOLUTION: The conformity of a text describing the characteristic of an object of an image (image object) and a keyword extracting the characteristic of the multimedia data is checked by a matching processing means 25, the data processing is performed on the data having the conformity by using a relating means 28 and an identifier application means 29 to acquire the multimedia data from the image object, and the relating of the multimedia data can be performed by a unit of object. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、映像マルチメディ
アデータ関連付け装置、および、映像マルチメディアデ
ータの関連付け方法、ならびに、これに用いられるプロ
グラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video multimedia data associating device, a video multimedia data associating method, and a program used therefor.

【0002】[0002]

【従来の技術】近年、映像に付加的な情報を関連付けた
マルチメディアコンテンツの作成が頻繁に行われてい
る。このようなマルチメディアコンテンツは、例えば
「An Annotation Engine for Supporting Video Databa
se Population(Multimedia Tools and Application 5,2
33-5,258(1997))」に掲載されたコンテンツ作成ツール
を用いると効率的に作成できることが知られている。こ
のようなコンテンツ作成ツールを用いて作成されるマル
チメディアコンテンツは、映像コンテンツのいくつかの
シーンによって構成されるひと区切りの画面ごと、すな
わち、シーケンスごとに、そのシーケンスを関連する映
像、音声、テキストの少なくとも一つを含むデータから
構成されるマルチメディアデータが付加される。
2. Description of the Related Art In recent years, multimedia contents in which video is associated with additional information have been frequently created. Such multimedia content is, for example, "An Annotation Engine for Supporting Video Databa
se Population (Multimedia Tools and Application 5,2
33-5,258 (1997)) ”, it is known that the contents can be efficiently created by using the content creation tool. The multimedia content created by using such a content creation tool is a screen that is composed of several scenes of video content, that is, for each sequence, that is, for each sequence, related video, audio, and text. Multimedia data composed of data including at least one of the above is added.

【0003】また、ネットワーク環境を利用して、マル
チメディアコンテンツを作成する手法としては、分散オ
ブジェクト技術の共通仕様であるCORBA(Common O
bject Request Broker Architecture)におけるネーミ
ングサービス機能を用いることがあげられる。なお、ネ
ーミングサービス機能とは、オブジェクトを識別するた
めの名前を付与し、この名前によりオブジェクトを管理
するものである。特定のオブジェクトを欲するユーザ
は、クライアントからそのオブジェクトに付与された名
前を指定する。ネーミングサービス機能を提供するサー
バは、クライアントから送信されてきた名前を識別子と
してマッチング処理を行い、対応するオブジェクトを抽
出し、クライアントに送信する。
As a method of creating multimedia contents using a network environment, CORBA (Common O
bject Request Broker Architecture) using the naming service function. The naming service function is to give a name for identifying an object and manage the object by this name. A user who wants a specific object specifies the name given to the object by the client. The server providing the naming service function performs matching processing using the name sent from the client as an identifier, extracts the corresponding object, and sends it to the client.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、コンテ
ンツ作成ツールを用いてマルチメディアコンテンツを作
成すると、マルチメディアデータを映像のシーケンス単
位でしか付加できなかった。そこで、マルチメディアコ
ンテンツの付加価値を高めるために、映像を構成するオ
ブジェクトごとにマルチメディアデータを関連付けられ
る技術の開発が望まれていた。
However, when multimedia contents are created using the contents creation tool, the multimedia data can be added only in units of video sequences. Therefore, in order to increase the added value of multimedia contents, it has been desired to develop a technique in which multimedia data can be associated with each object forming an image.

【0005】また、CORBAのネーミングサービス機
能を利用してマルチメディアコンテンツを作成する場合
には、マッチング処理にデータに付与されている名前が
厳密に一致することが要求されるので、事前にお互いの
情報を共有していなければならず、ネットワーク環境下
のように相手先のことが良くわからない環境で複数のデ
ータを関連付けさせることは困難であった。
Further, when multimedia contents are created by using the naming service function of CORBA, it is required that the names given to the data in the matching process be exactly the same, so that the mutual contents are beforehand performed. Since information must be shared, it is difficult to associate a plurality of data in an environment where the other party is unknown, such as in a network environment.

【0006】したがって、本発明が解決しようとする課
題は、映像を構成するオブジェクトごとにマルチメディ
アデータを関連付けることである。また、ネットワーク
環境下においてもマルチメディアコンテンツの作成を確
実に行わせることである。
[0006] Therefore, the problem to be solved by the present invention is to associate multimedia data with each object constituting a video. It is also necessary to ensure the creation of multimedia contents even in a network environment.

【0007】[0007]

【課題を解決するための手段】前記の課題を解決する本
発明の請求項1に係る発明は、映像に含まれるオブジェ
クトと、ネットワーク環境下に在る映像、音声、テキス
トの少なくとも1つ以上を含むマルチメディアデータと
を関連付ける映像マルチメディアデータ関連付け装置で
あって、オブジェクトを特定するためにオブジェクトに
関連付けられた第一データと、マルチメディアデータを
特定するためにマルチメディアデータに関連付けられた
第二データとを取得し、第一データと第二データとを整
合した結果である整合データを抽出するマッチング処理
手段と、このマッチング処理手段で整合された整合デー
タに係るマルチメディアデータのネットワーク環境下に
おける保管場所を特定するための識別子を整合データに
付与して、映像オブジェクトとマルチメディアデータと
の関連データとする識別子付与手段と、関連データを記
憶する記憶手段と、を備える映像マルチメディアデータ
関連付け装置とした。
The invention according to claim 1 of the present invention for solving the above-mentioned problems provides an object included in an image and at least one or more of an image, an audio and a text in a network environment. A video multimedia data associating device for associating with multimedia data including: first data associated with an object for identifying an object; and second data associated with the multimedia data for identifying a multimedia data. In the network environment of the multimedia data related to the matching data matched by the matching processing means for acquiring the data and extracting the matching data which is the result of matching the first data and the second data. An identifier for identifying the storage location is added to the consistent data, and the video And the identifier providing means for the associated data between the objects and multimedia data, a storage means for storing associated data, and video multimedia data association device comprising a.

【0008】また、請求項3に係る発明は、映像に含ま
れるオブジェクトと、ネットワーク環境下に在る映像、
音声、テキストの少なくとも1つ以上を含むマルチメデ
ィアデータとを関連付ける映像マルチメディアデータ関
連付け方法であって、オブジェクトを特定するためにオ
ブジェクトに関連付けられた第一データと、マルチメデ
ィアデータを特定するためにマルチメディアデータに関
連付けられた第二データとを取得し、第一データと第二
データとを整合した結果である整合データを抽出するマ
ッチングステップと、このマッチングステップにおいて
整合された整合データに係るマルチメディアデータのネ
ットワーク環境下における保管場所を特定するための識
別子を整合データに付与して、映像オブジェクトとマル
チメディアデータとの関連データとする識別子付与ステ
ップと、関連データを記憶手段に記憶する記憶ステップ
と、を含む映像マルチメディアデータ関連付け方法とし
た。
The invention according to claim 3 is that an object included in a video and a video in a network environment,
A video multimedia data associating method for associating multimedia data including at least one of audio and text, comprising: first data associated with an object for identifying an object; A matching step of acquiring the second data associated with the multimedia data and extracting the matching data that is the result of matching the first data and the second data, and a multi-step related to the matching data matched in this matching step. An identifier assigning step of assigning an identifier for identifying a storage location of the media data in the network environment to the matching data to make the associated data between the video object and the multimedia data, and a storing step of storing the associated data in the storage means. And including -Media was the data associated with the method.

【0009】さらに、請求項4に係る発明は、映像に含
まれるオブジェクトと、ネットワーク環境下に在る映
像、音声、テキストの少なくとも1つ以上を含むマルチ
メディアデータとを関連付ける装置を、オブジェクトを
特定するためにオブジェクトに関連付けられた第一デー
タと、マルチメディアデータを特定するためにマルチメ
ディアデータに関連付けられた第二データとを取得し、
第一データと第二データとを整合した結果である整合デ
ータを抽出するマッチング処理手段、このマッチング処
理手段で整合された整合データに係るマルチメディアデ
ータのネットワーク環境下における保管場所を特定する
ための識別子を整合データに付与して、映像オブジェク
トとマルチメディアデータとの関連データとする識別子
付与手段、関連データを記憶する記憶手段として機能さ
せる映像マルチメディアデータ関連付けプログラムとし
た。
Further, the invention according to claim 4 specifies a device for associating an object included in a video with multimedia data including at least one of video, audio, and text in a network environment. To obtain first data associated with the object to identify the multimedia data and second data associated with the multimedia data to identify the multimedia data,
Matching processing means for extracting matching data that is the result of matching the first data and the second data, and for specifying the storage location in the network environment of the multimedia data related to the matching data matched by this matching processing means A video multimedia data associating program is provided which causes an identifier to be added to the matching data and serves as an identifier giving means for making the related data between the video object and the multimedia data and a storage means for storing the related data.

【0010】映像のオブジェクトに、そのオブジェクト
を特徴付けるデータを第一データとして付与し、マルチ
メディアデータに、そのマルチメディアデータを特徴付
けるデータを第二データとして付与する。第一データと
第二データのマッチングを行い、整合の取れたデータに
ついては、整合データとして抽出し、整合データを識別
子を用いて管理することで、オブジェクトごとにマルチ
メディアデータを関連付ける。請求項1はこのような関
連付け処理を行う装置に関するものであり、請求項3は
このような関連付け処理の方法に関するものである。さ
らに、請求項4はこのような関連付け処理を行うための
プログラムに関するものである。
Data that characterizes the object is added as first data to the video object, and data that characterizes the multimedia data is added as second data to the multimedia data. The first data and the second data are matched, the matched data is extracted as the matched data, and the matched data is managed using the identifier, whereby the multimedia data is associated with each object. Claim 1 relates to a device for performing such an association process, and claim 3 relates to a method for such an association process. Further, claim 4 relates to a program for performing such an association process.

【0011】なお、請求項2に係る発明は、請求項1に
記載の映像マルチメディアデータ関連付け装置におい
て、マッチング処理手段は、第一データおよび第二デー
タに加えてオブジェクトを含む映像を利用するユーザの
情報を利用して整合データを抽出する構成としたもので
ある。
According to a second aspect of the present invention, in the video multimedia data associating apparatus according to the first aspect, the matching processing means uses a video including an object in addition to the first data and the second data. The matching data is extracted by using the information of.

【0012】この映像マルチメディアデータ関連付け装
置は、ユーザの情報を加味してマッチング処理を行うこ
とで、ユーザの嗜好や、用途に合わせた関連付け処理を
行うものである。また、マルチメディアデータに対する
ユーザのアクセス権の管理に用いることも可能である。
ここで、ユーザの情報は、テキストもしくは数字あるい
は記号として取得する。
This video multimedia data associating device performs the matching process in consideration of the user's information, thereby performing the associating process according to the user's taste and purpose. It can also be used to manage the user's access right to multimedia data.
Here, the user information is acquired as text, numbers, or symbols.

【0013】[0013]

【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態に係る映像マルチメディアデータ関連付け装
置の詳細について説明する。図1は、本発明の実施の形
態に係る映像マルチメディアデータ関連付けシステムの
構成を示すブロック図である。図2は、図1の映像マル
チメディアデータ関連付けシステムで行われる処理を説
明するための図である。
BEST MODE FOR CARRYING OUT THE INVENTION Details of a video multimedia data associating apparatus according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a video multimedia data associating system according to an embodiment of the present invention. FIG. 2 is a diagram for explaining processing performed in the video multimedia data associating system of FIG.

【0014】本実施形態は、図1に構成を示す映像マル
チメディア関連付けシステム1を用いて被写体を表すオ
ブジェクトを含んで構成される映像であるオブジェクト
映像と、オブジェクト映像に関連するデータ(以下、マ
ルチメディアデータという)を関連付ける処理を行うも
のである。映像マルチメディア関連付けシステム1は、
オブジェクト映像を管理するオブジェクト映像管理装置
10と、マルチメディアデータを管理するマルチメディ
アデータ管理装置14と、オブジェクト映像とマルチメ
ディアデータの関連付けを行う映像マルチメディア関連
付け装置2とをネットワーク接続して構築されている。
なお、マルチメディアデータの種類としては、マルチメ
ディアデータ管理装置14に格納される映像、音声、テ
キストがあげられ、マルチメディアデータは、これらの
少なくもと一つを含んで構成される。
In this embodiment, an object video which is a video including an object representing a subject and a data related to the object video (hereinafter, referred to as a multi-media) by using the video multimedia associating system 1 shown in FIG. This is referred to as media data). The video multimedia association system 1
The object video management device 10 for managing the object video, the multimedia data management device 14 for managing the multimedia data, and the video multimedia associating device 2 for associating the object video and the multimedia data are network-connected to each other. ing.
Note that the types of multimedia data include video, audio, and text stored in the multimedia data management device 14, and the multimedia data is configured to include at least one of these.

【0015】オブジェクト映像管理装置10は、オブジ
ェクト映像を入力する入力手段19と、入力されたオブ
ジェクト映像から特定のオブジェクトを抽出するオブジ
ェクト抽出手段21と、抽出したオブジェクト(以下、
映像オブジェクトという)に特徴的な情報を第一データ
である第一特徴データ(メタデータ)として付与する特
徴データ付与手段23とを含み、オブジェクト映像は映
像蓄積手段24に蓄積され、映像オブジェクトおよび特
徴データはオブジェクト蓄積手段22に蓄積されるよう
に構成されている。なお、第一特徴データは、映像オブ
ジェクトの内容や、種類を特定できるデータであれば、
説明テキストや色特徴量など、いかなるデータであって
も良い。本実施形態においては、図1に示すようにテキ
ストデータを用いる場合を説明する。
The object video management apparatus 10 has an input means 19 for inputting an object video, an object extracting means 21 for extracting a specific object from the input object video, and an extracted object (hereinafter, referred to as "object").
(A video object) and characteristic data assigning means 23 for assigning characteristic information as first characteristic data (metadata) which is the first data, and the object video is stored in the video storing means 24, and the video object and the feature are stored. The data is configured to be stored in the object storage means 22. If the first feature data is data that can specify the content or type of the video object,
It may be any data such as an explanation text or a color feature amount. In this embodiment, a case where text data is used as shown in FIG. 1 will be described.

【0016】このようなオブジェクト映像管理装置10
としては、例えば、図示しない通信制御装置などを有
し、ネットワーク接続可能なコンピュータ装置があげら
れる。この場合の入力手段19は、記憶媒体からオブジ
ェクト映像を読み取る装置や、ネットワークを介してオ
ブジェクト映像を受信する装置などになる。映像蓄積手
段24およびオブジェクト蓄積手段22は、ハードディ
スクなどの記憶装置となる。また、オブジェクト抽出手
段21は、CPU(Central Processing Unit)などを
有する制御装置に所定のプログラムを起動させることに
より実現される手段であるが、本願の出願人により出願
された特願2000−385276号に記載されている
動オブジェクト抽出装置を用いても良い。特徴データ付
与手段23は、図示しないマウスやキーボードにより作
業者がマニュアルで入力する手段であるが、映像オブジ
ェクトの内容を認識して適切なデータを第一特徴データ
として自動的に付与する手段であっても良い。特徴デー
タを自動的に付与する例としては、映像オブジェクトが
人物についての映像から構成されている場合に、その人
物の顔を認識して、第一特徴データを付与する手段があ
げられる。
Such an object video management device 10
For example, a computer device that has a communication control device (not shown) and can be connected to a network can be used. In this case, the input means 19 is a device for reading the object video from the storage medium, a device for receiving the object video via the network, or the like. The video storage means 24 and the object storage means 22 serve as a storage device such as a hard disk. Further, the object extracting means 21 is a means realized by causing a control device having a CPU (Central Processing Unit) or the like to start a predetermined program, and Japanese Patent Application No. 2000-385276 filed by the applicant of the present application. You may use the moving object extraction apparatus described in. The characteristic data adding means 23 is a means for the operator to manually input with a mouse or keyboard (not shown), but is a means for recognizing the contents of the video object and automatically adding appropriate data as the first characteristic data. May be. An example of automatically adding the characteristic data is a means for recognizing the face of the person and adding the first characteristic data when the video object is composed of a video of a person.

【0017】マルチメディアデータ管理装置14は、マ
ルチメディアデータを格納するマルチメディアデータ格
納手段11と、マルチメディアデータを特徴付ける第二
データである第二特徴データ(メタデータ)をキーワー
ドとして抽出するキーワード抽出手段13とを含んで構
成されている。このようなマルチメディアデータ管理装
置14としては、例えば、図示しない通信制御装置を有
し、ネットワーク接続可能なコンピュータ装置があげら
れる。この場合のマルチメディアデータ格納手段11は
ハードディスクなどの記憶装置であり、キーワード抽出
手段13は、コンピュータ装置の制御装置に所定のプロ
グラムを起動させることにより実現される。あらかじめ
マルチメディアデータが第二特徴データに関連付けられ
て格納されている場合には、キーワード抽出手段13を
設ける必要はない。
The multimedia data management device 14 includes a multimedia data storage means 11 for storing multimedia data, and keyword extraction for extracting second characteristic data (metadata) which is second data characterizing the multimedia data as keywords. And means 13 and. As such a multimedia data management device 14, for example, there is a computer device which has a communication control device (not shown) and can be connected to a network. In this case, the multimedia data storage means 11 is a storage device such as a hard disk, and the keyword extraction means 13 is realized by causing the control device of the computer device to start a predetermined program. If the multimedia data is stored in advance in association with the second feature data, it is not necessary to provide the keyword extracting means 13.

【0018】なお、第二特徴データは、マルチメディア
データの内容や、種類、保管場所などを特定できるデー
タであれば、いかなるデータであっても良い。第二特徴
データの形式は、後に説明するマッチング処理を容易に
行うために、第一特徴データの形式と同じ形式であるこ
とが望ましい。したがって、本実施形態における第二特
徴データは、テキスト形式のデータとする。また、第二
特徴データをキーワードと記載するのは、第一特徴デー
タとの区別を容易にするためである。
The second characteristic data may be any data as long as it can specify the content, type, storage location, etc. of the multimedia data. It is desirable that the format of the second feature data is the same as the format of the first feature data in order to easily perform the matching process described later. Therefore, the second feature data in this embodiment is data in text format. Further, the reason why the second characteristic data is described as a keyword is to facilitate the distinction from the first characteristic data.

【0019】映像マルチメディア関連付け装置2は、第
一特徴データと第二特徴データとのマッチング処理を行
うマッチング処理手段25と、マッチングが取れた第一
特徴データおよび第二特徴データを関連付けして一つの
データを作成する関連付け手段28と、関連付けにより
作成されたデータに、後に詳細を説明する名前識別子を
付与して関連データを作成する識別子付与手段29と、
関連データを記憶する記憶手段27を含んで構成されて
いる。このような映像マルチメディア関連付け装置2と
しては、例えば、ネットワーク接続可能なコンピュータ
装置があげられる。この場合のマッチング処理手段25
および関連付け手段28ならびに識別子付与手段29
は、コンピュータ装置の制御装置に所定のプログラムを
起動させることにより実現される。また、記憶手段27
は、ハードディスクなどの記憶装置となる。
The video multimedia associating device 2 correlates the first characteristic data and the second characteristic data, which are matched with each other, with the matching processing means 25 for performing the matching processing between the first characteristic data and the second characteristic data. An associating unit 28 for creating one piece of data, and an identifier assigning unit 29 for assigning a name identifier, which will be described in detail later, to the data created by associating to create related data,
It is configured to include a storage unit 27 that stores related data. An example of such a video multimedia associating device 2 is a computer device that can be connected to a network. Matching processing means 25 in this case
And associating means 28 and identifier assigning means 29
Is realized by causing a control device of a computer device to start a predetermined program. Also, the storage means 27
Is a storage device such as a hard disk.

【0020】次に、このような映像マルチメディア関連
付けシステム1における処理について、図1および図2
を用いて説明する。なお、図2には、オブジェクト映像
中に存在する映像オブジェクトに、マルチメディアデー
タ群を関連付けるための作業手順が示されている。
Next, the processing in the video multimedia associating system 1 will be described with reference to FIGS.
Will be explained. Note that FIG. 2 shows a work procedure for associating a multimedia data group with a video object existing in the object video.

【0021】まず、オブジェクト映像管理装置10が、
図2に示すオブジェクト映像♯Vから、その映像につい
ての映像オブジェクト#V¥#Pを抽出する。この抽出
処理は、図1のオブジェクト抽出手段21により行われ
る。そして、抽出された複数の映像オブジェクト#V¥
#Pには、第一特徴データであるテキストが付与され
る。ここで付与されるテキストは、複数の情報を含める
ことが可能であるので、第一特徴データをテキストの集
合とみなして、オブジェクトテキスト集合#V¥#P¥
{text}と表記することにする。
First, the object video management device 10
From the object video #V shown in FIG. 2, the video object # V ¥ # P for that video is extracted. This extraction processing is performed by the object extraction means 21 of FIG. Then, the plurality of extracted video objects # V ¥
The text that is the first characteristic data is added to #P. Since the text given here can include a plurality of information, the first feature data is regarded as a set of texts, and the object text set # V ¥ # P ¥
It will be expressed as {text}.

【0022】一方、マルチメディアデータ管理装置14
は、蓄積してある映像、音声、テキストなどを含むマル
チメディアデータが第二特徴データを有していない場合
に、そのようなマルチメディアデータから第二特徴デー
タとなるキーワードを抽出する。例えば、図1に示すマ
ルチメディアデータ格納手段11に蓄積されているデー
タを、図2に示すようにマルチメディアデータData
1〜Data#m(m:正の整数)とした場合に、その
それぞれに対してキーワード抽出手段13(図1参照)
が複数のキーワードを抽出する。ここで、キーワードD
ata1¥{text}とは、マルチメディアデータD
ata1についてのキーワードの集合を意味し、キーワ
ードData#m¥{text}は、マルチメディアデ
ータData#mについてのキーワードの集合を意味す
る。なお、キーワードの数は一つであっても構わない。
On the other hand, the multimedia data management device 14
If the stored multimedia data including video, audio, text, etc. does not have the second characteristic data, the keyword that is the second characteristic data is extracted from such multimedia data. For example, the data stored in the multimedia data storage means 11 shown in FIG. 1 is converted into multimedia data Data as shown in FIG.
1 to Data # m (m: positive integer), the keyword extracting means 13 (see FIG. 1) for each of them.
Extracts multiple keywords. Where keyword D
ata1 \ {text} is multimedia data D
It means a set of keywords for data1, and the keyword Data # m ¥ {text} means a set of keywords for multimedia data Data # m. Note that the number of keywords may be one.

【0023】そして、映像マルチメディア関連付け装置
2は、オブジェクト映像管理装置10からオブジェクト
テキスト集合#V¥#P¥{text}をネットワーク
を介して取得し、マルチメディアデータ管理装置14か
らはキーワードData1¥{text}〜Data#
m¥{text}、および、キーワードData1¥
{text}〜Data#m¥{text}を与えるマ
ルチメディアデータData1〜Data#mの保管場
所をネットワーク上で特定するためにキーワードDat
a1¥{text}〜Data#m¥{text}に関
連付けられた不図示の名前識別子Name1〜Name
#mをネットワークを介して取得する。なお、名前識別
子は、インターネットにおいてデータの場所を一意に特
定するための識別子であり、XML(eXtensive Marku
p Language)に用意される名前空間があげられる。名前
空間に使用される情報としては、URL(Uniform Reso
urceLocator)などがあげられる。つまり、Name1
を参照することで、キーワードData1¥{tex
t}を与えるマルチメディアデータData1の保管場
所を知ることができる。
Then, the video multimedia associating device 2 obtains the object text set # V ¥ # P ¥ {text} from the object video managing device 10 via the network, and the multimedia data managing device 14 receives the keyword Data1 ¥. {Text} to Data #
m ¥ {text} and the keyword Data1 ¥
The keyword Dat for specifying the storage location of the multimedia data Data1 to Data # m giving {text} to Data # m \ {text} on the network.
a1 \ {text} to Data # m \ {text} not shown name identifiers Name1 to Name
#M is acquired via the network. The name identifier is an identifier for uniquely identifying the location of data on the Internet, and is an XML (eXtensive Marku).
Namespaces provided in p Language). The information used for the namespace is URL (Uniform Reso
urceLocator) and so on. In other words, Name1
By referring to, the keyword Data1 ¥ {tex
The storage location of the multimedia data Data1 giving t} can be known.

【0024】映像マルチメディア関連付け装置2のマッ
チング処理手段25は、取得した第一特徴データである
オブジェクトテキスト集合#V¥#P¥{text}
と、第二特徴データであるキーワードData1¥{t
ext}〜Data#m¥{text}を用いてマッチ
ング処理を行う。この場合のマッチング処理は、第一特
徴データおよび第二特徴データがともに、テキスト形式
であるので、テキストマッチングである。第一特徴デー
タに含まれるテキストと、第二特徴データに含まれるキ
ーワードとを比較して、一致するものがあれば、そのテ
キストとキーワードについては整合が取れたとみなす。
The matching processing means 25 of the video multimedia associating device 2 has the object text set # V ¥ # P ¥ {text} which is the acquired first characteristic data.
And the keyword Data1 ¥ {t which is the second feature data
The matching process is performed using ext} to Data # m \ {text}. The matching process in this case is text matching because both the first feature data and the second feature data are in text format. The text included in the first characteristic data and the keyword included in the second characteristic data are compared, and if there is a match, it is considered that the text and the keyword are matched.

【0025】マッチング処理の結果、例えば整合の取れ
たデータがk個(k:正の整数)あった場合には、図1
に示す関連付け手段28が整合の取れたテキストとキー
ワードを関連付けた関連データData#L(1)〜D
ata#L(k)を関連付け手段28が作成する。ま
た、このデータData#L(1)〜Data#L
(k)には、識別子付与手段29がそれぞれ名前識別子
Name#L(1)〜Name#L(k)を付与する。
名前識別子Name#L(1)〜Name#L(k)に
は、整合のとれたキーワードData1¥{text}
〜Data#m¥{text}の名前識別子Name1
〜Name#mである。
As a result of the matching processing, for example, when there are k pieces of matched data (k: a positive integer), FIG.
Associated data Data # L (1) to D in which the associating means 28 shown in FIG.
The associating unit 28 creates ata # L (k). Also, this data Data # L (1) to Data # L
To (k), the identifier assigning means 29 assigns name identifiers Name # L (1) to Name # L (k), respectively.
In the name identifiers Name # L (1) to Name # L (k), matched keywords Data1 \ {text}
~ Name identifier of Data # m \ {text} Name1
~ Name # m.

【0026】そして、映像マルチメディアデータ関連付
け装置2は、マッチング処理により整合の取れた第一特
徴データ(テキスト)を与える映像オブジェクト#V¥
#Pと、名前識別子Name#L(1)〜Name#L
(k)が付与された関連データData#L(1)〜D
ata#L(k)を関連付けて、図2に示すネーミング
サービス変換テーブル32を作成する。ネーミングサー
ビス変換テーブル32は、ネーミングサービス対応変換
テーブル作成処理31により作成され、記憶手段27に
記憶される。例えば、オブジェクト映像#Vを再生など
する際には、オブジェクト映像#Vに含まれる映像オブ
ジェクト#V#Pでネームサービス機能を利用する。オ
ブジェクト映像管理装置10は、映像マルチメディアデ
ータ関連付け装置2の記憶手段27に構築されているネ
ーミングサービス変換テーブル32を参照して、その映
像オブジェクト#V#Pに関連するマルチメディアデー
タの保管場所を名前識別子により取得する。そして、取
得した保管場所にアクセスして、関連するマルチメディ
アデータを取得する。なお、本実施形態における関連付
けは、映像オブジェクト#V#Pを用いて特定のマルチ
メディアデータData1〜Data#mを、その保管
場所から取得できるようにデータ間の位置関係が記憶さ
れていれば良く、必ずしも識別子を付与する必要はな
い。要するに、オブジェクト映像#Vについてユーザな
どが自由に作成したデータ(特徴空間)から、関連する
データをネットワーク上で特定できる固有のデータ(名
前空間)に変換できる処理であれば良い。
Then, the video multimedia data associating device 2 gives the video object # V ¥ which gives the first feature data (text) matched by the matching process.
#P and name identifiers Name # L (1) to Name # L
Related data Data # L (1) to D added with (k)
The naming service conversion table 32 shown in FIG. 2 is created by associating ata # L (k). The naming service conversion table 32 is created by the naming service correspondence conversion table creation process 31 and stored in the storage means 27. For example, when reproducing the object video #V, the name service function is used with the video object # V # P included in the object video #V. The object video management device 10 refers to the naming service conversion table 32 built in the storage means 27 of the video multimedia data associating device 2, and determines the storage location of the multimedia data related to the video object # V # P. Get by name identifier. Then, the obtained storage location is accessed to obtain the related multimedia data. The association in the present embodiment may be performed by storing the positional relationship between data so that specific multimedia data Data1 to Data # m can be acquired from the storage location using the video object # V # P. , It is not always necessary to give an identifier. In short, any process that can convert the data (feature space) freely created by the user or the like for the object video #V into the unique data (name space) that can specify the related data on the network may be used.

【0027】このようにして、名前識別子を介して映像
オブジェクト#V#PとキーワードData1¥{te
xt}〜Data#m¥{text}を関連付けること
により、シーケンス単位でデータを関連付ける場合に比
べて、細かい単位で、マルチメディアデータを関連付け
ることが可能になる。特に、この関連付け処理は、前記
したように映像オブジェクト#V#PとキーワードDa
ta1¥{text}〜Data#m¥{text}を
取得した後は自動で行われるために、関連付け作業の負
担を軽減するとともに、処理の精度を向上させることが
可能になる。
In this way, the video object # V # P and the keyword Data1 ¥ {te
By associating xt} to Data # m \ {text}, it becomes possible to associate multimedia data in a finer unit than in the case of associating data in a sequence unit. In particular, this associating process includes the video object # V # P and the keyword Da as described above.
Since it is automatically performed after acquiring ta1 ¥ {text} to Data # m ¥ {text}, it is possible to reduce the load of the association work and improve the accuracy of the process.

【0028】なお、ユーザから取得する外部情報を加味
して、マッチング処理を行うようにすることも可能であ
る。この場合の処理について、図3を用いて説明する。
ユーザは、マルチメディアデータの関連付け処理を行う
にあたり、オブジェクト映像管理装置10に対して、I
Dカードやキーボードなどを用いて識別データ(ID)
を入力する。この識別データは、ユーザがその映像を取
り扱う際の用途や、嗜好、その人を特定できる情報など
を表現したテキストであり、オブジェクトテキスト集合
#V¥#P¥{text}とともに、映像マルチメディ
ア関連付け装置2に送信される。映像マルチメディア関
連付け装置2では、第一特徴データであるオブジェクト
テキスト集合#V¥#P¥{text}と、識別デー
タ、ならびに、第二特徴データであるキーワード群でマ
ッチング処理を行う。マッチング処理手段25は、テキ
ストに適合するキーワードを抽出するとともに、さらに
抽出したキーワードに中から識別データに適合するキー
ワードを出力する。出力結果は適合データData#L
(1),・・・,Data#L(k)として取り扱われ
る。以降は、前記と同様に名前識別子を付与した後に、
ネーミングサービス変換テーブル32を作成する。
It is also possible to add the external information acquired from the user to perform the matching process. The processing in this case will be described with reference to FIG.
When performing a process of associating multimedia data, the user asks the object video management device 10 to send an I
Identification data (ID) using a D card or keyboard
Enter. This identification data is a text that expresses the use, taste, information that can identify the person when the user handles the video, and together with the object text set # V ¥ # P ¥ {text}, the video multimedia association is performed. Sent to device 2. The video multimedia associating device 2 performs the matching process with the object text set # V ¥ # P ¥ {text} that is the first feature data, the identification data, and the keyword group that is the second feature data. The matching processing means 25 extracts a keyword that matches the text and outputs a keyword that matches the identification data from among the extracted keywords. The output result is the conforming data Data # L
(1), ..., Data # L (k). After that, after assigning a name identifier as above,
The naming service conversion table 32 is created.

【0029】このようにして、映像オブジェクトを特徴
付けるテキストに加えて、ユーザからの情報を付加し
て、マルチメディアデータの関連付け処理を行うことに
より、ユーザの嗜好に合わせた関連付けが可能になる。
ネーミングサービス変換テーブル32に関連付けて格納
するデータの量を減少させることができるし、ネットワ
ークにおけるデータのトラフィック量を減少させること
ができる。ユーザにとっても、自己の嗜好に沿わないマ
ルチメディアデータや、関連性の少ないマルチメディア
データを排除することができるという効果を奏する。
In this way, by adding information from the user in addition to the text characterizing the video object and performing the process of associating the multimedia data, the association according to the taste of the user becomes possible.
The amount of data stored in association with the naming service conversion table 32 can be reduced, and the amount of data traffic in the network can be reduced. For the user as well, it is possible to eliminate multimedia data that does not match the user's taste and multimedia data that is less relevant.

【0030】なお、前記において識別データは、テキス
トデータとしたが、ユーザの所属部署などを示す番号や
コードなどで構成される分類識別子であっても良く、前
記と同様な作用・効果を得ることができる。この場合の
処理としては、映像マルチメディア関連付け装置2が、
分類識別子を取得し、記憶手段27に定義しておいたテ
ーブルに従って、ユーザの情報をテキストデータとして
取得し、マッチング処理に使用する。または、マルチメ
ディアデータのキーワードに分類識別子を付しておき、
マッチング処理時に、映像オブジェクトについてのテキ
ストと、マルチメディアデータについてのキーワードと
のテキストマッチングとともに、ユーザから取得した分
類識別子とキーワードに付された分類識別子とのマッチ
ングを行い、テキストマッチングおよび分類識別子のマ
ッチングの両方が取れたデータを整合データとして取り
扱うことも可能である。特に、これらの場合は、映像マ
ルチメディア関連付けシステムを社内で構築し、職種や
職制に合わせて、マルチメディアデータとして用意され
ているデータにアクセス権を設定したい場合に有効であ
る。
Although the identification data is text data in the above description, it may be a classification identifier composed of a number or a code indicating the department to which the user belongs, and the same action and effect as above can be obtained. You can As processing in this case, the video multimedia associating device 2
The classification identifier is acquired, and the user information is acquired as text data according to the table defined in the storage means 27 and used for the matching process. Or, add a classification identifier to the keyword of multimedia data,
During the matching process, the text of the video object and the keyword of the multimedia data are text matched, and the classification identifier obtained from the user and the classification identifier attached to the keyword are matched to perform text matching and classification identifier matching. It is also possible to handle the data obtained by both of them as consistent data. Especially, in these cases, it is effective when a video multimedia associating system is built in-house and it is desired to set an access right to data prepared as multimedia data according to a job type and a job system.

【0031】以上によれば、本実施形態において、次の
ような効果を得ることができる。本実施形態の関連付け
装置により、ネットワーク環境下で映像とその映像に関
連するデータを、映像のオブジェクトレベルの細かい単
位で自動的に関連付けることができる。関連付けられる
データの特徴空間におけるマッチング処理が行われる結
果、相手先のことを意識しなくても良いという柔軟性を
有する。一度、関連付けられたデータは、自動的にネー
ミングサービスに登録され、以後、お互いの作業が自動
的に更新される。これは、時々刻々変化するネットワー
ク環境下でのデータの関連付けのときに、有用であるこ
とはいうまでもない。
According to the above, the following effects can be obtained in this embodiment. With the associating device of this embodiment, it is possible to automatically associate a video and data related to the video in a fine unit at the object level of the video in a network environment. As a result of performing the matching process in the feature space of the associated data, there is flexibility that it is not necessary to be aware of the other party. Once the associated data is automatically registered in the naming service, the work of each other is automatically updated thereafter. It goes without saying that this is useful for associating data in a network environment that changes from moment to moment.

【0032】なお、本発明は前記の実施形態に限定され
ずに広く応用することが可能である。例えば、コンピュ
ータ装置を、映像マルチメディア関連付け装置2や、オ
ブジェクト映像管理装置10、あるいは、関連データ管
理装置14として機能させるプログラムを記録したCD
−ROMなどの記録媒体や、インターネットを利用して
ダウンロード可能な状態に置くことも本発明の実施と言
える。
The present invention is not limited to the above embodiment and can be widely applied. For example, a CD that records a program that causes a computer device to function as the video multimedia association device 2, the object video management device 10, or the related data management device 14.
It can be said that putting the recording medium such as a ROM or the Internet into a downloadable state is also an implementation of the present invention.

【0033】また、図1に示すように、映像マルチメデ
ィア関連付け装置2、オブジェクト映像管理装置10、
関連データ管理装置14は、独立した装置として説明し
たが、単一の装置構成であっても良いし、二つの装置を
単一の装置構成としても良い。
Further, as shown in FIG. 1, the video multimedia associating device 2, the object video management device 10,
Although the related data management device 14 has been described as an independent device, it may have a single device configuration or two devices may have a single device configuration.

【0034】[0034]

【発明の効果】請求項1、請求項3、請求項4のいずれ
か一項に記載の発明によれば、ネットワーク環境下にお
いて、データの関連付けを映像のオブジェクトごとに行
うことが可能になる。特に、関連付けは自動的に行われ
るので、相手先を意識することなく、事前にお互いの情
報を共有する必要もない。
According to the invention described in any one of claims 1, 3, and 4, it becomes possible to perform data association for each video object in a network environment. In particular, since the association is automatically performed, it is not necessary to share information with each other in advance without being aware of the other party.

【0035】請求項2に記載の発明によれば、ネットワ
ーク環境下において、データの関連付けを映像のオブジ
ェクトごとに行う際に、ユーザの嗜好や用途に合わせた
データの関連付けや、アクセス権の管理が可能になる。
According to the second aspect of the present invention, in the network environment, when the data association is performed for each video object, the data association according to the user's taste and use and the access right management are performed. It will be possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態に係る映像マルチメディア
データ関連付けシステムの構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a configuration of a video multimedia data associating system according to an embodiment of the present invention.

【図2】図1の映像マルチメディアデータ関連付けシス
テムにおける処理を説明するための図である。
FIG. 2 is a diagram for explaining a process in the video multimedia data associating system of FIG.

【図3】図1の映像マルチメディアデータ関連付けシス
テムにおける処理を説明するための図である。
FIG. 3 is a diagram for explaining processing in the video multimedia data associating system of FIG. 1.

【符号の説明】[Explanation of symbols]

1 映像マルチメディア関連付けシステム 2 映像マルチメディア関連付け装置 10 オブジェクト映像管理装置 11 マルチメディアデータ格納手段 13 キーワード抽出手段 14 マルチメディアデータ管理装置 21 オブジェクト抽出手段 23 特徴データ付与手段 25 マッチング処理手段 27 記憶手段 28 関連付け手段 29 識別子付与手段 1 Video multimedia association system 2 Video multimedia association device 10 Object video management device 11 Multimedia data storage means 13 Keyword extraction means 14 Multimedia data management device 21 Object Extraction Means 23 means for adding characteristic data 25 Matching processing means 27 storage means 28 associating means 29 identifier assigning means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鄭 文濤 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 (72)発明者 三須 俊彦 東京都世田谷区砧一丁目10番11号 日本放 送協会 放送技術研究所内 (72)発明者 金次 保明 東京都町田市東玉川学園4−3441−8 Fターム(参考) 5B075 ND16 NK02 5C052 AC08 DD04 5C053 FA14 GB06 HA30 JA21 KA05 LA11 LA14    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Chung Wen             1-10-11 Kinuta, Setagaya-ku, Tokyo, Japan             Broadcasting Association Broadcast Technology Institute (72) Inventor Toshihiko Misu             1-10-11 Kinuta, Setagaya-ku, Tokyo, Japan             Broadcasting Association Broadcast Technology Institute (72) Inventor Yasuaki Kinji             4-3441-8 Higashi Tamagawa Gakuen, Machida City, Tokyo F term (reference) 5B075 ND16 NK02                 5C052 AC08 DD04                 5C053 FA14 GB06 HA30 JA21 KA05                       LA11 LA14

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 映像に含まれるオブジェクトと、ネット
ワーク環境下にある映像、音声、テキストの少なくとも
一つ以上を含むマルチメディアデータとを関連付ける映
像マルチメディアデータ関連付け装置であって、 前記オブジェクトを特定するために前記オブジェクトに
関連付けられた第一データと、前記マルチメディアデー
タを特定するために前記マルチメディアデータに関連付
けられた第二データとを取得し、前記第一データと前記
第二データとを整合した結果である整合データを抽出す
るマッチング処理手段と、 このマッチング処理手段で整合された整合データに係る
マルチメディアデータのネットワーク環境下における保
管場所を特定するための識別子を整合データに付与し
て、前記映像オブジェクトと前記マルチメディアデータ
との関連データとする識別子付与手段と、 前記関連データを記憶する記憶手段と、を備えることを
特徴とする映像マルチメディアデータ関連付け装置。
1. A video multimedia data associating device for associating an object included in a video with multimedia data including at least one of video, audio and text under a network environment, wherein the object is specified. For obtaining the first data associated with the object and the second data associated with the multimedia data for identifying the multimedia data, and matching the first data with the second data. Matching processing means for extracting the matching data as a result of the matching processing, and an identifier for identifying the storage location in the network environment of the multimedia data related to the matching data matched by this matching processing means is added to the matching data, The video object and the multimedia data Related data and identifier assigning means for, the relevant data video multimedia data association device, characterized in that it comprises a storage means for storing.
【請求項2】 前記マッチング処理手段は、前記第一デ
ータおよび前記第二データに加えて前記オブジェクトを
含む映像を利用するユーザの情報を利用して整合データ
を抽出することを特徴とする請求項1に記載の映像マル
チメディア関連付け装置
2. The matching processing means extracts matching data using information of a user who uses a video including the object in addition to the first data and the second data. 1. The video multimedia associating device according to 1.
【請求項3】 映像に含まれるオブジェクトと、ネット
ワーク環境下にある映像、音声、テキストの少なくとも
一つ以上を含むマルチメディアデータとを関連付ける映
像マルチメディアデータ関連付け方法であって、 前記オブジェクトを特定するために前記オブジェクトに
関連付けられた第一データと、前記マルチメディアデー
タを特定するために前記マルチメディアデータに関連付
けられた第二データとを取得し、前記第一データと前記
第二データとを整合した結果である整合データを抽出す
るマッチングステップと、 このマッチングステップにおいて整合された整合データ
に係るマルチメディアデータのネットワーク環境下にお
ける保管場所を特定するための識別子を整合データに付
与して、前記映像オブジェクトと前記マルチメディアデ
ータとの関連データとする識別子付与ステップと、 前記関連データを記憶手段に記憶する記憶ステップと、
を含むことを特徴とする映像マルチメディアデータ関連
付け方法。
3. A video multimedia data associating method for associating an object included in a video with multimedia data including at least one of video, audio and text under a network environment, wherein the object is specified. For obtaining the first data associated with the object and the second data associated with the multimedia data for identifying the multimedia data, and matching the first data with the second data. A matching step for extracting matching data as a result of the matching, and an identifier for specifying the storage location in the network environment of the multimedia data related to the matching data matched in this matching step is added to the matching data, Objects and the multimedia And identifier assigning step to relevant data and over data, a storing step of storing the associated data in the storage means,
A method for associating video multimedia data, comprising:
【請求項4】 映像に含まれるオブジェクトと、ネット
ワーク環境下にある映像、音声、テキストの少なくとも
一つ以上を含むマルチメディアデータとを関連付ける装
置を、 前記オブジェクトを特定するために前記オブジェクトに
関連付けられた第一データと、前記マルチメディアデー
タを特定するために前記マルチメディアデータに関連付
けられた第二データとを取得し、前記第一データと前記
第二データとを整合した結果である整合データを抽出す
るマッチング処理手段、 このマッチング処理手段で整合された整合データに係る
マルチメディアデータのネットワーク環境下における保
管場所を特定するための識別子を整合データに付与し
て、前記映像オブジェクトと前記マルチメディアデータ
との関連データとする識別子付与手段、 前記関連データを記憶する記憶手段、として機能させる
ことを特徴とする映像マルチメディアデータ関連付けプ
ログラム。
4. A device for associating an object included in a video with multimedia data including at least one of video, audio and text under a network environment, the device being associated with the object to identify the object. First data and second data associated with the multimedia data to identify the multimedia data, and obtain consistent data that is a result of aligning the first data and the second data. Matching processing means for extracting, the identifier for identifying the storage location in the network environment of the multimedia data related to the matching data matched by the matching processing means is added to the matching data, and the video object and the multimedia data Identifier assigning means to be related data with, A video multimedia data associating program characterized by causing it to function as a storage means for storing related data.
JP2002132826A 2002-05-08 2002-05-08 Image multimedia data relating device, method and program Pending JP2003323434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002132826A JP2003323434A (en) 2002-05-08 2002-05-08 Image multimedia data relating device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002132826A JP2003323434A (en) 2002-05-08 2002-05-08 Image multimedia data relating device, method and program

Publications (1)

Publication Number Publication Date
JP2003323434A true JP2003323434A (en) 2003-11-14

Family

ID=29544649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002132826A Pending JP2003323434A (en) 2002-05-08 2002-05-08 Image multimedia data relating device, method and program

Country Status (1)

Country Link
JP (1) JP2003323434A (en)

Similar Documents

Publication Publication Date Title
EP1743247B1 (en) System and method for optimized property retrieval of stored objects
JP5509596B2 (en) Data management device
JP5353148B2 (en) Image information retrieving apparatus, image information retrieving method and computer program therefor
JP5005726B2 (en) Managing media files from multiple sources
EP1607937A1 (en) Information processing device, information processing method, and computer program
US20070288835A1 (en) Apparatus, computer readable medium, data signal, and method for document management
US10133780B2 (en) Methods, systems, and computer program products for determining availability of presentable content
US9069771B2 (en) Music recognition method and system based on socialized music server
JP2010073114A6 (en) Image information retrieving apparatus, image information retrieving method and computer program therefor
JP2005018734A (en) File management method and device, and annotation information generation method and device
US7702632B2 (en) Information processing apparatus, information processing method, and computer program
US20110161808A1 (en) Method and system for processing electronic data
US7562286B2 (en) Apparatus, system, method and computer program product for document management
WO2004023341A1 (en) Search system, search server, client, search method, program, and recording medium
KR101713988B1 (en) Method and apparatus for providing content sending metadata extracted from content
JP2006331189A (en) Content management apparatus, content management system, content management method, and content management program
JP2002049637A (en) Database management method, device and recording medium
CN103975360B (en) Music on video website
US20080082516A1 (en) System for and method of searching distributed data base, and information management device
KR100916310B1 (en) System and Method for recommendation of music and moving video based on audio signal processing
JP5224839B2 (en) Document management system, document management apparatus, document management method, and program
KR20170027332A (en) Method and apparatus for providing content sending metadata extracted from content
JP2003323434A (en) Image multimedia data relating device, method and program
JP2006185059A (en) Contents management apparatus
JP2003058865A (en) Method and system for distributing video description information, server device for video description information distribution, client device for video description information distribution, program for video description information distribution, and recording medium recording the same program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081007