JP4469884B2 - Metadata sharing system - Google Patents

Metadata sharing system Download PDF

Info

Publication number
JP4469884B2
JP4469884B2 JP2007230084A JP2007230084A JP4469884B2 JP 4469884 B2 JP4469884 B2 JP 4469884B2 JP 2007230084 A JP2007230084 A JP 2007230084A JP 2007230084 A JP2007230084 A JP 2007230084A JP 4469884 B2 JP4469884 B2 JP 4469884B2
Authority
JP
Japan
Prior art keywords
metadata
media data
search
data
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007230084A
Other languages
Japanese (ja)
Other versions
JP2008042932A (en
Inventor
秀樹 筒井
俊彦 真鍋
優 鈴木
知子 村上
庄三 磯部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007230084A priority Critical patent/JP4469884B2/en
Publication of JP2008042932A publication Critical patent/JP2008042932A/en
Application granted granted Critical
Publication of JP4469884B2 publication Critical patent/JP4469884B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、メタデータを多数の視聴者間で共有することの出来るメタデータ共有システムに関する。   The present invention relates to a metadata sharing system capable of sharing metadata among a large number of viewers.

近年、メディアデータ、特にストリームメディアデータ(TV番組や、DVD等で提供される映画等)へのアクセスを容易にするため、メタデータをメディアデータに付加する試みが、例えばMPEG−7などにおいて行われている。   In recent years, attempts have been made to add metadata to media data in order to facilitate access to media data, particularly stream media data (TV programs, movies provided on DVDs, etc.), for example in MPEG-7. It has been broken.

メタデータとは、あるデータに関する情報を記述するデータを指す。例えば、TV放送画像などのメディアデータに、放送局名、放送日時、内容などのデータを記述しておくことにより、所望の情報を検索する場合などに役立てることができる。或いは、メディアデータ内の特定の部分(例えば野球番組でAチームのB選手が登場する場面)のみを選択的に検索して視聴する、というような要求に応えることもできる。すなわち、番組内で当該B選手が登場するシーンを示すデータをメタデータとして予め記述しておくことにより、それらシーンを容易に検索することができるようになる。   Metadata refers to data that describes information about certain data. For example, by describing data such as a broadcast station name, broadcast date and time, and contents in media data such as a TV broadcast image, it can be useful when searching for desired information. Alternatively, it is possible to respond to a request to selectively search and view only a specific part in the media data (for example, a scene where a B player of Team A appears in a baseball program). That is, by describing in advance data indicating scenes in which the B player appears in the program as metadata, these scenes can be easily retrieved.

なお、MPEG−7は、MPEG(Moving Picture Experts Group)において策定されたマルチメディア・コンテンツに対するメタデータの表記方法に関する国際標準規格である。   Note that MPEG-7 is an international standard related to a metadata notation method for multimedia contents established in MPEG (Moving Picture Experts Group).

こうしたメタデータを利用して、所望のメディアデータを問い合わせる視聴機器としては、特許文献1に開示されたメディアデータ視聴機器が知られている。このメディアデータ視聴機器は、メディアデータ記憶手段と、メタデータ記憶手段と、メディアデータ管理手段と、メタデータ管理手段と、このメディアデータ管理手段及びメタデータ管理手段への問い合わせを行う問い合わせ手段とを備えており、アプリケーションプログラムから該問合せ手段を介して問い合わせを行うことにより、所望のメディアデータを効率良く検索できるようにしている。また、このメディア視聴機器では、メタデータに対するアクセスに伴って、動的にメタデータを生成したり、視聴履歴情報をメタデータに変換して他のメディアデータ視聴機器との間で該視聴履歴情報を交換したりすることを可能にしている。   A media data viewing device disclosed in Patent Document 1 is known as a viewing device that inquires for desired media data using such metadata. The media data viewing device includes media data storage means, metadata storage means, media data management means, metadata management means, and inquiry means for making an inquiry to the media data management means and metadata management means. And by making an inquiry from the application program via the inquiry means, desired media data can be efficiently searched. Further, in this media viewing device, the metadata is dynamically generated as the metadata is accessed, or the viewing history information is exchanged with other media data viewing devices by converting the viewing history information into metadata. It is possible to exchange.

ところで、メタデータには、(1)メディアデータの製作者によって最初からメディアの中に埋め込まれているメタデータ(例えば、映画のシーンの区切り情報など)の他、例えば、(2)視聴者の視聴履歴がメディアデータ視聴機器において記録され、該履歴に従って後から自動生成されるメタデータ、(3)視聴者自身が自ら作成するメタデータ(映画の感想、好みのシーンについてのコメントを入力するなど)など、様々なものがある。   By the way, the metadata includes (1) metadata (for example, movie scene delimiter information) embedded in the media from the beginning by the creator of the media data. Viewing history is recorded in the media data viewing device, metadata automatically generated later according to the history, (3) metadata created by the viewer himself (such as movie comments, comments about favorite scenes, etc.) ) And so on.

(3)の視聴者自身が自ら作成するメタデータは、他の視聴者から見て情報としての価値の高い場合が多く、これを視聴者間で交換でき、メディアデータの検索や編集などに利用できれば便利である。
特開2001−306581号公報(第5頁右欄、11頁、第1図等)
The metadata created by viewers themselves in (3) is often valuable as information from the perspective of other viewers, and can be exchanged between viewers and used for searching and editing media data. It is convenient if possible.
JP 2001-306581 A (page 5, right column, page 11, FIG. 1, etc.)

本発明は、この点に鑑み、個々の視聴者が作成したメタデータを公開し、これにより多数の視聴者がこれらメタデータを共有することができるメタデータ共有システムを提供することを目的とする。   In view of this point, an object of the present invention is to provide a metadata sharing system in which metadata created by individual viewers is made public so that many viewers can share these metadata. .

本発明に係るメタデータ共有システムは、メディアデータをメタデータと共に視聴可能に構成されたクライアントとしての複数のメディアデータ視聴装置と、該クライアント間のデータの送受信を担当するサーバとを備え、前記メディアデータ視聴装置は、前記メディアデータを蓄積するメディアデータ蓄積手段と、前記メディアデータを視聴するための視聴手段と、前記メタデータを蓄積するメタデータ蓄積手段と、前記メタデータを前記サーバに向けて送信すると共に前記サーバより前記メタデータを受信して前記メタデータ蓄積手段に蓄積させる通信手段と、前記メタデータが示す時間データに基づき前記メディアデータと前記メタデータとの時間的関係を表示する表示手段と、前記サーバに対する前記メタデータの検索要求を入力するための検索要求入力手段とを備え、前記サーバは、前記メディアデータ視聴装置から送信された前記メタデータを蓄積するメタデータ蓄積手段と、前記検索要求に対応するメタデータを前記メタデータ蓄積手段より検索するメタデータ検索手段とを備え、当該メタデータ検索手段は、前記メディアデータ蓄積手段に蓄積されたメディアデータ及び当該メディアデータの蓄積された時間情報を示すメディアデータリストを前記メディアデータ視聴装置から受信し、前記受信されたメディアデータリストとの時間的な重複部分が多いメタデータを優先的に検索するように構成されたことを特徴とする。 The metadata sharing system according to the present invention includes a plurality of media data viewing apparatuses as clients configured to be able to view media data together with metadata, and a server in charge of transmission / reception of data between the clients. A data viewing device includes media data storage means for storing the media data, viewing means for viewing the media data, metadata storage means for storing the metadata, and the metadata directed to the server. A communication means for transmitting and receiving the metadata from the server and storing it in the metadata storage means, and a display for displaying a temporal relationship between the media data and the metadata based on time data indicated by the metadata And a search request for the metadata to the server A retrieval request inputting means for, the server includes a metadata storing means for storing the meta data transmitted from the media data viewing device, the metadata corresponding to the search request from the metadata storage unit Metadata search means for searching, and the metadata search means sends a media data list indicating the media data stored in the media data storage means and time information stored in the media data from the media data viewing device. It is configured to receive and preferentially search for metadata having a lot of temporal overlap with the received media data list.

この発明によれば、個々の視聴者が作成したメタデータを公開し、これにより多数の視聴者がこれらメタデータを共有することができる。   According to the present invention, metadata created by individual viewers can be made public so that many viewers can share these metadata.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔第1の実施の形態〕
図1Aは、本発明の第1の実施の形態に係るメディアデータ視聴装置10の構成を示すブロック図である。
[First Embodiment]
FIG. 1A is a block diagram showing a configuration of a media data viewing apparatus 10 according to the first embodiment of the present invention.

メディアデータ視聴装置10は、通信部11、情報処理部12、メタデータ作成部13、メタデータ蓄積部14、メディアデータ蓄積部15、視聴部16とから大略構成されている。また、このメディアデータ視聴装置10は、図1Bに示すように、ネットワーク51を介して他のメディアデータ視聴装置10−iと接続されている。この例では、メディアデータ視聴装置10−iがクライアント−サーバシステムのクライアントとして機能し、サーバ20と共にメタデータ共有システムを構成する。各メディアデータ視聴装置10−iは、自ら作成したメタデータをサーバ20へ送信することにより他のメディアデータ視聴装置10−iにこれらメタデータを公開することができると共に、逆に他のメディアデータ視聴装置10−iが公開したメタデータをサーバ20から受信することにより、これを利用することができる。   The media data viewing apparatus 10 is roughly composed of a communication unit 11, an information processing unit 12, a metadata creation unit 13, a metadata storage unit 14, a media data storage unit 15, and a viewing unit 16. The media data viewing apparatus 10 is connected to another media data viewing apparatus 10-i via a network 51 as shown in FIG. 1B. In this example, the media data viewing apparatus 10-i functions as a client of a client-server system, and constitutes a metadata sharing system together with the server 20. Each media data viewing apparatus 10-i can make these metadata public to other media data viewing apparatuses 10-i by transmitting metadata created by itself to the server 20, and conversely, other media data By receiving the metadata released by the viewing device 10-i from the server 20, it can be used.

サーバ20は、通信部21、情報処理部22、メタデータ蓄積部23を備えている。   The server 20 includes a communication unit 21, an information processing unit 22, and a metadata storage unit 23.

次に、メディアデータ視聴装置10−i、サーバ20の各構成要素について説明する。   Next, each component of the media data viewing apparatus 10-i and the server 20 will be described.

通信部11、21は、ネットワーク51を介してメディアデータ視聴装置10−iとサーバ20との間でメタデータを送受信する部分である。通信部11から通信部21へ送信されたメタデータは、情報処理部22により、メタデータ蓄積部23に蓄積される。また、各メディアデータ視聴装置10−iからの要求に応じて、メタデータ蓄積部23に蓄積されたメタデータが、情報処理部22により、メディアデータ視聴装置10−iに送信される。   The communication units 11 and 21 are parts that transmit and receive metadata between the media data viewing apparatus 10-i and the server 20 via the network 51. The metadata transmitted from the communication unit 11 to the communication unit 21 is accumulated in the metadata accumulation unit 23 by the information processing unit 22. Further, in response to a request from each media data viewing device 10-i, the metadata stored in the metadata storage unit 23 is transmitted by the information processing unit 22 to the media data viewing device 10-i.

情報処理部12は、メディアデータ視聴装置10の全体のデータ処理を制御する。例えば、情報処理部12は、通信部11を介して外部から取得されたメタデータをメタデータ蓄積部14に転送する機能を有する。また、メディアデータ蓄積部15に蓄積されたメディアデータに周知の画像処理技術を施し、この画像処理結果に基づき、例えばメディアデータのシーンの切れ目に関する情報や、データ画像中の特徴データ等を取得し、これをメタデータとしてメタデータ蓄積部14に蓄積させる機能を有する。また情報処理部12は、図示しないテレビ受像装置と接続することにより、テレビ放送番組を受信し、これをメディアデータとしてメディアデータ蓄積部15に蓄積させる機能を備えている。情報処理部22は、通信部21の制御、及びメタデータ蓄積部23の書込み及び読み込みを制御する。また、情報処理部22は、メタデータの送受信記録をログとして記憶する機能も備えている。   The information processing unit 12 controls overall data processing of the media data viewing apparatus 10. For example, the information processing unit 12 has a function of transferring metadata acquired from the outside via the communication unit 11 to the metadata storage unit 14. The media data stored in the media data storage unit 15 is subjected to a well-known image processing technique, and based on this image processing result, for example, information on scene breaks in the media data, feature data in the data image, etc. are acquired. , It has a function of storing it as metadata in the metadata storage unit 14. In addition, the information processing unit 12 has a function of receiving a television broadcast program by being connected to a television receiver (not shown) and storing it in the media data storage unit 15 as media data. The information processing unit 22 controls the control of the communication unit 21 and the writing and reading of the metadata storage unit 23. The information processing unit 22 also has a function of storing metadata transmission / reception records as a log.

メタデータ作成部13は、メタデータを作成する部分であり、視聴者が、メディアデータに関する感想など、その視聴者独自の視点からそのメディアデータについてのデータを入力するための部分である。その構成の詳細は後述する。   The metadata creation unit 13 is a part for creating metadata, and is a part for the viewer to input data about the media data from a viewpoint unique to the viewer, such as impressions about the media data. Details of the configuration will be described later.

メタデータ蓄積部14は、メタデータを蓄積するための部分であり、メディアデータの製作者によって最初からメディアの中に埋め込まれているメタデータ(例えば、映画のシーンの区切り情報など)や、メタデータ作成部13において視聴者自身が作成したメタデータなどが蓄積される。メタデータ蓄積部14は、リレーショナルデータベースなど、1件のデータを複数の項目(例えば、前述の放送局名、放送日、番組名等)の集合として表現して、そのデータの集合をテーブルで管理したシステムにより構成される。   The metadata accumulating unit 14 is a part for accumulating metadata, such as metadata (for example, movie scene delimiter information) embedded in the medium from the beginning by the creator of the media data, In the data creation unit 13, metadata created by the viewer himself / herself is accumulated. The metadata storage unit 14 expresses one piece of data as a set of a plurality of items (for example, the aforementioned broadcast station name, broadcast date, program name, etc.) such as a relational database, and manages the set of data in a table. Configured by the system.

一方、サーバ20のメタデータ蓄積部23は、各メディアデータ視聴装置10−iで作成されるメタデータのうち、作成者が公開したものが蓄積される。ネットワーク51を介して接続されたメディアデータ視聴装置10−iのうちの1つよりメタデータの検索要求が送信されると、情報処理部22においてこの検索要求が問い合わせ言語に翻訳され、これによりメタデータ蓄積部23の検索が実行される。   On the other hand, the metadata storage unit 23 of the server 20 stores the metadata created by each creator among the metadata created by each media data viewing device 10-i. When a metadata search request is transmitted from one of the media data viewing apparatuses 10-i connected via the network 51, the information processing unit 22 translates the search request into an inquiry language, thereby The data storage unit 23 is searched.

メディアデータ蓄積部15は、テレビ放送番組を録画したり、DVDソフトウエアを入手したりするなどして取得された各種メディアデータを蓄積する部分である。視聴部16は、このメディアデータやメタデータを視聴するための部分である。   The media data storage unit 15 is a part for storing various media data acquired by recording a television broadcast program or obtaining DVD software. The viewing unit 16 is a part for viewing the media data and metadata.

図2及び図3は、メタデータ蓄積部14に蓄積される、MPEG−7に基づくメタデータの一例を示している。図2、図3に示すように、MPEG−7では、XML(Extensible Markup Language)に基づくタグとその値を用いてメタデータを表現している。   2 and 3 show an example of metadata based on MPEG-7 stored in the metadata storage unit 14. As shown in FIGS. 2 and 3, in MPEG-7, metadata is expressed using tags and values based on XML (Extensible Markup Language).

図2において、「<video>」から「</video>」までの部分は、映像を指定する部分である。すなわち、「<id=1>」は映像IDが1であることを示している。また、「<uri station=○○放送局>」は、放送局の名前を示している。また、「<uri data=20011015>」は、メディアデータの日付(2001年10月15日)を示しており、「<uri time=153000>」、15時30分00秒から開始するメディアデータであることを示している。また、「<uri duration=1000>」は、そのメディアデータの総時間が1000秒であることを示している。   In FIG. 2, a portion from “<video>” to “</ video>” is a portion that designates an image. That is, “<id = 1>” indicates that the video ID is 1. Further, “<uri station = XX broadcast station>” indicates the name of the broadcast station. “<Uri data = 200101015>” indicates the date of the media data (October 15, 2001), and “<uri time = 153000>” is media data starting from 15: 30.00. It shows that there is. “<Uri duration = 1000>” indicates that the total time of the media data is 1000 seconds.

また、「<audio>」から「</audio>」までの部分は、音声を指定する部分である。すなわち、「<id=1>」は音声IDが1であることを示している。また、「<uri station=○○放送局>」は、放送局の名前を示している。また、「<uri data=20011015>」は、メディアデータの日付(2001年10月15日)を示しており、「<uri time=153000>」、15時30分00秒から開始するメディアデータであることを示している。また、「<uri duration=1000>」は、そのメディアデータの総時間が1000秒であることを示している。   A portion from “<audio>” to “</ audio>” is a portion for designating a voice. That is, “<id = 1>” indicates that the voice ID is 1. Further, “<uri station = XX broadcast station>” indicates the name of the broadcast station. “<Uri data = 200101015>” indicates the date of the media data (October 15, 2001), and “<uri time = 153000>” is media data starting from 15: 30.00. It shows that there is. “<Uri duration = 1000>” indicates that the total time of the media data is 1000 seconds.

また、「<text>」から「</text>」までの部分は、表示文字を指定する部分である。例えば、図2に示す「<message>」○○のコーナーです「</message>」「<videoid>」1「</videoid>」「<time=5>」「<duration>=20」は、映像IDが1である映像データにおいて、「○○のコーナーです」という文字を、先頭から5秒後の位置から20秒間表示することを示している。   A portion from “<text>” to “</ text>” is a portion for specifying a display character. For example, “</ message>” in FIG. 2 is a corner of “</ message>” “<videoid>” 1 “</ videoid>” “<time = 5>” “<duration> = 20” In the video data whose video ID is 1, it is indicated that the characters “XX corner” are displayed for 20 seconds from the position 5 seconds after the head.

図3は、映像を指定する「<video>」〜「</video>」の部分、音声を指定する「<audio>」〜「</audio>」の部分、表示文字を指定する「<text>」〜「</text>」の部分が、それぞれ複数個設けられた例を示している。   FIG. 3 shows a portion “<video>” to “</ video>” that designates video, a portion “<audio>” to “</ audio>” that designates audio, and a character “<text” that designates display characters. > ”To“ </ text> ”shows an example in which a plurality of portions are provided.

以上の他、例えば、番組タイトル、メタデータ作成者の認証ID等をメタデータとして入力してもよい。なお、上述の映像ID、音声ID等は、メタデータ同士を区別するためにメタデータ作成時に付与されるものであり、メディアデータに固有のものではない。   In addition to the above, for example, a program title, an authentication ID of a metadata creator, and the like may be input as metadata. Note that the above-described video ID, audio ID, and the like are given at the time of creating the metadata in order to distinguish the metadata, and are not unique to the media data.

図2及び図3は、メディアデータの製作者によって最初からメディアの中に埋め込まれているメタデータを示したものである。メタデータ作成部13で作成されるメタデータも、情報処理部12において、図2と同様タグとその値という形のXML表現に変換されてメタデータ蓄積部14に蓄積される。なお、図2に示すようなXMLに基づくテキスト・フォーマットに加えて、バイナリ・フォーマット(Binary format for MPEG−7 data: BiM)による表現をすることも可能である。   2 and 3 show metadata embedded in the medium from the beginning by the creator of the media data. The metadata created by the metadata creating unit 13 is also converted into an XML expression in the form of a tag and its value in the information processing unit 12 and stored in the metadata storage unit 14 as in FIG. In addition to the text format based on XML as shown in FIG. 2, it is also possible to express in binary format (Binary format for MPEG-7 data: BiM).

メタデータ作成部13は、図4に示すように、メディアデータ表示部31、アノテーション入力・表示部32、制御部33、メタデータ名表示部34、時間データ表示部35、タイムライン36とを備えている。   As shown in FIG. 4, the metadata creation unit 13 includes a media data display unit 31, an annotation input / display unit 32, a control unit 33, a metadata name display unit 34, a time data display unit 35, and a timeline 36. ing.

メディアデータ表示部31は、視聴部16と同様に、メディアデータ蓄積部15に蓄積されたメディアデータの再生を行う部分である。   The media data display unit 31 is a part that reproduces the media data stored in the media data storage unit 15, similarly to the viewing unit 16.

アノテーション入力・表示部32は、メディアデータ表示部31に表示されるメディアデータに付加しようとするアノテーション(注釈)を入力し表示するためのものである。図示しないキーボードその他の文字入力装置により入力されると、その入力された文字がアノテーション表示部32Aに表示される。最終的に入力を確定する場合には、「追加」ボタン32Bを押す。これにより、入力された文字列がアノテーションとしてそのときの時間情報等と共にメタデータとしてメタデータ蓄積部14に蓄積される。こうしてメタデータ蓄積部14に蓄積されたメタデータをネットワーク51を通じて公開したい場合には、図4に示す「公開する」チェックボックスPbをチェックする。チェックがされると、そのメタデータはネットワーク51を通じてサーバ20に転送され、メタデータ蓄積部23に蓄積される。   The annotation input / display unit 32 is for inputting and displaying an annotation (annotation) to be added to the media data displayed on the media data display unit 31. When input by a keyboard or other character input device (not shown), the input character is displayed on the annotation display unit 32A. When the input is finally confirmed, the “add” button 32B is pressed. As a result, the input character string is stored in the metadata storage unit 14 as metadata together with time information at that time as annotation. When it is desired to publish the metadata accumulated in the metadata accumulation unit 14 through the network 51, the “publish” check box Pb shown in FIG. 4 is checked. When checked, the metadata is transferred to the server 20 through the network 51 and stored in the metadata storage unit 23.

制御部33は、メディアデータ表示部31に表示されるメディアデータの再生・早送り・巻戻し等を制御する部分であり、全巻戻しボタン331、巻戻しボタン332、停止ボタン333、再生ボタン334、一時停止ボタン335、早送りボタン336、全送りボタン337を備えている。再生ボタン334を押すと、メディアデータ表示部31でメディアデータの再生が開始される。早送りボタン336、巻戻しボタン332を押すと、メディアデータ表示部31で再生されているメディアデータが早送り又は巻き戻しされる。再生を停止したい場合には停止ボタン333を、一時停止して静止画像を表示させたい場合には一時停止ボタン335を押せばよい。また、メディアデータを先頭又は終わりまで戻したい場合には、それぞれ全巻戻しボタン331、全送りボタン337を押せばよい。   The control unit 33 controls playback, fast forward, rewind, and the like of media data displayed on the media data display unit 31, and includes a full rewind button 331, a rewind button 332, a stop button 333, a play button 334, A stop button 335, a fast-forward button 336, and a full-feed button 337 are provided. When the play button 334 is pressed, the media data display unit 31 starts playing the media data. When the fast forward button 336 and the rewind button 332 are pressed, the media data reproduced on the media data display unit 31 is fast forwarded or rewinded. If it is desired to stop the reproduction, the stop button 333 may be pressed, and if it is desired to pause and display a still image, the pause button 335 may be pressed. Further, when it is desired to return the media data to the beginning or the end, the full rewind button 331 and the full feed button 337 may be pressed, respectively.

図5は、メタデータの検索要求をサーバ20に向けて送信する場合の表示画面を示す。図5では、メディアデータ蓄積部15に蓄積されているメディアデータの一覧を、メディアデータのサムネイル、放送開始時刻、放送総時間、放送局名等により表示する形式をとり、これらのメディアデータのメタデータの検索を要求する場合を示している。図5では、野球中継のメディアデータMD1、テニス中継のメディアデータMD2、フットボール中継のメディアデータMD3が表示されている。視聴者は、これらのデータの中から所望のメディアデータの表示を選択(例えばマウスでダブルクリックする等)してそのメディアデータの視聴をすることができると共に、右側の「メタデータ検索」ボタンSB1,SB2又はSB3を押すことにより、そのメディアデータに関するメタデータの検索要求を、サーバ20に向けて送信させることができる。この図5の例では、「メタデータ検索」ボタンSB1,SB2又はSB3を押すことにより、図5に示すような放送開始時刻、放送総時間、放送局名等を検索条件とした検索要求が生成され、サーバ20に入力される。サーバ20は、検索要求を受け取り、この検索要求と最も時間が重なるメタデータを優先して検索する。このボタンSB1,SB2又はSB3を押すことに加え、検索文字列を入力するようにしてもよい。   FIG. 5 shows a display screen when a metadata search request is transmitted to the server 20. In FIG. 5, a list of media data stored in the media data storage unit 15 is displayed by a thumbnail of media data, a broadcast start time, a total broadcast time, a broadcast station name, and the like. This shows a case where data retrieval is requested. In FIG. 5, baseball relay media data MD1, tennis relay media data MD2, and football relay media data MD3 are displayed. The viewer can select the display of the desired media data from these data (for example, double-click with the mouse) to view the media data, and at the same time the “metadata search” button SB1 on the right side. , SB2 or SB3, a metadata search request regarding the media data can be transmitted to the server 20. In the example of FIG. 5, by pressing the “metadata search” button SB1, SB2 or SB3, a search request using the broadcast start time, the total broadcast time, the name of the broadcasting station, etc. as shown in FIG. 5 is generated. And input to the server 20. The server 20 receives the search request, and searches for the metadata having the time that overlaps the search request with priority. In addition to pressing the buttons SB1, SB2 or SB3, a search character string may be input.

他の検索方法として、検索文字列の入力のみで検索要求を行うことも可能である。サーバ20は、検索文字列を検索要求として受け取ると、メタデータのタイトルやコメントなどに書かれている文字列と、この検索要求に係る検索文字列との相関を計算し、相関の高いメタデータを検索する。例えば、メディアデータ視聴装置10−iより、「野球中継の解説」という検索文字列を検索要求としてサーバ20へ送信すると、サーバ20は、メタデータ蓄積部23より、「野球中継のそれぞれのプレーに解説をつけました。」とのタイトルを有するメタデータを検索することができる。なお、文字列の相関の計算方法は言語処理技術による。例えばそれぞれの文字列から形態素解析をし、自立語を抽出し、その単語列を単語ベクトルで表現し、その内積を計算する方法が使用できる。   As another search method, it is possible to make a search request only by inputting a search character string. When the server 20 receives the search character string as a search request, the server 20 calculates the correlation between the character string written in the title or comment of the metadata and the search character string related to the search request, and the highly correlated metadata. Search for. For example, when the media data viewing device 10-i transmits a search character string “commentary of baseball relay” to the server 20 as a search request, the server 20 receives “respective baseball relay play” from the metadata storage unit 23. You can search for metadata with the title "I added a comment." The method for calculating the correlation between character strings is based on language processing technology. For example, a morphological analysis is performed from each character string, an independent word is extracted, the word string is represented by a word vector, and the inner product is calculated.

また、検索要求の中に、検索要求元のメディアデータ視聴装置10−iがどんなメディアデータを持っているのかを示す時間情報のリスト(メディアデータリスト)を含ませておき、サーバ20において、このメディアデータリストとの時間的な重複部分が多いメタデータを優先的に検索させるようにすることもできる。これにより、検索要求元のメディアデータ視聴装置10−iがメディアデータを持っていないメタデータについては、検索対象から除外されるので、検索の効率が向上する。   The search request includes a time information list (media data list) indicating what kind of media data the search request source media data viewing apparatus 10-i has, and the server 20 executes this list. It is also possible to preferentially search for metadata that has a lot of temporal overlap with the media data list. As a result, metadata for which the media data viewing device 10-i that is the search request source does not have media data is excluded from the search target, thereby improving the search efficiency.

また、上記のように「野球中継の解説」などの文字列だけで検索した検索結果を検索要求元のメディアデータ視聴装置10−iで受信してから、その検索結果を表示するときにおいて、検索要求元のメディアデータ視聴装置10−i側において、所有しているメディアデータとの時間的な重複が多いものを優先的に表示するように並べ替えても良い。   In addition, when the search result is received by the media data viewing apparatus 10-i that is the search request source and the search result is displayed after the search result searched only with the character string such as “explanation of baseball broadcast” as described above, the search result is displayed. The media data viewing apparatus 10-i that is the request source may rearrange the data so that data that has a lot of temporal overlap with the owned media data is displayed preferentially.

図6は、「メタデータ検索」ボタンSB1,SB2又はSB3を押して、その検索結果が得られた場合における検索結果表示画面を示している。図6では、図5において、「メタデータ検索」ボタンSB1が押され、野球のデータMD1についてのメタデータが検索された場合における表示画面が示されている。図6において、71はメディアデータMD1の内容を、サムネイルや、放送開始時刻、放送総時間、放送局名等により表示するメディアデータ表示部である。   FIG. 6 shows a search result display screen when the “metadata search” button SB1, SB2 or SB3 is pressed and the search result is obtained. FIG. 6 shows a display screen when the “metadata search” button SB1 is pressed in FIG. 5 and metadata about the baseball data MD1 is searched. In FIG. 6, reference numeral 71 denotes a media data display unit that displays the contents of the media data MD1 by thumbnails, broadcast start time, total broadcast time, broadcast station name, and the like.

72はメディアデータ用タイムラインであり、メタデータとの時間の重なりを表示するためのものである。   Reference numeral 72 denotes a media data timeline for displaying a time overlap with metadata.

73は、検索結果としてのメタデータの内容を簡潔に示すメタデータ名表示部である。例えば、検索結果としてのメタデータの内容が、ある日の野球中継中の各々のプレーについての解説である場合には、メタデータ名表示部73には、図6に示すように「野球中継のそれぞれプレーに解説を付けました。」のような表示がなされる。   Reference numeral 73 denotes a metadata name display section that briefly shows the content of metadata as a search result. For example, if the content of the metadata as a search result is a commentary about each play during a baseball broadcast on a certain day, the metadata name display unit 73 displays “baseball relay relay” as shown in FIG. Each play is commented. ”Is displayed.

74はメタデータ用タイムラインであり、検索結果としてのメタデータに対応するメディアデータがメディアデータ蓄積部15中にどの程度蓄積されているかを表示する。図6のメタデータ用タイムラインでは、対応するメディアデータが存在する部分については白帯で、存在しない部分については黒帯で表示している。換言すれば、メディアデータが存在してメディアデータと共にそのメタデータを視聴することができる部分については白帯で表示され、それ以外の部分は黒帯で表示される。   Reference numeral 74 denotes a metadata timeline, which displays how much media data corresponding to metadata as a search result is stored in the media data storage unit 15. In the metadata timeline of FIG. 6, a portion where the corresponding media data exists is displayed with a white band, and a portion where the corresponding media data does not exist is displayed with a black band. In other words, a portion where the media data exists and the metadata can be viewed together with the media data is displayed with a white belt, and the other portions are displayed with a black belt.

視聴者がメタデータ用タイムライン74にマウスのポインタを重ねると、そのメタデータの時間データに応じて、メディアデータ用タイムライン72の表示が変化する。マウスのポインタを重ねたメタデータ用タイムライン74に係るメタデータとの関係で、時間が重複する部分については白帯で表示され、それ以外の部分は黒帯で表示される。言い換えるとメタデータを再生することになっている部分のみが白帯で表示され、それ以外の部分は黒帯で表示される。   When the viewer moves the mouse pointer over the metadata timeline 74, the display of the media data timeline 72 changes according to the metadata time data. Due to the relationship with the metadata related to the metadata timeline 74 on which the mouse pointer is overlaid, portions where the times overlap are displayed as white bands, and other portions are displayed as black bands. In other words, only the part for which the metadata is to be reproduced is displayed with a white band, and the other part is displayed with a black band.

また、この図6では、検索されたメタデータと、メディアデータとを時間的に比較し、両者が時間的にどの程度適合したものか(以下、適合度と称する)を判定し、適合度の高いメタデータから順に、ある閾値以上のものを優先的に表示している。   In FIG. 6, the retrieved metadata and the media data are compared with each other in time to determine how much the two match in time (hereinafter referred to as “fitness”). In order from the highest metadata, those above a certain threshold are preferentially displayed.

適合度は、メディアデータの総時間を基準として、メタデータの総時間がどれだけ重複しているかにより表現され、具体的にはメタデータとメディアデータの時間データとにより算出する。例えば、メディアデータの時間データが「2001年10月15日、時刻20:00、時間1時間30分、放送局〇〇テレビ」となっていて、メタデータの時間データが「2001年10月15日、時刻20:10、時間45分、放送局〇〇テレビ」と成っている場合、両者では45分間が重複しており、残りの45分は重複していないので、適合度は45/90=0.5となる。適合度が高い場合には、メディアデータ用タイムライン72において白帯部分が長くなり、黒帯部分が短くなる。   The goodness of fit is expressed by how much the total time of the metadata overlaps with the total time of the media data as a reference, and is specifically calculated by the metadata and the time data of the media data. For example, the time data of the media data is “October 15, 2001, time 20:00, time 1 hour 30 minutes, broadcasting station 00 television”, and the metadata time data is “October 15, 2001”. Date, time 20:10, time 45 minutes, broadcast station 00 TV ”, the 45 minutes overlap in both, and the remaining 45 minutes do not overlap, so the fitness is 45/90 = 0.5. When the degree of matching is high, the white belt portion becomes longer and the black belt portion becomes shorter in the media data timeline 72.

視聴者は、図6に示す検索結果画面を見て、閲覧したいメタデータを、メタデータ表示部73をマウスでクリックするなどして選択する。これにより、そのメタデータが、メディアデータ蓄積部15に蓄積されている対応したメディアデータと共に再生される。このとき、メディアデータとメタデータを時間的にマッチング(結合)させて再生を行う必要がある。   The viewer looks at the search result screen shown in FIG. 6 and selects the metadata he / she wants to browse by clicking the metadata display section 73 with the mouse. As a result, the metadata is reproduced together with the corresponding media data stored in the media data storage unit 15. At this time, it is necessary to perform reproduction by matching (combining) the media data and metadata temporally.

メディアデータとメタデータとのマッチングは、両者が持っている時間データに基づいて行われる。例えば、メディアデータの時間データが「2001年10月15日、時刻20:00、時間1時間30分、放送局〇〇テレビ」となっており、メタデータの時間データが「2001年10月15日、時刻20:10、時間45分、放送局〇〇テレビ」となっている場合、メディアデータ再生開始後10分後からメタデータの表示が開始されるようにマッチングがなされる。   The matching between the media data and the metadata is performed based on the time data possessed by both. For example, the time data of the media data is “October 15, 2001, time 20:00, time 1 hour 30 minutes, broadcasting station 00 television”, and the metadata time data is “October 15, 2001”. In the case of “day, time 20:10, time 45 minutes, broadcasting station 00 television”, matching is performed so that the display of metadata is started 10 minutes after the start of media data reproduction.

なお、メタデータ中の時間データは、その作成元である各メディアデータ視聴装置10−iの内部時計に基づいて作成されるが、その内部時計がズレている可能性がある。このため、単純にメタデータ中の時間データを基準にメディアデータとメタデータをマッチングさせると、メタデータの表示タイミングが不適切となってしまうことが起こり得る(例えば、「〇〇選手のファインプレーです」、のようなコメントが、全く異なるシーンで表示されてしまう等)。   Note that the time data in the metadata is created based on the internal clock of each media data viewing device 10-i that is the creation source, but the internal clock may be misaligned. For this reason, if the media data and metadata are simply matched based on the time data in the metadata, the display timing of the metadata may become inappropriate (for example, “It is a fine play of OO players. ”, Etc., are displayed in completely different scenes).

このため、本実施の形態では、時間データでマッチングを行うだけでなく、時間データにより大まかなマッチングを行い、最終的なマッチングは、メディアデータ中の画像の特徴量に基づいて行う。   For this reason, in this embodiment, not only matching is performed using time data, but rough matching is performed using time data, and final matching is performed based on the feature amount of the image in the media data.

すなわち、図7に示すように、メタデータとして記録されたコメント(「すごいFine Playです」等)と対応させたいメディアデータ中の画像の特徴量(静止画像自体、エッジ検出により検出した輪郭情報、明度情報、コーナー画像等)を、メタデータ中にも記録しておく。大まかなメタデータとメディアデータのマッチングをメタデータ中の時間データ(例:PM8:10)に基づいて行った後、そのマッチング位置付近において、メタデータ中に記録されている特徴量又はこれに近似するものをメディアデータ中で検索する。検索されたら、その位置をマッチングの対象とする。   That is, as shown in FIG. 7, the feature amount of the image in the media data (the still image itself, contour information detected by edge detection, etc.) to be associated with the comment recorded as metadata (such as “Great Fine Play”), Brightness information, corner images, etc.) are also recorded in the metadata. After roughly matching metadata and media data based on time data in the metadata (eg, PM8: 10), in the vicinity of the matching position, the feature quantity recorded in the metadata or an approximation thereof Search the media data for what to do. When a search is made, the position is set as a matching target.

別のマッチング方法を図8に示す。TV番組などではカメラの切替えなどによりシーンの切替えが頻繁に生じるので、このシーン切替え位置を示すシーン切替えパターンを、メタデータ中に特徴量として記憶させておく。そして、図7と同様、大まかなメタデータとメディアデータのマッチングをメタデータ中の時間データに基づいて行った後、そのマッチング位置付近において、メタデータ中に記録されているシーン切替えパターンを、メディアデータ中で検索する。検索されたら、その位置をマッチングの対象とする。   Another matching method is shown in FIG. In a TV program or the like, scene switching frequently occurs due to camera switching or the like, so a scene switching pattern indicating the scene switching position is stored as a feature amount in the metadata. Then, as in FIG. 7, after roughly matching metadata and media data based on the time data in the metadata, the scene switching pattern recorded in the metadata is displayed in the vicinity of the matching position. Search in the data. When a search is made, the position is set as a matching target.

図9に、マッチングが完了し、メディアデータと取得されたメタデータとが同時に表示されている場合の画面の状態の一例を示す。   FIG. 9 shows an example of the state of the screen when matching is completed and the media data and the acquired metadata are displayed at the same time.

メディアデータ表示部231にはメディアデータが、その右側のメタデータ内容表示部80には、取得されマッチングされたメタデータが表示される。   The media data is displayed on the media data display unit 231, and the acquired and matched metadata is displayed on the metadata content display unit 80 on the right side thereof.

また、メタデータ名表示部273には、そのメタデータの内容(タイトル)が簡潔に示され、また、時間データ表示部235には、メディアデータに付属の時間データが表示される。   The metadata name display section 273 briefly shows the content (title) of the metadata, and the time data display section 235 displays time data attached to the media data.

ただし、メディアデータ表示部231に表示されるのは、マッチング対象とされたメディアデータ全体のうち、取得されたメタデータに対応する部分だけであり、メタデータに対応しない部分はカットされる。   However, what is displayed on the media data display unit 231 is only a portion corresponding to the acquired metadata in the entire media data to be matched, and a portion not corresponding to the metadata is cut.

例えば、メタデータがある選手の活躍する場面に係るものである場合、その場面に関する部分だけが対応するメディアデータからピックアップされ、その他の部分はカットされ、ピックアップされた部分だけがメディアデータ表示部231に表示される。タイムライン200は、この対応関係を示しており、白帯部分にのみメタデータが存在し、黒帯部分にはメタデータが存在しないことを示している。従って、メディアデータ表示部231においては、この白帯部分に関するメディアデータだけが再生され、黒帯部分の再生はスキップされる。なお、タイムライン200では、現在のメディアデータの再生位置を示すバー206が示されている。   For example, when metadata relates to a scene where a player is active, only the part related to the scene is picked up from the corresponding media data, the other part is cut, and only the picked up part is the media data display unit 231. Is displayed. The timeline 200 indicates this correspondence relationship, and shows that metadata exists only in the white belt portion and no metadata exists in the black belt portion. Accordingly, in the media data display unit 231, only the media data relating to the white belt portion is reproduced, and the reproduction of the black belt portion is skipped. In the timeline 200, a bar 206 indicating the playback position of the current media data is shown.

また、メタデータ中に、所定のメディアデータへのリンク情報を含めるようにすることにより、情報としての価値をより高めることができる。   Further, by including link information to predetermined media data in the metadata, the value as information can be further increased.

例えば、図9のメタデータ内容表示部80に示すように、「すごいFine Playです」とのコメントと共に、「この選手は今日他にこんなプレーもしています。」のようなコメントを表示させる。このコメントには、いわゆるハイパーリンクが付加されており、このコメントをクリックすることにより、他の場面にジャンプさせることができる。
なお、リンク先に対応するメディアデータを視聴者が所有していない場合には、このリンク表示を禁止するか、或いはリンク処理を中止するようにすることができる。
For example, as shown in the metadata content display unit 80 of FIG. 9, a comment such as “This player is also playing today” is displayed together with a comment “This is a great Fine Play”. A so-called hyperlink is added to this comment, and it is possible to jump to another scene by clicking this comment.
If the viewer does not own the media data corresponding to the link destination, the link display can be prohibited or the link processing can be stopped.

図10はメタデータ検索結果一覧画面の別の一例を示す。   FIG. 10 shows another example of the metadata search result list screen.

図6の表示画面との相違点は3つある。1つめの相違点は、検索結果を「スポーツ」「バラエティ」等のジャンル別に分けて表示したこと(図10の符号601参照)を設けた点である。   There are three differences from the display screen of FIG. The first difference is that search results are displayed separately for each genre such as “sports” and “variety” (see reference numeral 601 in FIG. 10).

2つめの相違点は、メタデータ作成者(各メディアデータ視聴装置10−iの所有者)の中で、面白い内容のメタデータを作成しており人気の高い又は注目度の高い者(達人)のメタデータのみを表示させるためのチェックボックス602(「達人のメタデータのみ表示」)を設け、このチェックボックス602がチェックされた場合には、達人が作成したメタデータのみを検索結果として表示させるようにした点である。誰が「達人」であるかを示すデータは、サーバ20(図1(b))の情報処理部22により付与される。情報処理部22は、メタデータ蓄積部23からメタデータが読み出されメディアデータ視聴装置10−iの間で送受信されるごとに、そのメタデータに付されている作成者の認証データにより作成者を特定し、その特定された作成者の達人度データをインクリメントする。達人度データが所定の値以上となった場合、情報処理部22は、その作成者のデータに「達人」の称号を示すフラグを付す。これにより、チェックボックス602にチェックが付された検索要求がされた場合には、この「達人」の称号を示すフラグの付されたデータだけが読み出され、検索要求元のメディアデータ視聴装置10−iにその検索結果が送信される。読み出し回数を時間で割った注目度に基づいて達人を決定してもよい。なお、「達人」のデータは、ドラマ、ニュース、スポーツなどのジャンルごとに分類し、異なるフラグを付与するようにしてもよい。   The second difference is that among metadata creators (owners of each media data viewing apparatus 10-i), those who create metadata with interesting contents and are popular or have high attention (guru) A check box 602 (“Display only master metadata”) is provided to display only the metadata of the master, and when the check box 602 is checked, only the metadata created by the master is displayed as a search result. This is the point. Data indicating who is the “master” is given by the information processing unit 22 of the server 20 (FIG. 1B). Each time the metadata is read from the metadata storage unit 23 and transmitted / received between the media data viewing devices 10-i, the information processing unit 22 uses the creator's authentication data attached to the metadata to create the And the master data of the specified creator is incremented. When the master degree data exceeds a predetermined value, the information processing unit 22 adds a flag indicating the title of “master” to the creator data. As a result, when a search request with a check in the check box 602 is made, only the data with the flag indicating the title of “master” is read out, and the media data viewing apparatus 10 that is the search request source. The search result is transmitted to -i. You may determine a master based on the attention degree which divided the frequency | count of reading by time. The “master” data may be classified for each genre such as drama, news, and sports, and a different flag may be given.

3つめの相違点は、取得されたメタデータが、検索対象としたメディアデータだけでなく、他の複数のメディアデータについてのメタデータを結合したものである場合、そのメディアデータとメタデータとの対応関係を、タイムライン72とタイムライン74との両方で表示するようにした点である。   The third difference is that when the acquired metadata is not only the media data to be searched but also the metadata for a plurality of other media data, the media data and the metadata The correspondence relationship is displayed on both the timeline 72 and the timeline 74.

例えば、取得されたメタデータの中に、〇〇選手が活躍する場面を、多くの試合(年間の140試合等)の中からピックアップして編集したメディアデータについてのメタデータがあったとする(図10の「2・〇〇選手が活躍する所だけを厳選しました。」とのタイトルのメタデータ)。この場合、検索の対象としたメディアデータ(表示部71に表示されているもの)との共通部分は、メディアデータ全体の一部分だけとなる。   For example, in the acquired metadata, there is metadata about media data that is edited by picking up scenes where OO players are active from many games (140 games a year, etc.). 10 “Metadata of the title“ Only 2.00 players have been selected carefully. ”). In this case, the common part with the media data to be searched (displayed on the display unit 71) is only a part of the entire media data.

これを示すため、タイムライン74では、検索者としての視聴者がメディアデータ蓄積部15に持っているメディアデータと対応する部分だけを白帯で表示し、持っていない部分については黒帯で表示する。また、白帯部分にマウスのポインタを合わせると、その部分についての時間データ(例:2001年10月15日20:10、時間00時間50分、放送局、〇〇テレビ)が表示されるとともに、タイムライン72には、この白帯部分に係る部分が白帯表示され、それ以外の部分は灰色表示される。これにより、取得されたメタデータと、見ようとしているメディアデータとの関係が理解可能となる。   In order to show this, in the timeline 74, only a portion corresponding to the media data held by the viewer as a searcher in the media data storage unit 15 is displayed with a white belt, and a portion not possessed is displayed with a black belt. To do. In addition, when the mouse pointer is placed on the white belt part, time data (for example, October 15, 2001, 20:10, hour 00 hour 50 minutes, broadcast station, 00 television) is displayed. In the timeline 72, a portion related to the white belt portion is displayed as a white belt, and the other portions are displayed in gray. This makes it possible to understand the relationship between the acquired metadata and the media data to be viewed.

〔第2の実施の形態〕
次に、この発明の第2の実施の形態を、図11を用いて説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG.

図11の例は、1つのメディアデータごと(又は1つのシーンごと)に掲示板を複数設け、この掲示板データを検索・取得してメディアデータと結合させて視聴することができるようにしたものである。   In the example of FIG. 11, a plurality of bulletin boards are provided for each piece of media data (or for each scene), and the bulletin board data can be searched and acquired and combined with the media data for viewing. .

掲示板の書込み内容(メッセージ)は、サーバ20に設けられた掲示板データ蓄積部24に記憶される。各掲示板へのメッセージデータは、書込み順でなく、メディアデータの時間的な流れに沿って並べられている。例えば、〇月×日のGチーム対Tチームの野球中継のメディアデータがメディアデータ蓄積部15に蓄積されている場合には、その掲示板データを検索し、検索された場合にはそのメッセージが、野球の試合の進行順に合わせて視聴部16に表示されていく。   The written content (message) of the bulletin board is stored in the bulletin board data storage unit 24 provided in the server 20. The message data to each bulletin board is arranged along the temporal flow of the media data, not the order of writing. For example, when the media data of the baseball broadcast of the G team versus the T team of O month × day is stored in the media data storage unit 15, the bulletin board data is searched. It is displayed on the viewing part 16 according to the progress of the baseball game.

図12に、このマッチングされたメディアデータとメタデータとしての掲示板データの視聴画面の一例を示す。メタデータ内容表示部402に掲示板のメッセージが、メディアデータの時間の流れに沿って順々に表示されていく。   FIG. 12 shows an example of a screen for viewing the matched media data and bulletin board data as metadata. Messages on the bulletin board are sequentially displayed on the metadata content display unit 402 along the time flow of the media data.

また、図12に示すように、視聴者は、このメッセージを見ながら逆に掲示板に書き込みを実行することもできる。メッセージ入力部81の書込み欄81Aに書込み内容を入力し、送信ボタン81Bを押すと、その書込みデータが送信ボタン81Bが押された時に閲覧していたメディアデータの時間データと対応付けされるとともに、複数の掲示板(例:各シーンごとの掲示板)のうち、その時間データに対応する掲示板にそのメッセージ情報が書き込まれる。このように、メディアデータのシーンごとに掲示板を用意しておくとともに、前述の時間データに基づいて対応する掲示板が自動的に選択される。もちろん、視聴者自身が書き込むべき掲示板を選択するように構成することも可能である。   Also, as shown in FIG. 12, the viewer can write on the bulletin board while viewing this message. When writing content is input to the writing field 81A of the message input unit 81 and the transmission button 81B is pressed, the writing data is associated with the time data of the media data being browsed when the transmission button 81B is pressed, The message information is written in a bulletin board corresponding to the time data among a plurality of bulletin boards (for example, bulletin boards for each scene). In this way, a bulletin board is prepared for each scene of media data, and a corresponding bulletin board is automatically selected based on the above-described time data. Of course, it is also possible to configure the viewer to select a bulletin board to be written.

図13は、掲示板の内容の別の表示形態を示している。この例では、メッセージM1、M2、M3…を、その時間データ及びサムネイルSN1、SN2…と共に表示している。この表示順は、書込み順でもよいし、メディアデータの時間的流れに沿った順でもよい。表示されたメッセージM1、M2、M3…をクリックすると、その視聴者がそのメッセージに係るメディアデータを持っている場合には、メディアデータ蓄積部15よりそのメディアデータが読み出され、再生が行われる。この再生の際、図12と同様に、掲示板のメッセージをメディアデータの時間的流れに沿って順々に表示させてもよい。また、掲示板データに含まれるFAQ集を、メディアデータ表示部31に表示し、適宜参照できるようにしてもよい。   FIG. 13 shows another display form of the contents of the bulletin board. In this example, messages M1, M2, M3... Are displayed together with their time data and thumbnails SN1, SN2,. This display order may be a writing order or an order along the temporal flow of media data. When the displayed message M1, M2, M3... Is clicked, if the viewer has media data related to the message, the media data is read from the media data storage unit 15 and played back. . At the time of this reproduction, as in FIG. 12, the messages on the bulletin board may be displayed in order along the temporal flow of the media data. The FAQ collection included in the bulletin board data may be displayed on the media data display unit 31 so that it can be referred to as appropriate.

また、掲示板の内容を検索可能にすることもできる。例えば、視聴者がメディアデータを見ていて、メディアデータ中で使用されている用語の意味が判らない場合に、その用語をキーワードとして検索要求を送信し、掲示板内のメッセージを検索することができる。このとき、検索要求と共に、その意味の判らない用語が登場した時間データとともに検索要求を送信するようにし、その時間の例えば±5分の範囲に検索範囲を絞り込むようにしてもよい。   In addition, the contents of the bulletin board can be made searchable. For example, when a viewer is watching media data and does not know the meaning of a term used in the media data, a search request can be transmitted using the term as a keyword to search for a message in the bulletin board. . At this time, the search request may be transmitted together with the search request together with time data in which a term whose meaning is unknown appears, and the search range may be narrowed down to a range of, for example, ± 5 minutes.

また、掲示板のメッセージに含まれる未来の番組放映情報を基にして、情報処理部12にその番組の録画予約をさせることもできる。例えば、図13に示すように、メッセージM3に含まれている「17日からの〇〇戦も楽しみです」とのコメントと、その「17日からの〇〇戦」の放映時間データ(例:10月17日、19:00、2時間、〇〇テレビ)をリンクさせておき、このコメントをクリックすると、その放映時間データが自動的にサーバ20からダウンロードされるようにしておく。情報処理部12は、この放映時間データに基づき、番組の録画予約を設定する。   Further, based on future program broadcast information included in the message on the bulletin board, the information processing unit 12 can make a recording reservation for the program. For example, as shown in FIG. 13, the comment “I am looking forward to the 00 battle from the 17th” included in the message M3 and the broadcast time data of the “00 battle from the 17th” (example: (October 17, 19:00, 2 hours, 00 television) is linked, and when this comment is clicked, the broadcast time data is automatically downloaded from the server 20. The information processing unit 12 sets a program recording reservation based on the broadcast time data.

〔第3の実施の形態〕
次に、本発明の第3の実施の形態を、図14に基づいて説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIG.

この実施の形態では、メタデータのうち、未来の時間に放送予定のメディアデータに関するメタデータを検索、表示する。図14に示すように、検索文字列(例:タレント〇〇さん)をキーワード入力欄371に入力するとともに、「放送予定」のチェックボックス372にチェックを付して検索要求を送信する。   In this embodiment, metadata related to media data scheduled to be broadcast at a future time is searched for and displayed. As shown in FIG. 14, a search character string (eg, talent OO) is entered into the keyword input field 371 and a check request is sent to the “Broadcast schedule” check box 372 to transmit a search request.

これにより、検索文字列に関係するメタデータのうち、検索要求を送信した時刻よりも未来の時刻に関するメタデータが優先的に検索される。   As a result, among the metadata related to the search character string, metadata related to a future time is preferentially searched over the time when the search request is transmitted.

検索結果としてのメタデータの内容は、メタデータ名表示部373に簡潔に示される。また、タイムライン374には、検索結果としてのメタデータに対応するメディアデータが、(1)未来の時刻に放送予定なのか、(2)既に放送済みだが、メディアデータ蓄積部15に蓄積済みであるのか、又は(3)既に放送済みで、メディアデータ蓄積部15には蓄積されていないのか、のいずれであるのかが、それぞれ灰色帯、白帯、黒帯で表示される。   The content of the metadata as the search result is briefly shown in the metadata name display unit 373. Also, in the timeline 374, the media data corresponding to the metadata as the search result is (1) scheduled to be broadcast at a future time, or (2) already broadcasted, but already stored in the media data storage unit 15. Whether there is (3) already broadcast and not stored in the media data storage unit 15 is displayed in a gray band, a white band, and a black band, respectively.

視聴者は、その番組の録画予約をしたい場合には、メタデータ名表示部373をクリックしてメタデータを選択したあと、「録画予約」アイコン377をクリックする。情報処理部12は、これに対応して録画予約の設定を行う。これにより、灰色帯で表示された部分についての番組の録画予約を、1度の操作で行うことができる。例えば、「タレント〇〇さん主演のドラマ××の放送予定です」とのメタデータをメタデータ名表示部373をクリックして選択することにより、例えばドラマ11回分の録画予約を1度の操作で完了することができる。メタデータに各回の放送時間のデータが含まれていることにより、例えば、初回と最終回のみ30分延長していたり、深夜枠のため放送時間がまちまちであったりする場合などにおいても、まとめて録画予約をすることができる。   If the viewer wants to make a recording reservation for the program, he clicks the metadata name display portion 373 to select metadata, and then clicks a “recording reservation” icon 377. In response to this, the information processing unit 12 sets recording reservation. Thereby, the recording reservation of the program about the part displayed by the gray belt can be performed by one operation. For example, by clicking the metadata name display part 373 and selecting the metadata “Drama XX starring star Talent OO” will be selected, for example, the recording reservation for 11 dramas can be done by one operation. Can be completed. Because the metadata includes the data of each broadcast time, for example, when the first and final times are extended by 30 minutes, or when the broadcast time varies due to late-night frames, etc. You can make a recording reservation.

〔第4の実施の形態〕
次に、本発明の第4の実施の形態を、図15に基づいて説明する。前記の実施の形態では、サーバ20はメタデータのみをメタデータ蓄積部23から配信するように構成していたが、この実施の形態では、メディアデータもサーバ20に設けられたメディアデータ蓄積部25から配信するようにしている。但し、このメディアデータ蓄積部25に蓄積されているメディアデータは、それ単独では視聴することができないよう、スクランブル信号により視聴ロックが施されている。一方、メタデータ蓄積部23に蓄積されたメタデータには、この視聴ロックを解除するためのデコード情報が組み込まれる。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIG. In the above embodiment, the server 20 is configured to distribute only the metadata from the metadata storage unit 23. However, in this embodiment, the media data storage unit 25 provided in the server 20 also has media data. We are trying to deliver from. However, the media data stored in the media data storage unit 25 is locked by a scramble signal so that it cannot be viewed by itself. On the other hand, the decoding information for releasing the viewing lock is incorporated in the metadata stored in the metadata storage unit 23.

そして、各メディアデータ視聴装置10−iの情報処理部12には、このデコード情報に基づき、メディアデータ蓄積部25からダウンロードしたメディアデータのスクランブル信号を除去(すなわち、ロックを解除)するためのソフトウエアが組み込まれている。これにより メディアデータ視聴装置10−iの視聴者は、このメディアデータとメタデータをセットでダウンロードして、情報処理部12でスクランブル信号を除去することにより、メディアデータを視聴することができる。   Then, the information processing unit 12 of each media data viewing apparatus 10-i has software for removing (that is, releasing the lock) the scramble signal of the media data downloaded from the media data storage unit 25 based on the decode information. Wear is incorporated. As a result, the viewer of the media data viewing apparatus 10-i can view the media data by downloading the media data and metadata as a set and removing the scramble signal by the information processing unit 12.

このような構成とすると、例えばメタデータに最新の広告を含ませておくこと等により、各視聴者に、メディアデータを無償で提供することの代償としてその最新の広告を見てもらうことが可能となる。なお、見せる最新広告としては、画面隅に表示されるテロップのようなものでもよいし、メディアデータの間に挿入されるスポットCMのようなものでもよい。   With this configuration, for example, by including the latest advertisement in the metadata, each viewer can see the latest advertisement as a price for providing media data free of charge. It becomes. The latest advertisement to be displayed may be a telop displayed at the corner of the screen or a spot CM inserted between media data.

以上、発明の実施の形態について説明したが、本発明はこれらに限定されるものではない。例えば、上記ではサーバ20を用意し、各メディアデータ視聴装置10−iで作成されたメタデータはサーバ20に一旦蓄積され、要求に応じて他のメディアデータ視聴装置に送信するようにしていたが、図16に示すようなピアトゥピア(Peer−to−Peer)システムを採用することもできる。すなわち、インデックスサーバ100は単に各メディアデータ視聴装置10−iのネットワークアドレスを管理するに止まり、メタデータその他のデータの送受信は各メディアデータ視聴装置10−i間で直接行われる。また、メタデータを検索したい場合には、検索要求を、1つのメディアデータ視聴装置10−iから、他のメディアデータ視聴装置10−iに向けてブロードキャストする。検索要求に係るメタデータを保持しているメディアデータ視聴装置10−iが、この検索要求に対応し、検索要求に係るメタデータを検索要求元のメディアデータ視聴装置10−iに返信する。これにより、検索要求に係るメタデータを検索することができる。   As mentioned above, although embodiment of invention was described, this invention is not limited to these. For example, in the above, the server 20 is prepared, and the metadata created by each media data viewing apparatus 10-i is temporarily stored in the server 20 and transmitted to other media data viewing apparatuses in response to a request. A peer-to-peer system as shown in FIG. 16 can also be adopted. That is, the index server 100 simply manages the network address of each media data viewing apparatus 10-i, and transmission / reception of metadata and other data is directly performed between the media data viewing apparatuses 10-i. When searching for metadata, a search request is broadcast from one media data viewing apparatus 10-i to another media data viewing apparatus 10-i. In response to the search request, the media data viewing device 10-i holding the metadata related to the search request returns the metadata related to the search request to the media data viewing device 10-i that is the search request source. As a result, the metadata related to the search request can be searched.

或いは、インデックスサーバ100において、どのメタデータをどのメディアデータ視聴装置10−iがもっているかを示すインデックスデータを保持させておくこともできる。この場合、検索要求送信元であるメディアデータ視聴装置10−iは、インデックスサーバ100に向けて検索要求を送信する。インデックスサーバ100は、検索要求に係るメタデータを保持しているメディアデータ視聴装置10−iのアドレス情報を検索要求元のメディアデータ視聴装置10−iに向けて返信する。返信を受けた検索要求元のメディアデータ視聴装置10−iは、そのアドレス情報に基づき、検索要求に係るメタデータを保持しているメディアデータ視聴装置10−iに直接アクセスし、そのメタデータをダウンロードすることができる。   Alternatively, the index server 100 can hold index data indicating which metadata is held by which media data viewing device 10-i. In this case, the media data viewing apparatus 10-i that is the search request transmission source transmits a search request to the index server 100. The index server 100 returns the address information of the media data viewing device 10-i holding the metadata related to the search request to the media data viewing device 10-i that is the search request source. The search request source media data viewing apparatus 10-i that received the reply directly accesses the media data viewing apparatus 10-i holding the metadata related to the search request based on the address information, and downloads the metadata. can do.

本発明の第1の実施の形態に係るメディアデータ視聴装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the media data viewing-and-listening apparatus 10 which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るメタデータ共有システムの構成を示すブロック図である。It is a block diagram which shows the structure of the metadata sharing system which concerns on the 1st Embodiment of this invention. メタデータの一例である。It is an example of metadata. メタデータの一例である。It is an example of metadata. メタデータ作成部13の詳細を示す。The detail of the metadata preparation part 13 is shown. 検索要求を送信する場合の表示画面の一例を示す。An example of the display screen in the case of transmitting a search request is shown. メタデータの検索結果が得られた場合における検索結果表示画面の一例を示している。An example of a search result display screen when a metadata search result is obtained is shown. メディアデータ中の画像の特徴量に基づいてメディアデータとメタデータのマッチングを行う方法を説明する概念図である。It is a conceptual diagram explaining the method of matching media data and metadata based on the feature-value of the image in media data. メディアデータとメタデータのマッチングを行う別の方法を説明する概念図である。It is a conceptual diagram explaining another method of matching media data and metadata. マッチング完了後、メディアデータと取得されたメタデータとが同時に表示されている場合の画面の状態の一例を示す。An example of the state of a screen when media data and acquired metadata are displayed at the same time after completion of matching is shown. メタデータ検索結果一覧画面の別の一例を示す。Another example of a metadata search result list screen is shown. 本発明の第2の実施の形態に係るメディアデータ視聴装置10の構成を示すブロック図である。It is a block diagram which shows the structure of the media data viewing-and-listening apparatus 10 which concerns on the 2nd Embodiment of this invention. マッチングされたメディアデータと掲示板データの視聴画面の一例を示す。An example of the viewing screen of matched media data and bulletin board data is shown. 掲示板データの別の表示方法を説明するための図である。It is a figure for demonstrating another display method of bulletin board data. 本発明の第3の実施の形態に係るメタデータ共有システムによる検索結果表示画面である。It is a search result display screen by the metadata sharing system which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係るメタデータ共有システムの構成を示すブロック図である。It is a block diagram which shows the structure of the metadata sharing system which concerns on the 4th Embodiment of this invention. メタデータ共有システムの別の構成例を示す。2 shows another configuration example of a metadata sharing system.

符号の説明Explanation of symbols

10−i…メディアデータ視聴装置、 11…通信部、 12…情報処理部、13…メタデータ作成部、 14…メタデータ蓄積部、 15…メディアデータ蓄積部、 16…視聴部、 20…サーバ、 21…通信部、 22…情報処理部、 23 メタデータ蓄積部、 24…掲示板データ蓄積部、 25…メディアデータ蓄積部、 31、231…メディアデータ表示部、32…アノテーション入力・表示部、33…制御部、34…メタ名表示部、35、235…表示部、36…タイムライン、 51…ネットワーク、 100…インデックスサーバ、 71…メディアデータ表示部、 72…メディアデータ用タイムライン、 73、273、373…メタデータ名表示部、 74、374…メタデータ用タイムライン、 80…メタデータ内容表示部、 81…メッセージ入力部、 200…タイムライン、 377…録画予約アイコン。   DESCRIPTION OF SYMBOLS 10-i ... Media data viewing apparatus, 11 ... Communication part, 12 ... Information processing part, 13 ... Metadata production part, 14 ... Metadata storage part, 15 ... Media data storage part, 16 ... Viewing part, 20 ... Server, DESCRIPTION OF SYMBOLS 21 ... Communication part, 22 ... Information processing part, 23 Metadata storage part, 24 ... Bulletin board data storage part, 25 ... Media data storage part, 31,231 ... Media data display part, 32 ... Annotation input / display part, 33 ... Control unit 34 ... Meta name display unit 35, 235 ... Display unit 36 ... Timeline 51 ... Network 100 ... Index server 71 71 Media data display unit 72 72 Media data timeline 73 273 373 ... Metadata name display section, 74, 374 ... Metadata timeline, 80 ... Metadata content display section, 81 ... Message input section, 200 ... time line, 377 ... recording reservation icon.

Claims (7)

メディアデータをメタデータと共に視聴可能に構成されたクライアントとしての複数のメディアデータ視聴装置と、該クライアント間のデータの送受信を担当するサーバとを備え、
前記メディアデータ視聴装置は、
前記メディアデータを蓄積するメディアデータ蓄積手段と、
前記メディアデータを視聴するための視聴手段と、
前記メタデータを蓄積するメタデータ蓄積手段と、
前記メタデータを前記サーバに向けて送信すると共に前記サーバより前記メタデータを受信して前記メタデータ蓄積手段に蓄積させる通信手段と、
前記メタデータが示す時間データに基づき前記メディアデータと前記メタデータとの時間的関係を表示する表示手段と、
前記サーバに対する前記メタデータの検索要求を入力するための検索要求入力手段とを備え、
前記サーバは、
前記メディアデータ視聴装置から送信された前記メタデータを蓄積するメタデータ蓄積手段と、
前記検索要求に対応するメタデータを前記メタデータ蓄積手段より検索するメタデータ検索手段とを備え、
当該メタデータ検索手段は、
前記メディアデータ蓄積手段に蓄積されたメディアデータ及び当該メディアデータの蓄積された時間情報を示すメディアデータリストを前記メディアデータ視聴装置から受信し、
前記受信されたメディアデータリストとの時間的な重複部分が多いメタデータを優先的に検索するように構成されたことを特徴とするメタデータ共有システム。
A plurality of media data viewing devices as clients configured to be able to view media data together with metadata, and a server in charge of data transmission / reception between the clients,
The media data viewing device comprises:
Media data storage means for storing the media data;
Viewing means for viewing the media data;
Metadata storage means for storing the metadata;
Communication means for transmitting the metadata to the server and receiving the metadata from the server and storing the metadata in the metadata storage means;
Display means for displaying a temporal relationship between the media data and the metadata based on time data indicated by the metadata;
Search request input means for inputting a search request for the metadata to the server,
The server
Metadata storage means for storing the metadata transmitted from the media data viewing device;
Metadata search means for searching for metadata corresponding to the search request from the metadata storage means,
The metadata search means
Receiving media data stored in the media data storage means and a media data list indicating time information stored in the media data from the media data viewing device;
A metadata sharing system configured to preferentially search for metadata having a large temporal overlap with the received media data list.
前記メディアデータ視聴装置は、
文字列の入力を受け付ける文字列入力手段と、
前記サーバにて前記文字列に基づき検索された検索結果を受信し、前記受信された検索結果の中から、前記メディアデータリストとの時間的な重複部分が多い検索結果を優先的に表示する検索結果表示手段
を備えることを特徴とする請求項1に記載のメタデータ共有システム。
The media data viewing device comprises:
A character string input means for accepting input of a character string;
A search that receives search results searched based on the character string in the server and preferentially displays search results that have a large temporal overlap with the media data list from the received search results . metadata sharing system according to claim 1, characterized in that it comprises a result displaying means.
前記メディアデータ視聴装置は、前記メタデータを作成するメタデータ作成手段を備えた請求項1に記載のメタデータ共有システム。   The metadata sharing system according to claim 1, wherein the media data viewing device includes metadata creation means for creating the metadata. 前記サーバは、前記メタデータ検索手段による検索結果を前記メディアデータ視聴装置に送信すると共に、前記検索結果の中から所望の前記メタデータを選択させるように構成された請求項1に記載のメタデータ共有システム。   2. The metadata according to claim 1, wherein the server is configured to transmit a search result by the metadata search means to the media data viewing device and to select desired metadata from the search result. Shared system. 前記検索要求入力手段は、放送予定のメディアデータに関するメタデータを検索するための検索要求を入力することが可能に構成され、前記メディアデータ視聴装置は、前記メタデータ検索手段による検索の結果に基づき、そのメディアデータの録画予約を実行することができるように構成された請求項1に記載のメタデータ共有システム。   The search request input means is configured to be able to input a search request for searching for metadata related to media data scheduled to be broadcast, and the media data viewing device is based on a search result by the metadata search means. The metadata sharing system according to claim 1, configured to execute recording reservation for the media data. 前記サーバは、前記メディアデータ視聴装置間で前記メタデータが送受信される毎に前記メタデータの作成者のデータを蓄積する作成者データ蓄積手段を備え、前記検索要求入力手段は、前記作成者データ蓄積手段に蓄積された作成者のデータを優先的に検索要求に含めることができるように構成された請求項1に記載のメタデータ共有システム。   The server includes creator data storage means for storing data of a creator of the metadata every time the metadata is transmitted / received between the media data viewing devices, and the search request input means includes the creator data 2. The metadata sharing system according to claim 1, wherein the metadata of the creator stored in the storage means can be preferentially included in the search request. 前記作成者のデータは、前記メタデータに含まれる作成者の認証データに基づいて取得される請求項6に記載のメタデータ共有システム。   The metadata sharing system according to claim 6, wherein the creator data is acquired based on authentication data of the creator included in the metadata.
JP2007230084A 2007-09-05 2007-09-05 Metadata sharing system Expired - Fee Related JP4469884B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007230084A JP4469884B2 (en) 2007-09-05 2007-09-05 Metadata sharing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007230084A JP4469884B2 (en) 2007-09-05 2007-09-05 Metadata sharing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002358216A Division JP4025185B2 (en) 2002-12-10 2002-12-10 Media data viewing apparatus and metadata sharing system

Publications (2)

Publication Number Publication Date
JP2008042932A JP2008042932A (en) 2008-02-21
JP4469884B2 true JP4469884B2 (en) 2010-06-02

Family

ID=39177362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007230084A Expired - Fee Related JP4469884B2 (en) 2007-09-05 2007-09-05 Metadata sharing system

Country Status (1)

Country Link
JP (1) JP4469884B2 (en)

Also Published As

Publication number Publication date
JP2008042932A (en) 2008-02-21

Similar Documents

Publication Publication Date Title
JP4025185B2 (en) Media data viewing apparatus and metadata sharing system
JP6072618B2 (en) Multimedia content search and recording reservation system
JP4304185B2 (en) Stream output device and information providing device
US9038104B2 (en) System and method for providing an interactive program guide for past, current, and future programming
US8230343B2 (en) Audio and video program recording, editing and playback systems using metadata
EP1421792B1 (en) Audio and video program recording, editing and playback systems using metadata
US10681424B2 (en) Data associated with bookmarks to video content
US20080059989A1 (en) Methods and systems for providing media assets over a network
US20070297755A1 (en) Personalized cutlist creation and sharing system
US20080036917A1 (en) Methods and systems for generating and delivering navigatable composite videos
US20100199295A1 (en) Dynamic video segment recommendation based on video playback location
KR20130133918A (en) Systems and methods for selecting media assets for display in a screen of an interactive media guidance application
JP2006211311A (en) Digested video image forming device
US8954874B2 (en) Methods and systems for providing one or more topic specific portals
WO2007130472A2 (en) Methods and systems for providing media assets over a network
JP2007318196A (en) Information processing system, information providing apparatus, information providing method, reproducing device, information processing method, and program
JP4476786B2 (en) Search device
JP2007124465A (en) Data processing device, system, and method
JP2008283409A (en) Metadata related information generating device, metadata related information generating method, and metadata related information generating program
JP2004350092A (en) Video image viewing system, video image reproduction terminal used for the same system, processing method in the video image reproduction terminal, program for executing the processing method, and recording medium with the program recorded
JP2008078876A (en) Program recording reproducing device, program reproducing position control method and program information providing device
WO2007073053A1 (en) Method for searching situation of moving picture and system using the same
JP2005110016A (en) Distributing video image recommendation method, apparatus, and program
JP4469884B2 (en) Metadata sharing system
JP4162459B2 (en) Multimedia information reproducing apparatus, multimedia information reproducing method and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100301

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees