JP2004070882A - Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program - Google Patents

Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program Download PDF

Info

Publication number
JP2004070882A
JP2004070882A JP2002233214A JP2002233214A JP2004070882A JP 2004070882 A JP2004070882 A JP 2004070882A JP 2002233214 A JP2002233214 A JP 2002233214A JP 2002233214 A JP2002233214 A JP 2002233214A JP 2004070882 A JP2004070882 A JP 2004070882A
Authority
JP
Japan
Prior art keywords
metadata
input
user
content
providing server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002233214A
Other languages
Japanese (ja)
Inventor
Naoyuki Kakehi
筧 直之
Hitoshi Seshimo
瀬下 仁志
Takeshi Sugiyama
杉山 武志
Takahiro Noda
野田 隆広
Masaki Hisada
久田 正樹
Yasuyoshi Okada
岡田 康義
Masahito Kawamori
川森 雅仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002233214A priority Critical patent/JP2004070882A/en
Publication of JP2004070882A publication Critical patent/JP2004070882A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide creation of metadata with respect to recorded contents recording an event on real time basis to a user. <P>SOLUTION: The contents providing server 1 displays available events in a user portable terminal 3, and the user selects an event. The contents providing server 1 generates a metadata input form from data of an event management database 15. In the user portable terminal 3, by pressing an input key, metadata corresponding to the input key is selected or inputted. The inputted data is sent to the contents providing server 1. The contents providing server 1 records reception time data, and it stores the time data and the received metadata in a metadata database 17. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、あるイベントを記録した映像や音声などの記録コンテンツの中から、利用者の要求に応じた時刻の記録コンテンツを簡単に検索し、再生する方法に関する。
【0002】
【従来の技術】
従来、インターネット等のコンピュータネットワークシステムを用いて、あるサーバ上で公開されている映像や音声などの記録コンテンツを閲覧する場合に、その記録コンテンツがどんなに長くても、はじめから順に見ていかないと、それが含んでいる内容が分からなかった。
【0003】
【発明が解決しようとする課題】
最近では、映像の経過時刻を指定したり、その時刻におけるメタデータを記述したファイルを作成することで、映像の見たいシーンを検索して再生することができるようになった。しかしながら、映像を記録した後に、映像を見ながらメタデータを作成するのは、時間と手間がかかるという問題があった。また、リアルタイムにメタデータを作成できなかった。さらに1つの記録コンテンツに対して、複数の利用者が同時にメタデータを入力し、それを公開し、共有するといった概念は存在していなかった。
【0004】
本発明の目的は、あるイベントを記録した記録コンテンツに対するメタデータを利用者がリアルタイムに作成できるコンテンツの検索・再生方法を提供することにある。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明は、通信機能を有する携帯端末を利用し、イベントに参加している利用者自らが、リアルタイムにメタデータを入力するとともに、そのメタデータをコンテンツ提供サーバに送信し、コンテンツ提供サーバはメタデータを入力時刻データとともにデータベースに蓄積し、またそのデータベースの中から所望のメタデータを検索し、その入力時刻データと記録コンテンツの時刻データをマッチングさせることで、記録コンテンツの所望箇所を再生するものである。
【0006】
本発明は、あるイベントを記録した記録コンテンツに対するメタデータを作成する場合に、そのイベントに参加している人が、携帯端末を用いてリアルタイムにメタデータを作成するので、メタデータ作成に要する時間と手間が少なくなる。さらに、1つのコンテンツに対して、複数の利用者が同時にメタデータを入力し、それをサーバ側に蓄積し、公開し、共有することができるようになり、利用者自身の体験から記録コンテンツの検索、再生を分かりやすくできる。
【0007】
ここで、メタデータとは、コンテンツ本体に付属するデータで、コンテンツの内容に関する記述や作成者などに関する情報などが書かれているものである。サッカーの場合は、日時、選手、シュート・コーナーキックなど試合の動きなどに関するデータのことである。コンテンツ本体に付属するデータは全てメタデータになるので、1レコード(=入力者、入力時刻、ラベル、詳細コメントなど)がメタデータになる。
【0008】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0009】
図1は本発明の一実施形態のコンテンツ検索・再生システムの構成図である。
【0010】
本実施形態のコンテンツ検索・再生システムは、映像、音声などのコンテンツの蓄積、イベント管理データの登録、記録コンテンツに対するメタデータの登録や管理、記録コンテンツの検索・再生を行うコンテンツ提供サーバ1と、記録コンテンツをコンテンツ提供サーバ1に登録するためのコンテンツ入力端末2と、メタデータを入力しコンテンツ提供サーバ1に登録するための利用者携帯端末3と、コンテンツ提供サーバ1に蓄積されているメタデータを検索することにより記録コンテンツを所望の箇所から再生するための利用者端末4と、コンテンツ提供サーバ1とコンテンツ入力端末2、利用者携帯端末3、利用者端末4とを接続する、電話網やインターネットなどのネットワーク5で構成されている。
【0011】
コンテンツ提供サーバ1はコンテンツ登録部11とイベント管理データ登録部12とメタデータ登録部13とコンテンツ検索・再生部14とイベント管理データベース15とコンテンツデータベース16とメタデータデータベース17を有する。
【0012】
イベント管理データベース15には、利用者ID、パスワード、名前などが蓄積される利用者データテーブル15aと、イベントID、イベントの名前、開始時刻、記録コンテンツへのパスなどが蓄積されるイベントデータテーブル15bと、利用者携帯端末3のボタン押下などのイベント発生時に、イベントとラベルとを対応づけするデータ(以下、ラベル対応データ)が蓄積されるラベル対応テーブル15cが含まれる。ラベル対応データは利用者およびイベントごとに設定可能である。利用者は、利用者携帯端末3のイベント毎に予め決められたボタンを、ラベルを入力する際に押下することで、利用者ごとに別々の入力メタデータ(ラベル+詳細コメント)を容易に入力することができる。コンテンツデータベース16には記録コンテンツが蓄積されている。メタデータデータベース17には、ラベル、入力メタデータの入力時刻、ユーザID、イベントID、詳細コメントなどが蓄積される。コンテンツ登録部11は、コンテンツデータベース16に蓄積する記録コンテンツを受信し、イベント管理データベース15にどのイベントのコンテンツか、あるいはイベントの開始時刻データの登録を行う。イベント管理データ登録部12は、イベント管理データの登録や編集を行う。メタデータ登録部13は、利用者携帯端末3から入力メタデータを受信し、入力時刻データやユーザID、イベントIDとともにメタデータデータベース17に登録する。コンテンツ検索・再生部14は、ユーザIDやイベントID、メタデータをキーにメタデータデータベース17を検索することで、検索結果に含まれるメタデータの入力時刻データを用いて、コンテンツの所望の箇所からの再生を行う。コンテンツの再生をしながら、メタデータの編集、その入力時刻データの更新を行うこともできる。ここで、コンテンツを入力する利用者と、メタデータを入力する利用者と、コンテンツの検索再生を行う利用者は、それぞれ別々でよい。
【0013】
コンテンツ入力端末2は、表示部21と、通信部22と、制御部23と、コンテンツを入力するためのコンテンツ入力部24と、コンテンツを蓄積するデータ蓄積部25を有する。
【0014】
利用者携帯端末3は、表示部31と、通信部32と、制御部33と、メタデータを入力するためのメタデータ入力部34と、メタデータを蓄積するデータ蓄積部35を有する。
【0015】
次に、メタデータを登録する動作について詳しく説明する。例えば、利用者はサッカー観戦などのイベントに参加しながら、リアルタイムに携帯電話などの利用者携帯端末3を用いて入力メタデータを入力し、そのデータをコンテンツ提供サーバ1側のデータベースに蓄積するようなケースを想定する。図2はメタデータを登録する動作を示すフローチャートである。
【0016】
まず、利用者は、利用者携帯端末3を用いてユーザIDとパスワードを入力し(ステップ101)、コンテンツ提供サーバ1で認証処理を行う(ステップ102、図4(1))。次に、コンテンツ提供サーバ1は利用者携帯端末3に利用可能なイベントの一覧(イベントデータテーブル)を表示し、利用者はイベントを選択する(ステップ103、図4(2))。イベントデータテーブルには、開始時刻と終了時刻とイベント名があって、開始時刻<現在時刻<終了時刻の関係を満足するイベントが選ばれて、開始時刻とイベント名を利用者携帯端末3に表示させる。ラベル対応データを編集する場合には、選択したイベントに対応するメタデータを、ユーザ毎にそれぞれ利用者携帯端末3を利用することで編集し、コンテンツ提供サーバ1のラベル対応テーブル15cを更新する(ステップ104〜106、図4(3))。イベントID対応、ユーザID対応にラベル対応データをコンテンツ提供サーバ1から利用者携帯端末3に送って、携帯端末3で編集しコンテンツ提供サーバ1に送り返す。コンテンツ提供サーバ1でイベントID、ユーザIDとともに格納する。コンテンツ提供サーバ1にユーザID対応のラベル対応データがなければ、共通なラベル対応データをコンテンツ提供サーバ1から携帯端末2に送る。ラベル対応データは、イベント共通のデータである場合もあるし、ユーザがそれぞれ設定する場合もある。次に、メタデータ入力ループに入る。コンテンツ提供サーバ1では、イベント管理データベース15のデータからラベル入力フォームを生成する(ステップ107、図4(4))。入力フォームの生成もイベントID対応、ユーザID対応の対応データをコンテンツ提供サーバ1に送ることで行なう。利用者携帯端末3では、ラベル入力フォームを表示し(ステップ108)、入力キーを押すことでその入力キーに対応するラベルを選択し、入力する(ステップ109)。テキストで自由記述式に詳細なコメントをメタデータの一部として入力することもある。入力されたデータはコンテンツ提供サーバ1に送信される。コンテンツ提供サーバ1では、受信時刻データを記録し(ステップ110)、その時刻データと受信した入力メタデータをメタデータデータベース17に蓄積する(ステップ111)。入力メタデータが入力された確認ページ(図4(5))を表示し、また図4(4)の画面へ戻る(ステップ112)。
【0017】
図3はメタデータを登録する動作の他の例のフローチャートである。本例は図2の例と異なり、利用者携帯端末3でメタデータを蓄積し、コンテンツ提供サーバ1へ一括送信する。このようにして、コンテンツ提供サーバ1と利用者携帯端末3の通信回線を減らすことで、利用者の使い勝手を向上させることができる。図3について以下に説明する。
【0018】
まず、利用者は、利用者携帯端末3を用いてユーザIDとパスワードを入力し(ステップ201)、コンテンツ提供サーバ1で認証処理を行う(ステップ202)。次に、利用者携帯端末3に利用可能なイベントの一覧を表示し、利用者はイベントを選択する(ステップ203)。ラベル対応データを編集する場合には、選択したイベントに該当するラベル対応データを、それぞれの利用者携帯端末3にダウンロードし、蓄積する。利用者携帯端末3において、ラベル対応データを編集し、コンテンツ提供サーバ1のラベル対応テーブル15cも更新する(ステップ204〜206)。次に、メタデータ入力ループに入る。利用者携帯端末3では、ラベル対応データからラベル入力フォームを生成する(ステップ207)。入力キーを押すことで、その入力キーに対応するラベルを選択し、入力する(ステップ208)。このとき、利用者携帯端末3で、入力メタデータが入力された時刻データを記録する(ステップ209)。また、テキストで自由記述式に詳細なメタデータを入力することもある。入力されたデータは利用者携帯端末3に一時的に蓄積される(ステップ210)。この蓄積されたデータはタイマーなどで設定されたタイミングによりコンテンツ提供サーバ1に送信され(ステップ211)、メタデータデータベース17に蓄積される(ステップ212)。
【0019】
記録コンテンツの所望の箇所を再生する処理は、メタデータデータベース17に蓄積されているメタデータの中から所望のデータを検索し、その入力時刻データと記録コンテンツの時刻データをマッチングすることで行われる。図5はコンテンツを検索・再生する動作を説明するための図である。記録コンテンツには、時刻データが含まれる。例えば動画の場合、それぞれのフレームに先頭からの経過時刻データが含まれている。そのため、先頭フレームの時刻を指定すれば各フレームの時刻も分かる。メタデータを検索し、その入力時刻データを指定することで、記録コンテンツの所望の時刻データからの再生が可能になる。
【0020】
そのため、入力時刻データが利用者携帯端末3で記録される場合、利用者携帯端末3とコンテンツ提供サーバ1との時刻データにずれがあると、上記処理が正しく行われないという問題が生じる。この問題を解決する1つの方法として、コンテンツ提供サーバ1と利用者携帯端末3との間の時刻データ差を推測する方法がある。利用者携帯端末3でのデータ送信時刻をT1、コンテンツ提供サーバ1でのデータ受信時刻をT2、利用者携帯端末3とコンテンツ提供サーバ1との間の時刻データ差をΔt、転送データ量をB、転送速度をvとすると、
v=B/{(T2+Δt)−T1}
という式が成り立つ。この式においてT1とT2とBは既知のデータであり、ΔtとBは未知のデータである。そのためメタデータ入力ループを通じて、統計的にΔtとBを推測することができる。このようにして求められるΔtを使い、利用者携帯端末3で記録された時刻データをコンテンツ提供サーバ1側での時刻データに変換して、メタデータデータベース17に蓄積することができる。
【0021】
図6はコンテンツを検索・再生する動作のフローチャートである。図6について以下に説明する。
【0022】
まず、利用者は、利用者端末4を用いてユーザIDとパスワードを入力し(ステップ301)、コンテンツ提供サーバ1で認証処理を行う(ステップ302)。次に、利用者端末4にメタデータ検索指定画面を表示し、利用者は検索条件を指定する(ステップ303)。検索条件には、イベント名や利用者名、メタデータ名などが用いられる。指定した検索条件はコンテンツ提供サーバ1に送信される(ステップ304)。コンテンツ提供サーバ1のメタデータ登録部13は、イベント管理データベース15やメタデータデータベース17内を検索し、検索条件にあうメタデータを検索結果として、利用者端末4に送信する(ステップ305)。この時、メタデータの入力時刻データと記録コンテンツの時刻をマッチングさせることで、記録コンテンツの再生開始個所を決定する。利用者端末4では検索結果が表示される(ステップ306)。ここで、メタデータデータベース17には、複数の利用者が入力したメタデータが含まれる。そのため、利用者自身が入力したメタデータの公開/非公開を選択できるようにし、公開されているメタデータのみを検索することもできる。利用者端末4でメタデータを指定し、コンテンツを再生する(ステップ307〜313)。コンテンツ提供サーバ1では、コンテンツデータベース16の中から、映像や音声データを細分化し、受信側の再生時刻データにあわせて細分化したデータを順次伝送することで、ダウンロードしながらの再生することもできる。また、一度登録したメタデータの内容を後から編集したり(ステップ310)、入力時刻データを変更したりもできる(ステップ311)。
【0023】
なお、以上説明したコンテンツの検索・再生方法は専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フロッピーディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。
【0024】
【発明の効果】
以上説明したように、本発明によれば、あるイベントを記録した映像や音声などの記録コンテンツに対するメタデータを作成する場合に、そのイベントに参加している人が、携帯端末を用いてリアルタイムにメタデータを作成することができるため、メタデータ作成に要する時間と手間が少なくなるとともに、一つのコンテンツに対して、複数の利用者が同時にメタデータを入力し、それをコンテンツサーバ側に蓄積し、公開し、共有することができるようになり、利用者自身の体験から記録コンテンツの検索、再生を簡単にできる。
【0025】
例えば、サッカーや野球などの試合を観戦する場合に、試合に応じて入力したいメタデータをあらかじめ設定しておく。サッカーであれば「シュート」や「パス」といったメタデータを携帯端末の入力部と対応させておくことで、簡単にリアルタイムにメタデータを入力することができる。そのメタデータは利用者ごとに設定できる。そのメタデータを利用して、後からその映像の所望シーンを簡単に検索再生することができるようになる。また、利用者毎に入力するメタデータを利用者間で分担することで、メタデータ入力の負担を軽減し、それを後からコンテンツサーバ上でマージすることで、映像の所望シーンを検索再生することができる。この方法はサッカーや野球などにおいて、戦術を分析するときに有効である。
【0026】
他に大学の講義やセミナーをアーカイブする場合にも非常に有効である。利用者がここは重要だと感じたところに、リアルタイムに携帯端末を利用してメタデータを残しておく。イベントが終了してからも、メタデータを利用して重要だと感じたシーンを検索再生して、後からそのシーンだけを簡単に抽出し、効率よく振り返ることも可能になる。
【図面の簡単な説明】
【図1】本発明の一実施形態のコンテンツ検索・再生システムの構成図である。
【図2】メタデータを登録する処理のフローチャートである。
【図3】メタデータを登録する処理の他のフローチャートである。
【図4】メタデータを登録するとき利用者携帯端末3の画面を示す図である。
【図5】コンテンツを検索・再生する方法を説明するための図である。
【図6】コンテンツを検索・再生する処理のフローチャートである。
【符号の説明】
1  コンテンツ提供サーバ
2  コンテンツ入力端末
3  利用者携帯端末
4  利用者端末
5  ネットワーク
11  コンテンツ登録部
12  イベント管理データ登録部
13  メタデータ登録部
14  コンテンツ検索・再生部
15  イベント管理データベース
15a  利用者データテーブル
15b  イベントデータテーブル
15c  ラベル対応テーブル
16  コンテンツデータベース
17  メタデータデータベース
21,31  表示部
22,32  通信部
23,33  制御部
24  コンテンツ入力部
25  データ蓄積部
34  メタデータ入力部
35  データ蓄積部
101〜112,201〜212,301〜313  ステップ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method of easily searching and reproducing recorded content at a time according to a user's request from recorded contents such as video and audio in which an event is recorded.
[0002]
[Prior art]
Conventionally, when using a computer network system such as the Internet to browse recorded content such as video and audio published on a certain server, no matter how long the recorded content is, if it is not seen in order from the beginning, I didn't know what it contained.
[0003]
[Problems to be solved by the invention]
Recently, it has become possible to search for and play back a scene that the user wants to view by specifying the elapsed time of the video or creating a file in which metadata at that time is described. However, there is a problem that it takes time and effort to create metadata while watching the video after recording the video. Also, metadata could not be created in real time. Further, there has been no concept that a plurality of users simultaneously input metadata for one recorded content, and publish and share the metadata.
[0004]
An object of the present invention is to provide a content search / reproduction method in which a user can create metadata for recorded content in which a certain event is recorded in real time.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, a user participating in an event uses a mobile terminal having a communication function, inputs metadata in real time, and transmits the metadata to a content providing server. Then, the content providing server stores the metadata in the database together with the input time data, searches the database for desired metadata, matches the input time data with the time data of the recorded content, and records the data. A desired portion of the content is reproduced.
[0006]
According to the present invention, when creating metadata for recorded content in which an event is recorded, a person who participates in the event creates metadata in real time using a mobile terminal, so that the time required for creating metadata is And less time and effort. In addition, multiple users can simultaneously input metadata for one content, store it on the server side, publish it, and share it, and from the user's own experience, Search and playback can be easily understood.
[0007]
Here, the metadata is data attached to the content main body, and describes a description of the content of the content, information on a creator, and the like. In the case of soccer, it refers to data relating to the date and time, players, the movement of a game such as a shot / corner kick, and the like. Since all data attached to the content body is metadata, one record (= input person, input time, label, detailed comment, etc.) is metadata.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
[0009]
FIG. 1 is a configuration diagram of a content search / playback system according to an embodiment of the present invention.
[0010]
The content search / playback system according to the present embodiment includes a content providing server 1 that stores content such as video and audio, registers event management data, registers and manages metadata for recorded content, and searches and plays recorded content, A content input terminal 2 for registering recorded content in the content providing server 1, a user portable terminal 3 for inputting metadata and registering the content in the content providing server 1, and metadata stored in the content providing server 1. A user terminal 4 for reproducing recorded content from a desired location by searching for a URL, a telephone network connecting the content providing server 1 with the content input terminal 2, the user portable terminal 3, and the user terminal 4, It is composed of a network 5 such as the Internet.
[0011]
The content providing server 1 includes a content registration unit 11, an event management data registration unit 12, a metadata registration unit 13, a content search / playback unit 14, an event management database 15, a content database 16, and a metadata database 17.
[0012]
The event management database 15 stores a user data table 15a storing user IDs, passwords, names, and the like, and an event data table 15b storing event IDs, event names, start times, and paths to recorded contents. And a label correspondence table 15c in which data (hereinafter, label correspondence data) for associating an event with a label when an event such as a button press on the user portable terminal 3 occurs is included. Label correspondence data can be set for each user and event. The user can easily input separate input metadata (label + detailed comment) for each user by pressing a button predetermined for each event of the user mobile terminal 3 when inputting a label. can do. The content database 16 stores recorded content. The metadata database 17 stores labels, input times of input metadata, user IDs, event IDs, detailed comments, and the like. The content registration unit 11 receives the recorded content stored in the content database 16 and registers the content of the event or the start time data of the event in the event management database 15. The event management data registration unit 12 registers and edits event management data. The metadata registration unit 13 receives the input metadata from the user portable terminal 3 and registers the metadata in the metadata database 17 together with the input time data, the user ID, and the event ID. The content search / playback unit 14 searches the metadata database 17 using the user ID, the event ID, and the metadata as keys, and uses the input time data of the metadata included in the search result to start from a desired portion of the content. Perform playback. It is also possible to edit the metadata and update the input time data while reproducing the content. Here, the user who inputs the content, the user who inputs the metadata, and the user who searches and reproduces the content may be different from each other.
[0013]
The content input terminal 2 includes a display unit 21, a communication unit 22, a control unit 23, a content input unit 24 for inputting content, and a data storage unit 25 for storing content.
[0014]
The user portable terminal 3 includes a display unit 31, a communication unit 32, a control unit 33, a metadata input unit 34 for inputting metadata, and a data storage unit 35 for storing metadata.
[0015]
Next, the operation of registering metadata will be described in detail. For example, while participating in an event such as watching a soccer game, the user inputs input metadata using the user mobile terminal 3 such as a mobile phone in real time, and stores the data in a database on the content providing server 1 side. Case is assumed. FIG. 2 is a flowchart showing the operation of registering metadata.
[0016]
First, the user inputs a user ID and a password using the user portable terminal 3 (step 101), and performs an authentication process in the content providing server 1 (step 102, FIG. 4 (1)). Next, the content providing server 1 displays a list of available events (event data table) on the user portable terminal 3, and the user selects an event (step 103, FIG. 4 (2)). The event data table has a start time, an end time, and an event name. An event that satisfies the relationship of start time <current time <end time is selected, and the start time and the event name are displayed on the user portable terminal 3. Let it. When editing the label correspondence data, the metadata corresponding to the selected event is edited for each user by using the user portable terminal 3, and the label correspondence table 15c of the content providing server 1 is updated ( Steps 104 to 106, FIG. 4 (3)). The label correspondence data corresponding to the event ID and the user ID is transmitted from the content providing server 1 to the user portable terminal 3, edited by the portable terminal 3, and sent back to the content providing server 1. The content providing server 1 stores the information together with the event ID and the user ID. If there is no label correspondence data corresponding to the user ID in the content providing server 1, the common label corresponding data is sent from the content providing server 1 to the portable terminal 2. The label correspondence data may be data common to the event, or may be set by the user. Next, the process enters a metadata input loop. The content providing server 1 generates a label input form from the data in the event management database 15 (step 107, FIG. 4 (4)). The input form is also generated by sending corresponding data corresponding to the event ID and the user ID to the content providing server 1. The user portable terminal 3 displays a label input form (step 108), and presses an input key to select and input a label corresponding to the input key (step 109). In some cases, detailed comments are entered as free-form text as part of the metadata. The input data is transmitted to the content providing server 1. The content providing server 1 records the reception time data (step 110), and stores the time data and the received input metadata in the metadata database 17 (step 111). A confirmation page (FIG. 4 (5)) in which the input metadata has been input is displayed, and the screen returns to the screen of FIG. 4 (4) (step 112).
[0017]
FIG. 3 is a flowchart of another example of the operation of registering metadata. This example differs from the example of FIG. 2 in that the user portable terminal 3 accumulates metadata and transmits the metadata to the content providing server 1 collectively. In this way, the number of communication lines between the content providing server 1 and the user portable terminal 3 is reduced, thereby improving the usability of the user. FIG. 3 is described below.
[0018]
First, a user inputs a user ID and a password using the user portable terminal 3 (step 201), and performs an authentication process in the content providing server 1 (step 202). Next, a list of available events is displayed on the user portable terminal 3, and the user selects an event (step 203). When editing the label corresponding data, the label corresponding data corresponding to the selected event is downloaded to each user portable terminal 3 and stored. In the user portable terminal 3, the label correspondence data is edited, and the label correspondence table 15c of the content providing server 1 is also updated (steps 204 to 206). Next, the process enters a metadata input loop. The user portable terminal 3 generates a label input form from the label correspondence data (step 207). By pressing the input key, a label corresponding to the input key is selected and input (step 208). At this time, the user portable terminal 3 records the time data at which the input metadata was input (step 209). In addition, detailed metadata may be input in a free-form description in text. The input data is temporarily stored in the user portable terminal 3 (step 210). The stored data is transmitted to the content providing server 1 at a timing set by a timer or the like (step 211), and is stored in the metadata database 17 (step 212).
[0019]
The process of reproducing a desired portion of the recorded content is performed by searching for the desired data from the metadata stored in the metadata database 17 and matching the input time data with the time data of the recorded content. . FIG. 5 is a diagram for explaining the operation of searching and reproducing the content. The recorded content includes time data. For example, in the case of a moving image, each frame includes time elapsed data from the beginning. Therefore, if the time of the first frame is designated, the time of each frame can be known. By searching the metadata and designating the input time data, it is possible to reproduce the recorded content from desired time data.
[0020]
Therefore, when the input time data is recorded on the user portable terminal 3, if the time data between the user portable terminal 3 and the content providing server 1 is shifted, the above-described processing is not performed correctly. As a method for solving this problem, there is a method of estimating a time data difference between the content providing server 1 and the user portable terminal 3. The data transmission time at the user portable terminal 3 is T1, the data reception time at the content providing server 1 is T2, the time data difference between the user portable terminal 3 and the content providing server 1 is Δt, and the transfer data amount is B. , And the transfer speed is v,
v = B / {(T2 + Δt) -T1}
Holds. In this equation, T1, T2, and B are known data, and Δt and B are unknown data. Therefore, Δt and B can be statistically estimated through the metadata input loop. The time data recorded on the user portable terminal 3 can be converted into the time data on the content providing server 1 side by using the Δt obtained in this way, and can be stored in the metadata database 17.
[0021]
FIG. 6 is a flowchart of an operation of searching and reproducing contents. FIG. 6 is described below.
[0022]
First, the user inputs a user ID and a password using the user terminal 4 (step 301), and performs an authentication process in the content providing server 1 (step 302). Next, a metadata search designation screen is displayed on the user terminal 4, and the user designates search conditions (step 303). Event names, user names, metadata names, and the like are used as search conditions. The designated search condition is transmitted to the content providing server 1 (step 304). The metadata registration unit 13 of the content providing server 1 searches the event management database 15 and the metadata database 17 and transmits metadata that meets the search conditions to the user terminal 4 as a search result (step 305). At this time, the playback start point of the recorded content is determined by matching the input time data of the metadata with the time of the recorded content. The search result is displayed on the user terminal 4 (step 306). Here, the metadata database 17 includes metadata input by a plurality of users. For this reason, the user can select whether to open or close the metadata input by himself / herself, and it is also possible to search only the metadata that has been made public. The user terminal 4 specifies metadata and reproduces the content (steps 307 to 313). In the content providing server 1, video and audio data are subdivided from the content database 16, and the subdivided data is sequentially transmitted in accordance with the reproduction time data on the receiving side, so that the content can be reproduced while being downloaded. . Further, the content of the metadata once registered can be edited later (step 310), and the input time data can be changed (step 311).
[0023]
It should be noted that, in addition to the content search / reproduction method described above, which is realized by dedicated hardware, a program for realizing the function is recorded on a computer-readable recording medium, and is recorded on this recording medium. The loaded program may be loaded into a computer system and executed. The computer-readable recording medium refers to a recording medium such as a floppy disk, a magneto-optical disk, a CD-ROM, or a storage device such as a hard disk device built in a computer system. Further, the computer-readable recording medium is one that dynamically holds the program for a short time (transmission medium or transmission wave), such as a case where the program is transmitted via the Internet, and serves as a server in that case. It also includes those that hold programs for a certain period of time, such as volatile memory inside a computer system.
[0024]
【The invention's effect】
As described above, according to the present invention, when creating metadata for recorded content such as video or audio in which an event is recorded, a person participating in the event can use a mobile terminal in real time. Because metadata can be created, the time and effort required to create metadata is reduced, and multiple users can simultaneously input metadata for one content and store it on the content server side. Can be published, shared, and the search and playback of recorded content can be easily performed from the user's own experience.
[0025]
For example, when watching a game such as soccer or baseball, metadata to be input is set in advance in accordance with the game. In the case of soccer, the metadata such as “shoot” and “pass” can be easily input in real time by associating the metadata with the input unit of the mobile terminal. The metadata can be set for each user. By using the metadata, a desired scene of the video can be easily searched and reproduced later. In addition, the burden of metadata input is reduced by sharing metadata to be input for each user among users, and the desired scene of the video is searched and reproduced by merging the metadata later on the content server. be able to. This method is effective when analyzing tactics in soccer, baseball, and the like.
[0026]
It is also very effective for archiving university lectures and seminars. Where users find this important, use a mobile device to save metadata in real time. Even after the event ends, it is possible to search and play back a scene that is considered important using the metadata, to easily extract only that scene later, and to look back efficiently.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a content search / playback system according to an embodiment of the present invention.
FIG. 2 is a flowchart of a process for registering metadata.
FIG. 3 is another flowchart of a process for registering metadata.
FIG. 4 is a diagram showing a screen of the user portable terminal 3 when registering metadata.
FIG. 5 is a diagram for explaining a method of searching and reproducing content.
FIG. 6 is a flowchart of a process of searching and reproducing content.
[Explanation of symbols]
Reference Signs List 1 Content providing server 2 Content input terminal 3 User portable terminal 4 User terminal 5 Network 11 Content registration unit 12 Event management data registration unit 13 Metadata registration unit 14 Content search / playback unit 15 Event management database 15a User data table 15b Event data table 15c Label correspondence table 16 Content database 17 Metadata databases 21, 31 Display unit 22, 32 Communication unit 23, 33 Control unit 24 Content input unit 25 Data storage unit 34 Metadata input unit 35 Data storage units 101 to 112, 201-212, 301-313 steps

Claims (15)

利用者の携帯端末から入力メタデータをコンテンツ提供サーバで受信し、該入力メタデータと、該入力メタデータの受信時刻をメタデータとしてメタデータベースに蓄積するメタデータ作成方法。A metadata creation method for receiving input metadata from a user's mobile terminal at a content providing server and storing the input metadata and the reception time of the input metadata in a metadata database as metadata. 利用者携帯端末から入力メタデータと、該入力メタデータの入力時刻をコンテンツ提供サーバで受信し、該入力メタデータと該入力時刻をメタデータとしてメタデータベースに蓄積するメタデータ作成方法。A metadata creation method, wherein input metadata and input time of the input metadata are received by a content providing server from a user portable terminal, and the input metadata and the input time are stored as metadata in a metadata database. イベントID、利用者ID単位にラベルのリストを管理するテーブルを設け、前記ラベルのリストを利用者携帯端末に送信し、前記利用者携帯端末からラベルの選択結果を入力メタデータの一部として受信する、請求項1または2に記載の方法。A table for managing a list of labels for each event ID and user ID is provided, the list of labels is transmitted to a user portable terminal, and a result of label selection is received from the user portable terminal as a part of input metadata. The method of claim 1 or 2, wherein 前記入力メタデータの受信時刻と携帯端末での送信時刻と送信データサイズから、前記コンテンツ提供サーバと前記携帯端末の時刻データ差を統計的に計算し、該時刻データ差から、利用者の携帯端末での入力時刻データをコンテンツ提供サーバの時刻データに変換する、請求項2または3に記載の方法。A time data difference between the content providing server and the mobile terminal is statistically calculated from a reception time of the input metadata, a transmission time at the mobile terminal, and a transmission data size, and the user's mobile terminal is calculated from the time data difference. 4. The method according to claim 2, wherein the input time data is converted into time data of the content providing server. 前記メタデータベースに蓄積されているメタデータの中から利用者が指定した検索条件と一致するメタデータを検索し、該メタデータの入力時刻データと記録コンテンツの時刻データをマッチングさせることで、記録コンテンツの再生開始個所を決定する、請求項1から4のいずれか1項に記載の方法。The metadata stored in the metadata database is searched for metadata that matches the search condition specified by the user, and the input time data of the metadata is matched with the time data of the recorded content, thereby obtaining the recorded content. The method according to any one of claims 1 to 4, wherein a reproduction start point of the reproduction is determined. 前記利用者携帯端末から、メタデータ毎の公開/非公開の情報を受信し、非公開が設定されているメタデータについては他人に公開しない、請求項1から5のいずれか1項に記載の方法。The method according to any one of claims 1 to 5, wherein public / private information for each metadata is received from the user portable terminal, and the metadata set to be private is not disclosed to another person. Method. メタデータベースと、
利用者の携帯端末から入力メタデータを受信し、該入力メタデータと、該メタデータの受信時刻をメタデータとして前記メタデータベースに蓄積するメタデータ登録手段を有するコンテンツ提供サーバ。
A meta-database,
A content providing server having metadata registration means for receiving input metadata from a user's portable terminal and storing the input metadata and the reception time of the metadata as metadata in the metadata database.
メタデータベースと、
利用者の携帯端末から入力メタデータと、その入力時刻を受信し、該入力メタデータと該入力時刻をメタデータとして前記メタデータベースに蓄積するメタデータ登録手段を有するコンテンツ提供サーバ。
A meta-database,
A content providing server having metadata registration means for receiving input metadata and its input time from a user's portable terminal and storing the input metadata and the input time as metadata in the meta database.
イベントID、利用者ID単位にラベルのリストを管理するテーブルをさらに有し、前記メタデータ登録手段は前記ラベルのリストを前記携帯端末に送信し、該携帯端末からのラベルの選択結果を入力データの一部として受信する、請求項7または8に記載のコンテンツ提供サーバ。The apparatus further includes a table for managing a list of labels for each event ID and user ID, wherein the metadata registration unit transmits the list of labels to the mobile terminal, and inputs a selection result of the label from the mobile terminal to input data. The content providing server according to claim 7, wherein the content providing server receives the content as a part of the content providing server. 前記メタデータベースに蓄積されているメタデータの中から利用者が指定した検索条件と一致するメタデータを検索し、該メタデータの入力時刻データとコンテンツデータベースに記録されているコンテンツの時刻データをマッチングさせることで、記録コンテンツの再生開始個所を決定するコンテンツ検索・再生手段をさらに有する、請求項7から9のいずれか1項に記載のコンテンツ提供サーバ。Searches the metadata stored in the metadata database for metadata that matches the search condition specified by the user, and matches the input time data of the metadata with the time data of the content recorded in the content database. The content providing server according to any one of claims 7 to 9, further comprising a content search / playback unit that determines a playback start point of the recorded content. 利用者の携帯端末から入力メタデータを受信する手順と、該入力メタデータと、該入力メタデータの受信時刻をメタデータとしてメタデータベースに蓄積する手順をコンピュータに実行させるためのメタデータ作成プログラム。A metadata creation program for causing a computer to execute a procedure for receiving input metadata from a user's mobile terminal, and a procedure for storing the input metadata and the reception time of the input metadata as metadata in a metadata database. 利用者の携帯端末から入力メタデータと、該入力データの入力時刻を受信する手順と、該入力メタデータと該入力時刻をメタデータとしてメタデータベースに蓄積する手順をコンピュータに実行させるためのメタデータ作成プログラム。Metadata for causing a computer to execute input metadata and input time of the input data from a user's portable terminal, and a procedure of storing the input metadata and the input time in a meta database as metadata. Creation program. イベントID、利用者ID単位にラベルのリストを管理するテーブルのラベルのリストを利用者携帯端末に送信する手順と、前記携帯端末からラベルの選択結果を入力メタデータの一部として受信する手順をさらに有する、請求項11または12に記載のプログラム。A procedure for transmitting a label list of a table for managing a list of labels for each event ID and user ID to a user portable terminal, and a procedure for receiving a label selection result from the portable terminal as a part of input metadata. The program according to claim 11, further comprising: 前記メタデータベースに蓄積されているメタデータの中から利用者が指定した検索条件と一致するメタデータを検索し、該メタデータの入力時刻データと記録コンテンツの時刻データをマッチングさせることで、記録コンテンツの再生開始個所を決定する手順をさらに有する、請求項11から13のいずれか1項に記載のプログラム。The metadata stored in the metadata database is searched for metadata that matches the search condition specified by the user, and the input time data of the metadata is matched with the time data of the recorded content, thereby obtaining the recorded content. The program according to any one of claims 11 to 13, further comprising a step of determining a reproduction start point of the program. 請求項11から14のいずれか1項に記載のプログラムを記録した記録媒体。A recording medium on which the program according to any one of claims 11 to 14 is recorded.
JP2002233214A 2002-08-09 2002-08-09 Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program Pending JP2004070882A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002233214A JP2004070882A (en) 2002-08-09 2002-08-09 Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002233214A JP2004070882A (en) 2002-08-09 2002-08-09 Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program

Publications (1)

Publication Number Publication Date
JP2004070882A true JP2004070882A (en) 2004-03-04

Family

ID=32018398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002233214A Pending JP2004070882A (en) 2002-08-09 2002-08-09 Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP2004070882A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352923A (en) * 2004-06-11 2005-12-22 Sony Corp Device and method for storing information
JP2005352922A (en) * 2004-06-11 2005-12-22 Sony Corp Device and method for storing information
JPWO2011021632A1 (en) * 2009-08-19 2013-01-24 株式会社インターネットテレビジョン Information provision system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352923A (en) * 2004-06-11 2005-12-22 Sony Corp Device and method for storing information
JP2005352922A (en) * 2004-06-11 2005-12-22 Sony Corp Device and method for storing information
JPWO2011021632A1 (en) * 2009-08-19 2013-01-24 株式会社インターネットテレビジョン Information provision system

Similar Documents

Publication Publication Date Title
US9583146B2 (en) Media clip creation and distribution systems, apparatus, and methods
US9652459B2 (en) Independent content tagging of media files
US11520741B2 (en) Independent content tagging of media files
JP2004193871A (en) Media data viewing apparatus and metadata sharing system
US20070107039A1 (en) Content presentation device communicating with another device through presented content
JP2007142750A (en) Video image browsing system, computer terminal and program
JPWO2007000949A1 (en) Method and apparatus for reproducing content with reproduction start position control
JP2010113593A (en) Information processor, information processing method and information processing program
JP2004350092A (en) Video image viewing system, video image reproduction terminal used for the same system, processing method in the video image reproduction terminal, program for executing the processing method, and recording medium with the program recorded
EP3738287B1 (en) Content matching system
JP4030440B2 (en) Message reproducing apparatus, message recording and reproducing method, and program
JP2005032319A (en) Recording medium and playback device
WO2008087742A1 (en) Moving picture reproducing system, information terminal device and information display method
JP2006229453A (en) Program presentation system
US7947890B2 (en) Program recording medium, playback device, and playback control method
JP2007156893A (en) Information processing device, meta data management server, information processing system, and meta data management method
JP2004070882A (en) Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program
JP2002335478A (en) Video recording reproducing system
JP2005110016A (en) Distributing video image recommendation method, apparatus, and program
JP5324108B2 (en) Computer system, moving image editing method, program, moving image editing terminal
JP5221904B2 (en) Moving image distribution system and moving image distribution method
KR20180014966A (en) Method for providing sharing new song to connect songwriter with singer
JP4238662B2 (en) Presentation support device and presentation support method
JP6013879B2 (en) Collaboration singing system
JP2001331494A (en) Content providing device and content providing system