JP2008242838A - 説明表現付加装置、プログラムおよび説明表現付加方法 - Google Patents

説明表現付加装置、プログラムおよび説明表現付加方法 Download PDF

Info

Publication number
JP2008242838A
JP2008242838A JP2007082620A JP2007082620A JP2008242838A JP 2008242838 A JP2008242838 A JP 2008242838A JP 2007082620 A JP2007082620 A JP 2007082620A JP 2007082620 A JP2007082620 A JP 2007082620A JP 2008242838 A JP2008242838 A JP 2008242838A
Authority
JP
Japan
Prior art keywords
scene
information
meta information
scenes
comment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007082620A
Other languages
English (en)
Other versions
JP4469868B2 (ja
Inventor
Toshihiro Yamazaki
智弘 山崎
Hideki Tsutsui
秀樹 筒井
Koji Urata
耕二 浦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007082620A priority Critical patent/JP4469868B2/ja
Priority to US12/049,767 priority patent/US8931002B2/en
Publication of JP2008242838A publication Critical patent/JP2008242838A/ja
Application granted granted Critical
Publication of JP4469868B2 publication Critical patent/JP4469868B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data

Abstract

【課題】映像コンテンツを通じたコミュニケーションを活性化する。
【解決手段】複数のシーンを含むシーン集合、例えば映像コンテンツを視聴中にブックマークしたシーンの集合が入力された場合に、当該シーン集合の各シーンに対応する当該シーンの特徴を表すメタ情報の集合における各メタ情報間の距離が最大となる組み合わせを、各シーンを区別するための説明である説明表現として選択し、シーン集合に含まれるシーン毎に選択された説明表現を当該シーン毎に付加する。これにより、各シーン同士を区別することができる説明表現70をそれぞれのシーン60に付加することができるので、視聴中にブックマークしたシーン60に対する感想や意見などの書き込みを容易にすることができるとともに、書き込んだテキストと映像コンテンツとを同期させて読みやすくし、映像コンテンツを通じたコミュニケーションを活性化することができる。
【選択図】 図21

Description

本発明は、説明表現付加装置、プログラムおよび説明表現付加方法に関する。
近年、TV番組やDVDなどの映像コンテンツに対して、その感想や意見などのテキスト(アノテーション)をコメント情報として記述してブログ機能や掲示板機能などを用いてネットワーク上で公開する手法が多く採られている。このように映像コンテンツに対する感想や意見などのコメント情報をブログ機能や掲示板機能などを用いて多数の人に公開することができることにより、映像コンテンツを視聴しながら多数の人とコメント情報を介したコミュニケーションを図ることができる。
しかしながら、コメント情報をテキストとして記述する場合、映像コンテンツを再生しながら気になったシーンについてのテキストを記述する場合が多く、テキストを書いている間に次のシーンを見逃してしまう、テキストを書くたびに一時停止していると映像コンテンツにのめりこめない、などの問題がある。
そこで、コメント情報をテキストとして記述する場合においては、映像コンテンツの視聴中は気になったシーンをブックマークするだけにとどめ、映像コンテンツについての視聴が終わった後でブックマークを利用してコメント情報(テキスト)を記述する、ということが行われている。
一方、映像コンテンツに対するコメント情報内に、当該映像コンテンツのシーンへのリンクを埋め込むことにより、どのシーンについてのコメントなのかを明確に閲覧者に伝える手法も採られている(例えば、特許文献1参照)。この技術によれば、シーンについてのテキストが映像再生と連動して表示されるため、閲覧者は、映像コンテンツの視聴中に視聴しているシーンに対する感想や意見などのテキストを閲覧することができる。
特開2004−364184号公報
ところで、映像コンテンツについての視聴が終わった後でブックマークを利用して映像コンテンツに対する感想や意見などのテキストを記述する場合において、ブックマークとして時刻情報しか提示しない場合には、ブックマーク(時刻情報)がどのシーンであったかを判別することができる確率は低い。一方、ブックマークとして時刻情報に加えてサムネイル画像も提示する場合には、ブックマーク(時刻情報およびサムネイル画像)がどのシーンであったかを判別することができる確率は高くなる。すなわち、この場合、サムネイル画像が特徴的な人物や背景が映るサムネイル画像であれば判別し易くなる。しかしながら、必ずしも特徴的なサムネイル画像であるとは限らないため、ブックマーク(時刻情報およびサムネイル画像)がどのシーンであったかを判別することができないこともある。このようにブックマーク(時刻情報およびサムネイル画像)がどのシーンであったかを判別することができない場合には、ユーザはブックマークを1つ1つ確認して所望のシーンを探さなければならず、利便性が損なわれる。
一方、特許文献1に記載のようにコメント情報内に映像コンテンツのシーンへのリンクを埋め込む場合においては、シーンの詳細についてはリンク先に進めば良いため、リンク先のシーンの説明が記載されないことが多い。そのため、他のユーザが映像コンテンツに対する感想や意見などのテキストを読む場合には、リンクがどのシーンについてのものであるかを一瞥しただけでは分かりにくい、という問題がある。
本発明は、上記に鑑みてなされたものであって、視聴中にブックマークしたシーンに対する感想や意見などの書き込みを容易にするとともに、書き込んだテキストと映像コンテンツとを同期させて読みやすくし、映像コンテンツを通じたコミュニケーションを活性化することができる説明表現付加装置、プログラムおよび説明表現付加方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の説明表現付加装置は、映像コンテンツの所定時刻のシーンと当該シーンの特徴を表すメタ情報の集合との組み合わせであるシーンメタ情報を格納する格納手段と、複数の前記シーンを含むシーン集合を入力する入力手段と、前記シーン集合に含まれる各シーンに対応するメタ情報の集合を前記シーンメタ情報から検索する検索手段と、前記シーン集合に含まれる各シーンに対応する前記メタ情報の集合に含まれる前記各メタ情報間の距離が最大となる組み合わせを、前記各シーンを区別するための説明である説明表現として選択して前記シーン毎に付加する付加手段と、を備えることを特徴とする。
また、本発明のプログラムは、映像コンテンツの所定時刻のシーンと当該シーンの特徴を表すメタ情報の集合との組み合わせであるシーンメタ情報を記憶部に格納する格納機能と、入力部を介して受け付けた複数の前記シーンを含むシーン集合を入力する入力機能と、前記シーン集合に含まれる各シーンに対応するメタ情報の集合を、前記記憶部に格納されている前記シーンメタ情報から検索する検索機能と、前記シーン集合に含まれる各シーンに対応する前記メタ情報の集合に含まれる前記各メタ情報間の距離が最大となる組み合わせを、前記各シーンを区別するための説明である説明表現として選択して前記シーン毎に付加する付加機能と、をコンピュータに実行させることを特徴とする。
また、本発明の説明表現付加方法は、映像コンテンツの所定時刻のシーンと当該シーンの特徴を表すメタ情報の集合との組み合わせであるシーンメタ情報を記憶部に格納する格納工程と、入力部を介して受け付けた複数の前記シーンを含むシーン集合を入力する入力工程と、前記シーン集合に含まれる各シーンに対応するメタ情報の集合を、前記記憶部に格納されている前記シーンメタ情報から検索する検索工程と、前記シーン集合に含まれる各シーンに対応する前記メタ情報の集合に含まれる前記各メタ情報間の距離が最大となる組み合わせを、前記各シーンを区別するための説明である説明表現として選択して前記シーン毎に付加する付加工程と、を含むことを特徴とする。
本発明によれば、複数のシーンを含むシーン集合、例えば映像コンテンツを視聴中にブックマークしたシーンの集合が入力された場合に、当該シーン集合の各シーンに対応する当該シーンの特徴を表すメタ情報の集合における各メタ情報間の距離が最大となる組み合わせを、各シーンを区別するための説明である説明表現として選択し、シーン集合に含まれるシーン毎に選択された説明表現を当該シーン毎に付加する。これにより、各シーン同士を区別することができる説明表現をそれぞれのシーンに付加することができるので、視聴中にブックマークしたシーンに対する感想や意見などの書き込みを容易にすることができるとともに、書き込んだテキストと映像コンテンツとを同期させて読みやすくすることができるので、映像コンテンツを通じたコミュニケーションを活性化することができる、という効果を奏する。
以下に添付図面を参照して、この発明にかかる説明表現付加装置、プログラムおよび説明表現付加方法の最良な実施の形態を詳細に説明する。
[第1の実施の形態]
本発明の第1の実施の形態を図1ないし図22に基づいて説明する。
[1.システムの構成]
図1は、本発明の第1の実施の形態にかかるコメント閲覧システム100のシステム構築例を示す模式図である。コメント閲覧システム100は、映像コンテンツへのリンクを持つコメントを共有するシステムであって、図1に示すように、ユーザ間で共有する映像コンテンツへのリンクを持つコメントを蓄積するサーバコンピュータであるコメント蓄積装置1に対してIP(Internet Protocol)を利用したインターネットなどのネットワーク2を介して、ユーザが映像コンテンツへのリンクを持つコメントを書くためのクライアントコンピュータであるコメント作成閲覧装置3が複数台接続されたサーバクライアントシステムを想定する。加えて、本実施の形態においては、ユーザがコメントを書く際にブックマークしたシーンなどに説明表現を付加する機能を発揮する説明表現付加装置4がネットワーク2に接続されている。
コメント蓄積装置1、コメント作成閲覧装置3および説明表現付加装置4は、例えば、一般的なパーソナルコンピュータである。なお、実際には、コメント蓄積装置1およびコメント作成閲覧装置3は、より多く存在しているが、図1では説明を簡素化するために、1台のコメント蓄積装置1と2台のコメント作成閲覧装置3とを示している。コメント蓄積装置1は、インターネットでの掲示板サーバやブログサーバとして実現されていても良い。
図2は、コメント閲覧システム100を構成する各装置のモジュール構成図である。コメント蓄積装置1、コメント作成閲覧装置3および説明表現付加装置4は、情報処理を行うCPU(Central Processing Unit)101、BIOSなどを記憶した読出し専用メモリであるROM(Read Only Memory)102、各種データを書換え可能に記憶するRAM(Random Access Memory)103、各種データベースとして機能するとともに各種のプログラムを格納するHDD(Hard Disk Drive)104、記憶媒体110を用いて情報を保管したり外部に情報を配布したり外部から情報を入手するためのDVDドライブ等の媒体駆動装置105、ネットワーク2を介して外部の他のコンピュータと通信により情報を伝達するための通信制御装置106、処理経過や結果等を操作者に表示するCRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等の表示部107、並びに操作者がCPU101に命令や情報等を入力するためのキーボードやマウス等のポインティングデバイスである入力部108等から構成されており、これらの各部間で送受信されるデータをバスコントローラ109が調停して動作する。
このようなコメント蓄積装置1、コメント作成閲覧装置3および説明表現付加装置4では、オペレータが電源を投入するとCPU101がROM102内のローダーというプログラムを起動させ、HDD104よりOS(Operating System)というコンピュータのハードウェアとソフトウェアとを管理するプログラムをRAM103に読み込み、このOSを起動させる。このようなOSは、オペレータの操作に応じてプログラムを起動したり、情報を読み込んだり、保存を行ったりする。OSのうち代表的なものとしては、Windows(登録商標)、UNIX(登録商標)等が知られている。これらのOS上で走る動作プログラムをアプリケーションプログラムと呼んでいる。なお、アプリケーションプログラムは、所定のOS上で動作するものに限らず、後述の各種処理の一部の実行をOSに肩代わりさせるものであってもよいし、所定のアプリケーションソフトやOSなどを構成する一群のプログラムファイルの一部として含まれているものであってもよい。
ここで、コメント蓄積装置1は、アプリケーションプログラムとして、コメント蓄積プログラムをHDD104に記憶している。この意味で、HDD104は、コメント蓄積プログラムを記憶する記憶媒体として機能する。
コメント作成閲覧装置3は、アプリケーションプログラムとして、コメント作成閲覧プログラムをHDD104に記憶している。この意味で、HDD104は、コメント作成閲覧プログラムを記憶する記憶媒体として機能する。
説明表現付加装置4は、アプリケーションプログラムとして、説明表現付加プログラムをHDD104に記憶している。この意味で、HDD104は、説明表現付加プログラムを記憶する記憶媒体として機能する。
一般的には、コメント蓄積装置1、コメント作成閲覧装置3および説明表現付加装置4のHDD104にインストールされるアプリケーションプログラムは、CD−ROMやDVDなどの各種の光ディスク、各種光磁気ディスク、フレキシブルディスクなどの各種磁気ディスク、半導体メモリ等の各種方式のメディア等の記憶媒体110に記録され、この記憶媒体110に記録された動作プログラムがHDD104にインストールされる。このため、CD−ROM等の光情報記録メディアやFD等の磁気メディア等の可搬性を有する記憶媒体110も、アプリケーションプログラムを記憶する記憶媒体となり得る。さらには、アプリケーションプログラムは、例えば通信制御装置106を介して外部から取り込まれ、HDD104にインストールされても良い。
コメント蓄積装置1は、OS上で動作するコメント蓄積プログラムが起動すると、このコメント蓄積プログラムに従い、CPU101が各種の演算処理を実行して各部を集中的に制御する。コメント作成閲覧装置3は、OS上で動作するコメント作成閲覧プログラムが起動すると、このコメント作成閲覧プログラムに従い、CPU101が各種の演算処理を実行して各部を集中的に制御する。説明表現付加装置4は、OS上で動作する説明表現付加プログラムが起動すると、この説明表現付加プログラムに従い、CPU101が各種の演算処理を実行して各部を集中的に制御する。コメント蓄積装置1、コメント作成閲覧装置3および説明表現付加装置4のCPU101が実行する各種の演算処理のうち、本実施の形態の特長的な処理について以下に説明する。
ここで、図3はコメント閲覧システム100の機能構成を示す構成図である。
コメント作成閲覧装置3は、図3に示すように、コメント作成閲覧プログラムに従うことにより、コメント作成部13と、通信部14と、コンテンツ蓄積部15と、コメント同期再生部16とを備える。コメント作成部13は、ユーザが映像コンテンツへのリンクを持つコメント情報を作成する機能を発揮する。通信部14は、コメント蓄積装置1および説明表現付加装置4と通信する機能を発揮する。コメント作成閲覧装置3のコンテンツ蓄積部15は、データベースとして機能するHDD104に映像コンテンツ情報を蓄積する機能を発揮する。図4は、コンテンツ蓄積部15に蓄積されるコンテンツ情報のデータ構成の一例を示す模式図である。図4に示すように、例えば映像コンテンツM1はタイトルが「ローマの休日」であり、TV番組であったことを表している。コンテンツ識別子は、本放送・再放送の差、TV番組とDVDの差など、映像コンテンツ自体は同一とみなせる場合は同じであってもよい。コメント同期再生部16は、通信部14でコメント蓄積装置1から受信したコメント情報と映像コンテンツを同期させて表示する機能を発揮する。
コメント蓄積装置1は、コメント蓄積プログラムに従うことにより、通信部11と、コメント蓄積部12とを備える。通信部11は、コメント作成閲覧装置3および説明表現付加装置4と通信する機能を発揮する。コメント蓄積部12は、各コメント作成閲覧装置3で作成されたコメント情報を蓄積する機能を発揮する。図5は、コメント蓄積部12に蓄積されるコメント情報のデータ構成の一例を示す模式図である。図5に示すように、コメント識別子C1は、06/10/01 10:00にA郎が「ドレスのスカートの下では靴を脱いで足を遊ばせている[M1,00:04:38]」という内容でコメント蓄積場所B1に投稿したことを表している。また、コメント本文に含まれる[M1,00:04:38]というシーンリンクは映像コンテンツM1の時刻00:04:38というシーンに言及している。
説明表現付加装置4は、説明表現付加プログラムに従うことにより、通信部41と、説明表現付加部42とを備える。通信部41は、コメント蓄積装置1およびコメント作成閲覧装置3と通信する機能を発揮する。説明表現付加部42は、そのシーンに何が映っているかというメタ情報をシーン毎のラベル集合という形で付加し、付加したラベル集合を用いてユーザがブックマークしたシーンなどに説明表現を付加する機能を発揮する。より詳細には、説明表現付加部42は、それぞれのシーンに付加されたラベル集合に対してラベル同士の距離(メタ情報間の距離)を計算し、ラベル同士の距離が最大となる組み合わせを説明表現として選択することで、シーン同士が区別できる理解しやすい説明をそれぞれのシーンに付加することを実現する。
[2.コメント作成閲覧装置3のコメント作成機能]
まず、コメント作成閲覧装置3のコメント作成機能について説明する。コメント作成閲覧装置3のコメント作成部13は、図6に示すような画面50を表示部107に表示させることにより、ユーザが映像コンテンツへのリンクを持つコメントを書くための書き込みUI(User Interface)機能を提供している。
図6に示すように、画面50には、コンテンツ表示部51、コンテンツ操作部52、テキスト情報編集部53、「送信」ボタン54、「リンク挿入」ボタン55を備えている。
コンテンツ表示部51は、コンテンツ蓄積部15によりHDD104に蓄積された映像コンテンツデータの再生を行い、ユーザに映像コンテンツを閲覧させる部分である。
コンテンツ操作部52は、コンテンツ表示部51において映像コンテンツを再生させたり一時停止させたり、再生速度を変化させる操作を行う部分である。
テキスト情報編集部53は、コンテンツ表示部51に表示される映像コンテンツデータに付加しようとするコメント(アノテーション)となるテキスト情報をユーザに入力させるとともに、コメントとなるテキスト情報を表示するためのものである。ここで、アノテーションとは、映像コンテンツに対して加えていく「注釈」のようなものである。例えば、映像コンテンツに対して「女性が泣いているシーンは、感動した。」のような情報が、付加される。すなわち、入力部108などにより入力された文字がテキスト情報編集部53に表示される。そして、最終的に入力を確定する場合には、「送信」ボタン54を入力部108などにより押す。これにより、入力された文字列(コメント情報)は、時刻情報等と共にネットワーク2を通じてコメント蓄積装置1に転送される。
また、「リンク挿入」ボタン55は、映像コンテンツのシーンへのリンクをテキスト情報に挿入する際に用いるものである。より具体的には、ユーザはコンテンツ操作部52で映像コンテンツの再生時刻を操作し、シーンへのリンクを挿入したい時刻を表示させ、「リンク挿入」ボタン55を選択することにより、テキスト情報編集部53のカーソルの位置にシーンへのリンクを挿入することができる。このようなシーンのリンクは、図4ではアイコンであるシーンリンク60として表示されている。
ここで、シーンリンク60は、ユーザが「リンク挿入」ボタン55を選択することによりテキスト情報編集部53に挿入されるとしたが、これに限るものではなく、ユーザがテキスト情報を記入する際に、コンテンツ表示部51に表示されていたシーンをシーンリンク60としても良い。例えば、ユーザは映像コンテンツの再生をコンテンツ操作部52によって一時停止し、そのシーンについてのテキスト情報を入力部108などにより記入する。この場合、記入されたテキスト情報はそのシーンへのシーンリンク60と関連付けられてコメントとして作成される。つまり、ユーザが、一時停止をしてテキスト情報を記入し始めた場合に、その先頭に一時停止しているシーンへのシーンリンク60を挿入する。この場合、「リンク挿入」ボタン55は必ずしも必要ない。
このようなシーンリンク60は、映像コンテンツを同定することができるコンテンツIDと、映像コンテンツのリンク先の時刻情報とを有している。このシーンリンク60の例を図7に示す。図7に示すように、シーンリンク60は、コンテンツID601、代表時刻602、開始時刻603、終了時刻604からなっている。この例では、コンテンツID601が“1234”を持つ映像コンテンツの先頭から12000ミリ秒から開始して、先頭から20000ミリ秒で終了するシーンへのリンクであり、代表となるシーンは先頭から15000ミリ秒であることがわかる。この代表となるシーンである代表時刻602は、シーンリンク60をアイコンで表示する代わりにシーンのサムネイル(縮小画像)で表示する場合の時刻として利用することができる。
なお、図7の例では、代表時刻602、開始時刻603、終了時刻604の3つの時刻を指定しているが、これらは同一の時刻でも良い。これらが同一の時刻である場合には、後述する映像コンテンツとコメントを同期させて表示する場合に、シーンを開始する時刻として用いれば良い。また、この場合は、シーンリンク60は、この代表時刻602、開始時刻603、終了時刻604のどれか1つだけで構成されていても良い。
以上のようにして生成されるコメント情報の例は、図6のテキスト情報編集部53にあるような映像コンテンツへのシーンリンク60を持つコメント情報となる。そして、ユーザは、映像コンテンツへのシーンリンクを持つコメント情報が完成すると、コメント情報の送信を宣言する「送信」ボタン54を入力部108などで選択してコメント情報をコメント蓄積装置1に送信する。
[3.説明表現付加装置4の説明表現付加部42の説明]
次に、本実施の形態において特徴的な機能を発揮する説明表現付加装置4の説明表現付加部42について詳述する。ここで、図8は説明表現付加部42の構成を示すブロック図、図9は説明表現付加部42におけるシーンメタデータ抽出処理の流れを示すフローチャートである。
図8に示すように、説明表現付加部42は、コメント収集部21と、テキスト切出し部22と、シーン抽出部23と、単語の重み付け部24と、ラベル抽出部25と、シーンメタ情報格納部26と、シーンメタ情報DB27と、シーン集合入力部28と、シーンラベル検索部29と、シーンラベル付加部30と、嗜好情報DB31と、シーン説明表現表示部32とを備えている。
コメント収集部21は、映像コンテンツへのシーンリンク(映像コンテンツIDと時刻情報)を持つコメント情報をネットワーク2上の各コメント蓄積装置1から収集する(図9のステップS1)。図10は、コメント蓄積場所情報のデータ構成の一例を示す模式図である。図10に示すように、コメント蓄積場所B1はタイトルが「掲示板P」であり、URLとして「http://ppp.ppp.ppp.ppp/」にアクセスするとコメント情報を取得できることを表している。コメント収集部21は、図11のフローチャートに示すように、ネットワーク2上のコメント蓄積場所であるコメント蓄積装置1を検索し(ステップS11)、コメント蓄積場所がある場合には(ステップS12のYes)、コメント蓄積場所からコメント情報を検索する(ステップS13)。検索されたコメント蓄積場所にコメント情報がある場合には(ステップS14のYes)、コメント情報の本文に含まれるシーンリンクを検索し(ステップS15)、シーンリンクがある場合には、(ステップS16のYes)、映像コンテンツへのシーンリンク(映像コンテンツIDと時刻情報)を持つコメント情報を収集する(ステップS17)。全てのコメント蓄積場所の全てのコメント情報についてステップS13〜S17の処理を実行した場合には(ステップS12のNo)、処理を終了する。
テキスト切出し部22は、収集した映像コンテンツへのシーンリンクを持つコメントに含まれるすべてのシーンリンク周辺の部分的なテキスト情報の切り出しを行なう(図9のステップS2)。シーンリンク周辺のテキスト情報の切り出し方法としては、単純にシーンリンクの前後のn個の単語を切り出す、シーンリンクが含まれる一文を切り出すなどのさまざま方法が考えられる。例えば、シーンリンクの前に「・・・ドレスのスカートの下では、靴を脱いで足を遊ばせている。」というテキスト情報がある場合において、単純にシーンリンクの前後の5単語を切り出す方法では、「を遊ばせている」が切り出される。
シーン抽出部23は、物理的には異なるが論理的には同一であると考えられるシーンを同じシーンとしてまとめて抽出する(図9のステップS3)。シーン抽出部23におけるシーンの同一性判定は、時刻の差を用いてもよいし、切り出した部分的なテキスト情報に含まれる単語集合の類似度を用いてもよい。
単語の重み付け部24は、シーン抽出部23によってまとめられたシーンに関連した部分的なテキスト情報の形態素解析や意味クラス解析を行い、シーン毎の単語の重みの集計を行なう(図9のステップS4)。単語の重み付け部24による単語の重み付けは、単純に出現頻度を元に計算してもよいし、単語の品詞や意味クラスによってあらかじめ設定しておいてもよい。また、そのシーンに出現する別の単語との共起や「○○のシーン」のようにシーンの説明などの場合には、重み付けを補正するようにしても良い。また、同義語はまとめてしまってもよい。
ここで、図12はシーン毎の単語情報の一例を示す模式図である。図12に示すように、シーン識別子が付与されたシーン毎の単語情報には、単語の出現頻度および単語の重みが関連付けられている。また、図12に示す例では、シーン毎の単語情報に対して単語の品詞を関連付けられている。
ラベル抽出部25は、シーン毎に単語の重み付け部24で集計された単語の重みが予め設定された閾値を超える単語を、そのシーンのラベルとして抽出する(図9のステップS5)。例えば、図12に示すシーン毎の単語情報の一例に対して、“3.0”という閾値を設定した場合、シーンS1のラベルは「アン」「靴」となる。
シーンメタ情報格納部26は、ラベル抽出部25で抽出したシーンとラベル集合の組み合わせをシーンメタ情報としてシーンメタ情報DB27に格納する(図9のステップS6)。
ここで、図13はシーンメタ情報の一例を示す模式図である。図13は映像コンテンツM2に付加されたシーンメタ情報の例である。例えば、ラベル“人物1”が「アン」である場合、図12に示したようなシーンS1、S2、S3・・・が抽出されることになる。なお、図13に示すように、それぞれのシーンは、一般に、点ではなく幅を持った区間となる。また、図13に示す例では、名詞である単語が背景、人物、場所、事物などに区別されており、そのシーンで映っているのが人物なのか、場所なのかというように、どのような観点でとらえるかによって、同一時刻に対するラベルは一般に複数存在することになる。
次に、シーンメタ情報(シーンとラベル集合の組み合わせ)を用いてユーザがブックマークしたシーンなどに説明表現を付加する説明表現付加処理について図14のフローチャートを参照しつつ説明する。
シーン集合入力部28は、コメント作成閲覧装置3から説明表現を付加したいシーン集合の入力を受け付ける(図14のステップS21)。
説明表現を付加したいシーン集合が与えられると、シーンラベル検索部29は、当該シーン集合に含まれるシーンに対応するラベル集合をシーンメタ情報DB27から検索する(図14のステップS22)。
図15は、図13のシーンメタ情報からのラベル集合の検索例を示す模式図である。図15は、図13のシーンメタ情報がシーンメタ情報DB27に格納されている場合に、説明表現を付加したいシーン集合として[M2,00:35:00],[M2,01:10:00],[M2,1:40:00]が与えられたときの検索例である。図15に示すように、映像コンテンツM2の時刻00:35:00というシーンからは[背景2,人物1,場所1]というラベル集合が検索され、時刻01:10:00というシーンからは[背景2,人物1,人物3,人物4,場所2,事物2]というラベル集合が検索される。
シーンラベル付加部30は、シーンラベル検索部29で検索されたシーンとラベル集合の組み合わせに基づき、シーン集合に含まれるシーン毎に差分の大きなラベルを選択して付加する(図14のステップS23)。ここで、ラベル同士の距離は、品詞や意味クラスなどのラベルの分類クラスを元に計算する方法やユーザの嗜好情報を用いる方法などさまざまなものが考えられる。以下では、ラベルの分類クラスと嗜好情報DB31に格納されているユーザの嗜好情報を用いたシーンラベル付加処理の例を説明する。
図16は、シーンラベル付加部30におけるシーンラベル付加処理の流れを示すフローチャートである。図16に示すように、シーンラベル付加処理においては、まず、シーンとラベル集合からシーン、分類クラス、ラベルの組み合わせからなる表Xを初期化する(ステップS31)。この表Xは、後でシーンの説明表現として付加するラベルを選択するための入力として用いられる。
次いで、シーンラベル検索部29で検索されたシーンとラベル集合の組み合わせを1つずつ取得し、ラベル集合に含まれるラベルがどの分類クラスに属するかを判定して、シーンと分類クラスとラベルの組み合わせを表Xに追加していく(ステップS32)。例えば、図15に示すシーンとラベル集合の組み合わせの場合、それぞれのラベルは「背景」「人物」「場所」「事物」といった分類クラスに属しているので、表Xは図17に示すようになる。
続いて、ラベル同士の距離がなるべく大きくなる組み合わせを選択するように全てのシーンにまたがって出現しているラベルを表Xから削除する(ステップS33)。図17に示す表Xの場合は、すべてのシーンにまたがって出現しているラベルが存在しないので、削除することはない。
なお、説明表現を付加したいシーン集合がコメントに含まれるシーンリンクのような場合は、シーン集合が「何」のシーンなのかをある程度記述していることがある。そのような場合も、「何」に相当するラベルを表Xから削除する。例えば、図18に示すように、「アン王女」の「笑顔」のシーンを集めていると判定できる場合は、それぞれのシーンに「アン王女」「笑顔」のラベルが付加されているのは明らかなので、表Xから削除してもよい。
ステップS33の処理により表Xが空になってしまった場合は(ステップS34のYes)、説明表現を付加したいシーン集合が残っているにもかかわらず説明表現として追加すべきラベルがなくなってしまったことを意味している。そのため、表Xが空になってしまった場合は(ステップS34のYes)、残っているそれぞれのシーンの差分がないと考えて、「シーンその1」「シーンその2」といった連番を付けるようにしてもよい。あるいは、残っているそれぞれのシーンの前後に特徴的なシーンが存在する場合は、そのシーンとの時間関係を利用して「○○のシーンの5分前」「××のシーンの3分後」といった時系列表現を付けるようにしてもよい。
ステップS33の処理により表Xが空でなかった場合は(ステップS34のNo)、表Xの最も多くのシーンにまたがる分類クラスCを1つ選択する(ステップS35)。なお、最も多くのシーンにまたがる分類クラスCが複数存在する場合は、ランダムに選択してもよいし、分類クラスに含まれるラベルの数やラベルに関連したシーンの幅、ラベルの重みなどを利用してもよい。あるいは、予め分類クラスの順序づけを設定しておいて、それを利用してもよい。例えば、シーンに映っている情報としては事物よりも人物のほうが情報量が多いと考えられるため、分類クラスの順序も事物より人物を優先するといった方法が考えられる。また、ユーザの嗜好情報が嗜好情報DB31に格納されていればそれを利用してもよい。例えば、あるユーザは人物よりも場所に注目しているということがわかっていれば、分類クラスの順序で人物より場所を優先するといった方法が考えられる。また、前回ユーザが選択した分類クラスやラベルを優先的に利用するといった方法も考えられる。図17に示す表Xの場合は、全てのシーンにまたがる分類クラスは「背景」「人物」「場所」であり、事物はすべてのシーンにはまたがっていないので、「背景」「人物」「場所」のどれかが選択されることになる。なお、図17に示す表Xの例では「人物」のような分類クラスを設定しているが、「俳優」「女優」「司会者」「○山×男」のようなより詳しい分類クラスであってもよい。このような場合、たとえばあるユーザは女優にしか興味がないということがわかっていれば、すべてのシーンの差分が女優の差によって表現されることになる。
続くステップS36では、ステップS35で選択された分類クラスCの中で最も少ないシーンにまたがるラベルLを1つ選択する。選択された分類クラスCの中で最も少ないシーンにまたがるラベルが複数存在する場合は、ラベルLをランダムに選択してもよいし、ラベルに関連したシーンの幅、ラベルの重みなどを利用してラベルLを選択してもよい。
ここで、ラベルLが1つのシーンSだけを特定しているとすると(ステップS37のYes)、そのシーンSはラベルLで特定できることになるので、シーンSの説明表現としてラベルLを付加対象にするとともに、表XからシーンSとラベルLを削除する(ステップS38)。
そして、表Xが空でない場合には(ステップS39のNo)、ステップS35に戻り、表Xの最も多くのシーンにまたがる分類クラスCを1つ選択する。これにより、他の残されたシーンにもシーン説明表現を付加していくことができる。例えば、図17に示す表Xの場合は、「場所」という分類クラスでは3種類のラベルがそれぞれのシーンに別れて付加されているため、この3つを説明表現として付加することで「場所1のシーン」、「場所2のシーン」、「場所3のシーン」のように区別できるようになる。
また、表Xが空である場合には(ステップS39のYes)、シーンラベル付加処理を終了する。
一方、ラベルLがシーン集合Ssにまたがっていたとすると(ステップS37のNo)、そのラベルLではシーン集合Ssに含まれるシーンはまだ特定できないことになるので、シーン集合Ssで最も多くのシーンにまたがる先ほど選択した分類クラスCとは異なる分類クラスC’を1つ選択し(ステップS40)、ステップS37に戻る。この処理を繰り返すことによって、シーン集合Ssに含まれるシーンにもシーン説明表現を付加していくことができる。
最後に、シーン説明表現表示部32について説明する。シーン説明表現表示部32は、UI(User Interface)を介してシーンSの説明表現として付加対象となったラベルLを提示する。
ここで、図19はブックマークしたシーンに説明表現を付加して提示した例を示す正面図である。図19に示すように、ブックマークしたシーンについて、時刻情報やサムネイル画像に加えてシーン説明表現を付加して提示することで、それぞれのシーンがどのような差分のもとでブックマークされたかを判別することができる。例えば、図19に示す例によれば、映像コンテンツM1(ローマの休日)における「アン王女のシーン」と「ジョーのシーン」をブックマークしていることを表している。
図20は、図19の2つのブックマークに新たに[M1,01:03:31]というシーンをブックマークした場合の例である。図20に示すように、ブックマークに新たなシーンを登録すると、それぞれのシーンが区別できるように新たな差分を説明する表現に修正され、表示される。これにより、既にブックマークされていたシーンの説明表現も適宜詳しくなっていく。例えば、図20に示す例の場合、新たにブックマークしたシーンも「アン王女」に関するシーンであるため、もともと「アン王女のシーン」という説明が付加されていた[M1,00:04:40]というシーンの説明表現は「アン王女の靴のシーン」というより詳しい説明に修正される。そのためブックマークにシーンが追加されるたびに、それぞれのシーンの説明がより詳しく提示されるようになっていく。
以上のようにして生成されたユーザがブックマークしたシーンと当該シーンに対するメタ情報である説明表現とを関連付けた表Xは、コメント蓄積装置1およびコメント作成閲覧装置3に送信される。
[実施例]
ここでコメント作成閲覧装置3における説明表現の具体的な表示処理について具体例を挙げて説明する。例えば、図21に示すように、コメント作成閲覧装置3の表示部107に表示された画面50のテキスト情報編集部53において、シーンリンクがいくつも埋め込まれたコメントを読むときに、アイコンとして表示されたシーンリンク60の上にマウス(入力部108)のポインタを置いたときの動作の例である。この場合、説明表現を付加したいシーン集合がコメント作成閲覧装置3から説明表現付加装置4へ送られ、説明表現付加装置4の説明表現付加部42がブックマークしたシーンに対して説明表現を関連付けた表Xを生成した後、UIを介してコメント作成閲覧装置3に説明表現が提示される。より具体的には、図21に示すように、選択されたシーンリンク60の近くに、説明表現付加装置4において生成された表Xで当該シーンリンク60に関連付けられた説明表現70をポップアップ表示してやることで、それぞれのシーンがどのような差分のもとでリンクされたかを判別することができる。また、図22に示すように、コメント本文の一部や全部を選択状態にしてやれば、選択された部分に含まれるシーンリンク60の説明表現70を同じようにポップアップ表示してやることで、それぞれのシーンがどのような差分のもとでリンクされたかを判別することができる。
このように本実施の形態によれば、複数のシーンを含むシーン集合、例えば映像コンテンツを視聴中にブックマークしたシーンの集合が入力された場合に、当該シーン集合の各シーンに対応する当該シーンの特徴を表すメタ情報の集合における各メタ情報間の距離が最大となる組み合わせを、各シーンを区別するための説明である説明表現として選択し、シーン集合に含まれるシーン毎に選択された説明表現を当該シーン毎に付加する。これにより、各シーン同士を区別することができる説明表現をそれぞれのシーンに付加することができるので、視聴中にブックマークしたシーンに対する感想や意見などの書き込みを容易にすることができるとともに、書き込んだテキストと映像コンテンツとを同期させて読みやすくし、映像コンテンツを通じたコミュニケーションを活性化することができる。
また、本実施の形態によれば、映像コンテンツのシーンの特徴を表すメタ情報(そのシーンに何が映っているかというメタ情報)を、コメント情報のシーンリンク(シーンへ言及するために埋め込まれたリンク)周辺のテキストからシーン毎のラベル集合という形で抽出することができる。
[第2の実施の形態]
次に、本発明の第2の実施の形態を図23および図24に基づいて説明する。なお、前述した第1の実施の形態と同じ部分は同じ符号で示し説明も省略する。
第1の実施の形態においては、説明表現付加装置4が、コメント蓄積装置1やコメント作成閲覧装置3にネットワーク接続された状態でシーンとテキストの組み合わせを収集する場合を想定したが、本実施の形態においては、シーンとテキストの組み合わせをクローズドキャプション(Closed captioning:字幕放送)やEPG(Electronic Program Guide)から収集する場合について想定したものである。
図23は、本発明の第2の実施の形態にかかる説明表現付加部42におけるシーンメタデータ抽出処理の流れを示すフローチャートである。図23に示すように、コメント収集部21は、映像コンテンツとともに放送波に載って送信されてくるクローズドキャプション情報を収集する(ステップS1’)。ここで、図24はクローズドキャプション情報のデータ構成の一例を示す模式図である。図24に示すように、クローズドキャプション情報は、字幕スーパーを時刻で管理したものである。
次いで、テキスト切出し部22は、収集したクローズドキャプション情報に含まれるテキスト情報の切り出しを行なう(ステップS2’)。より詳細には、テキスト切出し部22は、話題分割技術を用いてシーンや話題が切り替わるところを検出し、シーンとテキストの組み合わせの切り出しを行なう。例えば、図24に示すクローズドキャプションは、ローマの休日の真実の口のシーンであるが、アン王女のセリフの区間は「アン王女のシーン」、ジョーのセリフの区間は「ジョーのシーン」のように切り出される。
ステップS3以降の処理については第1の実施の形態と同様の処理になるので、ここでの説明は省略する。
このように本実施の形態によれば、映像コンテンツのシーンの特徴を表すメタ情報(そのシーンに何が映っているかというメタ情報)を、クローズドキャプションやEPGなどから、シーン毎のラベル集合という形で抽出することができる。
本発明の第1の実施の形態にかかるコメント閲覧システムのシステム構築例を示す模式図である。 システムを構成する各装置のモジュール構成図である。 システムの機能構成を示す構成図である。 コンテンツ情報のデータ構成の一例を示す模式図である。 コメント情報のデータ構成の一例を示す模式図である。 書き込みUIを示す正面図である。 シーンリンクが持つ情報の例を示す模式図である。 説明表現付加部の構成を示すブロック図である。 シーンメタデータ抽出処理の流れを示すフローチャートである。 コメント蓄積場所情報のデータ構成の一例を示す模式図である。 コメント収集処理の流れを示すフローチャートである。 シーン毎の単語情報の一例を示す模式図である。 シーンメタ情報の一例を示す模式図である。 説明表現付加処理の流れを示すフローチャートである。 図13のシーンメタ情報からのラベル集合の検索例を示す模式図である。 シーンラベル付加処理の流れを示すフローチャートである。 表の一例を示す模式図である。 シーンリンクの説明がコメントにある例を示す説明図である。 ブックマークしたシーンに説明表現を付加して提示した例を示す正面図である。 新たにブックマークした例を示す正面図である。 説明表現の具体的な表示処理について具体例を示す説明図である。 説明表現の具体的な表示処理について具体例を示す説明図である。 本発明の第2の実施の形態にかかるシーンメタデータ抽出処理の流れを示すフローチャートである。 クローズドキャプション情報のデータ構成の一例を示す模式図である。
符号の説明
4 説明表現付加装置
21 収集手段
22 切出し手段
23 抽出手段
24 重み付け手段
25 抽出手段
26 格納手段
28 入力手段
29 検索手段
30 選択手段
32 付加手段

Claims (12)

  1. 映像コンテンツの所定時刻のシーンと当該シーンの特徴を表すメタ情報の集合との組み合わせであるシーンメタ情報を格納する格納手段と、
    複数の前記シーンを含むシーン集合を入力する入力手段と、
    前記シーン集合に含まれる各シーンに対応するメタ情報の集合を前記シーンメタ情報から検索する検索手段と、
    前記シーン集合に含まれる各シーンに対応する前記メタ情報の集合に含まれる前記各メタ情報間の距離が最大となる組み合わせを、前記各シーンを区別するための説明である説明表現として選択して前記シーン毎に付加する付加手段と、
    を備えることを特徴とする説明表現付加装置。
  2. 前記シーンに係る所定時刻と当該所定時刻の前記シーンに係る前記テキスト情報を収集する収集手段と、
    収集した前記テキスト情報から部分的なテキスト情報の切り出しを行なう切出し手段と、
    収集した前記各シーンの内、物理的には異なるが論理的には同一であると考えられる前記シーンを同一シーンとしてまとめて抽出する抽出手段と、
    同一シーンとしてまとめて抽出された前記シーンに係る前記部分的なテキスト情報を解析して、前記シーン毎の前記部分的なテキスト情報に含まれる単語情報に対する重み付けを行なう重み付け手段と、
    予め設定された閾値を超える前記単語情報を、当該単語情報に係る前記シーンの前記メタ情報として抽出する抽出手段と、
    を備えることを特徴とする請求項1記載の説明表現付加装置。
  3. 前記収集手段で収集される前記テキスト情報は、ネットワーク上のコメント蓄積装置に蓄積される前記映像コンテンツの所定時刻のシーンに係るテキスト情報を含むコメント情報である、
    ことを特徴とする請求項2記載の説明表現付加装置。
  4. 前記収集手段で収集される前記テキスト情報は、前記映像コンテンツの所定時刻のシーンに係るテキスト情報であるクローズドキャプション(Closed captioning:字幕放送)である、
    ことを特徴とする請求項2記載の説明表現付加装置。
  5. 前記収集手段で収集される前記テキスト情報は、前記映像コンテンツの所定時刻のシーンに係るテキスト情報であるEPG(Electronic Program Guide)である、
    ことを特徴とする請求項2記載の説明表現付加装置。
  6. 前記選択手段は、予め順序付けされている前記メタ情報の分類クラスの順に、前記各メタ情報間の距離を算出する、
    ことを特徴とする請求項2記載の説明表現付加装置。
  7. 前記選択手段は、ユーザ嗜好により予め順序付けされている前記メタ情報の分類クラスの順に、前記各メタ情報間の距離を算出する、
    ことを特徴とする請求項2記載の説明表現付加装置。
  8. 前記付加手段は、前記シーン集合に含まれる各シーンに対応する前記メタ情報の集合に含まれる前記各メタ情報間の距離を計算し、前記各メタ情報間の距離が最大となる組み合わせを説明表現として選択する、
    ことを特徴とする請求項1記載の説明表現付加装置。
  9. 映像コンテンツの所定時刻のシーンと当該シーンの特徴を表すメタ情報の集合との組み合わせであるシーンメタ情報を記憶部に格納する格納機能と、
    入力部を介して受け付けた複数の前記シーンを含むシーン集合を入力する入力機能と、
    前記シーン集合に含まれる各シーンに対応するメタ情報の集合を、前記記憶部に格納されている前記シーンメタ情報から検索する検索機能と、
    前記シーン集合に含まれる各シーンに対応する前記メタ情報の集合に含まれる前記各メタ情報間の距離が最大となる組み合わせを、前記各シーンを区別するための説明である説明表現として選択して前記シーン毎に付加する付加機能と、
    をコンピュータに実行させることを特徴とするプログラム。
  10. 前記シーンに係る所定時刻と当該所定時刻の前記シーンに係る前記テキスト情報を収集する収集機能と、
    収集した前記テキスト情報から部分的なテキスト情報の切り出しを行なう切出し機能と、
    収集した前記各シーンの内、物理的には異なるが論理的には同一であると考えられる前記シーンを同一シーンとしてまとめて抽出する抽出機能と、
    同一シーンとしてまとめて抽出された前記シーンに係る前記部分的なテキスト情報を解析して、前記シーン毎の前記部分的なテキスト情報に含まれる単語情報に対する重み付けを行なう重み付け機能と、
    予め設定された閾値を超える前記単語情報を、当該単語情報に係る前記シーンの前記メタ情報として抽出する抽出機能と、
    をコンピュータに実行させることを特徴とする請求項9記載のプログラム。
  11. 映像コンテンツの所定時刻のシーンと当該シーンの特徴を表すメタ情報の集合との組み合わせであるシーンメタ情報を記憶部に格納する格納工程と、
    入力部を介して受け付けた複数の前記シーンを含むシーン集合を入力する入力工程と、
    前記シーン集合に含まれる各シーンに対応するメタ情報の集合を、前記記憶部に格納されている前記シーンメタ情報から検索する検索工程と、
    前記シーン集合に含まれる各シーンに対応する前記メタ情報の集合に含まれる前記各メタ情報間の距離が最大となる組み合わせを、前記各シーンを区別するための説明である説明表現として選択して前記シーン毎に付加する付加工程と、
    を含むことを特徴とする説明表現付加方法。
  12. 前記シーンに係る所定時刻と当該所定時刻の前記シーンに係る前記テキスト情報を収集する収集工程と、
    収集した前記テキスト情報から部分的なテキスト情報の切り出しを行なう切出し工程と、
    収集した前記各シーンの内、物理的には異なるが論理的には同一であると考えられる前記シーンを同一シーンとしてまとめて抽出する抽出工程と、
    同一シーンとしてまとめて抽出された前記シーンに係る前記部分的なテキスト情報を解析して、前記シーン毎の前記部分的なテキスト情報に含まれる単語情報に対する重み付けを行なう重み付け工程と、
    予め設定された閾値を超える前記単語情報を、当該単語情報に係る前記シーンの前記メタ情報として抽出する抽出工程と、
    を含むことを特徴とする請求項11記載の説明表現付加方法。
JP2007082620A 2007-03-27 2007-03-27 説明表現付加装置、プログラムおよび説明表現付加方法 Expired - Fee Related JP4469868B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007082620A JP4469868B2 (ja) 2007-03-27 2007-03-27 説明表現付加装置、プログラムおよび説明表現付加方法
US12/049,767 US8931002B2 (en) 2007-03-27 2008-03-17 Explanatory-description adding apparatus, computer program product, and explanatory-description adding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007082620A JP4469868B2 (ja) 2007-03-27 2007-03-27 説明表現付加装置、プログラムおよび説明表現付加方法

Publications (2)

Publication Number Publication Date
JP2008242838A true JP2008242838A (ja) 2008-10-09
JP4469868B2 JP4469868B2 (ja) 2010-06-02

Family

ID=39794536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007082620A Expired - Fee Related JP4469868B2 (ja) 2007-03-27 2007-03-27 説明表現付加装置、プログラムおよび説明表現付加方法

Country Status (2)

Country Link
US (1) US8931002B2 (ja)
JP (1) JP4469868B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012155695A (ja) * 2011-01-07 2012-08-16 Kddi Corp 動画コンテンツにおける注目シーンにキーワードタグを付与するプログラム、端末、サーバ及び方法
JP2013501265A (ja) * 2009-07-31 2013-01-10 ヤフー! インコーポレイテッド ソーシャルネットワークの更新におけるメディアオブジェクトの一部分へのリンクのリアルタイムな提供
JP2013012885A (ja) * 2011-06-29 2013-01-17 Sony Corp サーバ装置、システム、プログラム及び処理方法
US9008489B2 (en) 2012-02-17 2015-04-14 Kddi Corporation Keyword-tagging of scenes of interest within video content

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011071309A2 (en) * 2009-12-09 2011-06-16 Samsung Electronics Co., Ltd. Method and apparatus for sharing comments regarding content
KR20120099836A (ko) * 2011-03-02 2012-09-12 삼성전자주식회사 이동통신 단말기에서 댓글을 공유하기 위한 장치 및 방법
EP2608431A1 (en) 2011-12-19 2013-06-26 Thomson Licensing Method for processing an audiovisual content and corresponding device
JP2014068290A (ja) * 2012-09-27 2014-04-17 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP6702657B2 (ja) * 2015-05-29 2020-06-03 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
US20170351678A1 (en) * 2016-06-03 2017-12-07 Facebook, Inc. Profile Suggestions

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
JP3996723B2 (ja) 1999-06-21 2007-10-24 株式会社日立製作所 画像表示方法および装置およびこれを利用した検索サービス
US7739601B1 (en) * 2002-01-23 2010-06-15 Microsoft Corporation Media authoring and presentation
EP2202977A1 (en) * 2002-04-12 2010-06-30 Mitsubishi Denki Kabushiki Kaisha Hint information describing method for manipulating metadata
JP3982460B2 (ja) 2003-06-06 2007-09-26 日本電信電話株式会社 コンテンツ連動型コメント表示方法、コメント表示システム、サーバ装置、コメント表示装置及びコメント表示プログラム及びコンピュータ読み取り可能な記録媒体
JP4270118B2 (ja) 2004-11-30 2009-05-27 日本電信電話株式会社 映像シーンに対する意味ラベル付与方法及び装置及びプログラム
JP4561453B2 (ja) * 2005-04-19 2010-10-13 株式会社日立製作所 記録再生装置、記録再生方法
US8196045B2 (en) * 2006-10-05 2012-06-05 Blinkx Uk Limited Various methods and apparatus for moving thumbnails with metadata

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013501265A (ja) * 2009-07-31 2013-01-10 ヤフー! インコーポレイテッド ソーシャルネットワークの更新におけるメディアオブジェクトの一部分へのリンクのリアルタイムな提供
JP2015005308A (ja) * 2009-07-31 2015-01-08 ヤフー! インコーポレイテッド ソーシャルネットワークの更新におけるメディアオブジェクトの一部分へのリンクのリアルタイムな提供
JP2012155695A (ja) * 2011-01-07 2012-08-16 Kddi Corp 動画コンテンツにおける注目シーンにキーワードタグを付与するプログラム、端末、サーバ及び方法
JP2013012885A (ja) * 2011-06-29 2013-01-17 Sony Corp サーバ装置、システム、プログラム及び処理方法
US9008489B2 (en) 2012-02-17 2015-04-14 Kddi Corporation Keyword-tagging of scenes of interest within video content

Also Published As

Publication number Publication date
US20080240671A1 (en) 2008-10-02
US8931002B2 (en) 2015-01-06
JP4469868B2 (ja) 2010-06-02

Similar Documents

Publication Publication Date Title
JP4469868B2 (ja) 説明表現付加装置、プログラムおよび説明表現付加方法
US10096145B2 (en) Method and system for assembling animated media based on keyword and string input
US9729907B2 (en) Synchronizing a plurality of digital media streams by using a descriptor file
US8392834B2 (en) Systems and methods of authoring a multimedia file
CN102483742B (zh) 用于管理因特网媒体内容的系统和方法
US6834371B1 (en) System and method for controlling synchronization of a time-based presentation and its associated assets
US8972458B2 (en) Systems and methods for comments aggregation and carryover in word pages
US20080313570A1 (en) Method and system for media landmark identification
US20060085735A1 (en) Annotation management system, annotation managing method, document transformation server, document transformation program, and electronic document attachment program
US6922702B1 (en) System and method for assembling discrete data files into an executable file and for processing the executable file
CN100485721C (zh) 生成视频概要描述数据的方法、系统及浏览该数据的设备
JP2008234431A (ja) コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム
JP5106455B2 (ja) コンテンツ推薦装置及びコンテンツ推薦方法
CN101183380B (zh) 内容过滤方法及其装置
TWI457768B (zh) 內容產生裝置、提供網頁服務以整合贊助媒體與使用者產生內容之系統、以及電腦實施方法
JP2007267173A (ja) コンテンツ再生装置および方法
JP2001306599A (ja) 映像の階層的管理方法および階層的管理装置並びに階層的管理プログラムを記録した記録媒体
JP2007025786A (ja) コンテンツ検索装置、コンテンツ検索プログラムおよびコンテンツ検索方法
JP5552987B2 (ja) 検索結果出力装置、検索結果出力方法及び検索結果出力プログラム
JP5243366B2 (ja) 映像要約方法および映像要約プログラム
JP6603929B1 (ja) 動画編集サーバおよびプログラム
JP4953374B2 (ja) 動画表示装置
JP2007034960A (ja) コンテンツ処理装置、コンテンツ処理プログラムおよびコンテンツ処理方法
JP2007011893A (ja) Rss文書の閲覧方法及び装置及びプログラム及びプログラムを格納した記憶媒体
JP2003208083A (ja) 教材作成方法及び装置及び教材作成プログラム及び教材作成プログラムを格納した記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100301

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees