JP2006157691A - 代表画像選定方法及び装置及びプログラム - Google Patents

代表画像選定方法及び装置及びプログラム Download PDF

Info

Publication number
JP2006157691A
JP2006157691A JP2004347279A JP2004347279A JP2006157691A JP 2006157691 A JP2006157691 A JP 2006157691A JP 2004347279 A JP2004347279 A JP 2004347279A JP 2004347279 A JP2004347279 A JP 2004347279A JP 2006157691 A JP2006157691 A JP 2006157691A
Authority
JP
Japan
Prior art keywords
comment
video
representative image
frame
scoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004347279A
Other languages
English (en)
Other versions
JP4270119B2 (ja
Inventor
Toshikazu Karitsuka
俊和 狩塚
Kazu Miyagawa
和 宮川
Satoshi Shimada
聡 嶌田
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004347279A priority Critical patent/JP4270119B2/ja
Publication of JP2006157691A publication Critical patent/JP2006157691A/ja
Application granted granted Critical
Publication of JP4270119B2 publication Critical patent/JP4270119B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】 視聴者が付与したコメントを分析し、視聴者間で最も注目度の高い場面のフレーム画像を、動的に代表画像として表示する。
【解決手段】 本発明は、代表画像を選択する対象となる映像区間を入力し、映像区間に含まれるコメント群を、コメントが付与された時刻とコメント文字列を含むコメント群が格納されたコメント蓄積手段から読み出し、映像区間に含まれるコメント群を分析し、映像の各フレームに対してスコアリングし、各フレーム毎にスコアリングの値を格納し、記憶手段の各フレーム毎のスコアリングの値に基づいてフレームから代表画像を決定し、該代表画像を映像情報蓄積手段から抽出して出力装置に出力する。
【選択図】 図1

Description

本発明は、映像コンテンツのサムネイル表示機能における代表画像選定方法及び装置及びプログラムに係り、特に、映像を構成するフレームから代表フレームを選出するための代表画像選定方法及び装置及びプログラムに関する。
詳しくは、視聴者が付与したコメント情報から、視聴者間で最も注目度の高いフレーム画像を、ダイナミックに代表画像として自動的に選出するための代表画像選定方法及び装置及びプログラムに関する。
従来の映像コンテンツの代表画像を選定する方法として、映像コンテンツのシーン中に含まれている場面の変わり目(カット)、文字が表れた場面(テロップ)、カメラの動き(カメラワーク)、音楽、人の声(音声)の変化等を検出し、検出された位置を区切り点として、シーンを細かい区間に分割する。そして、その区間の開始フレーム画像や開始から何秒後のフレーム画像を表示するといった、予め設定されたフレームが選定される方法がある(例えば、特許文献1、特許文献2参照)。
また、自動抽出された映像の変わり目や音声や音楽の発生時刻を手掛かりに、シーン分割を行い、事前ルールに従って、シーンの代表画像を出力する方法がある(例えば、非特許文献1参照)。
また、映像フレームを類似画像クラスタリング等を用いて、映像をまずセグメント化し、各セグメントの区間長(時間)などからセグメントの重要度を算出し、重要度が閾値以上のセグメントに含まれるフレーム画像に平均に最も近いフレーム画像を代表画像として出力する方法がある(例えば、非特許文献2参照)。
また、スポーツ映像やニュース映像のようなコンテンツは、点数が獲得されたシーンや、テロップが表示されたシーンというように、映像編集文法を手掛かりにする手法や、経験的な知見を用いる手法などを利用することによって、重要な場面をある程度推察することが可能である。
特開2003−76699号公報 特開平11−224266号公報 山田一穂、宮川和、森本正志、小島治彦、"映像の構造情報を活用した視聴者間コミュニケーション方法の提案"、情報処理学会研究報告グループウェアとネットワークサービス、No.24-007,2001. Shingo Uchihashi, Jonathan Foote, Andreas Girgensohn, and John Boreczky. Video Manga: Generating semantically meaningful video summaries. In Proceedings of Multimedia’99, pp.383-392. ACM, 1999
しかしながら、上記従来の自動抽出された映像の変わり目や音声や音楽の発生時刻を手掛かりに、シーン分割を行い、事前ルールに従って、シーンの代表画像を出力する方法では、コミュニケーションを活性化させるために、事前に映像を同じ話題のシーンに分割し、各シーンの代表画像を選定する必要がある。各シーンの代表画像を選定するには、映像の内容を把握して手動で設定するか、シーン分割を行う際に手掛かりとするために自動抽出された映像の変わり目や音声や音楽の発生時刻を使用するとしても、それは、事前に決めたルールに従って選出された静的な代表画像であり、視聴者間での注目度の高い場面を代表する代表画像を動的に選出することができないという問題がある。
この問題は、スポーツ映像やニュース映像といった比較的映像中で重要な場面が定義しやすいコンテンツに比べて、ドラマやアニメなどといった視聴者の主観や、コンテンツ全体の物語の流れによって重要な場面が変わってしまうような映像コンテンツから視聴者の注目している場面の代表画像を選択する際に顕著となる問題である。
本発明は、上記の点に鑑みなされたもので、映像視聴者間コミュニケーションシステムにおいて、視聴者が付与したコメントを分析し、視聴者間で最も注目度の高い場面のフレーム画像を、動的に代表画像として表示することが可能な代表画像選定方法及び装置及びプログラムを提供することを目的とする。
図1は、本発明の原理説明図である。
本発明(請求項1)は、映像を視聴している時に、視聴者がコメント付与の指示を行うことで、注目する映像に対してコメントを付与することができ、記憶手段に登録されたコメントを映像と同期させて提示する映像視聴システムにおいて、代表画像を選出する代表画像選出方法において、
代表画像を選択する対象となる映像区間を入力する映像区間入力ステップ(ステップ1)と、
映像区間に含まれるコメント群を、コメントが付与された時刻とコメント文字列を含むコメント群が格納されたコメント蓄積手段から読み出すコメント抽出ステップ(ステップ2)と、
映像区間に含まれるコメント群を分析し、映像の各フレームに対してスコアリングし、各フレーム毎にスコアリングの値を格納するコメント分析ステップ(ステップ3)と、
記憶手段の各フレーム毎のスコアリングの値に基づいてフレームから代表画像を決定し、該代表画像を映像情報蓄積手段から抽出して出力装置に出力する代表画像出力ステップ(ステップ4)と、を行う。
また、本発明(請求項2)は、請求項1のコメント分析ステップ(ステップ3)において、
コメントが付与された時刻とコメント文字列を含むコメント群について、映像コンテンツに対して関連性の高い固有名詞を格納するコメント評価辞書記憶手段を参照して、該コメント毎のコメント文字列中の固有名詞の出現回数に基づいて、映像の各フレームにスコアリングする。
また、本発明(請求項3)は、請求項1のコメント分析ステップにおいて、
コメントが付与された時刻よりも△t(予め定めた近傍フレームの範囲)だけ前に幅を持たせてスコアリングする。
また、本発明(請求項4)は、請求項1のコメント分析ステップにおいて、
コメント群のコメントが付与された時刻に基づいて、映像構造化情報記憶手段に格納されている多重構造を有する映像構造化情報を参照して、映像の各フレームにスコアリングする。
また、本発明(請求項5)は、請求項1のコメント分析ステップ(ステップ3)において、
コメント群のコメントが付与された時刻に基づいて、映像構造化情報記憶手段に格納されている多重構造を有する映像構造化情報により予め定義されているサブ区間に対してスコアリングし、
代表画像出力ステップ(ステップ4)において、
コメント分析ステップにおいて、スコアリングされた区間から、映像の代表区間を選出し、該区間の種別に応じた代表画像を選出する。
図2は、本発明の原理構成図である。
本発明(請求項6)は、映像を視聴している時に、視聴者がコメント付与の指示を行うことで、注目する映像に対してコメントを付与することができ、記憶手段に登録されたコメントを映像と同期させて提示する映像視聴システムにおいて、代表画像を選出する代表画像選出装置であって、
コメントが付与された時刻とコメント文字列を含むコメント群が格納されたコメント蓄積手段2と、
映像が蓄積された映像情報蓄積手段5と、
入力装置10から入力された代表画像を選択する対象となる映像区間を取得する映像区間入力手段1と、
映像区間に含まれるコメント群を、コメント蓄積手段2から読み出し、映像区間に含まれるコメント群を分析し、映像の各フレームに対してスコアリングし、記憶手段に格納するコメント分析手段3と、
記憶手段に格納されているフレーム毎にスコアリングされた値に基づいて、フレームから代表画像を決定し、該代表画像を映像情報蓄積手段5から抽出して出力装置に出力する代表画像出力手段4と、を有する。
また、本発明(請求項7)の代表画像選出装置は、映像コンテンツに対して関連性の高い固有名詞を格納するコメント評価辞書記憶手段を更に有し、
コメント分析手段3において、
コメントが付与された時刻とコメント文字列を含むコメント群について、コメント評価辞書記憶手段を参照して、該コメント毎のコメント文字列中の固有名詞の出現回数に基づいて、映像の各フレームにスコアリングする手段を含む。
また、本発明(請求項8)の代表画像選出装置は、コメント分析手段3において、コメントが付与された時刻よりも△t(予め定めた近傍フレームの範囲)だけ前に幅を持たせてスコアリングする。
また、本発明(請求項9)の代表画像選出装置は、多重構造を有する映像構造化情報を格納する映像構造化情報記憶手段を更に有し、
コメント分析手段3において、コメント群のコメントが付与された時刻に基づいて、映像構造化情報記憶手段の映像構造化情報により予め定義されているサブ区間に対してスコアリングする。
また、本発明(請求項10)の代表画像選出装置は、映像区間に登場する複数の登場オブジェクトの映像及び台詞による多重構造を有する映像構造化情報を格納する映像構造化情報記憶手段を更に有し、
コメント分析手段3において、コメント群のコメントが付与された時刻に基づいて、映像構造化情報記憶手段の映像構造化情報を参照して、映像の各フレームにスコアリングする手段を含み、
代表画像出力手段4において、
コメント分析手段3においてスコアリングされた区間から、映像の代表区間を選出し、該区間の種別に応じた代表画像を選出する手段を含む。
本発明(請求項11)は、映像を視聴している時に、視聴者がコメント付与の指示を行うことで、注目する映像に対してコメントを付与することができ、記憶手段に登録されたコメントを映像と同期させて提示する映像視聴システムにおいて、代表画像を選出する代表画像選出プログラムであって、
請求項1乃至5記載の代表画像選出方法を実現させるための処理をコンピュータに実行させるプログラムである。
上記により、映像視聴と連動したコミュニケーションシステムにおいて、任意の区間において、多数の視聴者が最も注目している場面の代表画像を選出することができる。また、この機能によって、代表画像を手動で選択する手間がなくなるばかりでなく、映像中で多くの視聴者が注目している場面が、代表画像を見ることで簡便に把握することができ、コミュニティの活性化をも期待することができる。
以下、図面と共に本発明の実施の形態を説明する。
図3は、本発明の一実施の形態における代表画像選定装置の構成を示す。
同図に示す代表画像選定装置は、分析対象区間入力部1、コメント蓄積部2、分析対象コメント分析部3、代表画像出力部4及び映像情報蓄積部5から構成され、分析対象区間入力部1にはキーボードやマウス等の入力装置10が、代表画像出力部4にはディスプレイ装置等の出力装置20が接続される。
分析対象区間入力部1は、入力装置10からオペレータにより分析対象となる映像区間が選択入力される。分析対象区間の入力は、入力装置10からの手動入力や、予め設定しておき半自動的に入力する方法が考えられる。
コメント蓄積部2は、ディスク装置等の記憶媒体であり、多数の視聴者が映像に対して付与したコメント群を格納する。コメント蓄積部2に蓄積される1つのコメントは、少なくともコメント対象となる映像ファイルの識別情報、コメントが付与された時刻及び、コメント文字列が含まれているものとする。
コメント分析部3は、入力された分析対象区間より、当該区間に含まれるコメント群をコメント蓄積部2から抽出し、当該コメント群を分析し、フレーム単位、もしくは任意の区間単位で重要度をスコアリングする
映像情報蓄積部5は、ディスク装置等の記憶媒体であり、映像の全フレームデータが蓄積されている。
代表画像出力部4は、コメント分析部3の分析結果であるスコアを取得し、当該スコアに基づいて代表画像として出力するフレームを決定し、映像情報蓄積部5から当該フレームを抽出して、出力装置20に出力する。
図4は、本発明の一実施の形態における動作の概要を示すフローチャートである。
分析対象区間入力部1は、入力装置10から代表画像を選択する映像区間を入力し、分析対象区間をコメント分析部3に出力する(ステップ201)。
コメント分析部3は、映像ファイルの識別情報、当該分析対象区間のフレーム番号に対応するコメント付与時刻及び文字列を有するコメントを、コメント蓄積部2から読み出す(ステップ202)。さらに、コメント分析部3は、読み出されたコメント群を分析し、フレーム単位、または、任意の区間単位で重要度をスコアリングし、代表画像出力部4に出力する(ステップ203)。詳細な分析方法については、実施例において説明する。
代表画像出力部4は、スコアリング結果を取得し、代表画像として出力するフレームを決定し、映像情報蓄積部5から当該フレームの画像を抽出して、出力装置20に出力する。
次に、上記のステップ202及びステップ203のコメント分析部3の動作について説明する。
以下で扱うコメントには、他人が付与したコメントに対する返信コメント(レスコメント)も含まれる。この他人が付与したコメントに対して返信するレス機能は、レスコメント自体にさらにレスコメントを付与することが可能である。視聴者がレスコメントを付与する動機として、親コメントの時刻の映像内容に対して注目しているか、その付与されたコメントに対して注目しているか、その両方かのいずれかであると考えられる。そのいずれにしても、親コメントを付与した視聴者が注目した時刻の映像内容に対して何らかの注目をしていると考えられる。よってこのとき、レスコメントが付与された映像時刻(フレーム番号)は、返信対象の親コメントの時刻と同じになる。そのレスコメントが最も多く付与されているフレームは、必然的に視聴者間で最も注目度が高い場面であると判定することができる。
[第1の実施例]
本実施例の代表画像選定装置の構成は、前述の図3の構成と同様である。
本実施例では、上記の図4に示すフローチャートの処理において、分析対象区間入力部1において、分析対象となる区間が入力された以降のコメント分析部3及び代表画像出力部4の動作(ステップ202〜ステップ204)について説明する。
以下に、コメント分析部3のスコアリング処理(ステップ203)の第1の例について説明する。
図5は、本発明の第1の実施例におけるコメント分析処理のフローチャートである。
ステップ301) コメント分析部3は、分析対象区間内に付与されているコメント群をコメント蓄積部1より抽出する。
ステップ302) 抽出されたコメントの総数をカウントし、コメント総数をNとする。
ステップ303) ループカウンタ(i)を初期化する(i=1)。
ステップ304) i番目のコメントが付与された時間を確認し、既に既出の時刻かどうかを判定する。判定は、コメント分析部3内のスコア情報格納メモリ31に含まれるコメントが付与された時刻(フレーム番号)を参照することにより可能である。
ステップ305) スコア情報格納メモリ31をコメント分析部3内に動的に新たに一つ確保し、スコアを初期化し、ステップ307に移行する。スコア情報とは、コメントが付与された時刻(フレーム番号)と、スコアの2つのパラメータを持つものとする。初期化として、コメントが付与された時刻を格納し、スコアを1とする。
ステップ306) 既出の時刻に付与されたコメントであれば、同時刻に対応するスコア情報格納メモリ31は既に確保されているはずである。対応するスコア情報格納メモリ31を、時刻に基づいて検索し、その時刻のスコアをインクリメントする。
ステップ307) 全てのコメントを処理し終えたかのかを判定する。処理が終了していない場合には、ステップ308に移行し、処理が終了していればステップ309に移行する。
ステップ308) iをインクリメントし、次のコメントに処理を移す(ステップ304に移行する)。
ステップ309) 全てのコメントを処理し終えたら、得られたスコア情報を全て代表画像出力部4に出力する。
代表画像出力部4では、入力として受け取ったスコア情報からスコアを昇順にソート処理し、最も高いスコアを獲得したフレーム番号を算出する。もし、最も高いスコアを持つフレームが複数ある場合は、ランダムに選択される。もしくは、フレーム番号が大きなものが優先される等の優先度を予め設定しておく。なぜなら、いずれのフレーム画像も視聴者の注目度としては等価値であると考えられるため、いずれが選ばれても問題はない。しかし、ドラマやアニメのようなコンテンツの場合、コンテンツの後半に、シナリオ的な盛り上がりを設けている場合が多いため、例えば、図6に示すような優先度テーブルにこのような経験則を優先度として事前に当該代表画像出力部4のメモリ内に設定しておいてもよい。図6の優先度テーブルは、コンテンツの終了間際に最も高い優先度が設定されている例である。
なお、上記では、スコア情報格納メモリ31をコメント分析部3内に設けたが、この例に限定されることなく、代表画像選定装置内に別途設けてもよい。
[第2の実施例]
本実施例の代表画像選定装置の構成は、前述の図3の構成と同様である。
本実施例では、上記の図4に示すフローチャートの処理において、分析対象区間入力部1において、分析対象となる区間が入力された以降のコメント分析部3及び代表画像出力部4の動作(ステップ202〜ステップ204)について説明する。
前述の第1の実施例が単純にコメントとそのレスコメントが最も多い時刻のフレームを代表画像として出力するという処理に対して、本実施例では、時間的な幅を持たせてスコアリングする。
なぜなら、他の視聴者が同じ場面に対して注目し、コメントを付与したとしても、正確に同じ時刻に対してコメントせず、若干の散らばりをもってコメントが付与される可能性が考えられるからである。第1の実施例では、親コメント同士の時刻が例え1フレームでも違う場合、それは違った場面に対してコメントされていると判断されるため、同じ場面に対してコメントを付与している可能性をスコアリングに反映されていない。
本実施例では、コメントが付与された時刻を基準に、時間的な幅を持たせてスコアリング処理することで、ある程度近くに付与されているコメントは同じ場面(シーン)に注目している可能性があることをスコアリングに反映させる例を示す。
具体的には、映像全フレーム個別にスコア情報を持つ。事前にコメントが付与された時刻を基準に、その近傍フレームに対して、どのようなスコア加算を行うのかを定義しておく。スコア加算方法の事前設定は任意であるが、この時間的幅を持たせたスコアリング処理の事前設定の例を図7に示す。
図7(a)では、コメントが付与された時刻から△tだけ前の区間に対して、一様なスコア加算処理を行う。但し、△tは予め定めた近傍フレームの範囲を定める値であり、これ以降の説明で使用される△tも同意である。コメントが付与された時刻より後ろの近傍フレームにはスコア加算処理は行わない。なぜなら、映像視聴してコメントを付与する場合、視聴した後にコメントを付与する場合はあっても、視聴する前にコメントを付与する可能性は低いからである。
図7(b)は、人間が映像を視聴し、コメントを付与したいと考え、手を動かし映像を止めるまでの時間的誤差を考慮したスコア加算モデルである。つまり、視聴者がコメントを付与したいと考えた時刻と、実際の映像を停止させてコメントを付与する時刻には、若干の誤差が生じると考えられるため、コメントが付与された時刻より、若干前にスコア加算量のピークをずらしてスコア加算するモデルである。人間の反応速度は脳で考えてから動くまでに約0.1秒はかかってしまうことが広く知られている。映像フレームレートを30fpsとすると、映像を視聴してから、映像を停止するまでに経験則から最低3フレームの誤差が生じてしまう。この誤差をスコア加算処理の段階で補正するものである。この場合も図7(a)と同様に、コメント後のフレームには加算処理は行わない。
本実施例におけるコメント分析部2によるコメント分析処理を図8を用いて説明する。
図8は、本発明の第2の実施例のコメント分析処理のフローチャートである。
ステップ501) 分析対象区間入力部1により取得した分析対象区間内に付与されているコメント群を、コメント蓄積部1より抽出する。
ステップ502) 抽出されたコメントの総数をカウントし、コメント総数をNとする。
ステップ503) 各フレームに対してスコアリング処理を行うため、コメント総数が分かった時点でスコアを格納するスコア情報格納メモリ31(Score[N])をコメント分析部3内に確保する。さらに、Score[N]の値を全て0に初期化する。
ステップ504) ループカウンタ(i)を初期化する(i=1)。
ステップ505) 上記のスコアリング処理の事前設定に基づいて、i番目のコメントの時刻を前近傍フレーム群に対してスコア加算処理を行う。例として、i番目のコメントの時刻をti、△t=5フレームとした場合、スコア加算設定が図7(a)の場合、
Score[ti]=Score[ti]+1,
Score[ti-1]=Score[ti-1]+1,
Score[ti-2]=Score[ti-2]+1
Score[ti-3]=Score[ti-3]+1,
Score[ti-4]=Score[ti-4]+1
Score[ti-5]=Score[ti-5]+1,
とする。
また、スコア加算設定が図7(b)の場合、
Score[ti]=Score[ti]+1,
Score[ti-1]=Score[ti-1]+2,
Score[ti-2]=Score[ti-2]+3
Score[ti-3]=Score[ti-3]+4,
Score[ti-4]=Score[ti-4]+3
Score[ti-5]=Score[ti-5]+2,
とする。重要なことは、コメントが付与された時刻よりも、前の時刻(この例では3フレーム前)のフレームに高いスコアを加算するということである。
また、この際、スコア加算の重み付けとして、分析対象のコメントが親コメントのコメントなのか、レスコメントなのかによって重み付けを変化させてもよい。この例において、レスコメントの場合、コメントを付与するトリガとして、映像自体の内容と付与されたコメントの内容という2種類が考えられるため、親コメントよりも、レスコメントの方が付与されやすいという状況があるため、映像内容の代表画像を選択するという観点から、レスコメントの重みを小さく設定することも可能である。このときは、コメント情報は、そのコメントが親コメントなのかレスコメントなのかを識別するフラグ情報が必要となる。
ステップ506) 全てのコメントを処理したかを判定する。処理した場合には、ステップ508に移行し、終了していない場合にはステップ507に移行する。
ステップ507) iをインクリメントして、ステップ505に移行し、次のコメントの処理を行う。
ステップ508) 全てのコメントの処理を終えたので、得られたスコア情報(Score[N])を全て、代表画像出力部4に出力する。
代表画像出力部4では、コメント分析部3より受け取ったスコア情報(Score[N])から、スコアを昇順にソート処理し、最も高いスコアを獲得してフレーム番号を算出する。同スコアが生じた場合は、前述の第1の実施例と同様の処理を行う。対応するフレーム番号のフレーム画像を、映像情報蓄積部5から抽出し、出力装置20に出力する。
なお、上記では、スコア情報格納メモリ31をコメント分析部3内に設けたが、この例に限定されることなく、代表画像選定装置内に別途設けてもよい。
[第3の実施例]
本実施例では、スコアリングの加算処理の際に、コメントが付与された時刻のみに基づいたスコアリングを行っている、前述の第1の実施例、第2の実施例に比べて、コメントに含まれる文字数をも評価対象とすることで、コメント毎に重み付けを行いながら、スコア加算処理を実行するコメント分析処理について説明する。
図9は、本発明の第3の実施例の代表画像選定装置の構成を示す。
同図に示す構成は、前述の図3の構成に、コメントを評価するために用いられるコメント評価辞書を格納するコメント評価辞書蓄積部6が付加された構成である。これは、一部のコメントには、的外れな質問や個人的な内容のコメントなど、映像内容には全く関わりのないコメントが付与される場合があり、映像の代表画像を選定する際には雑音となり得る可能性があるため、実際に付与されたコメントに含まれる文字列を評価し、重み付けを行いながらスコア加算処理を行うことで、そのような雑音の影響を下げるために用いる。
コメント評価辞書蓄積部6は、ディスク装置等の記憶媒体であり、コメント評価辞書が格納される。コメント評価辞書に含まれる文字列の定義は任意であるが、例として、映像コンテンツに対して関連性の深い固有名所を辞書として持つものとする。そして、分析対象のコメント内に当該コメント評価辞書に含まれる固有名詞の出現回数を重みとして利用する。
図10にコメント評価辞書の例を示す。
なお、図9におけるコメント評価辞書蓄積部6以外の構成要素は、前述の図3と同様であるので、その説明は省略する。
次に、本実施例の動作を説明する。
図11は、本発明の第3の実施例のコメント分析処理のフローチャートである。
ステップ701) 分析対象区間内に付与されているコメント群を、コメント蓄積部1より抽出する。
ステップ702) 抽出されたコメントの総数をカウントし、コメント総数をNとする。
ステップ703) 各フレームに対してスコアリング処理を行うため、コメント総数が分かった時点でスコアを格納するスコア情報格納メモリ31(Score[N])を当該コメント分析部3内に確保する。さらに、Score[N]の値を全て0に初期化する。
ステップ704) ループカウンタ(i)を初期化(i=1)する。
ステップ705) i番目のコメント内に含まれる文字列とコメント評価辞書蓄積部6のコメント評価辞書に含まれる文字列のマッチングを行う。コメント評価辞書には、映像コンテンツに関連性の高い固有名詞が登録されており、その全ての固有名詞が分析対象コメント内に何回出現するのかをカウントする。固有名詞毎に更に重み付けを行う手法も考えられるが、ここでは、単純にコメント評価辞書に含まれる文字列が、何回出現するかをカウントし、その値+1をこのコメントに対する重み(Wi)とする。
ステップ706) i番目のコメントの時刻の近傍フレームに対して(Wi)の重みを乗算してスコア加算処理を行う。近傍フレームどのような配分で加算するかは、事前設定であるが、前述の第2の実施例で用いた手法を用いてもよい。
ステップ707) 全てのコメントを処理したかを判定し、終了した場合には、ステップ709に移行し、終了していない場合にはステップ708に移行する。
ステップ708) iをインクリメントし、ステップ705に移行し、次のコメントに処理を移す。
ステップ709) 全てのコメントを処理し終えたので、得られたスコア情報(Score[N])を全て代表画像出力部4に出力する。
代表画像出力部4の処理は、前述の第2の実施例と同様である。
なお、上記では、スコア情報格納メモリ31をコメント分析部3内に設けたが、この例に限定されることなく、代表画像選定装置内に別途設けてもよい。
[第4の実施例]
本実施例では、スコア分析部3において、スコア加算処理の重み付けに映像構造化情報を利用する例を説明する。
図12は、本発明の第4の実施例の代表画像選定装置の構成図である。
同図に示す代表画像選定装置は、前述の図3の構成に、映像コンテンツの映像構造化情報が蓄積されている映像構造化情報蓄積部7が付加された構成であり、他の構成要素は、図3と同様であるので、その説明は省略する。
本実施例で用いる映像構造化情報は、映像コンテンツに登場する登場オブジェクトの出現区間と、台詞を発話している区間とする。
図13に映像構造化情報蓄積部7に格納されている映像構造化情報の例を示す。同図に示すように、映像構造化情報は、多層構造をしている。つまり、オブジェクト映像Aが登場している区間Oa1、Oa2は、同じ層にあるが、オブジェクト映像Bに登場している区間Ob1、Ob2は違う層で定義されている。オブジェクトAの台詞、オブジェクトBの台詞も同様である。図13において、a〜jは、時刻tにおいてコメントが付与された時点を示す。
図14に映像構造化情報を用いた重み付けの例を示す。映像を視聴してコメントする際に、多くの場合は、注目点を視聴し終わった直後に映像を停止してコメントを付加することが多いと思われる。図14の例では、コメントは、図13に示すオブジェクト映像Aの映像中の人物がオブジェクトAの台詞を発話し、それを聞き終わった後にその台詞に関してのコメントを付与した例である。この場合、図14のスコア加算区間△tの中で、台詞区間の重みを高く設定し、人物が台詞を発話している部分のフレームが代表画像として選択されやすくスコアリングされることが、適切なスコアリングであると考えられる。この映像構造化情報を利用する手法の場合、コメントと映像構造化情報との対応付けが必要である。
本実施例では、視聴者がコメントを書くときに、何に注目したかの選択(ラベリング)した後、コメントを付与するシステムとする。映像構造化情報を持っていることを想定しているので、視聴者がコメントを付与する際、コメントを付与する対象フレームからスコア加算区間△tの間に含まれる映像構造化情報を提示し、簡便に視聴者が、どの映像情報に注目してコメントを付与するのかを選択できるようにする。ラベルの種類は、映像中の登場オブジェクト、台詞、その他のいずれかとする。よってコメント情報には、付加された時刻とコメント本体に加えて、注目先ラベリング情報が含まれる。この注目先ラベリングを参照することでユーザが映像中の何に注目してコメントしたのかを対応付けることができる。また、以上のように手動でラベリングする手法もあるが、コメントの内容分析と画像認識、音声認識を使うことで、コメントが何に注目されて書かれたものかを自動的に判定してもよい。
以下に具体的なコメント分析部3の動作を示す。
図15は、本発明の第4の実施例のコメント分析処理のフローチャートである。
ステップ1101) 分析対象区間内に付与されているコメント群を、コメント蓄積部1より抽出する。
ステップ1102) 抽出されたコメントの総数をカウントし、コメント総数をNとする。
ステップ1103) 各フレームに対してスコアリング処理を行うため、コメント総数がわかった時点でスコアを格納するスコア情報格納メモリ31(Score[N])をコメント分析部3内に確保する。さらに、Score[N]の値全てに0を初期化する。
ステップ1104) ループカウンタ(i)を初期化(i=1)する。
ステップ1105) i番目のコメントと映像構造化情報蓄積部7の映像構造化情報との対応付けの判定を行う。コメント情報には、そのコメントの注目先として、映像中の登場オブジェクト、台詞、その他のいずれかのラベリング情報が含まれている。それを参照することで、そのコメントが付与された時点付近のどの映像構造化情報に注目したのかを判定することができる。
ステップ1106) スコア加算区間△tの間に含まれる映像構造化情報に、ステップ1105によって判定された注目領域には、高いスコアを、その他の部分には、低いスコアを加算する。つまり、登場オブジェクトに注目している場合は、その登場オブジェクトが出現している区間に高いスコアを設定する。台詞に注目している場合は、その台詞が話されている区間に高いスコアを設定する。その他の場合はスコア加算処理は行わない。
このスコア加算処理を行う場合、前述の第2の実施例や第3の実施例で用いたような重み付け処理を組み合わせてもよい。
ステップ1107) 全てのコメントの処理が終了していれば、ステップ1109に移行し、終了していなければステップ1108に移行する。
ステップ1108) iをインクリメントし、ステップ1105に移行し、次のコメント処理を行う。
ステップ1109) 全てのコメントを処理し終えたので、得られたスコア情報(Score[N])を代表画像出力部4に出力する。
代表画像出力部の処理は第2の実施例と同様である。
なお、上記では、スコア情報格納メモリ31をコメント分析部3内に設けたが、この例に限定されることなく、代表画像選定装置内に別途設けてもよい。
[第5の実施例]
本実施例では、映像構造化情報から多層構造で、映像コンテンツ内において登場オブジェクトが映っている区間や、台詞を言っている区間のサブ区間を定義しておき、視聴者がどのサブ区間に注目してコメントを書いたのかを対応付けることで、サブ区間に対してスコアリングする。その結果、視聴者間で最も注目されているサブ区間を決定し、選択されたサブ区間の種別に応じて代表画像を出力するものである。
ここで、サブ区間とは、前述の第4の実施例の図13に示す「Oa1」「Oa2」「Ob1」「Ob2」「Va1」「Va2」「Vb1」「Vb2」などのことを指す。
本実施例の代表画像選出装置の構成は、前述の第4の実施例の図12に示す構成と同様である。
以下に、本実施例の動作を説明する。
図16は、本発明の第5の実施例のコメント分析処理のフローチャートである。
ステップ1201) コメント分析部3は、分析対象区間内の映像構造化情報を映像構造化蓄積部7から抽出する。本実施例では、図13に示すように、映像構造化情報として、登場オブジェクトが映っている区間と、台詞を発話している区間の2つの映像構造化情報を別々のレイヤでサブ区間として定義していることとする。
ステップ1202) 各サブ区間のスコアを格納するためのスコア情報格納メモリ31をコメント分析部3内に確保する。図13を用いて説明すると、「Oa1」「Oa2」「Ob1」「Ob2」「Va1」「Va2」「Vb1」「Vb2」のそれぞれのサブ区間に対して、スコア情報格納メモリ31に格納する。その例を図17に示す。そのスコア情報格納メモリ31の累積スコア値を全て0に初期化する。
ステップ1203) 分析対象区間内に付与されているコメント群を、コメント蓄積部1より抽出する。
ステップ1204) 抽出されたコメントの総数をカウントし、コメント総数をNとする。
ステップ1205) ループカウンタの値iを初期化(i=1)する。
ステップ1206) i番目のコメントと映像構造化情報との対応付けの判定を行う。前述の第4の実施例と同様に、コメント情報には、そのコメントの注目先として、映像中のサブ区間に注目してコメントを付与したのかを、視聴者がラベリングしているものとする。このラベリング情報を参照することで、分析対象のコメントがどのサブ区間に注目したのかを判定することができる。
ステップ1207) i番目のコメントが注目しているサブ区間に対してスコア加算処理(+1)を行う。この際、前述の第2・第3の実施例で用いたコメント内容に応じた重み付け処理をして、サブ区間にスコア加算処理をしてもよい。
ステップ1208) 全てのコメントを処理し終えたかを判定し、終了した場合には、ステップ1210に移行し、終了していない場合にはステップ1209に移行する。
ステップ1209) iをインクリメントし、ステップ1206に移行し、次のコメント処理を行う。
ステップ1210) 全てのコメントを処理し終えたので、得られたサブ区間毎のスコア情報を代表画像出力部4に出力する。
代表画像出力部4では、スコア分析部3から受け取ったサブ区間のスコア情報からスコアを昇順にソートし、最も高いスコアを獲得したサブ区間を算出する。図17に示すようなスコア情報の場合には、最もスコアの高いサブ区間として、「Va1」が選択されることになる。
選択されたサブ区間が、登場オブジェクトの映っている区間の場合、その区間内で、対象の登場オブジェクトが最もよく表れたフレームを代表画像として出力する。実際に選ばれるフレームとしては、事前に手動で選択しておく方法、オブジェクトが人物である場合、既存の顔認識技術を用いて、顔が最も大きく表示されたフレームを出力する手法、また、オブジェクトの動きベクトルを算出し、オブジェクトが最もフレームの中央に位置するフレームを、フレーム画像として選択する方法などが考えられる。
選択されたサブ区間が台詞や音の区間の場合、その区間内での音で最も盛り上がったフレームを出力する。最も盛り上がったフレームは、その区間の音情報のパワーが最も高くなった時点のフレーム画像である。
代表画像出力部4は、対象のフレーム画像を映像情報蓄積部5から抽出し、出力する。
また、他の実施例として、上記の第1〜第5の実施例をいくつか組み合わせてスコアリングする手法が考えられる。例えば、詳述しないが、コメントの重み付け処理に、コメント評価辞書と映像構造化情報を併用する手法等がある。
また、本発明は、上記の図4、図5、図8、図11、図15、図16のフローチャートに示す動作をプログラムとして構築し、代表画像選出装置として利用されるコンピュータにインストールする、または、ネットワークを介して流通させることが可能である。
なお、本発明は、上記の実施の形態及び実施例に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、登録されたコメントと映像とを同期させて提示するシステムに適用可能である。
本発明の原理説明図である。 本発明の原理構成図である。 本発明の一実施の形態における代表画像選定装置の構成図である。 本発明の一実施の形態における動作の概要を示すフローチャートである。 本発明の第1の実施例のコメント分析処理のフローチャートである。 本発明の第1の実施例の代表画像出力部の優先度テーブル例である。 本発明の第2の実施例の時間幅を持たせたスコアリング処理の事前設定例である。 本発明の第2の実施例のコメント分析処理のフローチャートである。 本発明の第3の実施例の代表画像選定装置の構成図である。 本発明の第3の実施例のコメント評価辞書の例である。 本発明の第3の実施例のコメント分析処理のフローチャートである。 本発明の第4の実施例及び第5の実施例の代表画像選定装置の構成図である。 本発明の第4の実施例の映像構造化情報の例である。 本発明の第4の実施例の映像構造化情報を用いたスコア加算の例である。 本発明の第4の実施例のコメント分析処理のフローチャートである。 本発明の第5の実施例のコメント分析処理のフローチャートである。 本発明の第5の実施例のスコア情報格納メモリの内容を示す図である。
符号の説明
1 分析対象区間入力手段、分析対象区間入力部
2 コメント蓄積手段、コメント蓄積部
3 コメント分析手段、コメント分析部
4 代表画像出力手段、代表画像出力部
5 映像情報蓄積手段、映像情報蓄積部
6 コメント評価辞書蓄積部
7 映像構造化情報蓄積部
10 入力装置
20 出力装置
31 スコア情報格納メモリ

Claims (11)

  1. 映像を視聴している時に、視聴者がコメント付与の指示を行うことで、注目する映像に対してコメントを付与することができ、記憶手段に登録されたコメントを映像と同期させて提示する映像視聴システムにおいて、代表画像を選出する代表画像選出方法において、
    代表画像を選択する対象となる映像区間を入力する映像区間入力ステップと、
    前記映像区間に含まれるコメント群を、コメントが付与された時刻とコメント文字列を含むコメント群が格納されたコメント蓄積手段から読み出すコメント抽出ステップと、
    前記映像区間に含まれるコメント群を分析し、映像の各フレームに対してスコアリングし、各フレーム毎にスコアリングの値を格納するコメント分析ステップと、
    前記記憶手段の各フレーム毎のスコアリングの値に基づいて前記フレームから代表画像を決定し、該代表画像を映像情報蓄積手段から抽出して出力装置に出力する代表画像出力ステップと、
    を行うことを特徴とする代表画像選定方法。
  2. 前記コメント分析ステップにおいて、
    前記コメントが付与された時刻とコメント文字列を含むコメント群について、映像コンテンツに対して関連性の高い固有名詞を格納するコメント評価辞書記憶手段を参照して、該コメント毎のコメント文字列中の固有名詞の出現回数に基づいて、映像の各フレームにスコアリングする請求項1記載の代表画像選定方法。
  3. 前記コメント分析ステップにおいて、
    前記コメントが付与された時刻よりも△t(予め定めた近傍フレームの範囲)だけ前に幅を持たせてスコアリングする請求項1記載の代表画像選定方法。
  4. 前記コメント分析ステップにおいて、
    前記コメント群のコメントが付与された時刻に基づいて、映像構造化情報記憶手段に格納されている多重構造を有する映像構造化情報を参照して、映像の各フレームにスコアリングする請求項1記載の代表画像選定方法。
  5. 前記コメント分析ステップにおいて、
    前記コメント群のコメントが付与された時刻に基づいて、映像構造化情報記憶手段に格納されている多重構造を有する映像構造化情報により予め定義されているサブ区間に対してスコアリングし、
    前記代表画像出力ステップにおいて、
    前記コメント分析ステップにおいて、スコアリングされた区間から、映像の代表区間を選出し、該区間の種別に応じた代表画像を選出する、請求項1記載の代表画像選定方法。
  6. 映像を視聴している時に、視聴者がコメント付与の指示を行うことで、注目する映像に対してコメントを付与することができ、記憶手段に登録されたコメントを映像と同期させて提示する映像視聴システムにおいて、代表画像を選出する代表画像選出装置であって、
    コメントが付与された時刻とコメント文字列を含むコメント群が格納されたコメント蓄積手段と、
    映像が蓄積された映像情報蓄積手段と、
    入力装置から入力された代表画像を選択する対象となる映像区間を取得する映像区間入力手段と、
    前記映像区間に含まれるコメント群を、前記コメント蓄積手段から読み出し、該映像区間に含まれるコメント群を分析し、映像の各フレームに対してスコアリングし、記憶手段に格納するコメント分析手段と、
    前記記憶手段に格納されているフレーム毎にスコアリングされた値に基づいて、前記フレームから代表画像を決定し、該代表画像を前記映像情報蓄積手段から抽出して出力装置に出力する代表画像出力手段と、
    を有することを特徴とする代表画像選定装置。
  7. 映像コンテンツに対して関連性の高い固有名詞を格納するコメント評価辞書記憶手段を更に有し、
    前記コメント分析手段は、
    前記コメントが付与された時刻とコメント文字列を含むコメント群について、前記コメント評価辞書記憶手段を参照して、該コメント毎のコメント文字列中の固有名詞の出現回数に基づいて、映像の各フレームにスコアリングする手段を含む請求項6記載の代表画像選定装置。
  8. 前記コメント分析手段は、
    前記コメントが付与された時刻よりも△t(予め定めた近傍フレームの範囲)だけ前に幅を持たせてスコアリングする請求項6記載の代表画像選定装置。
  9. 多重構造を有する映像構造化情報を格納する映像構造化情報記憶手段を更に有し、
    前記コメント分析手段は、
    前記コメント群のコメントが付与された時刻に基づいて、前記映像構造化情報記憶手段の前記映像構造化情報を参照して、映像の各フレームにスコアリングする請求項6記載の代表画像選定装置。
  10. 多重構造を有する映像構造化情報を格納する映像構造化情報記憶手段を更に有し、
    前記コメント分析手段は、
    前記コメント群のコメントが付与された時刻に基づいて、前記映像構造化情報記憶手段の前記映像構造化情報により予め定義されているサブ区間に対してスコアリングする手段を含み、
    前記代表画像出力手段は、
    前記コメント分析手段においてスコアリングされた区間から、映像の代表区間を選出し、該区間の種別に応じた代表画像を選出する手段を含む、請求項6記載の代表画像選定装置。
  11. 映像を視聴している時に、視聴者がコメント付与の指示を行うことで、注目する映像に対してコメントを付与することができ、記憶手段に登録されたコメントを映像と同期させて提示する映像視聴システムにおいて、代表画像を選出する代表画像選出プログラムであって、
    前記請求項1乃至5記載の代表画像選出方法を実現させるための処理をコンピュータに実行させることを特徴とする代表画像選出プログラム。
JP2004347279A 2004-11-30 2004-11-30 代表画像選定方法及び装置及びプログラム Expired - Fee Related JP4270119B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004347279A JP4270119B2 (ja) 2004-11-30 2004-11-30 代表画像選定方法及び装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004347279A JP4270119B2 (ja) 2004-11-30 2004-11-30 代表画像選定方法及び装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2006157691A true JP2006157691A (ja) 2006-06-15
JP4270119B2 JP4270119B2 (ja) 2009-05-27

Family

ID=36635397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004347279A Expired - Fee Related JP4270119B2 (ja) 2004-11-30 2004-11-30 代表画像選定方法及び装置及びプログラム

Country Status (1)

Country Link
JP (1) JP4270119B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148071A (ja) * 2006-12-11 2008-06-26 Dowango:Kk 表示装置、コメント表示方法、及びプログラム
JP2008244657A (ja) * 2007-03-26 2008-10-09 Fujifilm Corp 動画像記録装置
JP2010226630A (ja) * 2009-03-25 2010-10-07 Toshiba Corp コメント処理機能を有した映像処理装置及びそのコメント処理方法
JP2011061528A (ja) * 2009-09-10 2011-03-24 Xing Inc 映像情報配信システム
JP2012173774A (ja) * 2011-02-17 2012-09-10 Nippon Telegr & Teleph Corp <Ntt> シーン重要点抽出装置、シーン重要点抽出方法及びシーン重要点抽出プログラム
JP2012533803A (ja) * 2009-07-16 2012-12-27 ブルーフィン ラボズ インコーポレイテッド タイムベースメディアにおけるソーシャルインタレストの推定および表示
CN105163183A (zh) * 2015-08-28 2015-12-16 北京奇艺世纪科技有限公司 一种视频图片的筛选方法及装置
US10440402B2 (en) 2011-01-26 2019-10-08 Afterlive.tv Inc Method and system for generating highlights from scored data streams
CN115886717A (zh) * 2022-08-18 2023-04-04 上海佰翊医疗科技有限公司 一种眼裂宽度的测量方法、装置和存储介质
CN109299457B (zh) * 2018-09-06 2023-04-28 北京奇艺世纪科技有限公司 一种观点挖掘方法、装置及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112894A (ja) * 1998-10-07 2000-04-21 Fuji Xerox Co Ltd 共同作業支援装置
JP2001257968A (ja) * 2000-03-14 2001-09-21 Sony Corp 画像記録再生装置および方法、並びに記録媒体
WO2002073462A1 (fr) * 2001-03-08 2002-09-19 Fujitsu Limited Systeme de travail cooperatif multimedia, client/serveur, procede, support enregistre et programme
JP2002279026A (ja) * 2001-03-19 2002-09-27 Nec Corp 番組関心度提示サーバ、番組関心度提示方法、および番組関心度提示プログラム
JP2003283981A (ja) * 2002-03-20 2003-10-03 Nippon Telegr & Teleph Corp <Ntt> 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
JP2004259375A (ja) * 2003-02-26 2004-09-16 Fuji Photo Film Co Ltd メッセージ記録および再生装置および方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112894A (ja) * 1998-10-07 2000-04-21 Fuji Xerox Co Ltd 共同作業支援装置
JP2001257968A (ja) * 2000-03-14 2001-09-21 Sony Corp 画像記録再生装置および方法、並びに記録媒体
WO2002073462A1 (fr) * 2001-03-08 2002-09-19 Fujitsu Limited Systeme de travail cooperatif multimedia, client/serveur, procede, support enregistre et programme
JP2002279026A (ja) * 2001-03-19 2002-09-27 Nec Corp 番組関心度提示サーバ、番組関心度提示方法、および番組関心度提示プログラム
JP2003283981A (ja) * 2002-03-20 2003-10-03 Nippon Telegr & Teleph Corp <Ntt> 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
JP2004259375A (ja) * 2003-02-26 2004-09-16 Fuji Photo Film Co Ltd メッセージ記録および再生装置および方法

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4695583B2 (ja) * 2006-12-11 2011-06-08 株式会社ドワンゴ 表示装置、コメント表示方法、及びプログラム
JP2011055545A (ja) * 2006-12-11 2011-03-17 Dowango:Kk 表示装置、コメント表示方法、及びプログラム
JP2008148071A (ja) * 2006-12-11 2008-06-26 Dowango:Kk 表示装置、コメント表示方法、及びプログラム
JP2008244657A (ja) * 2007-03-26 2008-10-09 Fujifilm Corp 動画像記録装置
JP2010226630A (ja) * 2009-03-25 2010-10-07 Toshiba Corp コメント処理機能を有した映像処理装置及びそのコメント処理方法
US10445368B2 (en) 2009-07-16 2019-10-15 Bluefin Labs, Inc. Estimating social interest in time-based media
US10133818B2 (en) 2009-07-16 2018-11-20 Bluefin Labs, Inc. Estimating social interest in time-based media
JP2012533803A (ja) * 2009-07-16 2012-12-27 ブルーフィン ラボズ インコーポレイテッド タイムベースメディアにおけるソーシャルインタレストの推定および表示
US11048752B2 (en) 2009-07-16 2021-06-29 Bluefin Labs, Inc. Estimating social interest in time-based media
US9218101B2 (en) 2009-07-16 2015-12-22 Bluefin Labs, Inc. Displaying estimated social interest in time-based media
US9542489B2 (en) 2009-07-16 2017-01-10 Bluefin Labs, Inc. Estimating social interest in time-based media
KR101816113B1 (ko) 2009-07-16 2018-01-08 블루핀 랩스, 인코포레이티드 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체
KR20180005277A (ko) * 2009-07-16 2018-01-15 블루핀 랩스, 인코포레이티드 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체
KR102068790B1 (ko) 2009-07-16 2020-01-21 블루핀 랩스, 인코포레이티드 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체
KR20190011829A (ko) * 2009-07-16 2019-02-07 블루핀 랩스, 인코포레이티드 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체
KR101944469B1 (ko) 2009-07-16 2019-01-31 블루핀 랩스, 인코포레이티드 컴퓨터 실행 방법, 시스템 및 컴퓨터 판독 가능 매체
JP2011061528A (ja) * 2009-09-10 2011-03-24 Xing Inc 映像情報配信システム
US10440402B2 (en) 2011-01-26 2019-10-08 Afterlive.tv Inc Method and system for generating highlights from scored data streams
US11082722B2 (en) 2011-01-26 2021-08-03 Afterlive.tv Inc. Method and system for generating highlights from scored data streams
JP2012173774A (ja) * 2011-02-17 2012-09-10 Nippon Telegr & Teleph Corp <Ntt> シーン重要点抽出装置、シーン重要点抽出方法及びシーン重要点抽出プログラム
CN105163183B (zh) * 2015-08-28 2018-08-07 北京奇艺世纪科技有限公司 一种视频图片的筛选方法及装置
CN105163183A (zh) * 2015-08-28 2015-12-16 北京奇艺世纪科技有限公司 一种视频图片的筛选方法及装置
CN109299457B (zh) * 2018-09-06 2023-04-28 北京奇艺世纪科技有限公司 一种观点挖掘方法、装置及设备
CN115886717A (zh) * 2022-08-18 2023-04-04 上海佰翊医疗科技有限公司 一种眼裂宽度的测量方法、装置和存储介质
CN115886717B (zh) * 2022-08-18 2023-09-29 上海佰翊医疗科技有限公司 一种眼裂宽度的测量方法、装置和存储介质

Also Published As

Publication number Publication date
JP4270119B2 (ja) 2009-05-27

Similar Documents

Publication Publication Date Title
CN110858408B (zh) 动画制作系统
US11145333B2 (en) Tool capture and presentation system
JP4660861B2 (ja) 楽曲画像シンクロ動画シナリオ生成方法、プログラムおよび装置
US11233764B2 (en) Metrics-based timeline of previews
JP5488475B2 (ja) トピック遷移解析システム、トピック遷移解析方法およびプログラム
JP2007148904A (ja) 情報提示方法、情報提示装置及び情報提示プログラム
US12086503B2 (en) Audio segment recommendation
JP2008234431A (ja) コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム
CA2910828C (en) Interactive viewing experiences by detecting on-screen text
JP2008152605A (ja) プレゼンテーション解析装置およびプレゼンテーション視聴システム
JP2006287319A (ja) 番組ダイジェスト作成装置および番組ダイジェスト作成プログラム
JP4270119B2 (ja) 代表画像選定方法及び装置及びプログラム
JP4568144B2 (ja) 情報提示装置及び情報提示プログラム
US11514924B2 (en) Dynamic creation and insertion of content
Gleason et al. Making GIFs Accessible
US7844901B1 (en) Circular timeline for video trimming
Auer et al. Automatic annotation of media field recordings
JP2009278202A (ja) 映像編集装置及び方法及びプログラム及びコンピュータ読み取り可能な記録媒体
US9632647B1 (en) Selecting presentation positions in dynamic content
JP5054653B2 (ja) 視聴印象推定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
US12125501B2 (en) Face-aware speaker diarization for transcripts and text-based video editing
US12119028B2 (en) Video segment selection and editing using transcript interactions
US20240134597A1 (en) Transcript question search for text-based video editing
US20240127855A1 (en) Speaker thumbnail selection and speaker visualization in diarized transcripts for text-based video
US20240127858A1 (en) Annotated transcript text and transcript thumbnail bars for text-based video editing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080715

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090216

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees