JP2009065462A - 映像を要約する装置、方法およびプログラム - Google Patents

映像を要約する装置、方法およびプログラム Download PDF

Info

Publication number
JP2009065462A
JP2009065462A JP2007231682A JP2007231682A JP2009065462A JP 2009065462 A JP2009065462 A JP 2009065462A JP 2007231682 A JP2007231682 A JP 2007231682A JP 2007231682 A JP2007231682 A JP 2007231682A JP 2009065462 A JP2009065462 A JP 2009065462A
Authority
JP
Japan
Prior art keywords
video
frame
line
frames
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007231682A
Other languages
English (en)
Inventor
Yasukazu Higuchi
靖和 樋口
Yasuaki Yamauchi
康晋 山内
Norio Mihara
功雄 三原
Shinko Sekine
真弘 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007231682A priority Critical patent/JP2009065462A/ja
Publication of JP2009065462A publication Critical patent/JP2009065462A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】映像内容を適切に反映した要約映像を生成する映像要約装置を提供する。
【解決手段】映像データと、映像データのメタデータを記憶するソースデータ管理部102と、配置順序が隣り合うコマの略中心点を結合する線であるセグメントを結合したコンテキストラインを算出し、セグメントの端点が存在するコマそれぞれの内容情報の変化量を算出し、算出した変化量に応じて所定量だけセグメントの端点の位置を変更するコンテキストライン算出部120と、コマに含まれるセグメントの端点と映像データに含まれるオブジェクトの略中心点との距離が第1閾値より小さく、かつ、コマに含まれるセグメントの方向とオブジェクトの向きとの差が第2閾値より小さい映像データを、要約映像としてソースデータ管理部102から選択するオブジェクトレイアウト算出部130とを備えた。
【選択図】 図2−1

Description

この発明は、コンピュータ、デジタルAV(Audio Visual)装置、および通信装置などで扱われる映像データから、映像要素を空間上にレイアウトした要約映像を生成する装置、方法およびプログラムに関するものである。
近年、コンピュータやデジタルAV機器、通信装置などで映像データの記録、閲覧が一般的に行われるようになった。これに伴い、記録した映像データの検索や内容確認を行うための技術が利用されている。そのような技術の1つとして、映像内のフレームを代表画像として選択し、レイアウトする手法が知られている。これは映像の時間変化に合わせて代表画像を上から下、または左から右にレイアウトする手法である。例えば、チャプター選択におけるサムネイル画像の表示手法はこの手法に該当する。サムネイル画像を表示することで、各チャプターの印象を示して目的のチャプターを選択しやすくすることができる。
また、代表画像をレイアウトすることで映像の内容を表現する手法として、漫画風のレイアウトを行う技術が提案されている(例えば、特許文献1)。特許文献1では、映像データと音声データを解析してカット検出を行い、その代表画像をコマとしてレイアウトすることで、映像を漫画風レイアウトに変換する方法が示されている。
ここで言う漫画風とは、表示領域を枠線で区切られた複数の領域(以下、コマと呼ぶ)に分割し、異なる画像をコマの中に配置することを意味する。漫画風レイアウトは、文章と同様に読み進めるコマの順序がおおよそ決まっており、その連続性により時間変化を表現することができる。漫画風にレイアウトすることで、映像の持つ時間的な変化を表現しつつ、内容の一覧性を向上させることが可能になる。
また、漫画作成のために、コマ割フォーマットを生成する手法として、シナリオなどの内容を記述したデータに基づいてページのコマ割を行う技術が提案されている(例えば、特許文献2)。この技術では、コマごとの注目度合いを表す注目度や、予め保存されたコマ形状の指定、セリフなどを記述したシナリオ情報に基づいて、ページをコマ割りし、吹き出しや擬音などを付加したコマ割フォーマットを生成することで、漫画作成作業の効率化を行っている。
特開2003−85572号公報 特開2003−208629号公報
しかしながら、従来の技術では、映像の内容を反映した要約を生成することができないため、要約映像の閲覧者に対して映像の内容を適切に伝えることができない場合があるという問題があった。
例えば、特許文献1の方法は、動画映像からフレーム画像を抜き出し、コマとして時系列に並べただけであり、空間上にレイアウトする際に重要なレイアウト要素間の位置関係に関して映像の内容を反映していない。このため、生成された要約映像は画一的なものになり、元映像の内容を閲覧者に伝えることができない。
また、特許文献2の方法では、映像の内容を表すシナリオ情報に基づいてコマ割を行っているが、コマ毎に独立した情報に基づいてレイアウトを行うことや、コマ内部に配置する映像要素については考慮していない。したがって、コマを並べた際の読みやすさに大きな影響をあたえるコマ間の連続性の考慮や、コマ内部への映像要素のレイアウト作業は人手により行う必要がある。このように、映像の内容を反映した要約映像を容易に生成することができない。
本発明は、上記に鑑みてなされたものであって、映像内容を示すメタデータが付与された映像データから、映像内容を適切に反映し、閲覧性の高い要約映像を生成することができる装置、方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、映像データを記憶する映像記憶部と、前記映像データを要約した要約映像を構成する部分映像の表示領域であるコマの配置順序と、前記コマそれぞれに対応する前記映像データの内容を表す内容情報とを含む前記映像データのメタデータを記憶するメタデータ記憶部と、前記メタデータ記憶部から前記配置順序を取得し、取得した前記配置順序が隣り合う前記コマの略中心である中心点を結合する線分を、前記配置順序に従って結合したラインを算出し、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記内容情報を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記内容情報と他方の端点に対して取得した前記内容情報との間の変化量を算出し、算出した前記変化量に応じた量だけ前記線分の端点の位置を変更したコンテキストラインを算出する第1算出部と、前記コマそれぞれについて、前記コマに含まれる前記線分の方向と前記映像データに含まれるオブジェクトの向きとの差が予め定められた第1閾値より小さい前記映像データを、前記部分映像として前記映像記憶部から選択する選択部と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる方法およびプログラムである。
また、本発明は、映像データを記憶する映像記憶部と、前記映像データを要約した要約映像を構成する部分映像の表示領域であるコマの配置順序、前記コマの配置位置、および前記コマの大きさを含む前記コマの配置情報と、前記コマそれぞれに対応する前記映像データの内容を表す内容情報とを含むメタデータを記憶するメタデータ記憶部と、前記メタデータ記憶部から前記配置情報および前記内容情報を取得し、取得した前記配置情報に含まれる配置順序が隣り合う前記コマ間における取得した前記内容情報の変化量を算出し、算出した前記変化量に応じた量だけ取得した前記配置情報に含まれる前記配置位置および前記大きさの少なくとも1つを変更するレイアウト変更部と、前記配置位置または前記大きさが変更された前記コマそれぞれについて、前記映像記憶部に記憶された前記映像データから前記部分映像を選択する選択部と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる方法およびプログラムである。
本発明によれば、映像内容を示すメタデータが付与された映像データから、映像内容を適切に反映し、閲覧性の高い要約映像を生成することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる映像を要約する装置、方法およびプログラムの最良な実施の形態を詳細に説明する。
(第1の実施の形態)
第1の実施の形態にかかる映像要約装置は、時系列に並べられた複数のフレーム画像からなる映像データと、その映像データの内容を記述したメタデータであるコンテキストデータとから、時間軸方向に並べられたフレーム画像およびフレーム画像内のオブジェクトを空間上にレイアウトすることにより、映像の内容を表現しつつ、一瞥性を高めた要約映像を生成するものである。
まず、本実施の形態の映像要約装置による映像要約処理の概要について図1を用いて説明する。図1は、映像要約処理の概要を示す説明図である。本実施の形態による映像要約処理では、映像データの持つ時系列の情報を空間上でのレイアウトで表現するための概念として、漫画等で用いられる「コマ」を導入し、コマを用いてレイアウトを行う。図1に示すように、映像データ200を要約した要約映像の出力領域として順序付けられた複数のページ220a〜220cに対し、ページ内を任意の大きさおよび形状に分割した小領域をコマとする。なお、要約映像は、1つ以上のページ220と、ページ220内の複数のコマに分けて表示される。すなわち、各ページの各コマは、要約映像を構成する部分映像の表示領域に相当する。同図では、例えばページ200aに対して、5つのコマ230a〜230dが割り当てられている。このように、ページ内に時系列に沿った内容を示すコマを連続して配置することで、映像の持つ時間表現を空間上のレイアウトで表現することができる。
また、漫画では、コマの大きさ・形状と、コマ内の映像の構図により時間変化量や登場人物の感情、場の雰囲気などを表現するのが一般的である。そこで、本実施の形態の映像要約処理では、それら漫画におけるコマのレイアウト、およびコマ内の映像のレイアウトに関する知見を用いて映像データを空間上にレイアウトする。
次に、本実施の形態の映像要約装置の構成について説明する。図2−1は、第1の実施の形態にかかる映像要約装置10の構成を示すブロック図である。図2−1に示すように、映像要約装置10は、ソースデータ取得部100と、ソースデータ管理部102と、コマレイアウト算出部110と、コンテキストライン算出部120と、オブジェクトレイアウト算出部130とを備えている。
ソースデータ取得部100は、外部から入力された映像データや、映像データの内容を表すコンテキストデータを取得するものである。
ソースデータ管理部102は、取得された映像データおよびコンテキストデータを管理するものである。図2−2は、ソースデータ管理部102の詳細な構成を示す説明図である。図2−2に示すように、ソースデータ管理部102は、映像記憶部102aと、映像フレーム群取得部102bと、メタデータ記憶部102cと、メタデータ取得部102dと、を備えている。
映像記憶部102aは、入力された映像データを記憶するものである。映像フレーム群取得部102bは、映像記憶部102aに記憶された映像データから、指定された任意のフレームを選択して取得するものである。取得されたフレームは、要約映像の生成に用いられる。
メタデータ記憶部102cは、映像データの内容を記述したメタデータとして入力されたコンテキストデータを記憶するものである。コンテキストデータの詳細については後述する。メタデータ取得部102dは、メタデータ記憶部102cに記憶されたコンテキストデータから、指定された任意の項目を選択して取得するものである。取得されたコンテキストデータは、後述するコマレイアウト算出処理、コンテキストライン算出処理、およびオブジェクトレイアウト算出処理で用いられる。
なお、映像記憶部102aおよびメタデータ記憶部102cは、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
次に、メタデータ記憶部102cに記憶されるコンテキストデータの詳細について説明する。コンテキストデータには、ページ情報、映像コマ対応情報、映像内容情報および映像内オブジェクト情報が含まれる。
図3−1は、コンテキストデータに含まれるページ情報のデータ構造の一例を示す説明図である。ページ情報には、要約映像の出力様式を表す情報が記述される。図3−1に示すように、ページ情報は、一度に表示できる映像単位をページとして、ページ数と、ページの大きさと、標準のコマ間隔と、ページ内のコマ数を規定するグリッド情報と、コマの配置順序や配置位置を表すコマ配置とを含んでいる。
図3−2は、コンテキストデータに含まれる映像コマ対応情報のデータ構造の一例を示す説明図である。映像コマ対応情報には、各コマに割り当てられた映像のフレームを表す情報が記述される。図3−2に示すように、映像コマ対応情報は、ページ番号と、コマ番号と、各コマに対応づけられているフレーム番号とを含んでいる。
図3−3は、コンテキストデータに含まれる映像内容情報のデータ構造の一例を示す説明図である。映像内容情報には、シナリオやオブジェクトの動きなどの映像の内容を表す情報が記述される。図3−3に示すように、映像内容情報は、コマ番号と、コマ内での映像の内容の盛り上がり度合いを示す盛り上がり度と、シナリオ上の時間位置を表すシナリオ時間と、オブジェクトアクションと、セリフとを含んでいる。
オブジェクトアクションとは、コマ内の映像に含まれるオブジェクトの動作(アクション)に関する情報であり、オブジェクトを識別するオブジェクト名と、アクションの内容と、オブジェクトの向きやアクションの対象となる他のオブジェクト名などを示すプロパティとを含んでいる。セリフは、発話者と、発話内容と、発話者の感情を示すプロパティとを含んでいる。
なお、映像内容情報は上記に限られるものではなく、カメラワーク、オブジェクト間の関係などを記述してもよい。
図3−4は、コンテキストデータに含まれる映像内オブジェクト情報のデータ構造の一例を示す説明図である。映像内オブジェクト情報には、各映像フレーム内のオブジェクトのレイアウトに関する情報が記述される。図3−4に示すように、映像内オブジェクト情報は、オブジェクト名と、フレーム番号と、オブジェクト領域と、オブジェクトの中心座標と、オブジェクトの主軸方向と、オブジェクト種類とを含んでいる。
オブジェクト領域とは、フレーム内のオブジェクトが存在する領域を示す情報であり、オブジェクト境界と、切り抜き情報とを含んでいる。オブジェクト境界とは、オブジェクトを含む矩形領域の境界を示す情報であり、矩形領域の左上点座標と、矩形領域の幅と、矩形領域の高さとを含んでいる。また、切り抜き情報とは、矩形領域内のオブジェクトの輪郭を表す情報である。具体的には、切り抜き情報は、オブジェクトの輪郭上に存在する複数の点の座標によって表される。
主軸方向とは、オブジェクトの姿勢を表す代表的な軸の方向を表す情報である。主軸方向は、例えば主成分分析などの従来から用いられている技術によって算出することができる。本実施の形態では、ベクトル形式で表された3つの軸(第1軸、第2軸、第3軸)を主軸として指定する。図3−4では、第1軸が(0、1.0)、第2軸が(1.0、0)、第3軸が省略された例が示されている。
オブジェクト種類には、オブジェクトの種類を示す情報として、例えば、「人物」、「動物」などの情報が設定される。
なお、これらのコンテキストデータは、人がキーボードなどを用いて手動で入力してもよいし、公知の画像処理手法などを用いて抽出するように構成してもよい。また、図3−1から図3−4に示したテーブル表現は記述の一形態であり、コンテキストデータの記述方式はこれに限定されるものではない。他の例としては、XMLのようなメタタグを用いたデータで記述してもよい。また、その他のデータ記述方式を用いてもよい。
図1に戻り、コマレイアウト算出部110は、ソースデータ管理部102で管理されているコンテキストデータを読込み、コマの位置、大きさ、および描画属性を含むコマレイアウト情報を算出するものである。
コンテキストライン算出部120は、コマレイアウト情報およびコンテキストデータから、要約映像においてある注目点とその次の注目点を結んだラインとして構成され、コマ内の映像を構成するオブジェクトの位置、大きさ、向きを決定するために用いるコンテキストライン情報を算出するものである。
オブジェクトレイアウト算出部130は、コンテキストライン情報、コマレイアウト情報、およびコンテキストデータを参照し、映像データからコマ内にレイアウトするオブジェクト映像を選択し、合成することで要約映像を生成するものである。
次に、コマレイアウト算出部110、コンテキストライン算出部120、およびオブジェクトレイアウト算出部130の詳細について以下に説明する。まず、コマレイアウト算出部110の構成および機能の詳細について説明する。
図4は、コマレイアウト算出部110の詳細な構成を示すブロック図である。図4に示すように、コマレイアウト算出部110は、初期コマレイアウト算出部111と、コマレイアウト調整部112と、コマ描画属性算出部113とを備えている。
まず、コマレイアウト算出部110内の各部による処理の概要について説明する。コマレイアウト算出部110に読み込まれたコンテキストデータは初期コマレイアウト算出部111に入力される。初期コマレイアウト算出部111は、入力されたフォーマットに従ってページ領域をコマ単位に分割することで、コマレイアウト情報の初期値(初期コマレイアウト情報)を算出する。算出された初期コマレイアウト情報は、コマレイアウト調整部112に入力される。
コマレイアウト調整部112は、コンテキストデータを参照してコマの位置、大きさの情報を調整する。さらに、コマ描画属性算出部113が、コンテキストデータを参照してコマの外形属性を含むコマの描画属性を算出し、その結果をコマレイアウト情報として出力する。
コマレイアウト情報は、要約映像のコマ単位でのレイアウト処理のために用いられる情報である。コンテキストライン算出部120では、コンテキストラインを算出するガイドとしてコマレイアウト情報を利用する。また、オブジェクトレイアウト算出部130では、オブジェクトの合成処理で、コマレイアウト情報を利用する。
次に、コマレイアウト算出部110内の各部の構成および機能の詳細について説明する。まず、初期コマレイアウト算出部111について説明する。
初期コマレイアウト算出部111は、映像の内容を反映させるための基準となるコマレイアウトの初期値である初期コマレイアウト情報を算出するものである。具体的には、初期コマレイアウト算出部111は、図3−1に示したようなコンテキストデータのページ情報を用いて、全てのコマが均一の大きさになるようにページ領域を分割し、初期コマレイアウト情報を算出する。
例えば、図3−1に示したページ情報から初期コマレイアウト情報を算出する場合、初期コマレイアウト算出部111は、まずグリッド情報からページ領域を分割し、コマ順序に合わせて分割した領域に番号を付与する。具体的には、初期コマレイアウト算出部111は、ページの縦、横をグリッド情報に記述された行と列の数で等分し、番号を付与する。その際、初期コマレイアウト算出部111は、コマレイアウト調整部112におけるコマレイアウト情報の調整の際に参照するために、上下左右で隣り合うコマ番号についても記録しておく。
次に、初期コマレイアウト算出部111は、平均のコマ間隔に合わせて各コマの上下左右の間隔を調整し初期コマレイアウト情報を算出する。具体的には、初期コマレイアウト算出部111は、各コマにおいて、空けるべき間隔に合わせてコマの大きさを小さくすることで間隔を調整する。算出された初期コマレイアウト情報は、コマ毎の位置、大きさ、および近隣のコマ番号により構成される。
例えば、図3−1に示すページ情報からは、図5に示す初期コマレイアウトに対応する初期コマレイアウト情報が得られる。初期コマレイアウト算出部111は、まず6ページのページ領域を準備する。そして、各ページをグリッド情報に従い3行2列に等分割する。さらに、図5に示すように、これにより得られた6つのコマのうち右上から左に向かって順に1〜6の番号を付与し、各コマ位置とコマ番号とを保持する。さらに、例えば、コマ番号1については、左のコマのコマ番号2と、下のコマ番号3とをコマ番号1に対応付けて保持する。さらに、コマ間隔5に従い、コマ間隔を縦横上下左右ともに5mmあける。これにより、図5に示す初期コマレイアウトが得られる。
次に、コマレイアウト調整部112について説明する。コマレイアウト調整部112は、コンテキストデータを参照して初期コマレイアウトを調整することで、映像の内容を空間的なレイアウトとして要約映像に反映させる。例えば、コマレイアウト調整部112は、各コマの盛り上がり度、シナリオ時間、およびフレーム数それぞれの変化量を算出し、算出した変化量に応じてコマレイアウトの調整を行う。
まず、コマレイアウト調整部112は、各コマにおける盛り上がり度に従ってページの全体的なコマレイアウトを調整する。以下では、図6を用いてページの全体的なコマレイアウトの調整について説明する。図6は、コマごとの盛り上がり度の一例を示した説明図である。
はじめに、コマレイアウト調整部112は、ページ内で最も盛り上がり度の高いコマを選択し、その盛り上がり度の大きさに比例してコマを大きくする。具体的には、コマレイアウト調整部112は、ページ内のコマの平均盛り上がり度に対する最大盛り上がり度の大きさにより対象のコマの大きさを決定する。図6の例では、コマ番号6のコマの盛り上がり度が最大となっているため、コマ番号6のコマを大きくする。コマを大きくする方法としては、盛り上がり度の大きさに比例して連続的にまたは段階的に大きく方法、盛り上がり度が予め定められた閾値以上である場合に所定の大きさだけ大きくする方法など、あらゆる方法を適用できる。
最大盛り上り度のコマの大きさを変えると、その周囲のコマも配置を変える必要が生じる場合がある。図7は、配置変更の必要が生じるレイアウトの一例を示す説明図である。図7は、コマ番号6のコマをコマ番号5の方向に大きくしたため、コマ番号5のコマの配置を変更する必要が生じた例を示している。
この場合、コマレイアウト調整部112は、各コマ間での盛り上がり度の変化量を比較し、最も盛り上がり度の変化量が少ないコマの組を圧縮することで最大盛り上り度のコマの大きさの変更に伴うレイアウト変更を行う。
コマの盛り上がり度は、映像全体におけるそのコマの盛り上がり度合を示すものであるが、局所的な盛り上がり度合いは隣り合ったコマ間での盛り上がり度の変化量に依存する。すなわち、隣り合ったコマ間で盛り上がり度の変化が最も少ないコマの組はそのページ内における盛り上がり度合いが小さく、重要度が低いと考えられる。このため、このようなコマの大きさを小さくする。これらの処理により、ページの全体的なコマレイアウトに対して、映像の内容に基づいた変化をつけることが可能となる。
図8は、レイアウト変更の一例を示す説明図である。上述した図6の例では、コマ番号2、3の2つのコマの盛り上がり度の変化が最も少ない。そこで、図8に示すように、コマレイアウト調整部112は、コマ番号2および3のコマの大きさを小さくする。そして、コマ番号5のコマを空いた領域に配置するようにレイアウトを変更する。
なお、コマレイアウトの調整方法は上記に限られるものではない。例えば、隣り合ったコマ間での盛り上がり度の変化量に対して閾値を設けておき、盛り上がり度の変化量がページ内ですべて閾値以上であった場合には、前後のページにコマをずらして配置することも可能である。現在のページにおける先頭、または末尾のコマを別のページにずらした場合のレイアウト調整は、最大盛り上がり度のコマの大きさを変更した場合と同様に行うことができる。
次に、コマレイアウト調整部112は、読み込んだ各コマに対応付けられたフレーム数を用いて、各コマに割り当てられた映像再生時間量に基づくコマサイズ調整を行う。以下では、映像再生時間量に基づくコマサイズ調整について図9および図10を用いて説明する。図9は、コマごとの映像再生時間の一例を模式的に示した説明図である。また、図10は、図9に示すような映像再生時間に応じたコマサイズ調整の一例を示す説明図である。
対応付けられたフレーム数が多いコマは、そのコマで表現される映像再生時間が多く、逆に対応付けられたフレーム数が少ない場合は、そのコマで表現される映像再生時間が少ないことを示している。そこで、コマレイアウト調整部112は、コマ間のフレーム数の差に応じて各コマの大きさを調整する。
具体的には、コマレイアウト調整部112は、まず、隣り合うコマ間でフレーム数(時間量)を比較する。そして、コマレイアウト調整部112は、時間量が多いコマを大きくし、時間量が少ないコマを小さくする。
要約映像の閲覧者は大きいコマをより長い時間注目すると考えられる。そのため、コマにより表現する映像内容の再生時間に比例してコマの大きさを調整することにより、各コマの注目時間を所望の時間に調整することができる。
例えば、コマ番号1〜6の各コマに対し図9に示す映像再生時間が割り当てられているとする。この場合には、例えばコマ番号1のコマはコマ番号2のコマに比べて映像再生時間が長い。そこで、図10に示すようにコマ番号1のコマの大きさをより大きくする。さらに、コマ番号4のコマはコマ番号3のコマに比べて映像再生時間が短い。そこで、図10に示すようにコマ番号4のコマの大きさをより小さくする。また、コマ番号5のコマはコマ番号4のコマに比べて映像再生時間が長い。そこで図10に示すようにコマ番号5のコマの大きさをより大きくする。
次に、コマレイアウト調整部112は、コマとコマの間隔をシナリオ時間の変化量に基づいて決定する。以下では、コマ間隔の調整について図11〜図13を用いて説明する。図11は、コマごとのシナリオ時間の一例を模式的に示した説明図である。また、図12および図13は、シナリオ時間に応じたコマ間隔調整の一例を示す説明図である。
コマ間でのシナリオ時間の差が閾値よりも大きい場合には、その大きさに比例して間隔を大きくし、閾値よりも小さい場合はその大きさに比例して小さくする。これは、コマ間隔の広さにより、コマ間の時間的な隔たりを表現するためである。
例えば、コマ番号1〜6の各コマに対し図11に示すシナリオ時間が割り当てられているとする。この場合には、コマ番号5のコマとコマ番号6のコマの間のシナリオ時間の時間間隔が長いので、図12に示すように、この分だけコマ番号5のコマとコマ番号6のコマの間のコマ間隔を広くする。また、コマ番号1のコマとコマ番号2のコマの間およびコマ番号2のコマとコマ番号3のコマの間のシナリオ時間の時間間隔が短いので、図13に示すようにシナリオ時間の時間間隔により定まる長さだけコマ番号1のコマ、コマ番号2のコマおよびコマ番号3のコマの間のコマ間隔を狭くする。
このような処理により、コマレイアウト調整部112は、コマの位置、大きさを調整する。
次に、コマ描画属性算出部113について説明する。コマ描画属性算出部113は、コマレイアウト調整部112が位置および大きさを調整したコマのレイアウトに対して、コンテキストデータを参照してコマ描画属性を算出する。本実施の形態では、コマ描画属性には、コマの外形属性、枠線属性、塗りつぶし属性が含まれる。
コマの外形は、例えば矩形や台形などの外形の形状を示す種類と、形状の詳細を示すプロパティとを有している。枠線属性は、枠線の描画色と、枠線の太さと、点線などの線種とを有している。塗りつぶし属性は、塗りつぶし色と、単色、複数色の斜線パターン、および不透明度などを含む塗りつぶしパターンとを有している。
最初に、コマの外形属性の算出について説明する。通常、コマの外形は矩形であるが、コンテキストデータに基づいてコマの形状を変えることで、映像の内容をより強く表現することができる。図14−1および図14−2は、コマの外形属性を変更したレイアウトの一例を示す説明図である。図14−1は、隣り合うコマ間での盛り上がり度の変化が大きいため、隣り合うコマとの境界を斜めにするように変更したコマ描画属性のコマを含むレイアウトの例を示している。
このようにコマの外形を変更することにより、コマの表示状態において、視覚的に動きが感じられるようになり、コマ間での盛り上がり度合いを表現することができる。具体的には、コマ描画属性算出部113は、コマ番号が増える方向に向かうように、盛り上がり度の変化量の大きさに比例してコマの境界の角度を決定する。
例えば、コマ番号1のコマとコマ番号2のコマの間の盛り上がり度の変化量が大きい場合には、図14−1に示すように、コマ番号1のコマとコマ番号2のコマの間の境界線を傾斜させる。また、コマ番号4のコマとコマ番号5のコマの間の盛り上がり度の変化量が大きい場合には、図14−1に示すように、コマ番号4のコマとコマ番号5のコマの間の境界線を傾斜させる。これにより、視覚的な動きを感じさせることができる。すなわち、コマ間での盛り上がりの程度を表現することができる。
さらに、図14−1に示す例では、コマ番号1のコマとコマ番号2、3のコマの間の境界線が傾斜している。したがって、コマ番号4のコマとコマ番号5のコマの間の境界線は、コマ番号1のコマとコマ番号2、3のコマの間の境界線とは逆の方向に傾斜させるのが好ましい。これにより、より視覚的な動きを感じさせることができる。
また、コマ描画属性算出部113は、コマ間におけるフレーム数の変化量に基づいて、コマ間の境界線を傾斜させる。具体的には、コマ描画属性算出部113は、フレーム数の変化が小さい場合にコマの境界を斜めにする。これにより、時間変化の急峻さを表現することができる。
さらに、コマ描画属性算出部113は、コマ間における盛り上がり度の変化量に基づいて、コマの外形を予め定められた形状に変更する。具体的には、コマ描画属性算出部113は、あるコマの盛り上がり度と、同一ページの他のコマの盛り上がり度との差が所定の閾値より大きい場合は、盛り上がり度が大きいコマの外形を図14−2に示すようなスパイク状の外形にする。これにより、対象のコマの盛り上がり度が大きいことを視覚的に表現することができる。
次に、コマの枠線属性の算出について説明する。図15〜図17は、コマの枠線属性を変更したレイアウトの一例を示す説明図である。枠線属性は、コマ外形をストロークとして描画する際の特徴を表す属性であり、上述のように、描画色、太さ、線種を含む。なお、描画色に透明度の情報を含め、透明度の有無により、枠線描画の有無を表すように構成してもよい。
まず、コマ描画属性算出部113は、盛り上がり度に応じて枠線の太さを調整する。具体的には、コマ間の盛り上がり度の差が閾値を超えている場合に、図15に示すように、盛り上がり度の大きいコマの枠線を太くする。これにより、コマの盛り上がり度の高さを表現することができる。また、他の例として、枠線を太くするのに代えて枠線の描画色を例えば赤など他の枠線と異なる色に変更するように構成してもよい。また、枠線を太くし、かつ枠線の色を変更するように構成してもよい。
また、コマ描画属性算出部113は、コンテキストデータの映像内容情報を参照してコマ内に主要なオブジェクトが存在するか否かを判断し、存在しない場合に、図16に示すように、当該コマの枠線を削除する。これにより、コマが示す内容が映像の時間経過とは無関係の内容であり、例えば、場所、状況などのようにシーンに共通する場面説明を表していることを明示することができる。
また、コマ描画属性算出部113は、あるコマのシナリオ時間が前のコマよりも過去であるか否かを判断し、過去である場合に、図17に示すように、枠線の線種を点線や掠れ線にする。これにより、シナリオ時間が不連続であることを明示することができる。
次に、コマの塗りつぶし属性の算出について説明する。図18は、コマの塗りつぶし属性を変更したレイアウトの一例を示す説明図である。塗りつぶし属性は、コマの内部領域の描画属性を示す属性である。
例えば、コマ描画属性算出部113は、あるコマのシナリオ時間が前のコマよりも過去である場合に、図18に示すように反転色により塗りつぶすことで、不連続な時間を明示することができる。また、シナリオ時間が前のコマよりも過去である場合に、不透明度を下げるように構成してもよい。これにより、コマ間でのシナリオ上の時間経過が不連続であることを明示できる。
コマ描画属性算出部113は、以上のようにコンテキストデータに基づいて、コマ属性を示すコマレイアウト情報を生成する。図19に示すように、コマレイアウト情報は、出力領域であるページのページ番号と、コマ番号と、コマの位置と、コマの大きさと、コマ描画属性とが含まれる。なお、コマレイアウト情報は、図19のようにテーブル形式に限られず、XMLのようなメタタグを用いたデータ形式で記述してもよいし、その他のデータ記述方式を用いてもよい。
次に、コンテキストライン算出部120の構成および機能の詳細について説明する。図20は、コンテキストライン算出部120の詳細な構成を示すブロック図である。図20に示すように、コンテキストライン算出部120は、初期コンテキストライン算出部121と、コンテキストライン調整部122とを備えている。
ここで、コンテキストラインの概念について図21を用いて説明する。図21は、コンテキストラインを視覚化した例を示す説明図である。図21に示すように、コンテキストラインは要約映像における注目点を注目する順に結合したラインである。コンテキストラインは、要約映像の生成処理では、閲覧時における映像内容を反映した理想的な視線移動を表すラインとして用いられる。
漫画風の表現では、閲覧時の視線移動の仕方が閲覧者の受ける印象に大きく影響すると考えられている。このため、本実施の形態では、視線移動の仕方により映像の内容を表現するためにコンテキストラインを導入する。
コンテキストラインは、向きを持つ複数の連続したセグメントにより構成された曲線として表現され、各セグメントの端点は注目点としての情報を持つ。各注目点は、その注目度合いを示す注目度と、映像上で実際の注目対象となるオブジェクト名を持つ。なお、注目点位置はレイアウトされるオブジェクトの中心位置、コンテキストラインの方向はその姿勢、注目度はその大きさにそれぞれ該当する。
コンテキストラインにより、連続する注目点間の視線移動を幾何学的に表現することができる。さらに、コンテキストラインを幾何学的に操作することで、閲覧時の視線移動をデザインすることができる。その際に映像の内容を反映した視線移動となるコンテキストラインに調整することで、空間上のレイアウトにより映像の内容を表現することが可能となる。
図20に戻り、コンテキストライン算出部120内の各部による処理の概要について説明する。読み込まれたコマレイアウト情報は、初期コンテキストライン算出部121に入力される。初期コンテキストライン算出部121は、コマレイアウト情報から、コンテキストライン情報の初期値である初期コンテキストライン情報を算出する。なお、初期コンテキストライン情報は、コマレイアウト情報のみから算出される。次に、コンテキストライン調整部122は、コンテキストデータを読み込み、読込んだコンテキストデータに基づいて初期コンテキストライン情報を調整し、映像の内容を反映した視線移動を表す情報として、コンテキストライン情報を出力する。
次に、コンテキストライン算出部120内の各部の構成および機能の詳細について説明する。まず、初期コンテキストライン算出部121について説明する。
初期コンテキストライン算出部121は、コマレイアウト情報から初期コンテキストラインを算出するものである。具体的には、初期コンテキストライン算出部121は、まず、読み込んだコマレイアウト情報から、コマ位置および大きさからコマの略中心である中心点(矩形コマならば対角線の交点)を求め、求めた中心点を各コマでの注目点の位置とする。
また、初期コンテキストライン算出部121は、コマの大きさに基づいた値を注目点での注目度として設定する。例えば、各コマを表す矩形の短辺の長さの80%と一致する直径の円の半径を、当該コマの注目度の値として設定する。注目度をコマの大きさに基づいて決定するのは、コマの大きさがそのコマにおける盛り上がり度を反映しており、盛り上がり度合いが高い場面と注目させる場面がほぼ同一であるためである。
そして、初期コンテキストライン算出部121は、各注目点をコマ順序に従って結ぶことにより、初期コンテキストラインを算出する。なお、以下では、初期コンテキストラインを構成する、2つの注目点を結んだ線分それぞれをセグメントという。
図22は、算出された初期コンテキストラインの一例を示す説明図である。図22の点240は、注目点の位置を示している。円242の半径によって注目度の大きさが示される。直線244はセグメントを示している。
図20に戻り、コンテキストライン調整部122について説明する。コンテキストライン調整部122は、初期コンテキストラインを構成する各セグメントに対して、隣接するセグメントとの間の角度、セグメントの長さ、端点の注目点における注目度をコンテキストデータに基づいて初期コンテキストラインを調整し、コンテキストライン情報を出力する。
具体的には、コンテキストライン調整部122は、まずコマ内にレイアウトするオブジェクトと注目点との対応付けを行う。すなわち、コンテキストライン調整部122は、コンテキストデータによってアクションが記述されているオブジェクトを注目対象のオブジェクトとして注目点に対応付ける。
初期コンテキストラインでは1つのコマに対して1つの注目点のみを設定している。そこで、注目対象のオブジェクトが複数存在する場合は、コンテキストライン調整部122は、コマ内に注目点を追加する。注目点の追加順序および位置は、アクションの記述内容に基づいて決定する。そして、アクションの順序とオブジェクトの位置の記述に基づき、分割したコマを想定して、新たなコンテキストラインを生成する。新たなコンテキストラインの生成は、初期コンテキストラインの生成と同様の方法で行う。
図23は、図22のような初期コンテキストラインに対して、オブジェクトと注目点との対応づけを行った例を示す説明図である。図23は、コマ番号5のコマに複数の注目対象オブジェクトが存在したため、当該コマを分割した例を示している。同図に示すように、コンテキストライン調整部122は、左右に2分割したコマを想定し、それぞれの中心点を注目点として新たにコンテキストラインを生成し、アクションの順序に従って注目対象オブジェクトを対応付ける。
また、コンテキストデータにそのコマにおけるアクションが記述されていない場合は、コンテキストライン調整部122は、レイアウトするオブジェクトとして、そのコマに割り当てられたフレーム群から任意のフレーム(例えば中央のフレーム)を対応づける。また、この場合、コンテキストライン調整部122は、注目度として、取り得る最小値を設定する。
次に、コンテキストライン調整部122は、コンテキストデータのうち映像内容情報中の盛り上がり度の変化量に基づいてコンテキストラインの角度を調整する。具体的には、コンテキストライン調整部122は、対象のコマ間での盛り上がり度の変化量の大きさに反比例して、1つ前のセグメントとなす角度が小さくなるように、現在対象としているセグメントの終点を垂直方向に移動する。これは、コンテキストラインで示される視線移動方向の変化を大きくすることで、閲覧時に勢いを感じさせ、映像の盛り上がり度合いを表現するためである。
なお、コマ番号1のコマの注目点とコマ番号2のコマの注目点とを結ぶ最初のセグメントについては、例えば、コマ番号1のコマの枠線右上の点とコマ番号1のコマの注目点とを結ぶ線となす角度が小さくなるように、セグメントの終点を垂直方向に移動する。
図24は、コンテキストラインの角度調整の一例を示す説明図である。図24では、例えば、コマ番号1のコマとコマ番号2のコマの盛り上がり度の変化量が大きいため、コマ番号2のコマの注目点の位置を上方向に移動することにより、コマ番号1のコマの枠線右上の点とコマ番号1のコマの注目点を結ぶ線と、最初のセグメントとのなす角を小さくした例が示されている。また、コマ番号3のコマとコマ番号4のコマの盛り上がり度の変化量が大きいため、コマ番号4のコマの注目点の位置を上方向に移動することにより、コマ番号3のコマの注目点とコマ番号4のコマの注目点を結ぶセグメントと、1つ前のセグメント、すなわちコマ番号2のコマの注目点とコマ番号3のコマの注目点を結ぶセグメントのなす角を小さくした例が示されている。
なお、両端が同じコマに属しているセグメントに対しては、その前後のセグメントの端点が所属しているコマにおける盛り上がり度と、現在のセグメントが属しているコマの盛り上がり度の平均値を用いて調整を行う。
次に、コンテキストライン調整部122は、コンテキストデータのうち映像コマ対応情報で各コマに対応付けられているフレーム数の変化量に基づいてコンテキストラインの長さを調整する。具体的には、コンテキストライン調整部122は、対象のコマ間でのフレーム数の差の大きさに比例して、フレーム数が多い側の端点を水平方向に沿って移動することでコンテキストラインの長さを調整する。これは、コンテキストラインで示される視線移動の量を長くすることで、閲覧時にそのコマ間での時間変化の大きさを感じさせるためである。これにより、映像の持っていた時間変化を表現することができる。なお、フレーム数の代わりに、シナリオ時間を用いてコンテキストラインの長さを調整するように構成してもよい。
図25は、コンテキストラインの長さ調整の一例を示す説明図である。図25に示す例では、コマ番号3のコマの注目点を左方向に移動し、コマ番号3のコマの注目点からコマ番号4のコマの注目点までのセグメントの長さを長くしている。なお、図25は、コマ番号1のコマとコマ番号2のコマの間のセグメントから順にすべてのセグメントに対して長さ調整を行った後のコンテキストラインの例を示している。
なお、両端が同じコマに属しているセグメントに対しては、端点の注目点に対応付けられているオブジェクトのアクションのフレーム数の変化量に基づいて終端側の注目点を移動する。
次に、コンテキストライン調整部122は、盛り上がり度の変化量に基づいてコンテキストラインの注目度を調整する。コンテキストライン調整部122は、まず、最初のセグメントに対しては、そのページの最初のコマの大きさおよび盛り上がり度と、そのページ全体におけるコマの大きさの平均値および盛り上がり度の平均値とのそれぞれの比率を求める。次に、コンテキストライン調整部122は、コマの大きさの比率とコマ盛り上がり度の比率とを比較する。そして、コマの盛り上がり度の比率の方が高い値であった場合、コンテキストライン調整部122は、その比率の差に応じた分だけ、最初のセグメントの始端の注目点における注目度を大きくする。また、コマの盛り上がり度の比率の方が小さい値であった場合は、コンテキストライン調整部122は、その比率の差に応じた分だけ、最初のセグメントの始端の注目点における注目度を小さくする。
次のセグメントからは、セグメントの各端点が所属するコマ間での盛り上がり度の差が大きく、かつ、始端側の注目点における注目度が初期コンテキストラインにおける注目度よりも大きくなっている場合に、コンテキストライン調整部122は、セグメントの終端側における注目点の注目度を、コマ間の盛り上がり度の差に反比例して小さくする。
また、セグメントの各端点が所属するコマ間での盛り上がり度の差が大きく、かつ、始端の注目点の注目度が初期コンテキストラインにおける注目度よりも小さい場合に、コンテキストライン調整部122は、セグメントの終端における注目点の注目度を、コマ間の盛り上がり度の差に比例して大きくする。
これは、注目度に比例して注目対象オブジェクトのサイズを変化させることで、注目点間の変化を強調し、映像の盛り上がり度合いを表現するためである。
図26は、注目度調整の一例を示す説明図である。図26では、コマ間の盛り上がり度の差に応じて、コマ番号1のコマの注目点、コマ番号4のコマの注目点、コマ番号5のコマの右側の注目点、およびコマ番号6のコマの注目点の注目度が、それぞれ大きくされた例が示されている。
コンテキストライン算出部120は、以上の処理により算出された注目点の情報を示す注目点情報と、セグメントの情報を示すセグメント情報とを含むコンテキストライン情報を、オブジェクトレイアウト算出部130に出力する。
図27は、注目点情報のデータ構造の一例を示す説明図である。図27に示すように、注目点情報は、注目点を識別する注目点番号と、注目点が所属するコマを表す所属コマと、注目点の位置と、注目度と、注目対象オブジェクト名とを含んでいる。
図28は、セグメント情報のデータ構造の一例を示す説明図である。図28に示すように、セグメント情報は、セグメントを識別するセグメント番号と、セグメントの始端の注目点番号(始点)と、セグメントの終端の注目点番号(終点)と、前後のセグメントのセグメント番号とを含んでいる。
なお、コンテキストライン情報は、上記のようにテーブル表現に限られるものではなく、XMLのようなメタタグを用いたデータ形式で記述してもよいし、その他のデータ記述方式を用いてもかまわない。
このようにして算出されるコンテキストラインを導入することで得られる効果の例を図29−1および図29−2を用いて説明する。図29−1は、特許文献1のような従来技術によって生成された要約映像の一例を示す説明図である。
特許文献1のように、カット検出等で検出したフレーム、すなわち映像内容が切り替わったフレームを要約映像として選択する方法によると、複数の人物が会話するシーン等では、類似するフレームが交互に選択される可能性が高い。このため、図29−1に示すように、単調で映像の内容が反映されない要約映像が生成される。
図29−2は、本実施の形態の方法によって生成された要約映像の一例を示す説明図である。本実施の形態では、コンテキストラインを導入し、映像の内容(コンテキストデータ)を参照して、要約映像に含めるオブジェクトの位置、大きさ、および姿勢を変化させるように調整したコンテキストラインを算出することができる。これにより、図29−2に示すように、映像の内容を反映した要約映像を生成することができる。
次に、オブジェクトレイアウト算出部130の構成および機能の詳細について説明する。図30は、オブジェクトレイアウト算出部130の詳細な構成を示すブロック図である。図30に示すように、オブジェクトレイアウト算出部130は、オブジェクトレイアウト情報算出部131と、オブジェクト映像選択部132と、オブジェクト映像加工部133と、オブジェクト映像合成部134とを備えている。
オブジェクトレイアウト情報算出部131は、入力されたコンテキストライン情報およびコンテキストデータを読み込み、コンテキストライン情報を参照して各コマで配置すべきオブジェクトの情報を算出し、オブジェクトレイアウト情報として出力する。
オブジェクトレイアウト情報は、オブジェクト名と、オブジェクトの中心座標位置と、オブジェクトの大きさと、オブジェクトの姿勢とを含んでいる。オブジェクトの中心座標位置は、コンテキストラインを構成する各セグメントの始端の座標を利用する。オブジェクトの大きさは、セグメントの始端における注目点の注目度に基づいて決定した値を利用する。例えば、注目度を円の半径で表した場合は、円に外接する矩形の面積を、オブジェクトの大きさとして算出する。オブジェクトの姿勢を表す情報として、各セグメント方向と、その1つ前のセグメント方向を利用する。例えば、ある注目点を終端とするセグメントの方向を示すベクトルと、当該注目点を始端とするセグメントの方向を示すベクトルとによってオブジェクトの姿勢を表すことができる。
オブジェクト映像選択部132は、オブジェクトレイアウト情報算出部131により算出されたオブジェクトレイアウト情報を読み込み、オブジェクトレイアウト情報と対応する映像フレームを選択し、オブジェクト映像として出力する。本実施の形態におけるオブジェクト映像とは、注目点における注目対象オブジェクトを映像データからフレーム単位または、オブジェクト領域単位で抜き出した映像である。
ここで、オブジェクト映像選択部132によるオブジェクト映像の取得方法について説明する。まず、オブジェクト映像選択部132は、処理対象となっているオブジェクトを配置すべきコマに割り当てられている映像データのフレーム群から、オブジェクトレイアウト情報に含まれるオブジェクト名と、コンテキストデータに含まれるオブジェクト情報を参照してオブジェクトが含まれるフレームを抜き出す。
次に、オブジェクト映像選択部132は、オブジェクトレイアウト情報に含まれるオブジェクトの姿勢および大きさと、コンテキストデータに記述されたオブジェクトの姿勢および大きさとをそれぞれ比較する。そして、オブジェクト映像選択部132は、姿勢および大きさの誤差が閾値より小さいフレームをオブジェクト映像として選択する。
具体的には、オブジェクト映像選択部132は、まずコンテキストデータに記述されたオブジェクトの主軸方向と、オブジェクトレイアウト情報に含まれる姿勢方向とがなす角度を求め、予め定められた閾値以下であるか否かを判定する。主軸方向と姿勢方向とのなす角度は、例えば、主軸方向を表すベクトルと、オブジェクトの姿勢を表すベクトルとの演算(内積)を利用した方法により算出できる。また、姿勢方向には、オブジェクトに対応する注目点を終端とするセグメントの方向を示すベクトルと、当該注目点を始端とするセグメントの方向を示すベクトルとの2つのベクトルが含まれるため、例えば、前者を主軸方向の第1軸を表すベクトルと比較し、後者を主軸方向の第2軸を表すベクトルと比較することにより角度を算出する。
算出した角度が、閾値以下である場合は、オブジェクト映像選択部132は、さらにコンテキストデータに記述されたオブジェクトの大きさとオブジェクトレイアウト情報に含まれるオブジェクトの大きさを比較し、誤差が予め定められた閾値以下であるか否かを判定する。誤差が閾値以下である場合、オブジェクト映像選択部132は、比較対象として抜き出したフレームをオブジェクト映像に含める。
なお、コマ内で表現する映像が時間軸を持った映像である場合、オブジェクト映像選択部132は、誤差が閾値以下で元映像データにおいて連続しているフレーム群をオブジェクト映像とする。また、コマ内で表現する映像が時間軸を持たない静止画像である場合は、オブジェクト映像選択部132は、誤差が最小のフレームをオブジェクト映像とする。
オブジェクト映像加工部133は、オブジェクト映像選択部132により出力されたオブジェクト映像とオブジェクトレイアウト情報を読み込み、オブジェクト映像をオブジェクトレイアウト情報に基づいて加工して出力する。具体的には、オブジェクト映像加工部133は、オブジェクト映像選択部132により取得されたオブジェクト映像と、オブジェクトレイアウト情報との誤差量に基づいて、誤差を低減するようにオブジェクト映像を加工する。例えば、オブジェクト映像加工部133は、オブジェクト映像内のオブジェクトの主軸方向と、オブジェクトレイアウト情報内のオブジェクトの姿勢方向との角度の誤差が大きい場合は、角度の誤差を低減するようにオブジェクト映像を回転する。また、オブジェクト映像加工部133は、オブジェクト映像内のオブジェクトの大きさと、オブジェクトレイアウト情報内のオブジェクトの大きさの誤差が大きい場合は、大きさの誤差を低減するようにオブジェクト映像を拡大または縮小する。また、オブジェクト映像加工部133は、オブジェクト映像内のオブジェクトの中心点と、オブジェクトレイアウト情報内のオブジェクトの中心座標位置との誤差が大きい場合は、大きさの誤差を低減するようにオブジェクト映像の位置を変更する。なお、最大の回転量、最大の拡大縮小量、および最大の位置の変更量を定めて変形を制限することで元映像データにおける印象を変えないようにすることができる。
オブジェクト映像合成部134は、オブジェクト映像加工部133により出力されたオブジェクト映像、オブジェクトレイアウト情報、および入力されたコマレイアウト情報を読み込み、コマごとにオブジェクト映像を配置することで要約映像を生成し、出力する。具体的には、オブジェクト映像合成部134は、オブジェクト映像加工部133で加工されたオブジェクト映像をオブジェクトレイアウト情報算出部131で算出したオブジェクトレイアウト情報に合わせてコマ内に合成する。
次に、このように構成された第1の実施の形態にかかる映像要約装置10による映像要約処理について図31を用いて説明する。図31は、第1の実施の形態における映像要約処理の全体の流れを示すフローチャートである。
図31に示すように、本実施の形態における映像要約処理は、要約する映像データおよび映像データの内容を記述したコンテキストデータを入力する動作と、入力されたコンテキストデータ基づいてコマレイアウト情報を算出する動作と、算出したコマレイアウト情報およびコンテキストデータに基づいてコンテキストライン情報を算出する動作と、コマレイアウト情報およびコンテキストライン情報に基づいてレイアウトするオブジェクト映像を選択し、合成して要約映像を生成する動作との4つに大別される。
まず、ソースデータ取得部100が、要約対象となる映像データ、および映像データの内容を記述したコンテキストデータを取得し、ソースデータ管理部102に渡す(ステップS10)。ソースデータ管理部102では、取得された映像データを映像記憶部102aに記憶し、取得されたコンテキストデータをメタデータ記憶部102cに記憶する。
次に、コマレイアウト算出部110が、コンテキストデータのページ情報、盛り上がり度、フレーム数、シナリオ情報の少なくともいずれか1つに基づいてコマのレイアウトを算出する(ステップS20)。
次に、コンテキストライン算出部120が、ステップS20で算出されたコマレイアウト情報と、コンテキストデータの盛り上がり度およびフレーム時間の少なくともいずれか1つとに基づき、コンテキストラインを算出する(ステップS30)。
次に、オブジェクトレイアウト算出部130が、映像データ、コンテキストデータ、およびステップS30で算出されたコンテキストライン情報を用いて、各コマ内におけるオブジェクトのレイアウトを算出し、その結果とステップS20で算出されたコマレイアウト情報を用いて要約映像を生成し、要約結果として出力する(ステップS40)。
次に、上記のステップS20〜ステップS40までの各ステップの詳細な動作についてそれぞれフローチャートを参照して説明する。まず、コマレイアウト算出部110におけるコマレイアウト算出(ステップS20)の処理フローを、図32を用いて説明する。図32は、第1の実施の形態におけるコマレイアウト算出処理の全体の流れを示すフローチャートである。
まず、コマレイアウト算出部110は、コンテキストデータに含まれるページ情報、各コマにおける盛り上がり度、シナリオ時間、およびフレーム数を読み込む(ステップS2001)。
次に、初期コマレイアウト算出部111が、読み込んだページ情報に基づいて、初期コマレイアウトを算出する(ステップS2002)。次に、コマレイアウト調整部112が、読み込んだ各コマにおいて盛り上がり度、シナリオ時間、およびフレーム数のそれぞれの変化量を算出し、算出した変化量に基づいてコマレイアウトの調整を行う。(ステップS2003)。
次に、コマ描画属性算出部113が、読み込んだコンテキストデータに基づいてコマの描画属性を算出する(ステップS2004)。以上の処理により、コマレイアウト情報が算出される。
次に、コンテキストライン算出部120におけるコンテキストライン算出(ステップS30)の処理フローを、図33を用いて説明する。図33は、第1の実施の形態におけるコンテキストライン算出処理の全体の流れを示すフローチャートである。
まず、コンテキストライン算出部120は、ステップS20で算出されたコマレイアウト情報と、コンテキストデータに含まれる各コマの盛り上がり度およびフレーム数を読み込む(ステップS3001)。
次に、初期コンテキストライン算出部121が、コマレイアウト情報を用いて初期コンテキストラインを算出する(ステップS3002)。次に、コンテキストライン調整部122が、ステップS3002で算出された初期コンテキストラインの各セグメントを、コンテキストデータに基づいて調整する(ステップS3003)。以上の処理により、コンテキストライン情報が算出される。
次に、オブジェクトレイアウト算出部130におけるオブジェクトレイアウト算出(ステップS40)の処理フローを、図34を用いて説明する。図34は、第1の実施の形態におけるオブジェクトレイアウト算出処理の全体の流れを示すフローチャートである。
まず、オブジェクトレイアウト算出部130は、コンテキストデータ、映像データ、ステップS20で算出したコマレイアウト情報、およびステップS30で算出したコンテキストライン情報を入力情報として読み込む(ステップS4001)。
次に、オブジェクトレイアウト情報算出部131が、コンテキストライン情報に基づいて、配置するオブジェクトのオブジェクトレイアウト情報を算出する(ステップS4002)。次に、オブジェクト映像選択部132が、ステップS4002で算出されたオブジェクトレイアウト情報を用いて、入力された映像データから配置すべきオブジェクト映像を選択する(ステップS4003)。
次に、オブジェクト映像加工部133が、ステップS4003で選択されたオブジェクト映像に対して、変形、フィルタリングなどの加工を行う(ステップS4004)。次に、オブジェクト映像合成部134が、ステップS4004で加工されたオブジェクト映像を出力領域に合成する(ステップS4005)。
以上、ステップS4002〜ステップS4005の処理を、コンテキストラインを構成するすべてのセグメントに対して行い(ステップS4006:YES)、すべてのセグメントに対する処理が終了すると(ステップS4006:NO)、オブジェクトレイアウト算出処理が終了する。以上の処理により、入力映像を要約した要約映像が生成される。
このように、第1の実施の形態にかかる映像要約装置では、映像内容を記述したメタデータであるコンテキストデータを参照し、映像データをコマ単位で空間上にレイアウトすることで時間情報を要約し、蓄積した映像データの内容を一瞥して把握することのできる要約映像を生成する。
その際、コマレイアウトとコマ内のオブジェクトのレイアウトに処理を分け、コマレイアウトでは、コマ間でのコンテキストデータの変化に応じてコマのレイアウトを変更している。また、コマ内のオブジェクトのレイアウトでは、要約映像における注目点を注目する順に結合したラインであるコンテキストラインの概念を導入し、コンテキストデータの変化に応じて調整したコンテキストラインを算出している。このような処理により、空間レイアウトに映像の内容を反映することが可能となる。
また、コマに対応するフレームを複数指定することで、コマとして並べて表示された際の連続性を考慮して最適なフレームをコマ映像として選択することが可能になり、映像の内容を空間レイアウトに反映することが可能になる。
以上のように、本実施の形態によれば、コマのレイアウトにより、大域的な映像内容を要約映像に反映することができるとともに、コマの連続性を考慮したコマ内のオブジェクトのレイアウトにより、局所的な映像内容を要約映像に反映することができるため、映像の内容を詳細に反映した要約映像を容易に生成することができる。
次に、本実施の形態にかかる映像要約装置10のハードウェア構成について図35を用いて説明する。図35は、本実施の形態にかかる映像要約装置10のハードウェア構成を示す説明図である。同図に示すように、映像要約装置10は、ハードウェア構成として、映像要約装置10における映像要約処理を実行する映像要約プログラムなどが格納されているROM(Read Only Memory)52と、ROM52内のプログラムに従って映像要約装置10の各部を制御するCPU(Central Processing Unit)51と、映像要約装置10の制御に必要な種々のデータを記憶するRAM53と、ネットワークに接続して通信を行う通信I/F57と、各部を接続するバス62とを備えている。
先に述べた映像要約装置10における映像要約プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フロッピー(登録商標)ディスク(FD)、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供されてもよい。
この場合には、映像要約プログラムは、映像要約装置10で上記記録媒体から読み出して実行することにより主記憶装置上にロードされ、上記ソフトウェア構成で説明した各部が主記憶装置上に生成されるようになっている。
また、本実施の形態の映像要約プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
以上、本発明を実施の形態を用いて説明したが、上記実施の形態に多様な変更または改良を加えることができる。
例えば、コマレイアウト算出部110、コンテキストライン算出部120、およびオブジェクトレイアウト算出部130の各段階で生成される情報をLCD(Liquid Crystal Display)等の表示装置に表示させて、ユーザがキーボード等の入力装置から情報の変更を行うように構成してもよい。
また、映像記憶部102aおよびメタデータ記憶部102cは、1つの記憶部として実現し、当該記憶部の内部の領域を映像データおよびメタデータのそれぞれを格納する領域に区画して使用するように構成してもよい。
また、コンテキストデータの内容は上記に限られるものではなく、映像の内容を表現するための他の情報を含むように構成してもよい。同様に、コマレイアウト情報の内容は上記に限られず、コマのレイアウトに関する他の情報を含むように構成してもよい。さらに、コンテキストライン情報の内容についても、上記内容に限定されるものではなく、コンテキストラインによって映像の内容を表現するための他の情報を含むように構成してもよい。
また、コマレイアウト算出およびコンテキストライン算出について、例えば、コンテキストデータ内の任意の項目に対応したルールを予め用意しておき、算出時にそのルールに従ってコマレイアウトの算出や、コンテキストラインの算出を行うように構成してもよい。
(第2の実施の形態)
第1の実施の形態では、コマ描画属性をコンテキストデータから算出していた。これに対し、第2の実施の形態にかかる映像要約装置は、事前に算出または設定されたコマ描画属性をコンテキストデータとして入力するものである。このため、第2の実施の形態の映像要約装置は、コマ描画属性を算出する第1の実施の形態のコマ描画属性算出部113を有さない。
図36は、第2の実施の形態にかかる映像要約装置のコマレイアウト算出部114の構成を示すブロック図である。図36に示すように、第2の実施の形態のコマレイアウト算出部114は、初期コマレイアウト算出部111と、コマレイアウト調整部112と、を備えている。
図37は、第2の実施の形態で入力されるコンテキストデータの映像コマ対応情報のデータ構造の一例を示す説明図である。図37に示すように、第2の実施の形態における映像コマ対応情報には、コマ描画属性が含まれている。コンテキストライン算出部120は、映像コマ対応情報に含まれる描画属性に基づいて、コンテキストラインを算出する。
なお、第2の実施の形態にかかる映像要約装置のこれ以外の構成および処理は、第1の実施の形態にかかる映像要約装置10の構成および処理と同様である。
(第3の実施の形態)
第3の実施の形態にかかる映像要約装置は、映像のカット単位で記述されたコンテキストデータを入力し、入力したコンテキストデータをコマ単位の記述に変更した後に、要約映像を生成するものである。
図38は、第3の実施の形態にかかる映像要約装置11の構成を示すブロック図である。図38に示すように、映像要約装置11は、ソースデータ取得部103と、割当部104と、ソースデータ管理部102と、コマレイアウト算出部110と、コンテキストライン算出部120と、オブジェクトレイアウト算出部130とを備えている。
第3の実施の形態では、ソースデータ取得部103の機能および割当部104を追加したことが第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる映像要約装置10の構成を表すブロック図である図2−1と同様であるので、同一符号を付し、ここでの説明は省略する。
ソースデータ取得部103は、映像データと、ページ情報、映像データの内容を映像のカット単位で記述した映像内容情報、および映像内オブジェクト情報を含むコンテキストデータとを入力するものである。
割当部104は、ソースデータ取得部103によって取得されたコンテキストデータを読み込み、コンテキストデータ内のカット単位の記述を、コマに割り当てることにより、コマ単位の記述に再構成するものである。
なお、カット単位で記述したコンテキストデータとは、図3−3で示した映像内容情報で、コマ番号の替わりに、カットを識別するカット番号と、カット開始フレーム番号と、カット終了フレーム番号とを記述したものである。なお、本実施の形態で入力されるページ情報および映像内オブジェクト情報は、それぞれ図3−1および図3−4で示した内容と同様である。
割当部104は、ページ情報およびカット単位で記述された映像内容情報を用いて、映像内容情報をコマ単位の記述に再構成するとともに、図3−2で示したような映像コマ対応情報を生成する。
次に、映像コマ対応情報の生成方法について説明する。まず、割当部104は、カット単位のコンテキストデータの盛り上がり度に基づいて、コンテキストデータを分割する。図39は、コンテキストデータを分割する様子を示した模式図である。図39は、横軸にカット番号、縦軸に盛り上り度を取ったグラフを表している。割当部104は、まず、このようなグラフで谷となっている部分を検出し、検出した位置でコンテキストデータを分割したブロックを生成する。
次に、割当部104は、分割したブロックをページに割り当てる。具体的には、割当部104は、分割数とページ数が同じ場合は、各ブロックを1ページに割り当てる。また、割当部104は、分割数がページ数よりも多い場合は、分割したブロック内での盛り上り度の最大値と最小値との差が小さいブロックを近傍のブロックと結合することで分割数とページ数を一致させる。その際、結合先のブロックは、近傍のブロックの中で盛り上り度の最大値と最小値の差が最も小さいブロックとする。これは、盛り上がり度の変化が小さいことから内容が単調であると予想でき、そのようなカットは要約し易いためである。
図40は、このようにしてブロックを結合した様子を示した模式図である。図40は、盛り上がり度の最大値と最小値との差が小さいブロックである最も左のブロックを、その隣のブロックと結合した例を示している。
また、割当部104は、分割数がページ数よりも少ない場合は、分割したブロックをさらに細分化することで分割数とページ数を一致させる。その際、ページ数が分割数の倍数であれば各ブロックをそれぞれ倍数に相当する分だけ分割してページを割り当てる。また、この場合は、盛り上り度が最大のカット位置で順次分割する。これは、分割位置の前のページで盛り上がりを表現し、分割位置の後のページで盛り下がりを表現するできるためである。
ページ数が分割数の倍数ではない場合、割当部104は、盛り上り度の最大値と最小値との差が大きいブロックから優先的に分割していくことでページを割り当てる。これは、盛り上がり度の変化が大きいことから、内容が多いと想定できるためである。
図41は、このようにしてブロックを分割した様子を示した模式図である。図41は、盛り上り度の最大値と最小値との差が大きいブロックである左から3つ目のブロックを、盛り上がり度が最大のカット位置で分割した例を示している。
次に、割当部104は、ページごとに、カット単位のコンテキストデータをコマに割り当てる。具体的には、割当部104は、ページに割り当てられたカット数と、ページのコマ数とを比較し、カット数とコマ数が同じならばカットとコマの順序を合わせて割り当てる。
カット数に対してコマ数が多い場合、割当部104は、コンテキストデータに基づいてカットを分割する。例えば、割当部104は、セリフ情報に基づき複数話者が存在するカットをセリフの切り替わり部分で分割することができる。コマ数とカット数が同等になるまでカットを分割することでコマにコンテキストデータを割り当てることができる。
カット数に対してコマ数が少ない場合、割当部104は、複数のカットを1つのコマに割り当てる。割当部104は、ページ単位に分割した際と同様に、盛り上り度の変化が少ないカットを同一のコマに割り当てることにより複数のカットを1つのコマに割り当てる。これにより、情報量が少ないと想定されるカットを要約することができる。
以上のような処理により、各ページのコマごとにカットを割り当てることができる。カットには、上述のようにカット開始フレーム番号およびカット終了フレーム番号が対応づけられているため、割当部104は、コマごとに開始フレームおよび終了フレームを対応づけた図3−2のような映像コマ対応情報を生成することができる。
また、カットをコマに割り当てた結果、割当部104は、カット単位で記述された映像内容情報を、コマ単位で記述した映像内容情報に再構成することができる。
なお、割当部104がコンテキストデータの分割基準をLCD等の表示装置に表示させて、ユーザがキーボード等の入力装置から指示を行うように構成してもよい。
次に、このように構成された第3の実施の形態にかかる映像要約装置11による映像要約処理について図42を用いて説明する。図42は、第3の実施の形態における映像要約処理の全体の流れを示すフローチャートである。
第3の実施の形態では、映像データおよびコンテキストデータを取得した後(ステップS10)、取得したコンテキストデータが再構成される(ステップS50)。その後、ステップS20からステップS40までの、コマレイアウト算出処理、コンテキストライン算出処理、およびオブジェクトレイアウト算出処理は、第1の実施の形態にかかる映像要約装置10と同様の処理なので、その説明を省略する。
次に、ステップS50のコンテキストデータ再構成処理の詳細について図43を用いて説明する。図43は、コンテキストデータ再構成処理の全体の流れを示すフローチャートである。
まず、割当部104は、カット単位で記述されたコンテキストデータとページ情報を読み込む(ステップS5001)。次に、割当部104は、読み込んだカット単位コンテキストデータを盛り上り度の変化量に基づいて分割する(ステップS5002)。次に、割当部104は、分割したコンテキストデータを、ページ情報に基づいて、ページ単位に割り当てる(ステップS5003)。次に、割当部104は、ページ単位に割り当てたコンテキストデータを、コマ単位に割り当てる(ステップS5004)。
このようにしてステップS5004で更新されたコンテキストデータを用いてステップS20以降の処理を行うことで、要約映像が生成される。
このように、第3の実施の形態にかかる映像要約装置は、映像のカット単位で記述されたコンテキストデータを入力し、入力したコンテキストデータをコマ単位の記述に変更した後に、要約映像を生成することができる。これにより、コンテキストデータの映像内容情報とページ情報を個別に扱うことで、出力様式が様々に変わるような場合にも、コンテキストデータの記述変更を最小限に抑えることができる。すなわち、コンテキストデータの再利用性および要約映像生成のスケーラビリティを向上させることができる。
(第4の実施の形態)
第4の実施の形態にかかる映像要約装置は、コンテキストデータに映像内オブジェクト情報が含まれない、または不完全であり、映像データからオブジェクトを抽出した後に、抽出したオブジェクトを含むコンテキストデータを用いて要約映像を生成するものである。
図44は、第4の実施の形態にかかる映像要約装置12の構成を示すブロック図である。図44に示すように、映像要約装置12は、ソースデータ取得部100と、オブジェクト抽出部105と、ソースデータ管理部102と、コマレイアウト算出部110と、コンテキストライン算出部120と、オブジェクトレイアウト算出部130とを備えている。
第4の実施の形態では、オブジェクト抽出部105を追加したことが第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる映像要約装置10の構成を表すブロック図である図2−1と同様であるので、同一符号を付し、ここでの説明は省略する。
なお、本実施の形態では、上述のように、映像要約装置12は映像データと、その映像データの内容を記述したコンテキストデータを入力するが、コンテキストデータに映像内オブジェクト情報が含まれない、または不完全であるものとする。
オブジェクト抽出部105は、入力された映像データを解析し、映像データから映像内オブジェクト情報を抽出する。まず、オブジェクト抽出部105は、映像データの連続したフレームから、フレーム間の色情報の差分を求め、フレームを前景領域と背景領域とに分離し、前景領域をオブジェクト領域として抽出する。なおオブジェクト領域の検出方法はこれに限られず、肌色領域を用いて顔領域を検出するなど、従来から用いられているあらゆるオブジェクト抽出技術を用いて映像データからオブジェクト領域を抽出することができる。
次に、オブジェクト抽出部105は、抽出したオブジェクト領域に対して、オブジェクト中心点や主軸方向を算出する。オブジェクト抽出部105は、例えば、重心計算などの従来から用いられているあらゆる画像処理技術により中心点を算出することができる。また、オブジェクト抽出部105は、例えば、主成分分析を用いた手法などの従来から用いられているあらゆる画像処理技術により主軸方向を算出することができる。
さらに、オブジェクト抽出部105は、抽出したオブジェクト情報をコンテキストデータに合成する。具体的には、コンテキストデータに映像内オブジェクト情報が含まれない場合、オブジェクト抽出部105は、抽出したオブジェクト情報から図3−4に示すような映像内オブジェクト情報を生成する。また、映像内オブジェクト情報がコンテキストデータに含まれている場合、オブジェクト抽出部105は、抽出したオブジェクト情報を映像内オブジェクト情報に追加する。
なお、オブジェクト抽出部105が、抽出し得る項目をLCD等の表示装置に表示し、ユーザがキーボード等の入力装置から抽出項目の指示を行うように構成してもよい。
次に、このように構成された第4の実施の形態にかかる映像要約装置12による映像要約処理について説明する。第4の実施の形態の映像要約処理の全体の流れは、第3の実施の形態の映像要約処理を示すフローチャートである図42と同様である。ただし、第4の実施の形態では、ステップS50のコンテキストデータ再構成処理の詳細が、第3の実施の形態と異なっている。
以下に、第4の実施の形態におけるコンテキストデータ再構成処理について図45を用いて説明する。図45は、第4の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。
まず、オブジェクト抽出部105が、映像データおよびコンテキストデータを読み込む(ステップS5005)。次に、オブジェクト抽出部105は、映像データを解析し、映像内オブジェクト情報を抽出する(ステップS5006)。次に、オブジェクト抽出部105は、抽出した映像内オブジェクト情報を、入力コンテキストデータに合成する(ステップS5007)。
このようにしてステップS5007で更新されたコンテキストデータを用いてステップS20以降の処理を行うことで、要約映像が生成される。
このように、第4の実施の形態にかかる映像要約装置は、映像内オブジェクト情報をコンテキストデータとして記述せずに、映像データから映像要約時に抽出することで、映像内容の記述と映像データを個別に扱うことができる。これにより、ストーリーなどの内容が存在しないホームビデオのような映像データに対して、ストーリー性を持った要約映像を生成することが可能になり、要約映像の利用範囲を広げることができる。
(第5の実施の形態)
第5の実施の形態にかかる映像要約装置は、入力されたコンテキストデータに基づき、吹き出しや擬音、漫画で用いられる記号(漫符)などのオブジェクトを生成し、要約映像生成に用いることで、映像の内容を反映した要約映像を生成するものである。
図46は、第5の実施の形態にかかる映像要約装置13の構成を示すブロック図である。図46に示すように、映像要約装置13は、ソースデータ取得部100と、オブジェクト生成部106と、ソースデータ管理部102と、コマレイアウト算出部110と、コンテキストライン算出部120と、オブジェクトレイアウト算出部130とを備えている。
第5の実施の形態では、オブジェクト生成部106を追加したことが第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる映像要約装置10の構成を表すブロック図である図2−1と同様であるので、同一符号を付し、ここでの説明は省略する。
オブジェクト生成部106は、コンテキストデータのセリフ情報を参照して、吹き出し、擬音、および漫符を生成し、オブジェクト情報およびオブジェクト映像として出力する。具体的には、オブジェクト生成部106は、「怒り」や「驚き」などを予めキーワードとして設定しておき、セリフ情報中のプロパティにそれらのキーワードが記述されていた場合に、そのキーワードに応じた生成オブジェクトを決定する。
オブジェクト生成部106は、セリフ情報内の発話内容が存在する場合に、吹き出し情報を生成する。吹き出し情報は、発話者、発話内容、吹き出し形状からなり、吹き出し形状は、セリフ情報内のプロパティに応じて決定される。
ここで、吹き出し形状の具体例について図47−1〜図47−3を用いて説明する。例えば、プロパティが存在しない場合には、図47−1に示すようなバルーン型の標準の吹き出し形状が用いられる。プロパティが「怒り」および「驚き」の場合には、図47−2に示すようなスパイク型の吹き出し形状が用いられる。また、プロパティが「独白」の場合には、図47−3に示すような雲型の吹き出し形状が用いられる。このように、吹き出し形状を変更することによって会話の雰囲気を要約映像に反映することができる。
また、オブジェクト生成部106は、セリフ情報内の発話者のオブジェクト種類が人物や動物以外のもので、発話内容が存在する場合に擬音情報を生成する。擬音情報は、吹き出し情報における吹き出し形状の代わりにフォント情報を持つ。フォント情報も吹き出し形状の場合と同様に、セリフ情報のプロパティにより決定される。例えば、プロパティが存在しない場合には、通常の明朝体が用いられ、プロパティが「大音量」ならばボールドのゴシック体が用いられる。このように、擬音のフォントによっても音による映像の雰囲気を要約映像に反映することができる。
また、オブジェクト生成部106は、セリフ情報内に発話者およびプロパティのみが記述され、発話内容が存在しない場合に漫符情報を生成する。図48−1〜図48−3は、漫符の一例を示す説明図である。漫符情報は、漫符付与対象である発話者および漫符種類を含む。漫符種類も、吹き出しおよび擬音と同様にセリフ情報のプロパティにより決定される。
例えば、プロパティが「怒り」ならば、図48−1に示すような漫符が用いられる。また、プロパティが「驚き」ならば図48−2の漫符を、プロパティが「不安」ならば図48−3の漫符がそれぞれ用いられる。このように、プロパティに応じた漫符を付与することで感情などを要約映像に反映することができる。
オブジェクト生成部106により生成された吹き出し情報、擬音情報、および漫符情報などのオブジェクト情報は、コンテキストデータの映像内オブジェクト情報、および映像内容情報におけるオブジェクトアクションに追加される。なお、オブジェクト生成部106は、生成されたオブジェクトを含む映像をオブジェクト映像として生成する。
追加されたオブジェクト情報は、事前に設定されたその他のオブジェクト情報と同様に扱われる。すなわち、生成されたオブジェクト情報をオブジェクトアクション情報として追加することで、コンテキストライン算出部120は、生成されたオブジェクト情報を他のオブジェクト情報と同様にレイアウトオブジェクトとして扱うことができる。また、ソースデータ管理部102は、生成されたオブジェクト映像も、実際にレイアウト対象となる映像として、入力された映像データと同様に扱う。
なお、生成したオブジェクト情報を映像内容情報に追加する際に、オブジェクトアクションとして、吹き出し、擬音、漫符などのオブジェクトの種類を設定し、プロパティとして、例えば吹き出しならば発話者を、漫符ならば付与対象を設定することで、生成したオブジェクト情報に特化したコンテキストライン算出処理、およびオブジェクトレイアウト算出処理を行うように構成してもよい。
例えば、コンテキストライン算出処理では、オブジェクトアクションが吹き出しである場合は、吹き出しに対応する注目点を、吹き出しの前後のコンテキストラインが一直線になるような位置に移動する。また、オブジェクトレイアウト算出処理では、吹き出しの先端部が同一コマに配置された発話者の口に該当する部位に近い位置になるように変形して吹き出しを配置する。発話者の口に該当する部位の検出方法としては、従来から用いられているあらゆる画像処理技術を用いることができる。また、口に該当する部位の位置を予めコンテキストデータに記述しておくように構成してもよい。
図49は、吹き出しを生成して要約映像に配置した例を示す説明図である。図49に示すように、中央のコマで、吹き出しの注目点が、発話者を含む前後のオブジェクトと注目点とを結ぶコンテキストラインが一直線になる位置に配置され、吹き出しの先端部は発話者の口に近い位置となるように変形されている。
また、オブジェクトアクションが漫符である場合も同様に、コンテキストライン算出処理では、漫符の前後のセグメントが一直線になる位置に配置する。そして、オブジェクトレイアウト算出処理では、例えば漫符の付与対象が人物等のキャラクターであり、顔領域の領域が閾値よりも大きい場合は、漫符を顔領域内に配置する。また、漫符の付与対象が人物以外である場合、または人物等であるが顔領域が閾値よりも小さい場合はコンテキストラインに沿った付与対象オブジェクト境界の境界付近に配置する。
なお、オブジェクト生成部106で生成されたオブジェクト情報をLCD等の表示装置に表示させて、ユーザがキーボード等の入力装置からオブジェクト情報の変更を行うように構成してもよい。また、生成するオブジェクトの種類および生成ルールは上述の手法に限定されるものではなく、映像の内容を表現するための他の種類および生成ルールを用いてもよい。
次に、このように構成された第5の実施の形態にかかる映像要約装置13による映像要約処理について説明する。第5の実施の形態の映像要約処理の全体の流れは、第3の実施の形態の映像要約処理を示すフローチャートである図42と同様である。ただし、第5の実施の形態では、ステップS50のコンテキストデータ再構成処理の詳細が、第3の実施の形態と異なっている。
以下に、第5の実施の形態におけるコンテキストデータ再構成処理について図50を用いて説明する。図50は、第5の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。
まず、オブジェクト生成部106は、コンテキストデータを読み込む(ステップS5008)。次に、オブジェクト生成部106は、コンテキストデータを解析し、新たなオブジェクト情報を生成する(ステップS5009)。次に、オブジェクト生成部106は、生成したオブジェクト情報を、入力したコンテキストデータに合成する(ステップS5010)。
このようにしてステップS5010で更新されたコンテキストデータを用いてステップS20以降の処理を行うことで、要約映像が生成される。
このように、第5の実施の形態にかかる映像要約装置は、コンテキストデータに記述されたセリフ情報から、吹き出し、擬音、漫符などのオブジェクト情報を生成し、要約映像のオブジェクトとして用いることができる。このため要約映像で失われる映像内容を最小限にすることができ、価値の高い要約映像が得られる。
(第6の実施の形態)
第6の実施の形態にかかる映像要約装置は、マウスやキーボードによる入力などのユーザインタラクションにより、ユーザが優先するオブジェクトの選択を受付け、選択されたオブジェクトを強調するような要約映像を生成するものである。
図51は、第6の実施の形態にかかる映像要約装置14の構成を示すブロック図である。図51に示すように、映像要約装置14は、ソースデータ取得部100と、指示受付部107と、コンテキストデータ編集部108と、ソースデータ管理部102と、コマレイアウト算出部110と、コンテキストライン算出部120と、オブジェクトレイアウト算出部130とを備えている。
第6の実施の形態では、指示受付部107およびコンテキストデータ編集部108を追加したことが第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる映像要約装置10の構成を表すブロック図である図2−1と同様であるので、同一符号を付し、ここでの説明は省略する。
指示受付部107は、マウスやキーボードなどの入力装置によって入力された、映像を要約する際に優先する項目を表すユーザ指示を受付ける。
コンテキストデータ編集部108は、受付けられたユーザ指示に応じてコンテキストデータの再構成を行う。例えば、コンテキストデータ編集部108は、「オブジェクトA」を優先した要約を行うことを表すユーザ指示が入力された場合、コンテキストデータを検索し、「オブジェクトA」によるアクションが記述されているコマの盛り上り度を増加する。同時に、コンテキストデータ編集部108は、「オブジェクトA」によるアクションが記述されていないコマの盛り上がり度を減少する。
なお、複数のオブジェクトのうち、要約映像の生成対象とするオブジェクトを表す主要オブジェクトを指定可能とし、主要オブジェクトを対象として要約映像を生成するように構成してもよい。この場合、複数のオブジェクトによるアクションが記述されている場合で「オブジェクトA」が主要オブジェクトではないアクションが存在する場合、そのアクションにおける主要オブジェクトを「オブジェクトA」に変更する。また、主要オブジェクトとして指定されたオブジェクトのオブジェクトアクションを新たに生成して映像内容情報に追加するように構成してもよい。
このようなコンテキストデータ再構成を行うことで、「オブジェクトA」を主体とした要約映像を生成することができる。
なお、コンテキストデータ編集部108が、映像を要約する際に優先する項目をユーザごとに予め統計データとして保存しておき、要約の際に統計データからユーザの優先度の高い項目を選択するように構成してもよい。
次に、このように構成された第6の実施の形態にかかる映像要約装置14による映像要約処理について説明する。第6の実施の形態の映像要約処理の全体の流れは、第3の実施の形態の映像要約処理を示すフローチャートである図42と同様である。ただし、第6の実施の形態では、ステップS50のコンテキストデータ再構成処理の詳細が、第3の実施の形態と異なっている。
以下に、第6の実施の形態におけるコンテキストデータ再構成処理について図52を用いて説明する。図52は、第6の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。
まず、指示受付部107が、コンテキストデータおよび要約映像で強調する項目を指定するユーザ指示を受付ける(ステップS5011)。次に、コンテキストデータ編集部108は、受付けられたユーザ指示に基づいてコンテキストデータを変更する(ステップS5012)。
このようにしてステップS5012で更新されたコンテキストデータを用いてステップS20以降の処理を行うことで、要約映像が生成される。
このように、第6の実施の形態にかかる映像要約装置は、ユーザが優先するオブジェクトの選択を受付け、選択されたオブジェクトを強調するような要約映像を生成することができる。これにより、ユーザが興味のある内容に合わせた要約映像を容易に生成することが可能になる。
(第7の実施の形態)
第7の実施の形態にかかる映像要約装置は、生成された要約映像を評価し、評価結果に応じて再レイアウトを行うものである。
図53は、第7の実施の形態にかかる映像要約装置15の構成を示すブロック図である。図53に示すように、映像要約装置15は、ソースデータ取得部100と、ソースデータ管理部102と、コマレイアウト算出部110と、コンテキストライン算出部120と、オブジェクトレイアウト算出部130と、実コンテキストライン算出部161と、コンテキストライン判定部160と、修正部162と、を備えている。
第7の実施の形態では、実コンテキストライン算出部161、コンテキストライン判定部160、および修正部162を追加したことが第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる映像要約装置10の構成を表すブロック図である図2−1と同様であるので、同一符号を付し、ここでの説明は省略する。
実コンテキストライン算出部161は、要約映像から実際の要約映像におけるコンテキストライン(実コンテキストライン)を算出する。具体的には、実コンテキストライン算出部161は、以下のようにして実コンテキストラインを算出する。
まず、実コンテキストライン算出部161は、最初のコマに配置されたオブジェクトの中心を最初の注目点とする。次に、実コンテキストライン算出部161は、次のコマに向かうオブジェクトの主軸方向に沿ったラインと別のオブジェクトとの交差を求め、そのライン上での交差オブジェクトの中央点を次の注目点とする。実コンテキストライン算出部161は、これを全てのコマに対して繰り返し、求められた注目点を順次結合した実コンテキストラインを算出する。すなわち、実コンテキストライン算出部161は、オブジェクトレイアウト算出部130によって生成された要約映像における隣接するコマの注目点を結合する線分を、さらにコマの順序で結合して実コンテキストラインを算出する。
コンテキストライン判定部160は、コンテキストライン算出部120により算出されたコンテキストライン(理論コンテキストライン)と、実コンテキストライン算出部161により算出された実コンテキストラインとを比較することで、再レイアウトの必要性の有無を判定する。
以下に、実コンテキストラインと理論コンテキストラインとの比較方法について説明する。実コンテキストライン算出部161により算出された実コンテキストラインは、映像の内容を反映したコンテキストラインであり、実コンテキストラインが理論コンテキストラインに近い方がよい要約映像であると言える。そこで、コンテキストライン判定部160は、実コンテキストラインと理論コンテキストラインとの対応する注目点間の距離を求め、その値が閾値よりも大きい点が存在する場合は、再レイアウトに必要があると判定する。この場合、コンテキストライン判定部160は、距離が閾値より大きい注目点の注目点番号と、コンテキストラインの各注目点における実コンテキストラインと理論コンテキストラインとの距離とを含むレイアウト修正箇所情報を出力する。
修正部162は、コンテキストライン判定部160により出力されたレイアウト修正箇所情報を読み込み、レイアウト修正箇所情報に合わせてコマレイアウト情報、またはコンテキストライン情報を修正する。
ここで、レイアウト修正の具体例について、図54−1、図54−1、図55−1、および図55−2を参照して説明する。まず、図54−1に示すように、レイアウト修正箇所における実コンテキストラインが、理論コンテキストラインが向かうコマと別のコマに向かっている場合は、コマレイアウト情報の修正を行う。
図54−1の例では、第2コマと第3コマとが縦に並んでいるために生じている問題であるため、図54−2のように第2コマと第3コマとを横に並べることで修正することができる。この場合のようにコマレイアウトを修正した場合は、修正したコマレイアウト情報(修正コマレイアウト情報)をコンテキストライン算出部120に入力することで再レイアウト処理を実行する。
また、図55−1に示すように、注目点の順序が入れ替わってしまう場合は、コンテキストライン情報の修正を行う。なお、この場合は、同一コマ内のオブジェクトであるため、オブジェクトの大きさを変えることでレイアウトを修正することはできない。大きさの相対関係を保たないと映像として破綻が生じるためである。
同図の例では、結果として必ずオブジェクトCに対して先に視線が移動する。すなわち、注目点の順序を変えない限り、注目順序が前のオブジェクト(オブジェクトB)より、注目順序が後のオブジェクト(オブジェクトC)に対して、先に視線が移動する。
このため、アクションの順序よりも視線の動きを滑らかにすることを優先して、注目点の順序を変更することでレイアウトを修正する。これにより、閲覧のしづらさを改善することができる。この場合のようにコンテキストライン情報を修正した場合は、修正したコンテキストライン情報(修正コンテキストライン情報)をオブジェクトレイアウト算出部130に入力することで再レイアウト処理を実行する。図55−2は、このようにして注目順序を変更し再レイアウトした要約映像の一例を示している。
なお、実コンテキストライン算出部161で生成される情報をLCD等の表示装置に表示させて、ユーザがキーボード等の入力装置から情報の変更を行うように構成してもよい。
次に、このように構成された第7の実施の形態にかかる映像要約装置15による映像要約処理について図56を用いて説明する。図56は、第7の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。
ステップS10からステップS40までの、映像データ・コンテキストデータ入力処理、コマレイアウト算出処理、コンテキストライン算出処理、およびオブジェクトレイアウト算出処理は、第1の実施の形態にかかる映像要約装置10と同様の処理なので、その説明を省略する。
オブジェクトレイアウト算出処理の後、実コンテキストライン算出部161が、要約映像におけるオブジェクトレイアウトに基づいて、実コンテキストライン情報を算出する(ステップS80)。次に、コンテキストライン判定部160が、理論コンテキストライン情報とステップS81で算出された実コンテキストライン情報とを比較し、レイアウト変更の必要があるか否かを判定する(ステップS81)。
変更の必要があると判定された場合は(ステップS81:YES)、コンテキストライン判定部160は、レイアウト修正箇所情報を算出する(ステップS82)。
次に、修正部162が、レイアウト修正箇所情報を参照し、コマレイアウト情報またはコンテキストライン情報を修正する(ステップS83)。次に、修正部162は、コマレイアウト情報を修正したか否かを判断し(ステップS84)、コマレイアウト情報を修正した場合は(ステップS84:YES)、コンテキストライン算出部120に修正コマレイアウト情報を出力する。これにより、ステップS30のコンテキストライン算出処理から再度レイアウト処理を実行することができる。
コマレイアウト情報ではなくコンテキストライン情報を修正した場合は(ステップS84:NO)、修正部162は、オブジェクトレイアウト算出部130に修正コンテキストライン情報を出力する。これにより、ステップS40のオブジェクトレイアウト算出処理から再度レイアウト処理を実行することができる。
ステップS81で、レイアウト変更の必要がない場合は(ステップS81:NO)、要約映像を出力して映像要約処理を終了する。
このように、第7の実施の形態にかかる映像要約装置は、算出されたレイアウトの判定を行い、繰り返し処理により要約映像を最適化することができる。これにより、効率的に要約映像の質を向上させることができる。
(第8の実施の形態)
第8の実施の形態にかかる映像要約装置は、生成された要約映像にコンテキストラインを重畳してユーザに提示し、提示されたコンテキストラインを直接操作することによりユーザが指示した編集内容にしたがって要約映像の再レイアウトを行うものである。
図57は、第8の実施の形態にかかる映像要約装置16の構成を示すブロック図である。図57に示すように、映像要約装置16は、ソースデータ取得部100と、ソースデータ管理部102と、コマレイアウト算出部110と、コンテキストライン算出部120と、オブジェクトレイアウト算出部130と、修正画面提示部170と、修正受付部172と、レイアウト編集部174と、修正部162と、を備えている。
第8の実施の形態では、修正画面提示部170、修正受付部172、レイアウト編集部174、および修正部162を追加したことが第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる映像要約装置10の構成を表すブロック図である図2−1と同様であるので、同一符号を付し、ここでの説明は省略する。また、修正部162の機能は、第7の実施の形態と同様であるため、同一符号を付し、ここでの説明は省略する。
修正画面提示部170は、オブジェクトレイアウト算出部130により生成された要約映像にコンテキストライン情報を重畳してLCD等の表示装置に提示し、コンテキストライン情報を直感的に編集できるようにする。図58は、修正画面の一例を示す説明図である。図58に示すように、修正画面提示部170は、コンテキストライン情報として、注目点の位置、連続する注目点をつなぐライン、および注目点における注目度の大きさに比例した円を修正画面に表示する。
修正受付部172は、ユーザからの修正指示を受け付ける。例えば、図58に示す修正画面上でマウスによりポインタPを操作し、ドラッグすることにより、注目点E1〜E7の位置を変更することや、注目度を表す円C1〜C7の大きさを変更することができる。
レイアウト編集部174は、修正受付部172が受付けた修正指示に対応するレイアウト修正箇所情報を生成する。具体的には、レイアウト編集部174は、受付けた修正指示から注目点の移動量や、注目度の大きさの変化量を求め、求めた移動量や変化量を含むレイアウト修正箇所情報を生成する。
レイアウト修正箇所情報と、コンテキストライン情報を修正部162に入力することで、第7の実施の形態と同様に再レイアウトを行い、提示した情報の更新を行う。これにより、ユーザ操作に対してインタラクティブに要約映像の変更が確認できる。
次に、このように構成された第8の実施の形態にかかる映像要約装置16による映像要約処理について図59を用いて説明する。図59は、第8の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。
ステップS10からステップS40までの、映像データ・コンテキストデータ入力処理、コマレイアウト算出処理、コンテキストライン算出処理、およびオブジェクトレイアウト算出処理は、第1の実施の形態にかかる映像要約装置10と同様の処理なので、その説明を省略する。
オブジェクトレイアウト算出処理の後、修正画面提示部170が、要約映像にコンテキストラインを重畳して提示し、ユーザの編集操作を待つ(ステップS90)。次に、修正受付部172が、再レイアウトが指示されたか否かを判断する(ステップS91)。
再レイアウトが指示されたと判断された場合は(ステップS91:YES)、レイアウト編集部174が指示に従ってレイアウト修正箇所情報を算出する(ステップS92)。
ステップS93からステップS94までの、修正処理および修正内容判定処理は、第7の実施の形態のステップS83からステップS84までと同様の処理なので、その説明を省略する。
このように、第8の実施の形態にかかる映像要約装置は、コンテキストラインを要約映像に重畳させ、コンテキストラインを操作することでインタラクティブに変更結果を確認しながら、要約映像の編集を行うことができる。これにより、要約映像の編集が容易になり、効率的に要約映像の質を向上させることができる。
以上のように、本発明にかかる映像を要約する装置、方法およびプログラムは、コンピュータ、デジタルAV(Audio Visual)装置、および通信装置などの映像データを処理する装置、方法およびプログラムに適している。
映像要約処理の概要を示す説明図である。 第1の実施の形態にかかる映像要約装置の構成を示すブロック図である。 ソースデータ管理部の詳細な構成を示す説明図である。 ページ情報のデータ構造の一例を示す説明図である。 映像コマ対応情報のデータ構造の一例を示す説明図である。 映像内容情報のデータ構造の一例を示す説明図である。 映像内オブジェクト情報のデータ構造の一例を示す説明図である。 コマレイアウト算出部の詳細な構成を示すブロック図である。 初期コマレイアウトの一例を示す図である。 コマごとの盛り上がり度の一例を示した説明図である。 配置変更の必要が生じるレイアウトの一例を示す説明図である。 レイアウト変更の一例を示す説明図である。 コマごとの映像再生時間の一例を模式的に示した説明図である。 コマサイズ調整の一例を示す説明図である。 コマごとのシナリオ時間の一例を模式的に示した説明図である。 シナリオ時間に応じたコマ間隔調整の一例を示す説明図である。 シナリオ時間に応じたコマ間隔調整の一例を示す説明図である。 コマの外形属性を変更したレイアウトの一例を示す説明図である。 コマの外形属性を変更したレイアウトの一例を示す説明図である。 コマの枠線属性を変更したレイアウトの一例を示す説明図である。 コマの枠線属性を変更したレイアウトの一例を示す説明図である。 コマの枠線属性を変更したレイアウトの一例を示す説明図である。 コマの塗りつぶし属性を変更したレイアウトの一例を示す説明図である。 コマレイアウト情報のデータ構成を模式的に示す図である。 コンテキストライン算出部の詳細な構成を示すブロック図である。 コンテキストラインを視覚化した例を示す説明図である。 算出された初期コンテキストラインの一例を示す説明図である。 オブジェクトと注目点との対応づけを行った例を示す説明図である。 コンテキストラインの角度調整の一例を示す説明図である。 コンテキストラインの長さ調整の一例を示す説明図である。 注目度調整の一例を示す説明図である。 注目点情報のデータ構造の一例を示す説明図である。 セグメント情報のデータ構造の一例を示す説明図である。 要約映像の一例を示す説明図である。 要約映像の一例を示す説明図である。 オブジェクトレイアウト算出部の詳細な構成を示すブロック図である。 第1の実施の形態における映像要約処理の全体の流れを示すフローチャートである。 第1の実施の形態におけるコマレイアウト算出処理の全体の流れを示すフローチャートである。 第1の実施の形態におけるコンテキストライン算出処理の全体の流れを示すフローチャートである。 第1の実施の形態におけるオブジェクトレイアウト算出処理の全体の流れを示すフローチャートである。 映像要約装置のハードウェア構成を示す説明図である。 第2の実施の形態にかかる映像要約装置のコマレイアウト算出部の構成を示すブロック図である。 第2の実施の形態で入力されるコンテキストデータの映像コマ対応情報のデータ構造の一例を示す説明図である。 第3の実施の形態にかかる映像要約装置の構成を示すブロック図である。 コンテキストデータを分割する様子を示した模式図である。 ブロックを結合した様子を示した模式図である。 ブロックを分割した様子を示した模式図である。 第3の実施の形態における映像要約処理の全体の流れを示すフローチャートである。 コンテキストデータ再構成処理の全体の流れを示すフローチャートである。 第4の実施の形態にかかる映像要約装置の構成を示すブロック図である。 第4の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。 第5の実施の形態にかかる映像要約装置の構成を示すブロック図である。 吹き出し形状の一例を示す説明図である。 吹き出し形状の一例を示す説明図である。 吹き出し形状の一例を示す説明図である。 漫符の一例を示す説明図である。 漫符の一例を示す説明図である。 漫符の一例を示す説明図である。 吹き出しを生成して要約映像に配置した例を示す説明図である。 第5の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。 第6の実施の形態にかかる映像要約装置の構成を示すブロック図である。 第6の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。 第7の実施の形態にかかる映像要約装置の構成を示すブロック図である。 コマの配置を変更する処理を説明するための図である。 コマの配置を変更する処理を説明するための図である。 オブジェクトの配置を変更する処理を説明するための図である。 オブジェクトの配置を変更する処理を説明するための図である。 第7の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。 第8の実施の形態にかかる映像要約装置の構成を示すブロック図である。 修正画面の一例を示す説明図である。 第8の実施の形態におけるコンテキストデータ再構成処理の全体の流れを示すフローチャートである。
符号の説明
10〜16 映像要約装置
51 CPU
52 ROM
53 RAM
54 通信I/F
61 バス
100 ソースデータ取得部
102 ソースデータ管理部
102a 映像記憶部
102b 映像フレーム群取得部
102c メタデータ記憶部
102d メタデータ取得部
103 ソースデータ取得部
104 割当部
105 オブジェクト抽出部
106 オブジェクト生成部
107 指示受付部
108 コンテキストデータ編集部
110 コマレイアウト算出部
111 初期コマレイアウト算出部
112 コマレイアウト調整部
113 コマ描画属性算出部
114 コマレイアウト算出部
120 コンテキストライン算出部
121 初期コンテキストライン算出部
122 コンテキストライン調整部
130 オブジェクトレイアウト算出部
131 オブジェクトレイアウト情報算出部
132 オブジェクト映像選択部
133 オブジェクト映像加工部
134 オブジェクト映像合成部
160 コンテキストライン判定部
161 実コンテキストライン算出部
162 修正部
170 修正画面提示部
172 修正受付部
174 レイアウト編集部

Claims (31)

  1. 映像データを記憶する映像記憶部と、
    前記映像データを要約した要約映像を構成する部分映像の表示領域であるコマの配置順序と、前記コマそれぞれに対応する前記映像データの内容を表す内容情報とを含む前記映像データのメタデータを記憶するメタデータ記憶部と、
    前記メタデータ記憶部から前記配置順序を取得し、取得した前記配置順序が隣り合う前記コマの略中心である中心点を結合する線分を、前記配置順序に従って結合したラインを算出し、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記内容情報を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記内容情報と他方の端点に対して取得した前記内容情報との間の変化量を算出し、算出した前記変化量に応じた量だけ前記線分の端点の位置を変更したコンテキストラインを算出する第1算出部と、
    前記コマそれぞれについて、前記コマに含まれる前記線分の方向と前記映像データに含まれるオブジェクトの向きとの差が予め定められた第1閾値より小さい前記映像データを、前記部分映像として前記映像記憶部から選択する選択部と、
    を備えたことを特徴とする映像要約装置。
  2. 前記メタデータ記憶部は、前記コマにおける前記映像データの盛り上がり度を前記内容情報として含む前記メタデータを記憶し、
    前記第1算出部は、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記盛り上がり度を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記盛り上がり度と他方の端点に対して取得した前記盛り上がり度との間の変化量を算出し、算出した前記変化量に応じた量だけ前記線分の端点の位置を変更した前記コンテキストラインを算出すること、
    を特徴とする請求項1に記載の映像要約装置。
  3. 前記第1算出部は、第1コマと前記第1コマの次に配置される第2コマとの間の前記盛り上がり度の変化量を算出し、前記第1コマと前記第2コマとを跨ぐ第1線分の端点のうち前記第2コマに含まれる端点の位置を、前記第1コマの前に配置される第3コマと前記第1コマとを跨ぐ第2線分と、前記第1線分とのなす角度が、算出した変化量に応じた角度だけ変化するように変更した前記コンテキストラインを算出すること、
    を特徴とする請求項2に記載の映像要約装置。
  4. 前記メタデータ記憶部は、前記コマそれぞれに対応する前記映像データに含まれるフレーム数を前記内容情報として含む前記メタデータを記憶し、
    前記第1算出部は、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記フレーム数を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記フレーム数と他方の端点に対して取得した前記フレーム数との間の変化量を算出し、算出した前記変化量に応じた量だけ前記線分の端点の位置を変更した前記コンテキストラインを算出すること、
    を特徴とする請求項1に記載の映像要約装置。
  5. 前記第1算出部は、第1コマと前記第1コマの次に配置される第2コマとの間の前記フレーム数の変化量を算出し、前記第1コマまたは前記第2コマの少なくとも一方に含まれる端点の位置を、前記第1コマと前記第2コマとを跨ぐ前記線分の長さが、算出した変化量に応じた長さだけ変化するように変更した前記コンテキストラインを算出すること、
    を特徴とする請求項4に記載の映像要約装置。
  6. 前記メタデータ記憶部は、前記コマにおける前記映像データのシナリオ上の時間を表すシナリオ時間を前記内容情報として含む前記メタデータを記憶し、
    前記第1算出部は、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記シナリオ時間を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記シナリオ時間と他方の端点に対して取得した前記シナリオ時間との間の変化量を算出し、算出した前記変化量に応じた量だけ前記線分の端点の位置を変更した前記コンテキストラインを算出すること、
    を特徴とする請求項1に記載の映像要約装置。
  7. 前記映像データのカットそれぞれの内容を表すカット情報を取得するカット情報取得部と、
    前記カットのうち、対応する前記カット情報が、前後の前記カットの前記カット情報それぞれより小さいまたは大きい前記カットを検出し、検出した前記カットを境界として前記カット情報を分割して少なくとも1つの前記カット情報を含む複数のブロックを生成し、生成したブロックを前記コマに割り当てる割当部と、をさらに備え、
    前記メタデータ記憶部は、前記配置順序と、前記コマに割り当てられた前記ブロックに含まれる前記カット情報を含む前記内容情報とを含む前記メタデータを記憶すること、
    を特徴とする請求項1に記載の映像要約装置。
  8. 前記メタデータ記憶部は、前記配置順序と、前記コマごとの前記映像データに含まれる前記オブジェクトのうち前記要約映像に含める対象となる前記オブジェクトを表す対象オブジェクトを含む前記内容情報とを含む前記メタデータを記憶し、
    前記第1算出部は、さらに、前記コマに含まれる前記線分の端点に、前記コマそれぞれに対応する前記内容情報に含まれる前記対象オブジェクトを対応づけ、
    前記選択部は、前記コマそれぞれについて、前記コマに含まれる前記線分の端点に対応づけられた前記対象オブジェクトと前記映像データに含まれる前記オブジェクトとが一致し、かつ、前記コマに含まれる前記線分の方向と前記オブジェクトの向きとの差が前記第1閾値より小さい前記映像データを、前記部分映像として前記映像記憶部から選択すること、
    を特徴とする請求項1に記載の映像要約装置。
  9. 前記選択部は、前記コマそれぞれについて、前記コマに含まれる前記線分の端点に対応づけられた前記対象オブジェクトと前記映像データに含まれる前記オブジェクトとが一致し、かつ、前記コマに含まれる前記線分の端点と前記オブジェクトの略中心である中心点との距離が予め定められた第2閾値より小さく、かつ、前記コマに含まれる前記線分の方向と前記オブジェクトの向きとの差が前記第1閾値より小さい前記映像データを、前記部分映像として前記映像記憶部から選択すること、
    を特徴とする請求項8に記載の映像要約装置。
  10. 前記映像データから前記対象オブジェクトを抽出する抽出部をさらに備え、
    前記メタデータ記憶部は、前記配置順序と、抽出された前記対象オブジェクトを含む前記内容情報とを含む前記メタデータを記憶すること、
    を特徴とする請求項8に記載の映像要約装置。
  11. 前記映像データに含まれる発話の種類および前記発話の発話者の種類の少なくとも一方に応じて予め定められたオブジェクトを生成する生成部をさらに備え、
    前記メタデータ記憶部は、前記配置順序と、生成された前記オブジェクトを前記対象オブジェクトとして含む前記内容情報とを含む前記メタデータを記憶すること、
    を特徴とする請求項8に記載の映像要約装置。
  12. 前記第1算出部は、さらに、前記コマに含まれる前記線分の端点に対応づけた前記対象オブジェクトが前記生成部により生成された前記オブジェクトであるか否かを判断し、前記生成部により生成された前記オブジェクトが対応づけられた前記線分の端点である第1端点の位置を、前記第1端点を端点とする2つの前記線分が一直線になるように変更した前記コンテキストラインを算出すること、
    を特徴とする請求項11に記載の映像要約装置。
  13. 前記対象オブジェクトとする前記オブジェクトの指示を受付ける指示受付部をさらに備え、
    前記メタデータ記憶部は、前記配置順序と、指示を受付けた前記オブジェクトを前記対象オブジェクトとして含む前記内容情報とを含む前記メタデータを記憶すること、
    を特徴とする請求項8に記載の映像要約装置。
  14. 前記第1算出部は、さらに、前記線分の端点ごとに、前記線分の端点に対応づける前記対象オブジェクトを注目する度合いを表す注目度を対応づけた前記ラインを算出し、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記内容情報を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記内容情報と他方の端点に対して取得した前記内容情報との間の変化量を算出し、算出した前記変化量に応じた値だけ前記線分の端点の前記注目度を変更した前記コンテキストラインを算出し、
    前記選択部は、前記コマそれぞれについて、前記コマに含まれる前記線分の端点に対応づけられた前記注目度に応じた大きさの基準値と、前記映像データに含まれる前記オブジェクトの大きさとの差が予め定められた第4閾値より小さく、かつ、前記コマに含まれる前記線分の方向と前記オブジェクトの向きとの差が前記第1閾値より小さい前記映像データを、前記部分映像として前記映像記憶部から選択すること、
    を特徴とする請求項8に記載の映像要約装置。
  15. 前記コマそれぞれについて、前記コマに含まれる前記線分の端点に対応づけられた前記注目度に応じた大きさの基準値と、選択された前記部分映像に含まれる前記オブジェクトの大きさとの差が小さくなるように、前記オブジェクトの大きさを変更して前記部分映像を更新する更新部と、
    更新された前記部分映像を前記コマに合成して出力する合成部と、をさらに備えたこと、
    を特徴とする請求項14に記載の映像要約装置。
  16. 前記配置順序が隣り合う前記コマについて選択された前記部分映像に含まれる前記オブジェクトの略中心である中心点を結合する線分を、前記配置順序に従って結合する実コンテキストラインを算出する第2算出部と、
    前記コンテキストラインに含まれる前記線分と、前記実コンテキストラインに含まれる前記線分とを対応づけ、前記コンテキストラインに含まれる前記線分の端点と、前記コンテキストラインに含まれる前記線分に対応づけた前記実コンテキストラインに含まれる前記線分の端点との距離が予め定められた第3閾値より大きいか否かを判定する判定部と、
    前記距離が前記第3閾値より大きいと判定された場合に、大きいと判定された前記端点の位置を修正する修正部と、をさらに備えたこと、
    を特徴とする請求項1に記載の映像要約装置。
  17. 前記コマに選択された前記部分映像を表示するとともに、前記部分映像と対応づけて前記コンテキストラインを表示部上に移動可能に提示する提示部と、
    前記コンテキストラインを前記表示部上で移動させることによって指定された前記コンテキストラインの修正指示を受付ける修正受付部と、
    前記修正指示に従い前記コンテキストラインの前記線分の端点の位置を修正する修正部と、をさらに備えたこと、
    を特徴とする請求項1に記載の映像要約装置。
  18. 前記コマそれぞれについて、前記コマに含まれる前記線分の方向と、選択された前記部分映像に含まれる前記オブジェクトの向きとの差が小さくなるように、前記オブジェクトの向きを変更して前記部分映像を更新する更新部と、
    更新された前記部分映像を前記コマに合成して出力する合成部と、をさらに備えたこと、
    を特徴とする請求項1に記載の映像要約装置。
  19. 前記コマそれぞれについて、前記コマに含まれる前記線分の端点の位置と、選択された前記部分映像に含まれる前記オブジェクトの略中心である中心点との差が小さくなるように、前記オブジェクトの位置を変更して前記部分映像を更新する更新部と、
    更新された前記部分映像を前記コマに合成して出力する合成部と、をさらに備えたこと、
    を特徴とする請求項1に記載の映像要約装置。
  20. 映像データを記憶する映像記憶部と、
    前記映像データを要約した要約映像を構成する部分映像の表示領域であるコマの配置順序、前記コマの配置位置、および前記コマの大きさを含む前記コマの配置情報と、前記コマそれぞれに対応する前記映像データの内容を表す内容情報とを含むメタデータを記憶するメタデータ記憶部と、
    前記メタデータ記憶部から前記配置情報および前記内容情報を取得し、取得した前記配置情報に含まれる配置順序が隣り合う前記コマ間における取得した前記内容情報の変化量を算出し、算出した前記変化量に応じた量だけ取得した前記配置情報に含まれる前記配置位置および前記大きさの少なくとも1つを変更するレイアウト変更部と、
    前記配置位置または前記大きさが変更された前記コマそれぞれについて、前記映像記憶部に記憶された前記映像データから前記部分映像を選択する選択部と、
    を備えたことを特徴とする映像要約装置。
  21. 前記レイアウト変更部は、さらに、算出した前記変化量に応じて前記コマの外形、前記コマの枠線の描画属性、および前記コマの内部の描画属性の少なくとも1つを変更すること、
    を特徴とする請求項20に記載の映像要約装置。
  22. 前記メタデータ記憶部は、前記コマにおける前記映像データの盛り上がり度を前記内容情報として含む前記メタデータを記憶し、
    前記レイアウト変更部は、前記メタデータ記憶部から前記配置情報および前記盛り上がり度を取得し、取得した前記配置情報に含まれる配置順序が隣り合う前記コマ間における取得した前記盛り上がり度の変化量を算出し、算出した前記変化量に応じた量だけ取得した前記配置情報に含まれる前記配置位置および前記大きさの少なくとも1つを変更すること、
    を特徴とする請求項20に記載の映像要約装置。
  23. 前記メタデータ記憶部は、前記コマそれぞれに対応する前記映像データに含まれるフレーム数を前記内容情報として含む前記メタデータを記憶し、
    前記レイアウト変更部は、前記メタデータ記憶部から前記配置情報および前記フレーム数を取得し、取得した前記配置情報に含まれる配置順序が隣り合う前記コマ間における取得した前記フレーム数の変化量を算出し、算出した前記変化量に応じた量だけ取得した前記配置情報に含まれる前記配置位置および前記大きさの少なくとも1つを変更すること、
    を特徴とする請求項20に記載の映像要約装置。
  24. 前記メタデータ記憶部は、前記コマにおける前記映像データのシナリオ上の時間を表すシナリオ時間を前記内容情報として含む前記メタデータを記憶し、
    前記レイアウト変更部は、前記メタデータ記憶部から前記配置情報および前記シナリオ時間を取得し、取得した前記配置情報に含まれる配置順序が隣り合う前記コマ間における取得した前記シナリオ時間の変化量を算出し、算出した前記変化量に応じた量だけ取得した前記配置情報に含まれる前記配置位置および前記大きさの少なくとも1つを変更すること、
    を特徴とする請求項20に記載の映像要約装置。
  25. 前記メタデータ記憶部から前記配置順序を取得し、取得した前記配置順序が隣り合う前記コマの略中心である中心点を結合する線分を、前記配置順序に従って結合したラインを算出し、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記内容情報を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記内容情報と他方の端点に対して取得した前記内容情報との間の変化量を算出し、算出した前記変化量に応じた量だけ前記線分の端点の位置を変更した前記コンテキストラインを算出する第1算出部と、をさらに備え、
    前記選択部は、前記コマそれぞれについて、前記コマに含まれる前記線分の方向と前記映像データに含まれるオブジェクトの向きとの差が予め定められた第1閾値より小さい前記映像データを、前記部分映像として前記映像記憶部から選択すること、
    を特徴とする請求項20に記載の映像要約装置。
  26. 前記配置順序が隣り合う前記コマについて選択された前記部分映像に含まれる前記オブジェクトの略中心である中心点を結合する線分を、前記配置順序に従って結合する実コンテキストラインを算出する第2算出部と、
    前記コンテキストラインに含まれる前記線分と、前記実コンテキストラインに含まれる前記線分とを対応づけ、前記コンテキストラインに含まれる前記線分の端点と、前記実コンテキストラインに含まれる前記線分に対応づけた前記線分の端点との距離が予め定められた第2閾値より大きいか否かを判定する判定部と、
    前記距離が前記第2閾値より大きいと判定された場合に、大きいと判定された前記端点を含む前記コマの前記配置情報を修正する修正部と、をさらに備えたこと、
    を特徴とする請求項25に記載の映像要約装置。
  27. 前記コマに選択された前記部分映像を表示するとともに、前記部分映像と対応づけて前記コンテキストラインを表示部上に移動可能に提示する提示部と、
    前記コンテキストラインを前記表示部上で移動させることによって指定された前記コンテキストラインの修正指示を受付ける修正受付部と、
    前記修正指示に従い前記コンテキストラインの前記線分の端点の位置を修正する修正部と、をさらに備えたこと、
    を特徴とする請求項25に記載の映像要約装置。
  28. 第1算出部によって、映像データを要約した要約映像を構成する部分映像の表示領域であるコマの配置順序と、前記コマそれぞれに対応する前記映像データの内容を表す内容情報とを含む前記映像データのメタデータを記憶するメタデータ記憶部から前記配置順序を取得し、取得した前記配置順序が隣り合う前記コマの略中心である中心点を結合する線分を、前記配置順序に従って結合したラインを算出する第1算出ステップと、
    第1算出部によって、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記内容情報を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記内容情報と他方の端点に対して取得した前記内容情報との間の変化量を算出し、算出した前記変化量に応じた量だけ前記線分の端点の位置を変更した前記コンテキストラインを算出する第2算出ステップと、
    選択部によって、前記コマそれぞれについて、前記映像データを記憶する映像記憶部から、前記コマに含まれる前記線分の方向と前記映像データに含まれるオブジェクトの向きとの差が予め定められた第1閾値より小さい前記映像データを前記部分映像として選択する選択ステップと、
    を備えたことを特徴とする映像要約方法。
  29. レイアウト変更部によって、映像データを要約した要約映像を構成する部分映像の表示領域であるコマの配置順序、前記コマの配置位置、および前記コマの大きさを含む前記コマの配置情報と、前記コマそれぞれに対応する前記映像データの内容を表す内容情報とを含むメタデータを記憶するメタデータ記憶部から前記配置情報および前記内容情報を取得し、取得した前記配置情報に含まれる配置順序が隣り合う前記コマ間における取得した前記内容情報の変化量を算出し、算出した前記変化量に応じた量だけ取得した前記配置情報に含まれる前記配置位置および前記大きさの少なくとも1つを変更するレイアウト変更ステップと、
    選択部によって、前記配置位置または前記大きさが変更された前記コマそれぞれについて、映像記憶部に記憶された前記映像データから前記部分映像を選択する選択ステップと、
    を備えたことを特徴とする映像要約方法。
  30. 映像データを要約した要約映像を構成する部分映像の表示領域であるコマの配置順序と、前記コマそれぞれに対応する前記映像データの内容を表す内容情報とを含む前記映像データのメタデータを記憶するメタデータ記憶部から前記配置順序を取得し、取得した前記配置順序が隣り合う前記コマの略中心である中心点を結合する線分を、前記配置順序に従って結合したラインを算出し、算出された前記ラインに含まれる前記線分それぞれについて、前記線分の端点が存在する前記コマの前記内容情報を前記メタデータ記憶部から取得し、一方の端点に対して取得した前記内容情報と他方の端点に対して取得した前記内容情報との間の変化量を算出し、算出した前記変化量に応じた量だけ前記線分の端点の位置を変更した前記コンテキストラインを算出する算出手順と、
    前記コマそれぞれについて、前記映像データを記憶する映像記憶部から、前記コマに含まれる前記線分の方向と前記映像データに含まれるオブジェクトの向きとの差が予め定められた第1閾値より小さい前記映像データを前記部分映像として選択する選択手順と、
    をコンピュータに実行させる映像要約プログラム。
  31. 映像データを要約した要約映像を構成する部分映像の表示領域であるコマの配置順序、前記コマの配置位置、および前記コマの大きさを含む前記コマの配置情報と、前記コマそれぞれに対応する前記映像データの内容を表す内容情報とを含むメタデータを記憶するメタデータ記憶部から前記配置情報および前記内容情報を取得し、取得した前記配置情報に含まれる配置順序が隣り合う前記コマ間における取得した前記内容情報の変化量を算出し、算出した前記変化量に応じた量だけ取得した前記配置情報に含まれる前記配置位置および前記大きさの少なくとも1つを変更するレイアウト変更手順と、
    前記配置位置または前記大きさが変更された前記コマそれぞれについて、映像記憶部に記憶された前記映像データから前記部分映像を選択する選択手順と、
    をコンピュータに実行させる映像要約プログラム。
JP2007231682A 2007-09-06 2007-09-06 映像を要約する装置、方法およびプログラム Pending JP2009065462A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007231682A JP2009065462A (ja) 2007-09-06 2007-09-06 映像を要約する装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007231682A JP2009065462A (ja) 2007-09-06 2007-09-06 映像を要約する装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2009065462A true JP2009065462A (ja) 2009-03-26

Family

ID=40559636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007231682A Pending JP2009065462A (ja) 2007-09-06 2007-09-06 映像を要約する装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2009065462A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011066546A (ja) * 2009-09-15 2011-03-31 Tokyo Kogei Univ コマ割り画像生成装置及びプログラム
JP2013077982A (ja) * 2011-09-30 2013-04-25 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2015004984A1 (ja) * 2013-07-10 2015-01-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019133605A (ja) * 2018-02-02 2019-08-08 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2022113293A1 (ja) * 2020-11-27 2022-06-02 日本電信電話株式会社 画像生成装置、画像生成方法及び画像生成プログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011066546A (ja) * 2009-09-15 2011-03-31 Tokyo Kogei Univ コマ割り画像生成装置及びプログラム
JP2013077982A (ja) * 2011-09-30 2013-04-25 Sony Corp 情報処理装置、情報処理方法及びプログラム
CN103197850A (zh) * 2011-09-30 2013-07-10 索尼公司 信息处理设备、信息处理方法和计算机可读介质
US10380773B2 (en) 2011-09-30 2019-08-13 Sony Corporation Information processing apparatus, information processing method, and computer readable medium
WO2015004984A1 (ja) * 2013-07-10 2015-01-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN105359079A (zh) * 2013-07-10 2016-02-24 索尼公司 信息处理装置、信息处理方法和程序
JPWO2015004984A1 (ja) * 2013-07-10 2017-03-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10210139B2 (en) 2013-07-10 2019-02-19 Sony Corporation Information processing device and information processing method
JP2019133605A (ja) * 2018-02-02 2019-08-08 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
WO2022113293A1 (ja) * 2020-11-27 2022-06-02 日本電信電話株式会社 画像生成装置、画像生成方法及び画像生成プログラム

Similar Documents

Publication Publication Date Title
US10134364B2 (en) Prioritized display of visual content in computer presentations
JP3968942B2 (ja) ビデオの内容を要約する方法
US8301669B2 (en) Concurrent presentation of video segments enabling rapid video file comprehension
US8416332B2 (en) Information processing apparatus, information processing method, and program
US8174523B2 (en) Display controlling apparatus and display controlling method
CN105723358B (zh) 用于交互式站点与应用的自动转换的系统和方法
US9325869B2 (en) Image processing apparatus, image processing method, and image processing program
US8261191B2 (en) Multi-point representation
US10380773B2 (en) Information processing apparatus, information processing method, and computer readable medium
US20220078358A1 (en) System for automatic video reframing
US20120131463A1 (en) System and Method for Assembling and Displaying Individual Images as a Continuous Image
US10332562B2 (en) System and method for space-time annotation-capable media scrubbing
JP4370792B2 (ja) ビデオシーケンスの階層形成方法及びプログラム
JP2009065462A (ja) 映像を要約する装置、方法およびプログラム
US7844901B1 (en) Circular timeline for video trimming
CN113312125B (zh) 多窗口调整方法、系统、可读存储介质和电子设备
US8462163B2 (en) Computer system and motion control method
JP7049173B2 (ja) 手話cg翻訳編集装置及びプログラム
JP2014096010A (ja) 動く漫画作成支援プログラム、及び動く漫画作成支援装置
JP2005050051A (ja) レイアウトシステム及びレイアウトプログラム並びにレイアウト方法
JP4736081B2 (ja) コンテンツ閲覧システム、コンテンツサーバ、プログラムおよび記憶媒体
Jentner et al. DeepClouds: Stereoscopic 3D Wordle based on Conical Spirals
JP2015203933A (ja) コンテンツ抽出装置およびコンテンツ抽出方法
JP6979738B1 (ja) サーバおよびアニメーション推薦システム、アニメーション推薦方法、プログラム
KR102203272B1 (ko) 관심 객체 처리 장치 및 그 방법