JP5315694B2 - 映像生成装置、映像生成方法および映像生成プログラム - Google Patents

映像生成装置、映像生成方法および映像生成プログラム Download PDF

Info

Publication number
JP5315694B2
JP5315694B2 JP2007552891A JP2007552891A JP5315694B2 JP 5315694 B2 JP5315694 B2 JP 5315694B2 JP 2007552891 A JP2007552891 A JP 2007552891A JP 2007552891 A JP2007552891 A JP 2007552891A JP 5315694 B2 JP5315694 B2 JP 5315694B2
Authority
JP
Japan
Prior art keywords
video
length
appearance rate
presentation
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007552891A
Other languages
English (en)
Other versions
JPWO2007077713A1 (ja
Inventor
真澄 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007552891A priority Critical patent/JP5315694B2/ja
Publication of JPWO2007077713A1 publication Critical patent/JPWO2007077713A1/ja
Application granted granted Critical
Publication of JP5315694B2 publication Critical patent/JP5315694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、入力映像を編集して新規映像を生成する映像生成装置及びその方法に関し、特に入力映像に登場する対象物の登場率を考慮して新規映像を生成する映像生成装置、映像生成方法および映像生成プログラムに関する。
従来のこの種の映像生成装置の一例が、特開2005-157463号公報に記載されている。この公報に記載された映像生成装置の構成を図1に示す。この従来の映像生成装置は、地上デジタル放送により受信したコンテンツデータ904を編集して、その要約データを生成する。コンテンツデータ904はフレームの集合であり、各フレームは、映像データおよび音声データに加えて、当該フレームに登場している人物や場所などを示す付加情報を含んでいる。コンテンツデータ取得手段900は、コンテンツデータ904を取得すると、各フレームの付加情報を登場確率算出手段901へ出力すると共に各フレームの内容を要約データ作成手段903に出力する。登場確率算出手段901は、付加情報に基づいて各フレームに登場する人物や場所を認識し、各登場人物と場所とが任意のフレームに登場する登場確率を算出する。メインキャラクタおよびメイン舞台決定手段902は、登場確率が或る閾値以上の登場人物および場所を潜在主人公および潜在中心位置として選択する。要約データ作成手段903は、コンテンツデータ取得手段900から送られてきた各フレームの付加情報を参照して、メインキャラクタおよびメイン舞台決定手段902で選択された潜在主人公および潜在中心位置の双方が同一フレーム内に現れているフレームを選択し、その選択したフレームを時系列的に配列し直すことにより、コンテンツデータ904のストーリー的な要約である要約データを作成する。ただし、各潜在主人公および各潜在中心位置が登場するフレームをどのくらい選択して要約データを作成するかについての明確な記述はない。
上述したように、編集対象となる入力映像に登場する対象物の登場率を考慮して新規映像を生成する従来の映像生成装置では、各対象物の登場率は、潜在主人公および潜在中心位置を決定するためにだけ利用されており、各対象物を新規映像中にどのくらい登場させるかを決める基準に利用する考えはなかった。このため、各対象物を新規映像中にどのくらい登場させるかは別途設定する必要があり、入力映像中における各対象物の登場率に応じて新規映像中の各対象物の登場時間が決まるような新規映像などを生成するのが容易ではなかった。
本発明の第1の目的は、入力映像に現れる各対象物を新規映像にどのくらい登場させるかを、入力映像中における各対象物の登場率に応じて制御し得るようにすることにある。
本発明の第2の目的は、入力映像に現れる各対象物を新規映像にどのくらい登場させるかを、入力映像中における各対象物の登場率と利用者の好みとに応じて制御し得るようにすることにある。
本発明の第1の映像生成装置は、入力映像を編集して新規映像を生成する映像生成装置において、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換することを基本とする。より具体的には、入力映像に登場する各対象物の登場率を算出する登場率算出手段と、前記算出された各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換する登場率提示長変換手段と、入力映像を編集して前記変換されて得られた各対象物に関する映像の提示長をほぼ満足する新規映像を生成する新規映像生成手段とを備えている。このような構成を採用し、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換することにより、本発明の第1の目的を達成することができる。
また本発明の第2の映像生成装置は、第1の映像生成装置において、前記登場率提示長変換手段は、登場率に対応する提示長が一意に定まるそれぞれ異なる複数の変換規則のうち、利用者によって選択された変換規則を使用して、各対象物の登場率を提示長に変換する。このような構成を採用し、利用者が選択した変換規則を使用して、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換することにより、本発明の第2の目的を達成することができる。
上記のとおりの本発明においては、登場率算出手段が、入力映像に登場する各対象物の登場率を算出し、登場率提示長変換手段が、前記算出された各対象物の登場率を、予め定められた変換規則あるいは利用者が選択した変換規則を使用して、新規映像における各対象物に関する映像の提示長に変換し、新規映像生成手段が、入力映像を編集して前記変換されて得られた各対象物に関する映像の提示長をほぼ満足する新規映像を生成する。
本発明によれば、入力映像に現れる各対象物を新規映像にどのくらい登場させるかを、入力映像中における各対象物の登場率に応じて制御できる。その理由は、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換するためである。これにより、入力映像に登場する対象物が入力映像にどれくらい登場するのかを利用者が理解できるような新規映像などを容易に生成することが可能になる。
また、利用者が選択した変換規則を使用して入力映像に登場する各対象物の登場率を新規映像における各対象物に関する映像の提示長に変換する構成によれば、入力映像に現れる各対象物を新規映像にどのくらい登場させるかを、入力映像中における各対象物の登場率と利用者の好みとに応じて制御することができる。これにより、入力映像に登場する対象物が入力映像にどれくらい登場するのかを利用者が理解できるような新規映像、入力映像に登場する各対象物が均等に登場する新規映像など、各種の映像を選択的に生成することが可能となる。
従来の映像生成装置のブロック図である。 本発明の第1の実施の形態の構成を示すブロック図である。 本発明の第1の実施の形態におけるフレーム記憶部に記憶される画像情報の一例を示す図である。 本発明の第1の実施の形態におけるフレーム関連情報記憶部に記憶されるフレーム関連情報の一例を示す図である。 本発明の第1の実施の形態の動作を示す流れ図である。 本発明の第2の実施の形態の構成を示すブロック図である。 本発明の第2の実施の形態の動作を示す流れ図である。 本発明の第3の実施の形態の構成を示すブロック図である。 本発明の第3の実施の形態におけるフレーム記憶部に記憶される画像情報の一例を示す図である。 本発明の第3の実施の形態におけるフレーム関連情報記憶部に記憶されるフレーム関連情報の一例を示す図である。 本発明の第3の実施の形態の動作を示す流れ図である。 本発明の第4の実施の形態の構成を示すブロック図である。 本発明の第5の実施の形態の構成を示すブロック図である。 本発明の実施例1の構成を示すブロック図である。 本発明の実施例1において、全出演者が均等に登場する新規映像を作成するための変換規則の一例を示す図である。 本発明の実施例1において、全出演者が登場率に比例して登場する新規映像を作成するための変換規則の一例を示す図である。 本発明の実施例1において、特定の登場率以上の全出演者が登場率に比例して登場する新規映像を作成するための変換規則の一例を示す図である。 本発明の実施例1において、登場率が中位の出演者が出演率に比例して登場する新規映像を作成するための変換規則の一例を示す図である。 本発明の実施例1において、特定の登場率の出演者が長く他の出演者が均等に登場する新規映像を作成するための変換規則の一例を示す図である。 本発明の実施例1において、出演率の低い出演者のみが均等に登場する新規映像を作成するための変換規則の一例を示す図である。 本発明の実施例1において、出演率の高い出演者ほど長く登場する新規映像を作成するための変換規則の一例を示す図である。 本発明の実施例2の構成を示すブロック図である。 本発明の実施例2において、登場率提示長変換方式の選択時にディスプレイに表示される選択肢の一例を示す図である。 本発明の実施例3の構成を示すブロック図である。
符号の説明
100,200,300,400,500…データ処理装置
101,201,301…登場率算出手段
101a,201a…対象物検出手段
301a…対象物群検出手段
101b,201b…登場率決定手段
301b…特徴量抽出手段
301c…クラスタリング手段
301d…登場率決定手段
102,202,302…登場率提示長変換手段
202a…変換規則選択手段
103,203,303…新規映像生成手段
110,210,310,410,510…映像入力手段
120,220,320,420,520…記憶装置
121,221,321…対象物検出フレーム記憶手段
121a,221a,321a…フレーム記憶部
121b,221b,321b…フレーム関連情報記憶部
122,222,322…変換規則記憶部
130,230,330,430,530…映像出力手段
240,540…コマンド入力装置
440,550…映像生成用プログラム
[第1の実施の形態]
次に本発明の第1の実施の形態について図面を参照して詳細に説明する。
図2を参照すると、本発明の第1の実施の形態にかかる映像生成装置は、プログラム制御により動作するデータ処理装置100と、映像を入力する映像入力手段110と、記憶装置120と、映像を出力する映像出力手段130とから構成されている。
映像入力手段110は、映像を入力するための手段であり、新規映像の作成対象となる映像はこの映像入力手段110を利用して入力される。映像出力手段130は、映像を出力するためのものであり、生成された新規映像はこの映像出力手段130を用いて出力される。
記憶装置120は、対象物検出フレーム記憶手段121と変換規則記憶部122とを有する。対象物検出フレーム記憶手段121は、対象物が登場している映像フレームを記憶するフレーム記憶部121aと、対象物が登場している映像フレームのフレーム番号を対象物ごとに記憶するフレーム関連情報記憶部121bとを含む。変換規則記憶部122は、変換テーブルや変換式などの形式で表現された変換規則を1つ記憶している。変換規則は、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換するための規則である。ここで、使用する変換規則は、登場率が与えられるとそれに対応する提示長として、0でない提示長を与える変換規則であっても良いし、登場率の値によっては0となる提示長を与える変換規則であっても良い。
データ処理装置100は、登場率算出手段101と、登場率提示長変換手段102と、新規映像生成手段103とを含む。
登場率算出手段101は、入力映像に含まれる各対象物の登場率を算出するもので、対象物検出手段101aと登場率決定手段101bとを含む。
対象物検出手段101aは、映像入力手段110から受け取った映像の各フレームから対象物を検出する。対象物検出手段101aは、対象物が検出されたフレームの画像情報をフレーム記憶部121aに記憶する。対象物が検出されないフレームの画像情報もあわせて、フレーム記憶部121aに記憶しても良い。また対象物検出手段101aは、対象物が検出されたフレームのフレーム番号を、対象物ごとにフレーム関連情報記憶部121bに記憶する。図3に、フレーム記憶部121aに記憶される画像情報の一例を、また図4にフレーム関連情報記憶部121bに記憶されるデータ構造の一例を示す。
ここで、対象物は、映像に撮影されたものの中で利用者が着目するものであれば何であっても構わない。例えば、対象物の代表例としては、人物A、人物Bといった特定人物、犬A、犬B等の動物や木A、木B等の植物、東京タワー、ベイブリッジなどの建造物、富士山、琵琶湖といった自然物、カメラ、車といった人工物などが挙げられる。
登場率決定手段101bは、フレーム関連情報記憶部121bに記憶されたフレーム関連情報から各対象物が検出されたフレームの枚数と、映像入力手段110から得られる入力映像の全フレーム数とから、各対象物の登場率を算出して登場率提示長変換手段102に出力する。登場率の算出はフレーム数を基準にする以外に、シーン、ショットあるいはトピック等、何らかの基準で区切られた映像区間の数を基準に計算しても良い。
登場率提示長変換手段102は、登場率決定手段101bから各対象物の登場率を受け取り、変換規則記憶部122から読み出した変換規則を使用して、入力映像に登場する各対象物の登場率を新規映像における各対象物に関する映像の提示長に変換し、新規映像生成手段103に出力する。ここで、映像の提示長とは、新規映像において提示する映像の時間の長さ、あるいはフレーム数、あるいは何らかの条件により映像を区切ることで生成される映像区間の個数のいずれかである。
新規映像生成手段103は、登場率提示長変換手段102から各対象物の提示長を受け取り、入力映像を編集して各対象物に関する映像の提示長をほぼ満足する新規映像を生成する。入力映像に含まれるフレームのうち、或る対象物が登場しているフレームの番号はフレーム関連情報記憶部121bを参照することで認識でき、そのフレーム番号のフレームの映像情報はフレーム記憶部121aから読み出すことができる。各対象物に関する映像の提示長をほぼ満足する新規映像を生成する方法は種々考えられ、本発明はその方法を限定するものでないが、本実施の形態では、新規映像生成手段103は、フレーム関連情報記憶部121bに対象物ごとに記憶されたフレーム番号から各対象物の提示長分だけ新規映像に利用するフレーム番号を選択し、次に、各対象物について、提示長分選択されたフレーム番号に対応する画像情報をフレーム記憶部121aから取得し、次に、これら取得したフレームを時系列順に合成することで、新規映像を生成する。そして、この生成された新規映像を映像出力手段130に出力する。
次に、図2及び図5のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
まず、対象物検出手段101aは、入力映像に含まれる対象物が検出されたフレームの枚数を対象物ごとに計測する変数である対象物検出フレーム数と、入力映像の全フレーム数を計測する変数である入力映像フレーム数とをそれぞれ0に初期設定する(図5のステップA01)。
次に、映像入力手段110は、対象物検出手段101aに映像を入力する(ステップA02)。対象物検出手段101aは、入力映像からフレームを1つずつ抽出し(ステップA03)、抽出したフレームから対象物を検出する(ステップA04)。
対象物の検出には、例えばパターン認識の手法を用いる。一例として、対象物検出手段101aにおいて、予めテンプレートとして記憶した対象物の画像と入力フレームにおける画像との間で画素値に基づく差分を算出し、差分が閾値以下のとき入力画像に当該テンプレートの対象物が存在すると判定する手法が挙げられる。テンプレートとして記憶する対象物の画像は、ユーザが映像入力手段110を介して入力する画像であっても良いし、ユーザが指定する対象物の特徴をもとに対象物検出手段101aが選択した画像であっても良い。対象物検出には、例示したテンプレートを利用した手法以外の別の手法を適用しても構わない。
対象物検出手段101aは、対象物が検出された場合(ステップA05)、対象物の検出されたフレームの画像情報をフレーム記憶部121aに記憶し、フレーム番号を対象物ごとにフレーム関連情報記憶部121bに記憶する(ステップA06)。また、登場率決定手段101bは、対象物の検出されたフレーム数を対象物ごとに計測する対象物検出フレーム数と、入力映像の全フレーム数を計測する入力映像フレーム数とをそれぞれ1増加させる(ステップA07、A08)。
対象物が検出されない場合には、登場率決定手段101bは入力映像フレーム数のみを1増加させる(ステップA08)。
ステップA03からステップA08の処理を、入力映像の全フレームについて行う(ステップS09)。
次に登場率決定手段101bは、入力映像フレーム数と対象物検出フレーム数とから各対象物の登場率を算出する(ステップA10)。算出された各対象物の登場率は、登場率提示長変換手段102に入力される。
登場率提示長変換手段102は、各対象物の登場率を受け取ると、変換規則記憶部122から読み出した変換規則に従って、各対象物の登場率を新規映像における各対象物の提示長に変換する(ステップA11)。変換して得られた各対象物の提示長は、新規映像生成手段103に入力される。
新規映像生成手段103は、各対象物の提示長を受け取ると、フレーム関連情報記憶部121bに対象物ごとに記憶されたフレーム番号から、各対象物の提示長分だけ新規映像に利用するフレーム番号を選択する(ステップA12)。そして、各対象物について提示長分選択されたフレーム番号の画像情報をフレーム記憶部121aから取得して合成し、生成された新規映像を映像出力手段130に出力する(ステップA13)。
映像出力手段130は、新規映像生成手段103から受け取った映像を出力する(ステップA14)。
次に、本実施の形態の効果について説明する。
本実施の形態では、入力映像に登場する対象物に関する映像を作成する際に、新規映像における各対象物の映像の提示長を、入力映像に登場する各対象物の登場確率から変換することによって決定するように構成されているため、入力映像中における各対象物の登場率に応じて新規映像中の各対象物の登場時間を制御することができる。このため、入力映像における各対象物がどれくらい登場しているかを利用者が理解することができる新規映像などを容易に生成することができる。
なお、前記した第1の実施の形態では、変換規則を記憶装置120に記憶したが、登場率提示長変換手段102のロジック内に変換規則を組み込む実施の形態も考えられる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。
図6を参照すると、本発明の第2の実施の形態にかかる映像生成装置は、コマンド入力装置240を備えていること、変換規則を1つでなく、それぞれ異なる複数の変換規則を記憶する変換規則記憶部222を有すること、登場率提示長変換手段202が、変換規則記憶部222に記憶された複数の変換規則のうちからコマンド入力装置240を通じて利用者が入力したコマンドによって指定された1つの変換規則を選択する変換規則選択手段202aを有することが、図2に示した第1の実施の形態と相違している。
次に、図6及び図7のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
図7のステップB01からステップB10までの動作は、第1の実施の形態の動作を示した図5のステップA01からステップA10までと同じである。ただし、ステップB01の初期設定では、第1の実施の形態と同様の処理に加えて、変換規則記憶部222に記憶された複数の変換規則の中の1つの変換規則をデフォルトの変換規則として設定する処理も行われる。このデフォルトの変換規則は、複数種類の新規映像のうち初期設定された種類の新規映像を生成するための変換規則である。
登場率決定手段201bにより入力映像中に登場する各対象物の登場率の算出が完了すると、次にコマンド入力装置240は、映像生成を終了するかどうか、映像生成を続ける場合には、どのような種類の新規映像を生成するのかといった質問をユーザに提示する(ステップB11)。
コマンド入力装置240から入力するコマンドによって、ユーザが映像生成の終了を選択した場合には、新規映像生成処理を終了する(ステップB12、B13)。それ以外のコマンドの場合、変換規則選択手段202aは、ユーザが入力したコマンドから初期設定と異なる新規映像を生成するかどうかを判定する(ステップB14)。
この判定の結果、ユーザが初期設定と異なる或る種類の新規映像を生成する場合、変換規則選択手段202aは、変換規則記憶部222に記憶された複数の変換規則の中から該当する種類の新規映像を生成するための変換規則を選択する(ステップB15)。他方、ユーザが初期設定の新規映像を生成すると判定した場合は、変換規則選択手段202aは、変換規則記憶部222に記憶された複数の変換規則の中から初期設定された種類の新規映像を生成するための変換規則を選択する(ステップB16)。
次に登場率提示長変換手段202は、変換規則選択手段202aで選択された変換規則を用いて、第1の実施の形態と同様に、登場率決定手段201bから入力された各対象物の登場率を映像提示長に変換し、新規映像生成手段203に入力する(ステップB17)。新規映像生成手段203は、第1の実施の形態と同様に、フレーム関連情報記憶部221bに対象物ごとに記憶されたフレーム番号から、各対象物の提示長分だけ新規映像に利用するフレーム番号を選択し(ステップB18)、この選択したフレーム番号の画像情報をフレーム記憶部221aから取得して合成し、生成された新規映像を映像出力手段230に出力する(ステップB19)。映像出力手段230は、新規映像生成手段203から受け取った映像を出力する(ステップB20)。そして、ステップB11の処理に戻る。
ユーザがコマンド入力装置240によりステップB13において映像生成処理の終了を選択するまで、ステップB11からB20までの処理が繰り返される。
次に、本実施の形態の効果について説明する。
本実施の形態では、第1の実施の形態と同様の効果が得られると同時に、登場率を提示長に変換するための変換規則を複数備え、利用者が選択した変換規則を使用して、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換するため、入力映像に現れる各対象物を新規映像にどのくらい登場させるかを、入力映像中における各対象物の登場率と利用者の好みとに応じて制御することができる。このため、利用者は、入力映像に登場するすべての対象物を把握可能な新規映像、入力映像に高い登場率で登場する対象物を把握可能な新規映像など、各種の映像を選択的に生成することが可能となる。
また本実施の形態では、変換規則を選択し新規映像を生成して出力する処理を繰り返すことができるため、利用者は対象物の提示長が多様な新規映像を複数生成することができる。
[第3の実施の形態]
次に、本発明の第3の実施の形態について図面を参照して詳細に説明する。
図8を参照すると、本発明の第3の実施の形態にかかる映像生成装置は、対象物検出手段101aの代わりに対象物検出手段304を備えている点で、図2に示した第1の実施の形態と相違している。また、フレーム関連情報記憶部321bは、図10に示すように、対象物群名ごとに、その対象物群が検出されたフレーム番号、フレーム内における当該対象物の位置、その特徴量およびクラスタ番号を保持する構造となっている。
対象物検出手段304は、対象物群検出手段301aと特徴量抽出手段301bとクラスタリング手段301cとを含む。
対象物群検出手段301aは、対象物検出手段101aと同様にパターン認識により、映像入力手段310から受け取った映像の各フレームから対象物群を検出する。ここで、「対象物群」と表記したのは、ここで検出された対象物群が後述するように複数に分類されてその各々が1つの対象物になる場合があるためであり、フレーム中に物理的に離れて現れる複数の対象物を抽出する意味ではない。
対象物群検出手段301aは、図9に示すように、対象物群が検出されたフレームの画像情報をフレーム記憶部321aに記憶する。また、図10に示すように、対象物群が検出されたフレームのフレーム番号とフレームにおける対象物群の検出位置とをフレーム関連情報記憶部321bに記憶する。
特徴量抽出手段301bは、フレーム記憶部321aに記憶された各フレームごとに、そのフレームの画像情報からフレーム関連情報記憶部321bに記憶された各フレームにおける対象物群の検出位置を利用して対象物群部分の画像を切り出し、その画像から対象物群の特徴量を抽出する。特徴量抽出手段301bは、図10に示すように、抽出した特徴量を、対象物群ごとにフレーム関連情報記憶部321bに記憶する。
クラスタリング手段301cは、フレーム関連情報記憶部321bに記憶された特徴量について、対象物群ごとに値の類似する特徴量が抽出されたフレームを同一の対象物が検出されたフレームとして同一のクラスタにまとめる。そして、同一のクラスタに属するフレームには同一のクラスタ番号を付与し、図10に示すようにフレーム関連情報記憶部321bに記憶する。
この同一のクラスタ番号が付与されたフレームは、第1の実施の形態における対象物検出手段101aで検出されたフレームと同様に、同じ対象物が登場しているフレームとして扱われる。従って、登場率決定手段301dは、フレーム関連情報記憶部321bに記憶された各クラスタについて、同一クラスタに含まれるフレーム数を計測し、各クラスタに含まれるフレーム数を、各対象物が検出されたフレーム数と等価に扱って登場率の算出に利用する。また、新規映像生成手段303は、フレーム関連情報記憶部321bに記憶された各クラスタ番号が付与された(各対象物が検出された)フレームから、各対象物の提示長分だけ新規映像に利用するフレーム番号を選び、各対象物について、提示長分選択されたフレーム番号の画像情報をフレーム記憶部321aから取得して合成する。
次に、図8及び図11のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
まず、対象物群検出手段301aは、入力映像に含まれる対象物が検出されたフレームの枚数を対象物ごとに計測する変数である対象物検出フレーム数と、入力映像の全フレーム数を計測する変数である入力映像フレーム数とをそれぞれ0に初期設定する(図11のステップC01)。
次に、映像入力手段310は、対象物群検出手段301aに映像を入力する(ステップC02)。対象物群検出手段301aは、入力映像からフレームを1つずつ抽出し(ステップC03)、抽出したフレームから対象物群を検出する(ステップA04)。対象物群の検出は第1の実施の形態と同様にパターン認識により行う。対象物群検出手段301aは、対象物群が検出された場合には、対象物群の検出されたフレームの画像情報をフレーム記憶部321aに記憶し、フレーム番号と対象物群の検出位置とを対象物群ごとにフレーム関連情報記憶部321bに記憶する(ステップC05、C06)。また登場率決定手段301dは、対象物群検出手段301aにフレームが入力されるごとに、入力映像の全フレーム数を計測する入力映像フレーム数を1増加させる(ステップC07)。
全フレームについて以上の処理を終了すると、特徴量抽出手段301bは、フレーム記憶部321aに記憶された各フレームの画像情報ごとに、フレーム関連情報記憶部321bに記憶された各フレームにおける対象物群の検出位置を利用して対象物の画像を切り出してその特徴量を抽出し、抽出した特徴量を、対象物群ごとにフレーム関連情報記憶部321bに記憶する(ステップC09)。
次にクラスタリング手段301cは、フレーム関連情報記憶部321bに記憶された特徴量について、対象物群ごとに値の類似する特徴量が抽出されたフレームを同一の対象物が検出されたフレームとして同一のクラスタにまとめ、同一のクラスタに属するフレームには同一のクラスタ番号を付与し、フレーム関連情報記憶部321bに記憶する(ステップC10、C11)。
次に登場率決定手段301dは、同一クラスタに属するフレームは、同一の対象物が検出されたフレームであることを意味するため、フレーム関連情報記憶部321bに記憶された各クラスタに属するフレームの枚数を、各対象物が検出されたフレーム数を表す対象物検出フレーム数として計測する(ステップC12)。そして登場率決定手段301dは、映像入力手段310から得られる入力映像の全フレーム数と対象物検出フレーム数とから、各対象物の登場率を算出して登場率提示長変換手段302に入力する(ステップC13)。
登場率提示長変換手段302は、各対象物の登場率を受け取ると、変換規則記憶部322から読み出した変換規則に従って、各対象物の登場率を新規映像における各対象物の提示長に変換する(ステップC14)。変換して得られた各対象物の提示長は、新規映像生成手段303に入力される。新規映像生成手段303は、各対象物の提示長を受け取ると、フレーム関連情報記憶部321bに記憶された各クラスタ番号が付与された(各対象物が検出された)フレーム番号から、各対象物の提示長分だけ新規映像に利用するフレーム番号を選択する(ステップC15)。そして、各対象物について提示長分選択されたフレーム番号の画像情報をフレーム記憶部321aから取得して合成し、生成された新規映像を映像出力手段330に出力する(ステップC16)。映像出力手段330は、新規映像生成手段303から受け取った映像を出力する(ステップC17)。
次に、本実施の形態の効果について説明する。
本実施の形態では、第1の実施の形態と同様の効果が得られると同時に、対象物群検出手段301aが検出する対象物群をその特徴量に基づいて1以上の対象物に分類して、その分類した個々の対象物の登場率を求めて新規映像を作成するため、パターン認識で同じ対象物と認識されるものに比べてより細かな単位の対象物について、その登場率に基づく新規映像を生成することができる。例えば、対象物群検出手段301aが同じ対象物群として検出する単位を動物体としたときに、対象物群検出手段301aで検出された動物体からそれより細かい単位である人物、犬、車などの対象物を検出して新規映像を作成することができる。また、対象物群検出手段301aが同じ対象物群として検出する単位を人物としたときには、対象物群検出手段301aで検出された人物からそれより細かい単位である人物A、人物Bなどの特定人物を検出して新規映像が作成できる。さらに、対象物群検出手段301aが同じ対象物群として検出する単位を人物Aとしたときに、対象物群検出手段301aで検出された人物Aから、より細かい単位である人物Aの笑った顔、人物Aの怒った顔、人物Aの泣いた顔など、特定人物の特定部位の状態を検出して新規映像が作成できる。このように、本実施の形態を利用することで対象物を群としてしか検出できない場合であっても、各対象物の登場率に基づく新規映像が生成できる。
[第4の実施の形態]
次に本発明の第4の実施の形態について図面を参照して詳細に説明する。
図12を参照すると、本発明の第4の実施の形態にかかる映像生成装置は、第1及び第3の実施の形態と同様なデータ処理装置400、映像入力手段410、記憶装置420および映像出力手段430を備え、さらに映像生成用プログラム440を有している。
映像生成用プログラム440は、磁気ディスクや半導体メモリなどのコンピュータによって読み取り可能な記録媒体に記憶されており、コンピュータを構成するデータ処理装置400に読み込まれ、データ処理装置400の動作を制御することにより、データ処理装置400上で、図2に示した第1の実施の形態における対象物検出手段101a、登場率決定手段101b、登場率提示長変換手段102および新規映像生成手段103を実現して、図5に示す処理を行わせるか、または、図8に示した第3の実施の形態における対象物群検出手段301a、特徴量抽出手段301b、クラスタリング手段301c、登場率決定手段301d、登場率提示長変換手段302および新規映像生成手段303を実現して、図11に示した処理を行わせる。
[第5の実施の形態]
次に本発明の第4の実施の形態について図面を参照して詳細に説明する。
図13を参照すると、本発明の第5の実施の形態にかかる映像生成装置は、第2の実施の形態と同様なデータ処理装置500、映像入力手段510、記憶装置520、映像出力手段530およびコマンド入力装置540を備え、さらに映像生成用プログラム550を有している。
映像生成用プログラム550は、磁気ディスクや半導体メモリなどのコンピュータによって読み取り可能な記録媒体に記憶されており、コンピュータを構成するデータ処理装置500に読み込まれ、データ処理装置500の動作を制御することにより、データ処理装置500上で、図6に示した第2の実施の形態における対象物検出手段201a、登場率決定手段201b、登場率提示長変換手段202および新規映像生成手段203を実現して、図7に示す処理を行わせる。
次に、具体的な実施例を用いて本発明の実施の形態の構成および動作をより詳しく説明する。かかる実施例1は、本発明の第1の実施の形態に対応するものである。
実施例1では、本発明の映像生成装置を入力映像に登場する人物についての映像生成に利用した例を示す。図14に示すように、本実施例は、映像入力手段として映像入力端子610を、データ処理装置としてパーソナル・コンピュータ600を、記憶装置としてハードディスク620を、映像出力手段としてディスプレイ630をそれぞれ備えている。
パーソナル・コンピュータ600は、登場率算出手段601と登場率提示長変換手段602と新規映像生成手段603として機能する中央演算装置を有している。登場率算出手段601には、人物検出手段601aと登場率決定手段601bとが含まれる。
ハードディスク620は、人物検出手段601aによって人物が検出されたフレームの画像情報を記憶するフレーム記憶部621aと、人物が検出されたフレームのフレーム番号を記憶するフレーム関連情報記憶部621bとを有している。
今、映像入力端子610から映像が入力されたとする。中央演算装置の人物検出手段601aは、入力映像の各フレームから人物Aや人物Bといった特定人物の検出を行い、特定人物が検出されたフレームの画像情報をハードディスク620内のフレーム記憶部621aに記憶する。また、フレーム番号をフレーム関連情報記憶部621bに記憶する。個々の人物、例えば人物Aの検出方法として、例えば人物Aの映っている画像をテンプレートとして記憶し、入力画像とテンプレートの差分が或る閾値以下のとき人物Aが入力画像中に存在すると判定する手法が挙げられる。また、人物Aの顔画像から取り出した目、鼻、口等の特徴を記憶しておき、入力画像に人物Aの特徴に似た特徴が検出されたときに人物Aが入力画像中に存在すると判定する手法も利用できる。勿論、個々の人物の検出手法として、上記の例以外の他の手法を適用しても構わない。
人物検出手段601aは、人物A,人物Bなどの各人物が検出されたフレーム数と入力映像の全フレーム数とを計測する。ここで人物検出手段601aが計測するのは、フレーム数であっても、シーンやショット、チャプター等、何らかの基準で区切られた映像区間の数であっても良い。
人物の検出は、あらかじめ作成した人物の人体や顔の形状および色をもとにして、テンプレートマッチングや肌色検出、エッジの方向や密度によるモデル等を用いることにより実現する。
登場率決定手段601bは、フレーム関連情報記憶部621bに記憶された各人物の検出フレーム数と入力映像から得られた入力映像の全フレーム数とから、各人物の登場率を算出する。
登場率として、単純なフレーム数の比に基づく登場率に加え、位置や大きさなどの様々な要素を考慮に入れて算出しても良い。また、登場率の順位に応じて1位の登場率を50%、2位の登場率を40%というように、登場率の再割り当てを行っても良い。
登場率の算出方法を以下に例示する。
(1)フレーム数に基づく登場率
入力映像の全フレーム数に対する各人物の登場するフレーム数により算出する。
[人物Aの登場率]=[人物Aの登場するフレーム数]/[入力映像の全フレーム数]
…(式1)
(2)シーン数に基づく登場率
入力映像の全シーン数に対する、各人物の登場するシーン数により算出する。各フレームから取り出された色や形状等の特徴量が隣接フレーム間で大きく変化した箇所や、映像が意味的に変化した箇所をシーンの区切りとすることにより、シーンを定義することができる。
[人物Aの登場率]=[人物Aの登場するシーン数]/[入力映像の全シーン数]
…(式2)
(3)ショット数に基づく登場率
入力映像の全ショット数に対する、各人物の登場するショット数により算出する。ショットとは、カメラのオンオフによる映像の切れ目で区切られた映像区間を指す。
[人物Aの登場率]=[人物Aの登場するショット数]/[入力映像の全ショット数]
…(式3)
(4)チャプター数に基づく登場率
入力映像の全チャプター数に対する、各人物の登場するチャプター数により算出する。
チャプターは、映像制作者等が設定した映像の内容や単位時間の切れ目によって区切られた映像区間を指す。
[人物Aの登場率]=[人物Aの登場するチャプター数]/[入力映像の全チャプター数]
…(式4)
(5)位置による重みに基づく登場率
入力映像の全フレーム数に対する、検出位置による重みづけを行った各人物の登場するフレーム数により算出する。
Figure 0005315694
…(式5)
ここで、Nは、人物Aが検出されたフレーム数、waiはフレーム内での人物Aの検出位置による重みを表す。waiは、0以上1以下の範囲で、人物Aの検出位置がフレームの中心に近いほど大きな値をとる。
(6)大きさによる重みに基づく登場率
入力映像の全フレーム数に対する、大きさによる重み付けを行った各人物の登場するフレーム数により算出する。
Figure 0005315694
…(式6)
ここで、Nは、人物Aが検出されたフレーム数、wbiはフレーム内での人物Aの大きさによる重みを表す。wbiは、0以上1以下の範囲で、人物Aの領域がフレーム内に占める割合が大きいほど、大きな値をとる。
(7)フレームの連続性による重みに基づく登場率
入力映像の全フレーム数に対する、検出フレームの連続性により重み付けされた各人物の登場するフレーム数により算出する。
Figure 0005315694
…(式7)
ここで、Nは、人物Aが検出されたフレーム数、wciは検出フレームの連続性による重みを表す。wciは、0以上1以下の範囲で、人物Aが連続して検出される程大きな値をとる。
上述のようにして算出された登場率は、登場率提示長変換手段602に入力される。
登場率提示長変換手段602は、変換規則記憶部622に記憶された変換規則を用いて、登場率決定手段601bから入力された各人物の登場率を新規映像における各人物の提示長に変換する。提示長とは、フレーム数、あるいはシーンやショット、チャプター等の何らかの法則により区切られた映像区間の個数をさす。
登場率提示長変換手段602において、登場率を以下に示すような各種の変換規則を用いて提示長に変換することで、様々なタイプの映像を生成できる。
(1)全出演者が均等に登場する新規映像
この新規映像は、入力映像に登場する全ての人物が、均等な提示長で登場する新規映像である。本新規映像を生成するためには、たとえば図15に示すような特性をもつ数式や変換テーブルなどで表現された変換規則が用いられる。
図15に示す変換規則によれば、登場率aの人物Aと登場率bの人物Bとでは登場率は異なるが、人物Aの映像と人物Bの映像は、新規映像において等しい提示長Lだけ用いられる。ユーザはこの新規映像を視聴することにより、入力映像に登場する出演者を把握できる。
(2)全出演者が登場率に比例して登場する新規映像
この新規映像は、入力映像に登場する全ての人物が、登場率に比例した提示長で登場する新規映像である。本新規映像を生成するためには、たとえば図16に示すような特性をもつ数式や変換テーブルなどで表現された変換規則が用いられる。
図16に示す変換規則によれば、登場率aの人物Aと登場率bの人物Bは、登場率aよりも登場率bの方が大きいため、新規映像における人物Bの映像は、登場率の高さに比例して長い提示長で用いられる。ユーザはこの新規映像を視聴することにより、入力映像に登場する出演者をその出演率とともに把握できる。
(3)特定の登場率以上の出演者が登場率に比例して登場する新規映像
この新規映像は、入力映像に登場する人物のうち登場率がある閾値T以上の人物のみが、その登場率に比例した提示長で登場する新規映像である。本新規映像を生成するためには、たとえば図17に示すような特性をもつ数式や変換テーブルなどで表現された変換規則が用いられる。
図17に示す変換規則によれば、登場率aの人物Aは、登場率aが閾値Tよりも小さいため、新規映像に人物Aの映像は利用されない。また、登場率bの人物Bは、登場率bが閾値Tよりも大きいため、新規映像において人物Bの映像は登場率bに比例した提示長で用いられる。ユーザは、この新規映像を視聴することにより入力映像に長時間登場する人物(主役)を把握できる。
(4)登場率が中位の出演者が登場率に比例して登場する新規映像
この新規映像は、入力映像に登場する人物の中で登場率がある閾値T1以上かつ閾値T2以下の人物のみが、その登場率に比例した提示長で登場する新規映像である。本新規映像を生成するためには、たとえば図18に示すような特性を持つ数式や変換テーブルなどで表現された変換規則が用いられる。
図18に示す変換規則によれば、登場率aの人物Aおよび登場率bの人物Bは、登場率が閾値T1未満もしくはT2よりも高いため、新規映像において人物Aと人物Bの映像は用いられない。閾値の範囲内である登場率cの人物Cの映像は、登場率cに比例した提示長で利用される。ユーザは、この新規映像を視聴することにより入力映像に登場する準主役を把握できる。
(5)特定の登場率の出演者が長く、他の出演者は均等に登場する新規映像
この新規映像は、入力映像に登場する人物の中で登場率がある閾値T1以上かつ閾値T2以下の人物のみが長い提示長で登場し、それ以外の人物は短い提示長で登場する新規映像である。本新規映像を生成するためには、たとえば図19に示すような特性を持つ数式や変換テーブルなどで表現された変換規則が用いられる。
図19に示す変換規則によれば、登場率aの人物Aは閾値の範囲外であるため、人物Aの映像は短い提示長L1だけ用いられる。また、登場率bの人物Bは閾値の範囲内であるため、人物Bの映像は長い提示長L2だけ用いられる。ユーザは、この新規映像を視聴することにより、特定の出演率の人物の登場する映像を把握できる。
(6)出演率の低い出演者のみが均等に登場する新規映像
この新規映像は、入力映像に登場する人物の中で、登場率がある閾値T以下の人物が、均等な提示長で登場する新規映像である。本新規映像を生成するためには、たとえば図20に示すような特性を持つ数式や変換テーブルなどで表現された変換規則が用いられる。
図20に示す変換規則によれば、人物Aの登場率aは閾値T以下であるため、新規映像において人物Aの映像は提示長Lで用いられる。また、人物Bの登場率bは閾値Tよりも大きいため、新規映像において人物Bの映像は用いられない。ユーザは、この新規映像を視聴することにより入力映像に登場する脇役を把握できる。
(7)出演率の高い出演者ほど長く登場する新規映像
この新規映像は、入力映像において様々な登場率で出演する人物が、登場率に対して非線形な提示長で登場する新規映像である。本新規映像を生成するためには、たとえば図21に示すような特性をもつ数式や変換テーブルなどで表現された変換規則が用いられる。
図21で示す変換規則によれば、人物Bの登場率bは人物Aの登場率aよりも大きいため、新規映像における人物Bの映像は人物Aよりも長い提示長で用いられる。ユーザはこの新規映像を視聴することにより、入力映像に登場する各出演者の登場率を明確に把握できる。
再び図14を参照すると、新規映像生成手段603では、登場率提示長変換手段602から入力された各人物の提示長分だけ、人物検出フレーム記憶手段621のフレーム記憶部621aから各人物が検出されたフレームを選択し、選択されたフレームを合成して新規映像を生成する。
フレーム選択手法としては、フレーム関連情報記憶部621bに記憶された各対象物の検出されたフレームから、各対象物の提示長分だけランダムに選択する手法がある。このほか、フレーム番号が連続するフレームを優先的に選択する手法や、入力映像中で大きな音声が検出された時間帯のフレームを重要フレームとして優先的に選択する手法や、クライマックスに当たることの多い映像の終盤付近のフレームを優先的に選択する手法などが例として挙げられる。
合成された新規映像は、ディスプレイ630に出力される。ユーザは、ディスプレイ630に出力された新規映像を視聴する。
実施例2では、本発明の映像生成装置を入力映像に登場する人物についての映像生成に利用した例を示す。かかる実施例2は、本発明の第2の実施の形態に対応するものである。
図22に示すように、本実施例では、映像入力手段として映像入力端子710を、コマンド入力装置としてディスプレイとキーボード740を、データ処理装置としてパーソナル・コンピュータ700を、記憶装置としてハードディスク720を、映像出力手段としてディスプレイ730をそれぞれ備えている。コマンド入力装置を構成するディスプレイと映像出力手段を構成するディスプレイとは、別々のディスプレイで構成してもよく、また、1台のディスプレイを兼用する形態としてもよい。
変換規則記憶部722は、実施例1で例示した複数の変換規則を記憶している。
映像入力端子710から映像が入力されると、登場率算出手段701は各出演者の登場率を実施例1と同様に算出し、登場率提示長変換手段702に入力する。登場率提示長変換手段702は、変換規則選択手段702aを用いて、ディスプレイとキーボード740によるユーザからの入力コマンドをもとに変換規則記憶部722に記憶された複数の変換規則のうちから、一つの変換規則を選択する。
コマンド入力装置を構成するディスプレイに表示される選択肢の一例を図23に示す。まず、ディスプレイには、実施例1で例示した種類の新規映像に対応する選択肢1から6と、初期設定の選択肢0と、映像生成処理を終了する選択肢7とが表示される。なお、選択肢1から6には、それに対応する種類の新規映像の生成に必要な変換規則が予め対応付けられている。また、初期設定の選択肢0には、それらの何れか1つの変換規則が予め対応付けられている。ユーザは、このような選択肢群からキーボード入力により希望する選択肢を選ぶ。なお、希望の特性をもった変換規則をユーザ自身が直接入力する構成を付加することもできる。
ユーザのキーボード入力を受けて、変換規則選択手段702aは、選択された選択肢に対応する変換規則を変換規則記憶部722から選択する。登場率提示長変換手段702は、変換規則選択手段702aによって選択された変換規則を用いて各登場人物の提示長を算出し、新規映像生成手段703に出力する。新規映像生成手段703は、フレーム関連情報記憶部721bに人物ごとに記憶されたフレーム番号から各人物の提示長分のフレームを選択し、選択したフレームに対応する画像情報をフレーム記憶部721aから抽出する。そして、抽出したフレームを合成して新規映像を生成し、ディスプレイ730に出力する。
実施例3では、本発明の映像生成装置を入力映像に登場する人物についての映像生成に利用した例を示す。かかる実施例は本発明の第3の実施の形態に対応するものである。
図24に示すように、本実施例では、映像入力手段として映像入力端子810を、データ処理装置としてパーソナル・コンピュータ800を、記憶装置としてハードディスク820を、映像出力手段としてディスプレイ830を備えている。
映像入力端子810により映像が入力されると、パーソナル・コンピュータ800内の各手段は以下のように動作する。
人物検出手段804の人物顔検出手段801aにより、入力映像の各フレームについて人物顔を検出し、人物顔が検出されたフレームの画像情報はハードディスク820のフレーム記憶部821aに記憶される。また、フレームのフレーム番号と顔の検出位置は、ハードディスク820のフレーム関連情報記憶部821bに記憶される。
顔特徴量抽出手段801bは、フレーム記憶部821aに記憶された全フレームから、フレーム関連情報記憶部821bに記憶された顔の検出位置をもとに顔特徴量を抽出し、抽出された特徴量を各人物顔と対応付けてフレーム関連情報記憶部821bに記憶する。
クラスタリング手段801cは、フレーム関連情報記憶部821bに記憶された顔特徴量について、値の類似する特徴量が抽出されたフレームを同一人物が検出されたフレームとして同一のクラスタにまとめる。同一のクラスタに属するフレームには同一のクラスタ番号を付与し、フレーム関連情報記憶部821bに記憶する。
人物顔の検出手法の例として、参考文献1[岩井儀雄他3名、“画像処理による顔検出と顔認識”、情報処理学会研究報告(CVIM−149)、2005年 pp.343〜368]に示されるように、顔(頭部)の輪郭が楕円の形状、目や口が細長の形状をしていることを利用して作成したテンプレートを用いて顔検出を行う手法や、頬や額の部分は輝度が高く、目や口の部分の輝度は低いという輝度分布の特性を利用して顔検出を行う手法や、顔の対称性や肌色領域と位置を利用して顔検出を行う手法などの手法が挙げられる。また、大量の人物顔と非顔の学習サンプルから得られた特徴量分布を統計的に学習し、入力画像から得られる特徴量が顔と非顔のどちらの分布に属するかを判定する手法として、ニューラルネットやサポートベクターマシン、AdaBoost法などを利用した手法が挙げられる。人物顔の検出手法として、上記の手法を利用しても別の手法を適用しても構わない。
人物顔の特徴量の例として、参考文献2[高木幹雄、下田陽久著、“新編 画像解析ハンドブック”、東京大学出版会 2004年9月 pp.1569−1582]に示されるように、顔の構造に関する知識を活用して目、鼻、口の形状や位置関係などを数値的に記述した特徴ベクトルや、顔の各画素の濃淡値の2次元配列として表現される特徴ベクトル、顔の各特徴点においてウェーブレット変換を施すことで得られるパターンの局所的な周期性とその方向性を表現可能なGabor jetと呼ばれる特徴ベクトルなどが挙げられる。人物間の類似度判定に用いる人物顔の特徴量として、上述の例を利用しても他の手法を適用しても構わない。
人物顔の特徴量をクラスタリングする手法の例として、参考文献3[赤松茂、“コンピュータによる顔の認識―サーベイ―”、電子情報通信学会論文誌 Vol.J80−A No.8 pp.121a5〜1230]に示されるように、階層的クラスタリング法やK-means法が挙げられる。階層的クラスタリングは、はじめに全ての要素を要素1つからなるクラスタと考え、互いの距離の近いものから順にクラスタを融合することにより、適当な数のグループにまとめる手法である。また、K-means法は、あらかじめ固定された数のクラスタそれぞれに、クラスタの代表となるプロトタイプを定め、各要素を最も距離の近いプロトタイプの属するクラスタと判定する手法である。これらは、要素間の類似度を使って要素を分類する手法であるが、上記以外の別の手法を適用しても構わない。
登場率決定手段801dは、フレーム関連情報記憶部821bに記憶された各人物のクラスタに属するフレームの枚数から各人物の検出フレーム数を計測する。各人物の検出フレーム数と入力映像の全フレーム数とにより、実施例1で例示したような変換規則を用いて、各人物の登場率を算出し、算出した登場率を、登場率提示長変換手段802に入力する。
登場率提示長変換手段802は、実施例1で例示したような変換規則を用いて、各人物の提示長を決定し、決定した各人物の提示長を新規映像生成手段803に入力する。
新規映像生成手段803は、登場率提示長変換手段802から各対象物の提示長を受け取り、フレーム関連情報記憶部821bに記憶された各クラスタ番号が付与された(各対象物が検出された)フレームから、各対象物の提示長分だけ新規映像に利用するフレーム番号を選ぶ。そして各対象物について、提示長分選択されたフレーム番号の画像情報を、フレーム記憶部821aから取得して合成し、新規映像を作成する。各人物の検出フレームから、新規映像に利用するフレームを提示長分だけ選択する処理は、新規映像の用途に応じて以下のようにして実現する。
(1)平均的な特性のフレームを利用した新規映像
まず、フレーム関連情報記憶部821bにおいて、同一人物が含まれるフレームとして同一クラスタにまとめられた各人物の検出フレームから特徴量を取り出す。次に、同一クラスタに属するフレームから抽出された同一人物の顔特徴量の値について特徴空間における分布を観測する。このとき、分布の中心に最も近い値が抽出されたフレームは、クラスタの最も平均的な特性を持つフレームと考えられる。平均的な特性とは、例として、様々な表情の顔が集まった際の真顔や、様々な向きの顔が集まった際の正面顔や、様々な照明下での顔が集まった際の均等な照明条件下の顔画像が挙げられる。そこで、平均的な特性のフレームを利用した新規映像を作成する際には、各人物の顔特徴量の値の分布において中心に近い特徴量値が抽出されたフレームから順に新規映像の生成に利用する。
(2)多様な特性のフレームを利用した新規映像
まず、同一人物が含まれるフレームとして同一クラスタにまとめられた各人物の検出フレームから特徴量を抽出する。次に、同一クラスタに属するフレームから抽出された同一人物の顔特徴量値について特徴空間における分布を観測する。このとき、互いに離れた位置に分布する特徴量対は、特性の異なるフレーム対と考えられる。特性の異なるフレーム対とは、例として、笑った顔と怒った顔、下向きの顔と上向きの顔、などが挙げられる。そこで、多様な特性のフレームを利用した新規映像を作成する際には、各人物の顔特徴量値の分布において、はじめに適当な特徴量値が抽出されたフレームを選択し、2枚目以降はそれ以前に選択したフレームから得られる特徴量値から最も離れた位置に分布する特徴量値が抽出されたフレームを順に新規映像の生成に利用する。生成された新規映像は、ディスプレイ830に出力される。
本発明によれば、複数の映像から目的の映像を選択するため、また短時間で映像内容を把握するための映像生成装置や、映像生成装置をコンピュータで実現するためのプログラムといった用途に適用できる。また、ホームビデオの整理や分類、視聴、閲覧などのために用いられる映像生成装置の実現といった用途にも適用可能である。また、監視カメラで長時間撮影された映像中からどんな人物がどのくらい出現しているかを短時間で把握するための映像を生成するシステムの実現といった用途にも適用可能である。また、多数の映像を用いて映像編集を行うシステムにおいて、編集に利用する映像を選択するための映像生成装置や、映像生成装置をコンピュータで実現するためのプログラムといった用途に適用できる。

Claims (39)

  1. 入力映像を編集して新規映像を生成する映像生成装置において、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換する映像生成装置であって、
    入力映像に登場する各対象物の登場率を算出する登場率算出手段と、前記算出された各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換する登場率提示長変換手段と、入力映像を編集して前記変換されて得られた各対象物に関する映像の提示長をほぼ満足するように新規映像を、対象物と当該対象物が登場するフレームの番号とを対応付けた記憶手段から前記映像の提示長に対応するようにフレームの番号を選択し当該選択されたフレームの番号で識別されるフレームから生成する新規映像生成手段と、を備える、映像生成装置。
  2. 前記登場率提示長変換手段は、登場率に対応する提示長が一意に定まる変換規則を使用して、各対象物の登場率を提示長に変換することを特徴とする請求項1に記載の映像生成装置。
  3. 前記登場率提示長変換手段は、それぞれ異なる複数の変換規則のうち、利用者によって選択された変換規則を使用して、各対象物の登場率を提示長に変換することを特徴とする請求項2に記載の映像生成装置。
  4. 前記変換規則は、登場率の値によっては変換後の提示長が0になる規則であることを特徴とする請求項2または3に記載の映像生成装置。
  5. 前記変換規則は、登場率の値によらず変換後の提示長が0にならない規則であることを特徴とする請求項2または3に記載の映像生成装置。
  6. 前記登場率算出手段は、前記入力映像に登場する各対象物を前記入力映像から検出する対象物検出手段と、該対象物検出手段から検出結果を受け取り、各対象物の検出された映像長と入力映像長とから各対象物の登場率を算出する登場率決定手段とを含むことを特徴とする請求項1に記載の映像生成装置。
  7. 前記対象物検出手段は、前記入力映像に登場する対象物群を前記入力映像から検出する対象物群検出手段と、該対象物群検出手段により検出された対象物群の各特徴量を抽出する特徴量抽出手段と、該特徴量抽出手段により抽出された特徴量について、値の類似する特徴量が抽出されたフレームを同一の対象物が検出されたフレームとして同一グループにまとめることで、各対象物が検出されたフレームを集めたクラスタを生成するクラスタリング手段とを含むことを特徴とする請求項6に記載の映像生成装置。
  8. 前記新規映像生成手段は、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせるものであって、該映像区間の切り出しの際に、同一対象物が含まれるフレームの特徴量の値についての特徴空間の分布における中心に近い値の特徴量が抽出されたフレームを優先的に切り出すことを特徴とする請求項7に記載の映像生成装置。
  9. 前記新規映像生成手段は、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせるものであって、該映像区間の切り出しの際に、同一対象物が含まれるフレームの特徴量の値についての特徴空間の分布における互いに離れた位置に分布する特徴量が抽出されたフレームを優先的に切り出すことを特徴とする請求項7に記載の映像生成装置。
  10. 前記新規映像生成手段は、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせることを特徴とする請求項1に記載の映像生成装置。
  11. 前記映像の提示長は、新規映像において提示する映像の時間の長さ、あるいはフレーム数、あるいはショット、シーンおよびトピックのいずれかの条件により映像を区切ることで生成される映像区間の個数のいずれかであることを特徴とする請求項1乃至10の何れか1項に記載の映像生成装置。
  12. 前記対象物は人物であることを特徴とする請求項1乃至10の何れか1項に記載の映像生成装置。
  13. 前記対象物は人物であり、前記対象物検出手段は、人物の顔を検出することを特徴とする請求項6乃至9の何れか1項に記載の映像生成装置。
  14. 入力映像を編集して新規映像を生成する映像生成方法において、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換する映像生成方法であって、
    a)入力映像に登場する各対象物の登場率を算出するステップ、
    b)前記算出された各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換するステップ、
    c)入力映像を編集して前記変換されて得られた各対象物に関する映像の提示長をほぼ満足するように新規映像を、対象物と当該対象物が登場するフレームの番号とを対応付けた記憶手段から前記映像の提示長に対応するようにフレームの番号を選択し当該選択されたフレームの番号で識別されるフレームから生成するステップ、
    を含む、映像生成方法。
  15. 前記ステップbは、登場率に対応する提示長が一意に定まる変換規則を使用して、各対象物の登場率を提示長に変換するステップを含むことを特徴とする請求項14に記載の映像生成方法。
  16. 前記ステップbは、それぞれ異なる複数の変換規則のうち、利用者によって選択された変換規則を使用して、各対象物の登場率を提示長に変換するステップを含むことを特徴とする請求項15に記載の映像生成方法。
  17. 前記変換規則は、登場率の値によっては変換後の提示長が0になる規則であることを特徴とする請求項15または16に記載の映像生成方法。
  18. 前記変換規則は、登場率の値によらず変換後の提示長が0にならない規則であることを特徴とする請求項15または16に記載の映像生成方法。
  19. 前記ステップaは、a−1)前記入力映像に登場する各対象物を前記入力映像から検出するステップ、a−2)該ステップの検出結果を受け取り、各対象物の検出された映像長と入力映像長とから各対象物の登場率を算出するステップ、を含むことを特徴とする請求項14に記載の映像生成方法。
  20. 前記ステップa−1は、a−1−1)前記入力映像に登場する対象物群を前記入力映像から検出するステップ、a−1−2)該ステップにより検出された対象物群の各特徴量を抽出するステップ、a−1−3)該ステップにより抽出された特徴量について、値の類似する特徴量が抽出されたフレームを同一の対象物が検出されたフレームとして同一グループにまとめることで、各対象物が検出されたフレームを集めたクラスタを生成するステップ、を含むことを特徴とする請求項19に記載の映像生成方法。
  21. 前記ステップcは、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせるステップであって、該映像区間の切り出しの際に、同一対象物が含まれるフレームの特徴量の値についての特徴空間の分布における中心に近い値の特徴量が抽出されたフレームを優先的に切り出すステップを含むことを特徴とする請求項20に記載の映像生成方法。
  22. 前記ステップcは、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせるステップであって、該映像区間の切り出しの際に、同一対象物が含まれるフレームの特徴量の値についての特徴空間の分布における互いに離れた位置に分布する特徴量が抽出されたフレームを優先的に切り出すステップを含むことを特徴とする請求項20に記載の映像生成方法。
  23. 前記ステップcは、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせるステップを含むことを特徴とする請求項14に記載の映像生成方法。
  24. 前記映像の提示長は、新規映像において提示する映像の時間の長さ、あるいはフレーム数、あるいはショット、シーンおよびトピックのいずれかの条件により映像を区切ることで生成される映像区間の個数のいずれかであることを特徴とする請求項14乃至23の何れか1項に記載の映像生成方法。
  25. 前記対象物は人物であることを特徴とする請求項14乃至23の何れか1項に記載の映像生成方法。
  26. 前記対象物は人物であり、前記ステップa−1は、人物の顔を検出するステップであることを特徴とする請求項19乃至22の何れか1項に記載の映像生成方法。
  27. 入力映像を編集して新規映像を生成するコンピュータを、入力映像に登場する各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換する手段として機能させるための映像生成プログラムであって、
    前記コンピュータを、入力映像に登場する各対象物の登場率を算出する登場率算出手段と、前記算出された各対象物の登場率を、新規映像における各対象物に関する映像の提示長に変換する登場率提示長変換手段と、入力映像を編集して前記変換されて得られた各対象物に関する映像の提示長をほぼ満足するように新規映像を、対象物と当該対象物が登場するフレームの番号とを対応付けた記憶手段から前記映像の提示長に対応するようにフレームの番号を選択し当該選択されたフレームの番号で識別されるフレームから生成する新規映像生成手段として機能させるための映像生成プログラム。
  28. 前記登場率提示長変換手段は、登場率に対応する提示長が一意に定まる変換規則を使用して、各対象物の登場率を提示長に変換することを特徴とする請求項27に記載の映像生成プログラム。
  29. 前記登場率提示長変換手段は、それぞれ異なる複数の変換規則のうち、利用者によって選択された変換規則を使用して、各対象物の登場率を提示長に変換することを特徴とする請求項28に記載の映像生成プログラム。
  30. 前記変換規則は、登場率の値によっては変換後の提示長が0になる規則であることを特徴とする請求項28または29に記載の映像生成プログラム。
  31. 前記変換規則は、登場率の値によらず変換後の提示長が0にならない規則であることを特徴とする請求項28または29に記載の映像生成プログラム。
  32. 前記登場率算出手段は、前記入力映像に登場する各対象物を前記入力映像から検出する対象物検出手段と、該対象物検出手段から検出結果を受け取り、各対象物の検出された映像長と入力映像長とから各対象物の登場率を算出する登場率決定手段とを含むことを特徴とする請求項27に記載の映像生成プログラム。
  33. 前記対象物検出手段は、前記入力映像に登場する対象物群を前記入力映像から検出する対象物群検出手段と、該対象物群検出手段により検出された対象物群の各特徴量を抽出する特徴量抽出手段と、該特徴量抽出手段により抽出された特徴量について、値の類似する特徴量が抽出されたフレームを同一の対象物が検出されたフレームとして同一グループにまとめることで、各対象物が検出されたフレームを集めたクラスタを生成するクラスタリング手段とを含むことを特徴とする請求項32に記載の映像生成プログラム。
  34. 前記新規映像生成手段は、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせるものであって、該映像区間の切り出しの際に、同一対象物が含まれるフレームの特徴量の値についての特徴空間の分布における中心に近い値の特徴量が抽出されたフレームを優先的に切り出すことを特徴とする請求項33に記載の映像生成プログラム。
  35. 前記新規映像生成手段は、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせるものであって、該映像区間の切り出しの際に、同一対象物が含まれるフレームの特徴量の値についての特徴空間の分布における互いに離れた位置に分布する特徴量が抽出されたフレームを優先的に切り出すことを特徴とする請求項33に記載の映像生成プログラム。
  36. 前記新規映像生成手段は、入力映像中から各対象物の提示長分だけ各対象物が登場している映像区間を切り出して時系列的につなぎ合わせることを特徴とする請求項27に記載の映像生成プログラム。
  37. 映像の提示長とは、新規映像において提示する映像の時間の長さ、あるいはフレーム数、あるいはショット、シーンおよびトピックのいずれかの条件により映像を区切ることで生成される映像区間の個数のいずれかであることを特徴とする請求項27乃至36の何れか1項に記載の映像生成プログラム。
  38. 前記対象物は人物であることを特徴とする請求項27乃至36の何れか1項に記載の映像生成プログラム。
  39. 前記対象物は人物であり、前記対象物検出手段は、人物の顔を検出することを特徴とする請求項32乃至35の何れか1項に記載の映像生成プログラム。
JP2007552891A 2006-01-05 2006-12-07 映像生成装置、映像生成方法および映像生成プログラム Active JP5315694B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007552891A JP5315694B2 (ja) 2006-01-05 2006-12-07 映像生成装置、映像生成方法および映像生成プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006000459 2006-01-05
JP2006000459 2006-01-05
JP2007552891A JP5315694B2 (ja) 2006-01-05 2006-12-07 映像生成装置、映像生成方法および映像生成プログラム
PCT/JP2006/324465 WO2007077713A1 (ja) 2006-01-05 2006-12-07 映像生成装置、映像生成方法および映像生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2007077713A1 JPWO2007077713A1 (ja) 2009-06-11
JP5315694B2 true JP5315694B2 (ja) 2013-10-16

Family

ID=38228071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007552891A Active JP5315694B2 (ja) 2006-01-05 2006-12-07 映像生成装置、映像生成方法および映像生成プログラム

Country Status (3)

Country Link
US (1) US8315507B2 (ja)
JP (1) JP5315694B2 (ja)
WO (1) WO2007077713A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7925112B2 (en) * 2007-02-28 2011-04-12 Honeywell International Inc. Video data matching using clustering on covariance appearance
US7898576B2 (en) * 2007-02-28 2011-03-01 Honeywell International Inc. Method and system for indexing and searching objects of interest across a plurality of video streams
US8200010B1 (en) * 2007-09-20 2012-06-12 Google Inc. Image segmentation by clustering web images
JP2009212935A (ja) * 2008-03-05 2009-09-17 Omron Corp 画像処理装置および方法、並びにプログラム
JP2011090569A (ja) * 2009-10-23 2011-05-06 Sony Corp 画像処理装置および画像処理方法
US20110289411A1 (en) * 2010-05-24 2011-11-24 Samsung Electronics Co., Ltd. Method and system for recording user interactions with a video sequence
US8649573B1 (en) * 2010-06-14 2014-02-11 Adobe Systems Incorporated Method and apparatus for summarizing video data
KR101781223B1 (ko) * 2010-07-15 2017-09-22 삼성전자주식회사 비디오 시퀀스 편집 방법 및 장치
US20120039579A1 (en) * 2010-08-12 2012-02-16 Play Pusher, Inc. Multi-angle audio and video production system and method
US9271035B2 (en) * 2011-04-12 2016-02-23 Microsoft Technology Licensing, Llc Detecting key roles and their relationships from video
US20120263439A1 (en) * 2011-04-13 2012-10-18 David King Lassman Method and apparatus for creating a composite video from multiple sources
JP2013025748A (ja) * 2011-07-26 2013-02-04 Sony Corp 情報処理装置、動画要約方法、及びプログラム
US9524751B2 (en) 2012-05-01 2016-12-20 Wochit, Inc. Semi-automatic generation of multimedia content
US9396758B2 (en) 2012-05-01 2016-07-19 Wochit, Inc. Semi-automatic generation of multimedia content
US20130294746A1 (en) * 2012-05-01 2013-11-07 Wochit, Inc. System and method of generating multimedia content
JP2014067333A (ja) * 2012-09-27 2014-04-17 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US9436875B2 (en) * 2012-12-06 2016-09-06 Nokia Technologies Oy Method and apparatus for semantic extraction and video remix creation
US9892556B2 (en) 2014-03-11 2018-02-13 Amazon Technologies, Inc. Real-time exploration of video content
US9894405B2 (en) * 2014-03-11 2018-02-13 Amazon Technologies, Inc. Object discovery and exploration in video content
US9747727B2 (en) 2014-03-11 2017-08-29 Amazon Technologies, Inc. Object customization and accessorization in video content
US10939175B2 (en) 2014-03-11 2021-03-02 Amazon Technologies, Inc. Generating new video content from pre-recorded video
US9553904B2 (en) 2014-03-16 2017-01-24 Wochit, Inc. Automatic pre-processing of moderation tasks for moderator-assisted generation of video clips
US9646227B2 (en) 2014-07-29 2017-05-09 Microsoft Technology Licensing, Llc Computerized machine learning of interesting video sections
US9934423B2 (en) * 2014-07-29 2018-04-03 Microsoft Technology Licensing, Llc Computerized prominent character recognition in videos
US9659219B2 (en) 2015-02-18 2017-05-23 Wochit Inc. Computer-aided video production triggered by media availability
US10970843B1 (en) 2015-06-24 2021-04-06 Amazon Technologies, Inc. Generating interactive content using a media universe database
US9349414B1 (en) * 2015-09-18 2016-05-24 Odile Aimee Furment System and method for simultaneous capture of two video streams
US10324919B2 (en) * 2015-10-05 2019-06-18 Red Hat, Inc. Custom object paths for object storage management
WO2017164640A1 (en) 2016-03-22 2017-09-28 Jam2Go, Inc. System and method for editing video contents automatically technical field
KR102361811B1 (ko) 2016-03-22 2022-02-11 천종윤 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법
KR101717014B1 (ko) 2016-04-21 2017-03-15 (주)노바빈 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법
US9996769B2 (en) * 2016-06-08 2018-06-12 International Business Machines Corporation Detecting usage of copyrighted video content using object recognition
US9789403B1 (en) 2016-06-14 2017-10-17 Odile Aimee Furment System for interactive image based game
US10163015B2 (en) * 2016-11-16 2018-12-25 Ford Global Technologies, Llc Detecting foliage using range data
US10671852B1 (en) 2017-03-01 2020-06-02 Matroid, Inc. Machine learning in video classification
US10783925B2 (en) * 2017-12-29 2020-09-22 Dish Network L.L.C. Methods and systems for an augmented film crew using storyboards
US10834478B2 (en) 2017-12-29 2020-11-10 Dish Network L.L.C. Methods and systems for an augmented film crew using purpose
US10453496B2 (en) * 2017-12-29 2019-10-22 Dish Network L.L.C. Methods and systems for an augmented film crew using sweet spots
JP7148857B2 (ja) * 2018-06-06 2022-10-06 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062451A (ja) * 2002-07-26 2004-02-26 Sharp Corp 情報提示方法、情報提示装置、情報提示プログラム、情報提示プログラムを記録したコンピュータ読み取り可能な記録媒体、スケジュール管理方法
JP2005157463A (ja) * 2003-11-20 2005-06-16 Pioneer Electronic Corp データ分類方法、要約データ生成方法、データ分類装置、要約データ生成装置、データ分類プログラム、要約データ生成プログラム及び情報記録媒体
WO2005074275A1 (ja) * 2004-01-30 2005-08-11 Matsushita Electric Industrial Co., Ltd. コンテンツ再生装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100608476B1 (ko) * 1998-12-28 2006-08-09 소니 가부시끼 가이샤 영상 정보의 편집 방법 및 편집 장치
GB0007698D0 (en) * 2000-03-31 2000-05-17 Discreet Logic Inc Editing video data
JP2002199333A (ja) 2000-12-27 2002-07-12 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP2003032616A (ja) 2001-07-17 2003-01-31 Nhk Computer Service:Kk 映像情報生成装置及び映像編集装置及び映像情報生成プログラム並びに映像編集プログラム
JP3927445B2 (ja) 2002-05-15 2007-06-06 株式会社リコー パーソナルダイジェスト配信システム
JP3926756B2 (ja) * 2003-03-24 2007-06-06 株式会社東芝 映像要約装置、映像要約方法
JP3923932B2 (ja) 2003-09-26 2007-06-06 株式会社東芝 映像要約装置、映像要約方法及びプログラム
JP4166707B2 (ja) * 2004-01-20 2008-10-15 パイオニア株式会社 映像内容認識装置、録画装置、映像内容認識方法、録画方法、映像内容認識プログラム、および録画プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062451A (ja) * 2002-07-26 2004-02-26 Sharp Corp 情報提示方法、情報提示装置、情報提示プログラム、情報提示プログラムを記録したコンピュータ読み取り可能な記録媒体、スケジュール管理方法
JP2005157463A (ja) * 2003-11-20 2005-06-16 Pioneer Electronic Corp データ分類方法、要約データ生成方法、データ分類装置、要約データ生成装置、データ分類プログラム、要約データ生成プログラム及び情報記録媒体
WO2005074275A1 (ja) * 2004-01-30 2005-08-11 Matsushita Electric Industrial Co., Ltd. コンテンツ再生装置

Also Published As

Publication number Publication date
US20090169168A1 (en) 2009-07-02
US8315507B2 (en) 2012-11-20
JPWO2007077713A1 (ja) 2009-06-11
WO2007077713A1 (ja) 2007-07-12

Similar Documents

Publication Publication Date Title
JP5315694B2 (ja) 映像生成装置、映像生成方法および映像生成プログラム
US11321385B2 (en) Visualization of image themes based on image content
JP4269473B2 (ja) オーディオ・ビジュアル記録物をセグメント化する方法およびコンピュータ記憶媒体、並びにコンピュータシステム
US20170046568A1 (en) Systems and methods of identifying a gesture using gesture data compressed by principal joint variable analysis
JP4253989B2 (ja) ビデオの類似性探索方法及び記録媒体
US8416332B2 (en) Information processing apparatus, information processing method, and program
JP4258090B2 (ja) ビデオフレームの分類方法及びセグメント化方法、及びコンピュータ可読記憶媒体
EP2557782B1 (en) Server system for real-time moving image collection, recognition, classification, processing, and delivery
US8558952B2 (en) Image-sound segment corresponding apparatus, method and program
US8457469B2 (en) Display control device, display control method, and program
JP2021192222A (ja) 動画インタラクティブ方法と装置、電子デバイス、コンピュータ可読記憶媒体、及び、コンピュータプログラム
JP2011223287A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6908863B2 (ja) 信号変更装置、方法、及びプログラム
JP6807389B2 (ja) メディアコンテンツのパフォーマンスの即時予測のための方法及び装置
CN107409193A (zh) 信息处理方法、影像处理装置和程序
CN108198130B (zh) 图像处理方法、装置、存储介质及电子设备
JP2011019192A (ja) 画像表示装置
CN112132197A (zh) 模型训练、图像处理方法、装置、计算机设备和存储介质
Camurri et al. Kansei analysis of dance performance
US9286710B2 (en) Generating photo animations
JPWO2013157190A1 (ja) 音声処理装置、音声処理方法、プログラムおよび集積回路
CN107005676A (zh) 信息处理方法、影像处理装置和程序
JP2009289210A (ja) 重要物体認識装置および重要物体認識方法ならびにそのプログラム
CN111062284A (zh) 一种交互式视频摘要模型的可视理解与诊断方法
KR20210019182A (ko) 나이 변환된 얼굴을 갖는 직업영상 생성 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130624

R150 Certificate of patent or registration of utility model

Ref document number: 5315694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150