JP2012217144A - 画像編集装置、画像編集方法、およびプログラム - Google Patents
画像編集装置、画像編集方法、およびプログラム Download PDFInfo
- Publication number
- JP2012217144A JP2012217144A JP2012040036A JP2012040036A JP2012217144A JP 2012217144 A JP2012217144 A JP 2012217144A JP 2012040036 A JP2012040036 A JP 2012040036A JP 2012040036 A JP2012040036 A JP 2012040036A JP 2012217144 A JP2012217144 A JP 2012217144A
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- group
- effect
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 20
- 230000000694 effects Effects 0.000 claims abstract description 148
- 238000009877 rendering Methods 0.000 claims description 9
- 239000000463 material Substances 0.000 abstract description 91
- 238000010586 diagram Methods 0.000 description 26
- 239000000284 extract Substances 0.000 description 18
- 239000004973 liquid crystal related substance Substances 0.000 description 18
- 238000003860 storage Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 101150053844 APP1 gene Proteins 0.000 description 6
- 101100189105 Homo sapiens PABPC4 gene Proteins 0.000 description 6
- 102100039424 Polyadenylate-binding protein 4 Human genes 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 239000003550 marker Substances 0.000 description 5
- 230000006837 decompression Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/038—Cross-faders therefor
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Studio Circuits (AREA)
Abstract
【課題】フォトムービーのような連続表示用の一連の画像群を編集するときに、より簡単に素材画像を抽出することができる画像編集装置を提供すること。
【解決手段】画像編集装置は、各々が付属情報を有する複数の画像を組み合わせて一連の画像群を生成する。画像編集装置は、編集対象として指定された複数の候補画像を受け付ける入力インターフェースと、前記複数の候補画像から前記付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、前記一連の画像群を生成する画像編集部とを備える。
【選択図】図12
【解決手段】画像編集装置は、各々が付属情報を有する複数の画像を組み合わせて一連の画像群を生成する。画像編集装置は、編集対象として指定された複数の候補画像を受け付ける入力インターフェースと、前記複数の候補画像から前記付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、前記一連の画像群を生成する画像編集部とを備える。
【選択図】図12
Description
本発明は、複数の画像を組み合わせて連続表示用の一連の画像群の編集が可能な画像編集装置に関する。
複数の静止画像および動画像を編集してフォトムービーを生成する電子機器やプログラムが知られている。例えば、特許文献1には、素材となる複数の静止画を組み合わせて観賞用のフォトムービーを作成するフォトムービー作成装置が開示されている。
フォトムービーのような連続表示するための画像群を構成するとき、表示エフェクト(各画像に付与される演出的効果)は連続表示される一連の画像群の見た目の印象に影響する。しかしながら、特許文献1に記載のフォトムービー作成装置では、ユーザーの意図に合致した一連の画像群を容易に作成することができない。
本発明の実施形態は、上記課題を鑑み、フォトムービーのような連続表示用の一連の画像群を作成するときに、より簡単にユーザーの意図に沿った素材画像を抽出することができる画像編集装置を提供する。
本発明の実施形態による画像編集装置は、各々が付属情報を有する複数の画像を組み合わせて一連の画像群を生成することができる。前記画像編集装置は、前記一連の画像群に使用される候補となる複数の候補画像を受け付ける入力インターフェースと、前記複数の候補画像から前記付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、前記一連の画像群を生成する画像編集部とを備える。
ある実施形態において、前記入力インターフェースは、ユーザーから、前記複数の候補画像、前記一連の画像群の総再生時間を規定する情報、および前記一連の画像群の構成を規定する情報を受け、前記画像編集部は、前記総再生時間を規定する情報と、前記構成を規定する情報とに基づいて、前記一連の画像群を構成する複数のシーンの各々の再生時間を決定する。
ある実施形態において、前記画像編集部は、前記複数の候補画像を、前記付属情報に基づいて、グループを構成するものとグループを構成しないものとに分類し、前記グループを構成するものを、グループごとに前記複数のシーンのいずれかに割り当て、前記グループを構成しないものの少なくとも一部を、画像ごとに前記複数のシーンの残りに割り当てる。
ある実施形態において、前記構成を規定する情報は、予め用意された複数のテンプレートからユーザーが1つを選択することによって決定される。
ある実施形態において、前記画像編集部は、前記複数の候補画像に含まれる静止画像または動画像に付与された付属情報の示す値を基準として、所定の範囲内に属する値の付属情報を有する他の静止画像または動画像を、前記複数の候補画像の中から検出する処理を実行することにより、前記グループを決定する。
ある実施形態において、前記画像編集部は、前記処理を、前記複数の候補画像に含まれる全ての静止画像または全ての動画像について実行することにより、前記グループを決定する。
ある実施形態において、前記グループごとに付与される前記演出効果は、前記グループに属する少なくとも2つの画像を同一の表示領域に表示させる効果を含む。
ある実施形態において、前記演出効果は、前記同一の表示領域に表示される前記少なくとも2つの画像の少なくとも1つが、移動、拡大、縮小の少なくとも1つの動作を行う効果を含む。
ある実施形態において、前記付属情報は、撮影時期を示す情報、撮影場所を示す情報、および被写体を識別する情報の少なくとも1つを含む。
本発明の実施形態による画像編集方法は、各々が付属情報を有する複数の画像を組み合わせて一連の画像群を生成する方法である。前記方法は、編集対象として指定された複数の候補画像を受け付けるステップと、前記複数の候補画像から前記付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、前記一連の画像群を生成するステップとを含む。
本発明の実施形態によるプログラムは、各々が付属情報を有する複数の画像を組み合わせて一連の画像群を生成するためのプログラムであって、コンピュータに対し、編集対象として指定された複数の候補画像を受け付けるステップと、前記複数の候補画像から前記付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、前記一連の画像群を生成するステップとを実行させる。
本発明によれば、フォトムービーのような連続表示用の一連の画像群を編集するときに、より簡単にユーザーの意図に沿った素材画像を抽出することができる画像編集装置を提供することができる。
以下、本発明の実施形態を説明する。具体的な実施形態を説明する前に、まず、本発明の実施形態における基本構成を説明する。
図1Aは、本発明の実施形態による画像編集装置10の基本構成を示すブロック図である。画像編集装置10は、外部の入力装置20および表示装置30に電気的に接続されて利用され得る。ここで、「電気的に接続される」場合には、銅線や光ファイバのようなケーブルで物理的に接続される場合のみならず、電磁波を介して情報が伝送される場合を含む。画像編集装置10は、典型的にはパーソナルコンピュータ(以下、「PC」)や携帯情報端末といったプロセッサを備えた電子機器である。画像編集装置10は、データセンター等に設置されたサーバーであってもよい。その場合、入力装置20および表示装置30は、遠隔地のユーザーが操作する電子機器に内蔵または接続された入出力デバイスであり得る。
画像編集装置10は、複数の画像を用いて一連の画像群を生成する機能を備えている。ここで、「一連の画像群」とは、所定の演出効果を伴って連続的に表示される複数の画像によって構成される映像を意味する。当該映像には、複数の静止画および/または動画が1つずつ表示されるものに限らず、複数の静止画が同時に表示されるシーン、複数の動画が同時に表示されるシーン、および複数の静止画および動画が同時に表示されるシーンを含んでいてもよい。典型的な実施形態では、一連の画像群を構成する各画像は、個別の静止画ファイルまたは動画ファイルとして用意される。
「演出効果」とは、各画像を表示する際に施される装飾的効果であり、例えば、横からスライドしながら画面に表示されたり、拡大・縮小しながら画面に表示される、といった効果があり得る。複数の画像が同時に表示されるシーンでは、一部の画像が画面上で移動、拡大、縮小等の複雑な動作を行う効果もあり得る。
「画像」には、静止画像および動画像が含まれる。生成される一連の画像群に動画像が含まれる場合、当該動画像に割り当てられた再生時間の間だけ当該動画が再生され得る。各画像が、単独の写真、または複数の写真からなる動画である場合、一連の画像群は、「フォトムービー」と呼ぶことができる。
画像編集装置10は、入力装置20を介して一連の画像群に使用される候補となる候補画像を受け付ける入力インターフェース11と、入力された情報に基づいて一連の画像群を生成する画像編集部12とを備えている。
入力インターフェース11は、入力装置20から入力される情報を受け付けるデバイスであり、例えば、USBポート、通信ポートであり得る。入力インターフェース11に入力された情報は画像群生成部12に転送される。あるいは、不図示のメモリに記録されてもよい。入力インターフェース11には、編集対象としてユーザーなどによって指定された複数の候補画像が入力される。ここで、各候補画像には、固有の付属情報が付与されている。付属情報には、撮影時期、撮影場所、個人識別情報といった、その画像を特徴付けるパラメータが含まれ得る。
画像編集部12は、指定された複数の候補画像から選択した複数の画像を用いて一連の画像群を生成する。生成した一連の画像群は、例えば、不図示のメモリに保存され、表示装置30に表示され得る。画像編集部12は、指定された複数の候補画像から付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、一連の画像群を生成する。
以上の構成により、関連性の高い複数の画像からなるグループごとに編集された一連の画像群を生成することが可能となる。これにより、ユーザーの意図を反映したより高品質な一連の画像群を容易に得ることができる。
以下、本発明のより具体的な実施の形態を説明する。
〔実施の形態1〕
まず、本発明の第1の実施の形態による画像編集装置を説明する。本実施の形態では、パーソナルコンピュータ(PC)が画像編集装置として機能する。本実施の形態にかかるPCは、任意の素材データ(静止画像および動画像)群を用いて、ストーリー構成と時間、素材の特性、ユーザーの意図を重視した編集を簡単に行うことができる。
まず、本発明の第1の実施の形態による画像編集装置を説明する。本実施の形態では、パーソナルコンピュータ(PC)が画像編集装置として機能する。本実施の形態にかかるPCは、任意の素材データ(静止画像および動画像)群を用いて、ストーリー構成と時間、素材の特性、ユーザーの意図を重視した編集を簡単に行うことができる。
本実施の形態では、編集結果として、フォトムービー(以下、単に「ムービー」と呼ぶことがある。)を作成する場合を説明する。
図1Bは、本実施形態におけるムービー作成処理の全体の流れを示す概念図である。図1Bには、候補となる素材データからムービー作成に使用される素材データを抽出し、ムービーの基本構造を示す「ストーリーデータ」、および当該ストーリーデータと抽出データとを関連付けた「コンテデータ」を作成するまでの流れが示されている。この図では、複数の静止画および動画からなる素材データを、それらの取得日時に基づいて時系列に配列した場合のイメージが示されている。ここで、動画は、映像と音声とに分けて図示されている。
本実施の形態に係るPCは、ムービー作成の際、ユーザーが選択した任意の素材データ(静止画像および動画像)群から、指定されたテンプレートに従い、所定時間のストーリーデータを作成する。
PCはまず、素材データに含まれる静止画像および動画像の中から、ムービー作成に使用する画像データを抽出する(抽出データ)。抽出データに動画像が含まれる場合は、一連のストリームをそのまま使用すると再生時間が長くなってしまうため、必要な長さに分割した状態にて抽出される。
「テンプレート」とは、所定時間の物語を演出するために、連続して配置される映像の表示時間と、映像や映像間に付与する演出効果を記述したものである。ここで、映像とは、静止画像や動画像に対して指定の演出効果により一定時間再生される状態になった動画像である。
「ストーリーデータ」とは、表示する画像の個数と、各画像の表示時間と、各画像の演出効果を時間軸上に記述したものである。
「コンテデータ」とは、ストーリーデータに、ユーザーが選択した素材データ(静止画像、動画像)群の中からユーザーにとって重要と思われる映像を効果的に配置することにより作成されるデータである。PC100は、このコンテデータに所定のエンコード処理を施すことによって動画ファイルに変換して出力することができる。
本実施の形態1にかかるPC100は、抽出データを選択するときに、互いに類似する付属情報を有する画像データ(複数の静止画像、複数の動画像、または静止画像および動画像の組み合わせ)について、グループシーンを設定し、グループシーン単位でムービー編集を行う。
以下、PC100のシステムの構成および動作について詳細に説明する。
[1.システムの構成]
まず、PC100の構成について図2を用いて説明する。図2は、PC100の全体構成を示すブロック図である。
まず、PC100の構成について図2を用いて説明する。図2は、PC100の全体構成を示すブロック図である。
PC100は、中央演算処理装置(CPU)101、システム管理メモリ102、ワークメモリ103、ハードディスクドライブ(HDD)104、USBコネクタ107、グラフィックコントローラ108、液晶ディスプレイ109、カードスロット114を備えている。USBコネクタ107には、マウス105およびキーボード106が接続され得る。PC100は、図示されていない要素をさらに含み得るが、それらの要素は本発明の本質とは関係がないため、説明を省略する。本実施形態では、PC100として液晶ディスプレイ109を備えたノートPCを想定しているが、デスクトップPCであってもよい。本実施の形態では、CPU101が本発明における画像編集部の機能を有している。
CPU101は、PC100の処理を実行する処理部である。CPU101は、システム管理メモリ102、ワークメモリ103、HDD104、グラフィックコントローラ108、USBコネクタ107に電気的に接続されている。CPU101は、グラフィックコントローラ108を介して、液晶ディスプレイ109に表示される画面を変更することができる。また、CPU101は、USBコネクタ107を介して、マウス105やキーボード106を用いたユーザーによる操作情報を受け付ける。また、図示していないが、PC100の各部に供給される電力等のシステムを全体的に制御している。
システム管理メモリ102は、オペレーティングシステム(OS)などが保持されているメモリである。また、システム管理メモリ102には、システム時刻などが格納されている。システム時刻は、CPU101がOSのプログラムを動作させることにより更新される。
ワークメモリ103は、CPU101が各種処理動作を実行するために必要な情報を一時的に格納するメモリである。CPU101は、所定時間のストーリーデータを作成するとき、ワークメモリ103を作業スペースとして、ユーザーが指定したテンプレートに従って作成する。ワークメモリ103には、ユーザーが選択した素材データの情報、ユーザーが指定したテンプレートの情報、作成中のストーリーデータ、および作成したコンテデータ等が格納される。
HDD104には、画像編集ソフト110、テンプレート111、素材データ112(複数の静止画像および動画像)、および素材データ112の情報を管理するデータベース113が格納されている。テンプレート111、素材データ112、およびデータベース113の詳細については、後述する。
マウス105は、ユーザーが編集操作時に使用するポインティングデバイスである。ユーザーは、マウス105を操作することにより、画像編集ソフト110の画面上において、素材データ112およびテンプレート111を選択することができる。
キーボード106は、ユーザーが編集操作時に文字入力などを行うためのキーボードデバイスである。
USBコネクタ107は、マウス105とキーボード106とをPC100に接続するためのコネクタである。
グラフィックコントローラ108は、CPU101によって演算された画面情報を映像化するデバイスであり、画面情報を液晶ディスプレイ109に伝える。
液晶ディスプレイ109は、グラフィックコントローラ108が映像化した画面情報を表示する表示デバイスである。なお、液晶ディスプレイ109に限らず、外付けディスプレイに画面情報を表示してもよい。
カードスロット114は、メモリカードを装着可能なインターフェースである。カードスロット114にメモリカードが装着されると、CPU101は、メモリカードに格納されている画像データなどを読み込むことができる。また、CPU101は、必要に応じて、メモリカードに格納された画像データなどを、HDD104に書き込むことができる。
CPU101は、HDD104に格納された画像編集ソフト110を読み出し、ワークメモリ103に格納して、画像編集ソフト110を起動し実行する。また、CPU101は、画像編集ソフト110のプログラムに従って、以下の処理を実行する。
(1)マウス105、キーボード106を用いて行われたユーザーの選択操作、編集操作を、USBコネクタ107を介して受け付ける。
(2)作成するコンテデータについて、ユーザーが選択した素材データを読み出す。
(3)ユーザーが選択したテンプレート111の記述内容を読み出す。
(4)ユーザーが選択したテンプレート111の記述内容に従い、ユーザーが指定した所定時間のストーリーデータを作成する。
(5)ストーリーデータに、ユーザーが選択した素材データの中からユーザーにとって重要であると想定される映像を優先的に抽出し、効果的に配置することによりコンテデータを作成する。
(6)液晶ディスプレイ109に表示させるために、作成したコンテデータの画像情報をグラフィックコントローラ108に送出する。
(7)液晶ディスプレイ109でプレビューできるように、作成したコンテデータの内容に従い再生を行う。
(1)マウス105、キーボード106を用いて行われたユーザーの選択操作、編集操作を、USBコネクタ107を介して受け付ける。
(2)作成するコンテデータについて、ユーザーが選択した素材データを読み出す。
(3)ユーザーが選択したテンプレート111の記述内容を読み出す。
(4)ユーザーが選択したテンプレート111の記述内容に従い、ユーザーが指定した所定時間のストーリーデータを作成する。
(5)ストーリーデータに、ユーザーが選択した素材データの中からユーザーにとって重要であると想定される映像を優先的に抽出し、効果的に配置することによりコンテデータを作成する。
(6)液晶ディスプレイ109に表示させるために、作成したコンテデータの画像情報をグラフィックコントローラ108に送出する。
(7)液晶ディスプレイ109でプレビューできるように、作成したコンテデータの内容に従い再生を行う。
素材データは所定のフォーマットで圧縮されていることがあるため、PC100は圧縮された素材データを変換処理部120にてデコードする。本実施の形態においては、変換処理部120は、CPU101の一処理機能として説明するが、本発明はこれに限定されない。すなわち、変換処理部120はCPU101の外部の機能として実施されてもよい。
[2.変換処理部の構成]
続いて、PC100の変換処理部120の構成について図3を用いて説明する。変換処理部120は、HDD104に圧縮符号化され格納された素材データ112の伸張復号化処理を実行する。変換処理部120は、多重化分離部201、ビデオデコーダ202、オーディオデコーダ203、ビデオエンコーダ204、オーディオエンコーダ205、多重化部206、静止画デコーダ207を有している。
続いて、PC100の変換処理部120の構成について図3を用いて説明する。変換処理部120は、HDD104に圧縮符号化され格納された素材データ112の伸張復号化処理を実行する。変換処理部120は、多重化分離部201、ビデオデコーダ202、オーディオデコーダ203、ビデオエンコーダ204、オーディオエンコーダ205、多重化部206、静止画デコーダ207を有している。
多重化分離部201は、AVCHD(登録商標)等のファイル形式で多重化されたAVストリームをビデオストリームとオーディオストリームとに分離する。分離されたビデオストリームはビデオデコーダ202に、分離したオーディオデータはオーディオデコーダ203に送られる。
ビデオデコーダ202は、多重化分離部201によりAVストリームから分離されたビデオストリームの伸張復号化を行う。オーディオデコーダ203は、多重化分離部201によりAVストリームから分離されたオーディオストリームの伸張復号化を行う。ビデオデコーダ202およびオーディオデコーダ203により伸長符号化された各データは、ワークメモリ103に格納される。ワークメモリ103に格納されたデータは、画像編集の際、必要に応じて取り出される。
ビデオエンコーダ204は、ビデオストリームを所定の動画記録フォーマットに従って圧縮符号化を行い、圧縮符号化したビデオストリームは多重化部206に送られる。同様に、オーディオエンコーダ205は、オーディオストリームを所定の音声記録フォーマットに従って圧縮符号化を行い、圧縮符号化したオーディオストリームは多重化部206に送られる。
多重化部206は、ビデオエンコーダ204から出力されたビデオストリームとオーディオエンコーダ205から出力されたオーディオストリームとを多重化して、AVストリームを出力する。多重化部206から出力されたAVストリームは、HDD104に格納される。
静止画デコーダ207は、圧縮符号化された静止画ストリームの伸張復号化を行う。図4は、多重化分離部201によりAVストリームをビデオストリームとオーディオストリームとに分離する様子、および多重化部206によりビデオストリームとオーディオストリームとをAVストリームに多重化する様子を示す。
AVストリーム301は所定単位のデータ(Vk、Ak)(k=1,2,・・・,n)に、時間情報等を付加して作成したビデオパックVとオーディオパックAとを、同期再生が可能な1つのストリームに多重化したストリームである。ここでは、ビデオ用のAVCHD(登録商標)に互換性のあるストリームを例に説明する。多重化分離部201は、多重化されたAVストリーム301をビデオエレメンタリーストリーム302とオーディオエレメンタリーストリーム303とに分離するデータ処理を行う。また、多重化部206は、ビデオエレメンタリーストリーム302とオーディオエレメンタリーストリーム303とをAVストリーム301に多重化するデータ処理を行う。
[3.素材データの構造]
続いて、HDD104に格納されている静止画像および動画像のファイル構造の例を説明する。
続いて、HDD104に格納されている静止画像および動画像のファイル構造の例を説明する。
まず、静止画像のファイル構造について説明する。図5はHDD104に格納されている静止画像のファイル構造の一例を示している。ここでは、Exif(Exchangeable image fileformat)を例に静止画像のファイル構造を説明する。
図示される静止画ファイルは、ヘッダ領域51とデータ記録領域52とを有している。ヘッダ領域51には、このファイルを管理するための各種データが格納されている。ヘッダ領域51には、圧縮データスタートを記憶する「SOI」、およびアプリケーション・マーカセグメントを記憶する「APP1」の各領域が含まれている。データ記録領域52には、量子化テーブルを記憶する領域「DQT」、ハフマンテーブルを記憶する領域「DHT」、フレームヘッダを記憶する領域「SOF」、スキャンヘッダを記憶する領域「SOS」、エントロピー符号化データ(圧縮データ)を記憶する領域およびエントロピー符号化データの終了を表すマーカーコード「EOI」が含まれている。
ヘッダ領域51の中の「APP1」には、さらに、APP1マーカ領域、Exif識別コードを記憶する領域、付属情報領域およびサムネイル領域が含まれている。APP1マーカ領域には、さらにAPP1マーカおよびAPP1の長さの各データを記憶する領域が含まれている。付属情報領域には、TIFFヘッダ、0th IFD、および0th IFDの値をそれぞれ記憶する領域が含まれている。これらの領域には、エントロピー符号化データによって表される画像(主画像)に関する付属情報(撮影日時、撮影場所、個人識別情報など)が格納されている。なお、主画像とは、Exif規格において1ファイルに含まれる2種類の画像(通常サイズの画像およびサムネイル画像)のうち、通常サイズの画像データのことである。サムネイル領域には、1st IFD 、1st IFDの値および1st IFDのサムネイル画像をそれぞれ記憶する領域が含まれている。
CPU101は、必要に応じて処理対象のファイルを開き、付属情報領域内の0th IFDの値を取得し、画像に関する付属情報(撮影日時、撮影場所、個人識別情報など)を把握することができる。なお、静止画ファイルのフォーマットはExifに限らず、付属情報を有するフォーマットであればどのようなものでもよい。
続いて、動画像のファイル構造について説明する。図6A、6BはHDD104に格納されている動画像のファイル構造の例を示す。
図6Aは、AVCHD(登録商標)形式の動画像ファイルの構造を示している。AVCHD形式の動画像ファイルは、圧縮動画データとは別のファイルでメタデータを管理している。メタデータには、画像に関する付属情報(撮影日時、撮影場所、個人識別情報など)が含まれている。
図6Bは、MP4形式の動画像ファイルの構造を示している。MP4形式の動画像ファイルは、圧縮動画データとメタデータとを同一のファイルで管理している。メタデータには、画像に関する付属情報(撮影日時、撮影場所、個人識別情報など)が含まれている。
なお、本発明においては、図6A、6Bに示す動画像ファイル構造に限定されない。すなわち、圧縮画像データのストリーム内に、付属情報を格納するファイル構造であっても、CPU101がその付属情報を読み出し可能であれば、本発明に適用可能である。
[4.データベースの構造]
PC100は、編集対象となる素材データの情報をHDD104内のデータベース113に格納している。データベース113の構造について図7を用いて説明する。
PC100は、編集対象となる素材データの情報をHDD104内のデータベース113に格納している。データベース113の構造について図7を用いて説明する。
図7は、データベース113の構造を示す概念図である。図示されるように、データベース113は、HDD104に格納されている静止画像や動画像といった素材データ112の各々に関して、ID、ファイルパス、素材データの種類、フォーマット、撮影日時、記録時間、撮影場所などの格納領域を保持している。
IDの格納領域は、素材データをユニークに管理するための番号を格納する。ファイルパスの格納領域は、素材データのHDD104内における保存場所の情報を格納する。素材データの種類の格納領域は、素材データが静止画なのか動画なのかを識別するための情報を格納する。フォーマットの格納領域は、素材データの圧縮符号化形式を格納する。撮影日時の格納領域は、素材データが撮影された日時情報を格納する。記録時間の格納領域は、素材データの再生時間を格納する。撮影場所の格納領域は、素材データが撮影された場所に関する情報を格納する。
CPU101は、PC100が新たに画像データを取得したタイミングにおいて、データベース113を更新する。例えば、カードスロット114に装着されたメモリカードから新規に静止画像や動画像を取得したタイミングや、USBコネクタ107を介して他のストレージ機器から新規に静止画像や動画像を取得したタイミングにおいて、取得した画像のファイルを開く。CPU101は、開いた画像ファイルから付属情報を読み出し、データベース113におけるその付属情報に対応する格納領域に、読み出した情報を追加することによってデータベース113を更新する。
[5.選択画面の構成]
続いて、液晶ディスプレイ109が表示する選択画面の構成について図8を参照しながら説明する。図8は、CPU101の指示によりグラフィックコントローラ108が液晶ディスプレイ109に表示させる選択画面の一例を示す図である。
続いて、液晶ディスプレイ109が表示する選択画面の構成について図8を参照しながら説明する。図8は、CPU101の指示によりグラフィックコントローラ108が液晶ディスプレイ109に表示させる選択画面の一例を示す図である。
図8に示すように、液晶ディスプレイ109に表示される選択画面は、素材選択エリア700、テンプレート選択エリア701、再生時間表示エリア703、実行ボタン702を含む。
素材選択エリア700は、コンテデータを作成するための素材となる素材データを表示するエリアである。素材となる個々の素材データは、静止画像データまたは動画像データである。図8に示すように、素材選択エリア700には、複数の素材データが表示される。
素材選択エリア700に表示される素材データは、HDD104に格納された素材データの全てでもよいし、特定のフォルダに格納された素材データのみを選択的に抽出したものでもよい。あるいは、特定のフォルダに格納された素材データの中から、更にユーザーにより選別された素材データを抽出したものでもよい。素材選択エリア700に表示される素材データは、コンテ作成時に組み入れられる画像の候補となる。
素材選択のための構成としては、例えば素材選択エリア700に素材選択用のボタンを設け、ユーザーがこのボタンを押下することによって素材を選択するための画面に遷移する構成であってもよいし、ドラッグアンドドロップによって画像ファイルを追加または削除できる構成であってもよい。
なお、素材選択エリア700に表示された各素材データについて、コンテデータに組み入れたい素材データとしての優先度をユーザーが設定できるようにしてもよい。この場合、すべての素材データを採用できない場合(再生時間が短い場合など)に、優先度が高く設定された素材データを優先的に採用することができる。これにより、ユーザーが所望する画像を採用したコンテデータを作成することができる。
テンプレート選択エリア701は、ユーザーが選択可能なテンプレートを表示するエリアである。テンプレートはストーリーを作成する際に、どのような演出効果を、どのような順番にて連続して並べるかを記載した情報である。順番が記載された演出効果のそれぞれについて、どれだけの再生時間を割り当てるかが記述されている。CPU101は、テンプレートに記載された演出効果の順番に従って、ユーザーが選択した候補の素材データから、所定のアルゴリズムにより、選択された素材を配置する。
ユーザーが選択可能なテンプレートとして、例えば図8に示すように、「人物中心のスローテンポテンプレート」、「人物中心のアップテンポテンプレート」、「風景中心のスローテンポテンプレート」、「風景中心のアップテンポテンプレート」等が表示される。各テンプレートの概要は以下のとおりである。
(1)「人物中心のスローテンポテンプレート」
人物が撮像された画像を中心に抽出し、スローテンポなBGMに合わせた画像演出効果を用いて構成されたストーリーを記述したテンプレートである。
(2)「人物中心のアップテンポテンプレート」
人物が撮像された画像を中心に抽出し、アップテンポなBGMに合わせた画像演出効果を用いて構成されたストーリーを記述したテンプレートである。
(3)「風景中心のスローテンポテンプレート」
風景が撮像された画像を中心に抽出し、スローテンポなBGMに合わせた画像演出効果を用いて構成されたストーリーを記述したテンプレートである。
(4)「風景中心のアップテンポテンプレート」
風景が撮像された画像を中心に抽出し、アップテンポなBGMに合わせた画像演出効果を用いて構成されたストーリーを記述したテンプレートである。
(1)「人物中心のスローテンポテンプレート」
人物が撮像された画像を中心に抽出し、スローテンポなBGMに合わせた画像演出効果を用いて構成されたストーリーを記述したテンプレートである。
(2)「人物中心のアップテンポテンプレート」
人物が撮像された画像を中心に抽出し、アップテンポなBGMに合わせた画像演出効果を用いて構成されたストーリーを記述したテンプレートである。
(3)「風景中心のスローテンポテンプレート」
風景が撮像された画像を中心に抽出し、スローテンポなBGMに合わせた画像演出効果を用いて構成されたストーリーを記述したテンプレートである。
(4)「風景中心のアップテンポテンプレート」
風景が撮像された画像を中心に抽出し、アップテンポなBGMに合わせた画像演出効果を用いて構成されたストーリーを記述したテンプレートである。
テンプレート表示エリア701の各テンプレート表示領域には、テンプレートのイメージを表す画像710、テンプレート名711、および当該テンプレートにデフォルトで設定されたBGMの再生時間712が表示される。ユーザーはマウス105を操作することにより、複数種類のテンプレートの中から希望するテンプレートを選択することができる。このように、テンプレートを複数種類用意することで、ユーザーがテンプレートを変更することにより、作成するストーリーの雰囲気を変更することができる。なお、テンプレートの種類は、上記の例に限られず、さらに異なるテンプレートが用意されていてもよい。
再生時間表示エリア703は、作成するムービーの再生時間を表示する領域である。本実施形態では、再生時間は、テンプレートごとに設定されたデフォルトのBGMの再生時間になるように設定される。テンプレートの選択により、デフォルトの再生時間が決定される。なお、再生時間を直接ユーザーが設定できるように、再生時間を設定するためのエリアを画面に設けてもよい。あるいは、ムービーとともに再生するBGMを希望のものに変更するための機能を設け、そこでBGMを変更することにより、変更後のBGMの再生時間がムービーの再生時間に設定されるようにしてもよい。
以上の構成により、指定された再生時間に合わせて、素材データの選択、映像効果の付与、および全体の流れを考慮したストーリー作成の各処理を、初心者でも容易に実行することができる。
実行ボタン702は、コンテデータ作成のための候補となる素材データとテンプレートの選択を完了させるボタンである。ユーザーがマウス105を操作して実行ボタン702を押下すると、素材選択エリア700で選択された素材データ、およびテンプレート選択エリア701で選択されたテンプレートに基づいてコンテデータが生成される。このときのコンテデータの生成動作のフローについての詳細は後述する。
[6.プレビュー画面の構成]
続いて、液晶ディスプレイ109が表示するプレビュー画面の構成について図9Aを参照しながら説明する。図9Aは、図8における実行ボタン702押下後に液晶ディスプレイ109に表示されるプレビュー画面のイメージを示す図である。図9Aに示すように、液晶ディスプレイ109に表示されるプレビュー画面は、コンテ情報表示エリア800、プレビューエリア801、ストーリーボードエリア802、コンテデータ保存ボタン803、およびファイル出力ボタン804を含む。
続いて、液晶ディスプレイ109が表示するプレビュー画面の構成について図9Aを参照しながら説明する。図9Aは、図8における実行ボタン702押下後に液晶ディスプレイ109に表示されるプレビュー画面のイメージを示す図である。図9Aに示すように、液晶ディスプレイ109に表示されるプレビュー画面は、コンテ情報表示エリア800、プレビューエリア801、ストーリーボードエリア802、コンテデータ保存ボタン803、およびファイル出力ボタン804を含む。
コンテ情報表示エリア800は、選択画面でユーザーが選択した内容に関する情報を表示するエリアである。図9Aに示す例では、表示する情報には、選択された素材データの個数、選択されたテンプレート名、再生時間、および出力形式の情報が含まれる。ここで、選択された素材データの個数とは、コンテデータに組み入れられる静止画の個数および動画の個数である。
ここに表示される静止画および動画の個数は、実際に使用される画像の数に限らず、使用される画像のうち、特に目立つ画像の数を表示してもよい。例えば、表示される時間が所定の時間よりも短い画像や、サイズが所定のサイズよりも小さい画像については個数としてカウントしないように構成されていてもよい。これらの個数は、指定されたテンプレートおよび再生時間に基づいて、CPU101が計算する。なお、ユーザーが選択した候補画像の数が、テンプレートおよび再生時間に基づいて計算された使用画像数よりも少ない場合は、一部の画像が2回以上使用される。そのような画像は、1枚としてカウントされるのではなく、使用される回数だけ重複してカウントされる。図示してはいないが、コンテ情報表示エリア800には、実際に採用された静止画および動画の個数の合計を合わせて表示するようにしてもよい。これにより、ユーザーは、候補画像数のうち、どれだけの画像が採用されたかを確認することができる。
プレビューエリア801は、作成したコンテデータの再生を実行する画面である。ユーザーは作成したコンテデータの内容を実際に映像で確認することができる。
ストーリーボードエリア802は、作成したコンテデータの内容を表示するエリアである。ストーリーボードエリア802には、複数の長方形(a、b、・・・)が配列されており、それらの配列順序は、コンテデータ上の表示の順序に対応する。それぞれの長方形には、素材選択エリア700に表示されていた画像から抽出した画像のいずれかが表示される。また、図示されてはいないが、映像と映像との間の切り替え効果を示すアイコンを合わせて表示してもよい。あるいは、各長方形に関連付けられた部分映像(シーン)を表示する際の再生時間を合わせて表示してもよい。これにより、ユーザーは、ストーリー上に、どの素材データが、どのような順序で、どのような演出効果で、どのような再生時間で配置されているかを確認することができる。
ストーリーボードエリア802における各長方形は、ムービーを構成する個々のシーンに対応している。各シーンは、1つまたは複数の画像から構成される。本明細書では、複数の画像から構成されるシーンを「グループシーン」と呼び、1つの画像から構成されるシーンを「非グループシーン」と呼ぶことがある。各グループシーンは、互いに関連性が高いと考えられる複数の画像から構成される。例えば、撮影日時が近い複数の画像、撮影場所が近い複数の画像、または被写体が共通する複数の画像などから構成され得る。グループシーンには、非グループシーンとは異なる専用の演出効果が付与される。例えば、複数の画像が同時に表示され、そのうちの少なくとも一部が移動、回転、拡大、または縮小する、といった演出効果が付与され得る。一方、非グループシーンは、単独の画像が移動、回転、拡大、または縮小する、といった演出効果が付与され得る。これらの演出効果の詳細については後述する。
グループシーン、非グループシーンのいずれも、シーンが切り替わる際には、テンプレートに予め規定された切り替え効果が付与され得る。切り替え効果には、例えばスライドイン、クロスフェード、回転、破裂といった効果があり得る。本明細書では、このような切り替え効果を含めて各シーンに付与される効果を「演出効果」と呼ぶ。
コンテデータ保存ボタン803は、マウス105の操作により選択することができる。ユーザーは、コンテデータ保存ボタン803を押下することにより、どの素材データが、どのような順序で、どのような演出効果で、どのような再生時間で配置されるかを管理したストーリー情報を、HDD104に保存することができる。なお、図示していないが、例えば図8に示される選択画面のような上の階層の画面において、コンテデータ読出しボタンを設けておき、ここで保存したコンテデータを読み出せるように構成してもよい。
ファイル出力ボタン804は、マウス105の操作により選択することができる。ユーザーは、ファイル出力ボタン804を押下することにより、作成されたコンテデータに基づいて動画ファイルを作成することができる。具体的には、上述したように、ビデオエンコーダ204、オーディオエンコーダ205、多重化部206を動作させることにより、CPU101は、動画ファイルを作成する。このとき作成される動画ファイルの出力形式は、予め使用者が選択できるようにしておいてもよい。すなわち、使用者がAVCHD(登録商標)ファイル形式を選択している場合は、AVCHDファイル形式の動画ファイルを作成する。上述のように、動画ファイルの形式は、AVCHDファイル形式に限られるものではなく、MP4やその他の形式であってもよい。
なお、図8、9に示す画面のレイアウトは一例であり、同様の機能が実現できれば、画面のレイアウトは任意である。
[7.テンプレートの構成情報]
続いて、テンプレートに記述される具体的な情報の例を説明する。図9Bは、本実施の形態にかかるテンプレートに記述される階層構造の一例を示す図である。
続いて、テンプレートに記述される具体的な情報の例を説明する。図9Bは、本実施の形態にかかるテンプレートに記述される階層構造の一例を示す図である。
テンプレートは、前述のように、ストーリーを作成する際に、どのような切り替え効果を、どのような順番で連続して並べるかを規定する情報である。順番に並べられた切り替え効果のそれぞれについて、どれだけの再生時間を割り当てるかが記述されている。CPU101は、テンプレートに記述された切り替え効果の順番に従って、選択した素材を連続して配置する。図9Bに示すように、本実施形態におけるテンプレートは、「繰り返しノード」と「効果ノード」とを有するツリー構造を有する。各効果ノードが個々のシーンに対応する。
図9Bに示されているテンプレートは、オープニング部、第一メイン部、第二メイン部、エンディング部を有する。なお、本実施の形態では、第一メイン部および第二メイン部の2つのメイン部がある場合を例に示すが、テンプレートは1つのメイン部のみを有していてもよいし、3つ以上のメイン部を有していてもよい。
オープニング部、第一メイン部、第二メイン部、エンディング部の各々は、「効果ノード」、および/または、効果ノードを1つ以上有する「繰り返しノード」から構成される。効果ノードは、シーンの再生時間情報と切り替え効果の種類を示す情報とを持つ。繰り返しノードは効果ノードおよび/または他の繰り返しノードを子ノードとしてもつことができるが、効果ノードは子ノードを持つことができない。各効果ノードに規定された再生時間および切り替え効果に従って、CPU101は画像を表示する。繰り返しノードは、配下に属する効果ノードおよび/または繰り返しノードを、指定した回数だけ繰り返すための情報(繰り返し回数情報)を持つ。繰り返しノードは、子ノードに指定された一連のノード(子ノード1、子ノード2、・・・子ノードn)を順に複数回繰り返す。1回繰り返す場合は(子ノード1)→(子ノード2)→・・・→(子ノードn)という表示順序になり、2回繰り返す場合は(子ノード1)→(子ノード2)→・・・→(子ノードn)→(子ノード1)→(子ノード2)→・・・→(子ノードn)という表示順序になる。
オープニング部は、ユーザーがストーリーのタイトルテキストを画像に重畳することができるように、一枚あたりの画像の再生時間を長めにとるように記述されている。図9Bに示す例では、オープニング部は、2secの「A.フェイドイン」効果の後に、1secの「B.クロスフェード」効果が続くように構成されている。オープニング部の各シーンが1個の画像のみから構成される場合、オープニング部には2個の画像が使用される。すなわち、液晶ディスプレイ109が黒い画面を表示しているところに、「A.フェイドイン」効果によって第1の画像が画面に挿入され、2秒後に続けて「B.クロスフェード」効果によって第2の画像が画面に挿入される。
第一メイン部および第二メイン部は、ストーリーのメインとなる画像が配置されるので、段々盛り上がる切り替え効果が設定されるように記述されている。第二メイン部は、クライマックスなので、第一メイン部よりも派手な切り替え効果が設定されるように記述されている。図9Bに示す例では、第一メイン部は、1secの「D.スライドイン右」効果、1secの「E.スライドイン左」効果、1secの「F.スライドイン上」効果、1secの「G.スライドイン下」効果の4つの切り替え効果を子ノードとして有する。第一メイン部は、この4つの子ノードを繰り返す繰り返しノードCにより構成されており、繰り返し回数は2回に初期設定されている。また、第二メイン部は、繰り返し回数が3回に設定された繰り返しノードHから構成されている。繰り返しノードHは、1secの「I.クロスフェード」効果を有する子ノードと、0.5secの「K.回転」効果を有する孫ノードおよび0.5secの「L.破裂」効果を有する孫ノードの2つの孫ノードを2回繰り返す繰り返しノードJとを3回繰り返す。
エンディング部は、ストーリーの最後を締めくくる画像が配置されるため、一枚あたりの画像の再生時間が比較的長くなるように設定される。図9Bに示す例では、エンディング部は、2secの「M.フェイドアウト」効果を有する画像によって構成される。
以上のように、図9Bに示すテンプレートに初期設定されている繰り返し回数でストーリーを生成した場合、効果ノードを順に並べると、(A.フェイドイン2sec)→(B.クロスフェード1sec)→(D.スライドイン右1sec)→(E.スライドイン左1sec)→(F.スライドイン上1sec)→(G.スライドイン下1sec)→(D.スライドイン右1sec)→(E.スライドイン左1sec)→(F.スライドイン上1sec)→(G.スライドイン下1sec)→(I.クロスフェード1sec)→(K.回転0.5sec)→(L.破裂0.5sec)→(K.回転0.5sec)→(L.破裂0.5sec)→(I.クロスフェード1sec)→(K.回転0.5sec)→(L.破裂0.5sec)→(K.回転0.5sec)→(L.破裂0.5sec)→(I.クロスフェード1sec)→(K.回転0.5sec)→(L.破裂0.5sec)→(K.回転0.5sec)→(L.破裂0.5sec)→(M.フェイドアウト2sec)となる。これらの表示時間を総計すると22secとなる。以上のように、テンプレートは、繰り返しノードと効果ノードとを持つツリー構造を成している。
テンプレートにデフォルトで設定された総再生時間よりも長い時間または短い時間がユーザーによって指定された場合、CPU101は、総再生時間をユーザーが指定した時間に合わせる処理を行ってもよい。例えば、CPU101は、テンプレートに含まれる繰り返しノードのうち、適当な長さの繰り返しノードの繰り返し回数を増減させることによって総再生時間をユーザーが指定した時間に合わせることができる。
なお、以上のテンプレートの構成はあくまでも一例であり、本発明は、上記のようなテンプレートを用いる構成に限定されない。上記の例では、簡単のため、各シーンに付与される演出効果として切り替え効果のみを考慮したが、後述するように、切り替え効果以外の演出効果が付与され得る。本実施形態では、後述するように、切り替え効果以外の演出効果は、テンプレートとは異なる他のデータに記述されるが、テンプレートに記述されていてもよい。
[8.コンテデータ作成動作]
続いて、選択された素材、選択されたテンプレート、設定されたBGMに基づいて、コンテデータを作成する手順について説明する。図10は、本実施の形態にかかるストーリー作成処理の概要を示すフローチャートである。
続いて、選択された素材、選択されたテンプレート、設定されたBGMに基づいて、コンテデータを作成する手順について説明する。図10は、本実施の形態にかかるストーリー作成処理の概要を示すフローチャートである。
まず、ユーザーは、コンテ作成の候補となる素材データ(候補画像)を選択する(S500)。素材データが選択されると、CPU101は、選択された素材データを素材選択エリア700に表示する。なお、上述したとおり、ここから更に優先度をユーザーが設定するようにしてもよい。
続いて、ユーザーは、コンテ作成に使用するテンプレートを選択する(S501)。テンプレートが選択されると、CPU101は、テンプレート選択エリア701の該当のテンプレートを強調表示する。次に、ユーザーは、コンテ作成において、選択したテンプレートのデフォルトの再生時間を採用するか否かを判断する。選択したテンプレートのデフォルトの再生時間を採用しない場合は、ユーザーは任意の時間を指定する(S502)。時間の指定は、ユーザーが直接指定してもよいし、ユーザーが所望のBGMを選択することによってその再生時間がムービーの総再生時間として設定されるように構成してもよい。ステップS500からステップS502の動作は、順番が入れ替わっても構わない。
コンテ作成に使用する素材データおよびテンプレートの選択、時間の指定を終えたら、ユーザーは実行ボタン702を押下することにより、選択内容を確定することができる(S505)。そして、CPU101は、選択内容に従って、コンテを作成する(S506)。
続いて、ステップS506におけるコンテ作成の詳細動作について説明する。図11は、本実施の形態にかかるストーリーデータに、ユーザーが選択した素材データ(静止画像および動画像)群の中からユーザーにとって重要であると想定される画像からなる部分映像を効果的に配置し、コンテデータを作成する動作におけるメインのフローチャートである。
まず、CPU101は、ステップ501において選択されたテンプレートの情報を読み出す(S600)。次に、CPU101は、ステップ502においてユーザーが指定した再生時間を取得する(S601)。
続いて、CPU101は、テンプレートにデフォルトで規定された再生時間またはユーザーが指定した再生時間に合うように、テンプレートに記述されたストーリー情報に従い、ストーリーデータを作成する(S602)。このとき、CPU101は、連続して配置される各シーンの映像の表示時間と、各シーンの映像や映像間に付与する演出効果とを合わせて記述したストーリーデータを作成する。ストーリーデータは、指定されたテンプレートと総再生時間とに基づいて決定される複数のシーンと、それらに関連付けられた演出効果とを、時間軸上に記述したデータである。
次に、CPU101は、S602において作成したストーリーデータに基づいて、ユーザーが選択した素材データ群の中から抽出された、テンプレートの条件に合致し、ユーザーにとって重要であると想定される画像(抽出データ)からなるシーンの映像を効果的に配置することにより、コンテデータを作成する(S603)。コンテデータは、ストーリーデータに含まれる情報に、各シーンに含まれる画像(重要画像)およびそれらに付与される演出効果の情報を加えたデータである。
続いて、ステップS603におけるコンテデータ作成の詳細動作について図12を参照しながら説明する。図12は、ストーリーデータに抽出データを配置し、コンテデータを作成する処理の詳細を示すフローチャートである。
本実施の形態にかかるPC100は、ユーザーが選択した素材データ群の中から、処理の基準となる静止画像を順次選択する。以下、この静止画像を「処理対象の静止画像」と呼ぶことがある。そして、処理対象の静止画像の撮影時刻の前後所定時間内に撮影された動画像部分を抽出したり、処理対象の静止画像の撮影時刻の前後所定時間内に撮影された静止画像を抽出する。抽出した静止画像と動画像との組合せは、同一のグループシーンとして編集される。同様に、抽出した静止画像と静止画像との組合せは、同一のグループシーンとして編集される。なお、本実施形態では静止画像を基準とするが、動画像を基準としてもよい。
CPU101は、素材選択エリア700に含まれている素材データの中から、処理対象の静止画像を一枚選択する(S800)。CPU101は、処理対象の静止画像について付属情報を読み出す。この付属情報は、図7を参照しながら説明したとおり、データベース113の所定の格納領域に格納されている。CPU101は、データベース113を読み込むことによって現在処理対象となっている静止画像の付属情報を把握する。
続いて、CPU101は、処理対象の静止画像以外の静止画像または動画像について、付属情報を読み出す。この付属情報についても同様に、データベース113の所定の格納領域に格納されており、CPU101は、データベース113を読み込むことにより、処理対象の静止画像以外の静止画像または動画像についての付属情報を把握する。
次に、CPU101は、把握した処理対象の静止画像の付属情報に類似する付属情報を有する処理対象以外の静止画像または動画像を抽出する(S801)。続いて、CPU101は、処理対象の静止画像と、抽出した静止画像または動画像とに基づいて、グループシーンを抽出する(S802)。以上の処理を、すべての静止画について完了するまで実行する(S803)。
図13は、ステップS802における撮影日時に基づくグループシーン抽出処理を示す概念図である。本実施の形態にかかるPC100においては、CPU101は、抽出した静止画像または動画像の中から、処理対象の静止画像の撮影日時を基準にして所定時間N(sec)の範囲に撮影された処理対象以外の静止画像または動画像を、グループシーンを構成する画像として抽出する。
図13に示すグループシーン(A)は、処理対象の静止画像を基準として、当該処理対象の静止画像の撮影日時から所定時間N(sec)の範囲に撮影された処理対象以外の静止画像を抽出したグループシーンである。すなわち、静止画像(a)を基準とした場合、静止画像(b)は所定時間N(sec)の範囲内に存在するため、CPU101は、静止画像(a)と静止画像(b)とを同じグループシーンとして抽出する。静止画像(b)を基準とした場合、静止画像(a)、静止画像(b)、および静止画像(c)は所定時間N(sec)の範囲内に存在するため、CPU101は、静止画像(a)、静止画像(b)、および静止画像(c)を同じグループシーンとして抽出する。同様に、静止画像(c)を基準とした場合、静止画像(b)と静止画像(c)とは所定時間N(sec)の範囲内に存在するため、CPU101は、静止画像(b)と静止画像(c)とを同じグループとして抽出する。このとき、静止画像(a)を基準とした場合、グループシーンには静止画像(c)が含まれない。同様に、静止画像(c)を基準とした場合、グループシーンには静止画像(a)が含まれない。一方、静止画像(b)を基準とした場合、グループシーンには静止画像(a)および静止画像(c)の両者が含まれる。そのため、CPU101は、各処理対象の静止画像を基準としたときに、同じグループシーンに含まれる他の静止画像について、当該他の静止画像を基準としたときに同じグループシーンとして抽出される静止画像についても、連鎖的に同じグループシーンとして抽出する。但し、何枚の静止画像を連鎖させるかについては、閾値が設けられていてもよい。閾値が設けられている場合、CPU101は、設定されている閾値に従って、同じグループシーンに含まれる静止画像を閾値が示す範囲内で抽出する。以上のようにして、CPU101は、ステップS800からステップS803の処理において、静止画像(a)静止画像(b)静止画像(c)を、グループシーン(A)として抽出する。
グループシーン(B)は、静止画像(d)が処理対象である場合に抽出されるグループシーンを表している。処理対象以外の動画像(g)の全ストリームの中から、処理対象の静止画像(d)の撮影日時から所定時間N(sec)の範囲内に撮影されているストリーム部分におけるビデオストリーム(e)とオーディオストリーム(f)とが抽出され、それらと静止画像(d)とによってグループシーン(B)が構成される。ここでCPU101は、コンテデータのシーンに対して、後述する処理によって効果的な映像効果を割り当てる際に、動画像の編集の余裕を持たせるために、実際にコンテデータに採用する動画像の長さよりも長くなるようにストリーム部分を抽出してもよい。すなわち、図13に示すように、静止画像(d)を基準とした場合、CPU101は、動画データ(g)の撮影時間が静止画像(d)の撮影時間を含んでいると判定する。そして、CPU101は、静止画像(d)の撮影日時から所定時間N(sec)の範囲に撮影されている動画データ(g)のストリーム部分、すなわち、ビデオストリーム(e)およびオーディオストリーム(f)とから構成されるストリーム部分(一区間の動画)を抽出する。なお、ここでは動画データ(g)の撮影日時が処理対象の静止画像(d)の撮影日時を含む場合を例示したが、動画データの撮影日時が処理対象の静止画像の撮影日時を含まない場合であっても、処理対象の静止画像から所定時間N(sec)の範囲に撮影されている動画データが存在すれば、そのような動画データを抽出対象としてもよい。以上のように、CPU101は、ステップS800からステップS803の処理において、静止画像(d)と、動画データ(g)の部分ストリームを構成するビデオストリーム(e)とオーディオストリーム(f)とをグループシーン(B)として抽出する。
なお、上記の例では、静止画を基準(処理対象)として同一グループに属する複数の画像が抽出されるが、動画像を処理対象として同様の処理を行ってもよい。すなわち、基準とする動画像が撮影された日時の近傍の日時に撮影された他の動画像または静止画像を同一グループとして扱ってもよい。また、動画像の撮影日時と再生時間とから、当該動画像が撮影された期間を特定し、その期間に撮影された他の静止画像や動画像を同一のグループに設定してもよい。
従来のフォトムービー作成装置では、素材として動画像を選択するとき、ユーザーは、当該動画像の全ストリームの内容を確認しなければ好みのシーンを選ぶことができなかった。これに対し、本実施形態によれば、上記のようにグループシーンとして動画像および静止画像が自動的に抽出されるため、ユーザーは、好みのシーンをより簡単にムービーに組み込むことが可能になる。
再び図12を参照する。CPU101は、素材選択エリア700に含まれるすべての静止画像について、グループシーンの抽出が完了したか否かを判定する(S803)。ステップ803において、グループシーンの抽出が完了していないと判定されると、CPU101は、素材選択エリア700に含まれるすべての静止画像について、ステップS800からステップS803の動作を繰り返す。ステップS803において、グループシーンの抽出が完了したと判定されると、CPU101の動作はステップS804へと進む。
CPU101は、ストーリーに配置すべきシーンの個数を把握している。そのため、グループシーンの抽出が完了すると、CPU101は、ストーリーに配置すべきシーンのうち、何個のシーンが既に割り当てられたかを把握することができる。またこのとき、CPU101は、ストーリーに配置すべきシーンのうち、割り当てられていないシーンの個数も把握することができる。CPU101は、ストーリー上において、映像をまだ割り当てていないシーンについて、配置する素材データを抽出することにより、非グループシーンを構成する画像を決定する(S804)。このとき、CPU101は、以下の条件により、使用する素材を抽出する。
条件1:素材全体(静止画および動画像)から撮影日時に偏りがないように満遍なく選択する。
条件2:テンプレートとして、人物中心のものが選択されている場合は、人物が主な被写体となっている画像を優先的に選択する。
条件3:テンプレートとして、風景中心のものが選択されている場合は、風景が主な被写体となっている画像を優先的に選択する。
条件4:ステップS500において選択された、素材選択エリア700に表示されている画像に優先度が設定されている場合は、優先度が高い画像を優先的に選択する。
条件1:素材全体(静止画および動画像)から撮影日時に偏りがないように満遍なく選択する。
条件2:テンプレートとして、人物中心のものが選択されている場合は、人物が主な被写体となっている画像を優先的に選択する。
条件3:テンプレートとして、風景中心のものが選択されている場合は、風景が主な被写体となっている画像を優先的に選択する。
条件4:ステップS500において選択された、素材選択エリア700に表示されている画像に優先度が設定されている場合は、優先度が高い画像を優先的に選択する。
なお、画像における主な被写体が人物であるか風景であるかの判定は、画像の特徴に基づいて公知の方法を用いて行うことができる。CPU101は、そのような判定をコンテデータ作成の都度実行してもよいし、予め画像ごとに主な被写体が何であるかを示す情報をデータベース113に格納しておき、コンテデータ作成時にその情報を参照してもよい。
以上の条件を考慮して、CPU101は、図13に示すように、非グループシーン(1)、非グループシーン(2)、非グループシーン(3)、非グループシーン(4)を抽出する。これにより、CPU101は、ストーリーに割り当てるべき素材データの抽出動作を終了する。
次にCPU101は、抽出結果に基づいて、素材データをストーリーに割り当てて、コンテデータを作成する(S805)。
CPU101は、ステップS805の動作を終えると、抽出した各グループシーンおよび各非グループシーンに対して、効果的な演出効果(映像効果)を割り当てる(S806)。非グループシーンについては、CPU101は、テンプレートに定義されている映像効果をそのまま割り当てる。一方、グループシーンについては、CPU101は、グループシーンを構成する静止画像、ビデオストリーム、オーディオストリームを用いて、グループシーン固有の映像効果を割り当てる。
以下、ステップS806における各シーンに割り当てる映像効果について説明する。図14は、映像効果の一例を示すイメージ図である。
移動効果1400は、画像1401を用いて、カメラワークのパンの動作を演出する映像効果である。CPU101は、画像1401の開始位置1401aから終了位置1401bまで、所定の時間移動するような映像を生成することにより、左から右にパンするような演出を付与することができる。画像1401は静止画像でもビデオストリームでもどちらでもよい。また、移動方向は上下左右斜めのどの方向に移動してもよい。この効果は、グループシーン、非グループシーンのいずれにも適用できる。
縮小効果1410は、画像1411を用いて、カメラワークのズームアウトを演出する映像効果である。CPU101は、画像1411の開始状態1411aから終了状態1411bまで、所定の時間ズームアウトするような映像を生成することで、画面中心から次第に全体を表示する演出を付与することができる。この例でも画像1411は静止画像でもビデオストリームでもどちらでもよい。また、開始状態と終了状態とを入れ替えることにより、カメラワークのズームイン(拡大効果)を演出することも可能である。この効果は、グループシーン、非グループシーンのいずれにも適用できる。
合成効果1420は、画像1421と画像1422とを用いて、複数の画像を重畳させた映像効果である。CPU101は、画像1421と画像1422とを同一の表示領域(画面)に配置した所定時間の映像を生成することにより、複数の画像を重畳させた演出を加えることができる。画像1421および画像1422は静止画像でもビデオストリームでもどちらでもよい。この効果は、複数の画像が使用されるため、グループシーンのみに適用できる。
CPU101は、グループシーンに対しては、上記の移動効果1400、縮小効果1410(または拡大効果)、合成効果1420を単体で割り当ててもよいし、複合して割り当ててもよい。例えば、合成効果1420の演出と同時に、少なくとも一部の画像について、移動効果1400、縮小効果1410、拡大効果、および合成効果1420の少なくとも1つを割り当ててもよい。あるいは、上記の効果の他、少なくとも一部の画像について、回転、破裂などの複雑な動作をさせるような演出効果を付与してもよい。
続いて、ステップS806におけるグループシーンに映像効果を付与する概念について説明する。図15はステップS806において抽出したグループシーンにおけるデータセットの概念図である。
グループシーン1500は、ステップS800からステップS803の動作で抽出されたグループシーンの一例である。このグループシーン1500は、1枚の静止画と1区間の動画(ビデオストリームおよびオーディオストリーム)で構成されている。
図15に示す、データセット1501、データセット1502、データセット1503は、グループシーン1500から選択されたデータセットの概念である。グループシーン1500については、データセット1501、1502、1503のいずれかが実際のシーンの映像に採用される。
データセット1501は、グループシーン1500の構成要素のうち、静止画を使用せずに、ビデオストリームとオーディオストリームとを用いたデータセットである。このデータセット1501が採用された場合、静止画は使用されないが、ビデオストリームおよびオーディオストリームは使用される。使用されるビデオストリームおよびオーディオストリームは、当該静止画に近い撮影日時に撮影されたものである。静止画像と動画像とが近い撮影日時にて撮影されているということは、ユーザーにとって重要な被写体が撮影されている可能性が高いと考えられる。従って、このデータセット1501が採用された場合、静止画像は、ユーザーにとって重要な被写体が撮影されている動画ストリーム部分を抽出する切っ掛けとして使用される。
データセット1502は、グループシーン1500の構成要素のうち、ビデオストリームを使用せずに、静止画とオーディオストリームとを用いたデータセットである。このデータセット1502が採用された場合、静止画およびオーディオストリームのみが実際のシーンの映像に利用される。例えば、高解像度の静止画に対して移動効果1400や縮小効果1410といった効果を適用することで、きれいな映像シーンに臨場感ある音声を合成した演出を付与することができる。図示される例では静止画は1つであるが、同一グループシーンに他の静止画像が含まれる場合には、共通するオーディオストリームに対して、同一グループシーンに含まれる複数の静止画像を使用してもよい。
データセット1503は、グループシーン1500の構成要素のうち、静止画、ビデオストリーム、およびオーディオストリームの全てを用いたデータセットである。このデータセット1503が採用された場合、静止画、ビデオストリーム、およびオーディオストリームの全てがシーンの映像に利用される。例えば、合成効果1402を適用して、高解像度の静止画および動きのあるビデオストリームを同時に表示し、かつ高解像度の静止画に対して移動効果1400や縮小効果1401といった効果を適用しながら、オーディオストリームを再生することで、より情報量の多い映像を表現することができる。
なお、データセットは上記の例に限定されず、例えば、複数の静止画像を含むデータセットや、複数の動画像を含むデータセットが含まれていてもよい。また、静止画像を含まないデータセットや、動画像を含まないデータセットが含まれていてもよい。
CPU101は、指定されているテンプレートの記述内容、または画像の解析結果に基づいて、いずれのデータセットを採用するかを決定する。画像の解析結果の例としては、画像の手振れ具合や、ピントボケ具合などがある。例えば、静止画像については、手振れ具合や、ピントボケ具合が良好ではないが、同じグループシーンに含まれるビデオデータの手振れ具合やピントボケ具合が良好である場合、CPU101は、データセット1501を採用するようにしてもよい。逆に、ビデオデータについては、手振れ具合や、ピントボケ具合が良好ではないが、同じグループシーンに含まれる静止画像の手振れ具合やピントボケ具合が良好である場合、CPU101は、データセット1502を採用するようにしてもよい。
CPU101は、採用したデータセットに対して、図14に示したような演出効果を割り当てる。データセットの種類および付与する演出効果の内容は、シーンごとに異なっていてもよいし、共通する演出効果が複数のシーンに付与されていてもよい。このようにして、CPU101は、ストーリーデータに抽出データ(データセット、静止画単体、動画像の一部分単体を含む)を配置し、コンテデータを作成する。そして、CPU101は、作成したコンテデータについて、そのストーリー情報を保存したり、指定のファイル形式に従って動画ファイルを出力することができる。
以上のようにして、CPU101は、処理対象の静止画像の撮影日時に近い日時に撮影された他の静止画像または動画像の一部分を同じグループシーンとして抽出することができる。すなわち、CPU101は、処理対象の静止画像を切っ掛けとして、コンテデータ編集に好適なシーンを容易かつ効果的に抽出することができる。これにより、ユーザーがコンテデータ編集操作を行う際の、採用する静止画像または動画像の抽出作業をより簡単にすることができる。また、静止画像および動画像をグループシーンとして抽出した結果、個々のグループシーンに好適な演出効果を割り当てることもできる。
[9.他の実施の形態]
本発明は、上記実施の形態1に限定されず、他の実施の形態も考えられる。以下、他の実施の形態についてまとめて説明する。
本発明は、上記実施の形態1に限定されず、他の実施の形態も考えられる。以下、他の実施の形態についてまとめて説明する。
上記実施の形態においては、静止画像や動画像の付属情報として、撮影日時を使用する場合を説明したが、本発明はこれに限定されない。すなわち、静止画像や動画像の付属情報として、撮影場所や、個人識別情報を活用するようにしてもよい。図12のフローチャートにおけるステップS800からステップS803の動作において、付属情報として撮影場所や、個人識別情報を活用するようにしてもよい。同様に、図12のフローチャートにおけるステップS806の動作について、付属情報として撮影場所や、個人識別情報を活用するようにしてもよい。
図16は、図12のフローチャートにおけるステップS800からステップS803の動作について、付属情報として撮影場所を活用する場合のグループシーン抽出を示す概念図である。図16は、複数の静止画像および動画像を、撮影された場所に対応する地図上の位置にプロットした場合の一例を示している。この実施の形態にかかるPC100においては、CPU101は、処理対象の静止画像の撮影場所を基準にして所定距離M(m)の範囲に撮影された処理対象以外の静止画像または動画像をグループシーンとして抽出する。
図16に示す例では、グループシーン(A´)は、基準となる処理対象の静止画像(a´)の撮影場所から所定距離M(m)の範囲内で撮影された処理対象以外の静止画像(b´)および(c´)を含むグループシーンである。すなわち、静止画像(a´)を基準とした場合、静止画像(b´)および静止画像(c´)は所定距離M(m)の範囲内に存在するため、CPU101は、ステップS800からステップS803の処理において、静止画像(a´)、静止画像(b´)、静止画像(c´)を同じグループシーン(A´)を構成するものとして抽出する。このとき、静止画像(b´)を基準にしたグループシーンには、静止画像(c´)が含まれない。同様に、静止画像(c´)を基準にしたグループシーンには、静止画像(b´)が含まれないが、実施の形態1にて説明した撮影日時に基づく場合と同様に、同じグループシーンとする静止画像を連鎖的に抽出する。但し、この場合においても、何枚の静止画像を連鎖させるかについては、閾値を設けておき、CPU101は、設定されている閾値に従って、同じグループシーンとする静止画像を抽出することが好ましい。
グループシーン(B´)は、基準となる処理対象の静止画像(e´)と、その静止画像(e´)の撮影場所から所定距離M(m)の範囲内で撮影された処理対象以外の動画像(f´)とを含むグループシーンである。すなわち、静止画像(e´)を基準とした場合、動画像(f´)は所定距離M(m)の範囲内に存在するため、ステップS800からステップS803の処理において、静止画像(e´)と動画像(f´)とは、同一のグループシーン(B´)に属するものとして抽出される。このとき、CPU101は、動画像(f´)の全ストリームを一時的に抽出した後に、指定されたテンプレート、画像の解析結果、および撮影情報の少なくとも1つに基づいて、好適なストリームを最終的に採用することができる。
図17は、図12のフローチャートにおけるステップS806の動作について、付属情報として撮影場所を活用する場合の、映像効果の付与の例を示す概念図である。図17には、グループシーン(A´)に対する演出効果の割り当ての一例と、グループシーン(B´)に対する演出効果の割り当ての一例とが示されている。
まず、グループシーン(A´)に割り当てられる演出効果の一例を説明する。この例では、撮影場所に基づく映像効果は、静止画像(a´)、静止画像(b´)、静止画像(c´)を撮影日時に基づいて整列して表示するとともに、同一地域の地図を同一画面に合成して表示する、という効果である。各静止画像が表示されている間、その静止画像の撮影場所情報に基づき、撮影場所を示すマークが地図上に重畳して表示される。これにより、同じグループシーンに含まれる複数の静止画像を表示しながら、地図上で撮影された位置を確認できる演出効果を提供することができる。なお、地図データは、PC100内の記録媒体に保存されていてもよいし、インターネット上のサーバーのような遠隔地の機器から取得してもよい。各画像に付与された撮影場所情報から、撮影された場所の緯度および経度を特定することにより、各画像と地図上の位置とをマッピングすることができる。
続いて、グループシーン(B´)に割り当てられる演出効果の一例を説明する。この例では、処理対象の静止画像(e´)と、処理対象以外の動画像(f´)のビデオストリームおよびオーディオストリームとを抽出したデータセットが採用されている。この例では、撮影場所に基づく映像効果は、静止画像(e´)と、動画像(f´)のビデオストリームの特定区間の映像とを合成し、動画像(f´)のオーディオストリームを付与することにより、シーンの映像を生成する、という演出効果である。これにより、同じグループシーンに含まれる複数の画像に対して、まとまった演出効果を割り当てることができる。
次に、付属情報として個人識別情報を利用する場合の例を説明する。この例では、図12のフローチャートにおけるステップS800からステップS803の動作や、ステップS806の動作について、CPU101は、例えば以下のように動作するように構成される。
CPU101は、まず、候補画像の中から、同一人物(または動物)が被写体として写っている画像を同一のグループとして抽出する。画像中の被写体は、例えば公知の顔認識技術を用いて画像の特徴から判断できる。各画像の個人識別情報を予めデータベース113に記録しておけば、当該データベース113の該当する格納領域の情報に基づいて被写体を識別できる。
個人識別情報を用いる場合、同一人物(動物)によるグループシーンが生成される。例えば、同一人物(動物)が写っていると判定された静止画像と、動画像に含まれるビデオストリームおよびオーディオストリームの特定区間とを用いて、合成効果1420のような演出効果を割り当てたシーンを生成できる。同一人物(動物)と判定するための候補や条件については、ステップS500からステップS502のいずれかのステップにおいて、ユーザーが別途、ターゲットとする人物または動物を設定できるように構成してもよい。識別については、人物、動物以外のものであってもよく、識別のためのアルゴリズムは特定のものに限定されない。
付属情報として、撮影時期、撮影場所、個人識別情報を用いる実施形態の他、撮影者を示す情報、撮影機種を示す情報、撮影モードを示す情報の少なくとも1つを用いる実施形態も可能である。例えば、撮影モードには、2D/3Dモード、夜景/室内モードなどの種々のモードがあり得る。このような撮影モードを付属情報として、同一または類似する撮影モードで撮影された複数の画像を1つのグループとして扱うことにより、より統一感のあるムービーを生成することができる。また、複数種類の付属情報を複合的に利用してグループを決定してもよい。上記実施形態のように、付属情報のいずれを使用するかは、テンプレートに依存するように構成してもよいし、優先する付属情報をユーザーが設定できるようにしてもよい。
上記の実施形態では、PC100が本発明における画像編集装置として機能するが、本発明は、このような実施形態に限定されない。画像編集装置は、上記の各処理を規定したプログラムを実行可能なプロセッサを有する任意の電子機器であってよい。上記の各処理を規定したプログラムは、CD−ROMやDVD−ROMなどの記録媒体に記録され、または電気通信回線を通じて流通され得る。また、例えばデータセンター等に配置されたサーバーに当該プログラムを実行させれば、所謂クラウドコンピューティングの形態で、遠隔地のユーザーにサービスを提供することもできる。また、上記の処理を実行するように構成されたビデオカメラをディスプレイに接続してムービーを表示させる形態も可能である。
本発明は、画像の編集操作が可能な電子機器に関する。本発明はPC100への適用に限定されず、画像の編集操作が可能であれば、携帯電話、ビデオカメラ等の電子機器にも適用可能である。また、同様の機能を実行可能なプログラムを格納したCDやDVD等の記録メディアにも適用可能である。
10 画像編集装置
11 入力インターフェース
12 画像編集部
20 入力装置
30 表示装置
100 PC
101 CPU
102 システム管理メモリ
103 ワークメモリ
104 HDD
105 マウス
106 キーボード
107 USBコネクタ
108 グラフィックコントローラ
109 液晶ディスプレイ
120 変換処理部
201 多重化分離部
202 ビデオデコーダ
203 オーディオ出コーダ
204 ビデオエンコーダ
205 オーディオエンコーダ
206 多重化部
207 静止画デコーダ
11 入力インターフェース
12 画像編集部
20 入力装置
30 表示装置
100 PC
101 CPU
102 システム管理メモリ
103 ワークメモリ
104 HDD
105 マウス
106 キーボード
107 USBコネクタ
108 グラフィックコントローラ
109 液晶ディスプレイ
120 変換処理部
201 多重化分離部
202 ビデオデコーダ
203 オーディオ出コーダ
204 ビデオエンコーダ
205 オーディオエンコーダ
206 多重化部
207 静止画デコーダ
Claims (11)
- 各々が付属情報を有する複数の画像を組み合わせて一連の画像群を生成する画像編集装置であって、
前記一連の画像群に使用される候補となる複数の候補画像を受け付ける入力インターフェースと、
前記複数の候補画像から前記付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、前記一連の画像群を生成する画像編集部と、
を備える画像編集装置。 - 前記入力インターフェースは、ユーザーから、前記複数の候補画像、前記一連の画像群の総再生時間を規定する情報、および前記一連の画像群の構成を規定する情報を受け、
前記画像編集部は、前記総再生時間を規定する情報と、前記構成を規定する情報とに基づいて、前記一連の画像群を構成する複数のシーンの各々の再生時間を決定する、
請求項1に記載の画像編集装置。 - 前記画像編集部は、前記複数の候補画像を、前記付属情報に基づいて、グループを構成するものとグループを構成しないものとに分類し、前記グループを構成するものを、グループごとに前記複数のシーンのいずれかに割り当て、前記グループを構成しないものの少なくとも一部を、画像ごとに前記複数のシーンの残りに割り当てる、
請求項2に記載の画像編集装置。 - 前記構成を規定する情報は、予め用意された複数のテンプレートからユーザーが1つを選択することによって決定される、請求項2または3に記載の画像編集装置。
- 前記画像編集部は、前記複数の候補画像に含まれる静止画像または動画像に付与された付属情報の示す値を基準として、所定の範囲内に属する値の付属情報を有する他の静止画像または動画像を、前記複数の候補画像の中から検出する処理を実行することにより、前記グループを決定する、請求項1から4のいずれかに記載の画像編集装置。
- 前記画像編集部は、前記処理を、前記複数の候補画像に含まれる全ての静止画像または全ての動画像について実行することにより、前記グループを決定する、請求項5に記載の画像編集装置。
- 前記グループごとに付与される前記演出効果は、前記グループに属する少なくとも2つの画像を同一の表示領域に表示させる効果を含む、請求項1から6のいずれかに記載の画像編集装置。
- 前記演出効果は、前記同一の表示領域に表示される前記少なくとも2つの画像の少なくとも1つが、移動、拡大、縮小の少なくとも1つの動作を行う効果を含む、請求項7に記載の画像編集装置。
- 前記付属情報は、撮影時期を示す情報、撮影場所を示す情報、および被写体を識別する情報の少なくとも1つを含む、請求項1から8のいずれかに記載の画像編集装置。
- 各々が付属情報を有する複数の画像を組み合わせて一連の画像群を生成する画像編集方法であって、
編集対象として指定された複数の候補画像を受け付けるステップと、
前記複数の候補画像から前記付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、前記一連の画像群を生成するステップと、
を含む画像編集方法。 - 各々が付属情報を有する複数の画像を組み合わせて一連の画像群を生成するためのプログラムであって、コンピュータに対し、
編集対象として指定された複数の候補画像を受け付けるステップと、
前記複数の候補画像から前記付属情報に基づいて抽出された少なくとも2つの画像からなるグループごとに、固有の演出効果を付与して配列することにより、前記一連の画像群を生成するステップと、
を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012040036A JP2012217144A (ja) | 2011-03-30 | 2012-02-27 | 画像編集装置、画像編集方法、およびプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075028 | 2011-03-30 | ||
JP2011075028 | 2011-03-30 | ||
JP2012040036A JP2012217144A (ja) | 2011-03-30 | 2012-02-27 | 画像編集装置、画像編集方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012217144A true JP2012217144A (ja) | 2012-11-08 |
Family
ID=46927380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012040036A Pending JP2012217144A (ja) | 2011-03-30 | 2012-02-27 | 画像編集装置、画像編集方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20120251081A1 (ja) |
JP (1) | JP2012217144A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5946007B1 (ja) * | 2015-12-17 | 2016-07-05 | 森田 孝 | 小画像集合体プログラム |
KR20210025856A (ko) * | 2019-08-28 | 2021-03-10 | 주식회사 리치빔 | 동적 템플릿을 이용한 동영상 자동 제작 시스템 및 방법 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10331724B2 (en) * | 2012-12-19 | 2019-06-25 | Oath Inc. | Method and system for storytelling on a computing device via multiple sources |
JP6236973B2 (ja) * | 2013-08-09 | 2017-11-29 | 株式会社リコー | 表示システム、情報端末、表示装置、再生制御プログラム、再生プログラム及び再生制御方法 |
US9602739B1 (en) | 2016-10-23 | 2017-03-21 | Visual Supply Company | Lookup table interpolation in a film emulation camera system |
WO2022065018A1 (ja) * | 2020-09-25 | 2022-03-31 | パナソニックIpマネジメント株式会社 | スライドショー生成方法、プログラム、及び、スライドショー生成装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6463205B1 (en) * | 1994-03-31 | 2002-10-08 | Sentimental Journeys, Inc. | Personalized video story production apparatus and method |
JP3780623B2 (ja) * | 1997-05-16 | 2006-05-31 | 株式会社日立製作所 | 動画像の記述方法 |
WO2003017145A1 (en) * | 2001-08-21 | 2003-02-27 | Yesvideo, Inc. | Creation of slideshow based on characteristic of audio content used to produce accompanying audio display |
JP3984175B2 (ja) * | 2003-01-31 | 2007-10-03 | 富士フイルム株式会社 | 写真画像選別装置およびプログラム |
US20060114327A1 (en) * | 2004-11-26 | 2006-06-01 | Fuji Photo Film, Co., Ltd. | Photo movie creating apparatus and program |
US7853898B2 (en) * | 2005-11-17 | 2010-12-14 | International Business Machines Corporation | Method and apparatus for managing image display in a digital image display apparatus |
EP2068323A3 (en) * | 2006-09-20 | 2009-07-01 | John W Hannay & Company Limited | Methods and apparatus for creation, distribution and presentation of polymorphic media |
KR101317204B1 (ko) * | 2006-11-27 | 2013-10-10 | 삼성전자주식회사 | 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치 |
JP4433025B2 (ja) * | 2007-09-10 | 2010-03-17 | ソニー株式会社 | 画像再生装置及び画像記録装置と画像再生方法及び画像記録方法 |
JP4623199B2 (ja) * | 2008-10-27 | 2011-02-02 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
KR20100113266A (ko) * | 2009-04-13 | 2010-10-21 | 삼성전자주식회사 | 휴대용 단말기에서 3차원 영상 메시지 제작 방법 및 장치 |
US20110129133A1 (en) * | 2009-12-02 | 2011-06-02 | Ramos Joao Diogo De Oliveira E | Methods and systems for detection of retinal changes |
-
2012
- 2012-02-27 JP JP2012040036A patent/JP2012217144A/ja active Pending
- 2012-03-29 US US13/433,365 patent/US20120251081A1/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5946007B1 (ja) * | 2015-12-17 | 2016-07-05 | 森田 孝 | 小画像集合体プログラム |
JP2017111645A (ja) * | 2015-12-17 | 2017-06-22 | 森田 孝 | 小画像集合体プログラム |
KR20210025856A (ko) * | 2019-08-28 | 2021-03-10 | 주식회사 리치빔 | 동적 템플릿을 이용한 동영상 자동 제작 시스템 및 방법 |
KR102241572B1 (ko) * | 2019-08-28 | 2021-04-19 | 주식회사 리치빔 | 동적 템플릿을 이용한 동영상 자동 제작 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20120251081A1 (en) | 2012-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7952535B2 (en) | Electronic visual jockey file | |
RU2607236C2 (ru) | Задание последовательности контента | |
JP4355659B2 (ja) | データ処理装置 | |
EP1276108B1 (en) | Method for recording multimedia information on an optical disc | |
CN101119428B (zh) | 图像记录、再现设备和图像记录、再现方法 | |
TW201123841A (en) | Recording medium, playback device, integrated circuit | |
JP2012217144A (ja) | 画像編集装置、画像編集方法、およびプログラム | |
KR100963005B1 (ko) | 자유시점 av 서비스에 따른 파일 생성 방법 | |
JP4576725B2 (ja) | 記録装置、記録方法、プログラムおよび記録媒体 | |
JP2012033243A (ja) | データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法 | |
JP2009004999A (ja) | 映像データ管理装置 | |
JP5759212B2 (ja) | シナリオ編集装置およびシナリオ編集方法、ならびに撮像システム | |
KR20040102078A (ko) | 정보 기록 매체 및 그 생산 방법 | |
US20030206729A1 (en) | Imaging system for authoring a multimedia enabled disc | |
JP5214730B2 (ja) | 合成装置および合成方法 | |
JP4698961B2 (ja) | 電子カメラ、及び電子カメラの制御プログラム | |
WO2021117481A1 (ja) | データ処理装置、データ処理方法、及び、プログラム | |
JP2009010839A (ja) | 画像データ再生装置および画像データ再生方法 | |
JP2009055618A (ja) | 電子カメラ、及び電子カメラの制御プログラム | |
JP2008067117A (ja) | 映像記録方法、装置、媒体 | |
JP3743321B2 (ja) | データ編集方法、情報処理装置、サーバ、データ編集プログラムおよび記録媒体 | |
KR20050092540A (ko) | 디지털미디어의 실시간 제작 및 관리를 위한 자동화시스템 | |
JP5299076B2 (ja) | 映像記録装置、映像記録再生装置、映像記録方法および映像記録再生方法 | |
Pender | Digital video for the desktop | |
KR101212692B1 (ko) | 미디어 재생 방법 및 장치와 이를 위한 미디어 파일 포맷 |