JP2013098790A - 映像編集装置およびその制御方法 - Google Patents
映像編集装置およびその制御方法 Download PDFInfo
- Publication number
- JP2013098790A JP2013098790A JP2011240463A JP2011240463A JP2013098790A JP 2013098790 A JP2013098790 A JP 2013098790A JP 2011240463 A JP2011240463 A JP 2011240463A JP 2011240463 A JP2011240463 A JP 2011240463A JP 2013098790 A JP2013098790 A JP 2013098790A
- Authority
- JP
- Japan
- Prior art keywords
- video
- order
- editing
- analysis
- cut
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
【課題】 ストーリー性のある映像編集を簡便に実現することを目的とする。
【解決手段】 複数の映像の構図を解析し、解析結果に基づいて、前記複数の映像を繋ぐ順序を決定し、決定された順序に基づいて、前記複数の映像を繋ぐことによって映像を編集する。
【選択図】 図2
【解決手段】 複数の映像の構図を解析し、解析結果に基づいて、前記複数の映像を繋ぐ順序を決定し、決定された順序に基づいて、前記複数の映像を繋ぐことによって映像を編集する。
【選択図】 図2
Description
本発明は、映像を編集する映像編集装置およびその制御方法に関する。
近年、デジタルビデオカメラ等の普及や符号化技術の発達に伴い映像のデジタル化が進み、これに伴って映像のノンリニア編集がより一般的となりつつある。しかしながら映像編集は多くの労力を必要とするため、これまでに労力を軽減するための様々な映像編集を自動で行う技術が開発されている。
例えば特許文献1では、カット点のみでなく音声等の情報も考慮して、編集者が望む一部区間コンテンツを適切に抽出する技術が開示されている。また例えば特許文献2では、番組に対するメタ情報に基づいてシーン毎にダイジェストシーンを抽出し、プレイリストとして登録する技術が開示されている。
例えば特許文献1では、カット点のみでなく音声等の情報も考慮して、編集者が望む一部区間コンテンツを適切に抽出する技術が開示されている。また例えば特許文献2では、番組に対するメタ情報に基づいてシーン毎にダイジェストシーンを抽出し、プレイリストとして登録する技術が開示されている。
しかしながら、映像編集に於いて視聴者を満足させる為には、映像編集に於いて映像を編集するだけでなく全体としてストーリー性を持たせることが重要である。例えば風景映像であればロングショットを冒頭にもってくることが一般的であり、あるいはパーティーのような映像であればむしろ映像をランダムに繋げる場合もある。特許文献1ではユーザーが指定したカット点からさらに音声等の情報も考慮し短い映像区間を選択するものであり、映像時間の短縮には効果があるものの、上述の様なストーリー性を編集映像に付加する事は出来なかった。
また特許文献2では、番組に付加されたメタ情報に基づいて映像をシーン分割すると共に、ユーザーのキーワード指定とメタ情報とに基づいて重要度を求め、重要度に応じた順序でプレイリストを生成する。本手法ではキーワードとメタ情報との指定を工夫することで、編集映像のつなぎ順にストーリー性を持たせる事は可能である。
しかしながら、キーワードと対応付けられるメタ情報をあらかじめ映像に付加しておく必要があり、映像編集前の準備に多くの労力を必要とする。またメタ情報が付加されていない場合には、この手法を適用する事は出来ず、ストーリー性を持たせる事が出来ない。
上記課題を鑑みて、本発明は、ストーリー性のある映像編集を簡便に実現することを目的とする。
また特許文献2では、番組に付加されたメタ情報に基づいて映像をシーン分割すると共に、ユーザーのキーワード指定とメタ情報とに基づいて重要度を求め、重要度に応じた順序でプレイリストを生成する。本手法ではキーワードとメタ情報との指定を工夫することで、編集映像のつなぎ順にストーリー性を持たせる事は可能である。
しかしながら、キーワードと対応付けられるメタ情報をあらかじめ映像に付加しておく必要があり、映像編集前の準備に多くの労力を必要とする。またメタ情報が付加されていない場合には、この手法を適用する事は出来ず、ストーリー性を持たせる事が出来ない。
上記課題を鑑みて、本発明は、ストーリー性のある映像編集を簡便に実現することを目的とする。
上記の目的を達成するための本発明の一態様による映像編集装置は以下の構成を備える。すなわち、複数の映像の構図を解析する解析手段と、 前記解析手段による解析結果に基づいて、前記複数の映像を繋ぐ順序を決定する順序決定手段と、前記決定された順序に基づいて、前記複数の映像を繋ぐことにより映像を編集する編集手段とを備えることを特徴とする。
本発明によれば、ストーリー性のある映像編集を少ない労力で実現することが可能である。
(実施形態1)
図1は本発明の映像編集装置のハードウェア構成を示すブロック図である。CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)104に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI(peripheral component interconnect)バスなどのシステムバス112を介して各構成を制御する。さらに、後述する映像補正アプリケーション、メディアリーダードライバを含む各種プログラムを実行する。
図1は本発明の映像編集装置のハードウェア構成を示すブロック図である。CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)104に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI(peripheral component interconnect)バスなどのシステムバス112を介して各構成を制御する。さらに、後述する映像補正アプリケーション、メディアリーダードライバを含む各種プログラムを実行する。
CPU101は、システムバス112およびSCSIインタフェイス103を介してHDD104にアクセスする。以下では、映像補正アプリケーションをHDD104から読み出すとして説明する。また、CPU101は、後述する処理のユーザインタフェイスや処理結果をグラフィックアクセラレータ105を介してモニタ106に表示し、ユーザー指示をキーボード/マウスコントローラ109に接続されたキーボード110、マウス111を介して入力する。また、CPU101は、映像データをUSB (Universal Serial Bus)コントローラ107を介してメディアリーダー108より入力する。
図2は、映像編集装置の機能構成を示すブロック図である。映像編集装置201は、解析手段202、順序決定手段203、編集手段204を有する。解析手段202は、複数の映像の構図を解析する。順序決定手段203は、解析結果に基づいて、解析された複数の映像の繋ぎ順序を決定する。編集手段204は、順序が決定された複数の映像を繋いで合成することにより編集を行う。また、図示しないが、更に編集ルール指定手段を有してもよい。各機能の詳細は後述する。
図3は、映像編集アプリケーションのアプリケーションウィンドウを示す模式図である。図1で説明した構成において、映像編集アプリケーションは次の様に動作する。まず、HDD104に格納されている映像補正装置プログラムが、ユーザーの指示によりCPU101にて実行され、図3のアプリケーションウィンドウ301がカラーモニタ106上に表示される。
ユーザーがアプリケーション画面のメニューリスト302からカット映像選択を選択すると、カット映像選択ウィンドウ303が表示される。このカット映像選択ウインドウ303でファイル追加ボタン304を押下するとファイルダイアログが表示され、編集対象の映像ファイルを設定する。するとプログラム処理に従い、メディアに格納されている映像ファイルはメディアリーダー108とUSBコントローラ107を介しメインメモリ102に映像データとして転送される。
また、HDD105に格納されている映像ファイルはSCSIインタフェイス103を介してメインメモリ102に映像データとして転送される。また追加したファイル名がカット映像選択ウィンドウ303に追加表示される。また表示されたファイル名を選択すると当該ファイルが反転表示され、選択されていることをユーザーに示す。この状態でファイル削除ボタン305を押下すると、メインメモリ102から当該映像データが削除されると共に、カット映像選択ウィンドウ303の表示から当該ファイル名が削除される。
ユーザーがメニューリスト302から編集ルール設定を選択すると、編集ルール設定ダイアログ306が表示され、ダイアログ306内のプルダウンリスト307を用いて選択された編集ルールを編集ルール指定手段が指定する。ここでプルダウンリスト307に表示される選択項目は、図6に示すデータ構造により記述され、あらかじめHDD104に格納されている。データ構造は、UI表示用の文字列と繋ぎ順決定処理用の関数ポインタ、並びに必要とするシーン解析処理フラグが一組として記述されるものであるが、詳細に関しては後述する。
またエディットボックス308により、ユーザーは撮影したシーン数を入力する。ここでシーン数とは、カット映像数ではなくユーザーが分類したい場面数を表し、カット映像数より小さくなければならない。なおこれらの入力による編集ルール選択は、設定ボタン309を押下することで確定される。
ユーザーがメニューリスト302から自動編集実行を選択すると、後述の図4のフローチャートに従った映像編集処理がなされる。さらにメニューリスト302から編集映像プレビューを選択すると編集映像がウィンドウ310に表示される。また編集映像は、メニューリスト302から編集映像書き込みを選択することでHDD304に格納される。
尚、本実施形態では、映像の単位として、1カット毎を単位としたが、複数カット単位であったり、カットを分割したものであっても構わない。
以下では、映像補正アプリケーションで実行される映像編集処理について、図4のフローチャートを用いて説明する。
ステップS401では、各カット映像に対してカット映像IDを割り当てるとともに、カメラ付加情報をカット映像より取得し、カット映像IDとカメラ付加情報とを対応付けて記憶する。
ステップS402では映像の付加情報に基づいて同一シーンか異なるシーンかを判断し、各カットをシーン毎に分類する。また分類シーンに対してシーンIDを割り当て、カット映像IDとシーンIDとを対応付けて記憶する。分類の詳細は、図5のフローチャートを用いて後述する。
ステップS403では、指定された編集ルールに基づき、各カット映像に対して構図を解析する構図解析処理を実施し、カット映像IDと対応付けて解析結果を記憶する。ここで実施する解析処理は図6に示すデータ構造に記載された解析フラグに基づき、処理を選択する。
図6のデータ構造の基本構成は、ダイアログ表示に用いられる編集ルール文字列、カット映像繋ぎ順決定処理用の関数ポインタ、必要とする構図解析処理フラグで構成される。これらが編集ルールの数分記述されることで、データ構造全体が構成される。
構図解析処理フラグは更に、顔認識処理フラグと稜線算出処理フラグと画像重心算出処理フラグとから構成される。更に顔認識処理フラグは、顔数判断フラグ、サイズ判断フラグ、集合判断フラグ、バラツキ判断フラグ、背景色判断フラグとから構成される。各フラグは真(T)か偽(F)からなる2値で表現されるものであり、真の場合には解析処理を実施し、偽の場合には解析処理を行わない。顔認識処理と稜線算出処理と画像重心算出処理とについては、後述する。
ここでステップS401からS403は、解析手段202によって実行されるものである。
ステップS404では、選択された編集ルールに基づいて図6のデータ構造に記述された関数ポインタから行うべき処理へとジャンプすることで繋ぎ順序決定処理の選択を行い、さらに選択された処理を実行することでカット映像繋ぎ順序の決定を行う。各カット映像繋ぎ順序決定処理では、同一シーン分類毎に、指定された編集ルールに応じて、構図解析結果とカメラ付加情報とを用いて繋ぎ順序決定を行うが、各処理の詳細については後述する。
ここでステップS404は、順序決定手段203によって実行されるものである。
ステップS405では、ステップS404で決定したカット繋ぎ順に基づき、同一シーン分類毎にカット映像を繋いで編集映像を合成することにより編集し、合成後の映像をHDD104に格納する。
ここでステップS405は、編集手段204によって実行されるものでる。
以上が、カット映像を編集する一連の流れである。
次に、ステップS402のシーン分類処理について、図5のフローチャートを用いて説明する。ステップS501では、各カット映像に付加された付加情報から、タイムスタンプ情報とGPS情報とを取得する。ステップS502では、取得したGPS情報に基づきとエディットボックス308により指定されたシーン数に基づき、ファジィc−平均法を用いて分類する。ここでGPS情報の二次元座標に基づいてクラスタ分類を行うものであり、クラスタ数cは指定されたシーン数により与えられるものである。なお、ファジィc−平均法については公知であり、例えば論文等がインターネット等から多数検索可能である。
ステップS503では、ステップS502でのGPS情報を用いた分類結果と、取得したタイムスタンプに基づいて次の様に分類する。まずカット映像のタイムスタンプから映像全体の時間幅を算出する。この映像全体の時間をシーン数で割った値に所定数を乗じ、閾値を算出する。カット映像のタイムスタンプ間で閾値以上の時間経過があるようであれば、ここでシーン分割を行うと共にシーン数を更新する。
ステップS504では、以上のステップで分類したシーンにシーンIDを割り当て、シーンIDとカット映像IDとの対応を分類情報としてメインメモリ102に記憶する。
ステップS403における構図解析処理の一処理である顔認識処理については、カット映像の総フレーム数を取得した後、総フレーム数の中間のRGB画像をカット映像から抽出し、RGB画像に顔検出処理を施すことで行われる。なお顔検出処理は既知の手法を用いて行われるが、例えば、「画像の認識・理解シンポジウム2004論文集II,II−271〜II−276(高速全方向顔検出,オムロン株式会社)」に記載の技術等を用いても良い。
顔認識処理では顔検出後、顔の個数をカウントし、顔数をカット映像IDに対応付け記憶する。また、顔のサイズの平均を顔サイズとしてカット映像IDに対応付け記憶する。また顔の個数が所定値以上でかつ規則性を持って並んでいるかを判断し、判断結果を集合判断情報としてカット映像IDに対応付け記憶する。さらに、顔映像の背景の平均色度を算出し、背景色判断情報としてカット映像IDに対応付け記憶する。
ステップS403における構図解析処理の一処理である稜線算出処理は、図7のフローチャートに基づいて処理が行われる。ステップS701では、カット映像の総フレーム数を取得した後、総フレーム数の中間のRGB画像をカット映像から抽出する。ステップS702では、まず抽出したRGB画像を、下記の式に従って輝度画像に変換する。ここでYは輝度信号を表す。
Y = 0.2989 × R + 0.5866 × G + 0.1145 × B
続いて生成した輝度画像に基づいて、下式の処理によりコントラスト画像を生成する。
続いて生成した輝度画像に基づいて、下式の処理によりコントラスト画像を生成する。
ステップS703では、まずステップS702で生成したコントラスト画像に対してローパスフィルタを施す。続いてローパスフィルタ後の画像からヒストグラムを算出し、中央値を閾値としてローパスフィルタ画像を2値化し、2値コントラスト画像を生成する。
ステップS704では、2値コントラスト画像に対してディレーション処理とイロージョン処理との繰り返しによるモルフォロジー演算処理を施す。ここでディレーション処理は、
ステップS705では、モルフォロジー演算処理の結果画像からエッジラインを検出し、画像を横断する最上部の曲線を抽出する。ステップS706では、曲線抽出が失敗したかどうかを判定し、失敗していればステップS707へ、失敗していなければステップS708へジャンプする。
ステップS707では、モルフォロジー演算用の構造要素を更新し、再度モルフォロジー演算処理を行うためステップS704へジャンプする。
ステップS708では、曲線の距離を算出し稜線の複雑度として、カット映像IDと対応付けてメインメモリ102に記憶する。
ステップS403における構図解析処理の一処理である画像重心算出処理は、図8のフローチャートに基づいて処理が行われる。ステップS801では、カット映像の総フレーム数を取得した後、総フレーム数の中間のRGB画像をカット映像から抽出する。ステップS802では、各ピクセルのRGB値をHSL値に変換し、RGB画像をHSL画像に変換する。
ステップS803では、画像重心の算出対象となる色領域情報を、あらかじめHDD104に記憶された重心算出情報に基づいて対象所定の順序で取得する。ここで重心算出情報は図9(a)に示すデータ構造でHDD104に記憶されており、先頭には重心算出に用いられる色領域の総数が記述される。
色領域情報は、色領域の色相値の下限と上限、彩度値の下限と上限、明度値の下限と上限で構成され、この色領域情報が色領域総数分記述されることで重心算出情報全体が構成される。なお色領域情報に対しては、色領域番号がデータ先頭から順に1から割り当てられる。
ステップS804では、ステップS803で取得した色領域情報に包含されるHSL値を持つ総てのピクセル座標を、HSL画像から抽出する。ステップS805では、抽出したピクセルの重心と分散並びにピクセル総数を、当該色領域に対する画像重心情報として算出し、カット映像IDと対応付けてメインメモリ102に記憶する。
ステップS806では、曲線抽出が失敗したかどうかを判定し、失敗していればステップS707へ、失敗していなければS708へジャンプする。総ての色領域に対し画像重心情報の算出を行ったかどうかを判定し、行っていれば処理を終了し、行っていなければステップS803へジャンプする。以上が構図解析処理の説明である。
次にカット映像繋ぎ順序決定処理の説明をする。
以下では、選択された編集ルールが風景/旅行である場合のステップS404の各カット映像繋ぎ順序決定処理について、図10のフローチャートを用いて説明する。
ステップS1001では、ステップS402で分類したシーン数を取得する。
ステップS1002では、所定順序でシーンを選択し、選択シーンに属する総てのカット映像IDを取得する。
ステップS1003では、カット映像IDに対応付けられたカメラ付加情報からタイムスタンプを取得し、タイムスタンプに基づいて時間順で映像が並ぶようにソートする。
ステップS1004では、カット映像IDに対応付けられた顔数情報を取得し、顔数で昇順に並ぶようにカット映像IDをソートする。なお顔数が同数である場合、時間順の並びが崩れないようソートを行う。
ステップS1005では、まず各カット映像に付加された付加情報からカメラ露出情報を取得すると共に、カット映像IDに対応付けられた画像重心情報を取得し、顔数が0の映像に対して風景映像か屋内映像かを判定する。露出が所定値以下であれば、夜景と判断し風景映像と判断する。さらに露出が所定値以上であれば、屋外での風景映像と判断する。前記以外の映像については、あらかじめHDD104に記憶された風景判断情報に基づいて風景であるかどうかを判断する。
ここで風景判断情報は図9(b)に示すデータ構造でHDD104に記憶されており、先頭には風景判断に用いられる判定条件の総数が記述される。判定条件は、まず対象とする色領域番号が記述され、判定対象となる下限画素数が次に記述される。続いて重心の縦位置範囲と重心の横位置範囲が記述される。この情報が判定条件数分記述されることで風景判断情報が構成される。このデータを用い、判定条件を満たしたときに風景情報であると判断する。以上の判定結果をカット映像IDと対応付けてメインメモリ102に記憶する。
ステップS1006では、風景映像が先頭に来るようにカット映像IDをソートする。なお、ソート後の風景映像についても、時間順の並びが崩れないようソートを行う。ステップS1007では、ステップS1006の風景画像について更に、構図解析結果とカメラズーム情報に基づいてロングショット/クロースショットを判定し、カット映像IDをソートする。
まず、各カット映像に付加された付加情報からカメラズーム情報を取得すると共に、カット映像IDに対応付けられた稜線複雑度を取得する。そして、カメラズーム情報から所定閾値よりもズームされているかを判定し、ズームされている場合はクロースショットであると判定する。ズームされていない場合には、さらに稜線複雑度を所定閾値と比較し、所定閾値以上であればクロースショットと判定し、そうでなければロングショットと判定する。判定結果に基づき、ロングショットが先に来るようにカット映像IDをソートする。
ステップS1008では、顔数が1以上のカット映像IDに対してソートを行う。まず顔数に基づいて降順にカット映像IDをソートし、さらに同じ顔数であれば顔サイズに基づいてサイズが大きいものから順にカット映像IDをソートする。
ステップS1009では、全シーンに対しカット繋ぎ順序決定を行ったかどうかを判定し、真であれば処理を終了し、偽であればステップS1002にジャンプする。
以下では、選択された編集ルールがセレモニーである場合のステップS404の各カット映像繋ぎ順序決定処理について、図11のフローチャートを用いて説明する。
ステップS1101では、ステップS401で分類したシーン数を取得する。ステップS1102では、所定順序でシーンを選択し、選択シーンに属する総てのカット映像IDを取得する。
ステップS1103では、カット映像IDに対応付けられたカメラ付加情報からタイムスタンプを取得し、タイムスタンプに基づいて時間順で映像が並ぶようにソートする。
ステップS1104では、カット映像IDに対応付けられた集合判断情報を取得し、集合判断が真の映像IDが後に来るようにカット映像IDをソートする。なお、ソート後の集合映像については、時間順の並びが崩れないようソートを行う。
ステップS1105では、集合映像について、カット映像IDに対応付けられた顔サイズに基づいて、顔サイズが大きいものから順に並ぶようにカット映像IDをソートする。
ステップS1106では、全シーンに対しカット繋ぎ順序決定を行ったかどうかを判定し、真であれば処理を終了し、偽であればステップS1102にジャンプする。
以下では、選択された編集ルールがパーティー/イベントである場合のステップS404の各カット映像繋ぎ順序決定処理について、図12のフローチャートを用いて説明する。
ステップS1301では、ステップS401で分類したシーン数を取得する。ステップS1302では、所定順序でシーンを選択し、選択シーンに属する総てのカット映像IDを取得する。
ステップS1303では、カット映像IDに対応付けられたカメラ付加情報からタイムスタンプを取得し、タイムスタンプに基づいて時間順で映像が並ぶようにソートする。
ステップS1304では、カット映像IDに対応付けられた集合判断情報を取得し、集合判断が真の映像IDが先に来るようにカット映像IDをソートする。なお、ソート後の集合映像については、時間順の並びが崩れないようソートを行う。
ステップS1305では、集合映像について、カット映像IDに対応付けられた顔サイズに基づいて、顔サイズが大きいものから順に並ぶようにカット映像IDをソートする。
ステップS1306では、非集合映像について、近傍間でランダムにカット映像IDの順序を入れ替える。
ステップS1307では、全シーンに対しカット繋ぎ順序決定を行ったかどうかを判定し、真であれば処理を終了し、偽であればステップS1302にジャンプする。
以上説明したように、ユーザーの指定した編集ルールに基づき、カット映像の構図解析結果からカット映像のつなぎ順序を自動で決定する。これにより、映像文法に基づく編集技法の一つである、構図に基づいた映像編集を実現できる。従って、ストーリー性のある映像を少ない労力で編集することが可能となる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (9)
- 複数の映像の構図を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記複数の映像を繋ぐ順序を決定する順序決定手段と、
前記決定された順序に基づいて、前記複数の映像を繋ぐことにより映像を編集する編集手段と
を有することを特徴とする映像編集装置。 - 編集ルールを指定する編集ルール指定手段を更に有し、
前記解析手段は、前記指定された編集ルールに対応する解析を行うことを特徴とする請求項1に記載の映像編集装置。 - 前記複数の映像のシーンを分類する分類手段を更に有し、
前記解析手段及び前記順序決定手段は、前記分類されたシーン毎に解析及び順序決定を行うことを特徴とする請求項1に記載の映像編集装置。 - 前記解析手段は複数の処理手段を有し、前記順序決定手段は、前記編集ルールに応じた処理手段による処理結果に基づいて順序を決定することを特徴とする請求項2に記載の映像編集装置。
- 前記編集ルールとは、少なくとも風景/旅行、セレモニー、パーティー/イベントのいずれかであることを特徴とする請求項2に記載の映像編集装置。
- 前記処理手段は、少なくとも、顔認識処理、稜線算出処理、画像重心算出処理のいずれか1つ以上であることを特徴とする請求項4に記載の映像編集装置。
- 複数の映像の構図を解析手段が解析する解析工程と、
前記解析工程による解析結果に基づいて、前記複数の映像を繋ぐ順序を決定手段が決定する決定工程と、
前記決定された順序に基づいて、前記複数の映像を繋ぐことにより編集手段が映像を編集する編集工程と
を有することを特徴とする映像編集装置の制御方法。 - 請求項7に記載の映像編集装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
- 請求項8に記載のプログラムを格納したコンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011240463A JP2013098790A (ja) | 2011-11-01 | 2011-11-01 | 映像編集装置およびその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011240463A JP2013098790A (ja) | 2011-11-01 | 2011-11-01 | 映像編集装置およびその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013098790A true JP2013098790A (ja) | 2013-05-20 |
Family
ID=48620294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011240463A Pending JP2013098790A (ja) | 2011-11-01 | 2011-11-01 | 映像編集装置およびその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013098790A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018042959A1 (ja) * | 2016-08-29 | 2018-03-08 | 京セラドキュメントソリューションズ株式会社 | 動画データ解析装置及び動画データ解析方法 |
-
2011
- 2011-11-01 JP JP2011240463A patent/JP2013098790A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018042959A1 (ja) * | 2016-08-29 | 2018-03-08 | 京セラドキュメントソリューションズ株式会社 | 動画データ解析装置及び動画データ解析方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10649633B2 (en) | Image processing method, image processing apparatus, and non-transitory computer-readable storage medium | |
US7945142B2 (en) | Audio/visual editing tool | |
JP4840426B2 (ja) | 電子機器、ぼけ画像選別方法及びプログラム | |
US11570312B2 (en) | Image processing apparatus, image processing method, and storage medium to select an image to be arranged in an added page in an album | |
US10506110B2 (en) | Image processing apparatus, control method, and storage medium | |
US10403014B2 (en) | Image processing apparatus and image processing method | |
US20180164984A1 (en) | Control method and storage medium | |
WO2010041377A1 (ja) | 代表画像表示装置及び代表画像選択方法 | |
US10943376B2 (en) | Image processing apparatus for laying out image on template and image processing method | |
US11037265B2 (en) | Information processing method, information processing apparatus, and storage medium | |
US10115216B2 (en) | Display control apparatus, display control method, and program | |
CN1680939A (zh) | 数字文件和数据的快速可视分类 | |
US10460494B2 (en) | Control method and storage medium | |
JP4490214B2 (ja) | 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム | |
JP2008146191A (ja) | 画像出力装置および画像出力方法 | |
JP7336211B2 (ja) | 画像処理装置、制御方法、及びプログラム | |
JP2007133838A (ja) | 画像表示方法及び画像表示プログラム | |
JP2020140555A (ja) | 画像処理装置、制御方法、及びプログラム | |
JP6948787B2 (ja) | 情報処理装置、方法およびプログラム | |
JP5180052B2 (ja) | 画像評価装置及び画像評価プログラム | |
JP2013098790A (ja) | 映像編集装置およびその制御方法 | |
US11042274B2 (en) | Extracting demonstrations from in-situ video content | |
JP7532110B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6142551B2 (ja) | 画像編集装置及び画像編集プログラム | |
JP2021144618A (ja) | 画像処理装置、画像処理方法、及びプログラム |