JPWO2017029849A1 - 画像処理方法、画像処理装置、プログラム - Google Patents
画像処理方法、画像処理装置、プログラム Download PDFInfo
- Publication number
- JPWO2017029849A1 JPWO2017029849A1 JP2017535262A JP2017535262A JPWO2017029849A1 JP WO2017029849 A1 JPWO2017029849 A1 JP WO2017029849A1 JP 2017535262 A JP2017535262 A JP 2017535262A JP 2017535262 A JP2017535262 A JP 2017535262A JP WO2017029849 A1 JPWO2017029849 A1 JP WO2017029849A1
- Authority
- JP
- Japan
- Prior art keywords
- range
- additional information
- time
- editing
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 165
- 238000003672 processing method Methods 0.000 title claims description 53
- 238000000034 method Methods 0.000 claims description 78
- 230000008569 process Effects 0.000 claims description 72
- 230000008859 change Effects 0.000 claims description 11
- 230000010365 information processing Effects 0.000 claims description 11
- 239000003550 marker Substances 0.000 description 305
- 238000003384 imaging method Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 15
- 230000004044 response Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 238000012217 deletion Methods 0.000 description 7
- 230000037430 deletion Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000010191 image analysis Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Abstract
Description
例えば上記特許文献1には動画編集についての技術が開示されている。
そこで本技術は、付加データを利用した効率の良い編集処理をユーザに提供できるようにするとともに、編集範囲が適切に設定されるようにする手法を提案することを目的とする。
即ち少なくとも2種類の付加情報(第1,第2付加情報)に応じて編集範囲を設定する。
第1付加情報は特定時点を示すため、その特定時点を編集範囲設定の基準とする。第2付加情報は特定の時間範囲を示すため、その時間範囲の始点と終点を編集範囲設定の基準とする。
2種類の付加情報(第1,第2付加情報)に応じた編集範囲として、上記の第1設定時間、第2設定時間、第3設定時間、第4設定時間を用いる。なお第1設定時間、第2設定時間、第3設定時間、第4設定時間は、それぞれが同じ時間長でもよいし異なる時間長でもよい。
即ち、設定した編集範囲を、元の動画データを編集した編集動画データとして使用するようにする。
例えば動画データの開始から終了までをバー形式等で表示する中で、編集範囲を提示する表示を行う。
例えば動画データを示すバー形式上で第1付加情報を示すマーク等を表示する。
例えば動画データを示すバー形式上で第2付加情報を示すマーク等を表示する。
即ち動画データについて1又は複数の編集範囲が設定された状態において、その編集範囲を切り出して再生表示させる。例えば複数の編集範囲を順番に切り出して連続して動画再生させる。
即ち動画データについて設定された編集範囲について、ユーザが操作により任意に設定変更できるようにする。例えば編集範囲の始点(in点)、終点(out点)の変更、或る編集範囲の削除、編集範囲の追加等をユーザ操作により可能とする。
動画データについて設定された編集範囲は、通常再生、例えば1倍速の通常表示の動画として編集動画に加えられる。この編集範囲の動画について、変速再生や画像エフェクト等の処理をユーザ操作で加えることができるようにする。
即ち付加情報の種別を指定することで、その付加情報に対応する部分について共通に画像再生態様を設定する。例えば特定の付加情報に対応する編集範囲については、全てスロー再生とするなどの指定が行われるようにする。
即ち付加情報の種別に応じて編集範囲を決める設定時間を変更する。
ユーザ操作に応じて設定される付加情報は、通常、指定する時間位置が遅れる。そこでそのような付加情報の場合は、時間長を長めにする。
動画データについて1又は複数の編集範囲が設定された状態において、或いはさらにその編集範囲が変更された状態において、例えば編集範囲を切り出してつなげて編集動画データを生成する。
或いは上記した画像処理方法においては、前記出力処理では、前記編集動画データを外部機器に送信する出力処理を行う。
即ち編集動画データを記憶媒体に記憶する状態で保存したり、編集動画データを外部機器に送信する。送信の場合、送信先は例えば特定の記録機器、情報処理端末、クラウドサーバなどである。
これにより上述の画像処理方法を実行できる装置を構成する。
本技術に係るプログラムは、動画データの時間軸に対応して付加された付加情報を認識するステップと、認識した前記付加情報が動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、前記動画データの編集範囲を設定するステップとを情報処理装置に実行させるプログラムである。
これにより情報処理装置において上述の画像処理方法を実行できるようにする。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
<1.画像処理装置の構成>
<2.メタデータ>
<3.編集画面例>
<4.処理例>
<5.プログラム及び記憶媒体>
<6.まとめ及び変形例>
実施の形態の画像処理装置1の構成について図1を用いて説明する。画像処理装置1は、例えばパーソナルコンピュータや携帯端末(例えばスマートフォン、タブレット端末)等の情報処理装置においてソフトウエアにより実現される。或いは画像処理装置1は、ビデオカメラ等の撮像装置、画像記録装置、画像再生装置、画像表示装置等の機器に内蔵される場合もある。また画像処理装置1は画像編集装置として実現される場合もある。
また画像処理装置1に対して情報のやりとりを行う周辺部位として、記憶部10,通信部11,入力部12,表示部13,音声出力部14等がある。
なお、記憶部10,通信部11,入力部12,表示部13,音声出力部14は、それぞれ単体の機器として構成されても良いが、上述の情報処理装置、撮像装置、画像記録装置等の装置内の構成部位とされていてもよい。
さらにこれらの記憶部10,通信部11,入力部12,表示部13,音声出力部14の全部又は一部と、画像処理装置1は、同一の機器内に一体的に設けられていても良いし、別体機器とされて有線又は無線通信で接続されるものでもよい。
まず周辺部位について説明する。
この記憶部10には、例えばユーザがビデオカメラ等の撮像装置で撮像した動画データや、他の機器から転送した動画データ等が記憶されている。さらに記憶部10は、画像編集装置1で編集した動画データの記憶にも用いられる。
表示部13は、画像処理装置1による編集作業用の画像や再生動画等を表示する。例えば液晶パネル、有機EL(Electroluminescence)パネル等の表示デバイスにより構成される。
音声出力部14は、例えば増幅部、スピーカ部等を有し、例えば画像処理装置1での動画再生の際に動画に付随する音声を出力する。
画像処理装置1の対象認識部2は、処理対象とする動画データを特定するとともに、該動画データの時間軸に対応して付加された付加情報(メタデータ)を認識する。具体的には、記憶部10に記憶されている動画データの1つをユーザ操作に応じて特定する。
動画データには、撮像時や、撮像後の解析時などにおいて各種のメタデータが付与される。対象認識部2は、ここでは特に動画内の場面に応じて付与されたメタデータを認識するものとする。
メタデータとしては各種のデータがあるが、本実施の形態で対象とするメタデータとは、動画データの時間軸上で、例えば人物が含まれている場面、歓声が上がった場面、笑顔を検出した場面、ユーザ操作による場面などをマーキングするメタデータである。つまり動画データの時間軸上において、特定のシーンであることを示すメタデータ(例えば後述の各種マーカー)を対象とする。
なお本実施の形態で述べるメタデータとしては、動画の時間軸における特定時点を指定するデータ(第1付加情報)と、動画の時間軸における特定の時間範囲を指定するデータ(第2付加情報)がある。
このため編集処理部3は、メタデータに応じた編集範囲設定処理、ユーザインターフェースとしての表示処理、ユーザの編集操作に応じた編集操作対応処理、編集結果の編集動画データを生成する編集動画生成処理等を行う。これらの処理を含む画像処理装置1の処理の具体例は後述する。
図2において、コンピュータ装置70のCPU(Central Processing Unit)71は、ROM(Read Only Memory)72に記憶されているプログラム、または記憶部78からRAM(Random Access Memory)73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インターフェース75も接続されている。
そしてCPU71において当該プログラムが起動されて画像処理装置1としての機能が実現され、動画データに関する編集処理を行うことができるようにされる。
メタデータとして動画データに付加される情報について説明する。上述のように本実施の形態でいうメタデータ(第1付加情報、第2付加情報)は、動画データの時間軸上で或る場面を指し示す機能を有する。具体的な種類として次のようなものがある。
・静止画記録マーカー
動画撮像中の静止画記録の時点を示すデータである。近年の撮像装置(ビデオカメラ等)では、ユーザが、動画記録中に静止画記録操作をできるようにしたものがある。このような動画記録中に静止画記録を指示した場面は、ユーザが重要と認識している場面と想定される。そこで撮像装置において、動画撮像中にユーザが静止画記録操作を行った時点(タイムコード)に対応させて静止画記録マーカーを付与するようにしている。
動画データ内で顔検出をしたタイムコードに対して付与されるマーカーである。動画撮像中又は撮像後の画像解析において顔検出が行われ、顔が存在するフレームのタイムコードに対応して顔検出マーカーが設定される。例えば画像解析機能を備えた撮像装置や再生装置等により設定される。
動画データ内で笑顔検出をしたタイムコードに対して付与されるマーカーである。動画撮像中又は撮像後の画像解析において笑顔検出が行われ、笑顔が存在するフレームのタイムコードに対応して笑顔検出マーカーが設定される。例えば画像解析機能を備えた撮像装置や再生装置等により設定される。
動画撮像中のユーザのハイライト操作の時点を示すマーカーである。近年の撮像装置(ビデオカメラ等)では、ユーザが、動画記録中に重要な場面においてハイライト操作を行うことができるようにしたものがある。つまりユーザが重要と思った場面を、後の再生や編集の際に直ぐに指定できるようにマーカーを付す操作である。例えば撮像装置において、動画撮像中にユーザがこのハイライト操作を行った時点(タイムコード)に対応させてハイライトマーカーを付与するようにしている。
・歓声マーカー
・笑い声マーカー
・拍手マーカー
通常、動画撮像中は音声集音/記録も行っているが、入力音声を解析することで、例えば歓声が上がった期間、笑い声が上がった期間、拍手が行われている期間等を判定することができる。音声解析機能を有する撮像装置や再生装置等は、これらに該当する期間を検出し、歓声マーカー、笑い声マーカー、拍手マーカー等を動画データに付加することができる。
撮像装置にはズーム機能が備えられていることが多い。ユーザがズーム操作を行う期間は、ユーザにとって重要な場面である可能性が高い。そこで撮像装置は、動画撮像記録中にズーム操作が行われた期間に対して、ズームマーカーを設定する。
例えば人のジャンプ動作、ターン動作、テニスや野球やゴルフ等のスイング動作など、特定のモーションパターンに対して付加されるマーカーである。例えばジャンプマーカーとしてジャンプをしている期間を指定する。これらのマーカーは、画像解析によっても可能であるが、例えば外部機器との連携により、より多様な動作に対するマーカーを設定することも可能である。例えばテニスラケットにセンサを装着し、センサの情報を取得することで、フォアハンドストローク、フォアハンドボレー、バックハンドストローク、バックハンドボレー等を判別し、これらに対応するマーカーを付加することも可能である。
・動画撮像中に、撮像装置で検出し、撮像装置で記録する
動画撮像中に記録する場合として、撮像装置において検出した情報に基づいて、撮像装置において動画データに付加するように記録する。
撮像装置で動画撮像中に、例えば外部センサや外部機器において被写体の特定の動作等を検出し、その検出情報を撮像装置に送信する。撮像装置は検出情報に基づいてマーカーを設定し、動画データに対応させたメタデータとして記憶する。
撮像装置で動画撮像中に、例えば外部センサや外部機器において被写体の特定の動作等を検出し、その検出情報を撮像装置以外の機器に送信する。例えばスマートホン等、ユーザが撮像装置とともに所持する機器に検出情報を送信する。スマートホン等の機器は検出情報に基づいてマーカーを設定する。さらに撮像装置からの情報も取得し、撮像中の動画データのタイムコードと同期したメタデータとしてマーカーを記録しておく。
撮像装置で動画撮像中に、例えば外部センサや外部機器において被写体の特定の動作等を検出し、その検出情報をネットワーク送信し、クラウドで記録する。クラウドサーバ側では撮像中の動画データのタイムコードと同期したメタデータとしてマーカーを記録しておく。
撮像後において画像/音声解析機能を有する機器で動画データ解析や音声データ解析を行って、マーカーの対象となる特定の時点や期間を検出する。そしてそのタイムコードに対応させてマーカーを設定し、メタデータとして記録する。
或いは、解析機能がない機器であっても、ユーザが手動で動画内の場面を確認し、或る時点又はある期間を指定する操作を行うことに応じてマーカーをメタデータとして記録する。
続いて実施の形態の画像処理装置1によってユーザに提供される編集画面について説明する。
図3は例えば図1の表示部13に表示される編集画面20の一例を示している。
編集画面20には、各種の編集機能を読み出すメニューを示したメニューエリア21や、実際の動画内容を表示するビデオエリア22が用意されている。
例えばユーザが記憶部10に記憶された動画データを編集対象として指定する操作を行うことに応じて、この図3のような編集画面において、ビデオエリア22において当該動画の映像が再生されたり、あるいは再生停止状態で表示されたりする。
また音量操作部24として、ミュートボタンや音量バー等が表示される。ユーザはこれらの操作子の操作により、再生時の音声出力のオン/オフや、音量調整を指示することができる。
また画面モード操作部26により、ディスプレイに対する編集画面20の全画面モード、縮小画面モードなどが選択できるようにされている。
編集範囲提示エリア30内には、マーカーバー31、編集範囲バー32が上下に並んで表示されている。このマーカーバー31、編集範囲バー32の全長も、動画バー25と同じく、バー全体の長さが対象の動画データの時間長(例えばこの場合4分44秒)として表現される。
マーカーバー31上にはマーカー画像33が表示される。即ち、実際に動画データに付加されている各種のメタデータ(顔検出マーカー、ハイライトマーカー、歓声マーカー等)が、時間軸上のどの位置に付加されているかがわかるように、各マーカーの種別に対応した画像で提示される。
従ってユーザはマーカーバー31上のマーカー画像33により、当該動画データにおいて、どのあたりにどのようなマーカーが付加されているか、或いは、どのような種類のマーカーが付加されているか、さらにはマーカーの数などを、大まかに把握することができる。
図3では表示されてないが、編集範囲バー32には後述するようにマーカーに応じた編集範囲が表示される。編集範囲とは編集対象となる動画の範囲である。具体的には、編集範囲とは編集動画データとして採用する動画部分であり、例えば設定された複数の編集範囲がつながれて編集動画データが生成される。その意味で、編集範囲とは、元の動画データから切り出す範囲という意味となる。
マーカー表示設定ボタン41は、マーカーバー31上に表示するマーカー画像33を選択する操作子である。
編集範囲設定ボタン42は、マーカーに応じた編集範囲の設定を指示する操作子で、キャンセルボタン43は、その操作(操作に応じた編集範囲設定)をキャンセルする操作子である。
これ以外に、変速タブ47、くり返しタブ48、文字タブ49等が用意される。図示は省略するが、変速タブ47を選択した際には、或る編集範囲についての変速再生(スローや高速再生)の指定操作や、画像エフェクト等を指示する操作を行う画面が表示される。
くり返しタブ48を選択した際には、或る編集範囲についてのリピート再生やそのリピート回数等の指定操作を行う画面が表示される。
文字タブ49を選択した際には、或る編集範囲について付加する、例えば重畳表示させるテキストの入力操作を行う画面が表示される。
編集データ保存ボタン50は、ユーザが編集データを記憶させるための操作子である。編集データとは、例えば設定された編集範囲、各編集範囲について設定された変速、リピート等の再生態様の情報、テキスト情報、変更後の編集範囲の情報、マーカーの選択情報などである。つまりマーカーに応じて設定された編集範囲や、それに対するユーザの操作により設定又は変更された編集作業の情報であって、現時点の編集動画データの作成の元になる情報である。
編集動画作成ボタン51が操作されることに応じて、画像処理装置1はその時点の編集データに基づいて、編集範囲のつなぎ合わせや各編集範囲のエフェクト付加、変速、リピート、文字重畳などを行って、編集動画データとしての例えばストリームデータを生成する。そしてその編集動画データを記憶部10に記憶させたり、通信部11から外部機器に送信させる。
図4においては、編集範囲バー32に、各マーカー33に対応して設定された編集範囲を示す範囲画像35が表示される。図では編集範囲バー32上の斜線部として範囲画像35を示しているが、実際には色が異なる部分などとして表示されればよい。各範囲画像35の表示態様(例えば色や図柄等)は共通でも良いが、対応するマーカー33の種別に応じて区別される表示態様としてもよい。
上述のようにマーカーとしては、第1付加情報としての各種のマーカーと、第2付加情報としての各種のマーカーがある。
本実施の形態では、マーカーが動画の時間軸における特定時点を指定する第1付加情報か、或いは動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、そのマーカーに対応する編集範囲を設定する。
具体的には、第1付加情報のマーカーは特定時点を示すため、その特定時点を編集範囲設定の基準とする。第2付加情報のマーカーは特定の時間範囲を示すため、その時間範囲の始点と終点を編集範囲設定の基準とする。
さらにいえば、マーカーが第1付加情報である場合、その特定時点の第1設定時間前の時点から該特定時点の第2設定時間後までの範囲を編集範囲と設定する。
マーカーが第2付加情報である場合、その時間範囲の始点の第3設定時間前の時点から該時間範囲の終点の第4設定時間後までの範囲を編集範囲とする。
ここで、第1設定時間、第2設定時間、第3設定時間、第4設定時間は、それぞれが同じ時間長でもよいし異なる時間長でもよい。まず、第1〜第4設定時間は全て2秒であるとして編集範囲設定の例を説明する。
なお、タイムコードは通常、時:分:秒:フレームとされるが、実際の画面等では、煩雑をさけるため、フレームは省略していることが多い。例えば図3,図4の編集画面20ではフレームは省略した表示とされている例としている。
また、図5、図6に示すタイムコードは実際に表示されるものではなく、説明のために表記しているものである。但し実際に表示されるものとしてもかまわない。
なおマーカー画像33(33A等)自体のユーザの認識性を高めるようにするため、マーカー画像33はある程度の面積を持つ画像としている。このため図5Aのように、マーカー画像33Aの一辺(左辺)が「0:01:00:00」の位置となるように表示している。但しこれは一例で、例えば右辺がタイムコードに対応する位置となるようにしてもよいし、左右方向の中央がタイムコードに対応する位置となるようにしてもよい。
マーカー画像33(33A等)を、単にタイムコードに対応したライン等とせずに、面積のある画像とし、マーカーの種別毎に異なる画像とすることで、ユーザにとってどのようなマーカーが付されているかをより認識しやすくしている。
そしてこのように設定された編集範囲を示すように、図示のように編集範囲バー32上の「0:00:58:00」〜「0:01:02:00」の部分に範囲画像35が表示される。これによってユーザは、或る顔検出マーカー(マーカー画像33A)に対応して設定された編集範囲、例えば元の動画データからの切り出し範囲を認識できる。
そしてこのように設定された編集範囲を示すように、図示のように編集範囲バー32上の「0:03:18:00」〜「0:03:32:00」の部分に範囲画像35が表示される。これによってユーザは、或る歓声マーカー(マーカー画像33B)に対応して設定された編集範囲、例えば元の動画データからの切り出し範囲を認識できる。
これに応じてマーカーバー31上では顔検出マーカーを示すマーカー画像33Aが3つ重なるように表示される。
第1設定時間=第2設定時間=2秒とすると、これらの顔検出マーカーについての編集範囲は、それぞれ「0:02:28:00」〜「0:02:32:00」、「0:02:31:00」〜「0:02:35:00」、「0:02:33:00」〜「0:02:37:00」となり、それぞれ前後が重複する。そこで編集範囲バー32では、これらをまとめて「0:02:28:00」〜「0:02:37:00」を編集範囲として範囲画像35を表示している。
例えば図6Bには、ハイライトマーカーに応じたマーカー画像33Cと、それに応じた編集範囲を示す範囲画像35を例示している。このハイライトマーカーは「0:04:40:00」を示す情報であるとする。
例えば上記図5Aのように第1設定時間=第2設定時間=2秒とするが、特定のマーカーについては第1設定時間を変更する例である。ここではハイライトマーカーの場合は、第1設定時間=4秒に変更する。このため「0:04:36:00」〜「0:04:42:00」が編集範囲となり、図示のように表示される。
例えばこの例のように、編集範囲の設定に用いる第1〜第4設定時間の全部又は一部は、マーカー種別に応じて異なる値が適用されるようにしてもよい。
まず上述のように第1設定時間=第2設定時間=第3設定時間=第4設定時間として、マーカー種別に限らず、この設定時間を用いて編集範囲を設定する例がある。
第1設定時間≠第2設定時間≠第3設定時間≠第4設定時間としてマーカー種別に限らず固定的に用いても良い。例えば第1設定時間=3秒、第2設定時間=2秒、第3設定時間=2.5秒、第4設定時間=1.5秒などである。
第1設定時間=第3設定時間=x秒、第2設定時間=第4設定時間=y秒としてもよい。
第1設定時間=第3設定時間=第4設定時間=x秒、第2設定時間=y秒としてもよい。
第1設定時間=第2設定時間=第4設定時間=x秒、第3設定時間=y秒としてもよい。
第2設定時間=第3設定時間=第4設定時間=x秒、第1設定時間=y秒としてもよい。
また第1付加情報としてのマーカー種別毎に、それぞれ固有の第1設定時間、第2設定時間を決め、また第2付加情報としてのマーカー種別毎に第3設定時間、第4設定時間を決めることも考えられる。
図4では、マーカーバー31及び編集範囲バー32上に渡って、エディットポインタ34が表示されている例を示している。
エディットポインタ34は、特定のタイムコードを示すもので、ユーザが操作によりエディットポインタ34を任意の位置に移動させることで、その位置(又は対応する編集範囲)を編集操作の対象とすることができるものである。
例えばユーザにとっては、エディットポインタ34を或る範囲画像35の端部に合わせたうえで、左右に移動させる操作を行うことで、上記のように設定された編集範囲の始点又は終点を変更して、編集範囲を伸長又は短縮できる。
またユーザは、エディットポインタ34で指定した編集範囲について、変速指定やリピート指定、エフェクト指定、文字入力等の操作を行うこともできる。
またユーザは、エディットポインタ34で指定したマーカーの削除、エディットポインタ34で指定した位置へのマーカーの追加等も行うことができる。
つまりエディットポインタ34は、ユーザが任意に編集操作を行いたい場合の、マーカー画像33の指定、範囲画像35の指定、任意のタイムコード位置の指定などに用いられる。
ユーザは、マーカーバー31に表示されるマーカーの種別を選択できる。例えばユーザがマーカー表示設定ボタン41を操作した場合、画像処理装置1は図7に示す表示設定ウインドウ61を表示させる。表示設定ウインドウ61には、マーカー選択エリア62、ビデオ提示部64、閉じるボタン63等が設けられている。
そしてユーザは、マーカー種別に対応して表示されているチェックボックスを利用して、マーカーバー31に表示させたいマーカーの種別を選択する。図示のように顔検出マーカー、歓声マーカーがチェックされる状態では、図4のように、顔検出マーカーと歓声マーカーに対応するマーカー画像33が表示されることになる。マーカーバー31上にマーカー画像33が表示されるということは、その種別のマーカーについて編集範囲の設定や任意編集が可能となるということである。
例えばユーザが、運動会等の動画データについて、人物が含まれているシーンと歓声が上がったシーンをまとめたダイジェスト動画として編集動画データを作成したい場合、このように顔検出マーカーと歓声マーカーを選択してマーカーバー31に表示されるようにし、かつこれらについて編集範囲が設定され、編集範囲バー32に範囲画像35が表示されるようにすれば良い。
ユーザがマーカーの追加又は削除のための所定の操作を行った場合、画像処理装置1は図8のようなウインドウ60を表示させる。このウインドウ60には、マーカーバー31W、マーカー一覧部52、選択マーカー提示部53、追加ボタン54、削除ボタン55等が表示される。
マーカーバー31Wには、現在編集画面20のマーカーバー31に表示されているマーカー画像33Aや、追加されたマーカー画像33Cが表示される。
例えばユーザは、エディットポインタ34をマーカーバー31W上で任意の位置に配置する。そしてマーカー一覧部52から任意のマーカーを選択する。その操作に応じて画像処理装置1は、選択マーカー提示部53に選択中のマーカー(この例ではハイライトマーカー)を示し、マーカーバー31W上のエディットポインタ34の位置に選択中のハイライトマーカーのマーカー画像33Cを表示する。
ユーザが追加ボタン54を操作した場合、画像処理装置1は、この状態、つまりエディットポインタ34で示されるタイムコード位置にハイライトマーカーが追加された状態とし、図4等の編集画面20に戻る。その際にはマーカーバー31にハイライトマーカーのマーカー画像33Cが追加された状態となる。
逆に、既に付加されているマーカー(マーカー画像33)をエディットポインタ34で指定して、削除ボタン55を操作することで、そのマーカーを削除することもできる。なお、ここでいう「削除」とは、元の動画データから該当するメタデータとしてのマーカーを削除してしまうという処理でも良いし、単に編集範囲の設定対象から外す、という意味での削除でもよい。
・対象の動画データに付加されていたマーカーがタイムコードに合わせてマーカー画像33により表示されるため、ユーザはマーカーの位置や種類を認識できる。
・マーカーに対応して編集範囲が自動設定される。この場合、第1付加情報か第2付加情報かに応じて、それぞれ適切な範囲が編集範囲として設定される。
・編集範囲設定の元となるマーカーの種別は、ユーザが任意に選択できる。
・編集範囲設定の元となるマーカーとして特定種別のマーカーをユーザが任意に追加/削除できる。
・マーカーに対応して設定された各編集範囲の始点・終点はユーザが任意に変更できる。
・各編集範囲について、ユーザが任意に再生態様の指定やエフェクト設定、文字設定等を行うことができる。
・再生操作により、編集作業中の編集範囲を再生させたり、各編集範囲をつなげた編集動画を確認することができる。
・編集作業後に、編集データを保存することができ、編集動画作成/出力を指示できる。
以上のような編集画面20を表示させユーザに編集作業環境を提供する画像処理装置1の処理例を説明する。例えば画像処理装置1は図1の対象認識部2,編集処理部3,出力処理部4としての機能により以下説明する処理を実行する。具体的には画像処理装置1は図2のような情報処理装置であり、編集用のプログラムが起動されることで以下の処理を実行する。
画像処理装置1は図9のステップS101で処理対象の動画を決定する。即ちユーザの操作に従って、記憶部10に記憶された動画データの1つを編集処理の対象の動画データとして決定する。
ステップS102で画像処理装置1は、処理対象として決定した動画データを記憶部10から読み込むとともに、当該動画データに付加されているメタデータ(マーカー)の取得を行う。
なお、初期状態でマーカー画像33を表示させるマーカーの種別は、予め固定的に設定していても良いし、ユーザ設定によるものとしてもよい。或いは、その動画データに付加されていた全マーカーについてマーカー画像33を表示させるものとしてもよい。さらには、図7で説明したユーザの選択操作が行われるまで、マーカー画像33を表示させないものとしてもよい。
画像処理装置1はこれらのステップS104〜S116の監視処理を、ステップS117で画像編集処理の終了と判断されるまで繰り返す。
この操作に応じて画像処理装置1はステップS121で、エディットポインタ34の画面上の位置を、操作により指定された位置に変更する処理を行う。
例えば画像処理装置1は、編集範囲設定ボタン42が操作されることに応じて、マーカー画像33が表示されているマーカー全部について、自動的に編集範囲設定を行う。
又は画像処理装置1は、編集範囲設定ボタン42が操作されることに応じて、その時点でエディットポインタ34等により指定されているマーカー画像33のマーカーについて編集範囲設定を行うようにしてもよい。
又は画像処理装置1は、編集範囲設定ボタン42が操作されることに応じて、その時点でエディットポインタ34等により指定されているマーカー画像33のマーカーと、同一種類のマーカー全部について編集範囲設定を行うようにしてもよい。例えば顔検出マーカーの1つがエディットポインタ34で指定されていた場合、全ての顔検出マーカーについてそれぞれ編集範囲設定を行う。
マーカー全部について編集範囲設定を行うなど、複数のマーカーを編集範囲設定処理の対象とする場合は、以下の図11A、図11B、図12のような処理を、対象とする各マーカーに対してくり返し行えば良い。
ステップS131で画像処理装置1は、対象のマーカーが時間範囲を指定するマーカーか否か、つまり第2付加情報か否かを判断する。つまり処理対象のマーカーの種別を確認し、種別が顔検出マーカー、静止画記録マーカー、ハイライトマーカー等であれば第1付加情報と判断し、一方、歓声マーカー、拍手マーカー、モーションパターンマーカー等であれば時間範囲を指定する第2付加情報と判断する。
対象のマーカーが第2付加情報である場合は、画像処理装置1はステップS133で、そのマーカーが指定する時間範囲の始点となるタイムコードの前2秒(第3設定時間)から、終点となるタイムコードの後2秒(第4設定時間)までの範囲を編集範囲に設定する。
そして画像処理装置1はステップS134で、設定した編集範囲を範囲画像35によりユーザに提示するように制御する。
画像処理装置1はステップS131で図11Aと同様に対象のマーカーの種別を判断する。
対象のマーカーが第1付加情報である場合は、画像処理装置1はステップS132Aで、そのマーカーが指定する時点(タイムコード)における前2.5秒(第1設定時間)から、後2秒(第2設定時間)までを編集範囲に設定する。
対象のマーカーが第2付加情報である場合は、画像処理装置1はステップS133Aで、そのマーカーが指定する時間範囲の始点となるタイムコードの前1.5秒(第3設定時間)から、終点となるタイムコードの後1.8秒(第4設定時間)までの範囲を編集範囲に設定する。
そして画像処理装置1はステップS134で、設定した編集範囲を範囲画像35によりユーザに提示するように制御する。
画像処理装置1はステップS131で図11Aと同様に対象のマーカーの種別を判断する。
対象のマーカーが第1付加情報である場合は、画像処理装置1はステップS135で、そのマーカーが、操作起因のマーカーであるか否かを判断する。操作起因のマーカーとは、動画撮像中に行われたユーザの操作に応じて、その操作タイミングの箇所に対応づけられたマーカーである。具体的には例えばハイライトマーカーや静止画記録マーカーである。
操作起因のマーカーでなければ、画像処理装置1はステップS132Bに進み、そのマーカーが指定する時点(タイムコード)における前2秒(第1設定時間)から、後2秒(第2設定時間)までを編集範囲に設定する。
操作起因のマーカーであったら、画像処理装置1はステップS132Cに進み、そのマーカーが指定する時点(タイムコード)における前4秒(変更した第1設定時間)から、後2秒(第2設定時間)までを編集範囲に設定する。
操作起因のマーカーでなければ、画像処理装置1はステップS133Bに進み、そのマーカーが指定する時間範囲の始点となるタイムコードの前2秒(第3設定時間)から、終点となるタイムコードの後2秒(第4設定時間)までの範囲を編集範囲に設定する。
操作起因のマーカーであったら、画像処理装置1はステップS133Cに進み、そのマーカーが指定する時間範囲の始点となるタイムコードの前4秒(変更した第3設定時間)から、終点となるタイムコードの後2秒(第4設定時間)までの範囲を編集範囲に設定する。
このように、操作起因のマーカーについては、時間的に過去の方向に、編集範囲に含める範囲を長くするようにしている。これはユーザの操作に応じた時点もしくは期間の場合、操作タイミングが、最適なシーンに対して遅れる傾向があることを考慮したものである。
例えばユーザが、重要と思ってハイライト操作や静止画記録操作を行った時点とは、被写体として重要なシーンが開始された後であることが多い。そこで、多少、通常より過去方向に長めに編集範囲に加えるようにすることで、重要なシーンを好適な範囲で切り出せるようにするものである。
編集データ保存操作とは例えば編集画面20における編集データ保存ボタン50の操作である。この操作に応じて画像処理装置1は、その時点の編集データ(編集範囲、マーカー選択状態、変速設定等の編集作業にかかるデータ)を、例えば記憶部10に保存する処理を行う。
編集データを保存しておくことにより、ユーザは後の時点で保存した編集データを読み出して、現在の作業状態を回復することができる。
ステップS150の処理例を図13に示す。
ステップS151で画像処理装置1は編集データを確定する。即ちその時点の編集データが、編集動画作成のための最終的な作業データであるとする。
ステップS152で画像処理装置1は編集データに基づいて、各編集範囲を順に切り出して繋げ、編集結果としての動画データを生成する。この場合、各編集範囲についての変速再生設定、リピート設定、エフェクト設定、文字入力等があれば、それらを反映させた動画データを生成する。
そしてステップS153で編集動画データを出力する。例えば記憶部10に編集動画データを記憶させる。或いは通信部11により外部機器に編集動画データを送信する。
このステップS160の処理例を図14に示す。
マーカー指定中であれば、ステップS172に進み、画像処理装置1はその指定中のマーカーの編集範囲の動画再生を実行する。この場合、指定中の1つの編集範囲を1回再生させて再生を終了させてもよいし、その編集範囲をくり返し再生させてもよい。
また、当該編集範囲の再生が完了しても、その終点からの元の動画をそのまま継続して再生していってもよい。
最後の編集範囲の再生までが終了したら、再生を終了させてもよいし、再び先頭の編集範囲からの再生をくり返してもよい。
またエディットポインタ34が特にマーカーが存在しないタイムコードを指定していた場合、編集範囲に関係なく、その指定されたタイムコードから元の動画を再生して行くことも考えられる。
なお、ここでは停止操作の検知の場合として示したが、ユーザの操作によらずに再生が終点位置まで進行した場合も、ステップS180,S181が行われればよい。
なお、再生中でなければ、操作を無効としてもよいし、或いはビデオエリア22に表示する箇所(停止中の画像の位置)をジャンプさせてもよい。
ユーザが変速操作に係るボタン、即ち早戻しボタンか早送りボタンを操作した場合、画像処理装置1はステップS164からS183に進み、変速再生処理を行う。つまり現在の再生位置からの早送り又は早戻し再生を行う。
なお、再生中でなければ、操作を無効としてもよいし、或いはビデオエリア22に表示する箇所(停止中の画像の位置)を進ませたり戻したりしてもよい。
ユーザが音量に係る操作を行った場合、画像処理装置1はステップS165からS184に進み、操作に応じた音量設定の変更、ミュート/ミュート解除等の処理を行う。
マーカー表示設定操作とは、編集画面20のマーカー表示設定ボタン41の操作である。
この操作に応じて画像処理装置1は図7で説明した表示設定ウインドウ61を表示させる。そしてユーザの表示するマーカーの選択操作に応じて、表示させるマーカーを決定する処理を行う。そして表示するものとして決定したマーカーをマーカーバー31に表示させる処理を行う。既に表示されていたが、ユーザがマーカー選択エリア62でのチェックを外したマーカーについては提示解除とし、マーカーバー31で表示させないようにする。
マーカーの追加/削除操作に応じて画像処理装置1は図8で説明したウインドウ60を表示させ、上述のように、これに対するユーザ操作に応じた追加又は削除設定を行うことになる。
これは、例えば変速タブ47により表示される画面上で、特定の編集範囲についてユーザ操作に応じて変速再生設定を行う処理である。ユーザは例えば指定した編集範囲について、通常の1倍速に対して2倍速、4倍速、1/2倍速、1/3倍速などを指定できる。画像処理装置1はこのような設定を作業中の編集データに反映させていく。
これは、例えばくり返しタブ48により表示される画面上で、特定の編集範囲についてユーザ操作に応じてリピート再生設定を行う処理である。ユーザは例えば指定した編集範囲について、1回、2回、3回等のリピート回数を指定できる。画像処理装置1はこのような設定を作業中の編集データに反映させていく。
これは例えば文字タブ49により表示される画面上で、特定の編集範囲についてユーザが文字入力を行うことに応じて、動画に重畳する文字の設定を行う処理である。ユーザは例えば指定した編集範囲のシーンに任意に文字を入力できる。画像処理装置1はこのような文字設定を作業中の編集データに反映させていく。
例えばユーザは、或るマーカーについての編集範囲の始点又は終点をエディットポインタ34で指定した上で、エディットポインタ34を移動させる操作を行うことができる。これがマーカー指定編集操作となる。この場合画像処理装置1は、編集範囲の始点又は終点を、ユーザ操作によって移動されたタイムコード位置に変更する処理を行う。
従って、ユーザは任意の編集範囲を、任意に変更できることになる。
例えばユーザは、或るマーカー種別を指定した上で、そのマーカーについて編集範囲の始点や終点を変更したり、画像エフェクトを加えたり、リピートさせたりする編集設定を指示する操作を行うことができる。画像処理装置1はそのような操作に応じて、特定種別のマーカーについて、一括して指定された編集設定を加える処理を行い、それを作業中の編集データに反映させていく。
例えばユーザがテニスラケットのスイングを示すモーションパターンマーカーを指定した上で、2回のリピート再生を指示し、かつ2回目のリピート再生について1/2倍速再生を指定する。画像処理装置1はこのような設定を、同じモーションパターンマーカーの全てについての編集範囲に関する設定として、編集データに加える。これによって編集動画上では、スイングのシーンとなる度に、通常動画の直後にスロー動画が加えられたものとなる。
また、例えばユーザが笑顔検出マーカーを指定して、編集範囲の始点を過去方向に1秒変更する操作を行った場合、画像処理装置1は、全ての笑顔検出マーカーに係る編集範囲の始点を過去方向に1秒変更し、その変更後の状態を編集範囲バー32に表示するとともに、作業中の編集データに反映させる。
これらは例示であるが、具体例はさらに多様に考えられる。
ステップS117で画像編集処理の終了と判断した場合は、画像処理装置1はステップS280で編集画面20の表示を終了させる。
この処理は一例であり、他の処理例も各種考えられる。
例えばステップS103の段階で、ユーザ操作を待たずに、表示するマーカーに対応して最初の編集範囲設定も行い、いきなり図4のような編集範囲バー32上に範囲画像35を表示する状態としてもよい。
編集画面20における表示内容、操作子等はもちろん他にも考えられる。
ここまで画像処理装置1及び画像処理装置において実行される画像処理方法の実施の形態を説明してきたが、上述した編集環境提供のための処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
即ち実施の形態のプログラムは、動画データの時間軸に対応して付加された付加情報を認識するステップ(S102)と、認識した付加情報が動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、動画データの編集範囲を設定するステップ(S130)とを情報処理装置に実行させるプログラムである。
このようなプログラムにより、上述した自動静止画記憶の制御を行う画像処理装置を、図2のコンピュータ装置70等の情報処理装置を用いて実現できる。
あるいはまた、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
以上の実施の形態では、次のような効果が得られる。
実施の形態の画像処理装置1で実行する画像処理方法は、動画データの時間軸に対応して付加された付加情報(マーカー)を認識し、付加情報が動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、動画データの編集範囲を設定している(図11,図12参照)。
このため特定時点を示す第1付加情報と、特定時間範囲を示す第2付加情報のそれぞれに応じて自動的に適切な編集範囲を設定できる。
特に、マーカーが第1付加情報である場合は、その第1付加情報が指定する特定時点に基づき編集範囲を設定し、第2付加情報である場合は、その第2付加情報が指定する特定の時間範囲の始点と終点に基づき編集範囲を設定する。
これにより第1、第2付加情報の特定内容に応じた編集範囲設定が可能となる。
このような第1設定時間、第2設定時間、第3設定時間、第4設定時間の設定により、第1、第2付加情報のそれぞれに応じて、適切な時間範囲を自動的に編集範囲として設定できる。
特に、第1付加情報の場合、指定したタイムコードの前後である程度の期間を編集範囲とできる。これにより、マーカーで指定されるタイムコードを中心としたある程度の期間のシーンを編集範囲とできる。動画の場合、編集範囲はある程度の期間のシーンとすることが重要であるため、このような編集範囲の設定は非常に有用である。
また第1設定時間や第3設定時間により、マーカー指定時点より前の時点が編集範囲に含まれることも好適である。動画における前の時点からのつながりが編集範囲の動画のみで表現できるようになりやすいからである。
また第2設定時間や第4設定時間により、マーカー指定時点より後の時点が編集範囲に含まれることも好適である。動画中の重要なシーンの直後のつながりが編集範囲の動画のみで表現できるようになりやすいためである。
また、第1乃至第4設定時間としての時間設定により、第1,第2付加情報に応じた編集範囲長を的確にコントロールできる。従って、ユーザが第1乃至第4設定時間を選択できるようにすることも好適である。
その意味では、編集範囲は、ユーザが選択したマーカー種別について設定されるものであることが望ましい。例えばユーザが、笑顔のシーンを集めた編集動画を作成したと思った場合、笑顔検出マーカーをマーカーバー31に表示させるように選択し(S200)、それについて編集範囲設定(S130)を実行させ、設定された編集範囲に基づいて編集動画作成を実行させれば(S150)よいものとなるためである。
これにより自動設定された編集範囲をユーザに認識させることができる。
これにより第1付加情報で指定される特定時点をユーザが認識できる。
また編集範囲の設定後において、ユーザが各編集範囲の内容や動画時間軸上の位置を確認しやすくし、その後の任意編集をしやすいものとできる。
即ち画像処理装置1はマーカーバー31のマーカー画像33の表示制御を行う。またこのとき第2付加情報としてのマーカーに対応しては図5B上段のように編集範囲全体ではなく、或る代表のタイムコードに合わせた表示としている。
これにより第2付加情報で指定される特定の時間範囲をユーザが認識できる。特に代表時点で示す、つまり時間範囲として示さないようにすることで、表示が煩雑にならないようにすることができる。
また編集範囲の設定後において、ユーザが各編集範囲の内容や動画時間軸上の位置を確認しやすくし、その後の任意編集をしやすいものとする。
即ち動画データについて1又は複数の編集範囲が設定された状態において、その編集範囲を切り出して再生表示させる。例えば複数の編集範囲を順番に切り出して連続して動画再生させる。
この動画再生により、編集範囲設定によって生成される編集動画の状態をユーザが実際に確認できる。ユーザは編集動画を確認し、必要に応じてさらなる編集等を行うことができる。
即ち動画データについて設定された編集範囲について、ユーザが操作により任意に設定変更できるようにする。例えば編集範囲の始点(in点)、終点(out点)の変更、或る編集範囲の削除、編集範囲の追加等をユーザ操作により可能とする。
これにより、付加情報に基づいて設定された編集範囲を、さらにユーザ意思(操作)に応じて変更していくことができる。
動画データについて設定された編集範囲は、通常再生、例えば1倍速の通常表示の動画として編集動画に加えられる。この編集範囲の動画について、変速再生や画像エフェクト、リピート、文字重畳等の処理をユーザ操作で加えることができるようにしている。
つまり設定された編集範囲に基づいて生成される編集動画を、さらにユーザの意思による再生態様の編集を行うことができ、高度な編集も可能となる。
即ちマーカー種別を指定することで、その種別のマーカーに対応する編集範囲について共通に画像再生態様を設定することができる。例えば特定の付加情報に対応する編集範囲については、全てスロー再生とするなどの指定が可能である。
従ってマーカー種別毎に編集内容を指定できるため、編集操作を効率化、容易化でき、しかも特定のシーン内容に応じた画像効果等を設定できる。
これによりマーカー種別毎に適切な編集範囲を設定できる。例えばシーン内容毎の付加情報、ユーザ操作による付加情報、笑顔検出による付加情報などに会わせて、前後の時間長を変更することで、シーンに応じた編集範囲設定が行われるようにする。
特に、操作起因のマーカー、つまり動画撮像時のユーザ操作に応じて付加されるマーカーの場合に、第1設定時間又は第3設定時間のいずれかを、通常設定時間長より長い時間長に設定している。
ユーザ操作に応じて設定される付加情報は、通常、指定する時間位置が遅れる。そこでそのような付加情報の場合は、時間長を長めにする。これにより編集範囲の開始時点を前の時点にし、適切な動画内容の編集範囲とすることができる。
動画データについて1又は複数の編集範囲が設定された状態において、或いはさらにその編集範囲が変更された状態において、例えば編集範囲を切り出してつなげて編集動画データを生成する。生成される編集動画データは、付加情報に基づいた編集範囲を基礎とする編集動画となり、ユーザにとって適切な編集動画内容を簡易な処理で提供できるものとなる。
また、この出力処理では、編集動画データを記憶媒体に記憶させたり、外部機器に送信する。これにより編集データの保存や転送がユーザにとって容易となる。
(1)動画データの時間軸に対応して付加された付加情報を認識し、
前記付加情報が動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、前記動画データの編集範囲を設定する
画像処理方法。
(2)前記付加情報が前記第1付加情報である場合は、その第1付加情報が指定する特定時点に基づき編集範囲を設定し、
前記付加情報が前記第2付加情報である場合は、その第2付加情報が指定する特定の時間範囲の始点と終点に基づき編集範囲を設定する、
上記(1)に記載の画像処理方法。
(3)前記第1付加情報に応じて、その特定時点の第1設定時間前の時点から該特定時点の第2設定時間後までの範囲を編集範囲と設定し、
前記第2付加情報に応じて、その時間範囲の始点の第3設定時間前の時点から該時間範囲の終点の第4設定時間後までの範囲を編集範囲とする
上記(1)又は(2)に記載の画像処理方法。
(4)設定した編集範囲を、動画データからの切り出し範囲とする
上記(1)乃至(3)のいずれかに記載の画像処理方法。
(5)前記動画データについて設定した編集範囲を提示する表示を実行させる表示制御を行う、
上記(1)乃至(4)のいずれかに記載の画像処理方法。
(6)前記第1付加情報によって指定される前記動画データ上の特定時点を提示する表示制御を行う
上記(1)乃至(5)のいずれかに記載の画像処理方法。
(7)前記第2付加情報が指定する前記動画データ上の特定の時間範囲を、代表時点を示すことで提示する表示制御を行う
上記(1)乃至(6)のいずれかに記載の画像処理方法。
(8)設定した編集範囲の情報に基づいて、動画再生表示を実行させる表示制御を行う
上記(1)乃至(7)のいずれかに記載の画像処理方法。
(9)設定した編集範囲について、操作に応じて設定変更する編集操作対応処理を行う
上記(1)乃至(8)のいずれかに記載の画像処理方法。
(10)設定した編集範囲の画像再生態様を操作に応じて変更する編集操作対応処理を行う
上記(1)乃至(9)のいずれかに記載の画像処理方法。
(11)前記第1付加情報又は前記第2付加情報となる付加情報としての複数種類の付加情報の種別を指定することに応じて、指定した種別の付加情報に対応する編集範囲に、所定の画像再生態様を設定する編集操作対応処理を行う
上記(1)乃至(10)のいずれかに記載の画像処理方法。
(12)前記動画データの編集範囲を設定する際には、前記第1付加情報又は前記第2付加情報となる付加情報としての複数種類の付加情報の種別に応じて、前記第1設定時間、前記第2設定時間、前記第3設定時間、前記第4設定時間のいずれかを可変設定する
上記(3)に記載の画像処理方法。
(13)前記付加情報の種別として、動画撮像時のユーザ操作に応じて付加される付加情報の場合に、前記第1設定時間、又は前記第3設定時間のいずれかを、通常設定時間長より長い時間長に設定する
上記(12)に記載の画像処理方法。
(14)設定された編集範囲の情報に基づいて、編集動画データを生成して出力する出力処理を行う
上記(1)乃至(13)のいずれかに記載の画像処理方法。
(15)前記出力処理では、前記編集動画データを記憶媒体に記憶させる出力処理を行う
上記(14)に記載の画像処理方法。
(16)前記出力処理では、前記編集動画データを外部機器に送信する出力処理を行う
上記(14)又は(15)に記載の画像処理方法。
(17)動画データの時間軸に対応して付加された付加情報を認識する認識部と、
前記認識部が認識した付加情報が、動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、前記動画データの編集範囲を設定する編集処理部と、を備えた
画像処理装置。
(18)動画データの時間軸に対応して付加された付加情報を認識するステップと、
認識した前記付加情報が動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、前記動画データの編集範囲を設定するステップと、
を情報処理装置に実行させるプログラム。
Claims (18)
- 動画データの時間軸に対応して付加された付加情報を認識し、
前記付加情報が動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、前記動画データの編集範囲を設定する
画像処理方法。 - 前記付加情報が前記第1付加情報である場合は、その第1付加情報が指定する特定時点に基づき編集範囲を設定し、
前記付加情報が前記第2付加情報である場合は、その第2付加情報が指定する特定の時間範囲の始点と終点に基づき編集範囲を設定する、
請求項1に記載の画像処理方法。 - 前記第1付加情報に応じて、その特定時点の第1設定時間前の時点から該特定時点の第2設定時間後までの範囲を編集範囲と設定し、
前記第2付加情報に応じて、その時間範囲の始点の第3設定時間前の時点から該時間範囲の終点の第4設定時間後までの範囲を編集範囲とする
請求項2に記載の画像処理方法。 - 設定した編集範囲を、動画データからの切り出し範囲とする
請求項1に記載の画像処理方法。 - 前記動画データについて設定した編集範囲を提示する表示を実行させる表示制御を行う、
請求項1に記載の画像処理方法。 - 前記第1付加情報によって指定される前記動画データ上の特定時点を提示する表示制御を行う
請求項1に記載の画像処理方法。 - 前記第2付加情報が指定する前記動画データ上の特定の時間範囲を、代表時点を示すことで提示する表示制御を行う
請求項1に記載の画像処理方法。 - 設定した編集範囲の情報に基づいて、動画再生表示を実行させる表示制御を行う
請求項1に記載の画像処理方法。 - 設定した編集範囲について、操作に応じて設定変更する編集操作対応処理を行う
請求項1に記載の画像処理方法。 - 設定した編集範囲の画像再生態様を操作に応じて変更する編集操作対応処理を行う
請求項1に記載の画像処理方法。 - 前記第1付加情報又は前記第2付加情報となる付加情報としての複数種類の付加情報の種別を指定することに応じて、指定した種別の付加情報に対応する編集範囲に、所定の画像再生態様を設定する編集操作対応処理を行う
請求項1に記載の画像処理方法。 - 前記動画データの編集範囲を設定する際には、前記第1付加情報又は前記第2付加情報となる付加情報としての複数種類の付加情報の種別に応じて、前記第1設定時間、前記第2設定時間、前記第3設定時間、前記第4設定時間のいずれかを可変設定する
請求項3に記載の画像処理方法。 - 前記付加情報の種別として、動画撮像時のユーザ操作に応じて付加される付加情報の場合に、前記第1設定時間、又は前記第3設定時間のいずれかを、通常設定時間長より長い時間長に設定する
請求項12に記載の画像処理方法。 - 設定された編集範囲の情報に基づいて、編集動画データを生成して出力する出力処理を行う
請求項1に記載の画像処理方法。 - 前記出力処理では、前記編集動画データを記憶媒体に記憶させる出力処理を行う
請求項14に記載の画像処理方法。 - 前記出力処理では、前記編集動画データを外部機器に送信する出力処理を行う
請求項14に記載の画像処理方法。 - 動画データの時間軸に対応して付加された付加情報を認識する認識部と、
前記認識部が認識した付加情報が、動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、前記動画データの編集範囲を設定する編集処理部と、を備えた
画像処理装置。 - 動画データの時間軸に対応して付加された付加情報を認識するステップと、
認識した前記付加情報が動画の時間軸における特定時点を指定する第1付加情報か、動画の時間軸における特定の時間範囲を指定する第2付加情報かに応じて、前記動画データの編集範囲を設定するステップと、
を情報処理装置に実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015162581 | 2015-08-20 | ||
JP2015162581 | 2015-08-20 | ||
PCT/JP2016/065155 WO2017029849A1 (ja) | 2015-08-20 | 2016-05-23 | 画像処理方法、画像処理装置、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017029849A1 true JPWO2017029849A1 (ja) | 2018-06-07 |
JP6844541B2 JP6844541B2 (ja) | 2021-03-17 |
Family
ID=58051731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017535262A Active JP6844541B2 (ja) | 2015-08-20 | 2016-05-23 | 画像処理方法、画像処理装置、プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10607653B2 (ja) |
EP (1) | EP3340613B1 (ja) |
JP (1) | JP6844541B2 (ja) |
KR (1) | KR102478500B1 (ja) |
CN (1) | CN107925741B (ja) |
WO (1) | WO2017029849A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180331842A1 (en) * | 2017-05-15 | 2018-11-15 | Microsoft Technology Licensing, Llc | Generating a transcript to capture activity of a conference session |
US10600420B2 (en) | 2017-05-15 | 2020-03-24 | Microsoft Technology Licensing, Llc | Associating a speaker with reactions in a conference session |
JP6956380B2 (ja) | 2017-11-09 | 2021-11-02 | パナソニックIpマネジメント株式会社 | 情報処理装置 |
EP3770768A4 (en) * | 2018-03-22 | 2021-01-27 | Fujifilm Corporation | RECORDING DEVICE, READING DEVICE, RECORDING METHOD, RECORDING PROGRAM, READING METHOD, READING PROGRAM AND MAGNETIC TAPE |
JP2020144407A (ja) * | 2019-03-04 | 2020-09-10 | コニカミノルタ株式会社 | 画像形成装置 |
CN112348748A (zh) * | 2019-08-09 | 2021-02-09 | 北京字节跳动网络技术有限公司 | 图像特效处理方法、装置、电子设备和计算机可读存储介质 |
CN110992993B (zh) * | 2019-12-17 | 2022-12-09 | Oppo广东移动通信有限公司 | 视频编辑方法、视频编辑装置、终端和可读存储介质 |
CN114866805A (zh) * | 2022-04-25 | 2022-08-05 | 阿里巴巴(中国)有限公司 | 视频处理方法、设备及存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998036566A1 (fr) * | 1997-02-14 | 1998-08-20 | Sony Corporation | Procede et systeme d'edition, enregistreur d'image, dispositif d'edition et support d'enregistrement |
JP4328989B2 (ja) * | 1999-11-24 | 2009-09-09 | ソニー株式会社 | 再生装置、再生方法、並びに記録媒体 |
JP4194272B2 (ja) * | 2001-12-28 | 2008-12-10 | キヤノン株式会社 | 動画像管理装置及び方法 |
JP4580148B2 (ja) * | 2003-03-14 | 2010-11-10 | ソニー株式会社 | 情報処理装置,メタデータ表示方法 |
EP1494237A1 (en) * | 2003-07-01 | 2005-01-05 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for editing a data stream |
JP2006033507A (ja) * | 2004-07-16 | 2006-02-02 | Sony Corp | 遠隔編集システム、主編集装置、遠隔編集装置、編集方法、編集プログラム、及び記憶媒体 |
JP4379409B2 (ja) * | 2005-11-08 | 2009-12-09 | ソニー株式会社 | 撮像装置、および情報処理方法、並びにコンピュータ・プログラム |
JP4445555B2 (ja) * | 2008-02-06 | 2010-04-07 | 株式会社東芝 | コンテンツ編集装置 |
JP5552769B2 (ja) | 2009-07-29 | 2014-07-16 | ソニー株式会社 | 画像編集装置、画像編集方法及びプログラム |
JP2011033870A (ja) * | 2009-08-03 | 2011-02-17 | Sony Corp | 画像処理装置、画像処理方法およびプログラム |
JP2011155329A (ja) * | 2010-01-26 | 2011-08-11 | Nippon Telegr & Teleph Corp <Ntt> | 映像コンテンツ編集装置,映像コンテンツ編集方法および映像コンテンツ編集プログラム |
JP6150320B2 (ja) * | 2011-12-27 | 2017-06-21 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2013239796A (ja) * | 2012-05-11 | 2013-11-28 | Canon Inc | 画像処理装置 |
JP2017107408A (ja) | 2015-12-10 | 2017-06-15 | 日本電気株式会社 | ファイル転送システム、転送制御装置、転送元装置、転送先装置及び転送制御方法 |
US20210311910A1 (en) * | 2018-10-17 | 2021-10-07 | Tinderbox Media Limited | Media production system and method |
-
2016
- 2016-05-23 JP JP2017535262A patent/JP6844541B2/ja active Active
- 2016-05-23 US US15/740,495 patent/US10607653B2/en active Active
- 2016-05-23 WO PCT/JP2016/065155 patent/WO2017029849A1/ja unknown
- 2016-05-23 CN CN201680047926.3A patent/CN107925741B/zh active Active
- 2016-05-23 KR KR1020187004538A patent/KR102478500B1/ko active IP Right Grant
- 2016-05-23 EP EP16836841.3A patent/EP3340613B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3340613B1 (en) | 2024-06-26 |
US10607653B2 (en) | 2020-03-31 |
EP3340613A4 (en) | 2019-04-24 |
CN107925741A (zh) | 2018-04-17 |
US20180190325A1 (en) | 2018-07-05 |
CN107925741B (zh) | 2021-03-16 |
EP3340613A1 (en) | 2018-06-27 |
KR102478500B1 (ko) | 2022-12-15 |
JP6844541B2 (ja) | 2021-03-17 |
WO2017029849A1 (ja) | 2017-02-23 |
KR20180043264A (ko) | 2018-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017029849A1 (ja) | 画像処理方法、画像処理装置、プログラム | |
WO2020015333A1 (zh) | 视频拍摄方法、装置、终端设备及存储介质 | |
US9361010B2 (en) | Imaging device, image processing method, and program thereof | |
JP5326555B2 (ja) | 情報処理装置、動画像切り出し方法および動画像切り出しプログラム | |
JP2011009846A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5701017B2 (ja) | 動画再生装置、動画再生方法、コンピュータプログラム、記憶媒体 | |
KR20160024002A (ko) | 비쥬얼 사운드 이미지를 제공하는 방법 및 이를 구현하는 전자 장치 | |
KR20120068078A (ko) | 영상 처리 장치 및 그의 영상 데이터와 오디오 데이터의 연결 방법 | |
AU2014200042B2 (en) | Method and apparatus for controlling contents in electronic device | |
US10972811B2 (en) | Image processing device and image processing method | |
JP2017027144A (ja) | 情報処理装置及びプログラム | |
US10381042B2 (en) | Method and system for generating multimedia clip | |
JP5831567B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7342087B2 (ja) | 映像作成プログラム | |
JP6632360B2 (ja) | 情報処理装置 | |
JP2018074337A (ja) | 動画処理装置、動画処理方法およびプログラム | |
JP5578262B2 (ja) | 情報処理装置、情報処理方法、撮像装置、及び情報処理システム | |
CN113261302B (zh) | 电子装置 | |
JP7150590B2 (ja) | 電子機器 | |
JP4673916B2 (ja) | 情報処理装置、情報処理方法及び情報処理用プログラム | |
JP2015002417A (ja) | 撮影装置およびその制御方法 | |
KR20160058001A (ko) | 멀티미디어 클립을 생성하는 방법 및 시스템 | |
KR20140089136A (ko) | 카메라를 구비하는 장치의 동영상 처리장치 및 방법 | |
JP2017102588A (ja) | 画像処理装置および画像処理装置の制御方法 | |
JP2006164415A (ja) | 未視聴部分をもとにした情報再生表示装置とその方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190416 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210208 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6844541 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |