JP5451769B2 - 同じイベントの動画及び静止画をこのビデオのグローバル運動ベクトルに基づき合併すること - Google Patents

同じイベントの動画及び静止画をこのビデオのグローバル運動ベクトルに基づき合併すること Download PDF

Info

Publication number
JP5451769B2
JP5451769B2 JP2011536977A JP2011536977A JP5451769B2 JP 5451769 B2 JP5451769 B2 JP 5451769B2 JP 2011536977 A JP2011536977 A JP 2011536977A JP 2011536977 A JP2011536977 A JP 2011536977A JP 5451769 B2 JP5451769 B2 JP 5451769B2
Authority
JP
Japan
Prior art keywords
video
video sequence
camera motion
virtual
insertion position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011536977A
Other languages
English (en)
Other versions
JP2012509635A (ja
Inventor
フランセスコ イー ボナリゴ
マルコ イー カムパネラ
マウロ バルビエリ
ヨハネス ウェダ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012509635A publication Critical patent/JP2012509635A/ja
Application granted granted Critical
Publication of JP5451769B2 publication Critical patent/JP5451769B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ビデオシーケンス内に静止画を一体化する方法に関する。本発明は更に、ビデオシーケンス内に静止画を一体化するデバイス及びコンピュータプログラムに関する。
今日において、より多くの人が、ビデオ及び写真キャプチャリング機能つきのデジタルデバイスを用いて自分たちの経験の音声映像記録をキャプチャしている。音声映像記録に関する技術は、ますます広範囲にわたり、かつ効率的である。今日では、短いビデオシーケンスを記録する能力を持つ光学カメラ、又は組み込み型高解像度写真及びビデオカメラ付き携帯電話を見かけることは、かなり一般的である。これらのデジタルデバイスの入手可能性は浸透しているので、実際、大部分のユーザは、同じイベントの写真及びビデオの両方を記録するか、又はイベントにいた1人又は複数の他人からそれらを受信するのに慣れている。従って、ユーザが同じ出来事、位置及び時間を参照するビデオ及び写真マテリアルを持つことは、かなり一般的である。
個人の音声映像記録を編集及び管理する際にユーザを助ける多くのアイデア及びシステムが与えられてきた。例えば、自動ビデオ編集及び半自動式のホームビデオ編集のためのシステムがある。
ストレージデバイスの容量が絶えず増大することは、ユーザが、多くの写真を撮影し、いかなる選択なしにもそれらを格納することを可能にする。この圧倒的な量のデータは、適当な視覚化ツールがないことと合わさって、ユーザがそれらの記録された思い出をたまにしか見ないことをもたらす場合がある。
ビデオ内に何らかの写真を加えることによりビデオを豊かにするため、フォトセットが利用されることもできる。所与の写真の連続したサブ部分を抽出することにより、いくつかの小さなビデオクリップが、人工的に生成され、ビデオに含まれることができる。基本的な仮定は、ビデオストリームにいくつかの内容関連の写真を加えることにより、結果として生じるビデオが、一つのビデオソースを考慮することよりもユーザにとってずっと有益であるということである。Muvee TechnologiesからのMuvee Reveal AutoProducerは、ビデオに写真を挿入することを可能にする市販ソフトウェアパッケージの例である。写真は、いくつかの仮想カメラ運動を用いてアニメーション化される。このアイデアは、こうすることによって、写真を見ることが、ユーザにとってより楽しい経験になる可能性があるというものである。
ユーザが同じイベントを参照するビデオ及び写真マテリアルの両方を持つことはかなり一般的だが、この情報を共同で利用する試みはほとんど実行されてこなかった。一方、メディア美学的ルールに基づき2つのデータソースを混合するための既知の試みは何ら実行されてこなかった。
従って、ビデオ及び静止画を結合する代替的な方法が有利である。特に、写真及びビデオの組合せが視覚的により魅力的な経験によって強化されたユーザ経験を与えるような方法が有利である。
従って、本発明は、好ましくは、単独で又は任意の組合せにおいて、上述の不利な点の1つ又は複数を緩和、軽減又は除去しようとするものである。特に、本発明の目的は、静止画及びビデオの間の移行の視覚的概観を改善する方法を与えることにある。
この目的及び他の複数の目的は、ビデオシーケンス内に静止画を一体化する方法を提供することにより、本発明の第1の側面において得られ、この方法は、
ビデオシーケンス及び静止画を得るステップと、
合成されたビデオシーケンスを作成するステップとを有し、
上記合成されたビデオシーケンスを作成するステップが、
上記静止画が含まれることになるビデオシーケンスにおける挿入位置での上記ビデオシーケンスにおけるビデオカメラ運動を推定するステップと、
上記静止画のサブフレームの仮想ビデオシーケンスを作成するステップであって、上記仮想ビデオシーケンスが、仮想カメラ運動を持ち、上記仮想ビデオシーケンスの上記仮想カメラ運動が、上記挿入位置での上記ビデオカメラ運動に相関される、ステップと、
上記ビデオシーケンス及び上記仮想ビデオシーケンスを上記合成されたビデオシーケンスに結合するステップとを含む。
ビデオ内の挿入位置でのビデオカメラ運動に相関される仮想カメラ運動を持つ静止画のサブフレームの仮想ビデオシーケンスを作成することにより、ビデオからの写真へのシームレスな移行が得られることができる。単にビデオストリームに静止画像を加えることは、視覚の連続性を妨げることになる。単に任意の仮想カメラ運動を加えることにより写真をアニメーション化することは、不自然で変な効果を生成することになる。ビデオカメラ運動に仮想カメラ運動を相関させることにより、いかなる妨害的な視覚又は音声効果を生み出すことなく、写真が、ビデオストリームにシームレスかつ連続的に溶け込む。
「相関される」という用語は、「関連付けられる」又は「関連する」と同義であり、「仮想カメラ運動が、ビデオカメラ運動に相関される」という用語は、仮想カメラ運動の決定の間ビデオカメラ運動が考慮されること、及び仮想カメラ運動がある程度、ビデオカメラ運動に従うようにされることを表すものとして意味される。1つの例は、仮想カメラ運動がビデオカメラ運動に類似する、又は同じであるようになされることである。
「仮想ビデオシーケンス」という用語は、静止画のサブフレームのシーケンスを表すものとして意味され、各サブフレームが、ビデオシーケンスに含まれる画像の寸法に再スケールされ、このサブフレームのシーケンスは一緒に、可能性として動きのある場面を表す。「仮想カメラ運動」は、例えばクロッピング及び/又は再スケーリングにより、写真の一部から得られるフレームのシーケンスにおけるシミュレーションされたカメラ運動に対応する仮想ビデオシーケンスにおける視覚効果である。仮想カメラ運動のフレームは、「サブフレーム」又は「静止画のサブフレーム」と表される。従って、「サブフレーム」という用語は、静止画の連続的な一部を表すものとして意味される。サブフレームは通常、サブフレーム上でズームインすることに対応して、静止画のピクセル寸法まで内挿される。「挿入位置」という用語は、ビデオシーケンスのフレームの範囲に含まれる位置、即ちタイムリな位置を表すものとして意味される。従って、この用語は、ビデオシーケンスの単一のフレーム内に静止画の一部を挿入することに関連付けられるものではない。
仮想カメラ運動の効果をはっきり見えるようにするため、ビデオとアニメーション化された写真との間のハードカットが設定されることができる。しかしながら、フェージング又はディゾルブ移行が、移行をより滑らかにするために適用されることができる。
この方法の側面によれば、上記仮想ビデオシーケンスの始まりにおける上記仮想カメラ運動が、上記挿入位置の前の上記ビデオシーケンスにおける上記推定されたカメラ運動に相関される。これにより、ビデオシーケンスから静止画のサブフレームの仮想ビデオシーケンスへの円滑な移行が実現される。追加的又は代替的に、上記仮想ビデオシーケンスの終わりにおける上記仮想カメラ運動が、上記挿入位置に対して後続の上記ビデオシーケンスにおける上記推定されたカメラ運動に相関される。これにより、静止画のサブフレームの仮想ビデオシーケンスからビデオシーケンスへの円滑な移行が実現される。
この方法の別の側面によれば、この方法は更に、上記挿入位置を決定するステップを有する。挿入位置の斯かる決定は、同期に基づかれることができる。例えば静止画及びビデオシーケンスと共に格納されるタイムスタンプ情報に基づかれることができる。静止画を取る瞬間の近くの時間点で記録されるビデオセグメントの間にこの静止画が挿入されるよう、挿入位置は有利に決定されることができる。挿入位置は、ビデオシーケンス及び静止画上で特定される類似する対象物に基づかれることもできる。例えばビデオシーケンス及び静止画の両方に発生する観光名所に基づかれることができる。
この方法の更に別の側面によれば、上記決定が、上記ビデオシーケンスをビデオセグメントへとセグメント化するステップと、2つのビデオセグメントの間の位置として上記ビデオシーケンスにおける上記挿入位置を決定するステップとを有する。ビデオセグメントへとビデオシーケンスをセグメント化することは、関連付けられるビデオフレームのセグメントへとビデオシーケンスを分割することになる。ここで、異なるセグメントは、異なる場面、カメラアングル、時間瞬間又はその他に関連する。これにより、仮想ビデオシーケンスが元のビデオシーケンスに含まれる既存の分割の位置に挿入されるという点で、静止画に対応する仮想ビデオシーケンスの挿入は、ビデオシーケンス内に追加の分割を生み出さない。
この方法の更に別の側面によれば、上記写真における1つ又は複数の特定の関心領域が、上記仮想ビデオシーケンスを作成するステップにおいて考慮される。従って、仮想ビデオシーケンスは例えば、静止画に含まれる特定の関心領域の一部のズームインを有することができる。
ビデオカメラ運動の推定は、パン、チルト及び/又はズームを推定するステップを有することができる。しかしながら、他のカメラ運動パラメータが考慮されることもできる。
この方法の別の側面によれば、上記仮想ビデオシーケンスに対して上記静止画のサブフレームを選択するステップを更に有し、上記静止画の上記サブフレームのいずれも、上記サブフレームに適用される上記ズーム係数に関して、上記静止画の境界を越えない。斯かるサブフレームの選択は、静止画の複数のサブフレームに対して、差分ズーム係数の決定及び適用を有することができる。差分ズーム係数は、静止画のズームアウトが静止画の境界を越えることを生じさせる状況において、ズーム係数に加えられることができる補助的なズーム係数である。
本発明は更に、ビデオシーケンスに静止画を一体化するデバイスに関する。最終的に、本発明は、コンピュータプログラムに関し、このコンピュータプログラムは、データ記憶手段を持つ少なくとも1つのコンピュータを有するコンピュータシステムが、本発明によるデバイスを制御することを可能にするよう構成される。
本発明のこの側面は、コンピュータシステムが本発明の方法を実行することを可能にするコンピュータプログラムにより本発明が実現されることができるという点で、特に、しかし排他的にではなく有利である。こうして、例えばビデオカメラデバイスといったいくつかの既知のデバイスが、このデバイスを制御するコンピュータシステムにコンピュータプログラムをインストールすることにより、本発明に基づき作動するよう変更されることができると想定される。斯かるコンピュータプログラムは、例えば磁気ベース又は光学ベースの媒体といった任意の種類のコンピュータ可読媒体上に又は例えばインターネットといったコンピュータベースのネットワークを介して提供されることができる。
本発明の異なる側面は、他のいずれかの側面とそれぞれ組み合わされることができる。本発明のこれらの及び他の態様が、以下に説明される実施形態より明らとなり、これらの実施形態を参照して説明されることになる。
本発明による方法のフローチャートである。 本発明による方法の例の概略的な図である。 図2のビデオ移行合成において実行されるステップの例の概略的な図である。 3つのカメラ運動パラメータのダイアグラムを示す図である。 ズームパラメータ、調整されたズームパラメータ及び調整後結果として生じるズームパラメータのダイアグラムを示す図である。 異なるズーム値に関して許容される変換値を示す図である。
本発明が以下、例示に過ぎないものを用いて、添付の図面を参照して、説明されることになる。
図1は、本発明による方法10のフローチャートである。方法10は、ステップ11で始まり、ステップ12に続く。ステップ12では、ビデオシーケンス及び静止画が得られる。
この方法は、合成されたビデオシーケンスが作成されるステップ13に続く。
ステップ13は、ステップ14〜16を有する。このステップ14は、静止画が含まれることになるビデオシーケンスにおける挿入位置でビデオシーケンスにおけるビデオカメラの運動を推定するステップを有する。カメラ運動の推定は通常、ビデオシーケンスのパン、チルト及びズームパラメータを有する。後続のステップ15において、静止画のサブフレームの仮想ビデオシーケンスが作成される。この場合、仮想ビデオシーケンスは、仮想カメラ運動を持ち、仮想ビデオシーケンスの仮想カメラ運動が、上記挿入位置でのビデオカメラ運動に相関される。その後、ステップ16において、ビデオシーケンス及び仮想ビデオシーケンスは、合成されたビデオシーケンスへと結合される。この方法は、ステップ17で終わる。
図2は、本発明による方法100の例の概略的な図である。この方法100において、入力は、オリジナルビデオ20と、写真セット21からの多くの静止画を含む。ステップ22において、オリジナルビデオにおけるカメラ運動が推定される。カメラ運動は、カメラ運動パラメータを推定することにより推定されることができる。このパラメータは、パン、チルト、及びズームである。しかしながら、更に、以下のカメラ運動パラメータも推定されることもできる。それは、回転、トラッキング、ブーミング及びドーリングである。文書「Real-time video mosaics using Luminance-Projection Correlation」, IEICE Transactions on Information and Systems, Pt.2 (Japanese Edition), vol.J82-D-2; no.10; page.1572-1580 (1999), Akio Nagasaka, Takafumi Miyatakeは、カメラの運動パラメータがどのように推定されることができるかの例を表す。ブロック22は、ビデオと写真との間のコヒーレントな移行を合成するためにその後利用される推定された運動パラメータ25のセットを生じさせる。
ブロック23において、ビデオにおける画像の他の低レベルの特徴が推定される。これは、推定された低レベルの特徴26のセットを生じさせる。斯かる低レベルの特徴は、エッジ検出、コーナー検出、小塊検出、隆起検出、スケール不変の特徴変換の1つ又は複数を有することができる。推定された低レベルの特徴26のセットは、その後、ビデオのセグメント化の間、要約処理の間、及びビデオ移行合成に関する開始及び終了パラメータの決定の過程で使用されることができる。
ブロック28において、推定された運動パラメータ25のセット及び推定された低レベルの特徴26のセットがセグメント化処理において使用される。ここで、オリジナルビデオ20は、ビデオセグメント29のセットへと分割される。
ブロック24において、例えばタイムスタンプ情報を利用することにより、オリジナルビデオ20と写真セット21との間の時間同期が実行される。しかしながら、他の適切な同期方法が使用されることができる。例えば、Yuichiro Takeuchi、Masanori Sugimotoによる「Video Summarization using Personal Photo Libraries」、Proceedings of the 8th ACM international workshop on Multimedia Information Retrieval、October 2006又はAya Aner-Wolf、Lior Wolfによる「Video de-Abstraction or how to save money on your wedding video」、 Proceedings of the 6th IEEE Workshop on Applications of Computer Vision、2002に記載されるような方法である。同期化プロセス24の結果は、同期化されたビデオ及び写真のセット27である。
ブロック30において、要約処理が実行される。そこでは、ビデオサマリを形成するのに適したビデオセグメントが選択される。ビデオセグメントが要約にどれくらい適しているかは、例えば、このセグメントの低レベルの特徴と、そのセグメントに同期化される写真の数とにより決定されることができる。処理30の結果は、ビデオ写真合成セグメントセット31である。
ブロック32において、ビデオと写真との間の移行が合成される。この処理32は、推定された運動パラメータ25、写真セット21から又は同期化された写真セット27からの写真、オリジナルビデオ20から又はビデオ写真合成セグメントセット31からのビデオの一部、及びビデオに写真が挿入される時点に関する情報を用いる。更に、この処理32は、写真における1つ又は複数の関心領域を考慮に入れることができる。この処理32は、図3を参照してより詳細に説明される。処理32の結果は、移行セグメント33のセットである。このセットは、ブロック34におけるオプションの後続の再エンコード処理において使用される。この再エンコード処理34において、ビデオストリームは、合成されたビデオシーケンス35を与えるために、再エンコードされる。このシーケンスは、写真セット21からの写真を用いて強化されるオリジナルビデオ20の一部と、オリジナルビデオと挿入された写真との間の移行とを含むことができる。上述されるように、シーケンスをレンダリングしつつ、すべての処理がリアルタイムに実行されることが想定される点で、再エンコード処理はオプションである。代替的に、最終的なビデオを得るために適用されなければならない変換及び移行の説明が、プレイリスト、マルチメディア・プレゼンテーション説明又はコードの形で格納されることができる。レンダリングの間、適切なプレーヤが、説明を解釈するために構成されることができ、最終的なシーケンスを高速に作ることができる。使用されることができる言語及びプレーヤの例は、Macromedia Flash(登録商標)及びSMIL(標準規格)である。
図3は、図2のビデオ移行合成32で実行されるステップの例の概略的な図を示す。ビデオ合成32は、任意の移行に関連する。即ち2つの静止画の間の移行、静止画からビデオセグメントへの移行又はビデオセグメントから静止画への移行に関連する。ステップ40において、移行が写真からの写真への移行であるかどうか決定するステップが実行される。肯定的である場合、この方法はステップ50に進む。この場合、2つの静止画の間のフェージング効果が実行され、この方法はその後終わる。否定的である場合、この方法はステップ41へと続く。この場合、移行がフェードアウト移行であるかが決定される。即ち、ビデオセグメントからの写真への移行であるか、可能であればビデオセグメントと写真との間のフェージング効果を伴うかどうかが決定される。斯かるフェージング効果は、オプションのステップ46に関連して説明される。この移行が、フェードアウト移行ではないと決定される場合、この方法はステップ42へと続く。そこでは、図2における方法100のステップ22の結果としてブロック25において得られる推定された運動パラメータが再編成される。移行が、1つの静止画から別の静止画への移行でも、ビデオセグメントから静止画への移行でもなければ、それは、静止画からビデオセグメントへの移行でなければならない。斯かる移行は、推定された運動パラメータを反映させ、ビデオセグメントからの静止画への移行としてこの移行を扱うことにより処理されることができる。この方法は、ブロック42からブロック43へと続く。ブロック41での結果が肯定的である場合には、この方法は、ブロック41からブロック43へと続く。
ブロック43において、サブフレームに対する3つの運動パラメータ曲線が算出される。3つの運動パラメータ、即ちパン、チルト、ズームは、写真を囲むビデオセグメントの検出された運動に対応する必要がある。図2に関して言及されるように、仮想カメラ運動は写真における関心領域(図示省略)に依存することもできる。
ブロック43の可能な実現が、図4に関連して説明される。図4において、運動パラメータであるパン、チルト及びズームのダイアグラムの例が示される。X軸に沿った点は、時間順にビデオのフレームを表す。従って、フレームaはフレームbより前である、等となる。図4は、図4のグラフにおける点
Figure 0005451769
から
Figure 0005451769
までの運動値のカスタマイズ可能な間隔が、ビデオフレームに関して同じであるような例を示す。後続のカスタマイズ可能な間隔のフレームにおいて、点
Figure 0005451769
から
Figure 0005451769
まで、線形減少が適用される。後の部分において、点
Figure 0005451769
から
Figure 0005451769
まで、この値は写真が静止する状況に対応する0にセットされる。従って、図4の例は、ビデオフレームに対する推定された運動パラメータが、開始において追従され、滑らかに失速し、最終的に停止される状況に対応する。

Figure 0005451769
でのグラフ値の算出は、各曲線に対して、データの間隔
Figure 0005451769
における値の加重平均により実行されることができる。この算出は、以下の式
Figure 0005451769
を用いて行われる。ここで、xは、運動パラメータ(パン、チルト又はズーム)を表し、nは、b−a+1に等しい。
図3を再度参照すると、この方法はブロック44へと続く。その場合、推定された運動パラメータであるズームに加えられる追加的なズーム係数が決定される。仮想ビデオシーケンスに含まれるサブフレームが、ビデオシーケンスの一部である静止画の境界を超えることがないことを確実にするために、追加的なズーム係数が計算される。例えば、高いズーム係数が静止画の境界の近くにあるサブフレームに適用され、ズームアウトが開始される場合、ズームアウトされたサブフレームのすべての部分に対して十分な情報が存在するわけではない状況が起こりうる。サブ写真フレームに現れる不必要な黒いストライプをもたらすかもしれないこの状況を回避するため、適切なサブ写真フレームを運動パラメータから選択するアルゴリズムが使用される。
サブ写真フレームを合成するために、このアルゴリズムは、それらのフレームのそれぞれに対して中心及び寸法を必要とする。以下の式
Figure 0005451769
は、運動の線形減少が全体の写真の静止画により追従される過去の場合に適用される。ここで、
Figure 0005451769
が成り立つ。
フレームf−1に対する座標パラメータが、フレームfでのそれらの値及びフレームf−1での運動パラメータに完全に依存するので、運動パラメータが写真境界を超えることをもたらすことがないというプリエンプティブな保証は存在しない。万が一これが起こると、サブ写真フレームのこの部分に関して何の情報も合成されることができない。従って、内挿されたサブ写真フレームにいくつかの不必要な黒いストライプが現れることになる。この問題を回避するため、このアルゴリズムは、写真境界が越えられるかどうかを各フレームに対してチェックする。もし越えられる場合、その特定のフレームに対するズーム係数は、再びフィットする寸法になるよう、十分に増加される。
そうすることの利点は、ズーム係数を増加させることにより、サブ写真フレームが写真の限られた部分を表すことになる点にある。こうした状態において、変換の特定の公称値は、より低い絶対値に対応する。例えば、サブ写真がズーム係数1に対応する場合、全体のサブ写真にわたるパンは、サブ写真フレームがその一部である静止画のわずか半分にわたるパンに対応することになる。
以下に、この効果の例が説明される。以前のフレームに対するズーム係数に基づき、(幅1024及び高さ768の)全体の写真を表すサブ写真フレームで始めることにより、許容される変換値、即ち許容されるパン及びチルトは、増加する傾向がある。これは、異なるズーム値に対する許容された変換値を示す図6に示される。
図5は、3つのズームパラメータ、即ち初期ズームパラメータzoom、差分ズームパラメータ及び調整後の結果として生じるズームパラメータzoom'のダイアグラムを示す。ズームパラメータは、点dから点bへと後退方向に算出される。
差分ズームパラメータは、ズームアウトが静止画の境界を越えるサブフレームをもたらす可能性のある任意の状況を回避するために算出及び適用される。
図5は、ゼロとは異なる差分のズームパラメータが決定される状況を示す。点
Figure 0005451769
でのフレームにおいて、差分ズーム係数は、必要なサブフレームが静止画の境界を越える状況を回避するために必要である。これは、点
Figure 0005451769
での頂点として、図5の中間の曲線で示される。しかしながら、算出される差分ズームパラメータは、それが必要とされるフレーム
Figure 0005451769
に分離して加えられるべきではない。なぜなら、この集中された値は、ズーム係数曲線において突然の変化を引き起こすからである。差分ズームパラメータは、図5において、それが必要とされるフレームと最後のフレームとの半分にある点、即ち点
Figure 0005451769
及び点
Figure 0005451769
の半分にある点
Figure 0005451769
におけるズーム係数曲線に適用される。正規分布が、間隔
Figure 0005451769
にわたりズーム量を拡散するために突然の移行が回避されるという態様で用いられる。結果として生じるズーム係数zoom'(図5における下部の曲線)は、ズーム係数(図5における上部の曲線)に差分ズーム係数(図5における中間の曲線)を追加することに対応する。
差分ズーム係数は、それが必要とされるフレームの前に、算出され、ズーム係数に完全に加えられなければならない。点
Figure 0005451769

Figure 0005451769
との間のサブフレームに対して結果として生じるズームパラメータを適用することは、仮想ビデオシーケンスにおいて開示される静止画のサブフレームにおける変化に対応する。点
Figure 0005451769
において、サブフレームは、図5の3つのグラフすべてにおいて同じである。しかしながら、点e、及び、フレーム
Figure 0005451769
とフレーム
Figure 0005451769
との間の点において、このサブフレームは、差分ズームパラメータの適用後は、図5における上の曲線のズームパラメータが適用されたサブフレームとは異なる。
フレーム寸法を算出するアルゴリズムに関する疑似コードの例が、以下の
Figure 0005451769
において挙げられる。
サブフレームが静止画の境界を越えるとき、すべてのサブフレームの寸法及び位置の算出が再開される。一旦この処理が実行されると、各サブフレームの中心及び寸法を含むアレイが利用可能である。写真の各サブフレームに対して、その中心及び寸法が既知となる。従って、サブフレームの各ピクセルに対して、静止画内の対応するピクセルを決定するため、補間方法を適用することが可能である。図3を再度参照すると、この方法は、ブロック45へと続き、そこでは、各サブフレームに対する、中心、幅、及び高さが算出される。この方法は更に、静止画のサブフレームが写真の補間により合成されるブロック46へと続く。
後続の、しかし、オプションのステップ47において、ビデオフレームと静止画のサブフレームとの間でフェージング効果が実行される。ステップ48において、移行がフェードアウト移行であるかどうか、即ちビデオセグメントから写真への移行であるかどうかが決定される。否定的である場合、この方法は、合成された移行に関するフレーム順が反転されるステップ49へと続く。その後この方法は終了する。ステップ48で肯定的である場合も、この方法は終了する。
上述したように、図3における方法32は、図2における方法100の方法ステップ32の例である。方法ステップ32の結果は、合成されたビデオシーケンス35を得るために再エンコードされることができる移行セグメント33のセットである。
本発明は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの任意の組み合わせを含む適切な形式で実現されることができる。本発明又は本発明のいくつかの特徴は、1つ若しくは複数のデータプロセッサ、及び/又はデジタル信号プロセッサ上で実行されるコンピュータソフトウェアとして実現されることができる。本発明の実施形態の要素及び部品は、任意の適切な態様で物理的、機能的及び論理的に実現されることができる。実際、その機能は、単一のユニットで、複数のユニットで、又は他の機能ユニットの一部として実現されることができる。そのようなものとして、本発明は、単一のユニットで実現されることができるか、又は異なるユニット及びプロセッサ間に物理的及び機能的に分散されることができる。
本発明は、特定の実施形態と共に説明されてきたが、本書に記載される特定の形式に限定されることを意図するものではない。むしろ、本発明の範囲は、添付された特許請求の範囲によってのみ限定される。特許請求の範囲において、「有する」という用語は、他の要素又はステップの存在を排除するものではない。更に、個別の特徴が異なる請求項に含まれることができるが、これらは可能であれば有利に結合されることができる。異なる請求項に含まれることは、これらの特徴の組み合わせが、実現できない及び/又は有利でないことを意味するものではない。更に、単数形の参照は、複数性を排除するものではない。従って、「a」「an」「第1」「第2」等への参照は、複数性を除外するものではない。更に、請求項における参照符号は、発明の範囲を限定するものとして解釈されるべきではない。

Claims (5)

  1. ビデオシーケンス内に静止画を追加する方法において、
    同じ出来事、場所及び時間に関するビデオシーケンス及び静止画を得るステップと、
    前記ビデオシーケンスにおける、前記静止画が挿入されるべき挿入位置でのビデオカメラ運動を推定するステップであって、前記挿入位置は、前記ビデオシーケンスの範囲内の時間的な挿入位置である、ステップと、
    前記静止画の部分画像と前記挿入位置での前記ビデオカメラ運動に相関される仮想カメラ運動とを有する仮想ビデオシーケンスを作成するステップであって、前記部分画像は、前記ビデオシーケンス内の画像の寸法に再スケールされる、ステップと、
    前記ビデオシーケンスを複数のビデオセグメントへとセグメント化し、2つのビデオセグメントの間の時間的な位置として前記ビデオシーケンスにおける前記時間的な挿入位置を決定するステップと、
    前記時間的な挿入位置での前記2つのビデオセグメントの時間的な間に前記仮想ビデオシーケンスを含めることにより、合成されたビデオシーケンスを生成するステップとを含む、方法。
  2. 前記仮想ビデオシーケンスの始まりにおける前記仮想カメラ運動が、前記挿入位置の前の前記ビデオシーケンスにおける前記推定されたカメラ運動に相関される、請求項1に記載の方法。
  3. 前記仮想ビデオシーケンスの終わりにおける前記仮想カメラ運動が、前記挿入位置に対して後続の前記ビデオシーケンスにおける前記推定されたカメラ運動に相関される、請求項1又は2に記載の方法。
  4. 前記ビデオカメラ運動の前記推定が、パン、チルト及び/又はズームを推定するステップを有する、請求項1に記載の方法。
  5. ビデオシーケンス内に静止画を追加するデバイスであって、
    同じ出来事、場所及び時間に関するビデオシーケンス及び静止画を得る入力部と、
    合成されたビデオシーケンスを作成する処理手段とを有し、
    前記合成されたビデオシーケンスを作成する処理手段が、
    前記ビデオシーケンスにおける、前記静止画が挿入されるべき挿入位置でのビデオカメラ運動を推定する手段であって、前記挿入位置は、前記ビデオシーケンスの範囲内の時間的な挿入位置である、手段と、
    前記静止画の部分画像と前記挿入位置での前記ビデオカメラ運動に相関される仮想カメラ運動とを有する仮想ビデオシーケンスを作成する手段であって、前記部分画像は、前記ビデオシーケンス内の画像の寸法に再スケールされる、手段と、
    前記ビデオシーケンスを複数のビデオセグメントへとセグメント化し、2つのビデオセグメントの間の時間的な位置として前記ビデオシーケンスにおける前記時間的な挿入位置を決定する手段と、
    前記時間的な挿入位置での前記2つのビデオセグメントの時間的な間に前記仮想ビデオシーケンスを含めることにより、合成されたビデオシーケンスを生成する手段とを含む、デバイス。
JP2011536977A 2008-11-21 2009-11-13 同じイベントの動画及び静止画をこのビデオのグローバル運動ベクトルに基づき合併すること Active JP5451769B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08169593 2008-11-21
EP08169593.4 2008-11-21
PCT/IB2009/055051 WO2010058334A1 (en) 2008-11-21 2009-11-13 Merging of a video and still pictures of the same event, based on global motion vectors of this video

Publications (2)

Publication Number Publication Date
JP2012509635A JP2012509635A (ja) 2012-04-19
JP5451769B2 true JP5451769B2 (ja) 2014-03-26

Family

ID=41571358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011536977A Active JP5451769B2 (ja) 2008-11-21 2009-11-13 同じイベントの動画及び静止画をこのビデオのグローバル運動ベクトルに基づき合併すること

Country Status (6)

Country Link
US (1) US8649660B2 (ja)
EP (1) EP2359368B1 (ja)
JP (1) JP5451769B2 (ja)
KR (1) KR101588031B1 (ja)
CN (1) CN102224545B (ja)
WO (1) WO2010058334A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US8667164B2 (en) * 2010-04-26 2014-03-04 Samsung Electronics Co., Ltd. Method and apparatus for playing live content
US8692940B2 (en) * 2010-12-17 2014-04-08 Kodak Alaris Inc. Method for producing a blended video sequence
US20150350481A1 (en) * 2014-05-27 2015-12-03 Thomson Licensing Methods and systems for media capture and formatting
US20150348587A1 (en) * 2014-05-27 2015-12-03 Thomson Licensing Method and apparatus for weighted media content reduction
US10038657B2 (en) 2014-08-18 2018-07-31 Nightlight Systems Llc Unscripted digital media message generation
US10037185B2 (en) 2014-08-18 2018-07-31 Nightlight Systems Llc Digital media message generation
US9973459B2 (en) 2014-08-18 2018-05-15 Nightlight Systems Llc Digital media message generation
US20160048313A1 (en) 2014-08-18 2016-02-18 KnowMe Systems, Inc. Scripted digital media message generation
US20160226806A1 (en) 2014-08-18 2016-08-04 KnowMe Systems, Inc. Digital media messages and files
US10154196B2 (en) 2015-05-26 2018-12-11 Microsoft Technology Licensing, Llc Adjusting length of living images
KR102650217B1 (ko) 2017-12-07 2024-03-21 삼성전자주식회사 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
WO2024048911A1 (ko) * 2022-08-30 2024-03-07 삼성전자주식회사 비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60183064A (ja) * 1984-03-02 1985-09-18 イ−・アイ・デユポン・ド・ネモア−ス・アンド・コンパニ− コ−テイング装置
US6243171B1 (en) 1994-07-29 2001-06-05 Fuji Photo Film Co., Ltd. Laboratory system, method of controlling operation thereof, playback apparatus and method, film image management method, image data copying system and method of copying image data
US5659323A (en) * 1994-12-21 1997-08-19 Digital Air, Inc. System for producing time-independent virtual camera movement in motion pictures and other media
WO1997042601A1 (en) * 1996-05-06 1997-11-13 Sas Institute, Inc. Integrated interactive multimedia process
AUPO960197A0 (en) 1997-10-03 1997-10-30 Canon Information Systems Research Australia Pty Ltd Multi-media editing method and apparatus
TW482987B (en) 2000-01-03 2002-04-11 Amova Company Automatic media editing system
US6954498B1 (en) 2000-10-24 2005-10-11 Objectvideo, Inc. Interactive video manipulation
WO2002052565A1 (en) * 2000-12-22 2002-07-04 Muvee Technologies Pte Ltd System and method for media production
TW564349B (en) * 2002-02-27 2003-12-01 Acer Labs Inc Method and related apparatus for controlling transmission interface of external device of computer system
SG119229A1 (en) * 2004-07-30 2006-02-28 Agency Science Tech & Res Method and apparatus for insertion of additional content into video
US8520086B2 (en) * 2004-09-08 2013-08-27 Sony Corporation Recording apparatus and method, reproducing apparatus and method, and program
WO2006048875A2 (en) * 2004-11-05 2006-05-11 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for spatio-temporal video warping
JP4573166B2 (ja) * 2005-01-14 2010-11-04 日本ビクター株式会社 情報記録装置、情報再生装置、情報記録方法、及び情報再生方法
WO2008047664A1 (fr) * 2006-10-19 2008-04-24 Panasonic Corporation Dispositif de création d'image et procédé de création d'image

Also Published As

Publication number Publication date
EP2359368B1 (en) 2013-07-10
JP2012509635A (ja) 2012-04-19
CN102224545B (zh) 2016-02-10
KR101588031B1 (ko) 2016-02-12
CN102224545A (zh) 2011-10-19
WO2010058334A1 (en) 2010-05-27
EP2359368A1 (en) 2011-08-24
US20110229111A1 (en) 2011-09-22
US8649660B2 (en) 2014-02-11
KR20110086619A (ko) 2011-07-28

Similar Documents

Publication Publication Date Title
JP5451769B2 (ja) 同じイベントの動画及び静止画をこのビデオのグローバル運動ベクトルに基づき合併すること
Gleicher et al. Re-cinematography: improving the camera dynamics of casual video
Teodosio et al. Salient video stills: Content and context preserved
KR101342232B1 (ko) 다중 비디오 스트림을 오버레이하는 방법 및 장치
US6268864B1 (en) Linking a video and an animation
US8839110B2 (en) Rate conform operation for a media-editing application
US7084875B2 (en) Processing scene objects
US6278466B1 (en) Creating animation from a video
US9412414B2 (en) Spatial conform operation for a media-editing application
Bennett et al. Computational time-lapse video
US20110069224A1 (en) System and method for art-directable retargeting for streaming video
WO2016209438A1 (en) View interpolation for visual storytelling
JP4697221B2 (ja) 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
JP5115799B2 (ja) 画像処理装置および方法、並びにプログラム
US9277169B2 (en) Method for enhancing motion pictures for exhibition at a higher frame rate than that in which they were originally produced
JP5566196B2 (ja) 画像処理装置及びその制御方法
US8054332B2 (en) Advanced input controller for multimedia processing
US20240155095A1 (en) Systems and methods for processing volumetric images
JP4934066B2 (ja) 情報生成装置、情報生成方法及び情報生成プログラム
JP2005033267A (ja) 静止画像の動画変換方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131226

R150 Certificate of patent or registration of utility model

Ref document number: 5451769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250