JP2006148875A - ステップ画像を用いた画像ベースビデオの生成 - Google Patents

ステップ画像を用いた画像ベースビデオの生成 Download PDF

Info

Publication number
JP2006148875A
JP2006148875A JP2005293839A JP2005293839A JP2006148875A JP 2006148875 A JP2006148875 A JP 2006148875A JP 2005293839 A JP2005293839 A JP 2005293839A JP 2005293839 A JP2005293839 A JP 2005293839A JP 2006148875 A JP2006148875 A JP 2006148875A
Authority
JP
Japan
Prior art keywords
image
component
motion
video
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005293839A
Other languages
English (en)
Other versions
JP5068440B2 (ja
Inventor
Dongmei Zhang
チャン ドンメイ
Mehul Y Shah
ワイ.シャウ メフル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006148875A publication Critical patent/JP2006148875A/ja
Application granted granted Critical
Publication of JP5068440B2 publication Critical patent/JP5068440B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】少なくとも1つのステップ画像を使用して動作ベクトルに関連するソース画像の符号化を実行し、格納されるビデオの量を削減するシステムおよび/または方法を提供すること。
【解決手段】ステップ画像コンポーネントは、動作パラメータやコンピュータ環境パラメータなど入力コンポーネントが受信したデータに基づき、滑らかな動作をシミュレートするための最大ステップ画像サイズおよびステップ画像の適切な数を決定する。さらに、ステップ画像コンポーネントは、ズーム動作中のスムーズなビデオ視覚認知を実行する動作制御コンポーネントを使用することができる。また、ステップ画像コンポーネントは、ステップ画像の符号化の専用技術を提供するエンコーダコンポーネントを使用することもできる。さらに、履歴データに基づく人工知能コンポーネントを含むことができる。
【選択図】図7

Description

本発明は一般に、コンピュータシステムに関し、より詳細には動作ベクトルに関連するソース画像の符号化を実行する画像ベースビデオについてのシステムおよび/または方法に関する。
デジタルカメラのサイズおよび価格の低下、ならびに入手性、使用性、および解像度性能が同時に高まったことに基づき、デジタル写真の使用が増大している。メーカ等は、電子装置を携帯し、格納し、使用することに関する消費者需要を満たすために、より小型の電子機器を提供するよう努力を続けている。したがって、デジタル写真は成長を示し、エレクトロニクスおよびソフトウェアの両方にとって有益な市場であることが明らかになった。
ユーザは、デジタル画像の取り込みに際しデジタル写真の圧倒的な利点を体験する。従来のプリント写真では、撮影者はプリントを見るまでに高価なフィルムを現像するまで待たなければならないが、デジタル写真のデジタル画像では、サムネイル画像を使用することおよび/またはデジタルカメラ上のポートを覗くことによって数秒以内に見ることができる。さらに、各画像はユーザの選択に基づいて削除または保管することができ、それによって限られた画像記憶空間の経済的な使用が可能になる。一般に、デジタル写真を用いることで、写真をより有効に活用できるようになる。
さらに、デジタル画像に使用できる編集技術は非常に多く、編集者の想像力によってのみ制限されることになる。例えば、デジタル画像はトリミング、サイズ変更、ぼかし、輪郭強調、コントラスト、輝度、ガンマ、透過、回転、エンボス、テクスチャ、描画ツール(例えば、塗りつぶしまたはペン、円、ボックスの追加)、テキスト挿入などの技術を使用して編集することができる。一方、従来のプリント写真では、現像者が露光時間、ライトの強度、感光紙の種類、様々な光学フィルタなどの現像変数(developing variable)を制御できるに過ぎない。さらに、このような従来のプリント写真技術は高価であるが、デジタル写真ソフトウェアはコンピュータ上でますます一般的なものになってきている。
画像取り込みおよび現像に関するデジタル写真の利点に加えて、デジタル写真では撮った画像を容易に共用することができる。取り込んだ後で、他人と共用される画像に、その画像のストーリ(例えば、言葉によるナレーション)および/または物理的な提示を添付することができる。従来のプリント写真では、共用の選択肢はアルバムに限られており、アルバムは構成、保管、利用性などに関して様々な厄介な問題を伴うものである。さらに、プリント写真を相互に共用するためには、アルバムが物理的に存在していることが必要である。
デジタル写真に関する上記の利点およびプリント写真の従来からの欠点が考慮され、そのような欠点を修正するデジタル画像およびデジタルアルバムが、徐々に従来のプリント写真およびアルバムに取って代わるようになってきた。特に、画像ベースビデオは、デジタル画像を共用するための使い易く有効な技術を提供する。画像ベースビデオとは、静止画像に動作(例えば、パン、ズーム、クロスフェードなど)を加えた画像のスライドショーである。画像ベースビデオを使用する効果は、高解像度画像の細部をテレビ画面および/またはコンピュータモニタ上でより良く見ることができるようにする機能強化された動画ビデオが得られることである。例えば、代表的な3メガピクセルデジタルスチルカメラによって撮影された画像の解像度は約2000×1500ピクセルであるが、代表的なコンピュータモニタの解像度は1024×768ピクセルである。ただし、消費者の高まる需要に伴い、ハイエンドのデジタルスチルカメラはより高い解像度の写真を提供することができる。
画像ベースビデオの情報は、後で再生するために(例えば、生成中および/または生成終了時に)ファイルに格納する必要がある。一記憶技術では、ビデオの各フレームが画像として保管される。しかし、この技術は大量の記憶空間とCPU(例えば、プロセッサ)時間を必要とするものであり、その間に動作に関する情報が失われる可能性がある。他のより効率的な記憶技術では、ある画像についてのソース画像と動作ベクトルが符号化される(例えば、ソース画像は、さらに圧縮するために符号化される)。次に、描画(例えば、再生)時には、各符号化されたソース画像とその画像の符号化された動作ベクトルが復号され、それによって出力ビデオフレームを生成することが可能になる。
画像ベースビデオを生成する場合、大きな動作(例えば、パン、ズーム、クロスフェードなど)によって、表示、解像度、メモリ、および/またはプロセッサ性能などの面で様々な問題が生じる可能性がある。どのようなコンピュータ環境においても、ハードウェアや関連するコンポーネントは限られたものであり、したがって、全体的なユーザの使い勝手にとってきわめて重要なものになる。大きなパンおよび/またはズームでは、ソース画像の内容を高い忠実度で表示できるようにするために、ソース画像のかなりの部分をビデオの形に符号化する必要がある。例えば、高解像度ソース画像のサイズがm×n画素であり、動作が、ソース画像のビューを全体の画像(m×n)からそのソース画像のm/8×n/8の領域に変更するズームであったとする。その後で、最終的に得られるビデオが、p×q画素の解像度で生成されるとする。ただし、m>p>m/8、n>q>n/8であるとする。完全にズームされた場合は、理想的には、m/8×n/8画素サイズの絵の部分が最も高い忠実度で表示される。忠実度を維持するためには、m×n画素の全体の画像を格納しなければならない。
前の例によれば、画像ベースビデオの実行中にいくつかの問題が生ずる。この様な高解像度ソース画像を符号化するとそのソース画像を復号する必要があり、復号には、ユーザとプロセッサの両方の時間が大量に消費される。また復号された後で、復元された画像を適切に格納するためには大量のメモリを必要とする。さらに、ソース画像から生成された各フレームをサイズ変更して描画する間に、プロセッサの使用をリサイズして増大させる必要がある。ソース画像が大きくなればなるほど、サイズ変更の間のCPU使用量は増大する。さらに、代表的なビデオシステムは、毎秒30フレームの割合で表示するので、ソース画像を復号し、各フレームをサイズ変更し描画して表示するために、約33msが許容されることになる。割り振られた33msの間に、システムがフレームを生成し、描画できない場合には、ビデオの動作は途切れ途切れになり鑑賞の楽しみが損なわれてしまう。プロセッサ速度は増大を続けているが、代表的な民生用のプロセッサおよびコンピュータ環境では、ソース画像が高解像度の場合には優に33msを消費してしまう。
上記のことを考慮すると、動作ベクトルに関連するソース画像の符号化を実行する画像ベースビデオに関係するシステムおよび/または方法を改良および/または提供することが必要とされている。
以下では、本発明のいくつかの態様について基本的な理解が得られるように、本発明の簡単な要約を提示する。この要約は、本発明を幅広く概観するものではない。また、本発明の主要なまたは重要な要素を識別することを意図したものでも、本発明の範囲を示すことを意図したものでもない。この要約の唯一の目的は、本発明のいくつかの概念を、後で示されるより詳細な説明の準備として簡単な形で提示することである。
本発明は、少なくとも1つのステップ画像を使用して、画像ベースビデオの格納を実行するシステムおよび/または方法に関する。本発明は、ステップ画像を使用することにより、記憶量および、ズーム、パン、および/またはパンズームなどの大きな動作を生成する画像ベースビデオに割り当てられるメモリを劇的に低減する。ステップ画像を用いて大きな動作を小さな複数の動作に分解することにより、ビデオ中にソース画像の全体を格納するのではなく、ステップ画像だけを格納することが可能になる。
本発明の一実施形態によれば、少なくとも1つのステップ画像を用いて動作ベクトルに関連するソース画像の符号化を実施し、そのステップ画像によりビデオ量の削減をもたらすステップ画像コンポーネントを使用するシステムが提供される。このシステムは、滑らかで大きな動作をシミュレートするために、最大ステップ画像サイズおよびステップ画像の数を決定することができる。ステップ特性(例えば、最大ステップ画像サイズやステップ画像の数)を決定するために、ステップ画像コンポーネントは、入力コンポーネントを使用して動作パラメータ(例えば、ソース画像、パン、ズーム、パンズームなど)およびコンピュータ環境パラメータ(例えば、プロセッサ速度、メモリ容量、ビデオ表示など)を受信する。ステップ特性が決定されると、ステップ画像コンポーネントは、少なくとも一部は受信したパラメータに基づいて、その動作のために必要なステップ画像を生成することができる。
本発明の他の態様では、このシステムは、大きなズーム動作中のビデオ視覚認知の面倒な問題を緩和する動作制御コンポーネントを含む。動作制御コンポーネントは、非線系2次関数を用いて、それぞれズームインおよびズームアウトにおける、加速および/または減速の視覚認知を緩和するための適切な計算値を決定して、視聴者に円滑で一定した動作を提供する。
本発明の他の態様では、エンコーダコンポーネントは、ステップ画像コンポーネントによって生成されたステップ画像の符号化を実行する。エンコーダコンポーネントは、適切な一連のステップ画像を用いてステップ画像の適切な復号を保証し適切なビデオの描画を提供するために、符号化における様々な専用の技術を提供する。例えば、エンコーダコンポーネントは、デコーダが現在のフレームに関してキャッシュすべき適切な画像を決定し、新しい画像が復号された場合にどの画像を捨てるべきかを決定することを支援することができる。本発明の他の態様では、エンコーダコンポーネントは、少なくとも一部は、ソース画像からのビデオフレームの最初の生成に基づいて、順に画像を符号化する。さらに、エンコーダコンポーネントは、新しく符号化されたソース画像についての遷移の方向を設定し、デコーダコンポーネントは、それに従ってソース画像を復号することができる。
以下の説明および添付の図面は、本発明のいくつかの例示的な態様を詳細に説明したものである。しかし、これらの態様は、本発明の原理を使用することができる様々な方法のほんの一部を示したに過ぎない。したがって本発明は、その様な態様およびその均等物のすべてを含むことを意図するものである。本発明の他の利点および新規の特徴については、以下の本発明についての詳細な説明を図面と併せて考慮した場合に明らかになるであろう。
本発明は図面を参照しながら説明されるが、全図面を通し、類似の要素は類似の参照番号を使用して参照される。以下の記述では、本発明を十分に理解できるように、説明の目的で多くの個々の詳細について説明している。しかし、本発明がこれら個々の詳細がなくても実施できることは明らかであろう。他の例では、本発明の説明を容易にするために周知の構造および装置は構成図の形で示されている。
本出願で使用される「コンポーネント」、「システム」等の用語は、ハードウェア、(例えば、実行中の)ソフトウェア、および/またはファームウェアのいずれにおいても、コンピュータに関連するエンティティを意味することを意図している。例えば、コンポーネントは、プロセッサ上で動作中のプロセス、プロセッサ、オブジェクト、実行ファイル、プログラム、および/またはコンピュータなどであってもよい。例として、サーバ上で動作中のアプリケーションおよびサーバは、どちらもコンポーネントであり得る。1つのプロセスの中に1つまたは複数のコンポーネントを常駐させることができる。また、1つのコンポーネントを、1つのコンピュータ上に配置することおよび/または複数のコンピュータ間に分散させることもできる。
本明細書で説明するように、人工知能ベースのシステム(例えば、明示的および/または暗黙的にトレーニングされた分類子など)を、推論および/または確率的な決定および/または統計ベースの決定を実行することと併せて使用することができる。本明細書では、一般に「推論」という用語は、イベントおよび/またはデータによって取り込まれた一組の観察から、システム、環境、および/またはユーザの状態を推理または推論するプロセスを意味する。例えば推論を使用して、特定のコンテクストまたはアクションを識別することができ、あるいは状態についての確率分布を生成することもできる。推論は確率的であってもよい。すなわち、データおよびイベントの考慮に基づいた、対象の状態についての確率分布の計算であってもよい。また推論は、一組のイベントおよび/またはデータから上位レベルのイベントを構成するために使用される技術を意味する場合もある。この様な推論は、各イベントが相互に時間的にきわめて接近した関係にあるか否か、またイベントおよびデータが1つまたは複数のイベントおよびデータソースから生じたものかどうかにかかわらず、一組の観察されたイベントおよび/または格納されたイベントデータから新しいイベントまたはアクションを構築するものである。様々な分類スキームおよび/またはシステム(例えば、サポートベクトルマシン、ニューラルネットワーク、ベイジアン信頼ネットワーク、ファジー論理、データ統合エンジンなど)は、本発明に関連する自動および/または推論アクションの実行と併せて使用することができる。
次に各図を参照する。図1には、少なくとも1つのステップ画像を用いて動作ベクトルに関連するソース画像の符号化を実行し、そのステップ画像によりビデオ量の削減をもたらすステップ画像コンポーネント110を含むシステム100が示されている。ステップ画像コンポーネント110は、最大ステップ画像サイズおよびステップ画像の適切な数を決定して、入力コンポーネント120の受信データに基づき、滑らかな動作をシミュレートする。例えば、データは動作パラメータやコンピュータ環境パラメータのこともある。入力コンポーネント120は、これに限られるものではないが、(例えば、ズーム、パン、パンズームなどの)動作要求、(例えば、コンピュータモニタ、テレビ画面、携帯情報端末(PDA)などの)ビデオ表示装置、(例えば、プロセッサ速度、メモリ、ハードディスクドライブ空間、ビデオカード、マザーボード、バス速度などの)コンピュータ環境特性、および/または(例えば、画像ベースビデオで使用される)ソース画像などのパラメータを受信する。ステップ画像を使用することによって、ステップ画像コンポーネント110は、これに限られるものではないが、ズーム、パン、またはパンズームなどの大きな動作を生成する画像ベースビデオのための記憶装置およびメモリの量を大幅に削減する。
例えば、ステップ画像の最大ステップ画像サイズを決定する1つの方法は閾値を決めることである。画像ベースビデオの再生の間に、コンピュータ環境は、限られた時間でビデオの各フレームを復号し、生成し、描画しなければならない。一般に、時間は1/フレームレートで計算され(この場合、ビデオは毎秒30フレーム速度で再生されるので)、ステップ画像を復号し、フレームを描画するのに約33msが与えられることになる。少なくとも一部はCPU(例えば、プロセッサ)性能およびフレームレートに基づいて、CPU(例えば、プロセッサ)が画像を復号しビデオフレームを描画するのに十分な時間を有するようにステップ画像の最大ステップ画像サイズを決定することができる。さらに、少なくとも一部は、そのステップ画像の最大ステップ画像サイズおよびソース画像中の全体のパン/ズーム動作に基づいて、ステップ画像の数を計算することができる。
さらに、ステップ画像コンポーネント110は、少なくとも一部は所望の動作(例えば、ズーム、パン、パンズームなど)、CPU性能、出力ビデオ解像度、およびフレームレートに基づいて決定された最大ステップ画像サイズとステップ画像の数を使用してステップ画像を生成することができる。ステップ画像コンポーネント110は、ステップ画像を使用して、動作のためのより小さな画像のセットを用いたソース画像を表示する。さらに、ステップ画像コンポーネント110は、より小さな画像(例えば、ステップ画像)の各々が、ビデオ中の動作部分のソース画像になり、またその動作の部分のビデオを生成するために使用されるように各ステップ画像を生成する。ステップ画像コンポーネント110は、元の画像よりも小さい個々のステップ画像を生成し、ステップ画像内の動作は相応してより小さくなるので、メモリおよびプロセッサ性能が損なわれることがなくなる。
例えば、ズーム動作は、フルのソース画像で始まり、そのソース画像の中心の矩形領域にズームするソース画像に基づいて起動することができる。ズームは、開始位置がフル画像で、終了位置がソース画像の中心の矩形になるような、開始位置(R1)と終了位置(R2)で起動することができる。動作は、開始位置(R1)と終了位置(R2)から、いくつかのステップに分解することができる。最大ステップ画像サイズおよびステップ画像の数が決定された後で、ステップ画像コンポーネントは各ステップ画像を生成することができる。この例として、動作を2つのステップに分解することができる。第1のステップはR1からRiへの動作であり、第2のステップはRiからR2への動作である(この場合、RiはR1とR2の間にある中間矩形であり、その位置は少なくとも一部はビデオ中のフレームの枚数に基づいて決まる)。
前の例を続けると、動作の第1のステップ(例えば、R1からRi)を用いて、生成されるビデオの解像度とほぼ同一の(またはそれより小さい)解像度をRiが有するように、フル画像をより小さなサイズに縮小することができる。この縮小画像を、ステップ画像1と呼ぶことにする。ステップ画像1を用いることにより、ビデオ品質を損なうことなく、R1からRiへの動作に対するビデオフレームを生成することができる。同様に、動作の第2のステップ(例えば、RiからR2)によって第2のステップ画像を生成することができる。RiからR2への動作中は、矩形Riの外側にある画像の部分は、ビデオフレームを生成するためにはまったく必要ない。したがって、Riで示される画像の部分だけが格納される。さらに、格納される画像は、生成されるビデオの解像度とほぼ同一またはそれより小さい解像度を矩形R2が有するように縮小することができる。Riの縮小された部分の画像をステップ画像2と呼ぶことにする。ステップ画像2を使用して、ビデオ品質を損なうことなく、RiからR2への動作のビデオフレームを生成することができる。上記の例では、ステップ画像1はフル画像と同一の画像である必要はない。なぜならば、動作開始のR1は、フル画像のより小さな部分のことがあり得るからであり、また部分R1をある程度まで縮小し、部分Riが出力ビデオと同一またはそれより小さい解像度を有するようにできるからである。さらに、ステップ画像2は矩形部分Riと同一である必要はない。言い換えると、ソース画像を縮小して画像フレームを生成し、その様なステップ画像を生成する場合にルールを適用することになる。
図2には、ステップ画像コンポーネント110の代わりに、画像ベースビデオに関する従来技術を使用する画像ベースビデオシステム200が示されている。ソース画像210は、X軸212およびY軸214上に位置するように示されている。画像ベースビデオから指令された動作は、開始矩形位置216から終了矩形位置218に向けて示されている。言い換えると、画像ベースビデオは、従来のスライドショーではなく、ソース画像210を横切ってパンすることによってビデオのイリュージョンを生成する。開始矩形位置216から終了矩形位置218への動作は、例えば、高さ222および幅224を有するビデオビューポートを用いて表示することができる。ビデオポートは、例えば、コンピュータモニタ、テレビ画面、携帯情報端末(PDA)などであってもよい。
座標系は画像座標を使用して定義されており、ソース画像210内の矩形(R)は次式で表すことができる。
v=[x0,y0,w,h]
上式で、x0およびy0は、ソース画像210の左上隅についてのX軸212およびY軸214の座標である。さらに、変数wおよびhはソース画像210内の矩形(R)の幅および高さを表す。この記法を用いると、矩形(R)の位置とサイズは次式のように表すことができる。
=[x0,y0,w,h
=[x0,y0,w,h
開始矩形位置216から終了矩形位置218への動作の間に、毎秒fフレームのビデオフレームレートでの継続時間は時間d秒で表すことができる。動作のためのビデオフレーム数は、n=f×dである。従来のビデオと異なり、画像ベースビデオはソース画像だけを符号化すればよい。ビデオの各フレームは、開始矩形位置216から終了矩形位置218までの位置およびサイズで定義される。画像210内の、フレームiに関係する矩形の位置およびサイズは次式で計算できる。
Figure 2006148875
開始動作および終了動作は全体のソース画像210を含まないこともあるので、符号化すべき画像はフルソース画像210でない場合もあるが、開始位置矩形216と終了位置矩形218の和集合226は符号化され格納される。全体の和集合画像が格納されることを理解されたい。さらに、符号化する画像は、少なくとも一部はビデオサイズ、および開始矩形位置216から終了矩形位置218への動作の最小サイズに基づき、忠実度を失うことなく縮小される。
システム200は、開始矩形位置216から終了矩形位置218への動作が大きな比率になる場合は、性能目標を達成することができなくなる。例えば、ソース画像を2560×1920画素(例えば、代表的な5メガピクセルデジタル画像)とする。動作がフルソース画像から始まりソース画像中央の320×240矩形へのズームであり、320×240サイズのビデオが使用される場合は、フル画像サイズである2560×1920を符号化しなければならない。したがって、画像を復号し、ソース画像の適切なサイズ変更によってサイズ320×240のビデオフレームを生成するためには、大量の時間およびCPU(例えば、プロセッサ)時間が必要になる。
次に、図3を参照すると、少なくとも1つのステップ画像を用いて動作ベクトルに関連するソース画像の符号化を実行し、そのステップ画像によりビデオ量の削減をもたらすステップ画像コンポーネント310を含むシステム300が提供される。入力コンポーネント312は、動作パラメータおよび/またはコンピュータ環境パラメータなどのデータを受信し、ステップ画像コンポーネント310はステップ画像を生成する。ステップ画像コンポーネント310はさらに、アナライザコンポーネント314を含む。アナライザコンポーネント314は、ソース画像を符号化するために使用されるステップ画像の最大ステップ画像サイズとステップ画像の数を決定する。本発明の一態様では、アナライザコンポーネント314は、少なくとも一部はCPU(例えば、プロセッサ)性能およびフレームレートに基づき、ステップ画像を復号しビデオフレームを描画するための十分なCPU(例えば、プロセッサ)処理時間が存在するように、最大ステップ画像サイズの閾値を定義することができる。最大ステップ画像サイズは閾値として定義することができるが、本発明はその様な手法に制限されるものではない。正確に言えば、アナライザコンポーネント314は、復号しユーザに円滑な動作を描画するための十分な時間がCPU(例えば、プロセッサ)に対して割り振られるように最大ステップ画像サイズを決定する。
さらに、アナライザコンポーネント314は、一部は最大ステップ画像サイズに基づいてステップ画像の数を計算する。例えば、ステップ画像の数は、画像フレームのアスペクト比をビデオのアスペクト比とほぼ同一になるように定義することによって計算することができる。アナライザコンポーネント314は、最大ステップ画像サイズ
Figure 2006148875
のズーム動作に関するステップファクタ(s)を次式のように定義することができる。
Figure 2006148875
上式で、
Figure 2006148875
はステップ画像の最大幅であり、wはビデオ幅である。同様に、アナライザコンポーネント314は、パン動作に関するステップファクタ(s)を次式のように計算することができる。
Figure 2006148875
ステップファクタの計算に際し、アナライザコンポーネント314は、ビデオサイズに対するステップ画像の数を決定する。アナライザコンポーネント314は、動作矩形R1から動作矩形R2へのズームアウト動作に対するステップ画像の数nを次式で計算することができる。
Figure 2006148875
上式で、
Figure 2006148875
および
Figure 2006148875
は、それぞれ動作矩形R1およびR2の幅を定める。さらに、アナライザコンポーネント314は、開始と終了の動作矩形を入れ替えることによって、ズームインを次式によって同様に処理する。
Figure 2006148875
動作が矩形R1から矩形R2への水平パンの場合は、アナライザコンポーネント314は、ステップ画像の数nを次式のように計算する。
Figure 2006148875
R1およびXR2はそれぞれ、R1およびR2の左上隅のX座標を表す。同様に、R1およびR2の左上隅のY座標は、パン動作が垂直方向の場合に、アナライザコンポーネント314によって次式の形で使用される。
Figure 2006148875
さらに、アナライザコンポーネント314は、動作がズームとパンの両方の場合のステップ画像の数nを、次式を使用して決定することができる。
n=max(n,n
ステップ画像の最大ステップ画像サイズと動作に対するステップの数がアナライザコンポーネント314によって決定された後で、ステップ画像生成コンポーネント316は動作に関するステップ画像を生成する。言い換えると、ある動作(例えば、ズーム、パン、またはパンズーム)についての、決定された数のステップ画像が生成される。ステップ画像生成コンポーネント316は、ソース画像の主要な部分と対応する動作ベクトルを格納するのではなく、ステップ画像を用いて大きな動作をいくつかのより小さな動作に分解し、分解した小さな動作をビデオに格納する。
本発明の一態様では、ステップ画像生成コンポーネント316は、関連するステップ内の開始および終了動作矩形を定め、和集合矩形を取得し、和集合矩形を縮小し、縮小された和集合矩形の開始および終了動作矩形を計算してステップ画像を生成することができる。丸め誤差によって引き起こされる厄介な問題を避けるために、ステップ画像生成コンポーネント316が倍精度浮動小数点を使用していることを理解されたい。例えば、ステップ画像生成コンポーネント316は、関連するステップにおけるビデオの最初のフレームを生成するために使用される画像の一部などを定義するRisを計算する。同様に、ステップ画像生成コンポーネント316は、関連するステップのビデオの最終フレームを生成するために使用される画像の一部などを定義するRieを計算する。次に、ステップ画像生成コンポーネント316は和集合矩形を提供し、それを忠実度に影響が出ないように縮小する。縮小ファクタは、ステップ画像生成コンポーネント316によって、例えば次式によって決定することができる。
f=min(WRis,WRie)/Wvideo
上式で、WRisは開始動作矩形Risの幅、WRieは終了動作矩形Rieの幅、またWvideoは表示されるビデオの幅である。ステップ画像生成コンポーネント316は、各ステップごとに、ソース画像から抽出されたRisおよびRieからなる和集合領域にこの縮小ファクタを適用することができる。和集合領域に適用される縮小ファクタが、最も近い整数値に切り上げられることを理解されたい。和集合矩形が縮小された後で、ステップ画像生成コンポーネント316は、縮小ステップ画像内の開始および終了動作矩形を計算する。ステップ画像生成コンポーネント316は、例えば、アナライザコンポーネント314によって決定されたステップ画像の数に基づき、ステップ画像を生成するためにこの処理を繰り返すことができる。
図4を参照すると、少なくとも1つのステップ画像を使用して動作ベクトルに関連するソース画像の符号化を実行し、このステップ画像により格納するビデオの量を削減するシステム400が示されている。ステップ画像コンポーネント410は、ステップ画像のサイズおよび数を決定し、入力コンポーネント412に基づいてステップ画像を生成する。入力コンポーネント412は、これに限られるものではないが、動作(例えば、パン、ズーム、パンズームなど)特性およびコンピュータ環境特性などを受信することができる。システム400はさらに、画像ベースビデオ内の大きなズーム動作および/または大きなパンズーム動作中のビデオ視覚認知を緩和する動作制御コンポーネント414を含む。従来のシステムは、大きな動作に関して加速および減速のビデオ認知に一部基づいており、問題が生じる可能性がある。例えば、ソース画像からそのソース画像内の小さな矩形領域へのズームインでは、動作は、緩やかに始まり終了に向けて加速するように知覚される。他の例では、4000×3000画素サイズの矩形から400×300画素サイズの矩形へのズームイン動作が示されている。ビデオの100フレームの期間にわたって行われる線形動作に基づけば、矩形の幅は(4000−400)/100=36画素の単位で減少する。これに対して、矩形の高さは(3000−300)/100=27の単位で減少する。ズームインの開始時に、4000×3000画素のビデオサイズを見ている場合は、36×27画素の動作は比較的遅く見える。各フレームごとに、画像の36/4000*100=0.9%だけが縮小されることになり、ユーザには表示上緩やかにズームする動作に感じられることになる。しかし、ズームインの最後に、約480×360画素サイズのビデオの部分を見ている場合には、36×27画素の動作は比較的大きなものに見える。ズームインの最後の各フレームについては、画像の36/480*100=7.5%が縮小されることになり、ユーザには表示上でより緩やかにズームする動作に感じられることになる。
動作制御コンポーネント414は非線系動作を使用して上記の動作認知を緩和する。従来のシステムでは、次式のように、各後続のフレームに対する動作の差分を定める線形動作が使用されている。
Figure 2006148875
動作制御コンポーネント414は、大きなズーム動作の間に、一定でない絶対動作速度を使用して滑らかな動作の認知を実現する。例えば、動作制御コンポーネント414は、最初は速い速度でスタートし、時間と共にズームイン動作を減速させる絶対動作速度を使用する。逆に、ズームアウト動作では、動作制御コンポーネント414は、最初は低速で、時間と共に速度が増大するように絶対動作速度を調整する必要がある。
本発明の一態様においては、動作制御コンポーネント414は、計算された動作速度を、次式のように時間の2次関数として制御する。
W=a(t−b)+c
上式で、Wは動作中の時間tにおける動作矩形Rの幅であり、a、b、およびcは定数である。上式を時間に関して微分することによって、動作の速度であるW’および動作の加速度であるW”は、それぞれ次式のように計算される。
W’=2a(t−b)
W”=2a
上式を用いると、動作の速度W’は時間と共に線形に変化し、動作の加速度W”は一定である。これにより、滑らかな動作の視覚認知が与えられる。
さらに、(動作矩形Rの幅である)Wに関する上式は、図5に示したグラフによって表すことができる。この図から動作制御装置414は定数a、b、およびcを計算する。動作矩形が時間0から時間Tまでズームインする(例えば、動作矩形の幅が時間0のW1から時間TのW2まで減少する)場合、この関数に従う曲線上の2点は、座標(0,W1)、(T,W2)を有する。曲線上の第3の点が見つかると、動作制御コンポーネント414はパラメータa、b、およびcを一意に決定できる。その際、動作制御コンポーネント414は、図5に示したように点(To,Wo)を使用する。この点では速度は0であり、ToはTの係数倍と想定することができる。例えば、To=1.25Tとすると、動作制御コンポーネント414は曲線上の3点に基づいてズームイン動作を計算できるようになる。
次に、図6を参照すると、システム600には、ステップ画像を使用して動作ベクトルに関連するソース画像の符号化を実行し、このステップ画像を使用することにより格納されるビデオの量を削減するステップ画像コンポーネント610が示されている。ステップ画像コンポーネント610は、データを受信する入力コンポーネント612に基づいて、ソース画像からステップ画像を生成する。受信されるデータは、例えば、これらに限られるものではないが、動作パラメータおよび/またはコンピュータ環境パラメータである。ステップ画像コンポーネント610は、少なくとも一部はこの動作パラメータおよび/またはコンピュータ環境パラメータに基づいてステップ画像の数およびサイズを決定し、その様なステップ画像を生成する。
システム600はさらに、ステップ画像コンポーネント610によって生成されたステップ画像の符号化を実行するエンコーダコンポーネント614を含む。従来の符号化技術はこのステップ画像コンポーネントには適さない。例えば、画像ベースビデオの表示には、ソース画像および動作情報を復号するデコーダが必要になる。一般に、従来のデコーダは2つのバッファを維持する。第1のバッファは現在のソース画像フレームに使用され第2のバッファは以前に使用されたソース画像フレームに使用される。例えばクロスフェードなど、フレーム間に適用される何らかの遷移が存在する場合には、これら2つの画像バッファを使用して遷移を適用することができる。バッファ中に2つの画像を維持することによって、デコーダは、各々パンおよび/またはズーム動作を有する連続する画像間の遷移を生成することができる。この例を続けると、ソース画像I、I、I、I、...、Iを、符号化されるソース画像とする。従来技術を使用すると、各画像はビデオに表示される順序と同じ順序で符号化される。
しかし、ステップ画像コンポーネント610を使用すると、エンコーダコンポーネント614とデコーダコンポーネント616は、各ステップ画像に対して特別な考慮を実施することができる。例えば、以下に示すように、ステップ画像
Figure 2006148875
は画像Iのステップ画像であり、
Figure 2006148875
はIのステップ画像である。
Figure 2006148875
ここで、T、T、Tはそれぞれ、画像IとI、IとI、IとI間の遷移である。
本発明の一態様では、エンコーダコンポーネント614は、2つの画像ペア
Figure 2006148875
Figure 2006148875
の間の3つの画像を含む遷移Tを使用する。前述のように、従来のデコーダは2つの画像バッファを維持する。したがって、
Figure 2006148875
が復号される場合には、I
Figure 2006148875
のどちらかが捨てられる。エンコーダコンポーネント614は、少なくとも一部はステップ画像Iおよび(ステップ画像コンポーネント610によって生成された)
Figure 2006148875
によって生成される後続の出力ビデオフレームに基づいて
Figure 2006148875
を捨てるものとする。従来の符号化/複合化スキームでは、デコーダはメモリ
Figure 2006148875
および
Figure 2006148875
中に最後の2つの復号された画像だけが維持される。この様な場合に、エンコーダコンポーネント614を用いると、現在のフレームでデコーダがキャッシュすべき適切な画像、および新しい画像を復号する場合にどの画像を捨てるべきかを決定できることを理解されたい。
本発明の他の態様では、エンコーダコンポーネント614は遷移Tを使用する。遷移Tは3つの画像
Figure 2006148875
Figure 2006148875
およびIを含む。順序は、
Figure 2006148875
Figure 2006148875
、Iではなく、
Figure 2006148875
、I
Figure 2006148875
として、エンコーダコンポーネント614によって符号化される。エンコーダコンポーネント614は、少なくとも一部はビデオフレームの最初の生成に基づいてソース画像
Figure 2006148875
とIからこの順序で画像を符号化し、それに従って遷移Tを生成する。したがって、遷移のためのビデオフレームは、最初にソース画像
Figure 2006148875
とIから、その後ソース画像I
Figure 2006148875
から生成され、それに従ってエンコーダコンポーネント614は、適切な再生のための画像の順序づけを正しく決定する。
さらに、エンコーダコンポーネント614は遷移の方向を新しく符号化されたソース画像に向けて設定し、デコーダコンポーネント616はそれに従ってソース画像を復号する。上の例を続けると、Iが新しく復号される画像の場合は、遷移の方向は
Figure 2006148875
からIである。しかし、
Figure 2006148875
が新しく復号される画像の場合は、方向は
Figure 2006148875
からIとなる。
図7には、画像ベースビデオにおける、ステップ画像コンポーネント710を含むシステム700が示されている。ステップ画像コンポーネント710は、少なくとも一部はデータを受信する入力コンポーネント712に基づき、ステップ画像を使用してビデオの格納を実行する。データは、例えば、動作パラメータやコンピュータ環境パラメータなどである。例えば、動作パラメータは、パン、ズーム、パンズーム、および/または画像ベースビデオでユーザによって使用されるソース画像などである。さらに、コンピュータ環境パラメータは、例えば、プロセッサ速度、メモリ容量、表示装置、アプリケーションのバージョンなどである。システム700はさらに、人工知能コンポーネント714を含む。人工知能コンポーネント714は、少なくとも一部は履歴データコンポーネント716に基づいて、ステップ画像コンポーネント710によって使用される最大ステップ画像サイズおよび/またはステップ画像の数を推論する。本発明の一態様では、履歴データコンポーネント716は、ユーザプロファイル、ソース画像、動作などを提供する。
例えば、人工知能コンポーネント714は、指定されたユーザによる動作要求についての最大ステップ画像サイズおよびステップの数を用いるために、そのユーザのユーザプロファイルを使用する。人工知能コンポーネントは、履歴データコンポーネント716に基づいて、最大ステップ画像サイズおよびステップの数を推論することができる。ユーザプロファイルは特定のユーザに合わせ込むことができ、過去の特性(例えば、プロセッサ速度、メモリ容量、表示装置、ソース画像サイズ、特定のソース画像、動作要求など)に基づいて最適化された、ユーザプロファイル中のステップ特性(例えば、最大ステップサイズ、ステップ画像の数など)を使用することができる。さらに、履歴データコンポーネント716は、ユーザの履歴に基づいて、ステップ画像コンポーネント710に以前の最大ステップ画像サイズおよびステップの数を提供することができる。
図8〜10は、本発明による方法を示すものである。説明を簡単にするために、これらの方法を一連の動作として図示し説明する。本発明が、例示した動作および/または動作の順序に制限されるものではないことを理解し認識されたい。例えば、各動作は様々な順序および/または同時に実行することができ、また本明細書には提示も説明もされていない他の動作と共に実行することもできる。さらに、本発明による方法を実施するために、必ずしも図示の動作のすべてを必要とするわけでもない。さらに当業者ならば、別法として、本方法が状態線図またはイベントを用いた一連の相互に関連付けられた状態として表現できることを理解し認識されたい。
図8は、ソース画像に少なくとも1つのステップ画像を使用することによって、画像ベースビデオにおけるビデオの格納を実行する方法800を示す。810で、ソース画像および動作要求が受信される。動作要求は、例えば、これに限られるものではないが、画像ベースビデオ内でのパン、ズーム、および/またはパンズームなどである。さらに、ソース画像は、例えば、ユーザが画像ベースビデオを適用したいと思う画像のことである。820で、ステップ特性が決定される。例えば、ステップ特性は、所与のソース画像に対する最大ステップ画像サイズおよびステップ画像の数である。本発明の一態様では、最大ステップ画像サイズは閾値として定義できる。また、ステップ画像の数は、ズームとパンのどちらについても上述の式によって決定することができる。さらに、ステップ特性は、動作パラメータおよび/またはコンピュータ環境パラメータの少なくとも一方によって決定できることを理解されたい。例えば、動作パラメータはソース画像上のズームおよび/またはパンなどのことであり、コンピュータ環境パラメータは、プロセッサ速度および/またはメモリ容量などのことである。次に、830で、最大ステップ画像サイズ、および/またはステップの数、および/またはユーザによって要求された動作に基づいてステップ画像が生成される。ステップ画像が生成された後で、ステップ840で方法800はさらに生成すべきステップ画像があるかどうかを判定する。さらに生成すべきステップ画像が存在する場合は、この方法は830に続く。さらに生成すべきステップ画像がない場合は、すべてのステップ画像が生成されたことになり、それらのステップ画像を符号化プロセスで使用することができる。
図9は、符号化のためのソース画像に少なくとも1つのステップ画像を使用して画像ベースビデオにおけるビデオの格納を実行する方法900を示す。902で、ユーザによる動作要求が分析される。動作要求は、例えば、画像ベースビデオの生成または修正におけるズーム、パン、および/またはパンズームのことである。さらに、動作要求の分析の間に、関係するあらゆる特性およびソース画像についてのデータを蓄積することができる。次に、904で、最大ステップ画像サイズおよびステップ画像の数を決定することができる。904での決定は、これに限られるものではないが、少なくとも一部は、動作要求、ソース画像特性、および/またはコンピュータ環境パラメータに基づいて実行することができる。コンピュータ環境パラメータは、例えば、プロセッサ速度、メモリ容量、表示装置、フレームレート、指定された解像度などのことである。
906で、方法900はステップ画像の生成を開始する。開始および終了動作矩形の計算は、ある動作についてのステップ画像の数の各々に対して計算される。次に、908で、開始および終了動作矩形の和集合が計算される。910で、出力ビデオ解像度に対して、ステップ画像の忠実度が低下しないようにスケールファクタが計算される。次に912で、抽出された和集合領域にそのスケールファクタが適用される。912の計算結果が、精度を失わないように最も近い整数値に切り上げられることを理解されたい。次に914で、縮小された画像内の開始および終了動作矩形が計算され、その結果そのステップ画像に関する適切な動作が使用できるようになる。916で、ステップ画像を生成すべきステップがさらに存在する場合は、方法は906に続く。存在しない場合は、それ以上ステップ画像は生成されない。
図10には、大きなズームおよび少なくとも1つのステップ画像を使用する場合の、動作および符号化に伴う困難な問題を緩和する方法1000が示されている。ステップ1002で、ステップ特性が決定される。例えば、最大ステップ画像サイズやステップ画像の数などのステップ特性を、プロセッサ速度、メモリ容量、ビデオ表示、ソース画像サイズ、動作要求などを用いて決定することができる。ステップ特性が決定された後で、1004で、前述の技術を使用してステップ画像を生成することができる。1006で、さらにステップが存在する場合は、1004でステップ画像の生成を続ける。それ以上生成すべきステップが存在しない場合は、方法は1008に続く。ユーザに要求された動作が動作制御を必要とする場合は、方法は1010に進む。一方、動作制御が必要ない場合は、方法は1012に続く。例えば、動作制御は、これに限られるわけではないが、ズームイン、ズームアウト、パンXズームイン、パンYズームイン、パンXズームアウト、パンYズームアウトなど、ズーム関連の動作が存在する場合にのみ適用する必要がある(ただし、XおよびYは、X軸およびY軸の座標方向を示す)。1010で、適切な動作制御が適用される。例えば、動作制御は、要求された動作および/または非線形2次関数に一部基づくものである。動作制御が適用された後で、1012で、適宜ステップ画像が符号化される。1012で、ステップ画像の符号化をデコーダと共に動作させて、画像ベースビデオの適切な順序づけを保証できることを理解されたい。
次いで図11を参照すると、ステップ画像を使用するソース画像上でズームイン動作を適用する画像ベースビデオが示されている。開始動作矩形1102から終了動作矩形1104への動作が3ステップに分割される。さらに、開始動作矩形1102から終了動作矩形1104への動作には、ビデオでnフレームかかるとする。使用されるステップの数が例であること、および各ステップの決定が少なくとも一部はプロセッサ速度および/またはメモリ容量に基づいて実行できることを理解されたい。第1の中間矩形(Ri)1106および第2の中間矩形(Rj)1108は、0<i<j<nを満たすようなフレームiおよびjの中間位置に存在する。第1のステップの動作は、開始動作矩形1102から第1の中間矩形(Ri)1106までである。第2のステップの動作は、第1の中間矩形(Ri)1106から第2の中間矩形(Rj)1108までである。第3のステップの動作は、第2の中間矩形(Rj)1108から終了動作矩形1104までとなる。
開始動作矩形1102から第1の中間矩形(Ri)1106までの第1のステップの動作では、第1の中間矩形(Ri)1106が、生成されるビデオの解像度とほぼ同等の(またはそれより低い)解像度を有するように、フル画像をより小さなサイズに縮小することができる。この縮小された画像がステップ画像1である。開始動作矩形1102から第1の中間矩形(Ri)1106までの動作についてのビデオフレームは、ビデオ品質を損なうことなく、ステップ画像1から生成される。
第1の中間矩形(Ri)1106から第2の中間矩形(Rj)1108までの第2ステップの動作では、第1の中間矩形(Ri)1106の外側の画像の部分は、ビデオフレームを生成するためには必要ない。したがって、格納すべき画像の部分は第1の中間矩形(Ri)1106によって表される。さらに、第2の中間矩形(Rj)が、生成されるビデオの解像度とほぼ同等の(またはそれより低い)解像度を有するように、格納すべき画像を縮小することができる。第1の中間矩形(Ri)1106の縮小された部分がステップ画像2であり、それによりRiからRjへの動作に関するビデオフレームは、ビデオ品質をまったく損なうことなく生成することができる。
第2の中間矩形(Rj)1108から終了動作矩形1104までの第3ステップの動作の間に、第2の中間矩形(Rj)1108の外側の画像の部分は、ビデオフレームを生成するためには必要ない。したがって、第2の中間矩形(Rj)の部分だけが格納される。さらに、格納される画像は、第2の中間矩形が、生成されるビデオの解像度とほぼ同等(またはそれ以下)の解像度を有するように縮小できる。第2の中間矩形(Rj)1108の縮小された画像がステップ画像3である。第2の中間矩形(Rj)1108から終了動作矩形1104までの動作のためのビデオフレームは、ステップ画像3からビデオ品質をまったく失うことなく生成することができる。
より小さなステップ画像(例えば、ステップ画像1、ステップ画像2、およびステップ画像3)を格納することにより、全体のソース画像を格納する必要なしに、ほぼ同等の品質を有する画像ベースビデオを生成するようにビデオの格納が実行されることを理解されたい。さらに、各ステップ画像は、関係する画像とほぼ同等のサイズである必要はない(例えば、ステップ画像1は元の画像とほぼ同等のサイズである必要はなく、ステップ画像2は第1の中間矩形(Ri)1106とほぼ同等のサイズである必要はなく、またステップ画像3は第2の中間矩形(Rj)1108とほぼ同等のサイズである必要はない)。
図12を参照すると、動作矩形とステップ画像のサイズが示されている。ステップ画像を用いることで、画像フレームのサイズを大幅に削減することができる。例えば、ソース画像のサイズが2560×1920で、フル画像から320×240サイズの矩形へのズームイン動作を考える。ビデオサイズは320×240であり、ビデオフレームを生成し忠実度を維持するためにフルソース画像が格納される。一方、6つのステップとステップ画像を使用する場合は、ビデオサイズが320×240であり、各ステップ画像が452×339画素であるとする。2560×1920画素サイズの画像を格納する(結局、格納する情報は、ほぼ2560×1920画素になる)ことと比べて、452×339画素サイズの6ステップの画像情報が格納され、6×452×339画素が格納されることになる。ステップ画像を使用することにより、ビデオ格納容量の改善は5倍を超えることになる。
図13には、ステップ画像を使用するソース画像上でパン動作を適用する画像ベースビデオが示されている。画像1302は、開始動作矩形1304から終了動作矩形1306にパンされる。前の例と同様に、この動作はビデオのnフレームの期間にわたって行われる。開始動作矩形1304から終了動作矩形1306への動作は、2ステップに分解される。この場合、第1の中間矩形(Ri)1308は、0<i<nを満たすフレームiの中間位置にある。
第1ステージの動作は、開始動作矩形1304から第1の中間矩形1308までの動作である。画像の、破線で示された矩形部分は、開始動作矩形1304から第1の中間矩形(Ri)1308までの動作の間の、ビデオの各フレームがその部分から生成できるように計算される。この矩形は、矩形1304と1308の和集合になる。したがって、画像の関連する部分は、このステージの動作に対する各フレームを生成するように格納される。さらに、この和集合矩形は、縮小された矩形1304と1308の解像度が出力ビデオの解像度とほぼ同等になるように縮小される。この縮小された和集合矩形部分がステップ画像1である。
第2ステージの動作は、第1の中間矩形(Ri)1308から終了動作矩形1306までの動作で構成される。同様に、図13の破線で示された矩形部分は、この動作の間のビデオの各フレームが生成できるように計算される。この矩形は1308と1306の和集合矩形になる。その部分の画像を格納した後、第1の中間矩形(Ri)1308と終了動作矩形1306に対応する部分が出力ビデオと同じ解像度になるように縮小が使用される。この縮小された和集合矩形がステップ画像2である。ステップ画像1とステップ画像2を格納することで、画像ベースビデオ内の記憶量を削減しながら、忠実度を失うことがない可能な最小のサイズが提供されることを理解されたい。
図14を参照すると、ステップ画像の例示的な計算が示されている。ステップ画像のサイズと数を計算した後で、各ステップごとのソース画像からステップ画像を生成することができる。このステップの開始動作矩形および終了動作矩形、RisおよびRieがそれぞれ計算される。Risは、このステップにおけるビデオの最初のフレームを生成するために使用される画像の部分を表し、Rieは、このステップにおけるビデオの最後のフレームを生成するために使用される画像の部分を表す。矩形RisとRieの和集合はRuとして定義できる。Ruは所定のスケールファクタに従って縮小することができる。縮小した後で、縮小された画像内の開始および終了動作矩形、RissおよびRiesが計算される。ソース画像内のステップ画像と和集合矩形Ruの間の変換Tが最初に計算されることを理解されたい。さらに、このTを使用して、ステップ画像内の開始および終了矩形の対応する位置を計算することができる。
本発明の様々な態様を実装するための追加のコンテクストを提供するために、図15〜16および以下の説明は、本発明を実装することができる適切なコンピュータ環境についての簡潔で一般的な説明を提供することを意図したものである。本発明を、ローカルコンピュータおよび/またはリモートコンピュータ上で動作するコンピュータプログラムのコンピュータ実行可能な命令の一般的なコンテクストでここまで説明してきたが、当業者ならば、本発明を他のプログラムモジュールと組み合わせて実装できることを理解されよう。一般に、プログラムモジュールには、特定のタスクを実行しかつ/または特定の抽象データ型を実装する、ルーチン、プログラム、コンポーネント、データ構造などが含まれる。
さらに当業者ならば、本発明の方法が他のコンピュータシステム構成と共に実施できることも理解されよう。他のコンピュータシステム構成には、シングルプロセッサまたはマルチプロセッサコンピュータシステム、ミニコンピュータ、メインフレームコンピュータ、ならびにパーソナルコンピュータ、ハンドヘルドコンピュータ装置、マイクロプロセッサベースおよび/またはプログラマブル家電などが含まれ、その各々は、1つまたは複数の関連する装置と動作可能に通信することができる。本発明についての例示の態様は、分散コンピュータ環境でも実施することができる。分散コンピュータ環境では、いくつかのタスクは、通信ネットワークによってリンクされたリモート処理装置によって実行される。一方、本発明の、すべてではないが、いくつかの態様は、スタンドアローンコンピュータ上で実施することができる。分散コンピュータ環境においては、各プログラムモジュールは、ローカルおよび/またはリモートのメモリ記憶装置に配置することができる。
図15は、本発明が対話できるサンプルとしてのコンピュータ環境1500の概略構成図である。システム1500は、1つまたは複数のクライアント1510を含む。クライアント1510は、ハードウェアおよび/またはソフトウェア(例えば、スレッド、プロセス、コンピュータ装置など)であってもよい。システム1500はまた、1つまたは複数のサーバ1520を含む。サーバ1520は、ハードウェアおよび/またはソフトウェア(例えば、スレッド、プロセス、コンピュータ装置など)であってもよい。サーバ1520は、例えば、本発明を使用して変換を実行するためのスレッドを格納することができる。
クライアント1510とサーバ1520の間の1つの可能な通信は、2つ以上のコンピュータプロセス間で送信するようになされたデータパケットの形であってもよい。システム1500は、クライアント1510とサーバ1520の間の通信を実行するために使用できる通信フレームワーク1540を含む。クライアント1510は、クライアント1510のローカルに情報を格納するために使用できる1つまたは複数のクライアントデータストア1550に動作可能に接続されている。同様に、サーバ1520は、サーバ1520のローカルに情報を格納するために使用できる1つまたは複数のサーバデータストア1530に動作可能に接続されている。
図16を参照すると、本発明の様々な態様を実装するための例示的環境1600は、コンピュータ1612を含んでいる。コンピュータ1612は、処理ユニット1614、システムメモリ1616、およびシステムバス1618を含む。システムバス1618は、これに限られるわけではないが、システムメモリ1616などの各システムコンポーネントを処理ユニット1614に結合する。処理ユニット1614は、様々な市販のプロセッサのいずれかであってもよい。処理ユニット1614として、デュアルマイクロプロセッサや他のマルチプロセッサアーキテクチャを使用することもできる。
システムバス1618には、様々な使用可能なバスアーキテクチャのいずれかを使用する、メモリバスもしくはメモリコントローラ、ペリフェラルバスもしくは外部バス、および/またはローカルバスなど、いくつかの種類のバス構造のいずれかを使用することができる。このようなバスアーキテクチャには、これに限られるものではないが、ISA(Industry Standard Architecture)、MCA(Micro Channel Architecture)、EISA(Extended ISA)、IDE(Intelligent Drive Electronics)、VLB(VESA Local Bus)、PCI(Peripheral Component Interconnect)、カードバス、USB(Universal Serial Bus)、AGP(Advanced Graphics Port)、PCMCIA(Personal Computer Memory Card International Association bus)、IEEE1394(Firewire)、SCSI(Small Computer Systems Interface)などが含まれる。
システムメモリ1616は、揮発性メモリ1620および不揮発性メモリ1622を含む。基本入/出力システム(BIOS)は、例えば起動時などに、コンピュータ1612内の各要素間の情報を転送する基本ルーチンを含み、不揮発性メモリ1622に格納されている。制限の意味ではなく例として、不揮発性メモリ1622には、ROM(読出し専用メモリ)、PROM(プログラム可能ROM)、EPROM(電気的プログラム可能ROM)、フラッシュメモリなどが含まれる。揮発性メモリ1620には、外部キャッシュメモリとして機能するRAM(ランダムアクセスメモリ)が含まれる。RAMは、制限の意味ではなく例として、SRAM(シンクロナスRAM)、DRAM(ダイナミックRAM)、SDRAM(シンクロナスDRAM)、DDR SDRAM(ダブルデータレート方式SDRAM)、ESDRAM(拡張SDRAM)、SLDRAM(同期リンクDRAM)、DRRAM(ダイレクトラムバスRAM)など様々な形で使用可能である。
コンピュータ1612は、リムーバブル/非リムーバブル、揮発性/不揮発性のコンピュータ記憶媒体を含む。図16には、例として、ディスク記憶装置1624が含まれる。ディスク記憶装置1624には、これに限られるものではないが、磁気ディスクドライブ、フロッピディスクドライブ、テープドライブ、Jazドライブ、Zipドライブ、LS−100ドライブ、フラッシュメモリカード、メモリスティックなどが含まれる。さらに、ディスク記憶装置1624には、他の記憶媒体と独立にまたは他の記憶媒体と組み合わせて、これに限られるものではないが、光ディスクドライブなどの記憶媒体を含めることができる。光ディスクドライブには、CD−ROM(コンパクトディスクROM)装置、CD−Rドライブ(書込み可能CDドライブ)、CD−RWドライブ(再書込み可能CDドライブ)、またはDVD−ROM(digital versatile disk ROM)ドライブなどが含まれる。ディスク記憶装置1624をシステムバス1618に接続するためには、一般に、リムーバブルまたは非リムーバブルのインターフェース、例えばインターフェース1626などが使用される。
図16が、ユーザと、適切な動作環境1600に記載の基本コンピュータリソースとの間の仲介機能を果たすソフトウェアを説明していることを理解されたい。この様なソフトウェアにはオペレーティングシステム1628が含まれる。オペレーティングシステム1628は、コンピュータシステム1612のリソースを制御し割り振る機能を果たすものであり、ディスク記憶装置1624に格納することができる。システムアプリケーション1630は、システムメモリ1616またはディスク記憶装置1624に格納されたプログラムモジュール1632およびプログラムデータ1634を通して、オペレーティングシステムによるリソース管理を利用する。本発明が、様々なオペレーティングシステムまたはオペレーティングシステムの組合せと共に実装できることを理解されたい。
ユーザは、入力装置1636を通してコンピュータ1612に命令および情報を入力する。入力装置1636には、これに限られるわけではないが、マウス、トラックボール、スタイラス、タッチパッドなどのポインティング装置、キーボード、マイクロホン、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナ、TVチューナカード、デジタルカメラ、デジタルビデオカメラ、ウェブカメラなどが含まれる。これらおよび他の入力装置は、インターフェースポート1638を経由してシステムバス1618を介して処理ユニット1614に接続される。インターフェースポート1638には、例えば、シリアルポート、パラレルポート、USB(universal serial bus)などが含まれる。出力装置1640は、入力装置1636と同種のポートのいくつかを使用する。したがって、例えば、USBポートは、入力をコンピュータ1612に提供するため、およびコンピュータ1612から出力装置1640に情報を出力するために使用することができる。出力アダプタ1642は、出力装置1640の中にモニタ、スピーカ、プリンタなど特別のアダプタを必要とするものが存在することを示すために提供される。出力アダプタ1642には、制限の意味ではなく例示として、出力装置1640とシステムバス1618の間の接続手段を提供するビデオおよびサウンドカードなどが含まれる。リモートコンピュータ1644など他の装置および/または装置からなるシステムも、入力および出力の両方の機能を提供することに留意されたい。
コンピュータ1612は、リモートコンピュータ1644など1つまたは複数のリモートコンピュータへの論理接続を使用してネットワーク環境で動作することができる。リモートコンピュータ1644は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ワークステーション、マイクロプロセッサベースの機器、ピア装置または共通ネットワークノード、などであってもよく、通常は、コンピュータ1612に関して説明した要素の多くまたはすべてを含む。簡潔に示すために、リモートコンピュータ1644にはメモリ記憶装置1646だけが示されている。リモートコンピュータ1644は、ネットワークインターフェース1648を介してコンピュータ1612と論理的に接続され、次いで通信接続1650を介して物理的に接続される。ネットワークインターフェース1648は、ローカルエリアネットワーク(LAN)やワイドエリアネットワーク(WAN)など、有線および/または無線通信ネットワークに対応する。LAN技術には、FDDI(光ファイバ分散データインターフェース)、CDDI(銅線分散データインターフェース)、イーサネット(登録商標)、トークンリングなどが含まれる。WAN技術には、これに限られるものではないが、ポイントツーポイントリンク、ISDN(統合サービスデジタルネットワーク)などの回線交換ネットワークおよびその変形物、パケット交換ネットワーク、DSL(デジタル加入者回線)などが含まれる。
通信接続1650は、ネットワークインターフェース1648をバス1618に接続するために使用されるハードウェア/ソフトウェアを意味する。通信接続1650は、説明をわかりやすくするためにコンピュータ1612に内蔵されるように示されているが、コンピュータ1612の外付けにすることもできる。ネットワークインターフェース1648への接続に必要なハードウェア/ソフトウェアには、例示の意味で、標準電話用モデム、ケーブルモデム、DSLモデムなどのモデム、ISDNアダプタ、イーサネット(登録商標)カードなど、内蔵および外付けの技術が含まれる。
上記説明は、本発明のいくつかの例に過ぎない。もちろん、本発明を説明するために、コンポーネントや方法についての考えられるあらゆる組合せを説明することは不可能であるが、当業者ならば、本発明に関して他の多くの組合せおよび置換えが可能であることを理解できよう。したがって本発明は、添付の特許請求の範囲の趣旨および範囲に含まれるようなあらゆる代替形態、修正形態、および変更形態を包含することを意図したものである。
詳細には、上述のコンポーネント、装置、回路、システムなどによって実行される様々な機能に関して、それらのコンポーネントを説明するために使用される(「手段」への参照も含む)用語は、特に指示した場合を除き、開示の構造とは構造的に等価でない場合でも、本明細書で説明した本発明の例示的態様の諸機能を実行する記載のコンポーネントの指定された機能を実行する任意のコンポーネント(例えば、機能等価物)に対応していることが意図される。その際、本発明が、システム、ならびに本発明の様々な方法についての動作および/またはイベントを実行するためのコンピュータ実行可能な命令を有するコンピュータ可読の媒体を含むことも理解されたい。
さらに、本発明の個々の機能は、いくつかの実装のうちのただ1つの実装に関して開示されている場合でも、その機能を、任意の所与のまたは特定のアプリケーションの必要に応じて、またそのアプリケーションに有利になるように、他の実装における1つまたは複数の他の機能と組み合わせることができる。また、「含む(includes)」および「含む(including)」という用語、ならびにその変形が詳細な説明および特許請求の範囲で使用される限り、これらの用語は、「含む(comprising)」という用語と同様に包含的(inclusive)であることが意図される。
本発明の一態様による、画像ベースビデオの格納を実行する一例示的システムの構成図である。 従来の画像ベースビデオシステムを示す図である。 本発明の一態様による、画像ベースビデオの格納を実行する一例示的システムの構成図である。 本発明の一態様による、画像ベースビデオの格納を実行する一例示的システムの構成図である。 本発明の一態様による、画像ベースビデオの格納を実行するために使用されるグラフを示す図である。 本発明の一態様による、画像ベースビデオの格納を実行する一例示的システムの構成図である。 本発明の一態様による、画像ベースビデオの格納を実行する一例示的システムの構成図である。 本発明の一態様による、画像ベースビデオの格納を実行するステップ画像技術を使用する一例示的方法を示す図である。 本発明の一態様による、画像ベースビデオの格納を実行するステップ画像技術を使用する一例示的方法を示す図である。 本発明の一態様による、画像ベースビデオの格納を実行するステップ画像技術を使用する一例示的方法を示す図である。 本発明の一態様による、画像ベースビデオの格納を実行する一例示的システムを示す図である。 本発明の一態様による、動作矩形とステップ画像のサイズを含む表を示す図である。 本発明の一態様による、画像ベースビデオの格納を実行する一例示的システムを示す図である。 本発明の一態様による、画像ベースビデオの格納を実行する一例示的システムを示す図である。 本発明の新規の諸態様を使用することができる一例示的ネットワーク環境を示す図である。 本発明の新規の諸態様を使用することができる一例示的動作環境を示す図である。
符号の説明
1510 クライアント
1520 サーバ
1530 サーバデータストア
1540 通信フレームワーク
1550 クライアントデータストア
1614 処理ユニット
1616 システムメモリ
1618 バス
1620 揮発性
1622 不揮発性
1624 ディスク記憶装置
1626 インターフェース
1628 オペレーティングシステム
1630 アプリケーション
1632 モジュール
1634 データ
1636 入力装置
1638 インターフェースポート
1640 出力装置
1642 出力アダプタ
1644 リモートコンピュータ
1646 メモリ記憶装置
1648 ネットワークインターフェース

Claims (34)

  1. ビデオの格納を実行するシステムであって、
    動作パラメータおよびコンピュータ環境パラメータを受信するコンポーネントと、
    前記動作パラメータおよび前記コンピュータ環境パラメータに基づいて最大ステップ画像サイズおよびステップ画像数を決定し、対応するステップ画像を生成して、ソース画像の代わりにステップ画像を使用してもなお十分な忠実度を維持して前記ビデオを描画できるようにするステップ画像コンポーネントと
    を含むことを特徴とするシステム。
  2. 前記動作パラメータは、ソース画像、ズームイン、ズームアウト、水平パン、垂直パン、パンズームのうちの少なくとも1つを含むことを特徴とする請求項1に記載のシステム。
  3. 前記コンピュータ環境パラメータは、プロセッサ速度、メモリ容量、フレームレート、ビデオ表示のうちの少なくとも1つを含むことを特徴とする請求項1に記載のシステム。
  4. 前記ステップ画像が符号化されることを特徴とする請求項1に記載のシステム。
  5. 動作のビデオ視覚認知を緩和する動作制御コンポーネントをさらに含むことを特徴とする請求項1に記載のシステム。
  6. 非線系絶対動作を使用することを特徴とする請求項5に記載の動作制御コンポーネント。
  7. W=a(t−b)+c
    の形の2次方程式であって、Wは動作矩形の幅であり、tは時間であり、a、b、cは定数である2次方程式を使用して前記非線系絶対動作を計算することを特徴とする請求項6に記載の動作制御装置。
  8. ステップ画像の符号化を実行するエンコーダコンポーネントをさらに含むことを特徴とする請求項1に記載のシステム。
  9. 前記エンコーダコンポーネントは、現在のフレームに関して、デコーダによってキャッシュされる適切な画像、およびどの画像が捨てられるかを決定し、遷移の方向を新しく符号化されたソース画像に向けて設定し、そのソース画像をデコーダが使用することを特徴とする請求項8に記載のシステム。
  10. 前記エンコーダコンポーネントは、ソース画像からのビデオフレームの最初の生成に基づいて順に画像を符号化し、新しく符号化されたソース画像に遷移の方向を設定し、そのソース画像をデコーダが使用することを特徴とする請求項8に記載のシステム。
  11. 少なくとも一部は履歴データに基づいて、最大ステップ画像サイズとステップ画像の数の少なくとも一方を推論する人工知能コンポーネントをさらに含むことを特徴とする請求項1に記載のシステム。
  12. ビデオの格納を実行するシステムであって、
    ソース画像および動作要求に関するステップ特性を決定するアナライザコンポーネントと、
    少なくとも一部は前記ステップ特性に基づいてステップ画像を生成するステップ画像生成コンポーネントと
    を含むことを特徴とするシステム。
  13. 前記ステップ特性は、最大ステップ画像サイズとステップ画像の数の少なくとも一方であることを特徴とする請求項12に記載のシステム。
  14. 前記最大ステップ画像サイズが、少なくとも一部は所望のビデオフレームレートとプロセッサ性能に基づいた閾値として定義されることを特徴とする請求項13に記載のシステム。
  15. 前記動作要求がズームインであることを特徴とする請求項14に記載のシステム。
  16. 前記アナライザコンポーネントは、
    Figure 2006148875
    によってステップ画像の数を決定し、ここでnはズームインについてのステップ画像の数であり、
    Figure 2006148875
    は動作矩形R1の幅であり、
    Figure 2006148875
    は動作矩形R2の幅であり、s
    Figure 2006148875
    によって定義されるズーム動作のステップファクタであり、ここで
    Figure 2006148875
    はステップ画像の最大幅であり、wはビデオの幅であることを特徴とする請求項15に記載のシステム。
  17. 前記動作要求がズームアウトであることを特徴とする請求項14に記載のシステム。
  18. 前記アナライザコンポーネントは、
    Figure 2006148875
    によってステップ画像の数を決定し、ここでnはズームアウトについてのステップ画像の数であり、
    Figure 2006148875
    は動作矩形R1の幅であり、
    Figure 2006148875
    は動作矩形R2の幅であり、s
    Figure 2006148875
    によって定義されるズーム動作のステップファクタであり、ここで
    Figure 2006148875
    はステップ画像の最大幅であり、wはビデオの幅であることを特徴とする請求項17に記載のシステム。
  19. 前記動作要求は水平パンであることを特徴とする請求項14に記載のシステム。
  20. 前記アナライザコンポーネントは、
    Figure 2006148875
    によってステップ画像の数を決定し、ここでnは水平パンについてのステップ画像の数であり、
    Figure 2006148875
    は動作矩形R2の左上隅のX座標であり、
    Figure 2006148875
    は動作矩形R1の左上隅のX座標であり、s
    Figure 2006148875
    で定義されるパン動作のステップファクタであり、ここで
    Figure 2006148875
    はステップ画像の最大幅であり、wはビデオの幅であることを特徴とする請求項19に記載のシステム。
  21. 前記動作要求は垂直パンであることを特徴とする請求項14に記載のシステム。
  22. 前記アナライザコンポーネントは、
    Figure 2006148875
    によってステップ画像の数を決定し、ここでnは垂直パンに対するステップ画像の数であり、
    Figure 2006148875
    は動作矩形R2の左上隅のY座標であり、
    Figure 2006148875
    は動作矩形R1の左上隅のT座標であり、s
    Figure 2006148875
    で定義されるパン動作のステップファクタであり、ここで
    Figure 2006148875
    はステップ画像の最大幅であり、wはビデオの幅であることを特徴とする請求項21に記載のシステム。
  23. 前記動作要求はパンズームであることを特徴とする請求項14に記載のシステム。
  24. 前記アナライザコンポーネントは、n=max(n,n)によってステップ画像の数を決定し、
    上式で、nはパンズームに対するステップの数であり、nはズーム動作に対するステップの数であり、nはパン動作に対するステップの数であることを特徴とする請求項23に記載のシステム。
  25. ビデオの格納を実行するコンピュータ実装される方法であって、
    受信したソース画像および動作要求についてのステップ特性を決定するステップと、
    少なくとも一部は前記ステップ特性に基づいてステップ画像を生成するステップと
    を含むことを特徴とする方法。
  26. 前記動作要求は、ズームイン、ズームアウト、垂直パン、水平パン、パンズームのうちの少なくとも1つを含むことを特徴とする請求項25に記載の方法。
  27. 前記ステップ特性は、最大ステップ画像サイズとステップ画像の数の少なくとも一方を含むことを特徴とする請求項25に記載の方法。
  28. 前記最大ステップ画像サイズが、少なくとも一部はフレームレートとプロセッサ性能に基づいた閾値として定義されることを特徴とする請求項27に記載の方法。
  29. 少なくとも一部は前記動作要求に基づいて動作制御を適用するステップと、
    前記ステップ画像を符号化するステップと
    をさらに含むことを特徴とする請求項25に記載の方法。
  30. ビデオの格納を実行するコンピュータ実装される方法であって、
    動作要求を分析するステップと、
    最大ステップ画像サイズおよびステップ画像の数を決定するステップと、
    開始動作矩形および終了動作矩形を計算するステップと、
    開始および終了動作矩形の和集合を得るステップと、
    スケールファクタを計算するステップと、
    開始および終了動作矩形の前記和集合をスケール変更してステップ画像を生成するステップと、
    前記ステップ画像内の開始および終了動作矩形を計算するステップと
    を含むことを特徴とする方法。
  31. 画像ベースビデオの格納を実行する2つ以上のコンピュータコンポーネント間で送信されるデータパケットであって、
    少なくとも一部は動作パラメータとコンピュータ環境パラメータに基づいたステップ特性を含むことを特徴とするデータパケット。
  32. ビデオの格納を実行するコンピュータ実行可能なコンポーネントを格納するコンピュータ可読の媒体であって、
    動作パラメータおよびコンピュータ環境パラメータの少なくとも一方を受信するコンポーネントと、
    少なくとも一部は前記動作パラメータおよび前記コンピュータ環境パラメータに基づいてステップ特性を決定し、ステップ画像を生成するステップ画像コンポーネントと
    を含むことを特徴とするコンピュータ可読の媒体。
  33. ビデオ視覚認知を緩和する動作制御コンポーネントと、
    前記ステップ画像を符号化するエンコーダコンポーネントと
    をさらに含むことを特徴とする請求項32に記載のコンピュータ可読の媒体。
  34. ビデオの格納を実行するコンピュータ実装されるシステムであって、
    動作パラメータおよびソース画像を受信する手段と、
    ステップ特性を決定する手段と、
    少なくとも一部は前記ステップ特性と前記動作パラメータに基づいてステップ画像を生成する手段と、
    前記ステップ画像を符号化する手段と
    を含むことを特徴とするシステム。
JP2005293839A 2004-10-06 2005-10-06 ステップ画像を用いた画像ベースビデオの生成 Expired - Fee Related JP5068440B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/959,385 2004-10-06
US10/959,385 US7400351B2 (en) 2004-10-06 2004-10-06 Creation of image based video using step-images

Publications (2)

Publication Number Publication Date
JP2006148875A true JP2006148875A (ja) 2006-06-08
JP5068440B2 JP5068440B2 (ja) 2012-11-07

Family

ID=35789056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005293839A Expired - Fee Related JP5068440B2 (ja) 2004-10-06 2005-10-06 ステップ画像を用いた画像ベースビデオの生成

Country Status (5)

Country Link
US (1) US7400351B2 (ja)
EP (1) EP1648173A3 (ja)
JP (1) JP5068440B2 (ja)
KR (1) KR101203247B1 (ja)
CN (1) CN1801916B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803925B2 (en) * 2001-09-06 2004-10-12 Microsoft Corporation Assembling verbal narration for digital display images
US20060041632A1 (en) * 2004-08-23 2006-02-23 Microsoft Corporation System and method to associate content types in a portable communication device
US7400351B2 (en) 2004-10-06 2008-07-15 Microsoft Corporation Creation of image based video using step-images
US7372536B2 (en) * 2005-03-08 2008-05-13 Microsoft Corporation Photostory 3—automated motion generation
US20060204214A1 (en) * 2005-03-14 2006-09-14 Microsoft Corporation Picture line audio augmentation
US20060218488A1 (en) * 2005-03-28 2006-09-28 Microsoft Corporation Plug-in architecture for post-authoring activities
US20060224778A1 (en) * 2005-04-04 2006-10-05 Microsoft Corporation Linked wizards
US7893949B2 (en) * 2005-07-26 2011-02-22 Brother Kogyo Kabushiki Kaisha Image display apparatus
KR100639110B1 (ko) * 2005-09-09 2006-10-31 주식회사 코아로직 프레임 단위로 이루어진 오디오 스트림 데이터의 시간정보산출방법
KR20080010692A (ko) * 2006-07-27 2008-01-31 삼성전자주식회사 방송수신장치 및 그의 화면전환방법
JP4827659B2 (ja) * 2006-08-25 2011-11-30 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
US8930845B2 (en) * 2007-09-04 2015-01-06 Apple Inc. Multi-pane graphical user interface for mobile electronic device
JP4636136B2 (ja) * 2008-07-11 2011-02-23 ソニー株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
US20110084982A1 (en) * 2009-10-12 2011-04-14 Sony Corporation Apparatus and Method for Displaying Image Data With Memory Reduction
US8812538B2 (en) * 2010-01-29 2014-08-19 Wendy Muzatko Story generation methods, story generation apparatuses, and articles of manufacture
US8948893B2 (en) 2011-06-06 2015-02-03 International Business Machines Corporation Audio media mood visualization method and system
US20130031589A1 (en) * 2011-07-27 2013-01-31 Xavier Casanova Multiple resolution scannable video
CN104781779B (zh) 2012-11-06 2018-06-15 诺基亚技术有限公司 用于创建针对图像的运动效果的方法和装置
CN109792543B (zh) * 2016-09-27 2022-01-14 深圳市大疆创新科技有限公司 根据可移动物捕获的图像数据创建视频抽象的方法和系统

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4864516A (en) 1986-03-10 1989-09-05 International Business Machines Corporation Method for implementing an on-line presentation in an information processing system
EP0268270B1 (en) 1986-11-20 1993-11-03 Matsushita Electric Industrial Co., Ltd. Information editing apparatus
US6108001A (en) 1993-05-21 2000-08-22 International Business Machines Corporation Dynamic control of visual and/or audio presentation
US5760788A (en) 1995-07-28 1998-06-02 Microsoft Corporation Graphical programming system and method for enabling a person to learn text-based programming
US6181336B1 (en) 1996-05-31 2001-01-30 Silicon Graphics, Inc. Database-independent, scalable, object-oriented architecture and API for managing digital multimedia assets
US6628303B1 (en) 1996-07-29 2003-09-30 Avid Technology, Inc. Graphical user interface for a motion video planning and editing system for a computer
AU6672298A (en) * 1997-02-25 1998-09-09 Intervu, Inc. System and method for sending and receiving a video as a slide show over a computer network
US5973755A (en) 1997-04-04 1999-10-26 Microsoft Corporation Video encoder and decoder using bilinear motion compensation and lapped orthogonal transforms
US6084590A (en) 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
AUPO960197A0 (en) 1997-10-03 1997-10-30 Canon Information Systems Research Australia Pty Ltd Multi-media editing method and apparatus
US6040861A (en) 1997-10-10 2000-03-21 International Business Machines Corporation Adaptive real-time encoding of video sequence employing image statistics
US6546405B2 (en) 1997-10-23 2003-04-08 Microsoft Corporation Annotating temporally-dimensioned multimedia content
US6072480A (en) 1997-11-05 2000-06-06 Microsoft Corporation Method and apparatus for controlling composition and performance of soundtracks to accompany a slide show
US6665835B1 (en) 1997-12-23 2003-12-16 Verizon Laboratories, Inc. Real time media journaler with a timing event coordinator
JPH11205786A (ja) * 1997-12-25 1999-07-30 Hewlett Packard Co <Hp> 動画データの格納形式、動画データ転送システム、動画表示方法および記憶媒体
US6097757A (en) 1998-01-16 2000-08-01 International Business Machines Corporation Real-time variable bit rate encoding of video sequence employing statistics
US6823013B1 (en) 1998-03-23 2004-11-23 International Business Machines Corporation Multiple encoder architecture for extended search
US6278466B1 (en) * 1998-06-11 2001-08-21 Presenter.Com, Inc. Creating animation from a video
US6362850B1 (en) * 1998-08-04 2002-03-26 Flashpoint Technology, Inc. Interactive movie creation from one or more still images in a digital imaging device
US6333753B1 (en) 1998-09-14 2001-12-25 Microsoft Corporation Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device
US6222883B1 (en) 1999-01-28 2001-04-24 International Business Machines Corporation Video encoding motion estimation employing partitioned and reassembled search window
US6369835B1 (en) 1999-05-18 2002-04-09 Microsoft Corporation Method and system for generating a movie file from a slide show presentation
US6624826B1 (en) 1999-09-28 2003-09-23 Ricoh Co., Ltd. Method and apparatus for generating visual representations for audio documents
US6480191B1 (en) 1999-09-28 2002-11-12 Ricoh Co., Ltd. Method and apparatus for recording and playback of multidimensional walkthrough narratives
US20020065635A1 (en) 1999-12-02 2002-05-30 Joseph Lei Virtual reality room
US6708217B1 (en) 2000-01-05 2004-03-16 International Business Machines Corporation Method and system for receiving and demultiplexing multi-modal document content
US6121963A (en) 2000-01-26 2000-09-19 Vrmetropolis.Com, Inc. Virtual theater
CA2336577A1 (en) 2000-02-16 2001-08-16 Siemens Corporate Research, Inc. Systems and methods for generating and playback of annotated multimedia presentation
US6597375B1 (en) 2000-03-10 2003-07-22 Adobe Systems Incorporated User interface for video editing
US7240297B1 (en) 2000-06-12 2007-07-03 International Business Machines Corporation User assistance system
US20020156702A1 (en) 2000-06-23 2002-10-24 Benjamin Kane System and method for producing, publishing, managing and interacting with e-content on multiple platforms
US6763175B1 (en) 2000-09-01 2004-07-13 Matrox Electronic Systems, Ltd. Flexible video editing architecture with software video effect filter components
US6961082B2 (en) * 2000-11-16 2005-11-01 Fujitsu Limited Image display control system reducing image transmission delay
US6968506B2 (en) 2001-01-16 2005-11-22 Brainshark, Inc. Method of and system for composing, delivering, viewing and managing audio-visual presentations over a communications network
US20040027370A1 (en) 2001-02-15 2004-02-12 Denny Jaeger Graphic user interface and method for creating slide shows
GB2372658A (en) * 2001-02-23 2002-08-28 Hewlett Packard Co A method of creating moving video data from a static image
US20030085913A1 (en) 2001-08-21 2003-05-08 Yesvideo, Inc. Creation of slideshow based on characteristic of audio content used to produce accompanying audio display
US6803925B2 (en) 2001-09-06 2004-10-12 Microsoft Corporation Assembling verbal narration for digital display images
TWI235963B (en) * 2002-04-01 2005-07-11 Mstar Semiconductor Inc Scaling method by using dual point cubic-like slope control
GB2388241A (en) 2002-04-30 2003-11-05 Zoo Digital Group Plc Authoring of complex DVD-video products
US7073127B2 (en) 2002-07-01 2006-07-04 Arcsoft, Inc. Video editing GUI with layer view
US7009655B2 (en) 2002-07-23 2006-03-07 Mediostream, Inc. Method and system for direct recording of video information onto a disk medium
US20040017390A1 (en) 2002-07-26 2004-01-29 Knowlton Ruth Helene Self instructional authoring software tool for creation of a multi-media presentation
JP4262017B2 (ja) * 2002-09-26 2009-05-13 キヤノン株式会社 画像生成装置及びその方法
US8009966B2 (en) 2002-11-01 2011-08-30 Synchro Arts Limited Methods and apparatus for use in sound replacement with automatic synchronization to images
US20040095379A1 (en) 2002-11-15 2004-05-20 Chirico Chang Method of creating background music for slideshow-type presentation
US7394969B2 (en) * 2002-12-11 2008-07-01 Eastman Kodak Company System and method to compose a slide show
US7823058B2 (en) 2002-12-30 2010-10-26 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive point-of-view authoring of digital video content
US20040130566A1 (en) 2003-01-07 2004-07-08 Prashant Banerjee Method for producing computerized multi-media presentation
US20040145611A1 (en) 2003-01-16 2004-07-29 Kaoru Ogawa Method, program, and system for editing contents of multimedia
US6817805B2 (en) * 2003-02-04 2004-11-16 Plastic Safety Systems, Inc. Traffic channelizer devices
US7272779B2 (en) 2003-03-31 2007-09-18 Sharp Laboratories Of America, Inc. Synchronized musical slideshow language
US20060156220A1 (en) 2003-05-05 2006-07-13 Dreystadt John N System and method for managing dynamic content assembly
US20050138559A1 (en) 2003-12-19 2005-06-23 International Business Machines Corporation Method, system and computer program for providing interactive assistance in a computer application program
US20060041632A1 (en) 2004-08-23 2006-02-23 Microsoft Corporation System and method to associate content types in a portable communication device
US7400351B2 (en) 2004-10-06 2008-07-15 Microsoft Corporation Creation of image based video using step-images
US7528846B2 (en) 2005-02-23 2009-05-05 Microsoft Corporation Systems and methods to adjust a source image aspect ratio to match a different target display aspect ratio
US7372536B2 (en) 2005-03-08 2008-05-13 Microsoft Corporation Photostory 3—automated motion generation
US20060204214A1 (en) 2005-03-14 2006-09-14 Microsoft Corporation Picture line audio augmentation
US20060218488A1 (en) 2005-03-28 2006-09-28 Microsoft Corporation Plug-in architecture for post-authoring activities
US20060224778A1 (en) 2005-04-04 2006-10-05 Microsoft Corporation Linked wizards

Also Published As

Publication number Publication date
US7400351B2 (en) 2008-07-15
CN1801916A (zh) 2006-07-12
EP1648173A3 (en) 2009-04-01
US20060072017A1 (en) 2006-04-06
KR20060051567A (ko) 2006-05-19
JP5068440B2 (ja) 2012-11-07
CN1801916B (zh) 2011-03-02
EP1648173A2 (en) 2006-04-19
KR101203247B1 (ko) 2012-11-20

Similar Documents

Publication Publication Date Title
JP5068440B2 (ja) ステップ画像を用いた画像ベースビデオの生成
US7372536B2 (en) Photostory 3—automated motion generation
WO2021175055A1 (zh) 视频处理方法及相关装置
TWI279709B (en) Method and system for generating a motion blur, and machine readable medium having stored therein a plurality of machine readable instructions
US8963951B2 (en) Image processing apparatus, moving-image playing apparatus, and processing method and program therefor to allow browsing of a sequence of images
JP5522894B2 (ja) 動画のフレーム情報を生成する装置及び方法並びに動画を再生する装置及び方法
CN109168014B (zh) 一种直播方法、装置、设备及存储介质
EP3357253B1 (en) Gapless video looping
JP2002359778A (ja) フレーム補間式可変速度動画撮像システム
CN116320432A (zh) 实时屏幕共享
JP7129517B2 (ja) 360ビデオストリーミングのための予測ビットレート選択
WO2020185804A1 (en) Media content presentation
CN103702032A (zh) 图像处理方法、装置和终端设备
JP2013214956A (ja) 画像処理装置および画像処理方法
US20150117515A1 (en) Layered Encoding Using Spatial and Temporal Analysis
KR20200011000A (ko) 증강 현실 프리뷰 및 위치 추적을 위한 장치 및 방법
CN112511896A (zh) 一种视频渲染方法及装置
CN110572717A (zh) 视频编辑方法和装置
JP4636368B2 (ja) 電子アルバム作成システム及び作成プログラム及び記憶媒体
WO2013181756A1 (en) System and method for generating and disseminating digital video
CN111314777B (zh) 视频生成方法及装置、计算机存储介质、电子设备
TW536918B (en) Method to increase the temporal resolution of continuous image series
CN112529823B (zh) 一种图像处理方法、装置及设备
JP5419783B2 (ja) 画像再生装置及び画像再生装置の制御方法
CN113657255A (zh) 一种自动框选人的方法和存储设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120815

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees