JP2009536492A - ジッター抽出を行う処理デバイスおよびこのような処理デバイスを有する機器 - Google Patents
ジッター抽出を行う処理デバイスおよびこのような処理デバイスを有する機器 Download PDFInfo
- Publication number
- JP2009536492A JP2009536492A JP2009508618A JP2009508618A JP2009536492A JP 2009536492 A JP2009536492 A JP 2009536492A JP 2009508618 A JP2009508618 A JP 2009508618A JP 2009508618 A JP2009508618 A JP 2009508618A JP 2009536492 A JP2009536492 A JP 2009536492A
- Authority
- JP
- Japan
- Prior art keywords
- image frame
- jitter
- processing device
- value
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 104
- 238000000605 extraction Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 claims abstract description 67
- 238000012937 correction Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 8
- 230000000087 stabilizing effect Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 description 51
- 238000013519 translation Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 12
- 230000006641 stabilisation Effects 0.000 description 10
- 238000011105 stabilization Methods 0.000 description 10
- 230000001186 cumulative effect Effects 0.000 description 8
- 230000003068 static effect Effects 0.000 description 8
- 238000001914 filtration Methods 0.000 description 7
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 230000007717 exclusion Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000005526 G1 to G0 transition Effects 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009257 reactivity Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6815—Motion detection by distinguishing pan or tilt from motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Picture Signal Circuits (AREA)
Abstract
処理デバイス(D)は、例えばデジタルカメラのような電子機器(E1)におけるデジタル映像シーケンスの画像フレームを安定化させるために設ける。処理デバイス(D)は、映像シーケンスの各画像フレームに対して、画像シーケンスにおけるモーションのタイプを、この画像シーケンスにおける現画像フレームのグローバルモーション・パラメータおよび少なくとも1個の先行画像フレームのグローバルモーション・パラメータから決定するよう構成した処理手段(PM)を備える。これらのパラメータは、映像シーケンスにおける現在画像フレームと先行画像フレームとの間におけるモーション推定から決定する。このモーション決定に続き、この決定したモーションのタイプに基づいて、少なくとも2つのジッター抽出技術における選定すべき一つの選定ジッター抽出技術を選択する。このように選定したジッター抽出技術を使用して、それ故に、グローバルモーション・パラメータから除去すべきジッターを決定し、現画像フレーム内に存在する望ましくないモーションを除去する。
Description
本発明は、デジタル画像処理分野に関し、より詳細には映像シーケンスにおけるデジタル画像の安定化に関する。
当業者に知られているように、必要なカメラの動きを保ちつつ、望ましくないカメラの動きまたはジッターを除去するために画像安定化アルゴリズム提案されてきており、それゆえにより快適な鑑賞体験を提供してきた。 本明細書で使用する語句「望ましくないカメラの動きまたはジッター」は、カメラの意図的な動きに付加された平行移動および/または回転運動などの画像の望ましくない位置変動であって、ものを意味する。
デジタル画像安定化(またはDIS)アルゴリズムのほとんどにおいて、3つの主なステップを、映像シーケンスのデジタル画像に対して順次に適用する。第1ステップは、映像シーケンスにおける2個の連続した画像フレーム(時刻tおよび(t−1)における)間のモーション推定を決定するステップである。第2ステップは、決定したモーション推定から各画像のジッターを決定するステップである。第3ステップは、望ましくないモーションを除去するために各画像のグローバルモーション・パラメータからジッターをフィルタ処理する(除去する)ステップである。
このようなデジタル画像安定化アルゴリズムの例は、特に特許文献1(米国特許出願公開第2003/0090593号)および特許文献2(米国特許出願公開第2004/0001147号)に記載されている。このような既知のデジタル画像安定化アルゴリズムの第1および第3ステップは、容易に実施することができる。問題は、意図的モーションから意図的でないモーションを切り分けることを目的とする第2ステップにおいて発生する。これら困難性があるために、アルゴリズムは、静止的または疑似静止的な映像シーケンスにおける脆弱な安定化およびパノラマ/移行的な映像シーケンスにおける優れた(効果的な)追従性、または、静止的または疑似静止的な映像シーケンスにおける強固な(効果的な)安定化およびぎくしゃくしたパノラマ/移行的な映像シーケンスの、どちらかをもたらす。
米国特許出願公開第2003/0090593号明細書
米国特許出願公開第2004/0001147号明細書
したがって本発明の目的は、この状況を、少なくとも部分的に、映像シーケンスに存在するモーションのタイプに基づいてジッター抽出方法を適応的に調整することにより、改善することにある。
この目的を達成するために、本発明はデジタル映像シーケンスの画像フレームを安定化するための処理デバイスであって、この処理デバイスは、映像シーケンスの各画像フレームに対して、映像シーケンスのこの画像フレームと先行画像フレームとの間におけるモーション推定から決定されるこの画像フレームのグローバルモーション・パラメータから、ジッターを決定して、画像フレーム内に存在する望ましくないモーションを除去するために、決定したグローバルモーション・パラメータからジッターを除去する処理手段を備えた該処理デバイスに関する。
この処理デバイスにおいて、処理手段は、
・前記映像シーケンスの前記画像フレームおよび少なくとも1個の先行画像フレームにおける決定したグローバルモーション・パラメータから、前記映像シーケンスに存在するモーションのタイプを決定し、つぎに、
・前記決定したモーションのタイプに基づいて少なくとも2つのジッター抽出技術から選定ジッター抽出技術を選択し、そして
・この選定ジッター抽出技術を使用して前記ジッターを決定する
構成としたことを特徴とする。
・前記映像シーケンスの前記画像フレームおよび少なくとも1個の先行画像フレームにおける決定したグローバルモーション・パラメータから、前記映像シーケンスに存在するモーションのタイプを決定し、つぎに、
・前記決定したモーションのタイプに基づいて少なくとも2つのジッター抽出技術から選定ジッター抽出技術を選択し、そして
・この選定ジッター抽出技術を使用して前記ジッターを決定する
構成としたことを特徴とする。
本発明による処理デバイスは、付加的な特徴を有し、これら特徴を個別にまたは組み合わせることが考えられ、明確には、以下の特徴を有する。すなわち、
・処理デバイスの処理手段は、少なくとも擬似静止的映像シーケンスを強く安定化化するのに適合する第1ジッター抽出技術、およびパノラマ的映像シーケンスに対して滑らかに追従するのに適合する第2ジッター抽出技術を含むグループから、選定ジッター抽出技術を選択する構成とする。
⇒処理デバイスの処理手段は、a)現画像フレームを含むK1個の連続画像フレームにおける選定したK1個の決定したグローバルモーション・パラメータの第1合計と、K2<K1(例えば、K2=K1/2)として現画像フレームを含むK2個の連続画像フレームにおける選定したK2個の決定したグローバルモーション・パラメータの第2合計とを、計算し、つぎに、b)現画像フレームを含む前記K1個の連続画像フレームにおける前記第1合計の符号を比較し、ついで、c)この第1合計の符号を第2合計の符号と比較し、そして、d)前記K1個の第1合計が異符号を持つ、またはK1個の第1合計が同符号を持つとともに前記第1、第2合計が異符号を持つときに、前記第1ジッター抽出技術に関連する第1モーションタイプを現画像フレームに関連付けする、または、前記K1個の第1合計が同符号を持つとともに第1合計と第2合計が同符号を持つときに、前記第2ジッター抽出技術に関連する第2モーションタイプを現画像フレームに関連付けする構成とする。
●処理デバイスの処理手段は、シーンを表す各画像フレームに対して、選定したリファレンシャル内に前記シーンの実位置を示す第1値を計算し、つぎに、現画像フレームを含む連続画像フレームにおけるK1個の決定した第1値の平均を表す第2値を計算し、ついで、前記選定したリファレンシャル内に前記シーンの目標位置を表す第3値を得るために前記第1値の平均に前記第1合計を加算し、そして、前記現画像フレームに対応する前記第3値を、やはり前記現画像フレームに対応する前記第1値から減算することにより、前記現画像フレームに対応するジッターを計算する構成とする。
○処理デバイスの処理手段は、各画像フレームに対して、前記選定したリファレンシャル内に先行画像フレームにより示されるシーンの補正位置を表す第4値、および前記選定したリファレンシャル内に先行画像フレームにより示されるシーンの目標位置を表す第5値を計算し、つぎに、第6値を得るために前記第4値から前記第5値を減算し、そして、前記現画像フレームに対応するジッターから前記第6値を減算して、前記グローバルモーション・パラメータから除去する補正ジッターを得る構成とする。
○各画像フレームに対して、前記選定したリファレンシャル内に現画像フレームにより示されるシーンの補正位置を表す第7値を計算し、つぎに、前記現画像フレームの補正したグローバルモーション・パラメータを表す第8値を得るために、前記第7値から前記第4値を減算し、ついで、この第8値の符号を、前記現画像フレームの前記グローバルモーション・パラメータの符号と比較し、そして、前記符号が同一であるときは前記現画像フレームの計算したジッターおよび補正したジッターを使用し、または前記符号が異なるときは先行画像フレームの計算したジッターもしくは補正したジッターを使用する構成とする。
●K1は映像シーケンスの平均フレームレートを表すパラメータ値より小さいまたは等しい整数とする。
・処理デバイスは、前記映像シーケンスの各画像フレームに対して、前記映像シーケンスの前記画像フレームと先行画像フレームとの間における前記モーション推定を決定し、つぎに前記決定したモーション推定から前記画像フレームの前記グローバルモーション・パラメータを決定する構成した第1計算手段を備える。
・処理デバイスは、前記現画像フレーム内に存在する望ましくないモーションを除去するために、現画像フレームに対応する前記グローバルモーション・パラメータから前記ジッターまたは補正したジッターを除去するよう構成した第2計算手段を備える。
・処理デバイスは、集積回路の少なくとも一部を構成するものとする。
・処理デバイスの処理手段は、少なくとも擬似静止的映像シーケンスを強く安定化化するのに適合する第1ジッター抽出技術、およびパノラマ的映像シーケンスに対して滑らかに追従するのに適合する第2ジッター抽出技術を含むグループから、選定ジッター抽出技術を選択する構成とする。
⇒処理デバイスの処理手段は、a)現画像フレームを含むK1個の連続画像フレームにおける選定したK1個の決定したグローバルモーション・パラメータの第1合計と、K2<K1(例えば、K2=K1/2)として現画像フレームを含むK2個の連続画像フレームにおける選定したK2個の決定したグローバルモーション・パラメータの第2合計とを、計算し、つぎに、b)現画像フレームを含む前記K1個の連続画像フレームにおける前記第1合計の符号を比較し、ついで、c)この第1合計の符号を第2合計の符号と比較し、そして、d)前記K1個の第1合計が異符号を持つ、またはK1個の第1合計が同符号を持つとともに前記第1、第2合計が異符号を持つときに、前記第1ジッター抽出技術に関連する第1モーションタイプを現画像フレームに関連付けする、または、前記K1個の第1合計が同符号を持つとともに第1合計と第2合計が同符号を持つときに、前記第2ジッター抽出技術に関連する第2モーションタイプを現画像フレームに関連付けする構成とする。
●処理デバイスの処理手段は、シーンを表す各画像フレームに対して、選定したリファレンシャル内に前記シーンの実位置を示す第1値を計算し、つぎに、現画像フレームを含む連続画像フレームにおけるK1個の決定した第1値の平均を表す第2値を計算し、ついで、前記選定したリファレンシャル内に前記シーンの目標位置を表す第3値を得るために前記第1値の平均に前記第1合計を加算し、そして、前記現画像フレームに対応する前記第3値を、やはり前記現画像フレームに対応する前記第1値から減算することにより、前記現画像フレームに対応するジッターを計算する構成とする。
○処理デバイスの処理手段は、各画像フレームに対して、前記選定したリファレンシャル内に先行画像フレームにより示されるシーンの補正位置を表す第4値、および前記選定したリファレンシャル内に先行画像フレームにより示されるシーンの目標位置を表す第5値を計算し、つぎに、第6値を得るために前記第4値から前記第5値を減算し、そして、前記現画像フレームに対応するジッターから前記第6値を減算して、前記グローバルモーション・パラメータから除去する補正ジッターを得る構成とする。
○各画像フレームに対して、前記選定したリファレンシャル内に現画像フレームにより示されるシーンの補正位置を表す第7値を計算し、つぎに、前記現画像フレームの補正したグローバルモーション・パラメータを表す第8値を得るために、前記第7値から前記第4値を減算し、ついで、この第8値の符号を、前記現画像フレームの前記グローバルモーション・パラメータの符号と比較し、そして、前記符号が同一であるときは前記現画像フレームの計算したジッターおよび補正したジッターを使用し、または前記符号が異なるときは先行画像フレームの計算したジッターもしくは補正したジッターを使用する構成とする。
●K1は映像シーケンスの平均フレームレートを表すパラメータ値より小さいまたは等しい整数とする。
・処理デバイスは、前記映像シーケンスの各画像フレームに対して、前記映像シーケンスの前記画像フレームと先行画像フレームとの間における前記モーション推定を決定し、つぎに前記決定したモーション推定から前記画像フレームの前記グローバルモーション・パラメータを決定する構成した第1計算手段を備える。
・処理デバイスは、前記現画像フレーム内に存在する望ましくないモーションを除去するために、現画像フレームに対応する前記グローバルモーション・パラメータから前記ジッターまたは補正したジッターを除去するよう構成した第2計算手段を備える。
・処理デバイスは、集積回路の少なくとも一部を構成するものとする。
本発明はまた、映像シーケンスの画像フレームを取得する取得手段と、上述のような処理デバイスとを備える第1電子機器を提供する。このような第1電子機器は、例えばデジタルカメラまたは映像取得手段を持つ通信機器とすることができる。
本発明はまた、処理する映像シーケンスの画像フレームを受信する手段と、上上述のような処理デバイスとを備える第2電子機器を提供する。このような第2電子機器は、例えば、通信機器、デジタルビデオデコーダ、デジタルビデオレコーダまたはデジタルビデオエンコーダとすることができる。
本発明の他の特徴および利点は、以下の詳細な説明および添付図面を検討することで明らかになるだろう、
本発明の他の特徴および利点は、以下の詳細な説明および添付図面を検討することで明らかになるだろう、
図1に本発明による処理デバイスDの実施例を示す。この実施例において、処理デバイスDは電子機器E1の一部であり、またこの電子機器E1は、デジタル映像(ビデオ)シーケンスを取得して処理(すなわち安定化)するために設けた取得手段AMと、処理した映像シーケンスを表示するための表示手段DMとを備える。電子機器E1の例としてはデジタルカメラがあるが、本発明はこの種の撮像機器に限定するものではない。実際、撮像手段を有する通信機器、例えば携帯電話または携帯情報端末(PDA)であってもよい。
図2に示した変更例において、処理デバイスDは電子機器E2の一部であり、この電子機器E2は、やはりデジタル映像シーケンスの画像フレームを表すデジタルデータを受信し、処理(安定化)するために設けたデータ受信手段RMと、処理した映像シーケンスを少なくとも一時的に保存するための保存手段SMとを備える。例えば、電子機器E2は、デジタルビデオデコーダ、デジタルビデオレコーダまたはデジタルビデオエンコーダがあり、これらをデジタルカメラ、通信機器またはそれ以外の通信ネットワークに接続するよう構成するが、本発明はこのタイプの受信機器に限定するものではない。実際、それもまた携帯電話または携帯情報端末(PDA)などの通信機器であってよい。
本発明による処理デバイスDは、少なくとも処理モジュールPMを備え、この処理モジュールPMは、映像(ビデオ)シーケンスにおけるほとんどすべての画像フレームに存在するジッター(望ましくない揺れ動き)を決定(推定)するよう構成する。このジッターは、並進移動および/または回転運動を表す。
そのようなジッターを決定するために、処理モジュールPMは各画像フレームのいわゆるグローバルモーション・パラメータを必要とする。グローバルモーション・パラメータは、グローバルモーション・ベクトルGMVまたは回転とすることができる。実際には、ジッターは、各画像フレームにおける決定したグローバルモーション・パラメータから除去して、画像フレームが含む望ましくない揺れ動きを除去しなければならず、これにより、ビデオ画像の安定化に寄与する。順次のGMV値が意図的な動きと意図的でない(望ましくない)動き(すなわちジッター)の双方を含む場合を想定する。このようなGMVを第1計算モジュールCM1により決定し、このCM1は、図1および図2に示すように、処理デバイスの1部とする、または電子機器E1またはE2の一部とし、処理デバイスDに接続することができる。
第1計算モジュールCM1に、デジタル映像(ビデオ)シーケンスの画像フレームを表すデジタルデータを供給し、処理(すなわち安定化)し、この第1計算モジュールCM1は、標準的には、映像シーケンスの各画像フレームに対して、この(現)画像フレーム(時刻tにおける)と先行画像フレーム(時刻t−1における)との間のモーション(動き)推定を決定し、つぎに、このモーション推定から、先行画像フレームと比較したこの画像フレームの位置の差を表すグローバルモーション・パラメータを決定するよう構成する。当業者に既知である任意の技術を使用して、画像フレームのGMVを計算することができる。
本発明によれば、処理モジュールPMは、デジタル映像シーケンスの各画像フレームに対して、このデジタル映像シーケンスにおける現画像フレームおよび先行画像フレームのグローバルモーション・パラメータ(第1計算モジュールCM1によって決定するGMVおよび/または回転運動)から、そのモーションのタイプを決定するよう構成する。処理モジュールPMは、さらに、現画像フレームに対して決定したモーションのタイプに基づいて、少なくとも2つのジッター抽出技術における一つの選定すべきジッター抽出技術を選択し、また最終的に選定したジッター抽出技術を使用して現画像フレームに対応するジッターを決定するよう構成する。
例えば、処理モジュールPMは、少なくとも、静的および準静的な映像シーケンスを強く安定化し得る第1ジッター抽出技術、およびパノラマ的映像シーケンスに滑らかな追従し得る第2ジッター抽出技術のうちから、選定すべきジッター抽出技術を選択するよう処理を進める。
技術を選択するために、処理モジュールPMは、以下に説明する4個のステップを実施することができる。これらステップは、現画像フレーム内に存在するモーション(動き)が、静的および準静的な映像シーケンスの動き、またはパノラマ的(および移行的)映像シーケンスの動きのどちらに対応しているかを決定することを意図する。
パノラマ的映像フレームの検出は、入力映像シーケンスのGMVをモニタすることに基づき、そのモニタは第1計算モジュールCM1により出力する。より正確には、入力された映像シーケンスにおける動きがパノラマ的映像である場合、動きが一義的な方向に進行し、したがって、いくつかの連続したGMVは同一符号を有するという事実に基づく。しかし、入力された映像シーケンスに存在するジッターが原因で、いくつかのGMVを考慮に入れる必要があり、したがって、意図的でないジッター動きを平滑化し、また考慮しないようにする。
この目的のために、第1ステップにおいて、処理モジュールPMは、現画像フレーム(時刻t)を含む映像シーケンスのK1個の連続画像フレームにおける選定した数K1個の決定したグローバルモーション・パラメータGMV(t)の第1合計S1(t)と、現画像フレームを含む同一映像シーケンスのK2個の連続画像フレームにおけるK2個の決定したグローバルモーション・パラメータの第2合計S2(t)とを、計算し、この場合K1<K2とする。S1(t)およびS2(t)は次式のようになる。すなわち、
例えば、K2=K1/2を選択する。
K1は、望ましくはK1=(FR*RE)/1000の式で定義する整数であり、ここで“/”は整数除算であり、FRは入力した映像シーケンスの平均フレームレートであり、REはパノラマ映像的動きの場合における計算の反応性(すなわちパノラマ映像的動きを検出するのに必要な最小時間)を定義する時定数(例えば1000分の1秒で表す)である。REの値は、例えば650〜690の間における値とし、さらにより好適には、安定性と反応性との間でよい調和がとれる値の667にするとよい(しかし他のRE値も可能である)。K1値がより高くなればなるほど、アルゴリズムが検出するパノラマ映像的動きはより少なくなる。
第2ステップにおいて、処理モジュールPMは、現画像フレームを含むK1個の連続画像フレームの第1合計S1(t−K1),S1(t−K1+1),S1(t−K1+2),…,S1(t−1),S1(t)のそれぞれの符号を比較する。
つぎに第3のステップにおいて、処理モジュールPMは、現画像フレームに対応する第1合計S1(t)の符号を、やはり現画像フレームに対応する第2合計S2(t)の符号と比較する。
最後に第4のステップにおいて、処理モジュールPMは、現画像フレームのモーションのタイプを決定するために二つの比較結果を使用する。より正確には、3つのケースが起こり得る。すなわち、
・K1個の第1合計(t−K1),S1(t−K1+1),S1(t−K1+2),…,S1(t−1),S1(t)が異符号を持つ場合、処理モジュールPMは、第1ジッター抽出技術に関連する第1モーションタイプを現画像フレームに関連させる、
・K1個の第1合計(t−K1),S1(t−K1+1),S1(t−K1+2),…,S1(t−1),S1(t)が同符号を有し、かつ現画像フレームの第1合計S1(t)と第2合計S2(t)が異符号を有する場合、処理モジュールPMはやはり第1モーションタイプを現画像フレームに関連させる、
・K1個の第1合計(t−K1),S1(t−K1+1),S1(t−K1+2),…,S1(t−1),S1(t)が同符号を有し、かつ現画像フレームの第1合計S1(t)と第2合計S2(t)が同一符号を有する場合、処理モジュールPMは第2ジッター抽出技術に関連する第2モーションタイプを現画像フレームに関連させる。
・K1個の第1合計(t−K1),S1(t−K1+1),S1(t−K1+2),…,S1(t−1),S1(t)が異符号を持つ場合、処理モジュールPMは、第1ジッター抽出技術に関連する第1モーションタイプを現画像フレームに関連させる、
・K1個の第1合計(t−K1),S1(t−K1+1),S1(t−K1+2),…,S1(t−1),S1(t)が同符号を有し、かつ現画像フレームの第1合計S1(t)と第2合計S2(t)が異符号を有する場合、処理モジュールPMはやはり第1モーションタイプを現画像フレームに関連させる、
・K1個の第1合計(t−K1),S1(t−K1+1),S1(t−K1+2),…,S1(t−1),S1(t)が同符号を有し、かつ現画像フレームの第1合計S1(t)と第2合計S2(t)が同一符号を有する場合、処理モジュールPMは第2ジッター抽出技術に関連する第2モーションタイプを現画像フレームに関連させる。
このように、第1モーションタイプは静的および準静的な映像シーケンスに対応するとともに、第2モーションタイプはパノラマ的(および移行的)の映像シーケンスに対応する。
どんな第1ジッター抽出技術(静的および準静的な映像シーケンスの強い安定化に適する)を使用してもよく、以下に説明する2つの技術が有名である。
第1ジッター抽出技術は、時刻tにおける現画像フレームの先行画像フレームに対する動きの方向と大きさを表すグローバルモーション・ベクトルGMV(t)を、式Eに基づく可変適応的因数である減衰係数a(E)を伴って統合する段階(フェーズ)でスタートすることができ、これにより、モーション補正の観点から現画像フレームに適用する最終モーション・ベクトルの補正を表す統合ベクトルIMV(t)、いわゆる統合モーション・ベクトルを出力する。この統合モーション・ベクトルIMV(t)は、次式で表すことができる。すなわち、
IMV(t)=a(t,t−1...)・IMV(t−1)+GMV(t)
ここでIMV(t−1)は現画像フレームに先行する画像フレームに対応する統合モーション・ベクトルである。
IMV(t)=a(t,t−1...)・IMV(t−1)+GMV(t)
ここでIMV(t−1)は現画像フレームに先行する画像フレームに対応する統合モーション・ベクトルである。
減衰係数a(E)は、例えば2個の直近のグローバルモーション・ベクトルGMV(t−1)とGMV(t)の合計に依存する。このことにより、意図的な動きの開始を検出することを可能にする(直近のグローバルモーション・ベクトルGMV(t−1)それ自体は、通常、不安定すぎて使用できない)。
減衰係数a(E)と2個の直近グローバルモーション・ベクトルの合計(GMV(t−1)+GMV(t))との間における対応表は、以下の方法で構成することができる。すなわち、
・GMVの低い合計値は、あたかも意図的な静的カメラとみなせるように、強く映像シーケンスを安定化させる高い減衰係数値a(E)をとり、
・GMVの高い合計値は、低い減衰係数値をとり、それによりシーケンスは元の動きをより正確に追従する。
・GMVの低い合計値は、あたかも意図的な静的カメラとみなせるように、強く映像シーケンスを安定化させる高い減衰係数値a(E)をとり、
・GMVの高い合計値は、低い減衰係数値をとり、それによりシーケンスは元の動きをより正確に追従する。
いくつかの付加的な機能を提案することができる。例えば、xベクトルのフィルタ処理をyベクトルのフィルタ処理と無関係に行うと有利である。さらに、規定区域外(アウト・オブ・バウンズ)検出を設けることができる。この検出によれば、IMV補正が、認証された追加入力範囲に対応する所定閾値を超えていないかをチェックし、また許容範囲、例えば+/−16個の画素(またはピクセル)範囲内にとどまるように補正することができる。
このような技術は、文献(“Fast digital image stabilizer based on Gray-code bit-plane matching”, IEEE Transactions on Consumer Electronics, vol.45, no3, August 1999, pp.598-603)に記載されたものの改良型である。
改良形態において、第1ジッター抽出技術は、平行移動の性質(並進的挙動)だけでなく回転運動の性質(回転的挙動)を有する、あるいは回転運動の性質(回転的挙動)のみ有するジッターを抽出するために設ける。この改良形態は、以下に説明するように取得することができる特別なグローバルモーション・ベクトルGMVを必要とする。
モーション推定フェーズを、以下の3個のサブステージ、すなわち、
・いわゆる“「ブロックモーション・ベクトル(以下BMV)」であって、例えば現画像および先行画像間におけるマクロブロックをマッチングする該BMVを、デジタルカメラから得る画像の特定の部分(コーナー、エリア等)のために計算しまた生成するサブステージと、
・アフィンモーションをサーチするためにBMVを除去するサブステージと、
・BMVから導き出すカメラ動きを表すグローバルモーション・パラメータ(並進ベクトルおよび回転角度)を得るために、連立方程式の解を求め、および排除基準を決定するサブステージと、
に副次的に分割する。
・いわゆる“「ブロックモーション・ベクトル(以下BMV)」であって、例えば現画像および先行画像間におけるマクロブロックをマッチングする該BMVを、デジタルカメラから得る画像の特定の部分(コーナー、エリア等)のために計算しまた生成するサブステージと、
・アフィンモーションをサーチするためにBMVを除去するサブステージと、
・BMVから導き出すカメラ動きを表すグローバルモーション・パラメータ(並進ベクトルおよび回転角度)を得るために、連立方程式の解を求め、および排除基準を決定するサブステージと、
に副次的に分割する。
BMVを生成する第1サブステージは、以下の4個のステップを有する。
第1ステップはバイナリ画像フレームの生成に関する。
「1ビット画像」をモーション推定に使用するが、この理由は、メモリ制約を大幅に軽減し、さらに、基準ブロックとサーチブロックとの間におけるひずみ関数を極めて効率的に計算できるからである。ひずみ関数、すなわち「絶対差の合計」(以下「SAD」と称する)は、容易に実装できる「XOR」演算子を使用することにより計算する。画像フレームの「グレイコードのビットプレーン」分解を使用する。グレイコードのビットプレーンは以下のようにして生成する。すなわち、
ある場所におけるピクセルの輝度(ルミナンス)を次式のように表す。
ここでxおよびyは前記面の座標であり、ak は0≦k≦N−1において0か1のどちらかである。例えば、概念を分かり易くするために、この場合8ビットの輝度画像としてN=8を用いる。
第4グレイビットコードg4は、以下の方程式から計算する。すなわち、
「排他的OR(XOR)」演算子を表し、ak は方程式(1)により得る「基底2」表示のk番目のビットである。
(例えば取得手段AMによって)原初的に生成された画像フレームに対応する、第4グレイコードのビットプレーン画像、すなわちバイナリ画像フレームを、メモリ手段に記録する。
「1ビット画像」をモーション推定に使用するが、この理由は、メモリ制約を大幅に軽減し、さらに、基準ブロックとサーチブロックとの間におけるひずみ関数を極めて効率的に計算できるからである。ひずみ関数、すなわち「絶対差の合計」(以下「SAD」と称する)は、容易に実装できる「XOR」演算子を使用することにより計算する。画像フレームの「グレイコードのビットプレーン」分解を使用する。グレイコードのビットプレーンは以下のようにして生成する。すなわち、
ある場所におけるピクセルの輝度(ルミナンス)を次式のように表す。
第4グレイビットコードg4は、以下の方程式から計算する。すなわち、
「排他的OR(XOR)」演算子を表し、ak は方程式(1)により得る「基底2」表示のk番目のビットである。
(例えば取得手段AMによって)原初的に生成された画像フレームに対応する、第4グレイコードのビットプレーン画像、すなわちバイナリ画像フレームを、メモリ手段に記録する。
第2ステップは、ブロック位置およびテクスチャ指標に関する。
例えば景観を表す上記バイナリ画像フレームImgを、例えばA1〜A6の6個のエリアに分割し、通常これらエリアは、それぞれ画像の頂部および底部における2本の平行線にしたがって分布する。A1〜A6の各エリアは、例えば16×16ピクセル(画像のQCIFフォーマットとして知られる画像フォーマットの場合において)の9個のマクロブロック(以下“MB”)を有する。
例えば景観を表す上記バイナリ画像フレームImgを、例えばA1〜A6の6個のエリアに分割し、通常これらエリアは、それぞれ画像の頂部および底部における2本の平行線にしたがって分布する。A1〜A6の各エリアは、例えば16×16ピクセル(画像のQCIFフォーマットとして知られる画像フォーマットの場合において)の9個のマクロブロック(以下“MB”)を有する。
8ビット画像のバイナリ化によって、1ビット画像の各バイナリMBに対して信頼性基準を計算する。この基準は、16×16ピクセルのブロックにおいて単に「1」であるピクセルの数をカウントすることで実行する。テクスチャが粗すぎる、すなわち「0」に比べて「1」の割合が大きすぎるまたは小さすぎる比を有するMBsは、信頼性がないとラベル付けして、それらに対してモーション推定を実行しない。例えば、いくつかのブロックは極めて均一であると、これらブロックはしばしば間違って推定したモーション・ベクトルにつながる。
第3ステップは、ブロックマッチング・サーチ手法に関する。この手法は、以下の4個のサブステップを有する。
全面的にサーチするブロックマッチングを実行するエリアには可変数のブロックモーション・ベクトル(BMV)がある。
予測変数(プレディクタ)およびサーチ範囲:各エリアにおける候補ベクトルを一層簡素化するために、各MBラインの第1ベクトルだけが拡張したサーチエリアを有する。残りのブロックは、先行する信頼性のあるBMVから得る予測モーション・ベクトルを中心とする減少したサーチ窓を有する。選定される隣接ブロックの信頼性がないならば、直近の有効MVを予測変数として使用する(処理順序は左から右、上から下に行う)。
信頼性のなさそうなMVの排除:いくつかの信頼性のなさそうなMVを排除するために、メカニズムを追加する。とくに変化が僅かな場合、モーションサーチは結果をもたらすだろうが、この結果は完全に間違っていることもある:照合したブロックが極めてことなり、結果として得られるベクトルは「ほとんど似ていないブロック」を「最も似ているブロック」よりも多く指し示すことがあり得る。したがって、SADが所定閾値(以下SAD閾値と称する)を超えているMVを排除するよう選択する。
ブロックマッチング・サーチの高速化:上記閾値を同様に使用して、モーションサーチを高速化することができる。あらかじめ以下のメカニズムを実施する。すなわち、各MBサーチ位置に対して、現SADを、MB内における2本毎に現最小SADと比較する。現SADがすでに最小SADを超えている場合、その位置に対するサーチを終了する。したがって現最小SADをSAD閾値に初期化することで、マッチング処理をさらに高速化できるようになる。
第4ステップはサブピクセルのモーション推定に関する。
サブピクセルサーチを実行する一つの方法としては、サブピクセルサンプルを生成するために8ビット画像を補間し、またこの拡張した画像に対してバイナリ化処理を加えるものがある。この後、拡張したバイナリ画像のマッチングにより、モーション・ベクトルにサブピクセル精度を付与する。
サブピクセルサーチを実行する一つの方法としては、サブピクセルサンプルを生成するために8ビット画像を補間し、またこの拡張した画像に対してバイナリ化処理を加えるものがある。この後、拡張したバイナリ画像のマッチングにより、モーション・ベクトルにサブピクセル精度を付与する。
第2サブステージはアフィンモーション・サーチを実行するためのBMV排除である。
先行ステップから1組のBMVセット、すなわち現画像と先行画像との間における1組の対応点のセットが得られている。グローバルアフィンモーション・パラメータを得るために、この系の解を求める。2フレーム間における対応点の3個以上のペア(対)により、アフィンモーション・パラメータを得る方程式の最小二乗解は入手可能である。信頼性のある結果を得るために、さらにより多くのベクトル(54個にも達するベクトル)を使用することで、より決定的な系を構築する。
先行ステップから1組のBMVセット、すなわち現画像と先行画像との間における1組の対応点のセットが得られている。グローバルアフィンモーション・パラメータを得るために、この系の解を求める。2フレーム間における対応点の3個以上のペア(対)により、アフィンモーション・パラメータを得る方程式の最小二乗解は入手可能である。信頼性のある結果を得るために、さらにより多くのベクトル(54個にも達するベクトル)を使用することで、より決定的な系を構築する。
しかし、最小二乗法アルゴリズムは、アウトライアー(異常値)に極めて敏感であり、適正に異常値を除去することは、モーション推定処理の重大なステップである。このことは、以下に説明する3ステップで実行する。
1.SADに基づくより多くのBMVの除去:SADが所定の閾値より大きいベクトル(以下SAD_threshold_low)は排除する(この閾値は、もちろん 「モーション推定」に先行して使用した閾値より低い)。
2.ローカル(局所的)異常値の除去:まず異常値を各エリアに対して局所的に除去する。
6個のエリアがあり、1エリアあたり最大9個のベクトルが存在する。
6個のエリアがあり、1エリアあたり最大9個のベクトルが存在する。
ベクトルの1個の座標に対する処理を、以下に例えばx座標について説明する。エリア内の各ベクトルk(ただし、0≦k≦有効ベクトルの数)に対して、絶対差の合計sum_diff[k]をこのベクトルkからエリア内の全ての他のベクトル(i)まで計算する。すなわち、
そして以下の式を計算する。すなわち、
ここでaverage_diffはエリアをまたがった絶対差合計の平均である。
最終的な排除基準sum_diff_[k]は次式のようになる:
ここでαとβは所定の閾値である。
この計算はxおよびyのベクトル値に対して独立して実行する。どのベクトル座標も方程式(2ter)を満たさないならば、そのベクトルを排除する。
最終的な排除基準sum_diff_[k]は次式のようになる:
この計算はxおよびyのベクトル値に対して独立して実行する。どのベクトル座標も方程式(2ter)を満たさないならば、そのベクトルを排除する。
3.グローバル(大域的)異常値の除去:画像レベルにおいて全てのベクトルを使用して実行する異常値排除処理は、ローカル異常値と同一の原理を使用する。ローカルステップは、いくつかのベクトルはグローバルステップにおいてクラスタを構築することができるという理由から必要であり、したがって、もし可能であれば局所的なレベル(ローカルレベル)でまず始めに除去すべきである。グローバル排除は、第1フェーズ後にも残存する異常値を除去することが可能であり、なぜなら、エリアは極めて少数のベクトルを有する、またはグローバルモーションに対応しない移動物体を有するからである。閾値αとβは、しかし、それほど限定的なものではなく、例えば高速回転運動の場合に排除するベクトルが多すぎることを回避する。
第3サブステージは連立方程式の解を求め、また排除基準を決定することに関する。
過剰決定系を解く(一次連立方程式をガウス‐ジョルダン法により解く)。この系は、以下の通りである。すなわち、
X=ax+by+e
Y=cx+dy+f
ここでxとyはバイナリ画像の座標である。
過剰決定系を解く(一次連立方程式をガウス‐ジョルダン法により解く)。この系は、以下の通りである。すなわち、
X=ax+by+e
Y=cx+dy+f
ここでxとyはバイナリ画像の座標である。
最小二乗解は6個のパラメータa,b,c,d,e,fを与える。この連立方程式の変換を、平行移動(平行移動ベクトル(Tx,Ty))+回転運動(回転角θ)+カメラのズーム(倍率r)としてモデル化する場合、これら方程式は次式に対応する。すなわち、
X=rcosθx−rsinθy+Tx
Y=rsinθx+rcosθy+Ty
したがって、回転角θを計算するとともに、方程式の解により得られるパラメータa,b,c,dの一貫性をチェックする:
・第1チェックを実行して、次式をほぼ満足するかどうかを決定する。すなわち、
a2+b2=c2+d2 (両辺ともr2に等しくなくてはならない)
この場合、
(a2+b2)−(c2+d2)>
(a2+b2)−(c2+d2)> max_diff_zoom_factor (3)
であるとき、結果を排除する。
ここでmax_diff_zoom_factorは所定のズームパラメータである。
・第2チェックを実行して、2個の方程式がほぼ同じ回転角を導くかどうかを決定し、|θ1−θ2|>
|θ1−θ2|> max_angle_difference (4)
のとき、結果を排除する。
ここでmax_angle_differenceは他の所定の回転角パラメータ、θ1=arctan(−b/a)、およびθ2=arctan(c/d)である。
さらに、medium_angle_differenceとして示される他の所定回転角パラメータが次式を満たすか否かをチェックする。すなわち、
medium_angle_difference <|θ1−θ2|< max_angle_difference (4bis)
見出した最小の回転角をθの値として選択する。
もし結果に一貫性があると判断できるならば、したがって平行移動ベクトル(Tx=c,Tx=f)およびθ=(θ1+θ2)/2で与えられる回転角θの双方を得る。
方程式(3)または(4)のどちらか一方が真であるために、連立方程式の解が得られない場合、回転角θを0とする。平行移動ベクトルとして、BMVの中央値をとる(異常値除去処理の後に)。
X=rcosθx−rsinθy+Tx
Y=rsinθx+rcosθy+Ty
したがって、回転角θを計算するとともに、方程式の解により得られるパラメータa,b,c,dの一貫性をチェックする:
・第1チェックを実行して、次式をほぼ満足するかどうかを決定する。すなわち、
a2+b2=c2+d2 (両辺ともr2に等しくなくてはならない)
この場合、
(a2+b2)−(c2+d2)>
(a2+b2)−(c2+d2)> max_diff_zoom_factor (3)
であるとき、結果を排除する。
ここでmax_diff_zoom_factorは所定のズームパラメータである。
・第2チェックを実行して、2個の方程式がほぼ同じ回転角を導くかどうかを決定し、|θ1−θ2|>
|θ1−θ2|> max_angle_difference (4)
のとき、結果を排除する。
ここでmax_angle_differenceは他の所定の回転角パラメータ、θ1=arctan(−b/a)、およびθ2=arctan(c/d)である。
さらに、medium_angle_differenceとして示される他の所定回転角パラメータが次式を満たすか否かをチェックする。すなわち、
medium_angle_difference <|θ1−θ2|< max_angle_difference (4bis)
見出した最小の回転角をθの値として選択する。
もし結果に一貫性があると判断できるならば、したがって平行移動ベクトル(Tx=c,Tx=f)およびθ=(θ1+θ2)/2で与えられる回転角θの双方を得る。
方程式(3)または(4)のどちらか一方が真であるために、連立方程式の解が得られない場合、回転角θを0とする。平行移動ベクトルとして、BMVの中央値をとる(異常値除去処理の後に)。
モーション(動き)フィルタ処理フェーズを、モーション(動き)推定フェーズに続いて行う。このこのモーション(動き)フィルタ処理フェーズにおいては、平行移動ベクトルと回転角を個別にフィルタ処理するのが好ましい。平行移動および回転運動における理想的な補正を発見した後に、境界チェックを実行する。このようにして、このモーション(動き)フィルタ処理フェーズは、3個のメインステップを有する。
第1ステップは、平行移動のフィルタ処理である。
一連のシーケンスにわたり一貫してジッターから意図的なモーション(動き)を分離することは複雑な問題である。リアルタイム用途における主な制約は、どんな遅延も許されないこと、すなわちいくつかのフレームをメモリ手段に保存できないことと、動きがよく知られていることである。平行移動ベクトルのためのフィルタ処理方法は、上述したようにそれ自体既知である。
したがってこのような方法についてさらに詳述する必要はない。
一連のシーケンスにわたり一貫してジッターから意図的なモーション(動き)を分離することは複雑な問題である。リアルタイム用途における主な制約は、どんな遅延も許されないこと、すなわちいくつかのフレームをメモリ手段に保存できないことと、動きがよく知られていることである。平行移動ベクトルのためのフィルタ処理方法は、上述したようにそれ自体既知である。
したがってこのような方法についてさらに詳述する必要はない。
第2ステップは、回転角ベクトルのフィルタ処理に関する。
回転角は、その変化が平行移動ベクトルに比べてあまり突発的なものはないため、異なったより単純な方法でフィルタ処理する。モーション(動き)推定により得られる角度を、カメラにより得る画像シーケンスにわたり累積する。処理は、それらを補償しようとする。累積角度を、シーケンス全体を通して全回転角度を合計することにより計算して、例えば、フレームがn個のときは、以下のようになる。すなわち、
(Accθ)[n]=Σ(l≦k≦n)θ[k]
原初的(元の)累積角度は、原初的(元の)回転角度(モーション推定処理により得られる)の合計として定義する。補正した累積角度は、補正した累積角度(以下に説明するように、境界チェックステップによるクリッピング後の)の合計として定義する。
回転角は、その変化が平行移動ベクトルに比べてあまり突発的なものはないため、異なったより単純な方法でフィルタ処理する。モーション(動き)推定により得られる角度を、カメラにより得る画像シーケンスにわたり累積する。処理は、それらを補償しようとする。累積角度を、シーケンス全体を通して全回転角度を合計することにより計算して、例えば、フレームがn個のときは、以下のようになる。すなわち、
(Accθ)[n]=Σ(l≦k≦n)θ[k]
原初的(元の)累積角度は、原初的(元の)回転角度(モーション推定処理により得られる)の合計として定義する。補正した累積角度は、補正した累積角度(以下に説明するように、境界チェックステップによるクリッピング後の)の合計として定義する。
通常は、境界チェックステップを行うことから、使用者がカメラを自発的に傾けようと決断する場合、全回転角を補償することは不可能または望ましくないことですらある。初期位置に戻りつつあるときに、新たな角度「固定」位置(補正した累積角度に対応する)は原初シーケンスに比べてわずかに傾いていることがある。このことを回避するために、モーション推定により測定した元の累積角度をメモリ手段に保存および保持する。所定数の連続フレームに対して、補正した累積角度が元の累積角度から違いすぎている場合、追加の補正を加え、補正したシーケンスを使用者が望む位置により近い位置に戻す。
第3ステップは境界チェックに関する。
「境界検査ステップ」の間、「回転運動+平行移動の補正」(以下「R+T」と記載する)をチェックし、認証された追加入力エリアに応じてこの補正が所定許容閾値を超えているか否か決定する。もし超えているなら、許容範囲内(例えば具体的に、±8画素の境界)におさまるように補正する。ただし、第1に平行移動の補正に加えて(実エリアよりわずかに小さい模擬追加エリアとともに)、つぎに、回転角を画像の追加許容境界内に留まるように削り取る。
「境界検査ステップ」の間、「回転運動+平行移動の補正」(以下「R+T」と記載する)をチェックし、認証された追加入力エリアに応じてこの補正が所定許容閾値を超えているか否か決定する。もし超えているなら、許容範囲内(例えば具体的に、±8画素の境界)におさまるように補正する。ただし、第1に平行移動の補正に加えて(実エリアよりわずかに小さい模擬追加エリアとともに)、つぎに、回転角を画像の追加許容境界内に留まるように削り取る。
詳細なプロセスを以下に説明する。
第一に、画像フレームF(以下「フレーム」と称する)を(フレームの中心をOからO´になるように)平行移動し、この平行移動ベクトルをVTとする。得られた新しい中心O´の位置で、フレームFを算出しなければならない所定角度までのみ回転できる。
第一に、画像フレームF(以下「フレーム」と称する)を(フレームの中心をOからO´になるように)平行移動し、この平行移動ベクトルをVTとする。得られた新しい中心O´の位置で、フレームFを算出しなければならない所定角度までのみ回転できる。
最終フレーム生成プロセスにおいて、例えばデジタルカメラE1などの取得手段AMは、追加エリア入力Ai(境界サイズが1に等しい)を有するフレームFを発生する。もし安定化したフレームFを生成する回転角が大きすぎる場合、回転したフレームにホール(孔)を持つことがある。
フレームFは使用者に提示する画像の境界を定める内側長方形ABCDを有する。
ここで、トリミングした画像における一つ(例えばAであれば左上方)のコーナーを考慮して、どのように境界チェックステップを行うかを説明するが、この処理は他のコーナーに対しても同様であり、各コーナーに対して繰り返さなければならない。処理のゴールは、境界サイズが1であることを考慮して、回転した画像の境界が点Aで交差するように限界角度を計算することである。
時計方向と反時計方向のどちらに回転するかで、考慮したコーナーごとに2個の限界角度が存在する。
2個の限界角度間の範囲で任意の角度を妥協点とし、ホール(孔)を生じないようにする(このときコーナーAを考慮する:やはり残りのコーナーについてもチェックしなければならない)。
2個の限界角度間の範囲で任意の角度を妥協点とし、ホール(孔)を生じないようにする(このときコーナーAを考慮する:やはり残りのコーナーについてもチェックしなければならない)。
第1限界角度θ1Aを、点Aの近傍にホールを生成せずに、次式により計算する(第1ケース)。すなわち、
θ1A=α1A−ArcCos((O´M)/LA)
ここで、α1A=ArcCos((nl/2−1+Vy)/LA)
であり、LAは変位した中心O´とコーナーAとの間における距離(容易にフレームサイズ、境界サイズ1および平行移動ベクトルVTから計算できる)であり、VyはベクトルVTのy値であり、O´M=nl/2である(npとnlはそれぞれキャプチャしたフレームFの幅と高さである)。
θ1A=α1A−ArcCos((O´M)/LA)
ここで、α1A=ArcCos((nl/2−1+Vy)/LA)
であり、LAは変位した中心O´とコーナーAとの間における距離(容易にフレームサイズ、境界サイズ1および平行移動ベクトルVTから計算できる)であり、VyはベクトルVTのy値であり、O´M=nl/2である(npとnlはそれぞれキャプチャしたフレームFの幅と高さである)。
他方の限界角度θ2Aを点Aの近傍にホールを発生せずに計算する(第2ケース)。
θ2A=α2A−ArcCos((O´N)/LA)
ここで、α2A=ArcCos((np/2−1+Vx)/LA)
であり、VxはベクトルVTのx値であり、O´N=np/2である。
θ2A=α2A−ArcCos((O´N)/LA)
ここで、α2A=ArcCos((np/2−1+Vx)/LA)
であり、VxはベクトルVTのx値であり、O´N=np/2である。
従って、4個のコーナーA,B,C,Dに対して実行すると、8個の角度を得る。つぎに、正の角度の最小値と負の角度の最大値を計算する。もしモーション推定から得た回転角度を、必要ならば、これら2個の最終角度のうち一方にとどめる。
任意な第2ジッター抽出技術(パノラマ的映像シーケンスの滑らかな追従に適合する)を使用することができ、このことを以下に説明する。
第2ジッター抽出技術は、映像シーケンスの各画像フレームに対してジッターを出力することを意図するものであり、このジッターは、入力された映像シーケンスのグローバル動きに追従できるようにするため、現画像フレームのグローバルモーション・パラメータから除去できる。入力した映像シーケンスの「平均モーション」はこの要件を満たす。したがって、ジッターは、画像フレームの現在および実モーションと画像フレームの所望の平均化したモーションとの差として計算しなければなれない。
現画像フレームの実モーションおよび所望モーションを定義するために、いわゆる累積モーション・ベクトル、すなわちAMVと称されるベクトルを使用する。
現画像フレームの実モーションおよび所望モーションを定義するために、いわゆる累積モーション・ベクトル、すなわちAMVと称されるベクトルを使用する。
AMVは(固定の)リファレンシャル(参照基準)内におけるシーンの位置を示すため、AMVは、DISのコンテキスト(状況)の中でよく使用される量であることに留意する。ここにおける「シーン」は、取得手段AM、例えばデジタルカメラE1によって映像シーケンス中にカバーされる視界全体を意味する。GMV(t)が、時刻tにおけるシーンを表す現画像フレームと、時刻t−1にける同様のシーンを表す先行画像フレームとの間における位置差を表す場合、AMV(t)は映像シーケンスの開始からの連続したGMV(t)の合計を表し、したがってリファレンシャル(参照基準)内におけるシーン位置を表す。
所望モーションは、同一AMVの平滑化(単純な動き平均化フィルタによる)バージョンとして定義する。
動き平均の計算にはズレを生ずることが示されている。より正確には、時刻tにおける平均AMVは、tから平均周期を引いた時刻における入力映像シーケンスの平滑化した位置を表し、このことは、実行制約としてゼロ遅延が必要となるからである。モーションはパノラマ的映像シーケンスに対応するため、取得手段AMの速度に基づいてこのズレは極めて大きくなる。したがって、もし測定したモーションから平均化したモーションを直接減算する場合、ズレおよびジッターが累積し、このために計算したジッターは極めて大きくなる。この計算したジッターは、ほとんど許容限界(例えばCIFフォーマットの16ピクセルに等しくすることができる)を上回り、切り取られてこの許容限界値に留まる。この場合においては、モーションに追従しても、ジッターを何ら補正しない。
したがって、この問題を解決するために、モーションを外挿法で推定しなければならない。この操作のために、選定されたリファレンシャル(参照基準)内のあるシーンの目標位置を表す第3値desiredAMV(t)を、次式のように定義する。すなわち、
ここでrealAMV(t)はリファレンシャル内のシーンの実位置であり測定した位置を表す第1値であり、S1(t)は先に定義した第1合計(時刻(t−K)からrealAMV(t)に加えられたモーション量を表す)である。
ジッターがほぼゼロであると期待され、また入力された映像シーケンスのモーションがほぼ一定速度のパノラマ/移行的な映像に対応する限りは、desiredAMV(t)がその量を増加し続けてきたということに相当強い確信が持てる。
(第3)値desiredAMV(t)を計算するために、処理モジュールPMは映像シーケンスの各画像フレームに対して第1値realAMV(t)をまず計算して、つぎに、現画像フレームを含むK1個の連続画像フレームにおけるK1個の決定した第1値の平均を表す(第2)値を計算し、最終的にこの第1値の平均を現画像フレームの第1合計S1(t)に加える。
処理モジュールPMは、realAMV(t)から直接desiredAMV(t)を減算することでジッターを得ることができる。すなわち、
jitter(t) = realAMV(t) - desiredAMV(t)
である。
しかし、このことは、第1ジッター抽出技術から第2ジッター抽出技術に切り換えるときに、異なる方法で行うと有利である。実際、この場合において、調整値[shift(t)]を処理モジュールPMによって計算し、第1ジッター抽出技術から第2ジッター抽出技術に切り換える度毎に、出力映像シーケンス(すなわち安定化した映像シーケンス)内に発生する「急変」を緩和しなければならない。したがって、処理モジュールPMが、第1ジッター抽出技術から第2ジッター抽出技術への切り換えを決定する度毎に、次式により定義する(第6)調整値shift(t)を計算する。すなわち、
shift(t) = correctedAMV(t-1) - desiredAMV(t-1)
ここで、correctedAMV(t−1)は、選定されたリファレンシャル(時刻t−1における)内に先行画像フレームにより示されるシーンの補正位置を表す(第4)値であり、desiredAMV(t−1)は、選定されたリファレンシャル(時刻t−1における)内に先行画像フレームによって示されるシーンの目標位置を表す(第5)値である。
shift(t)の後続値は、ジッター抽出技術を処理モジュールPMにより変えない限り一定である。
jitter(t) = realAMV(t) - desiredAMV(t)
である。
しかし、このことは、第1ジッター抽出技術から第2ジッター抽出技術に切り換えるときに、異なる方法で行うと有利である。実際、この場合において、調整値[shift(t)]を処理モジュールPMによって計算し、第1ジッター抽出技術から第2ジッター抽出技術に切り換える度毎に、出力映像シーケンス(すなわち安定化した映像シーケンス)内に発生する「急変」を緩和しなければならない。したがって、処理モジュールPMが、第1ジッター抽出技術から第2ジッター抽出技術への切り換えを決定する度毎に、次式により定義する(第6)調整値shift(t)を計算する。すなわち、
shift(t) = correctedAMV(t-1) - desiredAMV(t-1)
ここで、correctedAMV(t−1)は、選定されたリファレンシャル(時刻t−1における)内に先行画像フレームにより示されるシーンの補正位置を表す(第4)値であり、desiredAMV(t−1)は、選定されたリファレンシャル(時刻t−1における)内に先行画像フレームによって示されるシーンの目標位置を表す(第5)値である。
shift(t)の後続値は、ジッター抽出技術を処理モジュールPMにより変えない限り一定である。
最後に処理モジュールPMは、次式により定義する補正ジッターを計算する。すなわち、
correctedjitter(t) = realAMV(t) - desiredAMV(t) - shift(t)
correctedjitter(t) = realAMV(t) - desiredAMV(t) - shift(t)
第2ジッター抽出技術から、先行する値を考慮してジッターを計算する(上述した第1ジッター抽出技術ではこのことが言える)第1ジッター抽出技術へ切り換えるときは、調整は不要である。そのような調整は、しかし他タイプの第1ジッター抽出技術では必要となることがあり得る。
どのようなジッター抽出技術を使用するとしてでも、ジッターまたは補正ジッターを処理モジュールにより計算するときは、第2計算モジュールCM2を設け、対応するグローバルモーション・パラメータからジッターを除去し、現画像フレームに存在する望ましくないモーションを除去する。このような計算モジュールCM2は、図1および2に示すように処理デバイスDの一部とする、または電子機器E1またはE2の一部として処理デバイスDに接続することができる。
対応するグローバルモーション・パラメータからジッターまたは補正したジッターを除去する前に、処理モジュールPMは、望ましくは補正したグローバルモーション・パラメータが現モーションGMV(t)と同一符号を持つか否かをチェックする。この目的のために、処理モジュールPMは、選定されたリファレンシャル内に現画像フレームにより示されるシーンの補正位置を表す(第7)値correctedAMV(t)を計算し、つぎに(第4)値correctedAMV(t−1)をこの(第7)値correctedAMV(t)から減算して、現画像フレームの補正したグローバルモーション・パラメータを表す(第8)値を得る。
つぎに、この第8値(correctedAMV(t)−correctedAMV(t−1))の符号をグローバルモーション・パラメータGMV(t)の符号と比較する。この比較は、以下のように疑似コードで表すことができる。すなわち、
GMV(t)x(correctedAMV(t) - correctedAMV(t-1)) < 0
符号が同一である場合、処理モジュールPMは、現画像フレームの計算したジッター(jitter(t))または補正したジッター(correctedjitter(t))を第2計算モジュールCM2に送信する。
符号が異なる場合、処理モジュールPMは、補正した動き(時刻tにおける)を0にカットし、このことを以下のように疑似コードで表すことができる。すなわち、
correctedAMV(t) ← correctedAMV(t-1))、および
correctedjitter(t)[or jitter(t)] ← realAMV(t) - correctedAMV(t)
GMV(t)x(correctedAMV(t) - correctedAMV(t-1)) < 0
符号が同一である場合、処理モジュールPMは、現画像フレームの計算したジッター(jitter(t))または補正したジッター(correctedjitter(t))を第2計算モジュールCM2に送信する。
符号が異なる場合、処理モジュールPMは、補正した動き(時刻tにおける)を0にカットし、このことを以下のように疑似コードで表すことができる。すなわち、
correctedAMV(t) ← correctedAMV(t-1))、および
correctedjitter(t)[or jitter(t)] ← realAMV(t) - correctedAMV(t)
このタイプの比較は、ジッターが発生する度毎にパノラマ的映像シーケンスの中心に静止相を導きやすく、またモーションの所望の滑らかさを減少させる。実際の逆補正(例えばパノラマ映像が停止する、または方向反転)を避けるために、処理モジュールPMは、第8値(correctedAMV(t)−correctedAMV(t−1))の符号を第2合計S2(t)の符号と比較する。この第2合計S2(t)は短期間の平均表し、長期間の平均であるS1(t)よりもモーションの変化によりよく反応することができる。
この比較の改良型を以下のように疑似コードで表せる。すなわち、
S2(t)x(correctedAMV(t) - correctedAMV(t-1)) < 0
符号が同一である場合、処理モジュールPMは、現画像フレームの計算したジッター(jitter(t))または補正したジッター(correctedjitter(t))を第2計算モジュールCM2に送信する。
もし符号が異なる場合、処理モジュールPMは、補正した動き(時刻tにおける)を0にカットし、このことを以下のように疑似コードで表すことができる。すなわち、
correctedAMV(t) ← correctedAMV(t-1)、および
correctedjitter(t) [or jitter(t)] ← realAMV(t) - correctedAMV(t)
S2(t)x(correctedAMV(t) - correctedAMV(t-1)) < 0
符号が同一である場合、処理モジュールPMは、現画像フレームの計算したジッター(jitter(t))または補正したジッター(correctedjitter(t))を第2計算モジュールCM2に送信する。
もし符号が異なる場合、処理モジュールPMは、補正した動き(時刻tにおける)を0にカットし、このことを以下のように疑似コードで表すことができる。すなわち、
correctedAMV(t) ← correctedAMV(t-1)、および
correctedjitter(t) [or jitter(t)] ← realAMV(t) - correctedAMV(t)
望ましくは、処理デバイスDは、集積回路ICの少なくとも一部を構成する。このような集積回路は、CMOS技術、またはチップ工場で現在使用されている任意の技術で実現できる。しかし、処理デバイスDは、ソフトウェアモジュール、またはハードウェアおよびソフトウェアモジュールの組み合わせによって実現できる。
本発明は、とくにリアルタイム(実時間)安定化の場合、すなわち、フレームを記憶手段に保存できず、したがって、遅延なく順次即座に安定化しなければならないとき、有利である。
本発明は、上述した処理デバイスおよび電子デバイスの実施形態に限定するものではなく、単なる例示に過ぎず、特許請求の範囲で当業者が考えられる全ての他の実施形態も包含する。
Claims (16)
- デジタル映像シーケンスの画像フレームを安定化するための処理デバイスであって、映像シーケンスの各画像フレームに対して、前記映像シーケンスのこの画像フレームと先行画像フレームとの間におけるモーション推定から決定される前記画像フレームのグローバルモーション・パラメータからジッターを決定して、前記画像フレーム内に存在する望ましくないモーションを除去するために前記決定したグローバルモーション・パラメータから前記ジッターを除去するように構成した処理手段を備えた処理デバイスにおいて、前記処理手段は、前記映像シーケンスの前記画像フレームおよび少なくとも1個の先行画像フレームにおける決定したグローバルモーション・パラメータから、前記映像シーケンスに存在するモーションのタイプを決定し、つぎに、前記決定したモーションのタイプに基づいて少なくとも2つのジッター抽出技術から選定すべき選定ジッター抽出技術を選択し、そしてこの選定ジッター抽出技術を使用して前記ジッターを決定する構成としたことを特徴とする、処理デバイス。
- 請求項1に記載の処理デバイスにおいて、前記処理手段は、少なくとも擬似静止的映像シーケンスを強く安定化化するのに適合する第1ジッター抽出技術、およびパノラマ的映像シーケンスに対して滑らかに追従するのに適合する第2ジッター抽出技術を含むグループから、選定ジッター抽出技術を選択する構成としたことを特徴とする、処理デバイス。
- 請求項2に記載の処理デバイスにおいて、前記処理手段は、a)現画像フレームを含むK1個の連続画像フレームにおける選定したK1個の決定したグローバルモーション・パラメータの第1合計と、K2<K1として現画像フレームを含むK2個の連続画像フレームにおける選定したK2個の決定したグローバルモーション・パラメータの第2合計とを、計算し、つぎに、b)現画像フレームを含む前記K1個の連続画像フレームにおける前記第1合計の符号を比較し、ついで、c)この第1合計の符号を第2合計の符号と比較し、そして、d)前記K1個の第1合計が異符号を持つ、またはK1個の第1合計が同符号を持つとともに前記第1、第2合計が異符号を持つときに、前記第1ジッター抽出技術に関連する第1モーションタイプを現画像フレームに関連付けする、または、前記K1個の第1合計が同符号を持つとともに第1合計と第2合計が同符号を持つときに、前記第2ジッター抽出技術に関連する第2モーションタイプを現画像フレームに関連付けする構成としたことを特徴とする、処理デバイス。
- 請求項3に記載の処理デバイスにおいて、K2はK1/2等しいものとしたことを特徴とする、処理デバイス。
- 請求項3または4のいずれか一項に記載の処理デバイスにおいて、前記処理手段は、シーンを表す各画像フレームに対して、選定したリファレンシャル内に前記シーンの実位置を示す第1値を計算し、つぎに、現画像フレームを含む連続画像フレームにおけるK1個の決定した第1値の平均を表す第2値を計算し、ついで、前記選定したリファレンシャル内に前記シーンの目標位置を表す第3値を得るために前記第1値の平均に前記第1合計を加算し、そして、前記現画像フレームに対応する前記第3値を、やはり前記現画像フレームに対応する前記第1値から減算することにより、前記現画像フレームに対応するジッターを計算する構成としたことを特徴とする、処理デバイス。
- 請求項5に記載の処理デバイスにおいて、前記処理手段は、各画像フレームに対して、前記選定したリファレンシャル内に先行画像フレームにより示されるシーンの補正位置を表す第4値、および前記選定したリファレンシャル内に先行画像フレームにより示されるシーンの目標位置を表す第5値を計算し、つぎに、第6値を得るために前記第4値から前記第5値を減算し、そして、前記現画像フレームに対応するジッターから前記第6値を減算して、前記グローバルモーション・パラメータから除去する補正ジッターを得る構成としたことを特徴とする、処理デバイス。
- 請求項6に記載の処理デバイスにおいて、前記処理手段は、各画像フレームに対して、前記選定したリファレンシャル内に現画像フレームにより示されるシーンの補正位置を表す第7値を計算し、つぎに、前記現画像フレームの補正したグローバルモーション・パラメータを表す第8値を得るために、前記第7値から前記第4値を減算し、ついで、この第8値の符号を、前記現画像フレームの前記グローバルモーション・パラメータの符号と比較し、そして、前記符号が同一であるときは前記現画像フレームの計算したジッターおよび補正したジッターを使用し、または前記符号が異なるときは先行画像フレームの計算したジッターもしくは補正したジッターを使用する構成としたことを特徴とする、処理デバイス。
- 請求項6に記載の処理デバイスにおいて、前記処理手段は、各画像フレームに対して、前記選定したリファレンシャル内に現画像フレームにより示されるシーンの補正位置を表す第7値を計算し、つぎに前記現画像フレームの補正したグローバルモーション・パラメータを表す第8値を得るために、前記第7値から前記第4値を減算し、ついで、前記第8値の符号を、前記現画像フレームの前記第2合計の符号と比較し、そして、前記符号が同一であるときは前記現画像フレームの計算したジッターおよび補正したジッターを使用し、または前記符号が異なるときは先行画像フレームの計算したジッターもしくは補正したジッターを使用する構成としたことを特徴とする、処理デバイス。
- 請求項8に記載の処理デバイスにおいて、K1は、前記映像シーケンスの平均フレームレートを表すパラメータ値より小さいまたは等しい整数としたことを特徴とする、処理デバイス。
- 請求項1〜9のいずれか一項に記載の処理デバイスにおいて、前記映像シーケンスの各画像フレームに対して、前記映像シーケンスの前記画像フレームと先行画像フレームとの間における前記モーション推定を決定し、つぎに前記決定したモーション推定から前記画像フレームの前記グローバルモーション・パラメータを決定する構成した第1計算手段を備えたことを特徴とする、処理デバイス。
- 請求項10に記載の処理デバイスにおいて、前記現画像フレーム内に存在する望ましくないモーションを除去するために、現画像フレームに対応する前記グローバルモーション・パラメータから前記ジッターまたは補正したジッターを除去するよう構成した第2計算手段を備えることを特徴とする、処理デバイス。
- 請求項11に記載の処理デバイスにおいて、前記処理デバイスは、集積回路の少なくとも一部を構成するものとしたことを特徴とする、処理デバイス。
- デジタル映像シーケンスの画像フレームを取得する取得手段を有する電子機器において、請求項1〜12のいずれか一項に記載の処理デバイスを備えたことを特徴とする、電子機器。
- 請求項13に記載の電子機器において、前記電子機器は、少なくともデジタルカメラおよび映像取得手段を設けた通信機器を含むグループから選択したことを特徴とする、電子機器。
- 処理するデジタル映像シーケンスの画像フレームを受信する手段を有する電子機器において、前記電子機器は、請求項1〜12のいずれか一項に記載の処理デバイスを備えたことを特徴とする、電子機器。
- 請求項15に記載の電子機器において、前記第2電子機器は、少なくとも通信機器、デジタルビデオデコーダ、デジタルビデオレコーダおよびデジタルビデオエンコーダを含むグループから選択したことを特徴とする、電子機器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06300447 | 2006-05-09 | ||
PCT/IB2007/051649 WO2007132387A2 (en) | 2006-05-09 | 2007-05-03 | Processing device with jitter extraction and equipment comprising such a device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009536492A true JP2009536492A (ja) | 2009-10-08 |
Family
ID=38578462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009508618A Withdrawn JP2009536492A (ja) | 2006-05-09 | 2007-05-03 | ジッター抽出を行う処理デバイスおよびこのような処理デバイスを有する機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8159543B2 (ja) |
EP (1) | EP2018768A2 (ja) |
JP (1) | JP2009536492A (ja) |
CN (1) | CN101502099B (ja) |
WO (1) | WO2007132387A2 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI302265B (en) * | 2005-12-30 | 2008-10-21 | High Tech Comp Corp | Moving determination apparatus |
US8284266B2 (en) * | 2008-06-02 | 2012-10-09 | Aptina Imaging Corporation | Method and apparatus providing motion smoothing in a video stabilization system |
JP5284048B2 (ja) * | 2008-11-12 | 2013-09-11 | キヤノン株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
FR2940736B1 (fr) * | 2008-12-30 | 2011-04-08 | Sagem Comm | Systeme et procede de codage video |
US9131155B1 (en) | 2010-04-07 | 2015-09-08 | Qualcomm Technologies, Inc. | Digital video stabilization for multi-view systems |
EP2595393B1 (en) * | 2011-11-15 | 2015-03-11 | ST-Ericsson SA | Rectified stereoscopic 3d panoramic picture |
US9628711B2 (en) * | 2011-12-15 | 2017-04-18 | Apple Inc. | Motion sensor based virtual tripod method for video stabilization |
CN102685366A (zh) * | 2012-04-01 | 2012-09-19 | 深圳市锐明视讯技术有限公司 | 一种图像自动校正方法及系统和监控设备 |
EP2680568B1 (en) * | 2012-06-25 | 2016-05-25 | ST-Ericsson SA | Video stabilisation with deblurring |
US9990004B2 (en) * | 2013-04-02 | 2018-06-05 | Samsung Dispaly Co., Ltd. | Optical detection of bending motions of a flexible display |
US9420170B2 (en) * | 2013-12-30 | 2016-08-16 | Nxp B.V. | Graphical user interface for video recording device |
CN105450907B (zh) * | 2014-07-31 | 2018-10-16 | 北京展讯高科通信技术有限公司 | 智能终端及其视频稳像系统模型参数的标定方法及装置 |
US10084962B2 (en) * | 2015-11-16 | 2018-09-25 | Google Llc | Spherical video stabilization based on accelerometer data |
US10594940B1 (en) * | 2018-01-12 | 2020-03-17 | Vulcan Inc. | Reduction of temporal and spatial jitter in high-precision motion quantification systems |
CN108366243B (zh) * | 2018-01-23 | 2019-10-29 | 微幻科技(北京)有限公司 | 一种视频去抖方法及装置 |
CN108965701B (zh) * | 2018-07-06 | 2021-04-13 | 维沃移动通信有限公司 | 一种抖动矫正方法及终端设备 |
US11044404B1 (en) | 2018-11-28 | 2021-06-22 | Vulcan Inc. | High-precision detection of homogeneous object activity in a sequence of images |
US10872400B1 (en) | 2018-11-28 | 2020-12-22 | Vulcan Inc. | Spectral selection and transformation of image frames |
CN111526285B (zh) * | 2020-04-15 | 2021-07-13 | 浙江大华技术股份有限公司 | 一种图像防抖方法及电子设备、计算机可读存储介质 |
US11950951B2 (en) | 2021-01-29 | 2024-04-09 | Covidien Lp | Systems and methods for C-arm fluoroscope camera pose refinement with secondary movement compensation |
CN113395454B (zh) * | 2021-07-06 | 2023-04-25 | Oppo广东移动通信有限公司 | 图像拍摄的防抖方法与装置、终端及可读存储介质 |
US11975263B2 (en) * | 2021-11-19 | 2024-05-07 | Dell Products, L.P. | Image stabilization system and method |
CN114727093B (zh) * | 2022-03-18 | 2023-03-24 | 百度在线网络技术(北京)有限公司 | 数据分析方法、装置、电子设备及计算机存储介质 |
CN114866695B (zh) * | 2022-04-27 | 2024-02-20 | 影石创新科技股份有限公司 | 视频的防抖处理方法、装置、存储介质及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100683849B1 (ko) * | 2000-06-28 | 2007-02-15 | 삼성전자주식회사 | 디지털 영상 안정화기능을 갖는 디코더 및 디지털영상안정화방법 |
US7221776B2 (en) * | 2001-10-31 | 2007-05-22 | Arcsoft, Inc. | Video stabilizer |
EP1377040A1 (en) * | 2002-06-19 | 2004-01-02 | STMicroelectronics S.r.l. | Method of stabilizing an image sequence |
US7880769B2 (en) * | 2004-02-13 | 2011-02-01 | Qualcomm Incorporated | Adaptive image stabilization |
US7649549B2 (en) * | 2004-09-27 | 2010-01-19 | Texas Instruments Incorporated | Motion stabilization in video frames using motion vectors and reliability blocks |
-
2007
- 2007-05-03 EP EP07735746A patent/EP2018768A2/en not_active Withdrawn
- 2007-05-03 JP JP2009508618A patent/JP2009536492A/ja not_active Withdrawn
- 2007-05-03 WO PCT/IB2007/051649 patent/WO2007132387A2/en active Application Filing
- 2007-05-03 CN CN200780016766.7A patent/CN101502099B/zh not_active Expired - Fee Related
- 2007-05-03 US US12/299,928 patent/US8159543B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20090219401A1 (en) | 2009-09-03 |
CN101502099B (zh) | 2012-02-22 |
EP2018768A2 (en) | 2009-01-28 |
CN101502099A (zh) | 2009-08-05 |
WO2007132387A3 (en) | 2009-02-26 |
WO2007132387A2 (en) | 2007-11-22 |
US8159543B2 (en) | 2012-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009536492A (ja) | ジッター抽出を行う処理デバイスおよびこのような処理デバイスを有する機器 | |
US8134603B2 (en) | Method and system for digital image stabilization | |
US7605845B2 (en) | Motion stabilization | |
US6628711B1 (en) | Method and apparatus for compensating for jitter in a digital video image | |
US8988536B2 (en) | Image processing circuit, method of operation thereof, and digital camera including same | |
JP4430727B2 (ja) | 映像安定化のための動きフィルタ処理 | |
Cheung et al. | Adjustable partial distortion search algorithm for fast block motion estimation | |
US8054881B2 (en) | Video stabilization in real-time using computationally efficient corner detection and correspondence | |
US8571105B2 (en) | Enhanced motion estimation method, video encoding method and apparatus using the same | |
US20100079606A1 (en) | Motion Stabilization | |
WO2012063468A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
WO2007040838A1 (en) | System and method for video stabilization | |
JP4639555B2 (ja) | 動きベクトル検出装置および方法、手振れ補正装置および方法、並びに撮像装置 | |
US8406305B2 (en) | Method and system for creating an interpolated image using up-conversion vector with uncovering-covering detection | |
Hong et al. | Video stabilization and rolling shutter distortion reduction | |
Auberger et al. | Digital video stabilization architecture for low cost devices | |
Peng et al. | Integration of image stabilizer with video codec for digital video cameras | |
JP4743601B2 (ja) | 動画像処理装置 | |
Peng et al. | DSP implementation of digital image stabilizer | |
Shukla et al. | A new composite multi-constrained differential-radon warping approach for digital video affine motion stabilization | |
Joseph et al. | A time-efficient video stabilization algorithm based on Block Matching in a restricted search space | |
CN116347232A (zh) | 一种实时视频稳像方法及装置 | |
Juanjuan et al. | A Panoramic Image Stabilization System Based on Block Motion Iteration | |
Kimura et al. | A study on motion estimation using block matching for spatially periodic patterns | |
Yeh et al. | Successive accumulating partial distortion search algorithm for motion estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090907 |