JP2002524930A - 画像を電子的に拡張する方法および装置 - Google Patents

画像を電子的に拡張する方法および装置

Info

Publication number
JP2002524930A
JP2002524930A JP2000568248A JP2000568248A JP2002524930A JP 2002524930 A JP2002524930 A JP 2002524930A JP 2000568248 A JP2000568248 A JP 2000568248A JP 2000568248 A JP2000568248 A JP 2000568248A JP 2002524930 A JP2002524930 A JP 2002524930A
Authority
JP
Japan
Prior art keywords
image
image data
chrominance
luminance
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000568248A
Other languages
English (en)
Inventor
ルカ ボゴニ,
マイケル, ウェイド ハンセン,
ピーター バート,
キース, ジェイムズ ハンナ,
Original Assignee
サーノフ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーノフ コーポレイション filed Critical サーノフ コーポレイション
Publication of JP2002524930A publication Critical patent/JP2002524930A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Color Image Communication Systems (AREA)

Abstract

(57)【要約】 画像融合プロセスは、入力画像(810、812)のそれぞれのピラミッド分解(814、816)を実行する。前記ピラミッド分解の前記構成要素は、それぞれの特徴ピラミッド(822、824)を形成するために、特徴のために処理される(818、820)。それから、前記特徴ピラミッドは、マージ画像を形成するために結合される。それから、前記マスキングピラミッドが使用され(830)、前記入力画像の前記ピラミッド分解からマージ画像(832)を構築する。

Description

【発明の詳細な説明】
【0001】 (技術分野) 本明細書は、ここに参照して組み込まれる1998年8月28日に提出された
米国仮出願番号第60/098,342号の利益を主張する。
【0002】 (背景技術) 本発明は、画像を電子的に拡張するためのシステムおよび技法に関し、特に単
一の拡張された画像を作成するために時間的に近くに撮影された複数の画像を処
理するための装置および方法に関する。
【0003】 異なった種類のビデオセンサは、軍事/サーベイランス用途および民生電子機
器用途の両方で普及し続けている。10年前には、民生級のビデオカメラは人気
を得始めたところにすぎなかった。そのときから今日まで、ビデオ画像を録画、
再現することができるさまざまな形の民生電子機器が普及してきた。典型的には
、これらのビデオレコーダは、(8mmフォーマットおよびVHSフォーマット
などの)標準テープでアナログビデオを録画し、新しいオールデジタルカメラが
人気を得始めている。
【0004】 加えてデジタルスティルカメラも人気が高まってきている。これらのカメラは
相対的に標準ビデオセンサを具備し、典型的には同じセンサがビデオカメラの中
で使用され、個々のビデオフレームをグラブするように設計し、それらを後にP
Cにダウンロードするために実装されているメモリの中に記憶する。これらのカ
メラは人気があるが、それらを使用する人は、より高品質な画像を提供するカメ
ラは高価であり、これらのカメラさえ類似した条件下で標準フィルムカメラを用
いて撮影した写真と比較すると、品質の点で期待はずれである写真を生じさせる
ことに気付いてきた。
【0005】 高性能市場および軍事市場のために実にさまざまなビデオセンサが開発されて
きた。これらのセンサは、標準可視(例えば、TV)画像イメージャs、可視光
波長および非可視光波長だけではなく熱も検出できる赤外線(IR)センサ、シ
ーンで見られる光量を増幅する強化型ナイトビジョンセンサ、および多様なそれ
以外の波長でのエマネーションを検出するさらに新型のセンサを含む。これらの
センサは改善され、初期のセンサに優ってきたが、依然として、雑音および処理
の人工遺物という点でビデオ信号の品質にまつわる問題点がある。例えば、ナイ
トビジョンゴーグルは(前記ゴーグルによって受け取られる光の増幅プロセスの
ために)うるさいことで有名であり、IRセンサはその通常の走査方法のために
雑音およびモーション人工遺物の両方を受けやすい。これらのセンサの性能を高
めるために、多様な後処理ステップが使用されている。
【0006】 この開示の総合テーマとは、複数の画像に作用し、単一の拡張画像を生成する
デジタル画像処理技法を使用して、ビデオ形式で、またはスティル写真のどちら
かでデジタル画像の品質を高めることである。その構造に関係なく任意のビデオ
船さの性能を高め、(センサの被写界深度を拡張するために複数の画像を結合す
るなど)達成することが物理的に不可能である機能拡張を提供する能力を含む、
これらの方法を使用することの複数の優位点がある。
【0007】 本発明の例示的な実施態様において、前記センサ画像を拡張するために使用さ
れる方法は、複数のビデオフレームを単一出力に結合することに依存する。複数
の画像が、その結果単一画像フレームを生成するために電子的な処理を使用して
結合されるインスタンスがあるだろう。ビデオストリームとして受け取られる複
数の入力ビデオフレームが処理され、拡張されたビデオストリームが前記プロセ
スの出力となるインスタンスもある。
【0008】 (発明の開示) 本発明の総合テーマは、複数の画像に作用し、単一の拡張画像を生成するデジ
タル画像処理技法を使用して、ビデオ形式で、またはスティル写真としてのどち
らかでデジタル画像の品質を高めることである。その構造に関係なく任意のビデ
オセンサの性能を高め、(前記センサの被写界深度を拡張するために複数の画像
を結合するなど)物理的に達成することが不可能である機能拡張を提供する能力
を含む、これらの方法を使用することの複数の優位点がある。
【0009】 本発明の例示的な実施態様では、前記センサ画像を拡張するために使用される
方法は、単一出力フレームを生成するために複数の入力ビデオフレームを調整、
結合することに依存する。単一画像フレームだけが複数の入力画像から生成され
るインスタンスがある。ビデオストリームとして受け取られる複数の入力ビデオ
フレームは、拡張ビデオフレームを生成するために処理される。
【0010】 本発明の1つの態様は、カラー画像を拡張するために使用されてよい画像処理
システムおよび方法で実現される。
【0011】 本発明の1つの実施態様は、カラー画像のダイナミックレンジを改善すること
に関係する。多くのビデオセンサおよびスティル画像センサが、フィルムまたは
人間の視界の性能に比べてまさるとも劣らないダイナミックレンジを提供するこ
とはできない。これが、前記シーンの一定部分の飽和につながる。この飽和は、
ブルーミング(つまり、明るすぎて見える画像の部分)あるいは暗い領域での画
像詳細の欠如のどちらかとして出現する。本発明に従って、アパーチャおよび/
または統合時間の異なる設定値で写された画像のシーケンスは、個別画像のどれ
かより優れたダイナミックレンジを有する単一画像の中に結合される。前記カラ
ーピクセルは前記結合された画像上で平均化される一方、前記画像のどの部分が
結合されなければならないのかの選択は、画像のそれぞれにおいての輝度のレベ
ルに基づいている。
【0012】 本発明の別の実施態様は、カラー画像の被写界深度の改善に関係する。多くの
電子センサは、限られた被写界深度だけを提供する光学部品とともに使用される
。これは、前記センサが相対的に広い視野を有し、ユーザが前景被写体と背景被
写体の両方の焦点が合った写真を撮影できることを希望するときに、特に顕著で
ある。標準光学部品は、光が低い状態でのフィルムカメラまたはデジタル船さで
の拡張された被写界深度をサポートしない。つまり、これがセンサのピンホール
モデルに関する物理的特性の制限である。本発明は、それぞれが同じアパーチャ
および統合時間設定値を有するさまざまな焦点面で複数の画像を写すことによっ
て、幅広い被写界深度を有する単一画像を提供する。前記多様な画像の焦点が合
った部分が、前記単一画像を形成するために融合される。前記融合プロセスは、
画像のそれぞれの詳細のレベルと前記多様な画像のカラーピクセルの相対的な飽
和の両方に基づく。
【0013】 本発明の別の態様は、不安定なカメラプラットホームから写される画像の品質
を高めるための方法で実現される。特に、光が低い状態で、不安定なプラットホ
ームまたは移動プラットホームから撮影されるスティル画像は、前記カメラの前
記統合時間が前記センサの動きに関して大きいために動画のぼやけを含む傾向が
ある。オペレータがデジタルスティルカメラのシャッターを押すときに発生する
ように、任意の画像がこの状況で写されると、著しい動画のぼやけがあるフレー
ムが選択されるだろう。本発明に従った方法は、前記シャッターが押されたとき
に複数の画像を捕捉し、どの画像が動画のぼやけが最も少ないのかを判断するた
めに各画像を分析する。この画像が、前記カメラの前記出力画像として提供され
る。
【0014】 しかも本発明の別の態様は、光が低い状況でシーンの鋭い画像を得るための方
法で実現される。前記例示的な方法は、相対的に短い時間枠内で複数の画像を捕
捉し、これらの画像のそれぞれが短い統合時間で撮影される。その後で、これら
の複数の画像は調整、蓄積され、従来のデジタルカメラで生成される画像に比較
して、鮮明な詳細および削減された運動人工遺物を有する単一画像を提供する。
【0015】 本発明の別の態様に従って、無作為の非線形運動人工遺物を削除するための方
法が提供される。特に屋外で、大きな熱活動、シンチレーション、およびその他
の効果の時間内でのいくつかのイメージング状態により、単一画像内またはビデ
オ画像のシーケンス内で歪みが引き起こされる。この歪みの例は、例えば、熱い
路面上の局所的に加熱された空気の柱を通して写される映像に見られる、ゆらめ
く線である。本発明の例示的な実施態様は、複数の画像上のこの歪みを測定し、
フレームのすべてと基準フレーム間の平均的な歪みの基準を得る。それから、前
記基準フレームは、補正された出力フレームを生成するために平均化された歪み
に従ってそらさせる。
【0016】 本発明の別の態様に従って、ビデオフレームのシーケンス内の各フレームは、
複数のフレームをターゲットフレームの座標系の中にそらせ、前記ターゲットフ
レームの視界内にある前記そらされたフレームのそれぞれのより顕著な部分を特
定し、これらのより顕著な特徴を前記ターゲットフレームと融合し、前記出力画
像を生成する。
【0017】 本発明の別の態様に従って、ビデオ画像のカラー解像度は、画像の輝度成分と
クロミナンス成分の間に変位フィールドを生成してから、前記クロミナンス成分
を前記輝度成分に対応してそらせることによって拡張される。
【0018】 (発明を実施するための最良の形態) 異なる種類のセンサからビデオを拡張、処理することを必要とする大量の作業
がある。これらの技法は、前述された機能拡張のためのさまざまな方法に取り組
むとして記述することができる。
【0019】 デジタルスティルカメラおよびビデオカメラの市場の中では、前記Bayer
符号化されたビデオセンサから高解像度カラービデオ画像を生成するための方法
が幅広く使用されている。これらの色補間技法は周知であり、これらの方法の多
くの種類が文献に記述されている。しかしながら、色補間以外に、ビデオシーケ
ンスを拡張するために使用される方法はほとんどない。
【0020】 明示的なセンサ物理的特性およびセンサ技術の領域では、かなりの量の過去の
研究が行われた。明暗が強められた画像、CMOSおよびCCDイメージング技
法などの電子方法、およびそれ以外の形のセンサ技術が開発されてきた。これら
の技術のいくつかは後述されるだろうが、一般的にはこれらの技法のそれぞれは
、後処理ステップとしてではなく、前記センサレベル自体で介入することを通し
てセンサ自体を改善するために開発される。
【0021】 普通の従来の技術のデジタルスティルカメラが、図1に示されている。このカ
メラは、画像をCCD イメージャ(imager)112の上に集束するレン
ズシステム110を含む。前記CCD イメージャ114は、前記画像を別個の
輝度(Y)成分およびクロミナンス(UとV)成分として捕捉、デジタル化する
。それから、これらの成分は、コンピュータへ後にダウンロードするためにメモ
リ114の中に記憶される。前記レンズ110の焦点とアパーチャ、前記イメー
ジャ112の統合時間、および前記イメージャ112から前記メモリ114への
データの転送は、多様なカメラ成分のために、ユーザ設定値(図示されていない
)を制御信号に変換する制御プロセッサ116によって支配される。
【0022】 図2は、本発明に従ったデジタルスティルカメラ(またはデジタルビデオカメ
ラ)のブロック図である。このカメラは、レンズ110、イメージャ112、お
よび制御プロセッサ116も含む。前記カメラは、画像プロセッサ118を、お
よび前記プロセッサ118が十分な内蔵メモリには、オプションメモリ120(
仮想線で図示される)を含む。図2に示されている前記制御プロセッサは、前記
レンズシステム110おおよびイメージャ112を制御し、複数の画像を密に連
続して捕捉する。これらの画像は、前記画像プロセッサにより処理され、単一の
拡張画像を生成する。前記イメージャ112は、1秒に30コマを捕捉できる従
来のCCDビデオイメージャであってよいか、それは毎秒300コマを捕捉でき
る高速イメージャであってよい。この第2型イメージャを使用して、後述される
本発明は、拡張ビデオシーケンスの個々の画像を生成するために使用されてよい
【0023】 図3は、図2に図示されている画像プロセッサ118として使用するために適
したリアルタイムビデオ処理システム(VPS)を示す。VPSの主要な構成部
品は、以下のとおりである。
【0024】 専用ビデオハードウェアを制御するため、前記ビデオハードウェアの中に容易
にマッピングされない画像分析動作を実行するため、およびVPSシステムの一
体化した部分ではないその他の構成部品との通信を容易にするための、汎用マイ
クロプロセッサまたはデジタル信号プロセッサ(DSP)124を提供するプロ
セッサマザーボード(PM)122。
【0025】 前記VPS内のベースラインビデオ処理構成部品である1つまたは複数のビデ
オプロセッサマザーボード(VPM)126。各VPM126は、(グローバル
ピクセルクロックに基づき)一定の速度でビデオのストリーム上で動作を実行す
ることができる専用の平行パイプラインビデオハードウェアを具備する。図3に
示されているように、前記VPM20は、特殊化された画像取得、表示、および
処理装置用のビデオ処理ドーターボード(VPD)128と呼ばれる、1つまた
は2つのドーターボードの増設もサポートする。示されているように、単一VP
Sシステム内には1つまたは複数のVPMがあり、それぞれがVPD128の独
自のセットを備えている。
【0026】 グローバルビデオバス(GVB)132は、例えば、毎秒33Mbytesで
ビデオ情報をVPSのVPM126間で転送できるようにし、ビデオを前記PM
122でマイクロプロセッサ124へ、およびマイクロプロセッサ124から転
送できるようにする。
【0027】 グローバル制御バス(GCB)130は、前記PM122、前記VPM126
、および前記VPSの前記GVB130の間で制御信号およびステータス信号を
転送する。前記VPS内の宛先ボードのレジスタを制御するための前記PM12
2によるアクセスは、GCP130上で裁定される。典型的には、このGCB1
30上でビデオトランザクションは実行されない。
【0028】 PM122は、前記VPSのマイクロプロセッサコードとして機能する。2台
のマイクロプロセッサ124はPM122で実際に使用され、さらに1台または
2台のマイクロプロセッサ124をドーターボード構成部品として増設する可能
性がある。前記PM10の最も重要な機能とは、コマンドおよび前記VPM12
6およびその対応するVPD128によって実行されるビデオ処理動作の制御を
提供することである。前記VPS内でのビデオ処理動作は、前記ビデオハードウ
ェア内で制御レジスタを使用して構成され、前記それぞれのプログラムされた動
作は、その動作の実行の始まりを定義するイネーブル信号をアサートすることに
よって開始される。これらの制御レジスタは、前記マイクロプロセッサ124の
メモリスペースの中にマッピングされる。前記マイクロプロセッサ124の1台
または複数台にロードされている高水準C呼出し可能ハードウェア制御ライブラ
リが、前記ビデオh−度ウェアの調整を容易にするために使用される。制御機能
に加え、前記PM122は、使用可能な専用ハードウェアを使用して、より効率
的に実行することができない画像処理能力を提供する。
【0029】 前記VPM126は、専用のビデオ処理ボードである。VPS内のすべてのビ
デオハードウェアは、平行パイプライン様式でビデオストリーム上で動作する。
つまり、ビデオデータは一度に1ピクセル、フレーム記憶装置の中から読み出さ
れ、適切なタイミング信号がアクティブなビデオ情報を組み立てる。このビデオ
は、システムの中を流れるにつれて、VPM126上の多様な処理装置により処
理される。VPM126上のすべての処理構成要素は、データ処理用のこのフロ
ー貫通アーキテクチャ中で動作するように設計されている。各処理装置は、処理
に固定量のパイプライン遅延を追加するが、前記システムを通して前記データを
維持する。このようにして、実行中の動作に依存する固定量のパイプライン遅延
を考慮すると、1つのビデオフレーム上で動作を実行するのに要する時間の量が
常に決定論的である。システムを通るビデオルーティングは、各VPM126内
のデジタルクロスポイント交換機を使用することにより実行される。この交換機
は、入力ポートから前記VPM126へ、あるいは前記VPM126上の任意の
処理要素の前記出力ポートから前記VPMの出力ポートへ、または前記VPM上
の任意の処理要素の前記入力ポートへのビデオをイネーブルする。また、前記ク
ロスポイント交換機が、ビデオを、ペナルティなしで1つのソースから複数の宛
先へ「広げる」ことができるようにする。クロスポイント交換機ルーティングを
含むすべてのハードウェア動作は、VPM126のメモリマップ制御レジスタの
プログラミングを通して定義される。各処理装置、クロスポイントコネクション
、および記憶装置は、特定の動作を定義するために走査されるレジスタのセット
(図示されていない)を有する。前記マイクロプロセッサ124は、これらのレ
ジスタをセットアップし、ビデオ動作を開始できるようにするために使用される
【0030】 前記グローバルビデオバス(GVB)132は、ビデオデータを前記VPSシ
ステムボード間で送る。ビデオは、VPM126の組の間、およびそれぞれのV
PM126と前記PM122の間で送ることができる。前記GVB132は、固
定トポロジーのある前記VPSシステムボード間に専用のハード被経路選択デー
タチャネルを提供してよい。代わりに、前記GBV132は、前記VPSアクテ
ィブバックプレーン上に直接実現されている二次的なクロスポイント交換機を会
するアクティブルーティング機能を含んでよい。
【0031】 前記GCB130は、前記VPSシステムボードに前記PM122を結合する
。PMのマイクロプロセッサ124による制御レジスタアクセスは、GCB13
0を使用して実行される。GCB130は、大部分の種類のマイクロプロセッサ
によって使用される、任意の標準アドレスおよびデータバスであってよい。
【0032】 図2は、前記VPM126用の例示的な構成を示す。前記VPM20は、前記
VPSに基本的なビデオ処理機能を提供する。それぞれの例示的なVPM126
は、以下の構成部品を含んでよい。
【0033】 前記クロスポイント交換機バス上で転送されるビデオデータのピクセルごとに
、8ビットのビデオデータおよび2ビットのタイミング情報を表すチャネルあた
り10ビットの39x39のチャネルブロッキングクロスポイント交換機。
【0034】 4つの1Kx2Kピクセルフレーム記憶メモリFS1−FS4(204−21
0)。これらのフレーム記憶装置メモリ204−210は、三重に移植され(t
hree−ported)、完全速度ビデオ読取りおよびビデオ記憶を同時に可
能にする。第3のランダムアクセスポートも、前記フレーム記憶装置メモリの直
接的なマイクロプロセッサアクセスのために提供される。
【0035】 4つのピラミッド生成モジュール212−218.これらのピラミッドモジュ
ール212−218は、米国特許出願番号第08/838,096号に記述され
る種類のPYR−2フィルタリングASICを使用して実現される。各ピラミッ
ド処理モジュール218は、ポイントに関する画像変換のために8ビットルック
アップテーブル(LUT)220−226と関連している。ASICの各組は、
それらが16ビットデータストリームでピラミッド動作を実行するために結合で
きるように構成される。
【0036】 1個の構成可能ALU(CALU)228。CALU228は、ポイントに関
する動作を、画像の組で実行できるようにする。CALU228は、16ビット
入力から16ビット出力(16:16)ルックアップテーブル(LUT)および
32ビットアキュムレータが後に続く、自動的なタイミング調整のためにその入
力でタイミング補償器およびプログラム可能画像遅延230を含む。
【0037】 1つのプログラム可能ALU(PALU)232。PALU232は、複数画
像動作に使用される。PALU232は、最高16MbytesのDRAMを含
む再構成可能フィールドプログラム可能ゲートアレイ(FPGA)から構成され
ている。それは、4つのビデオ入力および2つのビデオ出力をサポートする。P
ALU232に関するさらに詳細な説明は、やはり本譲受人に譲渡されている統
合タイミング情報を有するデジタル信号処理回路構成要素(DIGITAL S
IGNAL PROCESSING CIRCUITRY HAVING IN
TEGRATED TIMING INFORMATION)と題される199
8年9月4日に提出された米国特許出願番号第09/148,661号に提供さ
れている。
【0038】 2つのVPDサイト234と236は、前記VPSをさまざまな用途のために
特殊化する目k的でドーターボード構成要素をインストールするために使用され
る。前記例示的なVPS122、GVB1332、およびVPD128は、単一
システム全体クロック信号と同期している。
【0039】 前記VPM20は、VPM20、ビデオ記憶装置モジュール、前記GVB13
0、および前記PM10の間でのビデオ転送用に標準化されたビデオフォーマッ
トを使用する。このビデオフォーマットは、水平アクティブ(HA)および垂直
アクティブ(VA)データの領域を示すことによって前記アクティブビデオデー
タを組み立てる2個のタイミング信号を加えた、ピクセルあたり8ビットのデー
タから構成されている。画像内の各アクティブ線間には固定帰線消去間隔がある
。この帰線消去期間は、HA アサート未(低)およびVAアサート済み(高)
で定義される。また、各画像の始まりおよび最後に帰線消去期間があってよい。
すべてのビデオデータは、前記VPSシステムクロックと同期している。
【0040】 VPS内での前記平行パイプラインハードウェアは、データとともにビデオフ
レーム信号を使用し、アクティブ画像およびビデオデータ用帰線消去の領域を描
く。この情報は、前述されたように、前記VPS内でビデオデバイスを簡略化し
、それらのデバイスをソフトウェア制御を通して容易にプログラム可能にするの
に貢献する。他の批判的なVPSの目的は、ビデオ処理動作操作のため、同期化
が始まることを提供することである。ビデオタイミングが既知の初期条件ととも
に始まることを確実にするために、複数のビデオ経路のためのビデオタイミング
が同期様式で始動されるのは必須である。(チャネル間のタイミングスキューと
しても知られる)複数のチャネルからのタイミングの初期差異が未知であろうた
め、この保証がない場合には、前記ビデオハードウェアは、複数のストリームで
動作を実行するときに、つねに、タイミング補償を実行しなければならない。ソ
ースビデオデバイスからのビデオ読取り動作に同期始動を提供するために、RD
_STARTと呼ばれている1つの共通制御信号が、前記VPS内で提供される
。(マイクロプロセッサ制御下のレジスタへの書込みを通して)RD_STAR
Tがアサートされると、すべての過去にイネーブルされたビデオソースデバイス
が、同期様式での読出しを始めるだろう。これが、プログラマに、それ以降の処
理のためのビデオタイミング分析を簡略化するために必要であるビデオタイミン
グの既知の初期条件を提供する。好ましい実施態様においては、前記RD_ST
ART信号は、(複数のVPM20のあるシステム内での)指定された「マスタ
」VPM20で生成され、前記VPM「マスタ」を含むすべてのVPM20およ
び前記VPS内のすべてのVPDによって同期して受信される。「マスタ」VP
M20の前記使用は、前記VPSが、複数の独立したRD_STARTを含む複
数の「マスタ」を有するのを制限しない。各RD_STARTは、選択されたR
D_STARTマルチプレクサを通してさまざまなソースから制御されてよい。
複数のRD_STARTは、非同期独立ビデオ動作を実行できるようにする。
【0041】 前記CAPU228は、その入力および512K x 26SRAMバンクで
の二重FIFOバッファ230付きのCAPU制御装置として、Xlinx X
C4010 FPGAまたはXilinx XC4028を使用して実現される
。前記入力FIFO230は、前記2つのビデオ経路間の任意のタイミングスキ
ューを補償するため、および前記2つの画像間に決定論的にプログラム可能な遅
延を提供するために、CALU228内の制御レジスタを通してプログラム可能
である。
【0042】 また、前記自動タイミング補償は、前記PALU232内で実現できるが、そ
れは前記チップの外部に明示的なメモリ構成要素(FIFO)を持たないため、
それは内蔵リソースを使用する必要がある。この理由のため、アプリケーション
によっては、前記タイミング補償をPALUの中に含むことを選ばなかったり、
それはさらに小さいタイミング差異を補償してよい。
【0043】 CALU228は、16ビット入力および16ビット出力LUTを通してポイ
ントに関する画像動作を実行し、それが前記2つの入力ピクセル値に基づく一意
の16ビット出力値を生成する。前記LUTはSRAM内で実現され、ソフトウ
ェアを通してプログラム可能である。画像乗算、加算等の共通動作は、これらの
LUTを既知の様式で使用して実現できる。(画像の水平部分導関数および垂直
部分導関数に基づいた傾斜データの角度および規模を生成するなどの)さらに複
雑な動作も、そのプログラム可能な性質のためにCALU LUTを用いて可能
である。実際には、変換が入力値の一意の組ごとに単一出力値を生成する場合に
、任意の二重画像動作がCALU LUTで実現可能である。
【0044】 CALU228は、内部的に32ビット画像アキュムレータも有する。このア
キュムレータは、入力画像の内の1つ、またはCALU LUTの出力を画像の
全体的な範囲で蓄積できるようにする。これは、画像の平均値を求める高速な方
法をイネーブルし、完全画像相互相関計算などの動作にも使用できる。
【0045】 好ましくは、本発明の前記VPS内のすべてのそれ以外のALUおよびFPG
Aだけではなく、CALU228も、さまざまなハードウェア機能のために再構
成可能であり、その場合、前記再構成は、JTAGインタフェースを通して前記
PM10の前記マイクロプロセッサ 12の1台または複数台上のソフトウェア
からである。
【0046】 PALU232は、多数のビデオ動作のための再構成可能デバイスとして設計
されてきた。PALU232は、電源投入リセット後の前記PM10上のマイク
ロプロセッサ12による境界走査を使用する試験デバイス用に設計されたシリア
ル通信チャネルである、JTAG制御を通してプログラムされるように設計され
ている。PALU232は、4つのビデオ入力および4つのビデオ出力を有し、
16ビットの2項関数機能を前記VPSに与える。PALU232は、それに接
続されている4M x 32 DRAMを有し、その結果、大型32ビット幅の
メモリバンクを利用してよいソフトウェア構成によって、いろいろな処理機能が
実現できる。PALU232は、前記デバイスを構成するために使用される構成
データに応じて、このようにしてさまざまなビデオ動作のホストを実行するため
にプログラムすることができる。
【0047】 VPM20上のVPDサイト234と236が、前記VPSの機能を拡大、カ
スタマイズするために提供される。ビデオディスプレイ、ビデオデジタイザ、相
関装置、画像ワーパーs、およびその他の処理装置などの特殊ビデオデバイスが
、ドーターボード設計の中に組み込み、前記VPSに追加することができる。各
VPDサイト234および236は、どのVDPがインストールされるのかに応
じて、前記VPMのクロスポイント交換機202へ、およびクロスポイント交換
機202からのビデオ用の、最高6つのクロスポイント入力および6つのクロス
ポイント出力を有する。また、各VPSは、割込み駆動ハードウェア制御を調整
するためにそれに対応する4つの割込みを有する。
【0048】 前記に注記されたように、本発明の前記VPSの設計に対する重大な懸念とは
、単一プロセッサまたは複数のプロセッサによるハードウェアの効率的な制御で
あった。前記ビデオフォーマット、前記RD_START信号の使用、前記CA
LU228の自動タイミング補償は、すべて、前記VPSを容易にかつ効率的に
ソフトウェア内でプログラムできるようにする。前記VPSビデオをマルチタス
キング、マルチプロセッサ環境で制御できるようにするために、前記VPMビデ
オデバイスは割込み駆動制御を通して制御される。割込みは、タスクがビデオ動
作が完了するのを待機している間に、タスク交換およびタスクブロッキングのた
めの方法を提供する。
【0049】 前記VPS内での重要な割込みは、ビデオ動作の完了を信号で知らせる割込み
である。別に説明されると、割込みは、ビデオシンクとしての役割を果たすビデ
オにより生成される。つまり、ビデオは前記デバイスに入るが、前記デバイスを
出ない。割込み生成のために重要であるデバイスおよび動作は、以下のとおりで
ある。
【0050】 フレーム記憶装置204−210用の記憶動作の前記完了 前記CALU228内での動作の前記完了 前記PALU232内での動作の前記完了 VPD内での関連動作の前記完了 VPM126上の制御レジスタ、LUTメモリ、およびフレーム記憶装置は、
前記GCP130を通した前記PM122上のマイクロプロセッサ124によっ
てアクセスできる。前記例示的なGCB130は、各VPM126が、前記GC
B130からのPCIアクセス要求を復号し、前記VPM126にとっては内部
であるローカル制御バス242を介して、前記VPM126上の多様なデバイス
に前記アクセス要求を転送するPCIスレーブ(GCB)制御装置を有するCo
mpactPCTTMとして実現される。
【0051】 前記ビデオ処理ドーターボード(VPD)は、特殊機能を提供するために各V
PM126に追加される。各VPDは、制御バスに加えて、前記VPMクロスポ
イント交換機202に直接的に接続されている、多数のビデオ入力ポートおよび
出力ポートを有する。VPM126の例示的な実施態様においては、2つのVP
Dがインストールでき、各VPDは最高6個のビデオ入力ポートおよび6個のビ
デオ出力ポートを有する。VPM126の現在好ましい実施態様で実現されてい
る3つのサンプルVPDは、図5から図8に関して後述される。
【0052】 図5は、デジタイザVPDを示す。前記デジタイザVPDは、米国テレビ規格
委員会(National Television Standards Co
mmittee)(NTSC)およびフェーズオルタネートライン(Phase
Alternate Line)(PAL)テレビ信号の両方に関して、復号
(CVBS)および構成要素ビデオ(S−Video)データを復号し、デジタ
ル化する、フィリップス(Phillips)チップSAA7111Aビデオで
コーダ502をベースにしている。前記例示的なVPDは、3つの非同期カラー
ビデオ信号をデジタル化するために3つのチャネルを利用する。前記例示的なデ
ジタイザVPDは、別個のビデオデコーダ502でそれぞれの色成分をデジタル
化することによってRGB入力もサポートする。平行DIまたはそれ以外のデジ
タルインタフェース504は、平行DIまたはその他のデジタル入力を処理する
ためにも含まれる。
【0053】 ビデオでコーダ502は、60Hzで720x242フィールドの中で、ある
いは50Hz(PAL)で720x288フィールドの中でデータをデジタル化
する。1つは輝度専用(Y)、および1つはインタリーブされたUカラー成分と
Vカラー成分用である、2つのデジタルチャネルが出力に送られる。これは、S
MPTE125Mおよび類似の基準に定義された4:2:2のデータを提供する
。各ビデオでコーダ502は、輝度チャネル用のYフィールドバッファ506、
および前記カラー(U、V)チャネル用のUVフィールドバッファ508という
2つのフィールドバッファにデジタルビデオデータを提供する。バッファ506
および508は、前記ビデオでコーダ502から前記13.5MHzをバッファ
に入れ、続いて前記VPMシステムクロック(例えば、33MHz)で完全フィ
ールドを前記VPMフレーム記憶装置および/またはその他の処理要素に読み込
むことによって前記デジタイザVPMのための最適化された処理を提供する。
【0054】 さらに、好ましくは、前記システム制御装置に対し、13.5MHzで前記フ
ィールドデータのビデオ書込みを「追い越す」ことなく、前記VPMクロック速
度で前記フィールドバッファ506と508からいつデータを読み取ることがで
きるのかを示すプログラム可能割込みが提供される。これが、前記デジタイザV
PDからのビデオデータの待ち時間を最小限に抑える一方で、前記VPM126
上で前記データ機能および処理機能の最大スループットを提供する。
【0055】 図6は、例示的な相関器VPDを示す。前記相関器VPDは、高速動画推定、
安定化、および画像融合のために設計されている。それは、FIFO230およ
びSRAMを前記VPM126上に含む前記CALU228と同一な、FIFO
230およびSRAMを含む3つのCALU228を具備する。加えて、VPM
126でのPYR−2およびLUTの組み合わせ(例えば、212、220)と
同様に、CALU228の前記出力の後にはそれぞれPYR−2ピラミッド処理
ASIC602およびLUT64が続く。動画推定および融合用の多くのアプリ
ケーションは、前記CALU228内で実行される相関または他の計算に続いて
フィルタ動作を必要とする。前記PYR−2 ASIC602は、前記2つのビ
デオデータチャネルを通過するために設定することができる。
【0056】 図7は、例示的なワーパ VPDを示す。前記ワーパー VPD28は、リア
ルタイムパラメータ画像歪曲(warping)のために設計され、同時の画像
取得と歪曲のために2つのSRAMバンク702、704を含む。前記ワーパー
VPDは、アドレス生成器706を使用してパラメータ画像変形用のアドレス生
成も実行する。例示的な実施態様においては、変形はアフィン(6パラメータ)
変換であり、アドレス生成器706は、2つのFPGA(Altera EPF
10K70)として実現される。これらのFPGAは、bi−cubic変換ま
たは投影法による変換(2つのアフィン変形の除算)のインプリメンテーション
をサポートすることができるほど大きい。オプションの32ビットフローフィー
ルド入力(Xのための16ビット、およびYのための16ビット)は、前記VP
M126用の(つまり、4台のフレーム記憶装置からの)4つのビデオストリー
ムを受け取ることによって、加算器708によってパラメータ変形に追加するこ
とができる。前記生成されたフローフィールドは、4つのビデオデータストリー
ムで前記VPM126にも送信できる。前記例示的なワーパー VPDは、1/
32ピクセル解像度に正確である双一次の補間器(interpolator)
710も含む。
【0057】 前述された前記回路構成要素は、後述される信号処理機能のすべてを実現する
のに十分である。これらの機能はこの特殊目的信号処理回路構成要素によって実
行されていると記述されるが、それらは、カスケード接続ピラミッドプロセッサ
集積回路などのその他の回路構成要素、あるいは汎用コンピュータで実行するソ
フトウェアで実現されてよいことが熟慮される。これらの信号処理機能はソフト
ウェア内で実現されるが、前記プログラムは、磁気ディスク、光ディスクまたは
無線周波数搬送波などのキャリヤで実現されてよい。
【0058】 本発明の第1実施態様は、複数の画像を処理し、構成要素画像のどれかより幅
広いダイナミックレンジを有する単一画像を生成することに関する。現在のセン
サ技術は、指定されたセットのイメージング条件に対して最良のダイナミックレ
ンジを作成するための標準セットの技法を使用する。一般的な技法は、自動的な
利得制御、ガンマ補正、および自動アパーチャ制御を含む。これらの方法のそれ
ぞれが、前記センサに入射する光の量を増加することによって(自動アパーチャ
/アイリス)、前記センサ構成要素の応答を増幅することによって(自動利得)
または非線形変換関数を前記画像に適用し、前記センサ画像の視覚的な概観を改
善することによって(ガンマ補正)、前記センサのイメージングパラメータを調
整するために使用される。
【0059】 これらの技法のどれも、前記センサの基本的な制限に取り組んでいない。つま
り、それは信号強度の有限範囲上だけでしか応答を生成することができない。こ
れらの方法は、さまざまなイメージング条件に対処するためにではあるが、前記
センサに固有である既知の、不変のダイナミックレンジ内で前記センサを調整し
ようとする。
【0060】 高度CMOSセンサは、現在、複数の統合時間をそれぞれのセンサロケーショ
ンに効果的に適用するダイナミックレンジ機能拡張の方法を使用する。このよう
にして、完全な統合時間が完了した後、その結果として生じる出力ピクセルは、
期間が変化する複数の統合間隔の結果である。これは、経時的なピクセル強度の
最大飽和を定めることによって達成される。実際には、ピクセルは、非常に明る
い領域内では、前記ピクセルが、そのピクセルにとっての真の最大電圧のレベル
より下のスレッショルドレベルで電圧で飽和するように調整される。前記統合間
隔のまさに最後で、前記ピクセルの最大飽和レベルに達するまで、電荷は、ある
いは代わりにそのフィールドの統合時間が終わるときにこのスレッショルドを超
えて集まることができる。このダイナミックレンジ拡張の方法は、事実上、ダイ
ナミックレンジ改善に備えるが、輝度解像度の削減を犠牲にしてである。明るい
領域は特徴を示すが、これらの特徴は、前記シーンのそれ以外の領域と比較する
と低コントラストおよび色あせる傾向がある。
【0061】 複数の統合時間をセンサレベルでピクセルごとに使用しても、前記画像のロー
カル領域で見出される特徴を最大限にするという、センサ性能の重要な問題に対
処しない。子らの選択技法は、ピクセル単位で動作し、画像の局所的なコントラ
ストエネルギーを考慮しない。このようにして、この方法は、飽和およびブルー
ミングの問題には取り組むが、シーン内のローカルポイントの回りでのセンサ画
像のコントラストエネルギーの最大化という問題には対処していない。
【0062】 本発明の第2実施態様は、複数の画像を処理し、構成要素画像のどれよりも広
い被写界深度(焦点深度とも呼ばれる)を有する単一画像を生成することに関す
る。指定された光学システムの前記被写界深度は、前記センサ内の光学部のアー
キテクチャに固有であり、前記センサのイメージングアレイには関係していない
。被写界深度は、焦点距離が前記ピンホールアパーチャから前記イメージング面
までの有効距離を記述する場合に、カメラの焦点距離の調整に基づき焦点を調整
できるポイント投影法(いわゆるピンホール)カメラの直接的な結果である。こ
れらの光学部品を用いると、被写界深度は、前記光学部品での前記ピンホールア
パーチャの前記サイズを調整することによって拡張できるが、同時に、前記イメ
ージング面に入射する光量を調整することを犠牲にしてである。
【0063】 これらは物理的な制約であるため、一貫したアパーチャおよび統合時間の設定
値を維持する一方で、センサの被写界深度を拡張するための方法はない。
【0064】 本発明の第3実施態様は、最も少ない、動画のぼやけを示す1つの画像を選択
するために、時間的に近く写され、および単一シーンの複数の画像の処理に関す
る。最も困難な写真撮影状況の1つが、カメラおよびオペレータが移動している
不安定なプラットホーム上にいるときである。この状況で、前記統合時間が大き
いときには、撮影された写真にはかなりの動画のぼやけがある。現在、この動画
のぼやけを削減する唯一の方法は、(可能であるならば)前記センサの統合時間
を削減することである。しかしながら、これは前記センサにより生成される画像
の明度およびコントラストも削減する。
【0065】 現在では、多大な動画のぼやけがないビデオフレームを自動的に選択するため
の方法はない。処理後に前記ビデオフレームをぼやけを取り去る(de−blu
rring)ために処理方法が使用できるが、ぼやけを取り去る方法は、前記画
像を歪ませることで知られており、前記ぼやけさせるプロセスのために取り返し
がつかず失われてしまった画像特徴を置換することはできない。
【0066】 本発明の第4の実施態様は、前記構成要素画像のどれかより大きい明度および
コントラストを有する)単一画像を生成するために、不十分に照らし出されたシ
ーンを写した複数の画像を処理することに関する。現在のセンサ技術は、光が少
ない性能を処理するための複数の方法を提供する。これらの最も単純なものが、
さらに多くの光が前記センサに入射できるように、および前記センサの前記統合
時間を調整するために、前記センサの前記アパーチャ/アイリスを開くことであ
る。しかしながら、例えば、前記センサまたはシーン内の構成要素のどちらかが
運動中であるため、アパーチャ設定値および統合時間を任意に増加できないとき
がある。前記統合時間が大きく、前記センサおよび映されている前記シーンの相
対的な運動が大きいときには、結果的に生じるかなりの動画のぼやけ人工遺物が
ある場合がある。このようにして、今日のセンサシステムを用いると、動画のぼ
やけなしに、暗いシーンの鮮明で高いコントラストの画像を得ることは困難であ
る。
【0067】 光のレベルを増幅し、不十分に照らし出されたシーンの画像を捕捉できる強化
されたイメージングセンサが存在する。しかしながら、これらの方法には、高い
コスト、ビデオ信号だけではなく雑音の相当な増幅、および多大なハードウェア
コストを含む、特有の制限がある。
【0068】 本発明の第5実施態様は、著しい熱変動または大気変動を通して画像が見られ
るときに発生することのあるような光学経路のむらの影響を削減するために、あ
るシーンを撮影した複数の画像を使用する信号処理方法に関する。下記でシンチ
レーションと呼ばれているこれらの影響はシーンが映される条件の結果であり、
前記センサによって引き起こされることはない。現在のセンサ技術はこれらの歪
みを補正することはできない。
【0069】 電子処理は、電子的なシーン安定化などの大局的な動画影響を補償することは
できるが、これらは大局的であり、局所的に変化する影響ではない。また、この
ようなデジタル動画推定は、典型的にはパラメータ化され、このようにして、前
記ビデオフレーム間の相対的に単純な幾何学的な関係に依存する。これとは対照
的に、シンチレーションは、非常に局所的なレベルだけで(つまり、画像内に小
さな断片がある)簡略な変換でモデル化することができるきわめて非線形の動き
としてビデオシーケンス中に顕在する。このようにして、対極的な動画推定およ
び変換の方法は、事実上、前記シンチレーションを削除しない。
【0070】 ビデオシーケンスの時間平均化などのその他の時空的なフィルタリング方法は
、シンチレーションの影響を削除することはできるが、画像の線明度を犠牲にし
てである。シンチレーションのあるビデオシーケンスを有する代わりに、時空的
なフィルタは、経時的に円滑化され、従ってぼやけている画像を生じさせる。前
記シンチレーション歪みは、連続して変化する傾向があるため、中心フィルタな
どのアウトライア拒絶フィルタは、シンチレーション影響を削減するには効果的
ではない。
【0071】 本発明の第6実施態様は、ビデオシーケンス内の画質を高めるための方法に関
する。従来、アプローチは個々の画像フレームを鮮明にすることに基づいていた
。しかしながら、写真品質の向上は通常限られている。他方、後述されるアプロ
ーチは、それがシーケンス内の複数の画像で動作するため、画質の劇的な向上を
可能にする。
【0072】 指定されたセンサからの画像をデジタル的に拡張するための方法が詳しく説明
される前に、前記センサをさまざまな用途で使用する方法を記述するのが有効で
ある。
【0073】 現在の写真撮影は、取得プロセスを導くために相当量のユーザ対話に依存する
。標準ビデオカメラおよびスティルカメラでは、ユーザは手動で、または自動焦
点合わせによって、シーンのある特定の部分に対する前記焦点距離を選択し、そ
れからその調整後に焦点を固定した状態に保つ。このようにして、オペレータは
、前記カメラからの固定距離で焦点位置を選択し、さまざまな焦点効果を生じさ
せることができる。
【0074】 同様に、ビデオカメラおよびスティルカメラは、自動的に、または手動制御の
元で、統合時間およびアパーチャ/アイリス設定を確立する。このようにして、
周囲の光レベルが、絶えることのできる運動量とともに確立できる。
【0075】 主題発明の実施態様のすべての共通の筋道とは、複数の調整された単出力ビデ
オフレームを使用し、単一の出力ビデオフレームを生成する、あるいは単一のス
ティル出力画像を生成することである。フレーム選択および結合プロセスを手動
制御にするよりむしろ、電子的に拡張された感知が、イメージングパラメータを
自動的に変えることができる。このようにして、これらの方法は、発生している
イメージングプロセスに関するオペレータの知識が最小であるときさえ、実現す
ることができる。
【0076】 この種のセンサ機能拡張の潜在的な利点の例として、高速フレームビデオセン
サの利点を考えてみる。これらのセンサは、標準鮮明度ビデオ信号よりはるかに
高い速度でビデオフレームを提供することができ、最高毎秒300フレームが現
在の最先端の技術であり、これが改善している。このようなセンサが電子的に拡
張された感知方法とともに使用されると、イメージング用のパラメータは単一標
準ビデオフレーム時間内に10回自動的に調整できるだろう。従って、この種の
アプローチを使用すると、100倍もの情報を利用する毎秒30フレームのビデ
オシーケンスを生成することがある。標準ビデオフレーム時間中、焦点および統
合時間のさまざまな設定値が使用できる。同様に、10個のフレームを1つの共
通座標系に位置合わせし、空間解像度を拡張した単一ビデオフレームに結合する
ことができる。代わりに、10個の調整済みビデオフレームは、非常に短い統合
時間で蓄積し、光が少ない状況でさえ、ユーザに、鮮明で高いコントラストの画
像を提供することができる。
【0077】 しかしながら、この所見は、拡張された画像感知のための標準ビデオシーケン
スの仕様を排除しない。標準ビデオ速度情報さえ、シンチレーションを除去し、
解像度を向上させ、スティル画像とビデオシーケンス両方の被写界深度および焦
点を拡張するために経時的に結合できる。さらに、これらの方法は、オペレータ
が結合のためにさまざまなフレームを選択できるようにするより手動的なフレー
ムワーク内で提供することができる。これは、おそらく、複数の画像が手動で取
得され、再結合が厳密な時間的な制約を有さないときに、デジタルスティルカメ
ラと最も関連している。
【0078】 後述される機能拡張方法の最大のクラスは、複数の画像融合の同じ基礎的な技
法に基づいている。本項は、図8に関して、前記融合プロセスの概要、および融
合に基づいた機能拡張の方法、つまりダイナミックレンジ拡張、被写界深度拡張
、および画像シーケンス品質機能拡張を示す。
【0079】 本項の第1部分は、基本的な融合プロセスの概要である。それから、前記融合
プロセスに基づく特定の機能拡張方法が説明される。2つの画像をマージするた
めの前記融合プロセスでのピラミッドフィルタの使用に関する過去の研究は、典
型的には、両方とも強度画像である、および/または2つの異なるセンサから得
られる2つの画像に対しての動作に焦点を当てていた(例えば、可視画像とIR
画像)。2つの画像を融合するための1つの例示的な方法が、各画像をラプラシ
アン(高域濾波された)ピラミッドに分解することであり、その場合、前記ピラ
ミッドは其の最高レベルでガウス(低域濾波された)画像を有する。次のステッ
プは、各レベルでの画像の対応する部分に相対的な特徴を定めることである(例
えば、対応する部分のどれがより大きな振幅を有するか)。さらに目立った特徴
が、ピラミッド分解ごとにマスクの補足的なセットを定める。それから、前記覆
い隠された画像部分が、復号画像を生成し直すために使用される単一ピラミッド
の中に結合される。この一般的な方法は、前記ラプラシアン画像の密度を二倍に
することにより改善されてよい。二倍密度のガウスピラミッドは、以下のとおり
に構築される。最高の解像度画像は、完全解像度で保留される。前記ピラミッド
のレベル1を生成するために、最高解像度レベルの画像が、サブサンプル採取せ
ずに低域濾波される。それ以降の二倍密度ガウスピラミッドレベルは、追加低域
フィルタを用いて過去のレベルの二倍密度画像を低域濾波することによって回帰
的に計算されてから、濾波された結果をサブサンプル採取(subsampli
ng)する。使用されている第2低域フィルタは、標準的な単一密度が薄ピラミ
ッドとともに使用される標準的なガウス低域フィルタのカットオフ周波数の2分
の1であるカットオフ周波数を有する。二倍密度ラプラシアンピら未度は、各二
倍密度が薄ピラミッド画像を第2低域フィルタで濾波してから、前記二倍密度が
薄画像から、その同じ画像の前記濾波されたバージョンを差し引くことによって
前記ガウスピラミッドから計算される。要約すると、この融合方法は、ピラミッ
ドフィルタのフレームワーク内の複数の向きおよび尺度での複数の画像から特徴
の前記選択および結合、それからやはり前記ピラミッドフィルタ内での前記結合
された特徴から単一画像を再構築することを含む。
【0080】 本発明の1つの態様は、RGB(赤−緑−青)およびYUV(輝度、飽和、お
よび色)でのカラー画像などの複数の構成要素を有する画像で画像溶融を実行す
るための方法に関する。カラーでの画像融合に対する単純素朴なアプローチは、
画像融合を別個に、各色平面とは無関係に実行してから、結果として生じる3色
の平面を単一カラー画像として提供することを含む。実際には、これは2つの理
由からうまくいかない。
【0081】 第1に、画像の色成分が、例えば、その飽和および色によって表される。この
情報(特に色)は、空間的な尺度空間での有意義なマッピングを含まない。言い
換えると、飽和および色情報の複数の解像度表記には、率直な解釈はなく、色空
間自体のマッピングに依存している。従って、前記選択プロセスには、それが強
度専用空間に対して行うのと同じ波及効果はない。
【0082】 第2に、単一色は、実際に、3つの異なる値(R、GおよびB。Y、U、V等
)の組み合わせである。これらの値は、ベクタとして表し、さまざまな3次元空
間の中にマッピングすることができるが、それぞれの色は依然として3次元値で
ある。色成分を別個に結合し直そうとすると、色成分の依存性が破壊され、所望
の融合効果は生じない。
【0083】 強度画像の融合は、濃度ピクセルを選択し、ピラミッド内で上昇するレベルで
隣接するピクセルと融合することによって達成できる。その結果生じる複合画像
は、指定された選択関数を条件に両方の画像から情報を捕捉する。ある色を表す
任意のベクタは各構成要素に対応する重み付けを有するため、2つのベクタから
組単位で構成要素を別個に選択することは、元の重み付けを満足させず、その結
果人工遺物を生じさせる。
【0084】 直感的には、所望されているのは、複数の焦点面またはさまざまなダイナミッ
クレンジを有する画像のマージなどの特定の効果が、色が両方の画像を表すまま
であるという制約の元で拡張されるように、複数の画像で融合を実行できること
である。従って、カラー画像に適用される前記融合プロセスの結果は、色混合一
貫性(つまり、前記構成要素画像からの色が保たれなければならないか、あるい
は元の色の融合の結果でなければならない))と色空間一貫性(色の間の境界が
保たれなければならない)の両方を保存しなければならない。
【0085】 第1基準、色混合一貫性は、ある特定のピクセルの色値が、複合プロセスによ
り得られる任意の値よりむしろ、元の色の色の混合の結果でなければならないこ
とを強調している。第2基準、色空間一貫性は、ブルーミングまたは色エイリア
シングとして記述できる効果に対処する。
【0086】 前記融合プロセスをカラー画像の拡張に適用する前に、前記融合プロセスを見
直すことが役立つ。2つの単独面画像、A、Bに適用され、複合画像Cを生じさ
せる前記融合プロセスは、図8に示され、以下のように概略できる。前記入力画
像A810とB812は、ピラミッドプロセッサによって処理され、画像ピラミ
ッド814と816を生成する。これらの画像ピラミッドは、それぞれの特徴関
数818と820に従って処理され、それぞれの特徴ピラミッド822と824
を生成する。選択プロセス826は、前記特徴ピラミッド822と824に適用
され、前記融合された画像の前記ピラミッド表記を生成するために前記ピラミッ
ドの各レベルからどの特徴なのかを定めるマスクを生成する。このマスクを使用
して、前記ピラミッド418と416は、合計関数830によって結合され、前
記融合画像の前記ピラミッド表記(図示されていない)を生成する。それから、
このピラミッド表記は、前記融合された画像C832を再構築するために使用さ
れる。
【0087】 このプロセスが有効であるためには、画像は、同じシーンが映され、登録され
るように、撮影されなければならない。登録済みの画像を持たないと、予測でき
ない結果が引き起こされる場合がある。撮影された画像が同じシーンのものでは
ない場合には、結果は、画像混合の人工遺物を含む可能性がある。画像登録技法
は周知であり、例えば、1992年5月、サンタマルゲリータリグリア(San
ta Margerita Ligue)、コンピュータビジョンに関する欧州
会議(European Conference on Computer V
ision)、「階層モデルベースの動画に基づいた推定(Hierarchi
al Model−Based Motion Based Estimati
on)」と題されるJ.R.Bergenらによる記事の237−252ページ
に説明されている。画像登録は、例えば、アフィン変換などのパラメータ変換を
、一方の画像を他方の画像と位置合わせする1つの画像に適用することによって
実行されてよい。前記変換用のパラメータは、前記2つの画像の時空的な導関数
を使用して、画像間の動きを計算し、一方の画像を他方の画像に比較することに
より決定される。代わりに、2つの画像は、ピクセル単位での一方の画像から他
方の画像への被写体変位を記述する(フローフィールドとしても知られている)
動画ベクタフィールドを生成するために比較されてよい。前記動画ベクタフィー
ルドは、図6に関して前述された相関器VPDを使用して生成されてよく、前記
一方の画像は、図7に関して前述された前記ワーパー VPDを使用して前記他
方の画像と位置合わせするために歪曲されてよい。
【0088】 本項は、融合の目標のために構築されるピラミッドを説明する。「画像を融合
するための方法およびそのための装置“METHOD FOR FUSING
IMAGES AND APPARATUS THEREFOR”」と題される
Burtらに対する米国特許第5,325,449号は、ピラミッド構造、画像
融合、および図4と図6に図示されているPYR2プロセッサなどの例示的なピ
ラミッドプロセッサのアーキテクチャに関する説明を含む。
【0089】 ラプラシアンピラミッドは、FSD(フィルタ減算10分の1徴収(Deci
mate))法を使用して画像ごとに構築される。このようにして前記FSDラ
プラシアンピラミッドLnのk番目のレベルは、対応するガウスレベルから構築
され、前記ガウスは、1次元構成要素水平フィルタおよび垂直フィルタhとvを
有する5x5の分離可能低域フィルタwで合成され、ここではh=(1/16)
[1 4 6 4 1]およびv=(1/16)[1 4 6 4 1]Tであ
る。
【0090】
【式1】 10分の1徴収プロセスのため、およびwが理想的なフィルタではないため、
前記元の画像の前記FSDラプラシアン結果からの再構築では、情報のいくらか
が失われる。失われてしまった情報のいくつかを考慮するため、追加の用語が前
記ラプラシアンに追加される。この追加の用語は、前記濾波されたラプラシアン
を前記元のラプラシアンから差し引くことにより得られる。
【0091】
【式2】 本項の追加は、それ以外には失われてしまうだろう周波数情報のいくらかを復
元するために再構築を可能にする効果を有する。加えて、前記再構築された画像
の線明度は増している。後に続く資料では、前記画像の前記ラプラシアンに対す
る参照は、この修正されたラプラシアンに対してである。
【0092】 σとラベルが付けられている前記特徴計算プロセス818と820は、特徴ピ
ラミッド828および824を生じさせる両方の画像のピラミッド814と81
6で動作する関数のファミリーを表す。実際には、前記特徴プロセスは、個々の
ピクセル(二乗)または領域の上で動作する関数である場合がある。
【0093】 前記特徴関数は、融合されなければならないものの重要性を捕捉する。例えば
、異なる焦点を有する画像を結合するとき、特徴の基準とは、前記画像のさまざ
まな部分で見える画像の明快さである。この例では、適切な基準とは、画像の特
定の点のエッジネス(edginess)を強調する基準である。従って、適当
な選択は、絶対値または二乗などの画像の振幅に対し動作する関数である。この
ような画像を処理するための前記特徴ピラミッドは、以下のように表されるだろ
う。
【0094】
【式3】 同じシーンからの2つの位置合わせされた画像AとBが異なる焦点距離を持つ
場合には、指定された画像位置(i、j)にとって、前記画像の一方の特徴は、
他方の特徴より大きくてよい。これは、位置(i,j)でのレベルkの場合、情
報が、エッジがさらに明快であり、従って焦点が合っていることを暗示するより
大きい特徴値を有する一方の画像から抽出されなければならないことを示唆する
。この比較およびバイナリ決定動作は、2つの単一画像にとっては満足が行く一
方、同じ動作が画像のシーケンスで実行されるが、前記動作は、edge−ne
ssの度合いがほぼ等しい領域に明滅する画像を生じさせる??。小さい傾斜し
かない領域で他方の画像より一方の画像から値を選択することは、画像内に含ま
れている実際の情報より、デジタル化プロセスでの雑音によってより制御される
と考えられる。この効果はさまざまなセンサから得られた画像でより可視である
が、それは、前述されたように、二倍密度ラプラシアンピラミッドを使用するこ
とによって大幅に削減することができる。
【0095】 後述されたアプリケーションは、ラプラシアンピラミッドを使用する。しかし
ながら、例えば前記特徴関数の計算など、動作の少なくともいくつかが、ガウス
ピラミッドまたは画像のそれ以外の尺度−空間表記上で動作できることが熟慮さ
れる。そこで、ピラミッドの種類の選択は、特徴の測定規準として、融合される
情報の種類に依存するだろう。選択および決定手順のこの一般性は、ピラミッド
、選択関数および決定関数を有することによって図8に示され、再構築動作は前
記ラプラシアン上で条件が設定されていない。
【0096】 σとラベルが付けられている前記選択プロセス826は、前記特徴計算プロセ
スから得られる、前記特徴ピラミッド822と84の上で動作する関数のファミ
リーを表す。このプロセスの結果は、前記2つの画像内の前記ピクセル間の選択
基準を定めるピラミッドマスク828である。前記レベルkの前記選択プロセス
は、以下のように表記できる。
【0097】
【式4】 δkは、前記選択マッピングを生じさせるレベルkの決定関数を識別する。1
つの例示的な選択関数は、最大値つまり最大関数である。この関数は、以下をマ
ッピングするとして表されてよい。
【0098】
【式5】 このマッピングは、レベルkの融合された画像を生成するために使用できる。
【0099】
【式6】 前記生成マップがバイナリであるため、この種の関数は、ハード混合機能とし
て知られている。しかしながら、前記画像のある特定の位置の前記重みがバイナ
リでない場合には、複合画像は前記2つの位置でのデータの混合となるだろう。
明滅を防止するために使用できるのが、この種の混合である。すなわち、前記マ
ッピングマスクは、前記複合画像の前記再構築の前に何らかのフィルタによって
円滑化できる。
【0100】 このプロセスが、さまざまな画像特徴に応えることができるようにするために
、さらに確度が低い混合関数が導入される。特に、2つの関数lbとhbは、以
下のように定義され、
【0101】
【式7】 ピクセル位置(i、j)ごとに、
【0102】
【式8】 および
【0103】
【式9】 である。
【0104】 それから、μ、lbおよびhbの値は、前記再構築プロセスの間に使用される。
【0105】 Σとラベルが付けられる前記再構築プロセス830は、前記ピラミッドマスク
とともに元の画像の前記ピラミッドからの各レベルを結合し、前記複合画像Cを
生成する。
【0106】 前記再構築プロセスは、以下のとおりに、前記ピラミッドの最高レベルから裁
定レベルへ情報を反復して統合する。
【0107】
【式10】 この場合、Ckは、レベルN、裁定解像度レベルからレベルkへの再構築済み
の画像を表し、項「↑2」は拡大プロセスを指す。前記拡大プロセスは、元の中
に1列および1行おきにゼロの列および行を導入してから、前記wフィルタで結
果として生じる画像を合成することによって前記画像の幅および高さを二重にす
ることから成立する。前記ピラミッド内の前記最低解像度レベルNは、前項で導
入された特定の関数βを使用して混合されてよい。
【0108】
【式11】 βの1つの考えられる関数は、前記2つのガウスの平均だろう。最高レベルで
は、前記ガウスは、領域のコントラストを捕捉し、従ってβの選択は所望の効果
に依存する。
【0109】 前記マッピング関数が前述された前記確度の低い(soft)混合である場合
には、Lckは、M,lbおよびhbの関数として表記される。ここで、
【0110】
【式12】 この場合(i、j)は画像の中の任意の位置を指す。それから、
【0111】
【式13】 前記融合プロセスは、元の画像の選択および前記複合画像で所望される結果に
基づいた、多くの異なる種類の画像機能拡張を含む。前記説明から、前記複合画
像の生成のための複数の制御が識別できる。これらは、前記融合プロセスの段階
に関して注記できる。
【0112】 ・特徴:前記特徴が識別される画像の関数σ818と820、および対応する
尺度−空間表記は、機能拡張の種類を決定できる選択の内の2つである。この段
階は、融合されるさまざまな画像の異なる特徴基準構成要素、または画像ごとに
複数の特徴ピラミッドを生成させる単一画像の異なる特徴基準を使用して単一よ
り多い関数を含んでもよい。
【0113】 ・選択:関数δ826の選択は、σの過去の選択に依存し、前述されたように
、前記マスクM828を形成するために生成されたマッピングは、追加パラメー
タに依存してよい。
【0114】 ・再構築:変化してよい構成要素の1つが基本関数βの選択であり、前記ピラ
ミッドの最高レベルでの再構築がどのように実行されるのかに影響を及ぼす。
【0115】 前記に識別された柔軟性により、前記融合プロセスは、複数の拡張効果を表す
能力を可能にする。前記融合プロセスの概要を完了し、本発明の例示的な実施態
様の説明は、カラー画像の融合に焦点を当てるだろう。
【0116】 前記に指摘されたように、カラー画像の融合には、前記融合プロセスがどのよ
うに実行されるのかの再考が必要になる。特に、カラー画像内のさまざまな平面
が前記融合プロセスにどのように関与するのかを考慮することが望ましい。多く
の異なる種類のカラー画像表記があり、前記さまざまな構成要素からの貢献は、
選択された表記および所望の結果に依存する。
【0117】 特定の複合効果に対するこれらの構成要素の相互作用に関するよりよい理解を
得るために、2つの例のアプリケーションのための機能拡張を達成する上で使用
される選択を記述することが役立つ。
【0118】 さまざまな長さおよび異なるダイナミックレンジを持つ画像の機能拡張のため
には、カラー画像表記はYUVとして選ばれてよい。これらの構成要素は、複合
画像での所望の効果を特徴つけるための手段として、輝度、飽和および色相を考
慮するために選択された。
【0119】 大きな被写界深度を有する(つまり、画像のすべての部分で最高の焦点を有す
る)単一画像を生成するケースでは、前記画像の構造上の詳細は、色およびその
飽和が保存される一方で強調されることが望まれている。輝度は、すべてのパー
ツの焦点が合っている複合画像につながる最も顕著な成分である。他方、前記セ
ンサのダイナミックレンジを拡張するとき、前記選択プロセスの輝度と飽和の両
方を考慮することが望ましい。基準は、輝度および飽和の両方が、カラー画像の
ダイナミックレンジに対してしなければならない貢献によって決められる。
【0120】 前記構成要素の1つが特徴で、および前記選択プロセスで優勢であるときには
、前記優勢な構成要素により作成される前記ピラミッドマスクは、その他の構成
要素を混合するために使用できる。この選択が画像内のすべてのピクセルがベク
タによって表され、前記に記述された両方の色一貫性基準が満たされていること
を保証する。それから、確かであろうと、確度が低かろうと、混合プロセスは、
その他のバンドを結合するために指定されたマスクを使用することができる。
【0121】 前記YUV表記では、Yは前記画像の前記輝度を表す。典型的には、前記画像
の前記輝度成分は、Uカラー差異成分またはVカラー差異成分のどちらかより高
い帯域幅を有する。このようにして、最良の被写界深度を有する混合画像を生成
するために使用される前記特徴関数および前記選択関数の両方とも、前記Y成分
の前記ラプラシアンピラミッドに基づいている。前記画像は類似した飽和および
色相を有するので、前記U成分とV成分用の両方の画像からの貢献は前記2つの
画像の前記Y成分を使用して決定される前記マッピングに基づき混合される。
【0122】 焦点変動、関数の選択の元での2つのカラー画像を混合するための1つの例示
的な方法が図9に示されている。
【0123】 図9の第1ステップである、ステップ910は、共通座標系に画像を位置合わ
せする。これは、望ましくは、シーケンスの中の最後の画像の座標系である。従
って、図9に図示されている例示的な実施態様において、最後の画像は基準画像
として選択される。使用される前記位置合わせ技法は、ステップ910に図示さ
れているようにパラメータ変換であってよいか、あるいはそれは前記基準画像を
基準にして画像ごとに動画フローフィールドを計算してから、それぞれの画像を
前記基準座標系に歪曲することを含んでよい。前記プロセスの次のステップであ
るステップ912は、画像のシーケンスの前記輝度成分のために前記ラプラシア
ンピラミッドを構築する。同時に、ステップ914は、画像のそれぞれの前記U
成分およびV成分のためにガウスピラミッドを構築する。次に、ステップ916
は、前記特徴関数を前記輝度ピラミッドのすべてに適用し、それぞれの特徴ピラ
ミッドを生成する。ステップ918では、前記選択関数は、前記輝度特徴ピラミ
ッドに基づき、確かな混合を使用して、輝度ピラミッドおよびクロミナンスピラ
ミッド(UとV)の両方で混合される前記機能を選択する。この選択関数は、最
低解像度画像を表す前記ピラミッドレベルNを除き、前記ピラミッドのすべての
レベルに適用される。このピラミッドレベルは、ステップ920と922で混合
される。ステップ920は、円滑化され、10分の1が徴収されたレベルN−1
から前記マスクを使用して、前記ガウス画像を確かに混合することによって、前
記輝度ピラミッドのレベルNを混合する。ステップ922は、前記ガウス画像を
平均することによって、前記クロミナンスピラミッドのレベルNを混合する。前
記最終ステップ924は、前記Yピラミッド、Uピラミッド、およびVピラミッ
ドのそれぞれを再構築することによって、前記融合画像を構築する。
【0124】 図10は、異なるダイナミックレンジ情報を有する画像を融合する前記プロセ
スを説明するフローチャート図である。これらの画像にとって、前記輝度情報と
飽和情報の両方とも関連している。前記例示的なプロセスは、画像のシーケンス
が互いから短時間後に写され、従って前記色または色相が前記画像の中でほぼ一
定していると仮定する。この仮定は、前記タスクが、映されているシーンの部分
がある画像では露光不足であり、別の画像では露出過度であるように見える複数
の画像を結合することであるときには不合理ではない。前記ダイナミックレンジ
を変えることによって、一定の構造上の情報が明らかにされる。明らかに、画像
が長い時間期間をかけて撮影された場合には、前記色相は変化を受ける。
【0125】 このようにして、図10に図示されている前記例示的なプロセスは、ダイナミ
ックレンジ融合プロセスにおいては、輝度および飽和は関係付けられているが、
色相が一定のままであると仮定する。非常に高い飽和の領域は、露出過度であり
、非常に明るく見える画像の部分に関係する。非常に低い飽和の領域は、暗い領
域に関係する。両方のケースとも、詳細情報は不十分である。かなりのコントラ
ストがある画像の部分では、前記輝度データは、有効な選択基準を提供する。こ
れらの所見は、それらが使用される関数を決定するための手段となるために重要
である。
【0126】 図10の第1ステップである、ステップ1010は、シーケンス内の画像のす
べてを基準画像に位置合わせする。前記被写界深度プロセスにおいてのように、
前記例示的なダイナミックレンジプロセスの前記基準画像は、前記シーケンスの
中の最後の画像である。
【0127】 ステップ1010の後、前記プロセスは、ステップ1012で、前記シーケン
ス内の前記画像のすべての前記輝度(Y)成分のためにラプラシアンピラミッド
を構築する。同時に、ステップ1014は、前記シーケンス内の画像のすべての
対応するクロミナンス成分のためにガウスピラミッドを構築する。次に、ステッ
プ1016は、前記シーケンス内の前記画像を融合するために使用される前記特
徴ピラミッドを生成する目的で、前記輝度ピラミッドに前記特徴ピラミッドを適
用する。
【0128】 ステップ1018では、前記輝度特徴ピラミッドに基づく確かな混合選択関数
が、前記輝度画像ピラミッドとクロミナンス画像ピラミッドの両方のために結合
マスクを生成するために適用される。この混合関数は、最低解像度レベル、Nを
除く、前記ピラミッドのすべてのレベルに適用される。
【0129】 前記輝度およびクロミナンス画像成分の両方にとって前記ピラミッドの前記N
レベルは、ステップ1020で結合される。このステップは、前記輝度クロミナ
ンスピラミッドのすべてのNレベルを結合するために前記クロミナンスピラミッ
ド(UとV)によって示されるように、前記飽和レベルを使用する。特に、ステ
ップ1020での結合のために選択された前記Nレベルピラミッドのセクション
は、前記シーケンス内の前記画像のすべての前記飽和の手段に最も近い飽和値を
有するセクションである。ステップ1020は、前述されたように前記基本関数
βを実現する。
【0130】 ステップ1020の後、ラプラシアンピラミッドが、前記複合画像のために構
築された。ステップ1022では、このピラミッドは前記出力画像を再構築する
ために使用される。前述されたように、この出力画像は、前記出力画像のどれか
の前記ダイナミックレンジを越えるダイナミックレンジを有する。図10に関し
て説明された前記方法が、少なくとも2つの画像から成り立つ画像のシーケンス
で動作する。
【0131】 融合のためのその他の方法も可能であり、それらは前記画像のそれ以外の態様
を浮き彫りにする。例えば、画像の飽和を最大限にする、または一定の種類の色
に有利である選択関数を考えることができる。(YUVとRGBを含むが、それ
らに限られていない)色空間のために使用されるさまざまなマッピングに応じて
、それ以外の選択および強調の方法が使用されてよい。
【0132】 本発明の第3実施態様は、最も少ない動画のぼやけを示す1つの画像を選択す
るために、時間的に間近で撮影され、単一のシーンの複数の画像を処理すること
に関する。人間のオペレータは、多くの場合、自分達が動いている間、およびカ
メラが動いている間あるいはそれ以外の場合ぐらぐらしている間、鮮明な画像を
得るという問題に直面する。十分な光があるときには、動画のぼやけ人工遺物を
除去できるまで、前記センサの前記統合時間を減らすことができる。しかしなが
ら、いくつかの例では、移動イメージャの統合時間を調整し、明度とコントラス
トの所望のレベルを有するが、動画のぼやけを示さない画像を得ることは困難で
ある。
【0133】 多くの例では、前記カメラの上で引き起こされる動きは散発的かつ無作為であ
る。この散発的な性質が、最小量の動画のぼやけがあるビデオフレームがあるが
、かなりの量の動画のぼやけがあるそれ以外のフレームがあることを示す。
【0134】 キーフレームの選択の背景にある考え方は、単に画像のシーケンスから最良の
画像を選択するということである。「最良」の画像は、通常、最も少ない動画の
ぼやけを示す画像として定義される。フレームの任意のシーケンスの場合、前記
シーケンス内のあるフレームには、それ以外のフレームより少ない動画のぼやけ
があり、従って記憶および表示のために他の画像のどれよりもより望ましいだろ
う。無作為に(あるいはオペレータによって任意に)選択された画像は、シャッ
ターを押す時間に近い時間で撮影されたそれ以外のフレームと比較されると、相
対的な意味でも品質の保証をもたない。
【0135】 最良の焦点を備えたフレームを選択することは、ビデオフレームごとに総画像
エネルギーを追跡調査し、最高のエネルギーレベルのフレームを選ぶことにより
決定できる。指定されたビデオフレームF(t)のラプラシアンピラミッドを考
えると、
【0136】
【式14】 このフレームF(t)の前記エネルギー基準は、二乗されたラプラシアン値の
各ピラミッドレベルでの合計である。
【0137】
【式15】 さまざまな解像度での画像エネルギーの偏差の分析を通して、動画のぼやけの
影響を追跡調査することができる。具体的には、前記シーケンスの中では、すべ
ての周波数バンド内で最大エネルギーを持つ画像を選択し、最低解像度レベルか
ら最高解像度レベルへ比較を開始することが望ましい。
【0138】 図11は、本発明の第3実施態様で使用するのに適した例示的な信号処理回路
構成要素のブロック図であり、それは、前記シーンの前記画像で動画のぼやけを
最小限に抑えるために、フレームのシーケンスから1つの画像を自動的に選択す
る。
【0139】 図11に図示されているように、入力端子INが、例えば、CCDイメージン
グアレイから画像データを受け取るために結合される。前記例示的なイメージン
グアレイ(図示されていない)は、毎秒30コマという速度で画像情報のフレー
ムを提供する。図11に図示されている本発明の例示的な実施態様は、5つのフ
レーム記憶装置メモリ1112、1114、1116、1118および1120
のそれぞれの中に逐次フレームを記憶する。前記入力信号INも、新しいフレー
ム画像が提供されているときを突き止めるために前記入力信号を監視し、前記フ
レーム記憶装置メモリ1112から1120を通って循環し、新しい画像を記憶
する制御プロセッサ1110に適用される。
【0140】 前記フレームメモリ1112から1120のそれぞれに画像が記憶されるとき
、前記プロセッサ1110は画像のそれぞれを処理し、どの画像に最も少ない量
の動画のぼやけがあるのかを突き止める。このプロセスは、図13に関して後述
される。前記例示的な実施態様は、5つのフレーム記憶装置メモリ内の画像のそ
れぞれのために引き出された画像ピラミッドなどの一時データを保持するために
使用される5つのローカルメモリ1122、1124、1126、1128,1
130を含む。前記プロセッサ1110が、いったん前記フレーム記憶装置メモ
リ1112から1120に保持されている画像のどれに最も少ない量の動画ぼや
けがあるのかを判断すると、それはマルチプレクサ1132を制御し、出力信号
OUTとしてその画像を提供する。
【0141】 図13は、図11に図示されている回路構成要素の動作を示すフローチャート
図である。さまざまな画像の中のエネルギーを比較できるためには、前記エネル
ギーは前記シーンの同じ部分で評価されることが望ましい。従って、エネルギー
計算の前では、共通座標系に前記画像のすべてを登録し、処理されている画像の
共通領域を決定することが望ましい。
【0142】 このようにして、前記プロセス内の第1ステップであるステップ1310は、
前記フレーム記憶装置1112から1120内の前記画像のすべてを1つの共通
座標系に位置合わせすることである。この例では、前記例示的な回路構成要素が
、フレーム記憶装置メモリ1112、1114、1118、および1120内の
前記画像を前記フレーム記憶装置1116に保持されている前記画像に位置合わ
せしてよい。図9と図10に関して前述されたように、使用された前記位置合わ
せ方式は、フローフィールドに基づいたパラメータ位置合わせまたは画像歪曲で
あってよい。
【0143】 いったん画像が位置合わせされると、ステップ1312は実行され、前記画像
のすべての前記共通部分にラプラシアンピラミッドを生成する。ステップ131
2は、アクティブであるとしてすべての画像に印を付け、可変LVをゼロに設定
する。次に、ステップ1314が、解像度レベルLVでのピラミッドのそれぞれ
に関してエネルギー値を計算する。それから、ステップ1314は、これらのエ
ネルギー値のそれぞれを比較し、前記解像度レベルLVの低いエネルギー値がイ
ナクティブとなる前記ピラミッドを設定する。
【0144】 前記ピラミッド内の低い方のレベルでぼやける画像は、より少ないエネルギー
を含み、その品質は前記ピラミッドの高い方のレベルでも高まらないだろう。こ
の基準はきわめて厳格であり、特にぼやけが前記画像の最高レベルだけで知覚さ
れるときに、雑音を受ける。従って、複数の画像を搬送し、これが他のものより
大幅にぼやけていると考えられるときにはどれか1つを排除することが望ましい
。前記画像選択を支配する前記基準は、任意の1つのレベルで画像上での画像エ
ネルギーの実際の分散に基づいている。それは、以下のとおりに定義できる。
【0145】
【式16】 ここでは、kはピラミッド内のレベルを示し、Vkはレベルkで評価される画
像のセットを示し、Mkはその濃度である。mk,jとσk,jは、画像のエネルギー
の平均と偏差を表し、mk,Maxおよびσk,Maxは、レベルkの最大エネルギーのあ
る画像のパラメータを特定し、pkは正規化係数を表す。この公式から、レベル
kの最大エネルギーのある画像の分布に前記当する平均値を有するそれらの画像
は、次のレベルに搬送されるだろう。
【0146】 正規化係数pは、前記基準の厳しさを決定し、其の値は最低レベルでの前記分
布の前記幅で特徴付けられなければならない。i=1...Mkであるσk,Max
すると、
【0147】
【式17】 である。そこで、搬送された画像のセットは、以下のように定められる。
【0148】
【式18】 この場合、Fk,jは、最低レベルNからレベルkまで計算される画像jの累積
エネルギーを表す。ピラミッド内の次のレベルでの選択された画像のエネルギー
の前記評価は、Vkの濃度および処理されている前記レベルに依存する。Vkの濃
度が1に等しい場合には、選択された画像は、すでに最も少ない量のぼやけのあ
る画像である。前記濃度が1より大きく、前記レベルが最高レベルである場合に
は、最大量のエネルギーをもつ画像が、最小量のぼやけのある画像である。他の
ケースでは、前記評価は、前記に設定された条件下では排除されないそれらの画
像のピラミッドの次のレベルに進まなければならない。
【0149】 図13に戻ると、ステップ1316で、前記プロセスは、1つのアクティブ画
像だけが残るかどうかを判断する。残るのであれば、この画像が出力画像であり
、前記マルチプレクサ1132は、前記1つのアクティブ画像を出力信号OUT
として提供するために、前記プロセッサ1110によって条件が設定される。ス
テップ1316で複数の画像がアクティブである場合には、ステップ1320が
実行される。ステップ1320は、LVが最高解像度ピラミッドレベルのレベル
であるかどうかを判断する。そうである場合には、蓄積エネルギーレベルを有す
る画像を出力するステップ1322が実行される。ステップ1320で、LVが
前記ピラミッドの最高解像度レベルではないと判断されると、可変LVを増分し
、制御を1314に戻すステップ1324が実行される。
【0150】 図13に記述されているプロセスは、前記フレーム記憶装置1112から11
20に記憶されている5つの画像を解析し、これらの画像の内のどれがピラミッ
ドレベルのそれぞれで最も多い詳細を有し、その画像を出力するのかを判断する
。本発明の例示的な実施態様では、前記メモリ1112から1120に記憶され
ている前記フレームは、毎秒30コマとい速度で、あるいはそれより低いコマ速
度で撮影されてよい。代わりに、前記フレーム記憶装置1112から1120に
記憶されている前記画像は、例えば、選択シャッターボタンを押すユーザによっ
て手動で選択されてよく、その場合、前記捕捉された画像の分析および最小動画
ぼやけを含む前記画像の選択が、例えば、ユーザがシャッターボタンを押し、押
し下げておくことによって開始されるだろう。
【0151】 図12は、キービデオフレームを選択するために使用されてよい装置の代替実
施態様である。図12に図示されている前記装置は、それが2つのフレーム記憶
メモリ1112‘と1114’だけを含むという点で、図11に開示されている
前記装置に優る優位点を有する。図12に示されている前記装置は、連続的に画
像を処理し、新しい画像を記憶された画像に比較する。本発明のこの実施態様で
は、新しい画像が、記憶された画像より少ない動画ぼやけを示すときに、前記新
しい画像は前記記憶されている画像を置き換え、それからそれ以降に受け取られ
る画像を比較する。この代替実施態様においては、前記画像捕捉プロセス完了字
に残っている前記画像は、検出された画像のすべての最も少ない動画ぼやけを有
する画像である。図12に示されている前記装置と使用される前記フレーム選択
プロセスは、図14に示されている前記フローチャート図によって示される。
【0152】 このプロセスでの第1ステップであるステップ1410は、基準画像として第
1受信画像を記憶することである。ステップ1412では、阿多r強い画像が受
信され、前記プロセスが、前述されたようにフローフィールドに基づき、パラメ
ータ変換または歪曲を使用して、前記新しい画像を基準画像に位置合わせする。
いったん、画像が位置合わせされると、ステップ1412は、前記共通画像領域
を決定する。ステップ1414は、それから前記基準画像および前記新規に受け
取られた画像のそれぞれの中の前記共通領域のためにラプラシアンピラミッドを
生成する。それからステップ1416は、両方の画像のすべてのピラミッドレベ
ルのエネルギー値を計算し、各ピラミッド内のエネルギーレベルの基準を生成す
る。このエネルギーレベルは、例えば、前記ピラミッドレベルのそれぞれでの前
記エネルギー測定の単純な合計であってよいか、あるいはそれは各レベルでの前
記エネルギーの加重された関数であってよい。
【0153】 ステップ1418では、前記プロセスが、前記シャッターが放されたかどうか
を判断する。解放された場合、前記シャッターが押されたため、処理された任意
の画像の最良の焦点を有する画像として現在の基準画像を出力するステップ14
20が実行される。ステップ1418で、前記シャッターがリリースされなかっ
た場合に、前記新しい画像の前記エネルギーが、前記基準画像の前記エネルギー
より大きいと決定された場合はステップ1422が実行される。ステップ142
4では、前記基準画像を新規画像で置き換え、制御がステップ1412に戻るス
テップ1422が実行される。ステップ1422では、制御は、次に受信される
画像を前記基準画像に比較するために、前記基準画像を変更することなく、ステ
ップ1412に戻る。
【0154】 図14に示されている前記プロセスは、画像のシーケンスから、処理される前
記画像のすべての共通領域内で最も少ない動画ぼやけを示す1つの画像を生成す
る。本発明の代替実施態様では、前記ラプラシアンピラミッドは、前記共通領域
に関係なく画像全体から形成されてよく、前記画像は、どれが最も少ない量の動
画ぼやけを示すのかを判断するために比較されてよい。この代替実施態様では、
前記画像情報は、前記カメラが前記シーンに関して移動されるにつれて変化して
よい。しかしながら、生成される前記出力画像は、前記シャッターが押されてい
た間に捕捉される画像のすべての最小の動画ぼやけを示す前記出力画像だろう。
【0155】 本発明の第4実施態様は、構成要素画像のどれかより大きい明度およびコント
ラストを有する単一画像を生成するために不十分に照らし出されたシーンを撮影
した複数の画像を処理することに関する。CCDアレイなどの標準イメージング
センサは、前記センサの別個の位置にある前記センサアレイに入射する光の統合
に依存する。このようにして、f(x、y、t)によって記述される関数で前記
センサアレイに入射する光を考慮すると、前記センサアレイ内のそれぞれの位置
での前記出力ピクセルは以下の関係により記述でき、
【0156】
【式19】 ここではIは前記センサの統合時間を示す。この説明のために、前記関数Fse nsor (x,y,t)が変数x、y、およびtの離散関数であルが、シーン証明関
数f(x、y、t)が空間変数xとyに関して別個であるが、前記時間関数tに
関しては連続していることが仮定される。これは、センサアレイの簡素化しすぎ
たモデルであるが、この説明にはそれで十分である。
【0157】 光が少ない状態では、統合時間Iを増加し、このようにして前記センサアレイ
内の各ピクセルによってさらに多くの光を蓄積できるようにする。しかしながら
、Iが大きすぎると、ブルーミングおよび飽和が発生するだろう。Iが小さすぎ
ると、前記シーンは過度に暗く見えるだろう。
【0158】 前記センサアレイに入射する前記光量を増加するためにそれ以外の修正を前記
イメージングプロセスに加えることができる。一例として、前記センサのアパー
チャサイズの調整により、前記センサに入射する光の量を増加させ、このように
してf(x、y、t)の規模を大きくする。しかしながら、前記アパーチャを開
くことのできる量を制限する、光学部品の物理的な制限がある。
【0159】 前記センサが映されている前記シーンを基準にして移動するとき、前記統合時
間Iの間に発生する前記動きは、ピクセル値を前記シーンの異なる空間領域で積
分させる。言い換えると、前記シーン関数f(x、y、t)は、前記センサが移
動しているときは、以下のように記述されてよく、
【0160】
【式20】 ここではx(u)およびy(u)は、前記センサおよび前記シーンの前記相対
的な動きの動きのたまえに位置の時間変化する関数を表す。これが、最終的には
、移動カメラからビデオ内で一般的に見られる動画ぼやけを生じさせる。
【0161】 前記センサが移動中で、前記シーンに相対的に少量の光が含まれるとき(つま
り、黄昏時、あるいはシーンコントラストが低い時間では)、ぼやけさせずに前
記シーンの明るい高コントラストの画像を得ることは不可能である。これは、ぼ
やけを引き起こさずに統合時間Iを増加できないためであり、それぞれのピクセ
ル値によって統合される量は、前記統合時間に比例して減少し、このようにして
、前記統合時間が前記カメラの前記動きを補償するために減少するにつれて、前
記シーンを暗くする。
【0162】 ピクセルごとに光を統合するために前記センサに依存するよりむしろ、この統
合ステップを電子処理を通して実行することが可能である。ここでは、前記セン
サが動いている間に、前記シーンの前記動画ぼやけが非常に小さいように、統合
時間Iが選択されると仮定する。前記光レベルが不十分である場合には、結果と
して生じるセンサ画像は、
【0163】
【式21】 所望されるより暗くなるだろう。前記シーンの前記明度およびコントラストを
増幅するために、前記センサからの前記フレームが、以下のような関数を用いて
時間をかけて蓄積できる。
【0164】
【式22】 結果として生じる拡張された画像F’sensor(x,y,t)は、Nという濃度
によって指定された増加冥土を有し、それは現在のフレームの拡張画像結果を蓄
積するために使用される従来のフレームの数を記述する。例えば、Nが10とい
値であることが選択されると、結果として生じるF’sensor(x,y,t)は、
未処理フレームFsensor(x,y,t)の約10倍の明度となるだろう。
【0165】 前記合計された画像が互いに適切に補強するためには、Fsensor(x,y,t
)フレームの時間的な蓄積の前に前記画像を登録することが望ましい。本発明の
例示的な実施態様においては、前記センサは、F’sensor(x,y,t)蓄積の
ために必要とされる統合間隔の間に動いているため、前記ビデオフレームは、前
記間隔t−Nから内のFsensor(x,y,t)に指定される前記フレーム内のピ
クセルがサブピクセル精度に合っているように登録される。サブピクセル精密画
像登録および歪曲を決定するための多くの方法が文献で既知であり、これらの方
法は、例えば、1994年フロリダ、サラソタ(Sarasota,FL)コン
ピュータビジョンの用途に関するワークショップの議事録(Proceedin
gs of the Workshop on Applications o
f Computer Vision)の「リアルタイムシーン安定化およびモ
ザイク構造(Real−time scene stabilization
and mosaic construction)」と題されるM.W.Ha
nsenらの論文に説明されている。
【0166】 図15は、画像の統合時間を、前記画像を動画ぼやけまたはブルーミングにさ
らすことなく拡張するための例示的な方法を示す、フローチャート図である。図
15に示されている前記方法は、図12に示されている処理ハードウェアを使用
して実現されてよい。図15に図示されている前記プロセスの第1ステップであ
るステップ1510は、前記基準画像として受信される第1画像を記憶する。次
に、ステップ1512では、ローカル変数Iが1に設定される。前記変数Iは、
前記マージされた画像を形成するために結合される画像の数を制限するために、
1からNに増分される。次にステップ1514では、新しい画像が得られ、前記
基準画像に位置合わせされる。ステップ1516では、前記位置合わせ画像の前
記共通部分が前記基準画像の中に統合され、新しい基準画面を形成する。ステッ
プ1518では、前記プロセスが、Iが統合されるフレームの最大数Nより大き
いまたは等しいかどうかを判断し、そうである場合には、ステップ1520で統
合された優先画像を出力する。ステップ1518で、IがNより小さいと判断さ
れると、ステップ1522で、Iが増分され、新しい画像を得て前記基準画像に
位置合わせし、前記基準画面に統合するために制御は1514に戻る。
【0167】 本発明の第5実施態様は、前記画像がかなりの熱変動または大気変動を通して
見られるときに発生することがあるような、光経路の混乱の影響を削減するため
にシーンを撮影した複数の画像を使用する信号処理方法に関する。前記に述べら
れたように、この種の歪みはここではシンチレーション歪みと呼ばれる。シンチ
レーション補正は、見られているシーンから、大気外乱などの光学経路の混乱の
ためである歪みを除去することを含む。シンチレーション補正を行わずして、前
記シーンの高解像度の表現を得ることは困難である。
【0168】 前記シンチレーション歪みは、経時的に変化し、
【式23】 で示される局所的な変換運動フィールドで近似することができ、ここではxとy
はビデオフレームF(t)のフローベクタの位置を示し、tは前記フレーム取得
の時間瞬時を示す。
【0169】 通常光学フロー計算に適用可能である任意の方法を含む多くのさまざまな方法
を使用して、前記変位フィールド
【式24】 を概算することが可能である。この変位フローを計算するための1つの方法は、
最小自乗法という意味で変位フィールドのために解決することであり、そこでは
前記目的関数は、以下によって指定される誤差量E(t)を最小限に抑える前記
変位フィールド
【式25】 を検索中と定められる。
【0170】
【式26】 この等式の中では、値
【式27】 は、前記変位フィールドの前記水平成分を示し、
【式28】 は前記変位フィールドの前記垂直成分を示し、Wは前記画像位置(x、y)に局
所的である統合ウィンドウ領域を示す。
【0171】 この等式の解は、適切な線形近似を考えると、以下であると示すことができ、
【0172】
【式29】 ここでは、Fx(x,y,t)は、前記フレームF(t)の前記水平部分導関
数として定められ、Fy(x,y,t)は前記フレームF(t)の前記垂直部分
導関数であり、Ft(x,y,t)は、前記関係で近似できる、時間に関して前
記フレームシーケンスの部分導関数である。
【0173】
【式30】 このフローフィールドの前記概算は、階層方法を使用してこの解を反復するこ
とにより、必要に応じて改良することができる。
【0174】 これらの変位フィールドは、2つのビデオフレーム間で発生する歪みを記述す
る。従って、F(t)およびF(t−1)を考慮すると、前記変位フィールド
【式31】 は、2つのビデオフレーム間の歪みを記述する。このようにして、前記歪みフィ
ールドを経時的に計算することにより、およびこれらの変位フィールドをカスケ
ードすることにより、歪みを除去し、シンチレーション歪みが削減された安定し
たビューを生成することができる。
【0175】 この方法は歪みを実際に除去するが、それは任意のビデオフレームと歪みがな
い前記シーンの真のビューに間の歪みを記述していない。歪みのないシーンコン
テンツを決定するには、歪みを含まない基準フレームFrefが概算され、この基
準フレームと現在のフレームの間の前記歪みフィールドが計算されてから、前記
現在のフレームが、前記現在のフレームの中のシンチレーション歪みを効果的に
除去するために前記逆歪みフィールドで歪曲される。
【0176】 図16は、前記画像からシンチレーション歪みを除去するための画像のシーケ
ンスの処理を示すフローチャート図である。前記プロセスの第1ステップである
ステップ1610は、前記基準フレームFrefとして第1画像を記憶し、前記変
位フィールドをゼロにし、増分変数Iを1に設定する。ステップ1612は、新
しい画像を捕捉し、前記基準画像に関して、前記新しい画像の前記変位フィール
【式32】 を計算する。ステップ1614では、ステップ1612で計算された前記変位フ
ィールドが結合された変位フィールドDF(つまり
【式33】 に追加される。ステップ1616では、前記プロセスは、前記増分変数Iが処理
される画像の最大数Nより大きいまたは等しいかどうかを判断する。そうである
場合、ステップ1620はNで前記結合変位フィールドDFを除算する(つまり
【式34】 を計算する)。それからステップ1622が、変位フィールドDF(つまり
【式35】 )を使用して前記基準画像を反らせる。ステップ1624では、歪曲した基準画
像が前記出力画像として提供される。
【0177】 しかしながら、ステップ1616で、増分変数がN未満であった場合、ステッ
プ1618でIが増分され、制御はステップ1612に戻され、前記シーケンス
の次の画像を入手、処理する。
【0178】 図16に示されている前記プロセスは、3つの変位フィールドを平均するため
にN個の画像を入手、処理し、このようにして、画像のシーケンス内の平均値の
回りで変化する任意の画像の動きを除去する。
【0179】 前記プロセスは、原因となるプロセスの中に再投入することができ、それは経
時的に連続して概算できる。これは、諸ル愛にフレームを合計し、前記計算墨の
フローフィールドをカスケードするよりむしろ、指定された基準に関して過去の
ビデオフレームを合計するために、前記合計項で単に変数を再定義するだけで実
現できる。同様に、前記フローフィールドの前記線形平均化は、無限インパルス
応答(IIR)フィルタまたはさらに高度な概算プロセスなどの別の概算プロセ
スで置換することができる。
【0180】 図17は、前記平均変位フィールド
【式36】 を計算するために、無限インパルス応答(IIR)型のフィルタを利用する代替
シンチレーション歪み除去装置のフローチャート図である。図17に示されてい
る前記プロセス内の第1ステップであるステップ1710は、第1画像を前記基
準画像として記憶し、前記平均変位フィールドDFをゼロにし、増分変数Iを1
に設定する。ステップ1712では、新しい画像が得られ、前記新しい画像の前
記基準画像に関する変位フィールドが計算される。ステップ1714では、ステ
ップ1712で生成される前記計算された変位フィールドが、前記基準変位フィ
ールドDFに追加される。ステップ1716では、前記プロセスは、前記増分変
数Iが2より大きいまたは等しいかどうかを判断する。そうである場合には、ス
テップ1718が前記基準変位フィールド内の各アイテムを2で除算する。ステ
ップ1716でIが2より大きいまたは等しい場合、あるいはステップ1718
後に、前記変数Iを増分するステップ1720が実行される。ステップ1722
では、前記プロセスが、前記増分変数Iが最大フレームカウントNより大きいか
どうかを判断する。そうである場合、前記変位フィールドDFを使用して、前記
基準画像を歪曲するステップ1724が実行される。ステップ1726では、前
記歪曲された基準画像が、前記出力画像として提供され、前記画像シーケンス内
の次の画像を入手、処理するために、制御はステップ1710に戻る。しかしな
がら、ステップ1722では、前記増分変数Iがフレームの最大数より大きくな
かったまたは等しくなかった場合、次の画像を得るために制御がステップ171
2に戻る。図17に示されている前記プロセスは、前記シーケンス内の前記個々
の画像がシンチレーション歪みのために補償される標準速度ビデオ信号を生成す
るために、例えば、高いフレーム速度(例えば、毎秒300フレーム)を有する
ビデオカメラとともに使用されてよい。
【0181】 このプロセスの前記性能は、瞬時の歪みフィールド
【式37】 がゼロ平均プロセスであるという所見に依存する。すなわち、
【式38】 。実際のデータを用いた実験は、大気の外乱により引き起こされるシンチレーシ
ョン歪みは、実際には、ゼロ平均分散により近似できることを示す。
【0182】 この方法の特徴は、前記シーン内の移動するオブジェクトからの運動の除去で
ある。前記に概略されたプロセスは、前記シーンの中のすべての運動が、シンチ
レーション歪みを生じさせる無作為運動であると仮定している。映されている前
記シーン内の動きに対処するには、
【式39】 および
【式40】 の最大変位規模が決定できる。前記画像の一部の中の前記歪みが最大規模より大
きいことが判明すると、前記画像の前記部分が、動きにより特徴付けられ、その
領域には歪み補正が実行されないことが仮定できる。
【0183】 本発明の第6実施態様は、前記シーケンス内の前記画像のさまざまな部分が歪
みまたは雑音を示すビデオシーケンス内の画像の質を高めるための方法に関する
。従来、前記画像の部分の焦点がボケると、前記シーケンスは、例えばアパーチ
ャフィルタを通して前記フレームを処理することによって、個々の画像フレーム
を鮮明にするために処理されてきた。しかしながら、これらのステップによって
達成される写真の質の向上は、通常限られている。本発明のこの実施態様は、変
化するレベルのゆがみを示す画像のシーケンスに関して画像品質で劇的な改善を
可能にするようにこの問題に対処する。
【0184】 一般的な用語では、前記アプローチとは、1)隣接フレーム内で対応する特徴
を追跡調査し、2)表示のために最良である隣接フレームから特定の特徴(また
は特徴の組み合わせ)を選択し、3)前記シーケンスの前記現在の画像の座標フ
レームの中に歪曲またはシフトされる前記特徴を表示することによって画像フレ
ームを拡張することである。
【0185】 画像内の雑音は、不十分な画質の最も重要な理由の1つである。雑音は複数の
方法で特徴付けることができる。例は、強度をベースにした雑音、および空間雑
音を含む。強度をベースにした雑音が発生すると、前記観察された画像は、加算
および/または乗算分散雑音信号により破壊される強度を有する原初の画像とし
てモデル化することができる。この雑音はかなり均一に画像上で分散されるケー
スもあれば、画像内の隔離された場所で雑音が発生するケースもある。空間雑音
が発生すると、画像内の特徴の部分はシフトされるか、あるいは歪められてよい
。この第2の種類の雑音の例が、画像内の線の前記垂直成分が水平に位置をずら
され、線を経時的に細かく上下に振動させる線切れである。
【0186】 ビデオシーケンス内のこの種の雑音は、単一画像フレームを生成するための前
述された技法を使用して、大幅に減衰されてよい。後述される本発明の実施態様
においては、シーケンス内の選択された画像を取り囲む画像は、前記選択された
画像を拡張するために使用され、前記シーケンス内の次の画像が選択され、前記
プロセスは、前記新規に選択された画像に繰り返される。
【0187】 画像シーケンスの前記フレームから雑音を除去する上での第1ステップとは、
前記画像を前記選択されたフレームに位置合わせすることである。フレーム位置
合わせは、前述された方法のどれかを使用して、あるいはそれ以外の方法によっ
て達成されてよい。いったん前記フレームが位置合わせされると、雑音は、前記
雑音の規模を縮小するために前記雑音の時間的な特徴の知識を使用することによ
って、各フレームから局所的な情報を結合または選択し、拡張フレームを生成す
ることによって、あるいは位置合わせ測定規準の局所的な品質に応じて、あるい
は前記画像の局所的な空間、時間、または時空的な構造に応じて、局所的な領域
内で実行される処理の修正によって削減されてよい。
【0188】 ゼロ平均強度に基づく雑音を有する雑音を除去するための例示的な方法とは、
前記位置合わせしたフレームを単に平均することである。典型的には、9個のフ
レームのウィンドウが、雑音を大幅に縮小するのに十分な時間的なサポートを提
供するが、それより少ないまたは多いフレームが使用されてよい。この方法は、
線切れなどの空間雑音を除去するためにさらに改良されてよい。このケースでは
、画像が経時的に位置合わせされた後に、ある特徴の一部が雑音によってシフト
または歪められたそれらの瞬間を検出するために、非線形ステップが実行される
。非線形ステップの例は、他の強度と一貫性のない強度の識別および拒絶が後に
続くピクセル位置での強度の並べ替えである。特定の例は、11の強度の位置合
わせセットの中からの2つの最も明るい強度値および最も暗い強度値の拒絶を含
む。それから、前記残りの強度は平均されるか、あるいは前記ターゲットロケー
ションでの前記ピクセルの最終値を生成するために中間フィルタ動作にさらされ
る。
【0189】 これらの方法は、強度自体でよりむしろ、前記画像から回復される特徴(例え
ば、前記画像の中の平坦な領域)だけで選択的に実行されてよい。例えば、特徴
は、指向フィルタを使用して回復されてよく、雑音は前述された方法を使用して
、濾波された結果に関して別個に除去されてよい。それから、前記結果は、単一
拡張画像を生成するために結合されてよい。
【0190】 前記個々の画像は、何らかの補正が実行される前に、動画位置合わせの有効性
を判断するために、例えば、局所相関などの突合せ測定規準の品質などを使用し
て濾波されてよい。突合せ測定規準の質が、不十分な位置合わせが実行された旨
を示す場合には、誤差に対応する前記1つのフレームまたは複数のフレームが、
機能拡張処理から除去できる。最終的には、フレームのバッチ内の領域に連続位
置合わせがない場合には、前記元の画像は手を触れられないまま残されてよい。
【0191】 上述の前記方法は移動窓あるいはバッチフレームに使用される共通のコーディ
ネートシステムに関係する画像の向上を果たす。しかしながら、前記画像を共通
座標系に位置合わせするにはそれ以外の方法が使用されてよい。例は、座標系を
動かすことを含み、それによって過去のフレームの座標フレーム内に表されてい
る中間処理結果を含むデータセットが、分析の現在のフレームの座標系内にある
ようにシフトされる。この方法は、過去の動画分析結果の効果が記憶され、現在
のフレームの処理で使用されるため、さらに計算的に効率的であるという利点を
有している。この方法は、図20に関して後述される。
【0192】 位置合わせの後、画像内には、例えば、それにより特徴が前記処理済みの画像
の中でひらめくように見える、揺らめきなど空間的な人工遺物がある場合がある
。この人工遺物は、局所的には小さいが、大きな領域で見られると、顕著な揺ら
めきを生じさせる位置合わせのわずかな誤差によって引き起こされてよい。この
人工遺物は、複数の方法によって除去できる。第1の方法は空間的な制約を課す
ことであり、第2の方法は時間的な制約を課すことである。空間的な制約の一例
とは、オブジェクトが前記画像内の領域で、区分的に固定されていると仮定する
ことである。前記領域はサイズが固定されるか、サイズおよび形状が適応型であ
る場合がある。前記フローフィールドは、前記領域内で円滑化できるか、あるい
はローカルパラメータモデルが前記領域に適合できる。位置合わせ不良は、領域
全体で分散するため、この動作は前記画像内の揺らめきを大幅に削減する。
【0193】 時間的な制約の例は、時間的なモデルを前記フローフィールドに適合すること
である。例えば、単純なモデルが加速、速度、および変位の用語だけを含む。前
記モデルは、おそらく規模で制限されているこれらのパラメータだけを有するフ
ローフィールドへの時空的な体積に局所的に適合される。各フレームでの結果と
して生じるフローフィールドは、前記パラメータモデルに従い、このようにして
揺らめきは削減される。しかしながら、すべてのフレームで計算された位置合わ
せ測定規準の質が不十分な位置合わせを示す場合には、前記パラメータモデルは
より少ないフレームで計算でき、より少ないパラメータのあるモデルを生じさせ
る。制限の中では、局所フレーム内の並進フローだけが計算されてよい。
【0194】 前述されたような空間雑音の例は、輝度データとの色データの不一致である。
例えば、特徴は鮮明な強度境界であるが、不適切に画定された色境界を有してよ
い。これらの色境界を鮮明にする方法とは、色の流出を削減するために、前記境
界内の領域のロケーションだけではなく、前記強度境界のロケーションも使用す
ることである。これは、複数の方法を使用して実行できる。第1に、前記色デー
タは、前記強度画像の処理の結果に応じて、適応して処理または濾波することが
できる。特定の例は、前記強度画像でエッジ検出を実行し、それらの領域内で前
記色信号の前記利得を増加することである。追加の例は、信号間のより優れた位
置合わせを達成するために、前記強度子音号に関して前記色信号をシフトするこ
とにすぎない。これにより、前記2つの信号間の空間的な偏りが削減される。前
記位置合わせは、例えば、1992年、センサ融合に関する国家シンポジウム(
National Symposium on Sensor Fusion)
、「ピラミッド変換を使用するIR画像および可視画像のパターン選択的融合(
Pattern Selective Fusion of IR and V
isible Images Using Pyramid Transfor
ms)と題されるP.J.Burtによる論文中に開示されるようなさまざまな
センサからの画像を位置合わせするために開発された位置合わせ技法を使用して
実行できる。処理の追加例は、強度領域の境界でではないが、強度領域の境界内
で制約を課すことである。例えば、コンパクトな領域が、前記強度空間内で検出
でき、前記コンパクトな領域を表す色情報がサンプリングできる。それから、前
記色情報は前記コンパクト領域だけに追加される。コンパクトな領域は、分割と
マージアルゴリズムなどの空間分析、あるいは形態学上の分析を使用して検出で
きる。
【0195】 前述された前記技法は、画像のシーケンスの前記知覚された質を高めるその他
の画像処理タスクのために適用されてもよい。例えば、画像シーケンスの総合的
な焦点、被写界深度、およびコントラストは、図9から図17に関して前述され
たように前記シーケンス内で各画像を処理することによって拡張されてよい。画
像安定化は、制限されたフレーム間変位フィールドによって定義される移動する
座標系を使用して画像の前記シーケンスを歪曲し、平均することによって達成さ
れてよい。この変位フィールドは、例えば、前記シーケンスの中の前記フレーム
のための前記個別フレーム間変位フィールドの時間的な平均として計算されてよ
い。
【0196】 これらの技法は、ビデオ画像を組み合わせないために適用されてもよい。ビデ
オをある媒体から別の媒体へ変換することにまつわる問題とは、前記表示速度お
よびフォーマットが異なる可能性があるという点である。例えば、VHSビデオ
からDVDへの変換においては、前記入力は、コンピュータ画面で表示される場
合には前記出力が漸次的に走査されてよい間にインタレース化される。漸次的に
走査されるモニタでの前記インタレース化されたフレームの前記提示は、同時に
、提示されるビデオのフレームを構成するフィールド以来非常に急激に変化した
ように見える画像を生じさせる。この問題を解くには複数のアプローチがある。
第1は、フレームが作成されるように、フィールドを垂直に単にアップサンプル
(up−sample)するだけである。しかしながら、この結果、前記元のイ
ンタレース化されたシーケンスより低い明白な垂直解像度を有する変換済みの画
像シーケンスが生じる。第2の方法とは、例えば、前述された位置合わせ法を使
用して位置合わせを実行することによりフィールド間の運動を削除することであ
る。この技法は、前記カメラが静的であっても拡張された画像解像度を提供する
ことができる。このケースでは、連続フィールドが前記フレームの前記座標系の
1ピクセル、または前記フィールドの前記座標系の2分の1ピクセル、垂直にシ
フトされる情報を含む。従って、位置合わせ後、垂直運動の2分の1ピクセルが
前記フローフィールドに追加されてから、前記フィールドがシフトまたは歪曲さ
れる。そこで、完全フレームは、1つの元のフィールドおよびそらされたフィー
ルドをインタリーブすることによって作成される。
【0197】 フレーム18は、標準ビデオ速度で発生するフレームのシーケンスを改善する
ためのプロセスを示すフローチャート図である。ステップ1810では、N個の
入力フレームがメモリに記憶される。ステップ1812では、前記記憶されたフ
レームの前記中心フレームが基準フレームとして選択される。ステップ1814
では、前記プロセスが前記基準フレームと前記記憶されたフレームの互いのフレ
ームの間の前記変位フィールドを計算する。また、ステップ1814では、各記
憶されたフレームが、それぞれの変位フィールドを使用して前記基準フレームに
歪曲される。前記歪曲されたフレームは、後に処理するために前記記憶された入
力フレームを保存するために、前記記憶された入力フレームとは別個に1つまた
は複数のメモリの中に記憶される。ステップ1816では、他のフレームそれぞ
れからの特徴が、前記基準フレームに対するその相対特徴に基づいて前記基準フ
レームに融合される。例示的な融合プロセスは、図9と図10に関して前述され
ている。ステップ1818では、前記プロセスが融合したフレームを出力する。
次に、ステップ1820で、前記プロセスが前記記憶されたフレームを1フレー
ム、シフトし、新しいフレームをオープンフレームメモリの中に記憶する。ステ
ップ1820の後、前記新しいシフトされたフレームの前記中心フレームを次の
基準フレームとして処理するために、制御はステップ1812に戻る。図18に
示されている方法を使用して、前記画像シーケンス内の前記画像だけが処理され
、各画像は専用の座標系で処理される。これが運動を保存し、拡張されたビデオ
シーケンスを生成するために前記画像のそれぞれの中で詳細を拡張する。
【0198】 図19は、図18に示されている前記プロセスの代替実施態様を示すフローチ
ャート図である。前記ステップ1910、1912、1914および1920は
、ステップ1810、1812,1814および1820と同一である。ステッ
プ1916では、図19に示されている前記プロセスは、前記出力画像内で前記
ピクセルの値を選ぶために、前記記憶された歪曲されたフレームのすべての間で
、ピクセル位置を横切って中間フィルタを適用する。ステップ1918では、前
記プロセスが出力画像として前記中間フレームを出力する。ステップ1918は
、選択および結合のその他の実施態様も備えることがある。代替実施態様は、前
記ピクセル強度の並べ替え、最大または最小の強度の1つまたは複数の拒絶、残
っている強度の平均化、および前記プロセスの出力として前記結果を提供するこ
とを含む。代替実施態様は、強度に対してよりむしろ事前に濾波された画像に対
し同じプロセスを実行する。事前に濾波された画像の例は、指向(orient
ed)帯域濾波された画像である。指向(oriented)帯域濾波された画
像を生成するための例示的な方法は、ニュージャージー州、イーグルウッドクリ
フ(Eaglewood Cliffs、NJ)のプレンティスホール(Pre
ntice−Hall))によって出版された、1990年、二次元信号および
画像処理(Two−Dimensional Signal and Imag
e Processing)と題されるJae Limによるテキストに説明さ
れる。
【0199】 図18と図19に示されている本発明の実施態様は、単一出力フレームを生成
するために、N個のビデオフレームを記憶し、処理した。図20は、2つの画像
フレームだけが記憶されている代替プロセスを示すフローチャート図である。こ
のプロセスでの第1ステップであるステップ2010は、前記基準が追うとして
第1の受信された画像を記憶する。ステップ2012では、新しい画像が受信さ
れ、前記記憶された基準画像は、前記新しい画像の前記座標系に対し歪曲される
。ステップ2014では、前記新しい画像は、前記2つの画像内の領域の相対的
な特徴に基づいて歪曲された基準画像に融合される。ステップ2016では、前
記融合された画像が、前記シーケンスの中の次の画像として出力され、前記シー
ケンス内の次の画像を受信するために、制御はステップ2012に戻る。図20
のフローチャートによって示されている前記プロセスは、無限インパルス応答フ
ィルタとして動作し、画像の中の雑音を削減するため、あるいは焦点の瞬時の推
移または照明の変化により引き起こされる前記画像の色の瞬時の脱飽和を補償す
るために使用されてよい。図18、図19、および図20に関して説明された実
施態様のどれかにおいて、前記特徴関数は前記画像の線明度に関係付けられてよ
く、増大する統合が雑音を除去し、前記画像の焦点が外れた部分を排除する。し
かしながら、前記特徴関数は、飽和と脱飽和の中間点近くの飽和を有するさらに
多くの特徴画像部分のある前記画像の中の色の飽和であってもよい。この最後の
特徴関数が使用されると、前記プロセスは前記画像シーケンスの中のブルーミン
グを削減するために使用されてよい。
【0200】 図21は、クロミナンス画像成分が輝度成分に空間的に位置合わせされてよい
プロセスを示すフローチャート図である。図21に示されている方法は、個々の
画像の前記輝度成分およびクロミナンス成分の間の対応を改善するために、VH
Sまたは8mmビデオテープから再生されるもののように、画像を処理するため
に使用されてよい。加えて、標準精細度テレビ画像の前記色差異成分(例えば、
UとV)のための信号帯域幅は、前記輝度成分(Y)の帯域幅よりはるかに少な
い。これが、前記輝度境界を横切る色の浸出を生じさせる。この歪みは、白また
は黒の背景に対して色つきのオブジェクトを含むシーンで特に顕著である。図2
1に示されている前記プロセスは、前記クロミナンス画像を前記輝度画像に歪曲
することにより、この問題に対処する。
【0201】 ステップ2110では、前記プロセスが前記輝度および前記UとV色差異画像
に関して別個のエッジマップを計算する。前記に述べられたように、前記クロミ
ナンス成分は、色と飽和を表し、どちらも前記輝度画像の画像詳細によく対応し
ない。前記色浸出歪みが、色つきのオブジェクトが白の背景または黒の背景で表
示される画像の領域で最も顕著であるため、前記信号の相対帯域幅のために適切
に定義されるエッジスレッショルドを使用して前記クロミナンス画像と前記輝度
画像の両方での従来のエッジ検出が、エッジマップの許容セットを生成する。代
わりに、単一エッジマップは、例えば色に基づいて前記U色差異画像とV色差異
画像の組み合わせから引き出されてよい。多くの画像では、オブジェクトは、前
記オブジェクトの照明での飽和で変化する一様な色を有する。前記クロミナンス
エッジマップが色に基づいていた場合、少なくともこれらのオブジェクトに対し
ては、前記クロミナンスエッジマップが、前記輝度エッジマップに一致しなけれ
ばならない。
【0202】 図21に戻ると、ステップ2112では、前記プロセスは、前記Uエッジマッ
プおよびVエッジマップから前記輝度エッジマップへの変位フィールドを計算す
る。ステップ2114では、前記U画像およびV画像は、前記エッジマップから
の計算された変位フィールドに基づき、前記輝度画像に歪曲される。前記クロミ
ナンス画像が、前記輝度画像と少なくとも大まかに位置合わせされると仮定され
てよいため、このプロセスは、それが、変位フィールド内の任意の変位の規模を
制限することにより不当な歪みを導入しないように修正されてよい。このスレッ
ショルド規模より大きい変位値が計算されると、それはゼロに設定されるまたは
最大値で制限されるかのどちらかでよい。
【0203】 この開示は、電子画像機能拡張を実行するための多数の方法を説明する。これ
らの方法は、前記センサのダイナミックレンジ、被写界深度、および統合時間を
拡張することによって、すべて、任意のセンサの性能を拡張することができる。
加えて、2つのそれ以外の方法が説明された。第1の方法は、デジタルスティル
カメラが、移動しているセンサのために、取得された画像の質を最大限にするた
めに日和見主義的にビデオフレームを自動的に選択できるようにするが、第2の
方法は、歪み影響の補正を可能にした。
【0204】 本発明は例示的な実施態様という点で説明されてきたが、それが添付クレーム
の範囲内で前述されたように実践されてよいことが熟慮される。
【図面の簡単な説明】
【図1】 (従来の技術)は、従来のデジタルスティルカメラのブロック図である。
【図2】 本発明に従ったデジタルスティルカメラのブロック図である。
【図3】 図2に図示されている画像プロセッサとして使用するのに適した例示的な回路
構成要素のブロック図である。
【図4】 図3に示されているマザーボードを処理する前記ビデオの1つとして使用する
のに適した例示的な回路のブロック図である。
【図5】 図2に示されている前記画像プロセッサの中で使用するのに適したデジタイザ
ビデオ処理ドーターボードのブロック図である。
【図6】 図2に示されている画像プロセッサで使用するのに適した相関器ビデオ処理ド
ーターボードのブロック図である。
【図7】 図2に示されている画像プロセッサで使用するのに適したワーパーのブロック
図である。
【図8】 図2に示されている画像プロセッサを使用して実現されてよいプロセスのセッ
トのフロー図である。
【図9】 本発明の第1実施態様を記述するために有効であるフローチャート図である。
【図10】 本発明の第2実施態様を記述するために有効であるフローチャート図である。
【図11】 本発明の第3実施態様を記述するために有効である機能ブロック図である。
【図12】 本発明の第3実施態様を記述するために有効である機能ブロック図である。
【図13】 本発明の第3実施態様を記述するために有効であるフローチャート図である。
【図14】 本発明の第3実施態様の代替インプリメンテーションを記述するために有効で
あるフローチャート図である。
【図15】 本発明の第4実施態様を記述するために有効であるフローチャート図である。
【図16】 本発明の第5実施態様を記述するために有効であるフローチャート図である。
【図17】 本発明の第5実施態様の代替インプリメンテーションを記述するために有効で
あるフローチャート図である。
【図18】 本発明の第6実施態様を記述するために有効であるフローチャート図である。
【図19】 本発明の第6実施態様の第1代替インプリメンテーションを記述するために有
効であるフローチャート図である。
【図20】 本発明の第6実施態様の第2代替インプリメンテーションを記述するために有
効であるフローチャート図である。
【図21】 本発明の第7実施態様を記述するために有効であるフローチャート図である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // H04N 101:00 H04N 1/46 Z (72)発明者 バート, ピーター アメリカ合衆国, ニュー ジャージー 州, プリンストン, ウィート シーフ レーン 80 (72)発明者 ハンナ, キース, ジェイムズ アメリカ合衆国, ニュー ジャージー 州, プリンストン, ジョン ストリー ト 202 Fターム(参考) 5B057 AA01 BA11 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE02 CE03 CE08 CE11 CH01 CH11 5C022 AA13 AB68 AC42 AC51 AC69 5C065 AA01 AA03 BB48 CC01 CC09 GG22 GG30 GG31 GG32 5C076 AA11 AA27 BA03 CA10 5C079 HB01 LA12 LB02 MA01 MA11 NA05

Claims (22)

    【特許請求の範囲】
  1. 【請求項1】 あるシーンの複数のカラー画像を処理し、前記シーンの拡張
    カラー画像を提供するための方法であって、 複数のカラー画像を別個の輝度画像データおよびクロミナンス画像データとし
    て受信するステップと、 それぞれの複数の輝度ピラミッドを生成するために複数の画像を表す前記輝度
    画像データを濾波し、各輝度ピラミッドが低解像度レベル、および複数の高い方
    の解像度レベルを有するステップと、 それぞれの複数のクロミナンスピラミッドを生成するために、複数の画像を表
    す前記クロミナンス画像データを濾波し、各クロミナンスピラミッドが低解像レ
    ベルおよび複数の高い方の解像度レベルを有するステップと、 複数の輝度ピラミッドおよび複数のクロミナンスピラミッドの少なくとも1つ
    から特徴(salience)マスク化ピラミッドを生成するステップと、 単一の融合された輝度部分ピラミッドおよび単一の融合されたクロミナンス部
    分ピラミッドを生成するために前記特徴ピラミッドの対応するレベルに応えて、
    最低解像度レベルを除き、すべてのレベルで複数の輝度ピラミッドおよび複数の
    クロミナンスピラミッドを処理するステップと、 1つの融合された輝度低解像度レベルを生成するために、複数の輝度ピラミッ
    ドの低解像度レベルを処理するステップと、 1つの融合されたクロミナンス低解像度レベルを生成するために、複数のクロ
    ミナンスピラミッドの低解像度レベルを処理するステップと、 融合された輝度ピラミッドを形成するために前記融合された輝度低解像度レベ
    ルを前記融合された輝度部分ピラミッドを結合し、融合されたクロミナンスピラ
    ミッドを形成するために前記融合されたクロミナンス低解像度レベルを前記クロ
    ミナンス部分ピラミッドに結合するステップと、 それぞれの融合された輝度ピラミッドおよびクロミナンスピラミッドから拡張
    された輝度画像およびクロミナンス画像を再構築し、シーンの前記拡張画像を形
    成するために、拡張された輝度画像とクロミナンス画像を結合するステップとを
    含む方法。
  2. 【請求項2】 前記拡張されたカラー画像が、複数のカラー画像のどれかを
    基準にして被写界深度を高め、 各ラプラシアンピラミッドが、ガウス濾波された低解像度レベルおよび複数の
    ラプラシアン濾波済みの高い方の解像度レベルを有するそれぞれの複数のラプラ
    シアンピラミッドを生成し、前記複数の画像を表す前記輝度データを濾波するス
    テップと、 各ガウスピラミッドが、ガウス濾波済みの低解像度レベルおよび複数のガウス
    濾波された高い方の解像度レベルを有するそれぞれの複数のガウスピラミッドを
    生成し、前記複数の画像を表す前記クロミナンス画像データを濾波するステップ
    と、 前記特徴マスク化ピラミッドを生成するために最大規模関数に従って、前記複
    数の輝度ラプラシアンピラミッドを濾波するステップを含む前記特徴ピラミッド
    を生成するステップと、 融合輝度低解像度レベルを形成するために、前記低解像度レベルのそれぞれの
    値に最大規模関数を適用することを含む前記輝度ピラミッドの前記低解像度レベ
    ルを処理するステップと、 前記融合クロミナンス低解像度レベルを形成するために、低解像度レベルのそ
    れぞれの値を平均すること含む前記クロミナンスピラミッドの前記低解像度レベ
    ルを処理するステップである請求項1に記載の方法。
  3. 【請求項3】 前記拡張カラー画像が、前記複数のカラー画像のどれかを基
    準にして拡張されたダイナミックレンジを有し、 各ラプラシアンピラミッドがガウス濾波済み低解像度レベルおよび複数のラプ
    ラシアン濾波済みの高い方の解像度レベルを有するそれぞれの複数のラプラシア
    ンピラミッドを生成し、前記複数の画像を表す前記輝度データを濾波するステッ
    プと、 各ガウスピラミッドが、ガウス濾波済み低解像度レベルおよび複数のガウス濾
    波済みの高い方の解像度レベルを有するそれぞれ複数のガウスピラミッドを生成
    し、前記複数の画像を表す前記クロミナンス画像データを濾波するステップと、 前記特徴ピラミッドを生成するステップが、前記特徴マスク化ピラミッドを生
    成するために、最大規模関数に従って、複数の輝度ラプラシアンピラミッドを濾
    波するステップを含み、 前記クロミナンスピラミッドの前記低解像度レベルを処理するステップが、 前記クロミナンス低解像度レベル内のそれぞれの複数のロケーションに一致す
    る複数のロケーションを有する中間マスクを生成し、前記中間マスクの各ロケー
    ションが、前記複数のクロミナンス低解像度レベルの1つでのそれぞれの値に対
    応し、その値が前記ロケーションでの前記クロミナンス低解像度レベルですべて
    のそれぞれの値の中間であるステップと、 前記中間マスクに対応して前記複数のクロミナンス低解像度レベルを融合する
    ステップとを含み、 前記輝度ピラミッドの前記低解像度レベルを処理するステップが、前記中間マ
    スクに応じて前記複数の輝度低解像度レベルを融合するステップを含む請求項1
    に記載の方法。
  4. 【請求項4】 あるシーンの画像をあるカメラを用いて得るための、前記カ
    メラと前記シーンの間にかなりの運動がある場合の方法であって、 前記シーンの基準画像を表す第1画像データフレームを捕捉し、記憶するステ
    ップと、 前記シーンの現在の画像を提供するために第2画像データフレームを捕捉する
    ステップと、 前記基準画像の、および前記現在の画像の動画のぼやけのそれぞれの測定値を
    計算するステップと、 前記基準画像および前記現在の画像の動画ぼやけの前記測定値を比較し、前記
    現在の画像の動画のぼやけの前記測定値が、前記基準画像の動画のぼやけの前記
    測定値未満である場合、および未満である場合にのみ、前記基準画像を前記現在
    の画像で置換するステップと、 前記シーンの前記画像として前記基準画像を提供するステップとを含む方法。
  5. 【請求項5】 第2画像データフレームを捕捉するステップが、さらに、複
    数の画像データフレームを捕捉するステップを含み、 前記基準画像および前記現在の画像の動画のぼやけのそれぞれの測定値を計算
    するステップが、 前記複数の画像データフレー−ムのそれぞれにそれぞれのピラミッドを生成し
    、各ピラミッドが低解像度レベルおよび複数の高い方の解像度レベルを有するス
    テップと、 各ピラミッドの前記低解像度レベルのためにそれぞれのエネルギーレベルを計
    算するステップと、 前記ピラミッドの前記それぞれの低解像度レベルの計算されたエネルギーレベ
    ルに追加処理のために複数のピラミッドを選択するステップと、 各選択されたピラミッドの前記高い方の解像度レベルのそれぞれ1つに、それ
    ぞれエネルギーレベルを計算するステップと、 前記高い方の解像度レベルのそれぞれ1つの前記計算済みエネルギーレベルに
    応えて複数のピラミッドをさらに選択するステップとを含み、 動画のぼやけの前記測定値を比較するステップが、前記出力画像として、前記
    1つ高い方の解像度レベルの前記エネルギーレベルが、それぞれのそれ以外の追
    加で選択された複数のピラミッドの1つ高い方の解像度レベルのエネルギーレベ
    ルのどれかに劣らないほどである、前記追加の選択された複数のピラミッドの1
    つに従って前記画像フレームを選択するステップを含む請求項4に記載の、シー
    ンの画像を得るための方法。
  6. 【請求項6】 シンチレーション歪みが減少したシーンの画像を得るための
    方法であって、 前記シーンの第1画像として第1画像データフレームを捕捉し、記憶するステ
    ップと、 前記シーンの第2画像として第2画像データフレームを捕捉するステップと、 第1画像データフレームと第2画像データフレーム間の第1変位フィールドを
    計算するステップと、 第1画像データフレームを、前記シーンの第3画像として捕捉するステップと
    、 第1画像データフレームと第3画像データフレームの間の第2変位フィールド
    を計算するステップと、 平均変位フィールドを得るために、第1変位フィールドと第2変位フィールド
    を平均するステップと、 シンチレーション歪みが減少した前記シーンの前記画像を生成するために、前
    記平均された変位フィールド分、第1画像データフレームを歪曲するステップと
    を含む方法。
  7. 【請求項7】 シンチレーション歪みが減少したシーンの画像を得るための
    方法であって、 それぞれが、前記シーンのそれぞれの画像を表す、複数の画像データフレーム
    を捕捉、記憶するステップと、 前記記憶済みの複数野画像データフレームの内の1つを、基準画像データフレ
    ームとして選択するステップと、 前記基準画像データフレームとそれ以外の記憶された画像データフレームのそ
    れぞれの間のそれぞれの変位フィールドを計算するステップと、 平均変位フィールドを得るために、前記それぞれの変位フィールドを平均する
    ステップと、 シンチレーション歪みが減少する前記シーンの前記画像を生成するために、平
    均変位フィールド分、前記基準画像データフレームを歪曲するステップと、 を含む方法。
  8. 【請求項8】 画像データフレームのシーケンスを拡張するための方法であ
    って、 a)画像データフレームの前記シーケンスを記憶するステップと、 b)基準座標系を定める基準画像データフレームとして、前記記憶済み画像デ
    ータフレームの1つを選択するステップと、 c)それぞれが、前記基準座標系システムに歪曲された、画像データフレーム
    の前記シーケンス内の前記画像データフレームそれぞれ1つに対応する、複数の
    歪曲された画像データフレームを生成するステップと、 d)前記基準座標系で拡張された画像を生成するために、その他の画像データ
    フレームから対応する特徴よりさらに顕著である各画像データフレームから特徴
    を選択し、結合することにより、前記複数の歪曲された画像データフレームを融
    合するステップと、 e)画像データフレームの前記シーケンスの中で各画像データのためにステッ
    プb)からd)を繰り返すステップとを含む方法。
  9. 【請求項9】 カラー画像のクロミナンス成分および輝度成分を位置合わせ
    するための方法であって、 ステップd)が、 前記基準フレーム内のピクセル位置を選択するステップと、 前記複数の歪曲された画像データフレームおよび前記基準画像データフレーム
    内の、前記選択されたピクセル位置で対応するピクセル値を並べ替えるステップ
    と、 前記並べ替えられたピクセル値の最大値、および前記並べ替えられたピクセル
    値の最小値の少なくとも1つを拒絶し、残りのピクセル値のセットを生成するス
    テップと、 前記基準画像データフレーム内の前記選択されたピクセル位置の置換ピクセル
    値を生成するために、ピクセル値の残りのセットを平均するステップとを含む、
    請求項8に記載の方法。
  10. 【請求項10】 それぞれの輝度エッジマップおよびクロミナンスエッジマ
    ップを形成するために、前記クロミナンス成分および輝度成分のそれぞれをエッ
    ジ濾波するステップと、 前記クロミナンスエッジマップと前記輝度エッジマップの間の変位フィールド
    を計算するステップと、 前記変位フィールドを使用して、前記カラー画像の前記クロミナンス成分を前
    記輝度成分に歪曲するステップとを含む方法。
  11. 【請求項11】 あるシーンの複数のカラー画像を処理し、前記シーンの拡
    張カラー画像を提供するためにコンピュータを制御するコンピュータプログラム
    を含むキャリヤであって、前記コンピュータプログラムが、前記コンピュータに
    、 別個の輝度画像データおよびクロミナンス画像データとして、前記複数の前記
    カラー画像を受信するステップと、 それぞれの複数の輝度ピラミッドを生成するために前記複数の画像を表す前記
    輝度画像データを濾波し、それぞれの輝度ピラミッドが低解像度レベルおよび複
    数の高い方の解像度レベルを有するステップと、 それぞれの複数のクロミナンスピラミッドを生成するために前記複数の画像を
    表す前記クロミナンス画像データを濾波し、それぞれのクロミナンスピラミッド
    が、低解像度レベルおよび複数の高い方の解像度レベルを有するステップと、 前記複数の輝度ピラミッドおよび前記複数のクロミナンスピラミッドの少なく
    とも1つから特徴マスク化ピラミッドを生成するステップと、 単一の融合された輝度部分ピラミッドおよび単一の融合されたクロミナンス部
    分ピラミッドを生成するために、前記特徴ピラミッドの対応するレベルに応えて
    、前記最低解像度レベルを除き、すべてのレベルで前記複数の輝度ピラミッドお
    よび前記複数のクロミナンスピラミッドを処理するステップと、 1つの融合された輝度低解像度レベルを生成するために、前記複数の輝度ピラ
    ミッドの前記低解像度レベルを処理するステップと、 1つの融合されたクロミナンス低解像度レベルを生成するために、前記複数の
    クロミナンスピラミッドの前記低解像度レベルを処理するステップと、 融合された輝度ピラミッドを形成するために、前記融合された輝度低解像度レ
    ベルを前記融合された輝度部分ピラミッドに結合し、前記融合されたクロミナン
    スピラミッドを形成するために、前記融合されたクロミナンス低解像度レベルを
    前記クロミナンス部分ピラミッドに結合するステップと、 前記それぞれの融合された輝度ピラミッドおよびクロミナンスピラミッドから
    拡張された輝度画像およびクロミナンス画像を再構築し、前記シーンの前記拡張
    された画像を形成するために、前記拡張された輝度画像およびクロミナンス画像
    を結合するステップとを実効させるキャリヤ。
  12. 【請求項12】 あるシーンの画像を、カメラを用いて、前記カメラと前記
    シーンの間にかなりの動きがある場合に、得るためにコンピュータを制御するコ
    ンピュータプログラムを含むキャリヤであって、前記コンピュータプログラムが
    、前記コンピュータに、 前記シーンの基準画像を表す第1画像データフレームを捕捉、記憶するステッ
    プと、 前記シーンの現在の画像を提供するために、第2画像データフレームを捕捉す
    るステップと、 前記基準画像の、および前記現在の画像の動画のぼやけのそれぞれの測定値を
    計算するステップと、 前記現在の画像の動画ぼやけの測定値が、前記基準画像の動画ぼやけの測定値
    が、前記基準画像の動作ぼやけの測定値未満である場合、および未満である場合
    にだけ、前記基準画像を前記現在の画像で置換するために、前記基準画像および
    前記現在の画像の動画のぼやけの測定値を比較するステップとを実行させるキャ
    リヤ。
  13. 【請求項13】 シンチレーション歪みが減少したシーンの画像を得るため
    に、コンピュータを制御するコンピュータプログラムを含むキャリヤであって、
    前記コンピュータプログラムが、前記コンピュータに、 前記シーンの第1画像として第1画像データフレームを捕捉するステップと、 前記シーンの第2画像として第2画像データフレームを捕捉するステップと、 前記第1画像データフレームと前記第2画像データフレーム間の第1変位フィ
    ールドを計算するステップと、 前記シーンの第3画像として第3画像データフレームを捕捉するステップと、 前記第1画像データフレームと前記第3画像データフレーム間の第2変位フィ
    ールドを計算するステップと、 平均化された変位フィールドを得るために前記第1変位フィールドと第2変位
    フィールドを平均するステップと、 シンチレーション歪みが減少したシーンの前記画像を生成するために、前記第
    1画像データフレームを歪曲するステップとを実行させるキャリヤ。
  14. 【請求項14】 シンチレーション歪みが減少したシーンの画像を得るため
    にコンピュータを制御するコンピュータプログラムを含むキャリヤであって、前
    記コンピュータプログラムが、前記コンピュータに、 それぞれが、前記シーンのそれぞれの画像を表す複数野画像データフレームを
    捕捉、記憶するステップと、 基準画像データフレームとして、前記記憶された複数の画像データフレームの
    1つを選択するステップと、 前記基準画像データフレームとその他の記憶された画像データフレームのそれ
    ぞれの間のそれぞれの変位フィールドを計算するステップと、 平均変位フィールドを得るために、それぞれの変位フィールドを平均するステ
    ップと、 シンチレーション歪みが減少した前記シーンの前記画像を生成するために、前
    記平均変位フィールド分、前記基準画像データフレームを歪曲するステップとを
    実行させるキャリヤ。
  15. 【請求項15】 画像データフレームのシーケンスを拡張するためにコンピ
    ュータを制御するコンピュータプログラムを含むキャリヤであって、前記コンピ
    ュータプログラムが、前記コンピュータに、 a)画像データフレームの前記シーケンスを記憶するステップと、 b)基準座標系を定める基準画像データフレームとして、前記記憶された画像
    データフレームの1つを選択するステップと、 c)それぞれが、前記基準座標系に歪曲された画像データフレームの前記シー
    ケンスないの害画像データフレームのそれぞれ1つに対応する、複数の歪曲され
    た画像データフレームを生成するステップと、 d)前記基準座標系で拡張画像を生成するために、前記その他の画像データフ
    レームから対応する特徴よりさらに目立つ特徴を、それぞれの画像データフレー
    ムから選択し、結合することによって、前記複数の歪曲された画像データフレー
    ムを融合するステップと、 e)画像データフレームの前記シーケンス内のそれぞれの画像データフレーム
    に関してステップb)からd)を繰り返すステップとを実行させるキャリヤ。
  16. 【請求項16】 カラー画像のクロミナンス成分および輝度成分を位置合わ
    せするためにコンピュータを制御するコンピュータプログラムを含むキャリヤで
    あって、前記コンピュータプログラムが、前記コンピュータに、 それぞれの輝度エッジマップおよびクロミナンスエッジマップを形成するため
    に、前記クロミナンス成分および輝度成分のそれぞれをエッジ濾波するステップ
    と、 前記クロミナンスエッジマップと前記輝度エッジマップ間の変位フィールドを
    計算するステップと、 前記変位フィールドを使用して、前記カラー画像の前記クロミナンス成分を前
    記輝度成分に歪曲するステップとを実行させるキャリヤ。
  17. 【請求項17】 あるシーンの複数のカラー画像を処理し、前記シーンの拡
    張されたカラー画像を提供するための装置であって、 別個の輝度画像データおよびクロミナンス画像データとして、カラー画像のソ
    ースと、 それぞれの輝度ピラミッドが低解像度レベルおよび複数の高い方の解像度レベ
    ルを有する、それぞれの複数の輝度ピラミッドを生成するために、前記複数の画
    像を表す前記輝度画像データを処理する第1フィルタと、 それぞれのクロミナンスピラミッドが低解像度レベルおよび複数の高い方の解
    像度レベルを有する、それぞれの複数のクロミナンスピラミッドを生成するため
    に、前記複数の画像を表す前記クロミナンス画像データを処理する第2フィルタ
    と、 特徴マスク化ピラミッドを生成するために、前記複数の輝度ピラミッドおよび
    前記複数のクロミナンスピラミッドの少なくとも1つを処理する第3フィルタと
    、 前記処理されたピラミッドレベルから目立つ特徴を選択し、単一の融合された
    輝度部分ピラミッドおよび単一の融合されたクロミナンス部分ピラミッドを生成
    するために、前記特徴ピラミッドの対応するレベルに応えて、最低解像度レベル
    を除き、すべてのレベルで前記複数の輝度ピラミッドおよび前記複数のクロミナ
    ンスピラミッドを処理するコンパレータと、 1つの融合された輝度低解像度レベルを生成するために前記複数の輝度ピラミ
    ッドの前記低解像度レベルを処理するための手段と、 1つの融合されたクロミナンス低解像度レベルを生成するために前記複数のク
    ロミナンスピラミッドの前記低解像度レベルを処理するための手段と、 融合された輝度ピラミッドを形成するために前記融合された輝度低解像度レベ
    ルを前記融合された輝度部分ピラミッドと結合し、融合されたクロミナンスピラ
    ミッドを形成するために、前記融合されたクロミナンス低解像度レベルを前記ク
    ロミナンス部分ピラミッドに結合するための手段と、 前記それぞれの融合された輝度ピラミッドおよびクロミナンスピラミッドから
    拡張された輝度画像およびクロミナンス画像を再構築し、前記シーンの前記拡張
    された画像を形成するために、前記拡張された輝度画像およびクロミナンス画像
    を結合するための手段とを含む装置。
  18. 【請求項18】 あるシーンの画像を、カメラを用いて得るための、前記カ
    メラと前記シーンの間にかなりの動きがある場合の装置であって、 前記シーンの基準画像を表す第1画像データフレームを記憶する第1メモリと
    、 前記シーンの現在の画像を提供するために、第2画像データフレームを記憶す
    る第2メモリと、 前記基準画像および前記現在の画像の動画ぼやけのそれぞれの測定値を計算す
    るフィルタと、 前記現在の画像の動画ぼやけの前記測定値が、前記基準画像の動画ぼやけの前
    記測定値未満である場合、および未満である場合にだけ、前記現在の画像で前記
    基準画像を置換するために、前記基準画像および前記現在の画像の動画ぼやけの
    測定値を比較するコンパレータと、 前記シーンの画像として前記基準画像を提供するために、前記第1メモリおよ
    び第2メモリに結合されるマルチプレクサとを備える装置。
  19. 【請求項19】 シンチレーション歪みが減少したシーンの画像を得るため
    の装置であって、 前記シーンの第1画像として第1画像データフレームを記憶する第1メモリと
    、 前記シーンの第2画像として第2画像データフレームを記憶する第2メモリと
    、 第1画像データフレームと第2画像データフレーム間の第1変位フィールドを
    計算するための手段と、 第3画像データフレームを、前記シーンの第3画像として記憶する第3メモリ
    と、 前記第1画像データフレームと前記第3画像データフレーム間の第2変位フィ
    ールドを計算するための手段と、 平均変位フィールドを得るために、前記第1変位フィールドと第2変位フィー
    ルドを平均する算術論理装置と、 シンチレーション歪みが減少した前記シーンの前記画像を生成するために、前
    記兵起因変位フィールド分、前記第1画像データフレームを歪曲するワーパ(ワ
    ーパー)とを含む装置。
  20. 【請求項20】 シンチレーション歪みが減少したシーンの画像を得るため
    の装置であって、 それぞれの記憶された画像データフレームが、前記シーンのそれぞれの画像を
    表す、基準画像データフレームを含む複数の画像データフレームを記憶するメモ
    リと、 前記基準画像データフレームと、前記それ以外の記憶された画像データフレー
    ムのそれぞれの間でそれぞれの変位フィールドを計算するための手段と、 平均変位フィールドを得るために、前記それぞれの変位フィールドを平均する
    算術論理装置と、 シンチレーション歪みが減少した前記シーンの前記画像を生成するために、前
    記平均変位フィールド分、前記基準画像データフレームを歪曲するワーパーとを
    含む装置。
  21. 【請求項21】 画像データフレームのシーケンスを拡張するための装置で
    あって、 画像データフレームの前記シーケンスを記憶するメモリであって、そこでは基
    準画像データフレームとして前記記憶された画像データフレームの1つが、基準
    座標系を画定するメモリと、 前記基準座標系に歪曲された複数の歪曲画像データフレームを生成するために
    、前記基準フレーム以外の前記記憶されたフレームを処理するワーパーと、 前記基準座標系で拡張された画像を生成するために、前記それ以外の画像デー
    タフレームより対応する特徴よりさらに顕著である各画像データフレームから特
    徴を選択、結合することによって前記複数の歪曲画像データフレームを融合する
    ための手段とを含む装置。
  22. 【請求項22】 それぞれの輝度エッジマップおよびクロミナンスエッジマ
    ップを形成するために、前記クロミナンス成分および輝度成分のそれぞれを濾波
    するエッジ検出フィルタと、 前記クロミナンスエッジマップと前記輝度エッジマップ間の変位フィールドを
    計算するための手段と、 前記変位フィールドを使用して、前記輝度成分に前記カラー画像の前記クロミ
    ナンス成分を歪曲するワーパとを含む装置。
JP2000568248A 1998-08-28 1999-08-27 画像を電子的に拡張する方法および装置 Pending JP2002524930A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US9834298P 1998-08-28 1998-08-28
US60/098,342 1998-08-28
PCT/US1999/019863 WO2000013407A1 (en) 1998-08-28 1999-08-27 Method and apparatus for electronically enhancing images

Publications (1)

Publication Number Publication Date
JP2002524930A true JP2002524930A (ja) 2002-08-06

Family

ID=22268861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000568248A Pending JP2002524930A (ja) 1998-08-28 1999-08-27 画像を電子的に拡張する方法および装置

Country Status (5)

Country Link
EP (1) EP1110381B1 (ja)
JP (1) JP2002524930A (ja)
KR (1) KR20010085748A (ja)
DE (1) DE69909635T2 (ja)
WO (1) WO2000013407A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743861B1 (ko) 2013-06-06 2017-06-05 애플 인크. 이미지 안정화를 위한 이미지 융합 방법

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7119837B2 (en) * 2002-06-28 2006-10-10 Microsoft Corporation Video processing system and method for automatic enhancement of digital video
US7619626B2 (en) * 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
WO2004112380A1 (ja) * 2003-06-17 2004-12-23 Matsushita Electric Industrial Co., Ltd. 情報生成装置、撮影装置および撮影方法
DE10342388A1 (de) * 2003-09-13 2005-04-07 Hella Kgaa Hueck & Co. Optoelektronische Überwachungseinrichtung für Kraftfahrzeuge
US8036494B2 (en) 2004-04-15 2011-10-11 Hewlett-Packard Development Company, L.P. Enhancing image resolution
US7730406B2 (en) 2004-10-20 2010-06-01 Hewlett-Packard Development Company, L.P. Image processing system and method
FI20045445A0 (fi) 2004-11-18 2004-11-18 Nokia Corp Menetelmä, laitteisto, ohjelmisto ja järjestely kuvadatan muokkaamiseksi
US8068691B2 (en) 2005-01-26 2011-11-29 Koninklijke Philips Electronics N.V. Sparkle processing
FR2888375A1 (fr) * 2005-07-06 2007-01-12 Thomson Licensing Sa Procede d'obtention d'une carte de saillance a partir d'une pluralite de cartes de saillances etablies a partir de grandeurs visuelles differentes
KR100925419B1 (ko) 2006-12-19 2009-11-06 삼성전자주식회사 라플라시안 피라미드를 이용한 컬러 영상의 화질 개선 장치및 그 방법
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
SE0901125A1 (sv) * 2009-08-27 2010-11-16 Flir Systems Ab Förfarande för kompensering av turbulens vid upptagning av filmsekvenser
IL202788A (en) * 2009-12-17 2016-08-31 Elta Systems Ltd Method and system for improving radar image
ITTO20130032A1 (it) 2013-01-15 2014-07-16 St Microelectronics Srl Procedimento ed apparecchiatura per calcolare piramidi di immagini e prodotto informatico relativo
US9350916B2 (en) 2013-05-28 2016-05-24 Apple Inc. Interleaving image processing and image capture operations
US9491360B2 (en) 2013-06-06 2016-11-08 Apple Inc. Reference frame selection for still image stabilization
US9384552B2 (en) 2013-06-06 2016-07-05 Apple Inc. Image registration methods for still image stabilization
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
JP2018524623A (ja) * 2015-05-14 2018-08-30 エスアールアイ インターナショナルSRI International モバイル機器キャプチャからの最適画像選択方法
US10186023B2 (en) 2016-01-25 2019-01-22 Qualcomm Incorporated Unified multi-image fusion approach
US10267951B2 (en) 2016-05-12 2019-04-23 The Climate Corporation Statistical blending of weather data sets
CN110021031B (zh) * 2019-03-29 2023-03-10 中广核贝谷科技有限公司 一种基于图像金字塔的x射线图像增强方法
KR102598334B1 (ko) * 2021-12-24 2023-11-02 한양대학교 산학협력단 윤곽선 정보를 이용한 딥러닝 기반 초해상도 동영상 생성 시스템 및 방법
CN115841425B (zh) * 2022-07-21 2023-11-17 爱芯元智半导体(宁波)有限公司 视频降噪方法、装置、电子设备及计算机可读取存储介质
CN116958492B (zh) * 2023-07-12 2024-05-03 数元科技(广州)有限公司 一种基于NeRf重建三维底座场景渲染的VR编辑方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8317407D0 (en) * 1983-06-27 1983-07-27 Rca Corp Image transform techniques
DE68919431T2 (de) * 1988-04-30 1995-03-30 Victor Company Of Japan Schaltung zur Verbesserung der Bildqualität.
US5070405A (en) * 1989-09-19 1991-12-03 Nikon Corporation Electronic still camera with multi-area light metering and gray scale modification
US5268758A (en) * 1990-09-26 1993-12-07 Matsushita Electric Industrial Co., Ltd. Horizontal line interpolation circuit and image pickup apparatus including it
DE69124777T2 (de) * 1990-11-30 1997-06-26 Canon Kk Gerät zur Detektion des Bewegungsvektors
KR940006623B1 (ko) * 1991-02-01 1994-07-23 삼성전자 주식회사 영상신호 처리 시스템
GB2256989B (en) * 1991-06-21 1995-02-08 Sony Broadcast & Communication Video image capture apparatus
US5359674A (en) * 1991-12-11 1994-10-25 David Sarnoff Research Center, Inc. Pyramid processor integrated circuit
US5325449A (en) * 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US5706054A (en) * 1995-12-01 1998-01-06 Intel Corporation Method and apparatus for adjusting video data to limit the effects of automatic focusing control on motion estimation video coders
US5719966A (en) * 1996-03-29 1998-02-17 David Sarnoff Research Center, Inc. Apparatus for assessing the visiblity of differences between two image sequences

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743861B1 (ko) 2013-06-06 2017-06-05 애플 인크. 이미지 안정화를 위한 이미지 융합 방법

Also Published As

Publication number Publication date
DE69909635D1 (de) 2003-08-21
EP1110381A4 (en) 2002-01-23
KR20010085748A (ko) 2001-09-07
EP1110381B1 (en) 2003-07-16
WO2000013407A1 (en) 2000-03-09
DE69909635T2 (de) 2004-04-15
EP1110381A1 (en) 2001-06-27

Similar Documents

Publication Publication Date Title
EP1110381B1 (en) Method and apparatus for electronically enhancing images
US7428019B2 (en) System and method for increasing space or time resolution in video
Kang et al. High dynamic range video
Bennett et al. Multispectral bilateral video fusion
Lapray et al. HDR-ARtiSt: an adaptive real-time smart camera for high dynamic range imaging
US9307212B2 (en) Tone mapping for low-light video frame enhancement
US20150097997A1 (en) Image processing apparatus, imaging apparatus, solid-state imaging device, image processing method and program
Bogoni et al. Pattern-selective color image fusion
JP2002524929A (ja) デジタル画像におけるエッジ強調のための方法及び装置
JP2000188680A (ja) 高解像度画像の生成方法及びシステム
Klein et al. Simulating low-cost cameras for augmented reality compositing
Akyüz Deep joint deinterlacing and denoising for single shot dual-ISO HDR reconstruction
Cho et al. Single‐shot High Dynamic Range Imaging Using Coded Electronic Shutter
Gunturk et al. High-resolution image reconstruction from multiple differently exposed images
Ben-Ezra et al. Jitter camera: High resolution video from a low resolution detector
Wang et al. High dynamic range video using split aperture camera
Lapray et al. Smart camera design for realtime high dynamic range imaging
Schedl et al. Coded exposure HDR light‐field video recording
Dwyer et al. Real-time implementation of image alignment and fusion
Oliveira et al. Lenslet light field panorama creation: A sub-aperture image stitching approach
Nuske et al. Extending the dynamic range of robotic vision
Azzari et al. Joint spatial and tonal mosaic alignment for motion detection with ptz camera
Gevrekci et al. Image acquisition modeling for super-resolution reconstruction
JPH06105224A (ja) ダイナミックレンジ拡大装置
Zhang et al. Extended motion adaptive signal integration technique for real-time image enhancement