JP2012513173A - 選択的に画像を合成するためのシステム及び方法 - Google Patents

選択的に画像を合成するためのシステム及び方法 Download PDF

Info

Publication number
JP2012513173A
JP2012513173A JP2011542509A JP2011542509A JP2012513173A JP 2012513173 A JP2012513173 A JP 2012513173A JP 2011542509 A JP2011542509 A JP 2011542509A JP 2011542509 A JP2011542509 A JP 2011542509A JP 2012513173 A JP2012513173 A JP 2012513173A
Authority
JP
Japan
Prior art keywords
image
image data
circuit
data
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011542509A
Other languages
English (en)
Inventor
アタナソブ、カリン・エム.
リ、シアン−ツン
ホワン、ハウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2012513173A publication Critical patent/JP2012513173A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

選択的に画像を合成するためのシステム及び方法が開示される。特定の実施形態においては、装置が、第1の画像に対応する第1の画像データと第2の画像に対応する第2の画像データに基づいて、動きベクトル・データの組を生成するように構成されるレジストレーション回路を含む。該装置は、第1の画像データと、該動きベクトル・データに従って調整された第2の画像データに対応する調整された第2の画像データを選択的に合成するための合成回路を含む。該装置は、第3の画像データを生成するために、合成回路を制御するための制御回路を更に含む。

Description

本開示は、全般的に、選択的に画像を合成するためのシステム及び方法に関する。
技術における進歩の結果、計算デバイスは、より小さく、より強力になった。例えば、小さく、軽く、そしてユーザによって容易に持ち運ばれるページング・デバイス、携帯用無線電話、及び携帯情報端末(PDA)などの無線計算デバイスを含む、様々な携帯用パーソナル計算デバイスが、現在存在している。より具体的には、セルラー電話及びインターネット・プロトコル(IP)電話などの携帯用無線電話が、無線ネットワーク上で音声及びデータのパケットを通信することができる。更に、多くのそのような無線電話は、その中に組込まれる他のタイプのデバイスを含んでいる。例えば、無線電話はまた、デジタルスチルカメラ、デジタルビデオカメラ、デジタルレコーダ、及びオーディオ・ファイル・プレーヤーを含むことができる。そのような無線電話は、ウェブブラウザ・アプリケーションのような、ソフトウェア・アプリケーションを含む実行可能な命令を処理することができ、それは、インターネットにアクセスするために使用されうる。従って、これらの無線電話は、著しい計算能力を含むことができる。
デジタル信号プロセッサ(DSP)、画像プロセッサ、及び他の処理デバイスは、デジタルカメラを含む、あるいはデジタルカメラによって捕捉された(captured)画像又はビデオのデータを表示する携帯用パーソナル計算デバイスにおいて頻繁に使用されている。そのような処理デバイスは、ビデオ及びオーディオの機能を提供し、捕捉された画像のような受信されたデータを処理し、あるいは他の機能を実行するために利用されうる。
捕捉された画像データは、画像における物体の移動、露出過度、露出不足、近視野(near field)又は遠視野(far field)における乏しい焦点、横色収差(lateral chromatic aberrations)、幾何ひずみ、及び手ぶれによるシフティング・エラーなどの1つ又は複数の問題から損害を受けうる。
複数の(multiple)画像が、個々の画像において発生しうる問題を克服するために、画像のレジストレーション(registration)及び合成を実行する構成可能な画像処理アーキテクチャを使用して、合成されうる。制御ユニットが、入力画像データを合成することの様々な効果を可能にするために、階層的な画像レジストレーション及び階層的な画像合成のオペレーションを調整することができる。例えば、最初の2組の画像データが、低減されたゴースティングを有する手ぶれ低減(hand jitter reduction)のために合成されることができ、次の2組の画像データが、向上された被写界深度の画像を生成するために合成されることができ、また他の組の画像が、ハイダイナミックレンジ画像(high dynamic range image)を生成するために合成されうる。
特定の実施形態においては、第1の画像に対応する第1の画像データと第2の画像に対応する第2の画像データを受信することを含む方法が開示される。該方法は、調整された第2の画像データを生成するために、第1の画像データの複数の対応部分に関連して、第2の画像データの複数の部分との間の複数のオフセットに対応する動きベクトル・データの組を適用することによって、第2の画像データを調整することを含む。該方法は、第1の画像データの第1の特性を第2の画像データの第2の特性と比較することに基づいて、少なくとも部分的に、第1の画像データからの第1の値と調整された第2の画像データからの第2の値を選択的に合成することによって、第3の画像データを生成することを更に含む。
別の特定の実施形態においては、第1の画像データの第1のブロックの組の各ブロックと第2の画像データの第1のブロックの組の対応ブロックとの間のオフセットに対応する第1の動きベクトルの組を決定することを含む方法が開示される。該方法はまた、第2の画像データの第1のブロックの組の特定のブロックに対応する第1の動きベクトルの組のうちの1つの動きベクトルをアップサンプリング(upsampling)して、第2の画像データの第2のブロックの組に該動きベクトルを適用することを含む。第2の画像データの第2のブロックの組は、特定のブロック内に含まれる。該方法はまた、第1の画像データの第2のブロックの組の各々と、第2のブロックの組に該動きベクトルを適用した後の第2の画像データの第2のブロックの組の対応ブロックとの間のオフセットに対応する第2の動きベクトルの組を決定すること含む。該方法はまた、調整された第2の画像データを生成するために、第2の動きベクトルの組を第2の画像データに適用することと、第1の画像データと調整された第2の画像データを選択的に合成することとを含む。
別の特定の実施形態においては、装置が開示される。該装置は、第1の画像に対応する第1の画像データと第2の画像に対応する第2の画像データに基づいて、動きベクトル・データの組を生成するように構成されるレジストレーション回路を含む。該装置はまた、第1の画像データと調整された第2の画像データを選択的に合成するための合成回路を含む。調整された第2の画像データは、動きベクトル・データに従って調整された第2の画像データに対応する。該装置は、第3の画像データを生成するために、合成回路を制御するための制御回路を更に含む。
別の特定の実施形態においては、装置が開示される。該装置は、第1の画像に対応する第1の画像データと第2の画像に対応する第2の画像データに基づいて、動きベクトル・データの組を生成するためのレジストレーション手段を含む。該装置はまた、第1の画像データと調整された第2の画像データを選択的に合成するための合成手段を含む。調整された第2の画像データは、動きベクトル・データに従って調整された第2の画像データに対応する。該装置は、第3の画像データを生成するために、合成手段を制御するための制御手段を更に含む。
開示される方法及び装置の実施形態によって提供される1つの特定の利点は、画像における物体の移動、露出過度、露出不足、近視野又は遠視野における乏しい焦点、横色収差、幾何ひずみ、及び手ぶれによるシフティングなどの、画像に関連する問題の補正又は改善である。
本開示の他の態様、利点、及び特徴が、次に続くセクション:図面の簡単な説明、発明を実施するための形態、及び特許請求の範囲、を含む本出願全体のレビュー(review)後に、明白になるであろう。
図1は、画像合成モジュールを有する画像処理システムを含むシステムの特定の例示的な実施形態のブロック図である。 図2は、画像合成エンジンを含むシステムの第1の実施形態を例示するブロック図である。 図3は、画像合成エンジンを含むシステムの第2の実施形態を例示するブロック図である。 図4は、画像合成回路を含むシステムの実施形態を例示するブロック図である。 図5は、手ぶれの補正と、動く物体による物体のぼやけ(object blur)を低減することを提供する画像合成エンジンの実施形態のオペレーションを論理的に例示する図である。 図6は、ハイダイナミックレンジ画像を生成するための画像合成エンジンの実施形態のオペレーションを論理的に例示する図である。 図7は、被写界深度の向上を提供する画像合成エンジンの実施形態のオペレーションを論理的に例示する図である。 図8は、横色収差を例示する図である。 図9は、画像の幾何ひずみの第1の実施形態を例示する図である。 図10は、画像の幾何ひずみの第2の実施形態を例示する図である。 図11は、画像の幾何ひずみの補正を提供する画像合成エンジンの実施形態のオペレーションを論理的に例示する図である。 図12は、選択的に画像を合成する方法のフロー図である。 図13は、階層的な合成プロセスを実行する方法のフロー図である。 図14は、画像改善プロセスを実行する方法のフロー図である。 図15は、画像合成モジュールを含む携帯用電子デバイスのブロック図である。
詳細な説明
図1は、画像合成モジュールを有する画像処理システムを含むシステムの特定の例示的な実施形態のブロック図である。システム100は、画像処理システム130に結合される画像捕捉デバイス101を含む。画像処理システム130は、画像記憶デバイス140に結合される。画像処理システム130は、画像捕捉デバイス101から画像データ109を受信し、複数の画像を合成するように構成され、画像における物体の移動、露出過度、露出不足、近視野又は遠視野における乏しい焦点、横色収差、幾何ひずみ、及び手ぶれによるシフティングなどの、複数の画像に関連する問題の補正又は改善を提供する。一般に、システム100は、比較的制限された処理資源を使用して、リアルタイムの画像処理を実行するように構成される電子デバイスにおいてインプリメントされる(implemented)ことができる。
特定の実施形態において、画像捕捉デバイス101は、ビデオカメラ又はスチルカメラなどのカメラである。他の実施形態において、画像捕捉デバイス101は、セルラー電話、携帯情報端末(PDA)、又は同様のものに組み込まれたカメラであることができる。画像捕捉デバイス101は、焦点調節(focusing)モジュール104と、露出(exposure)モジュール106に応答するレンズ102を含む。センサー108が、レンズ102によって光を受け取り、レンズ102によって受け取られた画像に応じて画像データ109を生成するために結合される。焦点調節モジュール104は、センサー108に応答することができ、またレンズ102の焦点調節を自動的に制御するように適合されうる。露出モジュール106もまた、センサー108に応答することができ、また画像の露出を制御するように適合されうる。特定の実施形態において、センサー108は、隣接した検出器が光の異なる色を検出するように配列されている、複数の検出器、又は複数のピクセル・ウェル(pixel well)を含む。例えば、受け取られた光は、各検出器が、赤、緑、あるいは青の入ってくる光を受け取るようにフィルタされうる。
画像捕捉デバイス101は、画像データ109を画像処理システム130に提供するために結合される。画像処理システム130は、画像捕捉デバイス101から受信した画像データ109に対してデモザイク・オペレーション(demosaic operation)を実行するためのデモザイク・モジュール110を含む。色補正モジュール112が、デモザイクされた画像データに対して色補正を実行するように構成される。ガンマ・モジュール114が、色補正モジュール112から受信したデータから、ガンマ補正された画像を生成するように構成される。色変換モジュール116が、ガンマ補正された画像データに対して色空間変換を実行するために結合される。画像処理システム130はまた、図2−14に関して論じられるように、複数の画像を合成するように構成される画像合成モジュール118を含む。圧縮及び記憶モジュール120が、画像合成モジュール118の出力を受信し、画像記憶デバイス140に圧縮された出力データを記憶するために結合される。画像記憶デバイス140は、1つ又は複数のディスプレイ・バッファ、レジスタ、キャッシュ、フラッシュメモリ要素、ハードディスク、その他任意の記憶デバイス、あるいはその任意の組合せなどの、任意のタイプの記憶媒体を含むことができる。
論じたように、特定の実施形態において、センサー108は、赤、緑、及び青(RGB)などの光の異なる色を検出する複数の検出器を含む。従って、画像は、RGB色空間で受け取られることができる。特定の実施形態において、該画像は、色変換モジュール116によって「YCbCr」色空間のような、他の色空間に変換されうる。YCbCr色空間は、画像が、輝度(luma)(即ち、明るさ)成分(YCbCr色空間におけるY成分)、及び彩度成分(YCbCr色空間におけるCbとCr成分)によって示される色空間の例である。YCbCr色空間では、Cbは、青マイナス輝度(B−Y)であり、また、Crは、赤マイナス輝度(R−Y)である。
オペレーション中に、画像合成モジュール118は、入力画像データ109に対応する画像を補正又は改善することができる。例えば、補正又は改善が、画像における物体の移動、露出過度、露出不足、近視野又は遠視野における乏しい焦点、横色収差、幾何ひずみ、及び手ぶれによるシフティングなどの、捕捉された画像に関連する問題を補償するために画像に対して行われることができる。
図1に例示されている特定の実施形態では、画像合成モジュール118は、画像処理パイプラインにおいて色変換モジュール116に後続しているが、他の実施形態では、画像合成モジュール118は、画像処理パイプライン内の他の位置にインプリメントされうる。加えて、画像捕捉デバイス102は、単一のセンサー108を有するものとして、例示されているが、他の実施形態では、画像捕捉デバイス102は、複数のセンサーを有することができる。例えば、画像捕捉デバイス102は、異なる露出設定あるいは異なる焦点設定を使用するなどの、様々な状況下で特定のシーンの複数の同時画像捕捉を実行するように構成される2つ又はそれ以上のセンサーを有することができる。
図2は、第1の画像に対応する第1の画像データを受信するための第1の画像入力201を備えた画像合成エンジン205を有するシステム200を例示する。特定の実施形態において、システム200は、図1の画像合成モジュール118に含まれることができる。例えば、第1の画像は、カメラのレンズ102によって捕捉され、そしてセンサー108、デモザイク・モジュール110、色補正モジュール112、ガンマ・モジュール114及び色変換モジュール116を通じて、第1の画像入力201で画像合成エンジン205に提供されうる。
画像合成エンジン205は、第2の画像に対応する第2の画像データを受信するための第2の画像入力202を更に含む。特定の実施形態において、第2の画像は、カメラのレンズ102によって捕捉され、そしてセンサー108、デモザイク・モジュール110、色補正モジュール112、ガンマ・モジュール114及び色変換モジュール116を通じて、第2の画像入力202で画像合成エンジン205に提供されうる。
第1及び第2の画像は、画像合成エンジン205によって合成される。例えば、画像合成エンジン205は、図3−14に関して記述される実施形態に従って、動作することができる。
画像合成エンジン205は、合成された画像出力206を生成するように構成される。特定の実施形態において、画像合成エンジン205は、第1の画像の第1の特性を第2の画像の第2の特性と比較することに基づいて、少なくとも部分的に、第1の画像入力201からの第1の値と第2の画像入力202からの調整された第2の値を選択的に合成することによって、合成された画像出力206を生成する。例えば、第1の画像の領域は、焦点が合っていないが、第2の画像の対応領域は、焦点が合っている時には、画像合成エンジン205は、第2の画像から、該領域に対応する、合成された画像出力206のためのピクセル値を選択することができる。比較されうる特性のその他の例は、画像のコントラスト(contrast)、画像の輝度成分間の偏差(deviation)、及び画像のフィルタされた特性(例えば、低域(low-pass)フィルタされたデータ、高域(high-pass)フィルタされたデータ)を含む。特定の実施形態において、合成された画像出力206は、画像記憶デバイス140のような画像記憶デバイスに結合されうる。
他の実施形態において、画像合成エンジン205は、追加の画像入力を含むことができる。加えて、あるいは代わりに、合成された画像出力206は、出力画像を追加の入力画像と繰り返し合成するために、画像合成エンジン205の出力を第2の画像入力202で受信された追加の画像入力と合成する能力に備えて、第1の画像入力201に結合されうる。例えば、3組の画像データが、第1の画像データの組を第1の画像入力201に適用し、第2の画像データの組を第2の画像入力202に適用することによって、そして結果として生じる合成された画像を第1の画像入力201に適用し、第3の画像データの組を第3の画像入力202に適用することによって、単一の画像を形成するために合成されることができ、結果として全3組の画像データが合成された画像が生じる。
図3は、画像合成エンジン305を有するシステム300を例示する。システム300では、画像合成エンジン305は、個々の画像入力をレジスター(register)するレジストレーション回路321と、個々の画像入力を合成する合成回路323と、レジストレーション回路321及び合成回路323を制御する制御回路325とを含む。例示的な実施形態において、システム300は、図1の画像合成モジュール118あるいは図2の画像合成エンジン205に含まれることができる。
特定の実施形態において、レジストレーション回路321は、第1の輝度入力311と、第2の輝度入力313と、合成回路323に結合される出力322とを含む。レジストレーション回路321は、第1の輝度入力311及び第2の輝度入力313からのデータ間の差を決定し、そして出力322で合成回路323にオフセット・データを提供するように構成される。特定の実施形態において、第1の輝度入力311は、YCbCr色空間で符号化された第1の画像に関するY成分のデータであり、また第2の輝度入力313は、YCbCr色空間で符号化された第2の画像に関するY成分のデータである。図3に例示されているように、レジストレーション回路321は、レジストレーションされる画像からの輝度成分のみを使用して、画像レジストレーションを実行する。他の実施形態において、レジストレーション回路321は、レジストレーションを実行するために、輝度成分に加えて、あるいはその代わりに、画像データの他の成分を使用することができる。
合成回路323は、第1の画像入力315と、第2の画像入力317と、レジストレーション回路321からレジストレーション・データを受信するための入力と、合成された画像出力306とを含む。特定の実施形態において、第1の画像入力315は、YCbCr色空間で符号化された第1の画像に関するデータを受信し、また第2の画像入力317は、YCbCr色空間で符号化された第2の画像に関するデータを受信する。合成回路323は、第1の画像と、レジストレーション回路321によって検出された差に基づいて調整された(即ち、第1の画像データと位置合せ(align)するように調整された)第2の画像とを選択的に合成するように構成される。レジストレーション回路321は、制御回路325の制御下で動作するために、入力326に応答するように構成され、また合成回路323は、制御回路325の制御下で動作するために、入力324に応答するように構成される。
特定の実施形態において、画像合成回路323は、第1の画像の第1の特性を第2の画像の第2の特性と比較することに基づいて、少なくとも部分的に、第1の画像入力315からの第1の値と第2の画像入力317からの第2の値を選択的に合成することによって、合成された画像出力306を生成する。該特性は、例示的な例として、焦点、コントラスト、分散(variance)、又は周波数スペクトルを含むことができる。例えば、画像合成回路323は、第1の画像入力315及び第2の画像入力317の領域を、どちらの画像入力が、該領域においてより良い焦点を有しているか、どれだけの分散が、レジストレーション後の該領域において、2つの画像入力との間で検出されるか、あるいは合成された画像出力306の品質を向上するための他の特性に基づいて合成することができる。画像合成回路323は、選択された特性を示す、制御回路325からの入力324を受信し、それぞれの画像を領域単位あるいはピクセル単位までも評価し、そして評価された特性に基づく、入力画像の領域あるいはピクセルの選択的な合成に基づいて、合成された画像を生成することができる。
図4を参照すると、選択的に複数の画像を合成するシステムが図示されており、全般的に400と示されている。特定の実施形態において、システム400は、図1の画像合成モジュール118、図2の画像合成エンジン205、図3の画像合成エンジン305、あるいはそれらの任意の組合せに含まれることができる。システム400は、階層的な合成回路460に結合される階層的なレジストレーション回路420を含む。階層的なレジストレーション回路420及び階層的な合成回路460は、特定用途向け制御回路432に結合される。特定用途向け制御回路432及び階層的な合成回路460はまた、重み付けテーブル(weighting table)434に結合される。
階層的なレジストレーション回路420は、第1の画像に対応する第1の画像の輝度データ402と、第2の画像に対応する第2の画像の輝度データ404を受信し、粗い(coarse)レジストレーション回路422及び微細な(fine)レジストレーション回路424を使用して、第1の画像の輝度データ402及び第2の画像の輝度データ404に対してレジストレーション・プロセスを実行するように構成される。階層的なレジストレーション回路420は、第1の画像の輝度データ402と第2の画像の輝度データ404の対応部分間で検出されたオフセットを示す微細な動きベクトルの組429を生成するように構成される。特定の実施形態において、微細な動きベクトルの組429は、カメラの動き、画像の動き、あるいは両方によって、位置合せ不良(misaligned)になりうる画像を位置合せするための大きさ及び方向のデータを含む。例示されているように、階層的なレジストレーション回路420は、計算効率(computational efficiency)のために、画像の輝度データに動作します。しかしながら、他の実施形態において、階層的なレジストレーション回路420は、輝度データに加えて、あるいはその代わりに、彩度成分データ、赤データ、青データ、又は緑データ、あるいはそれらの任意の組合せなどの、他のタイプの画像データを使用して動作することができる。
特定の実施形態において、粗いレジストレーション回路422は、動きベクトル生成回路426を含む。動きベクトル生成回路426は、該ブロック間で粗いレジストレーション・プロセスを実行するために、第1の画像の輝度データ402及び第2の画像の輝度データ404の各々を複数のブロックに分割するように構成されうる。例えば、動きベクトル生成回路426は、第1の画像の輝度データ402及び第2の画像の輝度データ404の各々を、3x3の重なり合うブロックの組に論理的に分割することができ、そして第2の画像の輝度データ404の各々のブロックを、第1の画像の輝度データ402の対応ブロックに位置合せするために適用されうる粗い動きベクトルの組427を生成するために、重なり合うブロックのプロジェクション(projection)を使用することができる。他の実施形態においては、任意の数のブロックが使用されることができ、そして該ブロックのうちの幾つか、あるいは全ては、重なり合わないブロックでありうる。
微細なレジストレーション回路424は、粗い動きベクトルの組427を受信し、そして微細な動きベクトルの組429を生成するように構成される。特定の実施形態において、微細なレジストレーション回路424は、マクロブロック・リファイン回路430(macro block refining circuit)に結合される動きベクトル・アップサンプリング回路428を含む。動きベクトル・アップサンプリング回路428は、粗い動きベクトルの組427よりも微細な粒状性(granularity)を有する動きベクトルを生成するために、粗い動きベクトルの組427を受信してアップサンプルすることができる。例示するために、画像の輝度データ402及び404は、M×N配列のマクロブロックとして構成されることができ、ここで各マクロブロックは、画像の16ピクセル×16ピクセルの領域に対応する。動きベクトル・アップサンプリング回路428は、各マクロブロックに対して、粗い動きベクトルの組427のうちの対応する動きベクトルを適用する、M×Nの動きベクトルの組を生成することができる。
特定の実施形態において、マクロブロック動きベクトル・リファイン回路430(macro block motion vector refining circuit)は、アップサンプリングされた動きベクトルの組427と、画像の輝度データ402及び404を受信し、リファインされた動きベクトルの組429を生成するために結合される。例えば、マクロブロック動きベクトル・リファイン回路430は、第2の画像データのマクロブロックを第1の画像データの対応マクロブロックと粗く位置合せするために、アップサンプリングされた動きベクトルの組427の各動きベクトルを、第2の画像データのその対応マクロブロックに適用するように構成されうる。マクロブロック動きベクトル・リファイン回路430は、第1の画像データ402に粗く位置合せされたマクロブロックのより正確な位置合せを決定するために、粗く位置合せされたマクロブロックの周辺の第1の画像データ402の領域をサーチすることができる。該サーチ領域は、特定用途向け制御回路432から受信されるサーチ領域制御信号435に基づいて選択されうる。リファインされた動きベクトルの組429は、第1の画像の輝度データ402と第2の画像の輝度データ404のマクロブロック単位のレジストレーションを可能にするために、各マクロブロックのより正確な位置合せに対応するベクトル・データを示すことができる。
マクロブロック動きベクトル・リファイン回路430は、各動きベクトルに関する複数の可能なMSEの間で、最低の計算された平均二乗誤差(MSE:Mean Square Error)あるいは他の標準を選択するアルゴリズムを実行することによって、リファインされた動きベクトルの組429を決定することができる。例えば、第2の画像の輝度データ404の特定のマクロブロックに関しては、第1の画像の輝度データ402との複数の可能なマクロブロックの位置合せが考慮されることができ、そして最低の計算されたMSEが結果として生じる位置合せが、リファインされた動きベクトルの組429のために選択される。各マクロブロックのために決定される平均二乗誤差は、動きベクトル(MV)平均二乗差データ431として、階層的な合成回路460に提供されうる。
特定の実施形態において、階層的な合成回路460は、粗い合成回路462及び微細な合成回路464を使用して、第1の画像データ406と第2の画像データ408を合成するように構成される。第1の画像データ406は、YCbCr画像データとして、第1の画像に関する第1の輝度データ402を含み、また第1の画像に関する彩度データも含むことができる。第2の画像データ408は、YCbCrデータとして、第2の画像に関する第2の輝度データ404と、第2の画像に関する彩度データを含むことができる。
特定の実施形態において、粗い合成回路462は、マクロブロック画像位置合せ回路466及びブロックMSE差弁別回路468を含む。マクロブロック画像位置合せ回路466は、第1の画像データに位置合せされた、第2の画像に関する画像データを生成するために、リファインされた動きベクトルの組429を第2の画像データ408に適用するように構成されうる。例えば、マクロブロック画像位置合せ回路466は、マクロブロックが重なり合うことが決定された時に、第2の画像においてピクセル値を合成し、あるいは、どのマクロブロック内にもない第2の画像データの領域が結果として生じるように、マクロブロックが再位置合わせされた(realigned)ところのピクセル値を補間するように構成されうる。マクロブロック画像位置合せ回路466は、第1の画像データ406と第2の画像に関する位置合せされた画像データとをブロックMSE差弁別回路468に提供することができる。
特定の実施形態において、ブロックMSE差弁別回路468は、マクロブロック画像位置合せ回路466から受信されたデータに対して粗い合成プロセスを実行するように構成されうる。特に、ブロックMSE差弁別回路468は、第1の画像データ406と十分に適合しない第2の画像に関する位置合せされた画像データのマクロブロックを除去することができる。例えば、各マクロブロックに関するMV MS差データ431は、閾値と比較されうる。MS差が特定のマクロブロックに関する閾値を超過する時には、該特定のマクロブロックは、第1の画像データ406と第2の画像に関する位置合せされた画像データとの間で、過度に異なっているという決定がされ、従って、該画像データは、特定のマクロブロックに関して合成されるべきではない。
例えば、動く物体が、第1の画像データ406中の第1のマクロブロックに現れ(しかし、第2の画像に関する位置合せされた画像データ中の第1のマクロブロックには現れていない)、そして該動く物体が、第2の画像に関する位置合せされた画像データ中の第2のマクロブロックに現れている(しかし、第1の画像データ406の第2のマクロブロックには現れていない)ところでは、対応する平均二乗誤差の差により、第1のマクロブロックは、第1及び第2の画像の間で合成不可能(non-combinable)であると決定されることができ、また第2のマクロブロックは、第1及び第2の画像との間で合成不可能であると決定されうる。ブロックMSE差弁別回路468は、第1の画像データ406からのマクロブロックに関するピクセル値のみが使用されるように、位置合せされた第2の画像データから各々の合成不可能なマクロブロックを除去ように構成されうる。例えば、マクロブロックに関するピクセル値は、第2の画像に関する位置合せされた画像データの対応マクロブロックにおけるピクセル値を置き換えるために、第1の画像データ406からコピーされうる。
例示されているように、ブロックMSE差弁別回路468は、特定用途向け制御回路432に応答する。例えば、特定用途向け制御回路432は、第1の画像データと第2の画像に関する位置合せされた画像データとのマクロブロック間のMSE差を比較するために使用される閾値差を示す、閾値制御信号437を提供することができる。ブロックMSE差弁別回路468は、粗い合成プロセスに後続して、微細な合成回路464に2組の画像データを出力することができ、第1の画像に対応する画像データと第2の画像に対応する画像データとを含む。
微細な合成回路464は、レジスターされ且つ粗く位置合せされた第1及び第2の画像データを受信し、出力画像データ480を生成するための微細な合成プロセスを実行するように構成される。特定の実施形態において、微細な合成回路464は、平均ピクセルMS差回路474に結合される、第1のフィルタ470及び第2のフィルタ472を含む。微細な合成回路464はまた、平均ピクセルMS差回路474及び重み付けテーブル434に結合される画像合成回路476を含む。
第1の画像に関する受信されたデータは、第1のフィルタ470によって処理されることができ、そして第1の画像に関する該フィルタされたデータは、平均ピクセルMS差回路474に提供される。第2の画像に関する受信されたデータは、第2のフィルタ472によって処理されることができ、そして第2の画像に関する該フィルタされたデータは、平均ピクセルMS差回路474に提供される。フィルタ470及び472は、特定用途向け制御回路432に応答することができる。例えば、フィルタ470及び472は、低域応答、高域応答、帯域応答、その他任意のフィルタ応答、あるいはそれらの任意の組合せなどのフィルタ応答の特性を示す、特定用途向け制御回路432からの応答制御信号439を受信することができる。フィルタ470及び472は、3×3カーネル(kernel)、あるいはその他任意のサイズのカーネルを含むことができる。特定の実施形態において、フィルタ470及び472は、特定用途向け制御回路432に応答するカーネル・サイズを有する。
平均ピクセルMS差回路474は、各画像に対応するフィルタされたデータを受信し、そしてピクセル単位の符号付き(signed)平均二乗差オペレーションを実行するように構成されうる。該差オペレーションは、特定のピクセルに関する輝度及び彩度の値の各々を使用して、各特定のピクセルのために、第1の画像のフィルタされたデータと第2の画像のフィルタされたデータとの間の差を示す符号付きの値を生成することができる。平均ピクセルMS差回路474は、平均ピクセル差結果として、画像合成回路476に該差データを提供するように構成されうる。
画像合成回路476は、各ピクセルに関して、平均ピクセルMS差回路474から差値を受信し、出力画像データ480中の各ピクセルのピクセル値を決定するように構成されうる。例えば、特定のピクセルに関する受信された差値は、重み付けテーブル434での探索オペレーシションのために提供されうる。探索オペレーションの結果は、出力画像データ480におけるピクセル値が、粗い合成回路462から受信された第1の画像データからの値、粗い合成回路462から受信された第2の画像データからの値、又はそれらの組合せを有するかどうかを決定することができる。
重み付けテーブル434は、第1の画像データのピクセル値に適用される第1の重みと、第2の画像データのピクセル値に適用される第2の重みとを示すデータを含むことができる。重み付けテーブル434は、第1の画像データに適用される重みに対応するおよそ0〜1の範囲を有する出力値「W」と、第2の画像データに適用される重みに対応する値1−Wとを提供することができる。該重み付けテーブルは、特定用途向け制御回路432からのテーブル制御信号433に応答することができる。
オペレーション中に、特定用途向け制御回路432は、システム400において画像レジストレーション及び合成プロセスを制御するための1つ又は複数の制御パラメータを決定することができる。例えば、特定用途向け制御回路432は、マクロブロック・レジストレーションのアグレッシブ性(aggressiveness)を示すためのサーチ領域制御信号435と、マクロブロックの合成に関する許容可能な差量を示すための閾値制御信号437と、実行されるフィルタリングのタイプを示すための応答制御信号439と、及び画像間のフィルタされたピクセル差に基づいて、どのように画像が合成されるかの重み付けを示すためのテーブル制御信号433について1つの値を選択することができる。
システム400は、特定のプロセスを実行するように構成される複数のハードウェア回路を含むように例示されているが、他の実施形態では、システム400の1つ又は複数のコンポーネントは、プロセッサ命令を実行するプロセッサによって実行されうる。例えば、回路420、422、424、426、428、430、432、434、460、462、464、466、468、470、474、又は476によって実行される機能のうちの1つ又は複数が、上に記述された汎用アルゴリズム又は機能のうちの1つ又は複数を実行するようにプログラムされた汎用プロセッサ、画像プロセッサ、又はデジタル信号プロセッサ(DSP)によって実行されうる。他の実施形態では、回路420、422、424、426、428、430、432、434、460、462、464、466、468、470、474、又は476のうちの1つ又は複数が、ハードウェア、ファームウェア、プロセッサ実行(processor executing)のコンピュータ可読命令、あるいはそれらの任意の組合せに含まれるコンポーネントによって置き換えられることができる。
画像合成を例示する特定の実施形態が、図5−11に関連して論じられ、これらの特定の実施形態においてインプリメントされうるような、図4の画像合成回路400のオペレーションを理解するために有用である。
図5を参照すると、手ぶれの補正と、動く物体による物体のぼやけを低減することを提供する画像合成エンジンの実施形態のオペレーションを論理的に例示する図が提供される。図5での例示目的のために、動く物体502が、円によって表され、ぶれ(jitter)によってシフトされた画像の一部504が、三角形によって例示されている。第1の列521が、概して第1の画像の処理経路を表わし、また第2の列523が、概して第2の画像の処理経路を表す。
例示的な実施形態において、手ぶれを除去する第1及び第2の画像のデータフロー501は、図1の画像合成モジュール118、図2の画像合成エンジン205、図3の画像合成エンジン305、図4の画像合成回路400、あるいはそれらの任意の組合せにおいて実行されうる。もう1つの例示的な実施形態において、手ぶれを除去する第1及び第2の画像のデータフロー501は、図12の画像の選択的な合成の方法1200、図13の階層的なレジストレーション・プロセス1300、図14の画像改善プロセス1400、あるいはそれらの任意の組合せに従って、実行されうる。
初めに、第1の画像及び第2の画像は、粗いレジストレーション512が結果として生じる粗いレジストレーション・プロセスと、微細なレジストレーション514が結果として生じる微細なレジストレーション・プロセスへの入力として提供される。粗いレジストレーション・プロセス及び微細なレジストレーション・プロセスは、第1の画像と第2の画像の間の差を決定するように構成される。例示されているように、粗いレジストレーション512は、各画像データの組を第1の部分530のような複数の部分に細分(subdivide)することができ、そして第1の画像の第1の部分と第2の画像の第1の部分との間のオフセットを決定することができる。微細なレジストレーション514は、第1の部分530内にある第2の部分532として例示されている、画像の16ピクセル×16ピクセルの領域に対応するマクロブロックなどに、各部分を更に細分することができる。微細なレジストレーション514は、第1の画像の第2の部分と第2の画像の第2の部分との間のオフセットを決定することができ、そして該オフセットを、図4の微細な動きベクトルの組429のうちの1つの動きベクトルのような、動きベクトルによって表すことができる。
第2の画像のブロックは、粗い合成ブロック位置合せ516を生成するために、画像のレジストレーションに基づいて、第1の画像のブロックと位置合せされる。
粗い合成ブロック差プロセスは、粗い合成ブロック差518を生成するために、第1の画像と第2の画像の間で物体502(円によって表されている)がシフトしたピクセル数に基づいて、動く物体502を検出する。物体が、それが動く物体であると考えられる前に、シフトしなければならないピクセル数は、アプリケーション毎に異なることができ、ある実施形態では、図4の特定用途向け制御モジュール413又は図3の制御回路325などの、特定用途向けレジストレーション制御モジュールによって制御される。動く物体が検出された後、動く物体は、第2の画像中の動く物体を有するブロックを第1の画像の対応ブロックと置き換えることによって、第2の画像から除去され、それは画像を合成する時に、動く物体による「ゴースティング(ghosting)」を実質的に低減することができる。手ぶれによるシフト504(三角形として例示されている)は、画像がピクセル単位で合成されうるように、粗いレジストレーション・プロセスと微細なレジストレーション・プロセスによって調整される。例えば、微細な合成プロセスは、低減された画像誤り及び低減されたノイズのために、第1及び第2のレジスターされた画像の値を平均することができる。結果として生じる合成された画像は、第1又は第2の画像データのどちらかよりも少ないノイズをもって、手ぶれによるシフティング及び画像中の物体の動きによるゴースティングなどの画像に関する問題の補正又は改善を提供する。
例示的であって限定的ではない例として、データフロー501は、特定用途向け制御回路(ASCC)432によって制御される物体のぼやけ低減を伴う手ぶれ低減モードにおいて、図4のシステム400で実行されうる。ASCC 432は、サーチ領域制御信号435を介して、物体の動きを検出するために大きなサーチ領域を使用するように階層的なレジストレーション回路420に命令することができる。ASCC 432は所定のマージンをプラスした最大の予期又は測定されたノイズ値に従って閾値を設定するなどによって、閾値信号437を介して、互いに遠く離れたブロックを合成しないように粗い合成回路462に命令することができる。ASCC 432は、フィルタされた画像の特性に基づく比較を可能にするために、応答信号439を介して、各プレーン(plane)(例えば、Y、Cb、及びCr)に関して全通過(all-pass)モードにおいて動作するように、微細な合成回路464のフィルタ470及び472を構成することができる。ASCC 432は、テーブル信号433を介して、微細な合成回路464に、フィルタされた画像データの平均ピクセルMS差の大きさが、選択された量より少ない時には、粗い合成回路462から受信された第1の画像データ及び第2の画像データにおけるピクセルの値の平均を使用して出力画像データ480のピクセル値を生成させ、もしそうでなければ第1の画像データにおけるピクセルの値のみを使用させる、重み機能を提供するように重みテーブル434を構成することができる。
図6を参照すると、ハイダイナミックレンジ画像を生成するための画像合成の実施形態のオペレーションを論理的に例示する図が示される。第1の列621が、比較的短い露出時間を用いて取得された画像の処理経路を表し、適切に露出されている、露出適切部分602として表される画像の部分と、露出が不足している、露出不足部分604として表される画像の部分が結果として生じる。第2の列623が、比較的長い露出時間を用いて取得された画像の処理経路を表し、過度に露出されている、露出過度部分606として表される画像の部分と、適切に露出されている、露出適切部分608として表される画像の部分が結果として生じる。
例示的な実施形態において、ハイダイナミックレンジ(HDR)画像を提供する第1及び第2の画像のデータフロー601は、図1の画像合成モジュール118、図2の画像合成エンジン205、図3の画像合成エンジン305、図4の画像合成回路400、あるいはそれらの任意の組合せにおいて実行されうる。もう1つの例示的な実施形態において、HDR画像を提供する第1及び第2の画像のデータフロー601は、図12の画像の選択的な合成の方法1200、図13の階層的なレジストレーション・プロセス1300、図14の画像改善プロセス1400、あるいはそれらの任意の組合せに従って、実行されうる。
初めに、第1の処理経路621における第1の画像及び第2の処理経路623における第2の画像は、粗いレジストレーション612を提供する粗いレジストレーション・プロセスと、微細なレジストレーション614を提供する微細なレジストレーション・プロセスへの入力として提供される。粗いレジストレーション・プロセス及び微細なレジストレーション・プロセスは、第1の画像と第2の画像の間の差を決定する。
第2の画像のブロックは、粗い合成616を生成するために、画像のレジストレーションに基づいて、第1の画像のブロックと位置合せされる。粗い合成616は更に、図5で記述されたように、画像における物体の動きなどにより適切に適合しないレジスターされた画像のブロックを除去される。
微細な合成プロセスは、第1の画像の露出適切部分602を第2の画像の露出適切部分608とピクセル単位で合成し、適切に露出されたHDR画像を有する微細な合成が結果として生じる。ある実施形態では、他の画像向上機能が、微細な合成プロセスを使用して行われることができる。
例示的であり限定的ではない例として、データフロー601は、特定用途向け制御回路(ASCC)432によって制御されるハイダイナミックレンジ・モードにおいて、図4のシステム400で実行されうる。ASCC 432は、サーチ領域制御信号435を介して、非常に小さいあるいはゼロのサーチ領域を使用するなど、微細な動きベクトル推定に依存しないように階層的なレジストレーション回路420に命令することができる。ASCC 432は、閾値信号437を介して、非常に高い閾値を使用する、あるいは廃棄ブロックを使用不可にするように粗い合成回路462に命令することができる。ASCC 432は、フィルタされた画像の特性に基づく比較を可能にするために、応答信号439を介して、参照画像に関する輝度フィルタを平均に設定し、またその他全てをゼロに設定するように、微細な合成回路464のフィルタ470及び472を構成することができる。ASCC 432は、テーブル信号433を介して、フィルタされた画像データの平均ピクセルMS差が、第1の量より小さい時には、第1の画像データのピクセルの値を使用し、フィルタされた画像データの平均ピクセルMS差が、第2の量より大きい時には、第2の画像データのピクセルの値を使用して微細な合成回路464に出力画像データ480のピクセル値を生成させ、またフィルタされた画像データの平均ピクセルMS差の大きさが、第1の量と第2の量の間にある時には、粗い合成回路から受信された第1の画像データ及び第2の画像データにおけるピクセルの値の平均への円滑な移行を生じさせる、重み機能を提供するように重みテーブル434を構成することができる。
図7は、被写界深度の向上を提供する画像合成エンジンの実施形態のオペレーションを論理的に例示する図である。図7によって例示されているように、第1の処理経路721における第1の画像は、焦点を合された近視野部分702と、ぼやけている遠視野部分704とを含む。第2の処理経路723における第2の画像は、ぼやけている近視野部分706と、焦点を合された遠視野部分708とを含む。
例示的な実施形態において、被写界深度の向上を提供する第1及び第2の画像のデータフロー701は、図1の画像合成モジュール118、図2の画像合成エンジン205、図3の画像合成エンジン305、図4の画像合成回路400、あるいはそれらの任意の組合せにおいて実行されうる。もう1つの例示的な実施形態において、被写界深度の向上を提供する第1及び第2の画像のデータフロー701は、図12の画像の選択的な合成の方法1200、図13の階層的なレジストレーション・プロセス1300、図14の画像改善プロセス1400、あるいはそれらの任意の組合せに従って、実行されうる。
初めに、第1の画像及び第2の画像は、粗いレジストレーション画像712を生成する粗いレジストレーション・プロセスと、微細なレジストレーション画像714を生成する微細なレジストレーション・プロセスへの入力として提供される。粗いレジストレーション画像712及び微細なレジストレーション画像714は、第1の画像と第2の画像の間の差を決定するように構成される。レジストレーション後、第2の画像のブロックは、粗い合成画像716を生成するための粗い合成プロセスによって、画像のレジストレーションに基づいて第1の画像のブロックと位置合せされる。粗い合成プロセスは更に、レジスターされた画像のうちの1つにおいて動く物体により適合しないブロックを除去する。
微細な合成プロセスは、第1の画像の焦点を合された近視野部分702を第2の画像の焦点を合された遠視野部分708とピクセル単位で合成し、微細な合成画像718を生成するための焦点を合された合成画像が結果として生じる。ある実施形態では、他の画像向上機能が、微細な合成プロセスを使用して行われることができる。向上された被写界深度を有する画像が提供される。
例示的であって限定的ではない例として、データフロー701は、特定用途向け制御回路(ASCC)432によって制御される向上された被写界深度モードにおいて、図4のシステム400で実行されうる。ASCC 432は、サーチ領域制御信号435を介して、物体の動き検出を可能にするために大きいサーチ領域を使用するように階層的なレジストレーション回路420に命令することができる。ASCC 432は、所定のマージンをプラスした最大の予期又は測定されたノイズ値に従って閾値を設定するなどによって、閾値信号437を介して、互いに遠く離れたブロックを合成しないように粗い合成回路462に命令することができる。ASCC 432は、フィルタされた画像の特性に基づく比較を可能にするために、応答信号439を介して、輝度データに関しては高域フィルタ応答、また彩度データに関してはゼロを有するように、微細な合成回路464のフィルタ470及び472を構成することができる。ASCC 432は、テーブル信号433を介して、微細な合成回路464に、フィルタされた画像データの平均ピクセルMS差が、ゼロより小さい時には、第1の画像データのピクセルの値を使用して出力画像データ480のピクセル値を生成させ、フィルタされた画像データの平均ピクセルMS差が、ゼロより大きい時には、第2の画像データにおけるピクセルの値を使用するための移行させる、重み機能を提供するように重みテーブル434を構成することができる。
図8を参照すると、横色収差が例示されている。図8によって例示されているように、入ってくる光は、レンズ上のプレーン803、805及び807の入射として図示されている。レンズの屈折する性質により、入射光の各検出された色は、センサー配列において受け取られる時に、わずかに異なる視野(filed of view)を有することができ、それぞれ視野813、815、及び817として例示されている。特定の実施形態において、赤、緑、及び青カラー・プレーン(color plane)などのセンサー出力を使用して生成される3つのカラー・プレーンのレジストレーションが、異なる視野を補償することができる。
図9及び図10は、それぞれ幾何ひずみを有する画像902及び1002を例示する。幾何ひずみは、レンズひずみ及び画像化システムの機械、光学、及び電子のコンポーネントにおける他のひずみを含む、多くの要因によって引き起こされうる。特定の実施形態においては、幾何学的にひずんだ画像の再サンプリング(resampling)が、幾何ひずみの補正を行うことができる。
図11は、画像の幾何ひずみの補正を提供する画像合成エンジンの実施形態のオペレーションを論理的に例示するブロック図である。図11では、粗いレジストレーション画像1112を生成するために、幾何ひずみを有する単一の画像1104が、粗いレジストレーション・プロセスへの入力として提供される。粗いレジストレーション・プロセスは、画像1104の粗い再サンプリングを作成するために、画像化システムの機械、光学、及び電子のコンポーネントによって引き起こされる既知の幾何ひずみに基づき、またあらかじめ定義されうる、粗いレジストレーション・ベクトルの組を使用することができる。
その後、微細なレジストレーション・プロセスが、微細なレジストレーション画像1114を生成するための画像1104の微細な再サンプリングを作成するために、既知の幾何ひずみに基づき、またあらかじめ定義されうる微細なレジストレーション・ベクトルの組を使用することができる。再サンプリングされた画像1115は、次に、粗い合成画像1116を生成する粗い合成プロセスと、微細な合成画像1118を生成する微細な合成プロセスに提供される。特定の実施形態において、画像1104はまた、補正された画像1120を提供する他の補正のために、他の画像と合成されうる。
例示的な実施形態において、画像の幾何ひずみの補正を提供する該画像のデータフロー1101は、図1の画像合成モジュール118、図2の画像合成エンジン205、図3の画像合成エンジン305、図4のシステム400、あるいはそれらの任意の組合せにおいて実行されうる。もう1つの例示的な実施形態において、画像の幾何ひずみの補正を提供する該画像のデータフロー1101は、図12の画像の選択的な合成の方法1200、図13の階層的なレジストレーション・プロセス1300、図14の画像改善プロセス1400、あるいはそれらの任意の組合せに従って、実行されうる。
図12を参照すると、画像の選択的な合成の方法が、全般的に1200で示されている。例示的な実施形態において、方法1200は、図1の画像合成モジュール118、図2の画像合成エンジン205、図3の画像合成エンジン305、図4のシステム400、あるいはそれらの任意の組合せによって実行されうる。1202において、第1の画像に対応する第1の画像データと第2の画像に対応する第2の画像データが受信される。特定の実施形態において、第1の画像データ及び第2の画像データは、輝度成分及び彩度成分を有する色空間において受信されうる。別の実施形態において、第1の画像データ及び第2の画像データは、YCbCr色空間で受信されうる。1204において、第1の画像データの複数の対応部分に関連して、第2の画像データの複数の部分との間の複数のオフセットに対応する動きベクトル・データの組が、計算されうる。例えば、動きベクトル・データの組は、画像データを粗く位置合せするための第1の動きベクトルの組を生成する粗いレジストレーション回路と、第1の動きベクトルの組に基づいて、より微細な動きベクトルの組を生成する微細なレジストレーション回路とを用いて計算されうる。
1206において、第2の画像データは、記述されたように、第1の画像データの複数の対応部分に関連して、第2の画像データの複数の部分との間の複数のオフセットに対応する動きベクトル・データの組を適用することによって調整される。その結果、第2の画像データは、第1の画像データ及び第2の画像データを捕捉する間のカメラの動き、あるいは画像における物体の動きを補償するために、第1の画像データとより密接に(closely)位置合せされるように調整される。1208において、第3の画像データが、第1の画像データの第1の特性を第2の画像データの第2の特性と比較することに基づいて、少なくとも部分的に、第1の画像データからの第1の値と調整された第2の画像データからの第2の値を選択的に合成することによって生成される。比較されうる特性の例は、画像の焦点、画像のコントラスト、画像の輝度成分の間の偏差、及び画像のフィルタされた特性(例えば、低域フィルタされたデータ、高域フィルタされたデータ)を含む。
特定の実施形態において、選択的な合成は、粗い合成オペレーション及び微細な合成オペレーションを含む。粗い合成オペレーションは、調整された第2の画像データの複数のマクロブロックに対して実行されることができ、また微細な合成オペレーションは、第1の画像データ及び第2の調整された画像データの複数のピクセルに対して実行されうる。粗い合成オペレーションは、調整された第2の画像データのうちの1つ又は複数のマクロブロックと第1の画像データの複数の対応マクロブロックとの間の差が、選択可能な閾値を超えた時に、調整された第2の画像データのうちの1つ又は複数のマクロブロックを選択的に廃棄すること含むことができる。例えば、選択可能な閾値は、図4の特定用途向け制御回路432によって提供される、閾値制御信号437によって示されうる。別の特定の実施形態において、微細な合成オペレーションは、フィルタされた画像の特性を比較するために、第1の画像データ及び調整された第2の画像データをフィルタすることを含み、また該第1の値及び該第2の値は、フィルタされた画像の特性に基づいて選択的に合成される。フィルタされた画像の特性は、図4の平均ピクセル差回路474で比較され、また第1の画像データ及び調整された第2の画像データの重み付けされた合成のために、重みを生成するための重み付けテーブル434に問い合わせる(query)ために使用される。
特定の実施形態において、第1の画像データの第1の特性及び第2の画像データの第2の特性は、画像の焦点状態(即ち、焦点が合っている、又は焦点が合っていない)、第1の画像及び第2の画像内の物体の移動、又は画像の露出を示す。加えて、特定の実施形態において、第1及び第2の画像データの複数の値は、第1の画像データのフィルタされた部分を第2の画像データのフィルタされた部分と比較することに基づいて合成されうる。例えば、第1の画像データのフィルタされた部分は、図4の平均ピクセル差回路474で、第2の画像データのフィルタされた部分と比較されることができ、そして比較の結果が第1の画像データの値と第2の画像データの値に適用される相対的な重みを決定するために使用されうる。第1の画像データ及び第2の画像データは、例えば、カメラの画像センサーで捕捉された連続するフレームであることができる。
ある実施形態において、ある条件が満たされる時には、第1又は第2の画像データのピクセル又はブロックは、廃棄され、そして第1又は第2の画像データのうちの他方からのピクセル又はブロックと置き換えられることができる。例えば、調整された第2の画像のマクロブロック内のピクセルは、画像が、手ぶれ又は動きの検出のために調整される時に、廃棄されうる。第1の画像又は調整された第2の画像におけるピクセルは、被写界深度の向上のために廃棄されうる。結果として生じる第3の画像データは、手ぶれ、動き、被写界深度の向上、横色収差、及び幾何ひずみに関して、第1の画像あるいは調整された第2の画像と比較して向上されうる。
特定の実施形態において、図13によって例示されているように、動きベクトル・データの組は、階層的なレジストレーション・プロセス1300に基づいて決定される。階層的なレジストレーション・プロセス1300は、図1の画像合成モジュール118、図2の画像合成エンジン205、図3の画像合成エンジン305、図4のシステム400、あるいはそれらの任意の組合せによって実行されうる。階層的な構造プロセスは、解像度対頑強性の動作基点(resolution versus robustness operating points)を調整する能力を提供し、計算上の要求を低減する。階層的なレジストレーション・プロセス1300は、1302において、第1の画像の第1の部分と第2の画像の第1の部分との間の第1の位置合せオフセットを決定することと、1304において、第1の位置合せオフセットに基づいて、第1の画像の第2の部分と第2の画像の第2の部分との間の第2の位置合せオフセットを決定することとを含み、ここで、第1の画像の第2の部分は、第1の画像の第1の部分内にある。1つの特定の実施形態において、第1の画像の第1の部分は、第1の画像の3×3行列における9個の区分のうちの1つであり、そして第1の画像の第2の部分は、第1の画像の16ピクセル×16ピクセルの領域に対応する。
図14は、画像改善方法1400の実施形態を例示するフローチャートを図示する。例示的な実施形態において、画像改善方法1400は、図1の画像合成モジュール118、図2の画像合成エンジン205、図3の画像合成エンジン305、図4のシステム400、あるいはそれらの任意の組合せにおいて実行されうる。1402において、第1の動きベクトルの組が、第1の画像データの第1のブロックの組の各ブロックと第2の画像データの第1のブロックの組の対応ブロックとの間のオフセットに対応して決定される。例えば、第1の動きベクトルの組は、図4の粗い動きベクトルの組427であることができる。
1404において、第2の画像データの第1のブロックの組の特定のブロックに対応する第1の動きベクトルの組のうちの1つの動きベクトルが、第2の画像データの第2のブロックの組に該動きベクトルを適用するためにアップサンプルされ、第2の画像データの第2のブロックの組は、該特定のブロック内に含まれている。例えば、図4の動きベクトル・アップサンプリング回路428は、3×3の重なり合うブロックの組の特定のブロックを、特定のブロック内のマクロブロックの組にアップサンプルすることができる。
1406において、第1の画像データの第2のブロックの組の各々と、第1の動きベクトルの組のうちの1つの動きベクトルを適用した後の第2の画像データの第2のブロックの組の対応ブロックとの間のオフセットに対応する、第2の動きベクトルの組が決定される。例えば、第2の動きベクトルの組は、図4のマクロブロック・リファイン回路430によってリファインされる微細な動きベクトルの組429であることができる。1408において、第2の動きベクトルの組は、調整された第2の画像データを生成するために、第2の画像に適用される。
特定の実施形態において、第2の動きベクトルの組は、図3の入力326あるいは図4のマクロブロック・リファイン回路430で受信されるサーチ領域制御信号などの、制御入力を介して示される選択可能なサーチ領域に基づいて決定される。選択可能なサーチ領域は、第1の画像データの第2のブロックの組の各々と、第1の動きベクトルの組の該動きベクトルを適用した後の第2の画像データの第2のブロックの組の対応ブロックとの間のオフセットを制限することができる。
1410において、第1の画像データと調整された第2の画像データの部分が、選択的に合成される。例えば、第1の画像データと第2の画像データは、領域単位、ピクセル単位、又は両方で合成されうる。例示するために、第1の画像データと調整された第2の画像データは、図4の階層的な合成回路460によって合成されうる。
特定の実施形態において、第1の画像データと調整された第2の画像データの選択的な合成は、第3の画像データを生成する。第3の画像データは、第1の画像データより深い被写界深度、第1の画像データより少ないノイズ、又は第1の画像データより大きい動的解像度(dynamic resolution)を有することができる。
図15は、画像合成モジュールを含むシステムの特定の実施形態のブロック図である。システム1500は、携帯用電子デバイスにおいてインプリメントされることができ、またメモリ1532に結合されるデジタル信号プロセッサ(DSP)のような、信号プロセッサ1510を含む。システム1500は、画像合成モジュール1564を含む。例示的な例において、画像合成モジュール1564は、図1−5の任意のシステムを含み、図12−14の任意の方法、あるいはそれらの任意の組合せに従って動作する。画像合成モジュール1564は、信号プロセッサ1510に組み込まれることができ、あるいは個別のデバイスであることができる。
カメラ・インタフェース1568が、信号プロセッサ1510に結合され、また、カメラ1570のようなカメラにも結合される。カメラ1570は、ビデオカメラ又は静止画像カメラであることができ、あるいは両方の機能をインプリメントすることができる。表示制御装置1526は、信号プロセッサ1510及び表示装置1528に結合される。符号器/復号器(CODEC)1534もまた、信号プロセッサ1510に結合されうる。スピーカー1536及びマイクロホン1538は、CODEC 1534に結合されうる。無線インタフェース1540は、信号プロセッサ1510及び無線アンテナ1542に結合されうる。
特定の実施形態において、信号プロセッサ1510は、第1の画像データの第1のブロックの組の各ブロックと第2の画像データの第1のブロックの組の対応ブロックとの間のオフセットに対応する第1の動きベクトルの組を決定するように適合される画像合成モジュール1564を含む。画像合成モジュール1564は、第2の画像データの第1のブロックの組の特定のブロックに対応する第1の動きベクトルの組のうちの1つの動きベクトルをアップサンプルして、第2の画像データの第2のブロックの組に該動きベクトルを適用するように適合されうる。第2の画像データの第2のブロックの組は、該特定のブロック内に含まれる。画像合成モジュール1564は、第1の画像データの第2のブロックの組の各々と、第1の動きベクトルの組の該動きベクトルを適用した後の第2の画像データの第2のブロックの組の対応ブロックとの間のオフセットに対応する、第2の動きベクトルの組を決定するように適合されうる。画像合成モジュール1564は、調整された第2の画像データを生成するために、第2の画像データに第2の動きベクトルの組を適用するように適合されうる。画像合成モジュール1564は、第3の画像データを生成するために、第1の画像データと調整された第2の画像データの部分を選択的に合成するように適合されうる。
例えば、画像合成モジュール1564は、粗い動きベクトルの組427のうちの1つの動きベクトルをアップサンプルするための動きベクトル・アップサンプリング回路428を含む図4の階層的なレジストレーション回路420を含むことができる。アップサンプリングされた動きベクトルは、3×3グリッドのブロックのうちの特定のブロックに対応することができ、また特定のブロック内の各マクロブロックにアップサンプルされうる。画像合成モジュール1564はまた、粗い合成回路462及び微細な合成回路464などで、選択的に画像データを合成するための図4の階層的な合成回路460を含む。
信号プロセッサ1510はまた、画像合成モジュール1564によって処理された画像データを生成するように適合されうる。処理された画像データは、例示的な、限定的でない例として、ビデオカメラ1570からのビデオ・データ、無線インタフェース1540を介した無線送信からの画像データ、あるいはユニバーサル・シリアル・バス(USB)インタフェース(示されていない)を介して結合される外部デバイスのようなその他のソースからの画像データを含むことができる。
表示制御装置1526は、処理された画像データを受信し、そして表示装置1528に処理された画像データを提供するように構成される。加えて、メモリ1532は、処理された画像データを受信し、記憶するように構成されうる、また、無線インタフェース1540は、アンテナ1542による送信のために、処理された画像データを受信するように構成されうる。
特定の実施形態において、信号プロセッサ1510、表示制御装置1526、メモリ1532、CODEC 1534、無線インタフェース1540、及びカメラ・インタフェース1568は、システム−イン−パッケージ(system-in-package)又はシステム−オン−チップ(system-on-chip)・デバイス1522に含まれる。特定の実施形態において、入力デバイス1530及び電源1544は、システム・オン・チップ・デバイス1522に結合される。その上、特定の実施形態においては、図15に例示されているように、表示装置1528、入力デバイス1530、スピーカー1536、マイクロホン1538、無線アンテナ1542、ビデオカメラ1570、及び電源1544は、システム−オン−チップ・デバイス1522の外部にある。しかしながら、表示装置1528、入力デバイス1530、スピーカー1536、マイクロホン1538、無線アンテナ1542、ビデオカメラ1570、及び電源1544は、インタフェース又は制御装置などの、システム−オン−チップ・デバイス1522のコンポーネントに結合されうる。
特定の実施形態において、システム1500は、携帯情報端末(「PDA」)、セルラー電話、あるいは同様のデバイスとして機能することができる。システム1500は、入力デバイス1530を通じてなど、ユーザ制御可能な入力を提供するように適合されることができ、また、制御画像合成モジュール1564を制御し、ユーザ制御可能な入力を受信するための制御回路を含むことができる。
当業者は、開示された実施形態に関連して記述された様々な例示的な論理ブロック(logical blocks)、構成、モジュール、回路、及びアルゴリズムのステップが、電子ハードウェア、コンピュータ・ソフトウェア、あるいは両方の組合せとして、インプリメントされ得ることを更に評価するであろう。ハードウェアとソフトウェアのこの互換性を明確に例示するために、様々な例示的なコンポーネント、ブロック、構成、モジュール、回路、及びステップが、概してそれらの機能性の点から、上に記述された。そのような機能が、ハードウェアあるいはソフトウェアとしてインプリメントされるかどうかは、オーバーオールなシステムに課された特定のアプリケーション及び設計の制約に依存する。当業者は、それぞれの特定のアプリケーションに関して多様な仕方(ways)において、該記述された機能をインプリメントすることができるが、そのようなインプリメンテーションの決定は、本開示の範囲から逸脱すると解釈されるべきではない。
ここに開示された実施形態に関連して記述されるアルゴリズム又は方法のステップは、ハードウェア、プロセッサによって実行されるソフトウェア・モジュール、あるいは2つの組み合わせにおいて直接具体化(embodied)されうる。ソフトウェア・モジュールは、ランダム・アクセス・メモリ(RAM)、フラッシュメモリ、読み出し専用メモリ(ROM)、プログラマブル読み出し専用メモリ(PROM)、消去可能PROM(EPROM)、電気的消去可能PROM(EEPROM)、レジスタ、ハードディスク、リムーバブル・ディスク、コンパクト・ディスク読み出し専用メモリ(CD−ROM)、あるいは当該技術において知られている記憶媒体のその他任意の形状において、常駐する(reside)ことができる。典型的な記憶媒体は、プロセッサが記憶媒体から情報を読み、またそれに情報を書くことができるように、プロセッサに結合されうる。代わりにおいて、該記憶媒体はプロセッサに統合されうる。プロセッサ及び記憶媒体は、特定用途向け集積回路(ASIC)に常駐することができる。ASICは、計算デバイス又はユーザ端末に常駐することができる。代わりにおいて、プロセッサ及び記憶媒体は、ユーザ端末又は計算デバイスにおける個別のコンポーネントとして常駐することができる。
開示された実施形態についての前の記述は、何れの当業者が、開示された実施形態を製造又は使用することができるようにするために提供される。これらの実施形態に対する様々な修正(modification)は、当業者にとっては、容易に)明白であることができ、ここに定義された法則は、本開示の精神又は範囲から逸脱することなく、他の実施形態に応用されうる。従って、本開示は、ここに示される実施形態に限定されるようには意図されず、次に続く特許請求の範囲によって定義されるような、法則及び新規な特徴と一致する最も広い範囲を与えられることとなる。

Claims (27)

  1. 第1の画像に対応する第1の画像データと第2の画像に対応する第2の画像データを受信することと、
    調整された第2の画像データを生成するために、前記第1の画像データの複数の対応部分に関連して、前記第2の画像データの複数の部分の間の複数のオフセットに対応する動きベクトル・データの組を適用することによって、前記第2の画像データを調整することと、
    前記第1の画像データの第1の特性を前記第2の画像データの第2の特性と比較することに少なくとも部分的に基づいて、前記第1の画像データからの第1の値と前記調整された第2の画像データからの第2の値を選択的に合成することによって、第3の画像データを生成することと、
    を具備する方法。
  2. 前記選択的な合成は、粗い合成オペレーション及び微細な合成オペレーションを含む、請求項1に記載の方法。
  3. 前記粗い合成オペレーションは、前記調整された第2の画像データの複数のマクロブロックに対して実行され、なお、前記微細な合成オペレーションは、前記第1の画像データと前記第2の調整された画像データの複数のピクセルに対して実行される、請求項2に記載の方法。
  4. 前記粗い合成オペレーションは、前記調整された第2の画像データのうちの1つ又は複数のマクロブロックと前記第1の画像データの複数の対応マクロブロックとの間の差が、選択可能な閾値を超過する時に、前記調整された第2の画像データのうちの前記1つ又は複数のマクロブロックを選択的に廃棄すること含む、請求項2に記載の方法。
  5. 前記微細な合成オペレーションは、フィルタされた画像の複数の特性を比較するために、前記第1の画像データ及び前記調整された第2の画像データをフィルタすることを含み、なお、前記第1の値及び前記第2の値は、前記フィルタされた画像の複数の特性に基づいて選択的に合成される、請求項2に記載の方法。
  6. 前記第1の特性及び前記第2の特性は、焦点状態、前記第1の画像及び前記第2の画像内の物体の動き、又は露出量を示す、請求項1に記載の方法。
  7. 前記第1の値及び前記第2の値は、前記第1の画像データのフィルタされた部分を前記第2の画像データのフィルタされた部分と比較することに少なくとも部分的に基づいて選択的に合成される、請求項1に記載の方法。
  8. 前記第1の画像データ及び前記第2の画像データは、カメラの画像センサーによって捕捉された連続するフレームを含み、なお、前記第1の画像データは、前記第1の画像に対応する第1のマクロブロックの組を含み、なお、前記第2の画像データは、前記第2の画像に対応する第2のマクロブロックの組を含み、なお、前記第2の画像データを調整することは、前記第2のマクロブロックの組に前記動きベクトル・データの組を適用することを含む、請求項1に記載の方法。
  9. 前記動きベクトル・データの組は、階層的なレジストレーション・プロセスを介して決定される、請求項1に記載の方法。
  10. 前記階層的なレジスレーション・プロセスは、
    前記第1の画像の第1の部分と前記第2の画像の第1の部分との間の第1の位置合せオフセットを決定すること;及び
    前記第1の位置合せオフセットに基づいて、前記第1の画像の第2の部分と前記第2の画像の第2の部分との間の第2の位置合せオフセットを決定すること、なお、前記第1の画像の前記第2の部分は、前記第1の画像の前記第1の部分内にある、
    を具備する、請求項9に記載の方法。
  11. 手振れ低減を補償するように、画像が調整される時に、前記調整された第2の画像データの複数のマクロブロック内の複数のピクセルが廃棄される、請求項1に記載の方法。
  12. 前記第3の画像データは、複数の横色収差を補償するように、前記第1の画像データ及び前記第2の画像データを調整する、請求項1に記載の方法。
  13. 第1の画像データの第1のブロックの組の各ブロックと第2の画像データの第1のブロックの組の対応ブロックとの間のオフセットに対応する、第1の動きベクトルの組を決定することと;
    前記第2の画像データの前記第1のブロックの組の特定のブロックに対応する前記第1の動きベクトルの組のうちの1つの動きベクトルをアップサンプリングして、前記第2の画像データの第2のブロックの組に前記動きベクトルを適用する、なお、前記第2の画像データの前記第2のブロックの組は、前記特定のブロック内に含まれる;
    前記第1の画像データの第2のブロックの組の各々と、前記第2のブロックの組に前記動きベクトルを適用した後の前記第2の画像データの前記第2のブロックの組の対応ブロックとの間のオフセットに対応する、第2の動きベクトルの組を決定することと;
    調整された第2の画像データを生成するために、前記第2の動きベクトルの組を前記第2の画像データに適用することと;
    第3の画像データを生成するために、前記第1の画像データと前記調整された第2の画像データを選択的に合成することと;
    を具備する方法。
  14. 前記第3の画像データは、前記第1の画像データより深い被写界深度、前記第1の画像データより少ないノイズ、又は前記第1の画像データより大きいダイナミックレンジ、のうちの少なくとも1つを有する、請求項13に記載の方法。
  15. 前記第2の動きベクトルの組は、制御入力を介して示される選択可能なサーチ領域に基づいて決定される、請求項13に記載の方法。
  16. 前記選択可能なサーチ領域は、前記第1の画像データの前記第2のブロックの組の各々と、前記第2のブロックの組に前記動きベクトルを適用した後の前記第2の画像データの前記第2のブロックの組の前記対応ブロックとの間の前記オフセットを制限する、請求項15に記載の方法。
  17. 第1の画像に対応する第1の画像データと第2の画像に対応する第2の画像データに基づいて、動きベクトル・データの組を生成するように構成されるレジストレーション回路と;
    前記第1の画像データと調整された第2の画像データを選択的に合成するために結合される合成回路と、なお、前記調整された第2の画像データは、前記動きベクトル・データに従って調整された後の前記第2の画像データに対応する;
    第3の画像データを生成するために、前記合成回路を制御するための制御回路と;
    を具備する装置。
  18. 前記レジストレーション回路は、粗いレジストレーション回路及び微細なレジストレーション回路を含む、請求項17に記載の装置。
  19. 前記合成回路は、粗い合成回路及び微細な合成回路を含む、請求項17に記載の装置。
  20. 前記レジストレーション回路は、
    前記第1の画像データを受け取るために結合される第1の入力と、前記第2の画像データを受け取るために結合される第2の入力と、動きベクトル生成の出力とを有する、動きベクトル生成回路;
    前記動きベクトル生成の出力を受け取るために結合される入力を有し、動きベクトル・アップサンプリングの出力を提供する、動きベクトル・アップサンプリング回路;及び
    前記第1の画像データを受け取るために結合される第1の入力と、前記第2の画像データを受け取るために結合される第2の入力と、前記動きベクトル・アップサンプリングの出力を受け取るために結合される第3の入力とを有し、またマクロブロック動きベクトルの出力及びマクロブロック差の出力を有する、マクロブロック動きベクトル・リファイン回路;
    を具備する、請求項17に記載の装置。
  21. 前記合成回路は、
    前記第1の画像データを受信するために結合される第1の入力と、前記第2の画像データを受信するために結合される第2の入力と、マクロブロック動きベクトル信号を受信するために結合される第3の入力と、位置合せされた第1の画像出力及び位置合せされた第2の画像出力とを有する、マクロブロック画像位置合せ回路;
    前記位置合せされた第1の画像出力を受信するために結合される第1の入力と、前記位置合せされた第2の画像出力を受信するために結合される第2の入力とを有し、また第1の画像差の出力及び第2の画像差の出力を有する、ブロック差弁別回路;及び
    前記ブロック差弁別回路に結合される第1の入力を有し、また平均ピクセル差の結果を示すピクセル差の出力信号を提供するように構成される、平均ピクセル差回路、
    を具備する、請求項17に記載の装置。
  22. 前記第1の画像差の出力と、フィルタされた第1の画像差の出力を提供する出力とを受信するために結合される第1の入力を有する、前記ブロック差弁別回路と前記平均ピクセル差回路との間に結合される第1のフィルタと、
    前記第2の画像差の出力を受信するために結合される第1の入力を有し、またフィルタされた第2の画像差の出力を提供するための出力を有する、前記ブロック差弁別回路と前記平均ピクセル差回路との間に結合される第2のフィルタと、
    を更に具備する、請求項21に記載の装置。
  23. カメラのレンズと、
    前記第1の画像データを生成し、前記第2の画像データを生成するために、前記カメラのレンズに結合される回路構成と、
    を更に具備する、請求項17に記載の装置。
  24. アンテナを介してデータを送信及び受信するための無線トランシーバに結合されるプロセッサを更に具備する、請求項23に記載の装置。
  25. 前記装置は、携帯情報端末(「PDA」)である、請求項23に記載の装置。
  26. 第1の画像に対応する第1の画像データと第2の画像に対応する第2の画像データに基づいて、動きベクトル・データの組を生成するためのレジストレーション手段と;
    前記第1の画像データと調整された第2の画像データを選択的に合成するための合成手段と、なお、前記調整された第2の画像データは、前記動きベクトル・データに従って調整された後の前記第2の画像データに対応する;
    第3の画像データを生成するために、前記合成手段を制御するための制御手段と;
    を具備する装置。
  27. カメラのレンズと、
    前記第1の画像データ及び前記第2の画像データを生成するために、前記カメラのレンズに結合される回路構成と、
    を更に具備する、請求項26に記載の装置。
JP2011542509A 2008-12-19 2009-12-18 選択的に画像を合成するためのシステム及び方法 Pending JP2012513173A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/340,522 2008-12-19
US12/340,522 US20100157079A1 (en) 2008-12-19 2008-12-19 System and method to selectively combine images
PCT/US2009/068842 WO2010071841A1 (en) 2008-12-19 2009-12-18 System and method to selectively combine images

Publications (1)

Publication Number Publication Date
JP2012513173A true JP2012513173A (ja) 2012-06-07

Family

ID=41718227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011542509A Pending JP2012513173A (ja) 2008-12-19 2009-12-18 選択的に画像を合成するためのシステム及び方法

Country Status (7)

Country Link
US (2) US20100157079A1 (ja)
EP (1) EP2380133A1 (ja)
JP (1) JP2012513173A (ja)
KR (1) KR20110099038A (ja)
CN (1) CN102246203A (ja)
TW (1) TW201036421A (ja)
WO (1) WO2010071841A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8339475B2 (en) 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
US20100157079A1 (en) 2008-12-19 2010-06-24 Qualcomm Incorporated System and method to selectively combine images
US8872910B1 (en) * 2009-06-04 2014-10-28 Masoud Vaziri Method and apparatus for a compact and high resolution eye-view recorder
KR101614914B1 (ko) * 2009-07-23 2016-04-25 삼성전자주식회사 모션 적응적 고대비 영상 획득 장치 및 방법
US8606009B2 (en) * 2010-02-04 2013-12-10 Microsoft Corporation High dynamic range image generation and rendering
US8478076B2 (en) 2010-07-05 2013-07-02 Apple Inc. Alignment of digital images and local motion detection for high dynamic range (HDR) imaging
JP5653104B2 (ja) * 2010-07-16 2015-01-14 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US20120019677A1 (en) * 2010-07-26 2012-01-26 Nethra Imaging Inc. Image stabilization in a digital camera
US8374453B2 (en) 2010-11-10 2013-02-12 Raytheon Company Integrating image frames
US20120188409A1 (en) * 2011-01-24 2012-07-26 Andrew Charles Gallagher Camera with multiple color sensors
US8810663B2 (en) * 2011-01-27 2014-08-19 Aptina Imaging Corporation Methods for motion correction for high-dynamic-range imaging systems
JP6058257B2 (ja) 2011-07-06 2017-01-11 アイキューブド研究所株式会社 画像出力装置、画像出力方法、およびプログラム
JP5546593B2 (ja) * 2011-09-02 2014-07-09 キヤノン株式会社 画像表示装置及びその制御方法
JP5896788B2 (ja) * 2012-03-07 2016-03-30 キヤノン株式会社 画像合成装置及び画像合成方法
JP5978949B2 (ja) * 2012-03-16 2016-08-24 富士通株式会社 画像合成装置及び画像合成用コンピュータプログラム
TWI585742B (zh) * 2012-08-17 2017-06-01 I-Cubed Res Center Inc An image output device, an image output method, and a program
CN104584532B (zh) * 2012-08-23 2017-07-28 富士胶片株式会社 图像处理装置、摄像装置、计算机、图像处理方法及程序
US20140125831A1 (en) * 2012-11-06 2014-05-08 Mediatek Inc. Electronic device and related method and machine readable storage medium
KR101440826B1 (ko) * 2013-02-05 2014-09-23 광주과학기술원 이미지 정합 방법 및 이미지 정합 장치
US9509919B2 (en) * 2014-11-17 2016-11-29 Duelight Llc System and method for generating a digital image
RU2013110494A (ru) 2013-03-11 2014-09-20 ЭлЭсАй Корпорейшн Устройство обработки изображений с уровнем оценки, реализующим программный и аппаратный алгоритмы разной точности
US9232119B2 (en) * 2013-10-08 2016-01-05 Raytheon Company Integrating image frames
US9010900B1 (en) * 2013-10-25 2015-04-21 Eastman Kodak Company Color-to-color correction in a printing system
EP3103100B1 (en) 2014-02-04 2019-11-06 Koninklijke Philips N.V. Method for registering and visualizing at least two images
US9582888B2 (en) * 2014-06-19 2017-02-28 Qualcomm Incorporated Structured light three-dimensional (3D) depth map based on content filtering
US9213287B1 (en) 2014-07-31 2015-12-15 Eastman Kodak Company Document registration using registration error model
US9346301B2 (en) 2014-07-31 2016-05-24 Eastman Kodak Company Controlling a web-fed printer using an image region database
US9162475B1 (en) * 2014-07-31 2015-10-20 Eastman Kodak Company Reducing registration errors using registration error model
US9250595B1 (en) 2014-07-31 2016-02-02 Eastman Kodak Company Controlling an electrophotographic printer using an image region database
US9340047B2 (en) 2014-07-31 2016-05-17 Eastman Kodak Copmany Controlling a printer using an image region database
US10282825B2 (en) * 2016-09-13 2019-05-07 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and imaging apparatus
JP2018055589A (ja) * 2016-09-30 2018-04-05 セイコーエプソン株式会社 プログラム、物体の追跡方法、表示装置
WO2018183206A1 (en) 2017-03-26 2018-10-04 Apple, Inc. Enhancing spatial resolution in a stereo camera imaging system
JP6647246B2 (ja) * 2017-06-28 2020-02-14 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP7057079B2 (ja) * 2017-09-01 2022-04-19 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
CN110099207B (zh) * 2018-01-31 2020-12-01 成都极米科技股份有限公司 一种用于克服摄像头不稳定的有效图像计算方法
US10440341B1 (en) * 2018-06-07 2019-10-08 Micron Technology, Inc. Image processor formed in an array of memory cells
JP7247501B2 (ja) * 2018-09-21 2023-03-29 富士フイルムビジネスイノベーション株式会社 画像処理装置およびプログラム
US11184446B2 (en) 2018-12-05 2021-11-23 Micron Technology, Inc. Methods and apparatus for incentivizing participation in fog networks
US11256778B2 (en) 2019-02-14 2022-02-22 Micron Technology, Inc. Methods and apparatus for checking the results of characterized memory searches
US11327551B2 (en) 2019-02-14 2022-05-10 Micron Technology, Inc. Methods and apparatus for characterizing memory devices
US10867655B1 (en) 2019-07-08 2020-12-15 Micron Technology, Inc. Methods and apparatus for dynamically adjusting performance of partitioned memory
CN114503541A (zh) * 2019-08-06 2022-05-13 三星电子株式会社 用于多帧融合的有效率的正则化图像对准的装置和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050173A (ja) * 1998-07-24 2000-02-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
JP2009505477A (ja) * 2005-08-12 2009-02-05 エヌエックスピー ビー ヴィ ディジタル画像安定化のための方法及びシステム

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US518118A (en) * 1894-04-10 William e
JP2863188B2 (ja) * 1989-03-22 1999-03-03 松下電器産業株式会社 撮像装置
JPH03270567A (ja) 1990-03-20 1991-12-02 Fuji Photo Film Co Ltd 画像信号補正方法
US5402171A (en) * 1992-09-11 1995-03-28 Kabushiki Kaisha Toshiba Electronic still camera with improved picture resolution by image shifting in a parallelogram arrangement
US5519441A (en) * 1993-07-01 1996-05-21 Xerox Corporation Apparatus and method for correcting offset and gain drift present during communication of data
US5450502A (en) * 1993-10-07 1995-09-12 Xerox Corporation Image-dependent luminance enhancement
US5801773A (en) * 1993-10-29 1998-09-01 Canon Kabushiki Kaisha Image data processing apparatus for processing combined image signals in order to extend dynamic range
US5647360A (en) * 1995-06-30 1997-07-15 Siemens Corporate Research, Inc. Digital subtraction angiography for 3D diagnostic imaging
US5690106A (en) * 1995-06-30 1997-11-25 Siemens Corporate Research, Inc. Flexible image registration for rotational angiography
JPH10319517A (ja) * 1997-05-21 1998-12-04 Konica Corp 画像形成装置、及びレンズ付きフィルムユニットの製造方法
US5963653A (en) * 1997-06-19 1999-10-05 Raytheon Company Hierarchical information fusion object recognition system and method
US6298144B1 (en) * 1998-05-20 2001-10-02 The United States Of America As Represented By The National Security Agency Device for and method of detecting motion in an image
JP3707259B2 (ja) * 1998-09-10 2005-10-19 コニカミノルタフォトイメージング株式会社 画像合成方法及びこの方法を用いた画像合成装置
US20010035976A1 (en) * 2000-02-15 2001-11-01 Andrew Poon Method and system for online presentations of writings and line drawings
US6416477B1 (en) * 2000-08-22 2002-07-09 Koninklijke Philips Electronics N.V. Ultrasonic diagnostic systems with spatial compounded panoramic imaging
DE10064184C1 (de) * 2000-12-22 2002-04-04 Fraunhofer Ges Forschung Verfahren und Vorrichtung zur Bilderzeugung unter Verwendung mehrerer Belichtungszeiten
US7133070B2 (en) * 2001-09-20 2006-11-07 Eastman Kodak Company System and method for deciding when to correct image-specific defects based on camera, scene, display and demographic data
EP1313066B1 (en) * 2001-11-19 2008-08-27 STMicroelectronics S.r.l. A method for merging digital images to obtain a high dynamic range digital image
US7120293B2 (en) * 2001-11-30 2006-10-10 Microsoft Corporation Interactive images
US7119837B2 (en) * 2002-06-28 2006-10-10 Microsoft Corporation Video processing system and method for automatic enhancement of digital video
GB0229096D0 (en) * 2002-12-13 2003-01-15 Qinetiq Ltd Image stabilisation system and method
US7295232B2 (en) * 2003-01-15 2007-11-13 Canon Kabushiki Kaisha Camera and program
US6879731B2 (en) * 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
US7142723B2 (en) * 2003-07-18 2006-11-28 Microsoft Corporation System and process for generating high dynamic range images from multiple exposures of a moving scene
US20050117799A1 (en) * 2003-12-01 2005-06-02 Chiou-Shann Fuh Method and apparatus for transforming a high dynamic range image into a low dynamic range image
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US7586518B2 (en) * 2004-06-18 2009-09-08 Canon Kabushiki Kaisha Imaging technique performing focusing on plurality of images
US7457477B2 (en) * 2004-07-06 2008-11-25 Microsoft Corporation Digital photography with flash/no flash extension
JP4530277B2 (ja) * 2005-02-25 2010-08-25 株式会社リコー 画像再生装置、画像再生方法、プログラムおよび記録媒体
US7755667B2 (en) * 2005-05-17 2010-07-13 Eastman Kodak Company Image sequence stabilization method and camera having dual path image sequence stabilization
ATE431397T1 (de) * 2005-06-01 2009-05-15 Fraunhofer Ges Forschung Verfahren zur optischen bestimmung des dynamischen verhaltens von kontrahierenden zellen
US7489825B2 (en) * 2005-07-13 2009-02-10 Ge Medical Systems Method and apparatus for creating a multi-resolution framework for improving medical imaging workflow
JP2007028088A (ja) 2005-07-14 2007-02-01 Konica Minolta Holdings Inc 撮像装置及び画像処理方法
US20070033090A1 (en) * 2005-08-08 2007-02-08 Connors Daniel P Method for substitution of employees in a service engagement
US20090220173A1 (en) * 2005-10-12 2009-09-03 Active Optics Pty Limited Image processing method and system
US7623683B2 (en) * 2006-04-13 2009-11-24 Hewlett-Packard Development Company, L.P. Combining multiple exposure images to increase dynamic range
CN100539648C (zh) 2006-05-11 2009-09-09 精工爱普生株式会社 摄像元件及摄像装置和方法
US7636496B2 (en) 2006-05-17 2009-12-22 Xerox Corporation Histogram adjustment for high dynamic range image mapping
US7639893B2 (en) * 2006-05-17 2009-12-29 Xerox Corporation Histogram adjustment for high dynamic range image mapping
KR20080009787A (ko) 2006-07-25 2008-01-30 세메스 주식회사 기판 정렬 감지 센서를 구비한 기판 지지 장치
JP4762089B2 (ja) * 2006-08-31 2011-08-31 三洋電機株式会社 画像合成装置及び方法並びに撮像装置
WO2008031089A2 (en) * 2006-09-08 2008-03-13 Sarnoff Corporation System and method for high performance image processing
TW200820123A (en) 2006-10-20 2008-05-01 Primax Electronics Ltd Method and system of generating high dynamic range image corresponding to specific scene
KR100888429B1 (ko) 2007-05-03 2009-03-11 엠텍비젼 주식회사 영상 밝기 조절 장치 및 그 방법
JP4341695B2 (ja) 2007-05-17 2009-10-07 ソニー株式会社 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法
CN101420531A (zh) * 2007-10-23 2009-04-29 鸿富锦精密工业(深圳)有限公司 高动态范围图片撷取装置及方法
JP5082776B2 (ja) * 2007-10-31 2012-11-28 オムロン株式会社 画像処理装置
US8724921B2 (en) * 2008-05-05 2014-05-13 Aptina Imaging Corporation Method of capturing high dynamic range images with objects in the scene
US20100015078A1 (en) * 2008-07-18 2010-01-21 Yujun Li Conditioning composition comprising dual cationic surfactant system, aminosilicone and silicone resin
US20100157079A1 (en) 2008-12-19 2010-06-24 Qualcomm Incorporated System and method to selectively combine images
US8339475B2 (en) 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050173A (ja) * 1998-07-24 2000-02-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
JP2009505477A (ja) * 2005-08-12 2009-02-05 エヌエックスピー ビー ヴィ ディジタル画像安定化のための方法及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN5012006038; BOGONI L et al: 'PATTERN-SELECTIVE COLOR IMAGE FUSION' PATTERN RECOGNITION V34 N8, 20010801, P1515-1526, ELSEVIER *

Also Published As

Publication number Publication date
TW201036421A (en) 2010-10-01
EP2380133A1 (en) 2011-10-26
US8797421B2 (en) 2014-08-05
WO2010071841A1 (en) 2010-06-24
US20130251283A1 (en) 2013-09-26
US20100157079A1 (en) 2010-06-24
CN102246203A (zh) 2011-11-16
KR20110099038A (ko) 2011-09-05

Similar Documents

Publication Publication Date Title
US8797421B2 (en) System and method to selectively combine images
US8111300B2 (en) System and method to selectively combine video frame image data
JP5612017B2 (ja) カメラの手ぶれ低減システム
JP3974634B2 (ja) 撮像装置および撮像方法
TW201309003A (zh) 圖像擷取裝置及影像處理方法
JP2011130169A (ja) 画像処理装置及び撮影装置
EP4218226A1 (en) Image signal processing in multi-camera system
JP2008277896A (ja) 撮像装置および撮像方法
JP2012095341A (ja) 撮像装置
KR101337667B1 (ko) 휘도 정보에 기초하여 보정된 값들을 이용한 렌즈 롤 오프 보정 동작
US11843871B1 (en) Smart high dynamic range image clamping
JP2012235390A (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2012134745A (ja) 画像信号処理装置
JP5760654B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2008236739A (ja) 撮像装置および撮像方法
JP2013179566A (ja) 画像処理装置および撮像装置
JP2009022044A (ja) 画像処理装置及び画像処理プログラム
US8406558B2 (en) Imaging apparatus, image processing apparatus, and image processing method
US20240214692A1 (en) High dynamic range region based compute gating
JP5854801B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2024144914A1 (en) High dynamic range region based compute gating
JP2008079301A (ja) 撮像装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130423