JP2013542528A - 夜景画像ボケ検出システム - Google Patents

夜景画像ボケ検出システム Download PDF

Info

Publication number
JP2013542528A
JP2013542528A JP2013536587A JP2013536587A JP2013542528A JP 2013542528 A JP2013542528 A JP 2013542528A JP 2013536587 A JP2013536587 A JP 2013536587A JP 2013536587 A JP2013536587 A JP 2013536587A JP 2013542528 A JP2013542528 A JP 2013542528A
Authority
JP
Japan
Prior art keywords
image
light
potential
identifying
blurred
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013536587A
Other languages
English (en)
Other versions
JP5725194B2 (ja
Inventor
ホン リ
行 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JP2013542528A publication Critical patent/JP2013542528A/ja
Application granted granted Critical
Publication of JP5725194B2 publication Critical patent/JP5725194B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Abstract

画像(16) がボケているかを検出するためのシステム(300)は、画像内の有効な光跡を識別(308)し、反復的パターンの向きのマッチした有効光跡数が十分ある場合に試験画像をボケていると分類する手順を実行する。システム(300)は、取得された画像(16)内の任意の光跡(552)の存在と特性に基づいて、夜景画像(16)がボケているかを自動検出するよう設計されている。この方法は、光跡(552)の特性を抽出しこれらの光跡(552)を分析するので、困難な夜景画像でボケを正確に検出し、比較的低い誤検出率を特長としている。

Description

カメラは一般的に、1つないし複数のオブジェクトが含まれるシーンの画像を取得するために使用される。残念ながらその画像の中にはボケているものがある。たとえば、カメラの露光時間中のカメラの動き、および/またはオブジェクトの動きにより、画像にボケが生じることがある。さらに、画像取得時にカメラのピントが正しくフォーカスされていないと、その画像がボケることになる。
デジタル写真撮影が一層広まるにつれ、鮮鋭度の測定などの画質判定が大きな興味を引く話題となっている。鮮鋭度とは一般的に、画像内の細部の明瞭度またはエッジ部の遷移度の測定値で表される。現在、画像の鮮鋭度を評価するために使用される、画像内の鮮鋭度情報の測定に基づいた方法が複数ある。残念ながら、既存の方法は、きわめて多様な画像に対して、その鮮鋭度のレベルを正確かつ一貫して評価していない。たとえば、従来の方法では、画像内に飽和光跡があると、ボケた夜景画像を検出できないことが多い。これは、飽和光跡が「偽の」鮮鋭度情報となるからである。
本発明は試験画像がボケているかを判定する方法を目的としている。一実施形態において、この方法には、試験画像内の有効な光跡を識別し、似たような反復パターンの向きを持つマッチした有効光跡数が十分ある場合は試験画像をボケとして分類する手順が含まれる。本明細書にて提供される場合、特定の実施形態において、この方法は、画像内の任意の光跡の存在と特性に基づき、夜景画像がボケているかを自動検出するアルゴリズムを使用する。本発明は、この光跡の特性を抽出し光跡を分析するので、困難な夜景画像でボケを正確に検出し、比較的低い誤検出率を特長としている。
一実施形態において、この方法でまず試験画像が、対象となる(潜在的)夜景であるかを識別する。この設計では、コンピューティング・パワーを節約するためにこの方法を夜景画像のみに使用する。さらに、コンピューティング・パワーの節約のために、この方法に、試験画像のダウンサンプリングを含むことができる。
ここで、有効な光跡を識別する手順には、定義済みの光飽和閾値を上回る値を持つ画素を識別することにより画像内の飽和画素を識別するという手順を含むことができる。さらに、有効な光跡の識別手順には、隣接の飽和画素から潜在的光跡を構築する手順が含まれる。またさらに、有効な光跡の識別手順には、潜在的光跡の1つないし複数の領域特性を計算し、潜在的光跡の領域特性に基づいて、有効な光跡を識別するという手順を含むことができる。
一実施形態において、試験画像をボケとして分類する手順には、有効な光跡のサイズと向きを比較する手順を含むことができる。さらに、試験画像をボケとして分類する手順には、有効な光跡の近接度を比較する手順を含むことができる。
本発明はまた、試験画像を取得するための取得システム、および上述した方法のうちの1つないし複数を利用して試験画像がボケているかを推定するための制御システムを含んだカメラに関する。代替的に、本発明は、1つないし複数の画像を後処理するためのパソコン上、または1つないし複数の画像の後処理をするためのオンラインサイト上で使用することができる。
本発明の新規な特長ならびに本発明自体は、いずれもその構造および操作に関する添付の説明に対応した添付図面から最も良く理解されよう。この添付図面において類似している参照文字は類似している部分を示している。
シーン、本発明の特長を有する画像装置、当該シーンの未処理の1回目の取得画像、当該シーンの未処理の2回目の取得画像、および調整済み画像を簡略に表したものである。 図1で示した画像装置の簡略化された正面斜視図である。 は本発明を特長とする夜景画像でのボケ検出方法の、1つの実施形態を表したフローチャートである。 図3のボケ検出方法の一部分を更に図示したフローチャートである。 取得された画像の一部を簡略化した画素で表したものである。 図3のボケ検出方法の別の部分を更に図示したフローチャートである。 本発明の特長を有する夜景画像でのボケ検出方法の、別の実施形態を表したフローチャートである。
図1は本発明の特長を有する画像装置10の簡略化された斜視図と、シーン12を示している。図1はまた、(画像装置10の図から離れて描かれている)未処理の1回目の取得画像14と、(画像装置10の図から離れて描かれている)未処理の2回目の取得画像16を示しており、両画像ともに画像装置10によって取得されている。図1では1回目の取得画像14は(波状でない線を含んだ)鮮鋭な画像18を描写することを目的としており、2回目の取得画像16は(波状の線を含んだ)画像のボケ20を描写することを目的としている。たとえば、ボケのある画像16の取得中に、画像装置10の動き、および/またはシーン内のオブジェクト22の動きにより、画像14内でモーションブラー20が生じることがある。
一実施形態において、画像装置10には、夜間に取得された1つないし複数の画像14、16がボケているかを推定するユニークな方法を使用した、制御システム24(点線で描写)が含まれている。続いて、ボケていると判定された画像16にのみ、ボケ修正処理を適用することができる。このため、鮮鋭な画像14には、ボケ修正処理を不要に行うことはない。
より具体的には、特定の実施形態において、制御システム24はアルゴリズムを使用して、取得画像14、16内の任意の光跡25の存在と特性に基づいて、夜景画像14、16がボケているかを自動検出する。本発明は、この光跡25の特性を試験画像16から抽出し光跡25を分析するので、困難な夜景画像でボケを正確に検出し、比較的低い誤検出率を特長としている。一方、画像内の鮮鋭情報の測定に基づいた従来のボケ計量アルゴリズムは、光跡によって「偽」の鮮鋭情報が導かれることが頻繁にあるために、光跡のあるボケた夜景画像を検出できないことが多々ある。
既知のように、カメラが動いている間(例:手ぶれ)に光の点が取得されると、その画像には、カメラの動きを反映しそれに対応した方向に跡を引く光の点が含まれることがある。たとえば2回目の取得画像16はカメラ10が横に動いている間に取得された。その結果、2回目の取得画像16内の光跡25が水平方向に伸びている。本明細書にて使用される場合、光跡25という用語は、取得撮影された光と、動きの結果生じた光の跡を含んでいる。
画像装置10により取得されるシーン12の種類は多様である。たとえば、シーン12には1つまたは複数のオブジェクト22が含まれうる。例として、動物、植物、哺乳類、光源、および/または周囲の環境などがある。簡潔に説明するため、図1において、シーン12は、人物22Aの簡略化された棒の人物像と、間隔をおいた複数の光源22Bを含んだ夜景の描写である。ただし、夜景には人物も光源も含まれない場合もあることは認識されている。
図2は、画像装置10の1つの非限定的実施形態の、簡略化された正面斜視図である。この実施形態において、画像装置10はデジタルカメラであり、制御システム24(点線のボックスとして描写)に加え、装置フレーム226、光学アセンブリ228、取得システム230(点線のボックスとして描写)が含まれている。これらの構成部品の設計は、画像装置10の設計要件および種類に対応するために、多岐にわたってもよい。さらに、画像装置10は、これらの構成部品の1つまたは複数を使用せずに設計することもできる。追加的又は代替的に、画像装置10はシーン12のビデオを取得するために設計することができる。
装置フレーム226は頑丈で、画像装置10の他の構成部品の少なくともいくつかを支えることができる。一実施形態において、装置フレーム226は、カメラの他の構成部品の少なくともいくつかを受け入れ保持する空洞を持つ、一般的に長方形の中空のボディを含んでいる。装置フレーム226は、取得システム230で画像を取得するシャッターボタン232を含むことができる。
光学アセンブリ228は、光の焦点を取得システム230上に当てるための、単レンズ、または互いに連結して作動する複数レンズの組み合わせを含めることができる。一実施形態において、画像装置10は、取得システム230が被写体の最も鮮鋭な画像を受け取るまで、光学アセンブリ228の単レンズもしくは複数レンズを前後に動かす、1つまたは複数のレンズムーバーを含んだ、オートフォーカスアセンブリ(図略)を含んでいる。
取得システム230は、画像14、16(図1に描写)の情報を取得する。取得システム230の設計は、画像装置10のタイプによって多様である。デジタルタイプのカメラでは、取得システム230は、画像センサー234(点線で描写)(例:チャージカプル装置)、フィルターアセンブリー236(点線で描写)(例:ベイヤーフィルター)、および保存システム238(点線で描写)が含まれる。保存システム238は装置フレーム226と組み合わせて、これに固定させるか、または取り外し可能である。適切な保存システム238の非限定的例には、フラッシュメモリー、フロッピーディスク(登録商標)、ハードディスク、あるいは書き込み可能なCDまたはDVDが含まれる。
制御システム24は画像装置10の電気部品に電気的に接続され、電気部品の動作を制御する。制御システム24は1つないし複数のプロセッサーおよび回路を含むことができ、制御システム24は本明細書で説明されている機能の1つまたは複数を実行するようプログラムすることができる。図2では、制御システム24は装置フレーム226と画像装置10の残りの構成部品に固定されている。さらに、この実施形態では、制御システム24は画像をカメラ内で処理するために装置フレーム226の中に置かれている。あるいは、ここで開示されているアルゴリズムを使用した制御システムは、画像14、16の後処理を行うカメラとは別(例:コンピュータまたはウェブサイト)にすることもできる。
図1に戻ると、制御システム24は、任意の画像14、16が鮮鋭かボケかを判定する1つないし複数の方法を使用したソフトウェアおよび/またはファームウェアを含む。さまざまな実施形態において、制御システム24は、後に画像装置10によって取得された新しい画像14、16(これは本明細書において時折「試験画像」とも呼ばれる)が鮮鋭であるかボケているかを予測する、製造工程中にプログラムされるファームウェアを含む。
さらに、特定の実施形態において、制御システム24には、ボケた画像16のボケ20の量を低減して調整された画像40を提供するソフトウェアを含むことができる。この例では、制御システム24は、1回目の画像14が鮮鋭であり後処理が不要であると判定することができる。さらに、制御システム24は2回目の画像16がボケていると判定することができる。続いて、制御システム24は、2回目の画像16のボケ20の量を低減して調整された画像40を提供する。
画像装置10には、未処理の画像14、16および/または調整済み画像40を表示する、画像ディスプレイ42を含むことができる。この設計では、ユーザーは14、16、40のうちどの画像を保存し、どの画像を削除するかを決定することができる。さらに、画像ディスプレイ42は、画像装置10の機能を制御するために使用できるその他の情報を表示することができる。
さらには、画像装置10は、ユーザーが画像装置10の機能を制御できるようにする制御装置24に電気的に接続された1つまたは複数の制御スイッチ44を含むことができる。たとえば、1つまたは複数の制御スイッチ44を使用して、画像装置10を、ここで開示されているボケ評価および低減処理へ切り替えるよう選択することができる。特定の実施形態において、計算処理を省くために、本発明を、特定タイプの画像(例:暗光画像)にのみ(手動ないし自動的に)適用するよう選択できる。
図3は本発明の特長を有するボケ検出方法300の1つの実施形態を表したフローチャートである。概要として、夜景画像が識別される。識別された各夜景画像に対し、光跡(飽和/近飽和光)パターンが試験画像から抽出される。夜景画像は、光跡の強い反復的パターンが存在すると、ボケがあるとして分類される。さらに、誤検出状態(つまり、鮮鋭な夜景画像をボケと分類してしまうこと)を低減するために、本発明はさまざまな制約を使用して、光跡の形、サイズ、距離などを限定する。
図3の手順302で示されているように、試験画像が提供される。たとえば試験画像は、画像のカメラ内処理のために、カメラで取得することができる。あるいは、ここで開示されたアルゴリズムを使用した別の制御システムに、試験画像を提供しても良い。
特定の実施形態において、本アルゴリズムは、夜景画像がボケているかを正確に判定する。従って、コンピューティング・パワーを節約するために、本アルゴリズムが選択的に夜景画像にのみ適用される。よって、手順304では、試験画像および/または試験画像に関連したカメラのメタデータが分析され、試験画像が潜在的夜景画像であるかを判定する。一実施形態において、試験画像が取得された時点での光の条件を分析することにより、当該試験画像が潜在的夜景であるかをアルゴリズムで判定する。たとえば、試験画像の取得中に(画像を取得した)画像装置の露出値(EV)を調べることにより、試験画像が潜在的夜景画像であるかをアルゴリズムで識別できる。1つの例では、控えめな低露出値の閾値を選択し、(i)露出値がこの露出値の閾値より低い各画像が夜景として見なされ、また(ii)露出値がこの露出値の閾値より大きいかまたは等しい各画像は夜景としては見なされない。これに代わる非限定的実施形態においては、露出値の閾値を約6.5、6、または5.5にすることができる。あるいは、他の値を露出値の閾値に使用することもできる。
計算コストを節約するその他の方法がある。1つの非限定的例では、画像が夜景であるかを点検するのに加え、アルゴリズムで夜景画像の手持ち撮影可能係数を点検することもできる。手持ち撮影可能係数は、焦点距離に露光時間を掛けたものに等しい。手持ち撮影可能係数が小さいとモーションブラーは生じにくいので、手持ち撮影係数が小さすぎる場合は、光跡アルゴリズムを適用する必要がない。非限定的例として、手持ち撮影可能係数の閾値を1にすることができる(TH=1)。
次に、手順306で、画像が潜在的夜景ではないと判定された場合、制御システムは別の従来の方法を使用して試験画像の鮮鋭度を測定することができる。従って、この従来の方法を使用して画像がボケているか鮮鋭であるかを判断することができる。画像鮮鋭度を測定する従来の方法の適切な非限定的例には、学習ベースの画像鮮鋭度分類アルゴリズムが含まれる。このアルゴリズムは、「Image Sharpness Classification SYstem(画像鮮鋭度分類システム)」と題されたPCT出願番号US2010/0039843に説明されており、この内容は本明細書に参照文献として引用されている。別の適切な画像鮮鋭度分類アルゴリズムは、Proc. IEEE International Conference on Image Processing 2005出版、D.Shaked et al.著の 「Sharpness Measure: Towards
Automatic Image Enhancement(鮮鋭度測定:自動画像強化に向けて)」に記載されている。
あるいは、手順308で、画像が潜在的夜景であると判断された場合、有効な光跡が試験画像で特定、識別される。別の言い方をすれば、識別された各夜景画像に対し、有効な光跡(飽和/近飽和光)のパターンが試験画像から抽出される。
図4は、画像内で有効な光跡を特定、識別するために使用できる1つの方法を説明したフローチャートである。図4に図示されているように、試験画像内で関連する潜在的光跡を識別し抽出するために使用される方法には、計算コストを節約するためにオリジナルのカラー試験画像をダウンサンプリングする手順402を含めることができる。たとえば、オリジナルのカラー画像をダウンサンプル(例:3分の1(1/3)または4分の1(1/4)というダウンサイズ係数でサブサンプル)することができる。この手順は計算コストを節約するために任意に選択できることに注目すべきである。
続いて、手順404では、光跡の潜在的一部を構成する画素をアルゴリズムで特定する。これは、各画素に関する全カラーチャンネル間での最大値を、光飽和閾値と比較することで特定できる。より具体的には、たとえば各画素に関し、赤、緑、青(RGB)の色空間において、赤の値、緑の値、青の値を比較して最大値を選択する。非限定的例として、0〜255の値のスケールでは、画素の赤の値が113、緑の値が205、青の値が175の場合、その画素の最大値は緑の値205である。この例では、画素には3つの値があり、その画素の最大値が光飽和閾値と比較される。さらに、非限定的一例として、光飽和閾値を190とすることができる。この例では最大値(グリーンチャンネルの値205)が光飽和閾値(この例では190)以上となっている。従って、この画素は潜在的光跡画素として分類される。
あるいは、この例で光飽和閾値が210に設定されていると、最大値(グリーンチャンネルの値205)は光飽和閾値(この例では210)より小さい。従って、この画素は潜在的光跡画素としては分類されない。
光飽和閾値が、本明細書に提供されている例とは異なる場合があるということに留意すべきである。さらに本明細書に提供されている例では、光跡の潜在的一部として画素が分類されるためには、各画素で、1つのカラーチャンネルのみの値がその画素の光飽和閾値より大きくなければならない。あるいは、たとえば各画素で、光跡の潜在的一部として画素が分類されるためには、複数チャンネルの値がその画素の光飽和閾値より大きくなければならない、というアルゴリズムの要件を設定することができる。
図5は、ボケた2回目の取得画像16(図1に描写)の一部を極度に簡略化した16×16画素550である。この例では簡略を期すために、3つの別個の光跡552が描かれている。16×16画素のグリッドは単に表示目的のためであり、光跡は典型的にはより大きく(例:画素量が多い)、図5に示されているよりも互いにもっと離れている、ということに留意すべきである。
また、図5にはX軸とY軸を描いた二次元方向の座標系が含まれていることにも注意すべきである。この例では、画素550のそれぞれにこの座標系に関する座標位置を付けることができる。たとえば左下隅の画素550は画素(X1,Y1)、右上隅の画素550は画素(X16,Y16)として識別できる。あるいは、画素550は別の言い方で識別できる。
さらに、潜在的光跡画素(例:カラーチャンネルの最大値が光飽和閾値より大きいか等しい画素)には「S」のマークを付けて識別していることに留意すべきである。さらにまた、潜在的光跡画素としては識別されない画素(例:カラーチャンネルの最大値が光飽和閾値より小さい画素)はブランクのままとした。
図5では以下の画素が潜在的光跡画素として識別されている:(X2,Y1),(X3,Y1),(X4,Y1),(X5,Y1),(X6,Y1),(X7,Y1),(X8,Y1),(X9,Y1),(X10,Y1),(X11,
Y1),(X12,Y1),(X13,Y1),(X2,Y2),(X3,Y2),(X4,Y2),(X5,Y2),(X6,Y2),(X7,Y2),(X8,Y2),(X9,Y2),(X10,Y2),(X11,Y2),(X12,Y2),(X13,Y2),(X2,Y3),(X3,Y3),(X4,Y3),(X5,Y3),(X6,Y3),(X7,Y3),(X8,Y3),(X9,Y3),(X10,Y3),(X11,Y3),(X12,Y3),(X13,Y3),(X2,Y4),(X3,Y4),(X4,Y4),(X5,Y4),(X6,Y4),(X7,Y4),(X8,Y4),(X9,Y4),(X10,Y4),(X11,Y4),(X12,Y4),(X13,Y4),(X4,Y6),(X5,Y6),(X6,Y6),(X7,Y6),(X8,Y6),(X9,Y6),(X10,Y6),(X11,Y6),(X12,Y6),(X13,Y6),(X14,Y6),(X15,Y6),(X4,Y7),(X5,Y7),(X6,Y7),(X7,Y7),(X8,Y7),(X9,Y7),(X10,Y7),(X11,Y7),(X12,Y7),(X13,Y7),(X14,Y7),(X15,Y7),(X4,Y8),(X5,Y8),(X6,Y8),(X7,Y8),(X8,Y8),(X9,Y8),(X10,Y8),(X11,Y8),(X12,Y8),(X13,Y8),(X14,Y8),(X15,Y8),(X4,Y9),(X5,Y9),(X6,Y9),(X7,Y9),(X8,Y9),(X9,Y9),(X10,Y9),(X11,Y9),(X12,Y9),(X13,Y9),(X14,Y9),(X15,Y9),(X1,Y11),(X2,Y11),(X3,Y11),(X4,Y11),(X5,Y11),(X6,Y11),(X7,Y11),(X8,Y11),(X9,Y11),(X10,Y11),(X11,Y11),(X12,Y11),(X1,Y12),(X2,Y12),(X3,Y12),(X4,Y12),(X5,Y12),(X6,Y12),(X7,Y12),(X8,Y12),(X9,Y12),(X10,Y12),(X11,Y12),(X12,Y12),(X1,Y13),(X2,Y13),(X3,Y13),(X4,Y13),(X5,Y13),(X6,Y13),(X7,Y13),(X8,Y13),(X9,Y13),(X10,Y13),(X11,Y13),(X12,Y13),(X1,Y14),(X2,Y14),(X3,Y14),(X4,Y14),(X5,Y14),(X6,Y14),(X7,Y14),(X8,Y14),(X9,Y14),(X10,Y14),(X11,Y14),(X12,Y14),(X16,Y3),(X15,Y4),(X14,Y12),(X15,Y14)
次に図4に戻り、手順406で、光跡552の潜在的一部として分類された画素から連続した領域が構築される(図5参照)。別の言い方をすれば、潜在的光跡画素それぞれをその隣接接画素と比較して、その隣接画素も潜在的光跡画素の分類に入るかを判定する。たとえば図5に戻ると、以下の画素が潜在的光跡画素として識別されており、これらの画素は互いに隣接している:(X2,Y1),(X3,Y1),(X4,Y1),(X5,Y1),(X6,Y1),(X7,Y1),(X8,Y1),(X9,Y1),(X10,Y1),(X11,Y1),(X12,Y1),(X13,Y1),(X2,Y2),(X3,Y2),(X4,Y2),(X5,Y2),(X6,Y2),(X7,Y2),(X8,Y2),(X9,Y2),(X10,Y2),(X11,Y2),(X12,Y2),(X13,Y2),(X2,Y3),(X3,Y3),(X4,Y3),(X5,Y3),(X6,Y3),(X7,Y3),(X8,Y3),(X9,Y3),(X10,Y3),(X11,Y3),(X12,Y3),(X13,Y3),(X2,Y4),(X3,Y4),(X4,Y4),(X5,Y4),(X6,Y4),(X7,Y4),(X8,Y4),(X9,Y4),(X10,Y4),(X11,Y4),(X12,Y4),(X13,Y4)
したがって、これらの画素はまとめて、一つ目の潜在的光跡552Aとして分類することができる。
ほぼ同様に、以下の画素も潜在的光跡画素として識別されており、これらの画素も互いに隣接している:(X4,Y6),(X5,Y6),(X6,Y6),(X7,Y6),(X8,Y6),(X9,Y6),(X10,Y6),(X11,Y6),(X12,Y6),(X13,Y6),(X14,Y6),(X15,Y6),(X4,Y7),(X5,Y7),(X6,Y7),(X7,Y7),(X8,Y7),(X9,Y7),(X10,Y7),(X11,Y7),(X12,Y7),(X13,Y7),(X14,Y7),(X15,Y7),(X4,Y8),(X5,Y8),(X6,Y8),(X7,Y8),(X8,Y8),(X9,Y8),(X10,Y8),(X11,Y8),(X12,Y8),(X13,Y8),(X14,Y8),(X15,Y8),(X4,Y9),(X5,Y9),(X6,Y9),(X7,Y9),(X8,Y9),(X9,Y9),(X10,Y9),(X11,Y9),(X12,Y9),(X13,Y9),(X14,Y9),(X15,Y9)
したがって、これらの画素をまとめて二つ目の潜在的光跡552Bとして分類することができる。
さらに、以下の画素が潜在的光跡画素として識別されており、これらの画素も互いに隣接している:(X1,Y11),(X2,Y11),(X3,Y11),(X4,Y11),(X5,Y11),(X6,Y11),(X7,Y11),(X8,Y11),(X9,Y11),(X10,Y11),(X11,Y11),(X12,Y11),(X1,Y12),(X2,Y12),(X3,Y12),(X4,Y12),(X5,Y12),(X6,Y12),(X7,Y12),(X8,Y12),(X9,Y12),(X10,Y12),(X11,Y12),(X12,Y12),(X1,Y13),(X2,Y13),(X3,Y13),(X4,Y13),(X5,Y13),(X6,Y13),(X7,Y13),(X8,Y13),(X9,Y13),(X10,Y13),(X11,Y13),(X12,Y13),(X1,Y14),(X2,Y14),(X3,Y14),(X4,Y14),(X5,Y14),(X6,Y14),(X7,Y14),(X8,Y14),(X9,Y14),(X10,Y14),(X11,Y14),(X12,Y14)
したがって、これらの画素をまとめて三つ目の潜在的光跡552Cとして分類することができる。
一方、画素(X16,Y3),(X15,Y4),(X14,Y12),(X15,Y14)は潜在的光跡画素として識別されているが、これらの画素は互いに隣接せず、他の潜在的光跡画素とも隣接していない。従って、これらの画素は潜在的光跡の一部ではない。
続いて、図4に戻ると、手順408で、連続した領域(潜在的光跡552A、552B、552C)それぞれの1つまたは複数の領域特性を計算する。ほとんどの光跡が、動きの方向と同じ向きの細い線状の形をしている。したがって、光跡は一般的に円形ではない。本明細書にて提供される場合、本発明では、潜在的光跡552A、552B、552Cのそれぞれの1つまたは複数の領域特性を計算することにより、各該当する潜在的光跡552A、552B、552Cの形が円形でないか、および/または細い線状であるかを判定する。
1つの例では、潜在的光跡552A、552B、552Cのそれぞれに関し、以下の領域特性の1つまたは複数を計算することができる。(i)該当する潜在的光跡の面積(連続領域)、(ii)該当する潜在的光跡の境界枠、(iii)該当する潜在的光跡の周囲長。
図5に戻り、潜在的光跡552A、552B、552Cのそれぞれの面積、境界枠、および周囲長が計算される。本明細書にて提供される場合、潜在的光跡552A、552B、552Cの各面積は、該当する光跡の画素数に等しい。図5では、図説を簡単にするために、潜在的光跡552A、552B、552Cのそれぞれを同一サイズ、形、向きとしている。従って、図5の例では、光跡552A、552B、552Cの各面積は48画素である。あるいは、任意の画像で、潜在的光跡の1つまたは複数のサイズ、形、および/または向きが異なることもある。
次に、潜在的光跡552A、552B、552Cの各境界枠を計算できる。潜在的光跡552A、552B、552Cのそれぞれに関し、該当する光跡552A、552B、552Cを内包する密接した長方形の枠が作成され、大まかな形(例:長さと幅)を使用してこの境界枠を計算する。図5では、潜在的光跡552A、552B、552Cのそれぞれに関し、高さ4X幅12画素の枠を使用して各光跡552A、552B、552Cを内包させることができる。この例では、潜在的光跡552A、552B、552Cのそれぞれが、4X12の値を持つ境界枠を持っている。境界枠を計算するには、4つの角の座標を調べる。たとえば、1つ目の潜在的光跡552Aの4角の座標は(X2,Y1)、(X13,Y1)、(X2,Y4)、(X13,Y4)である。この例では高さが4画素(Y3−Y1+1)、幅が12画素(X2−X13+1)である。
次に、潜在的光跡552A、552B、552Cのそれぞれの周囲長を計算する。たとえば、周囲長は境界線に沿って隣接する画素の数でもよい。図5に描写されている例において、潜在的光跡552A、552B、552Cのそれぞれの全周長は28である。
次に図4に戻り、手順410で、潜在的光跡552A、552B、552Cのどれが有効な光跡として分類されうるかを判定するために、各光跡552A、552B、552Cを評価する。より具体的には、手順410において、潜在的光跡552A、552B、552Cの全グループから有効な光跡を識別するために、アルゴリズムを用いて1つまたは複数の領域特性を評価する。
上述したように、ほとんどの光跡が円形でない不規則な形である。さらに、ほとんどの光跡が大きすぎもせず小さすぎもしない。別の言い方をすれば、光跡の特性は一般的に円形ではなく、特定の定義済みの最小サイズより大きく、特定の定義済みの最大サイズよりも小さい。よって、一実施形態において、本発明は、潜在的光跡552A、552B、552Cを調査し、形が円形でなく、有効な光跡として適切なサイズの潜在的光跡552A、552B、552Cを分類する。
1つの非限定的実施形態においては、潜在的光跡552A、552B、552Cのそれぞれが最初は円形であると想定される。続いて、(円形であると想定した場合の)潜在的光跡552A、552B、552Cの各面積を使用して、潜在的光跡552A、552B、552Cの各半径を計算する。既知のように、円の面積はπに半径の二乗をかけて求める(A=Pi×r)。上述の例では、円形であると想定すると、潜在的光跡552A、552B、552Cの各半径は、面積を使って計算すると3.9 (3.9= √48/Pi)となる。さらに既知のように、円周は2掛けるπ掛ける半径で求める。従って、円形であると想定すると、潜在的光跡552A、552B、552Cの各半径は、4.5(4.5=28/(2×pi))となる。
ここで、潜在的光跡552A、552B、552Cのそれぞれが真に円であるならば、面積から計算した半径が、円周から計算した半径とほぼ等しくなる。あるいは、潜在的光跡552A、552B、552Cのそれぞれが円でないならば、面積から計算した半径が、円周から計算した半径と大きく異なる。本例では、面積(3.9)から計算した半径は、円周(4.5)から計算した半径とほぼ等しいとはいえない。
潜在的光跡552A、552B、552Cのそれぞれに関し、面積から計算した半径が円周から計算した半径に近いほど、潜在的光跡552A、552B、552Cが円形である可能性は高くなる。さらに、潜在的光跡552A、552B、552Cのそれぞれに関し、面積から計算した半径が円周から計算した半径と異なるほど、潜在的光跡552A、552B、552Cが円形ではない可能性は高くなる。
非限定的例として、(面積から計算した)半径と(円周から計算した)半径の差異を(面積から計算した)半径で割った絶対値が比較的小さい場合、潜在的光跡552A、552B、552Cが円形であるという可能性が高い。あるいは、(面積から計算した)半径と(円周から計算した)半径の差異を、(面積から計算した)半径で割った絶対値が比較的大きい場合、潜在的光跡552A、552B、552Cが円形でないという可能性が高い。
ここで、潜在的光跡552A、552B、552Cのそれぞれが円形である可能性が高い場合、そのような潜在的光跡552A、552B、552Cは有効な光跡とは見なされない。一方、潜在的光跡552A、552B、552Cのそれぞれが円形ではない可能性が高い場合、特定の実施形態において、そのような潜在的光跡552A、552B、552Cについて更に分析を行うことができる。
たとえば、非円形の潜在的光跡552A、552B、552Cのそれぞれについて、その面積の大きさを、低い面積閾値および高い面積閾値と比較する。非円形の潜在的光跡552A、552B、552Cのそれぞれで面積のサイズが、低い面積閾値よりも小さいかまたは高い面積閾値よりも大きい場合、そのような潜在的光跡552A、552B、552Cは有効な光跡とは見なされない。あるいは、非円形の潜在的光跡552A、552B、552Cのそれぞれで面積の大きさが、低い面積閾値よりも大きくかつ高い面積閾値よりも小さい場合、特定の実施形態において、そのような潜在的光跡552A、552B、552Cについて更に分析を行うことができる。
加えて、たとえば、非円形の潜在的光跡552A、552B、552Cのそれぞれについて、その境界枠のサイズを、低い枠閾値および高い枠閾値と比較する。非円形の潜在的光跡552A、552B、552Cのそれぞれで、境界枠のサイズが低い枠閾値よりも小さいか、または高い枠閾値よりも大きい場合、そのような潜在的光跡552A、552B、552Cは有効な光跡とは見なされない。あるいは、非円形の潜在的光跡552A、552B、552Cのそれぞれで、境界枠のサイズが低い枠閾値よりも大きく、かつ高い枠閾値よりも小さい場合、特定の実施形態において、そのような潜在的光跡552A、552B、552Cについて更に分析を行うことができる。
面積の閾値および境界枠の閾値は、画像の解像度およびダウンサンプリングの量によって異なる、ということに留意すべきである。
ここで、本発明では誤検出を避けるため、特定の実施形態において、潜在的光跡552A、552B、552Cが有効な光跡であるという確信が高くなければ、これを有効な光跡として分類しないようにアルゴリズムが設定される。
さらに、誤検出状態(つまり、鮮鋭な夜景画像をボケとして分類してしまうこと)を低減するために、本発明はさまざまな制約を追加して、潜在的光跡552A、552B、552Cの形、サイズ、色、距離などを限定することができる。
別の言い方をすれば、特定の実施形態において、潜在的光跡552A、552B、552Cに対して制約を追加することで、有効な光跡を更に限定することができる。たとえば、有効な光跡には、特定量の飽和/近飽和画素が含まれていなければならない。この例において、有効な光跡であるとするには、潜在的光跡552A、552B、552Cに、定義済み光飽和閾値より大きいかまたはそれに等しい値の、定義済み最小画素数がなければならない。非限定的例として、画素の定義済み最小数を、識別された潜在的飽和面積の合計の約10%とし、定義済み光飽和閾値を約240という値とすることができる。しかしながら、これらの数値は多様である。
さらに、特定の実施形態において、白っぽい光の潜在的光跡552A、552B、552Cを無視するという制約を追加して使用することができる。ここで、背景に高層ビルのそそり立つ街の夜景では、複数の窓明かりすべてが、おおむね同じ方向に向いている白く細い長方形のスリットのように見えることがある。従って、特定の実施形態においては、潜在的光跡552A、552B、552Cは、それが白っぽい色であれば有効な光跡とは考慮されない。
次に、図3に戻り、手順310において、同方向に向いている(例:反復したパターンの)マッチした(揃った)有効光跡数が十分あるかどうかを判定するために、アルゴリズムで有効な光跡を評価する。手順312において、強い反復パターンで同じ方向を向いているマッチした有効光跡数が十分ある場合、その画像はボケとして分類される。あるいは、図3の手順306に示したように、強い反復パターンで同じ方向を向いているマッチした有効光跡数が十分ない場合、試験画像が鮮鋭であるかボケかを判定するために、試験画像に対して(鮮鋭度を測定する別の方法を使用して)新たな分析を行うことが必要である。
反復パターンで同じ方向を向いた有効光跡数が十分あるかどうかを評価するために使用される1つの方法が、図6で詳細に示されている。より具体的には、手順602で、有効な光跡を、その面積の大きい方から(つまり最大面積の光跡を最初に、最小面積の光跡を最後に)並び替える。次に手順604で、各有効な光跡に関し、面積の小さいその他の有効な光跡との相関性を計算する。特定の実施形態において、面積または境界枠のサイズの差異が大きい場合、または光跡間の距離が一定の定義済みの間隔を越える場合、この相関性の計算を省くことができる。1つの非限定的例として、面積または境界枠のサイズの差異(この例ではサイズの差)が少なくとも50%ある場合、および/または、光跡間の距離が画像サイズの画素数の1/4(この例における定義済みの間隔)を越える場合は、有効な光跡間の相関性の計算を省くことができる。しかしながら、選択されたサイズの差異および選択された定義済み間隔は、これらの例とは異なる場合がある、ということに留意すべきである。
次に、手順606で、各光跡に関し、特定の閾値(例:一つ目の強い相関閾値と、二つ目の弱い相関閾値)よりも大きい相関性を持つ、マッチした光跡の数を計算する。次に、十分な数があるかを判定するために、特定の閾値(弱いマッチの閾値および強いマッチの閾値)を超える弱いマッチ数および強いマッチ数を持つ光跡の数を評価する。図3に戻り、十分な数がある場合、手順312で、画像は反復的光跡を十分含んでいるとみなされ、画像がボケとして分類される。弱いマッチ数と強いマッチ数の両方を持つ光跡の数が十分にない場合、手順306で、画像がボケているか鮮鋭であるかを判定するために、追加分析を画像に対して行う。一実施形態において、弱いマッチ数の閾値(w_TH)_が、強いマッチ数の閾値(s_TH)よりも高く設定される。弱いマッチ数の閾値( #weak corr >w_TH)よりも大きい弱いマッチ数と、強いマッチ数の閾値 ( #strong corr>S_TH)よりも大きい強いマッチ数の両方が画像にある場合、その画像はボケとして分類される。そうでなければ、別の分析を実行する。
特定の実施形態において、誤検出率をなるべく低く抑えるようにするため、別の距離上の制約を導入して、オーバーラップした(またはオーバーラップに近い)光跡を扱うことができる。2つのマッチした光跡が互いに非常に近い場合(それぞれの境界枠からの距離を測定)、そのうちの1つのみが有効なマッチとして見なされる。この例において、距離の制約を適用した後に、弱いマッチと強いマッチの数が特定の閾値より大きい光跡が存在する場合は、試験画像はボケとして識別される。
要約すると、本発明では、画像内に飽和/近飽和光跡によって生じる「偽」の鮮鋭情報があっても、ボケた夜景画像を正確に検出できる。本発明は、光跡を含んだ困難なボケた夜景画像を検出することを目的とする、高速ボケ検出アルゴリズムである。ここで開示されている本方法は、(i)比較的簡単かつ迅速であり、(ii)光跡を含む非常に困難な夜景のボケ画像に関し、合理的かつ優れたボケ検出精度を達成することができ、また、(iii)鮮鋭な夜景画像に対して、かなり低い誤検出率を提供している。
図7は本発明を特長とした、ボケ検出方法のもう1つの実施形態を表したフローチャート700である。概要として、本実施形態においては、従来の方法を使用して画像をまず試験し、その最初の試験に従って、画像が鮮鋭であるかを判定する。続いて、最初の試験に従ってその画像が鮮鋭である場合は、夜景画像が識別される。識別された各夜景画像に対し、光跡(飽和/近飽和光)パターンが試験画像から抽出される。夜景画像は、光跡の強い反復的パターンが存在すると、ボケがあるとして分類される。
より具体的には、図7、手順702に示されているように、試験画像が提供されている。たとえば試験画像は、画像のカメラ内処理のために、カメラで取得することができる。あるいは、ここで開示されたアルゴリズムを使用した別の制御システムに、試験画像を提供しても良い。
本実施形態において手順704では、従来の方法を使用して画像をまず試験し、画像がボケているかを判定する。非限定的で適切な従来の方法については上述されている。この試験で当該画像がボケていると判定された場合、その画像は手順706でボケとして分類される。あるいは、この試験で画像が鮮鋭であると判定された場合、その画像には追加試験を行う。より具体的には、本実施形態において、手順708で、本アルゴリズムを用いて画像が夜景であるかを次に判定する。よって、手順708では、試験画像および/または試験画像に関するカメラのメタデータを分析し、試験画像が潜在的夜景画像であるかを判定する。上記にて提供される場合、試験画像が取得された時点での光の条件を分析することによって、その試験画像が潜在的夜景であるかを、アルゴリズムで判定することができる。
次に、画像が潜在的夜景ではないと判定された場合、手順710で制御システムは画像を鮮鋭であるとして分類する。あるいは、手順712で、画像が潜在的夜景であると判定された場合、有効な光跡が試験画像で特定、識別される。この処理は上述されている。次に、手順714で、同方向に向いている(例:反復したパターンの)マッチした有効光跡数が十分あるかを判定するために、アルゴリズムで有効な光跡を評価する。この処理についてもまた上述されている。十分な数があればその画像は手順706でボケとして分類され、不十分な数であればその画像は手順710で鮮鋭として分類される。
本発明は本明細書にて詳細に開示されているが、これは発明の現在の好適実施形態の単なる例示的なものであり、添付された請求に記載の内容以外に、本書に表示された構造または設計の詳細を限定する意図はないことを理解すべきである。

Claims (17)

  1. 試験画像がボケているかを判定するための方法であって、。この方法は以下の手順で構成される。
    試験画像内の有効な光跡を識別する手順と、。および
    同様の向きおよびサイズを持つ有効光跡数が十分ある場合は、前記試験画像をボケとして分類する手順と、
    を含む方法。
  2. 前記有効な光跡を識別する手順を行う前に前記試験画像が潜在的夜景であるかを識別する手順を更に含む、請求項1に記載の方法。
  3. 前記有効な光跡を識別する手順を行う前に前記試験画像のダウンサンプリングを行う手順を更に含む、請求項1に記載の方法。
  4. 前記有効な光跡を識別する手順はに、定義済み光飽和閾値を上回る値を持った画素を識別することによって前記画像内の飽和画素を識別する手順を含む、請求項1に記載の方法。
  5. 前記有効な光跡をの識別する手順はに、連続した飽和画素から潜在的光跡を構築する手順を含む、請求項4に記載の方法。
  6. 前記有効な光跡をの識別する手順はに、前記潜在的光跡の1以上1つないし複数の領域特性を計算し、前記潜在的光跡の領域特性に基づいて有効な光跡を識別する手順を含む、請求項5に記載の方法。
  7. 前記試験画像がボケていると分類する手順はに、前記有効な光跡のサイズと方向を比較する手順を含む、請求項1に記載の方法。
  8. 前記試験画像がボケていると分類する手順はに、前記有効な光跡の近接度を比較する手順を含む、請求項1に記載の方法。
  9. 試験画像を取得するための取得システムと、および請求項1に記載の方法を使用して試験画像がボケているかを推定するための制御システムとを含むカメラ。
  10. 画像を取得するための画像装置であって、。この画像装置は以下の項目から構成される。
    画像を取得するための取得システムと、および
    (i)試験画像内の有効な光跡を識別し、同様のパターンの方向性を持つ有効光跡数が十分ある場合に、その試験画像をボケとして分類することによって、画像がボケているかを判定する制御システムと、
    を含む画像装置。
  11. 前記制御システムは、有効な光跡を識別する前に前記試験画像が潜在的夜景であるかを制御システムが識別する、請求項10に記載の画像装置。
  12. 前記制御システムは、有効な光跡を識別する前に制御システムで前記試験画像をダウンサンプリングする、請求項10に記載の画像装置。
  13. 前記制御システムはで、定義済みの光飽和閾値を上回る値を持った画素を識別することによって、前記画像内の飽和画素を識別する、請求項10に記載の画像装置。
  14. 前記制御システムはで、連続した飽和画素から潜在的光跡を構築する、請求項13に記載の画像装置。
  15. 前記制御システムはで、前記潜在的光跡の1以上1つないし複数の領域特性を計算し、前記潜在的光跡の領域特性に基づいて有効な光跡を識別する、請求項14に記載の画像装置。
  16. 前記制御システムはで、前記有効な光跡のサイズおよび方向を比較する、請求項10に記載の画像装置。
  17. 前記制御システムはで、前記有効な光跡の近接度を比較する、請求項10に記載の画像装置。
JP2013536587A 2010-11-03 2010-11-03 夜景画像ボケ検出システム Active JP5725194B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2010/055325 WO2012060835A1 (en) 2010-11-03 2010-11-03 Blur detection system for night scene images

Publications (2)

Publication Number Publication Date
JP2013542528A true JP2013542528A (ja) 2013-11-21
JP5725194B2 JP5725194B2 (ja) 2015-05-27

Family

ID=46024741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013536587A Active JP5725194B2 (ja) 2010-11-03 2010-11-03 夜景画像ボケ検出システム

Country Status (3)

Country Link
US (1) US9412039B2 (ja)
JP (1) JP5725194B2 (ja)
WO (1) WO2012060835A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012060835A1 (en) 2010-11-03 2012-05-10 Nikon Corporation Blur detection system for night scene images
WO2013052241A1 (en) 2011-10-03 2013-04-11 Nikon Corporation Motion blur estimation and restoration using light trails
KR20130104437A (ko) * 2012-03-14 2013-09-25 삼성전자주식회사 휴대단말기의 이미지촬영 장치 및 방법
US9589328B2 (en) 2012-11-09 2017-03-07 Nikon Corporation Globally dominant point spread function estimation
WO2014074137A1 (en) 2012-11-09 2014-05-15 Nikon Corporation Point spread function classification using structural properties
US9928579B2 (en) 2013-07-29 2018-03-27 Nikon Corporation Multiple phase method for image deconvolution
US10165263B2 (en) 2013-09-30 2018-12-25 Nikon Corporation Point spread function estimation of optics blur
US9779491B2 (en) 2014-08-15 2017-10-03 Nikon Corporation Algorithm and device for image processing
US10902244B2 (en) 2017-03-27 2021-01-26 Samsung Electronics Co., Ltd. Apparatus and method for image processing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004032135A (ja) * 2002-06-24 2004-01-29 Ricoh Co Ltd 撮像装置、手振れ検出方法、画像処理方法、プログラム及び記録媒体
JP2006279184A (ja) * 2005-03-28 2006-10-12 Mitsubishi Electric Corp 撮像装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6347153B1 (en) 1998-01-21 2002-02-12 Xerox Corporation Method and system for classifying and processing of pixels of image data
US6275600B1 (en) 1998-03-09 2001-08-14 I.Data International, Inc. Measuring image characteristics of output from a digital printer
US6298145B1 (en) 1999-01-19 2001-10-02 Hewlett-Packard Company Extracting image frames suitable for printing and visual presentation from the compressed image data
US7257273B2 (en) 2001-04-09 2007-08-14 Mingjing Li Hierarchical scheme for blur detection in digital image using wavelet transform
US6548800B2 (en) 2001-04-09 2003-04-15 Microsoft Corporation Image blur detection methods and arrangements
US6987530B2 (en) 2001-05-29 2006-01-17 Hewlett-Packard Development Company, L.P. Method for reducing motion blur in a digital image
US7119854B2 (en) 2001-12-28 2006-10-10 Koninklijke Philips Electronics N.V. Method for deriving an objective sharpness metric
US6888564B2 (en) 2002-05-24 2005-05-03 Koninklijke Philips Electronics N.V. Method and system for estimating sharpness metrics based on local edge kurtosis
US7079704B2 (en) 2002-06-26 2006-07-18 Koninklijke Philips Electronics N.V. Objective method and system for estimating perceived image and video sharpness
GB0224357D0 (en) 2002-10-19 2002-11-27 Eastman Kodak Co Image processing
US6922524B2 (en) * 2002-11-27 2005-07-26 Olympus Corporation Camera having blur detecting function
US7181082B2 (en) 2002-12-18 2007-02-20 Sharp Laboratories Of America, Inc. Blur detection system
KR20060023170A (ko) 2003-06-27 2006-03-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 비대칭적으로 강화된 영상 및 비디오를 위한 샤프니스 계량기준
US20070263897A1 (en) 2003-12-16 2007-11-15 Agency For Science, Technology And Research Image and Video Quality Measurement
US7356195B2 (en) 2004-04-29 2008-04-08 Hewlett-Packard Development Company, L.P. System and method for estimating image sharpness
US20060078217A1 (en) 2004-05-20 2006-04-13 Seiko Epson Corporation Out-of-focus detection method and imaging device control method
JP2006024193A (ja) 2004-06-07 2006-01-26 Fuji Photo Film Co Ltd 画像補正装置、画像補正プログラム、画像補正方法、および画像補正システム
US7764844B2 (en) 2004-09-10 2010-07-27 Eastman Kodak Company Determining sharpness predictors for a digital image
JP4539318B2 (ja) 2004-12-13 2010-09-08 セイコーエプソン株式会社 画像情報の評価方法、画像情報の評価プログラム及び画像情報評価装置
US7545985B2 (en) 2005-01-04 2009-06-09 Microsoft Corporation Method and system for learning-based quality assessment of images
US7860332B2 (en) 2005-01-07 2010-12-28 Hewlett-Packard Development Company, L.P. Method and system for determining an indication of focus of an image
US7668388B2 (en) 2005-03-03 2010-02-23 Mitutoyo Corporation System and method for single image focus assessment
JP2007096405A (ja) 2005-09-27 2007-04-12 Fujifilm Corp ぶれ方向判定方法および装置ならびにプログラム
US7616826B2 (en) * 2006-07-28 2009-11-10 Massachusetts Institute Of Technology Removing camera shake from a single photograph using statistics of a natural image
JP4823179B2 (ja) * 2006-10-24 2011-11-24 三洋電機株式会社 撮像装置及び撮影制御方法
JP2008234623A (ja) 2007-02-19 2008-10-02 Seiko Epson Corp カテゴリー識別装置、カテゴリー識別方法、及び、プログラム
WO2008115410A2 (en) 2007-03-16 2008-09-25 Sti Medical Systems, Llc A method to provide automated quality feedback to imaging devices to achieve standardized imaging data
US20090079862A1 (en) 2007-09-25 2009-03-26 Micron Technology, Inc. Method and apparatus providing imaging auto-focus utilizing absolute blur value
US8086007B2 (en) 2007-10-18 2011-12-27 Siemens Aktiengesellschaft Method and system for human vision model guided medical image quality assessment
US20090196524A1 (en) * 2008-02-05 2009-08-06 Dts Digital Images, Inc. System and method for sharpening of digital images
US8472744B2 (en) 2008-05-27 2013-06-25 Nikon Corporation Device and method for estimating whether an image is blurred
WO2010008802A1 (en) 2008-06-23 2010-01-21 Nikon Corporation Device and method for detecting whether an image is blurred
US8805112B2 (en) 2010-05-06 2014-08-12 Nikon Corporation Image sharpness classification system
WO2012060835A1 (en) 2010-11-03 2012-05-10 Nikon Corporation Blur detection system for night scene images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004032135A (ja) * 2002-06-24 2004-01-29 Ricoh Co Ltd 撮像装置、手振れ検出方法、画像処理方法、プログラム及び記録媒体
JP2006279184A (ja) * 2005-03-28 2006-10-12 Mitsubishi Electric Corp 撮像装置

Also Published As

Publication number Publication date
US9412039B2 (en) 2016-08-09
WO2012060835A1 (en) 2012-05-10
JP5725194B2 (ja) 2015-05-27
US20130169824A1 (en) 2013-07-04

Similar Documents

Publication Publication Date Title
JP5725194B2 (ja) 夜景画像ボケ検出システム
JP4351911B2 (ja) デジタルスチルカメラにおける取り込み画像の写真品質を評価する方法及び装置
US8184196B2 (en) System and method to generate depth data using edge detection
CN107258077B (zh) 用于连续自动聚焦(caf)的系统和方法
US9251439B2 (en) Image sharpness classification system
EP2768214A2 (en) Method of tracking object using camera and camera system for object tracking
JP5620990B2 (ja) 形状抽出方法及び装置、並びに寸法測定装置及び距離測定装置
JP2014057303A (ja) 深度推定手順において改善されたシーン検出を利用するためのシステム及び方法
US9324136B2 (en) Method, electronic apparatus, and computer readable medium for processing reflection in image
JP2014067193A (ja) 画像処理装置および画像処理方法
US11301974B2 (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
US9338354B2 (en) Motion blur estimation and restoration using light trails
JP4913801B2 (ja) 遮蔽物映像識別装置及び方法
JP6720845B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2009211122A (ja) 画像処理装置およびオブジェクト推定プログラム。
US20190287272A1 (en) Detection system and picturing filtering method thereof
JP2007312206A (ja) 撮像装置及び、画像再生装置
JP4818285B2 (ja) 混雑滞留検知システム
US20180150966A1 (en) System and method for estimating object size
Guthier et al. Histogram-based image registration for real-time high dynamic range videos
KR20100081099A (ko) 아웃 포커싱 장치 및 방법
JP5616743B2 (ja) 撮像装置および画像処理方法
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP5631181B2 (ja) 画像処理装置及びその制御方法、及びプログラム
JP5853369B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R150 Certificate of patent or registration of utility model

Ref document number: 5725194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250