JP2014123805A - 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法 - Google Patents

画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法 Download PDF

Info

Publication number
JP2014123805A
JP2014123805A JP2012277805A JP2012277805A JP2014123805A JP 2014123805 A JP2014123805 A JP 2014123805A JP 2012277805 A JP2012277805 A JP 2012277805A JP 2012277805 A JP2012277805 A JP 2012277805A JP 2014123805 A JP2014123805 A JP 2014123805A
Authority
JP
Japan
Prior art keywords
imaging
blur
image
specific
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012277805A
Other languages
English (en)
Other versions
JP2014123805A5 (ja
JP5619124B2 (ja
Inventor
Arata Sato
新 佐藤
Hiroyuki Hatakeyama
弘至 畠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012277805A priority Critical patent/JP5619124B2/ja
Priority to US14/132,141 priority patent/US9148552B2/en
Priority to CN201310711200.3A priority patent/CN103888663B/zh
Publication of JP2014123805A publication Critical patent/JP2014123805A/ja
Publication of JP2014123805A5 publication Critical patent/JP2014123805A5/ja
Application granted granted Critical
Publication of JP5619124B2 publication Critical patent/JP5619124B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】不均一なぼけ(特定のぼけ)を良好な精度で検出する。
【解決手段】画像処理装置204は、光学系を用いた撮像により生成された入力画像に光学系に起因した特定のぼけ成分を発生させる特定の撮像条件の情報を記憶する記憶部108と、撮像時の撮像条件の情報を取得する撮像条件取得部107と、撮像時の撮像条件が特定の撮像条件に対して一致するとき又は所定の近接範囲にあるときに、入力画像に含まれる特定のぼけ成分を検出するためのぼけ検出処理を行う処理部104とを有する。
【選択図】図14

Description

本発明は、デジタルスチルカメラ、ビデオカメラ等の撮像装置による撮像により取得された画像に対して行う画像処理技術に関する。
撮像により取得された画像に対して行われる電子的な画像処理技術が従来種々提案されている。例えば特許文献1には、画像内の被写体の顔を認識して、顔以外の領域を塗りつぶしたり、ぼかしたり、あるいは顔を中心とした領域を切り出したりするという画像処理技術が開示されている。また、特許文献2には、画像の情報とともに、その画像を取得したときの撮像条件を用いて処理に必要な判定を行う画像処理技術が開示されている。さらに、特許文献3には、画像中に含まれる被写体までの距離情報を取得し、該距離情報に応じて異なる画像回復フィルタを用いて画像回復処理を行う画像処理技術が知られている。
ところで、光学系を通して撮像を行うと、得られた画像には、光学系の結像性能(例えば、収差や回折)に起因した劣化が少なからず生ずる。非合焦領域で、点光源に近い被写体では、後述する結像性能に起因する不均一なぼけ(例えば、中抜けしたぼけや非対称性が大きいぼけ)が発生する。このような不均一なぼけを、画像処理により除去したり低減したりすることが望まれる。
特開2011−187208号公報 特開2004−145287号公報 特開2011−44825号公報
しかしながら、光学系の結像性能に起因する非合焦領域にて発生する不均一なぼけと、不均一な形状を有する被写体とを画像処理によって正確に識別することは難しい。このため、不均一な形状の被写体が含まれる領域を不均一なぼけが発生している領域として誤検出し、該誤検出した領域に対して画像処理を行うことで、本来得られるべき被写体画像とは異なる画像が得られるおそれがある。特許文献1〜3のいずれにも、不均一なぼけを精度良く検出する方法に関しては開示されていない。
本発明は、不均一なぼけ(特定のぼけ)を良好な精度で検出できるようにした画像処理方法および画像処理装置を提供する。
本発明の他の一側面としての画像処理装置は、光学系を用いた撮像により生成された入力画像を取得する画像取得部と、入力画像に光学系に起因した特定のぼけ成分を発生させる特定の撮像条件の情報を記憶する記憶部と、撮像時の撮像条件の情報を取得する撮像条件取得部と、撮像時の撮像条件が特定の撮像条件に対して一致するとき又は所定の近接範囲にあるときに、入力画像に含まれる特定のぼけ成分を検出するためのぼけ検出処理を行う処理部とを有することを特徴とする。
なお、光学系を用いて撮像を行い、入力画像を生成する撮像系と、上記画像処理装置とを有する撮像装置も、本発明の他の一側面を構成する。
また、本発明の他の一側面としての画像処理プログラムは、コンピュータに、光学系を用いた撮像により生成された入力画像を取得するステップと、入力画像に光学系に起因した特定のぼけ成分を発生させる特定の撮像条件の情報を用意するステップと、撮像時の撮像条件の情報を取得するステップと、撮像時の撮像条件が特定の撮像条件に対して一致するとき又は所定の近接範囲にあるときに、入力画像に含まれる特定のぼけ成分を検出するためのぼけ検出処理を行うステップとを含む処理を実行させることを特徴とする。
また、本発明の他の一側面としての画像処理方法は、光学系を用いた撮像により生成された入力画像を取得するステップと、入力画像に光学系に起因した特定のぼけ成分を発生させる特定の撮像条件の情報を用意するステップと、撮像時の撮像条件の情報を取得するステップと、撮像時の撮像条件が特定の撮像条件に対して一致するとき又は所定の近接範囲にあるときに、入力画像に含まれる特定のぼけ成分を検出するためのぼけ検出処理を行うステップとを有することを特徴とする。
本発明によれば、特定の撮像条件にて発生し易い特定のぼけを良好な精度で検出することができる。
本発明の実施例である画像処理装置(画像処理方法)が処理の対象とする不均一なぼけの例を示す図。 上記不均一なぼけを説明する図。 上記不均一なぼけが発生領域を示す図。 本発明の各実施例に共通する処理内容を示すフローチャート。 撮像条件を用いた判定例を示す図。 撮像条件を用いた別の判定例を示す図。 距離マップを説明する図。 入力画像中での不均一なぼけの検出領域を示す図。 不均一なぼけのメリジオナル方向での対称性を示す図。 入力画像に含まれる不均一なぼけを示す図。 予め用意する不均一なぼけ形状を示す図。 予め用意したぼけ形状データと検出した不均一なぼけとの照合方法を示す図。 本発明の実施例1である画像処理装置の処理を示すフローチャート。 実施例1の画像処理装置の構成を示すブロック図。 本発明の実施例2である画像処理装置の処理を示すフローチャート。 複数枚の画像の取得を説明する図。 実施例2の画像処理装置の構成を示すブロック図。本発明の実施例2の構成図 本発明の実施例3である画像処理装置の処理を示すフローチャート。 実施例3の画像処理装置の構成を示すブロック図。
以下、本発明の実施例について図面を参照しながら説明する。
まず具体的な実施例の説明に先立って、実施例で用いる用語の定義について説明する。「入力画像」
実施例において、入力画像は、デジタルスチルカメラやビデオカメラ等の撮像装置に設けられた撮像光学系により形成された被写体像(光学像)を撮像素子により光電変換して得られる撮像信号を用いて生成されるデジタル画像である。入力画像は、レンズや各種光学フィルタを含む撮像光学系の収差に応じた光学伝達関数(OTF)によって劣化している。撮像光学系は、レンズの他にも、曲率を有するミラー(反射面)を用いて構成することもできる。
また、入力画像の色成分は、例えばRGB色成分の情報を有している。色成分の扱いとしては、これ以外にもLCHで表現される明度、色相、彩度や、YCbCrで表現される輝度、色差信号など一般に用いられている色空間を選択して用いることができる。その他の色空間として、XYZ,Lab,Yuv,JChを用いることが可能である。さらには色温度を用いることも可能である。
また、入力画像には、撮像光学系の焦点距離、絞り値おび撮影距離等の撮像条件、さらにはこの入力画像を補正するための各種の補正情報を付帯させることができる。撮像装置から別の画像処理装置に画像を受け渡して補正処理を行う場合には、上記のように画像に撮像条件情報や補正情報を付帯させるとよい。
「不均一ぼけ」
実施例において、非合焦領域にて撮像光学系の結像性能に起因して発生する不均一にぼけた像を不均一ぼけという。この不均一ぼけが撮像素子によって光電変換されることで入力画像中に含まれることになった画像成分を、特定のぼけ成分としての不均一ぼけ成分という。ただし、以下の説明では、不均一ぼけ成分を単に、不均一ぼけともいう。
図1を用いて不均一ぼけについてより具体的に説明する。例えば、図1(a)のような不均一ぼけが入力画像中に存在した場合、この不均一ぼけの長軸方向の長さaと短軸方向の長さbとを計算する。ここで、長軸方向は、図中にMで示すメリジオナル方向とSで示すサジタル方向のうちぼけの長さが長い方向をいい、短軸方向は、メリジオナル方向とサジタル方向のぼけの長さが短い方向をいう。また、メリジオナル方向は、入力画像の中心と不均一ぼけの重心とを結ぶ方向であり、サジタル方向は、該メリジオナル方向に直交する方向である。
次に、長軸をaとし、短軸をbとする不均一ぼけの重心を中心とした図1(b)に示すような楕円を描く。そして、図1(c)に示すように、図1(b)の楕円と図1(a)の不均一ぼけとの面積の差分を計算する。
また、メリジオナル方向とサジタル方向について、画素ごとに長軸方向の長さAと短軸方向の長さBを計算し、AとBの最大値をそれぞれAmax,Bmaxとする。次に、長軸をAmaxとし、短軸をBmaxとするぼけの重心を中心とした楕円を描く。そして、楕円とぼけとの面積の差分を計算してもよい。
ぼけが均一か不均一かはそれぞれ、人間が見たときに不自然に感じないか感じるかで定義するとよい。例えば、上記差分が楕円の面積に対して10%以上であることを不均一の定義としてもよい。つまり、10%未満であれば、均一なぼけとして扱うこととしてもよい。また、上記差分が楕円の面積に対して20%以上または30%以上であることを不均一の定義とし、それぞれ20%未満または30%未満であれば均一なぼけとして扱うこととしてもよい。
次に、ぼけの面積の計算について説明する。例えば、輝度信号を8ビットで格納する場合は、輝度信号値は0から255までになる。その際に閾値を設定し、閾値を越えた画素の数を積算することでぼけの面積としてもよい。閾値は、ノイズの影響を排除する必要や飽和画素ではぼけが見えないことを考えて、0と255の間の中間の輝度信号値を採用するとよい。
また、不均一ぼけが発生している画素領域(不均一ぼけ領域)の判定について説明する。この判定では、面積の場合と同様に、ノイズの影響を避けるために0より大きい閾値を設ける。例えば、8ビットで輝度信号を格納する場合には、輝度信号値が30以上の領域を不均一ぼけ領域としてもよい。
図1(d)および図1(g)に示すぼけも不均一ぼけに含まれる。図1(a)に示した不均一ぼけは、図1(b)の楕円がぼけに内包された。しかし、図1(d)に示すぼけのように、図1(e)に示す楕円に内包されるぼけであってもよい。この場合の面積の差分は、図1(f)に示すようになる。また、図1(g)のように、回折によるリング状のぼけも不均一ぼけである。このぼけは、図1(h)に示す惰円(円)に内包され、この場合の面積の差分は、図1(i)に示すようになる。
さらに、図1(a),(d),(g)に示したぼけ以外の形状を有するぼけ、例えば、図1(g)に示した回折によるぼけに、図1(a)や図1(d)に示した収差によるぼけが足されたぼけも、不均一ぼけに含まれる。つまり、不均一ぼけとしての条件を満たせば、その形状にかかわらず不均一ぼけとして扱う。例えば、メリジオナル方向とサジタル方向の長さのうち長いほうを長軸方向とし、短い方向を短軸方向とした場合に、長軸方向が短軸方向の1.3倍以上であることを不均一ぼけとして扱う条件としてもよい。 また、図2に示すように、ぼけの0度方向、45度方向、90度方向および135度方向の長さを検出し、これら4方向でのぼけの長さの最大値と最小値の比が1.3以上であることを不均一ぼけとして扱う条件としてもよい。
「特定物体距離範囲」
実施例において、不均一ぼけの検出処理を行う物体距離の範囲を、特定物体距離範囲という。図3には、不均一ぼけが発生する物体距離範囲を示している。図3の縦軸は撮像画面(入力画像)中の被写体までの物体距離を示し、横軸は撮像光学系のピントが合っている物体距離(合焦物体距離)を示す。平面ではない被写体を撮像した場合、取得される画像は、物体距離が異なる複数の被写体を内包する。その中でピントが合っている被写体の物体距離が合焦物体距離であり、入力画像中における該合焦物体距離に対応する被写体が含まれる画像領域が合焦画像領域である。図5中の斜線が合焦物体距離を示す。そして、この合焦物体距離から外れた物体距離範囲が非合焦物体距離範囲であり、非合焦物体距離範囲に対応する画像領域が、非合焦画像領域である。非合焦領域の中で、撮像条件を示すパラメータ情報(以下、撮像条件パラメータ情報という)から決定される不均一ぼけの発生領域、つまりは特定物体距離範囲において不均一ぼけ検出処理を行う。
次に、図4のフローチャートを用いて、後述する各実施例で行われる不均一ぼけ検出処理(画像処理方法)の基本的な内容について説明する。この処理は、コンピュータがコンピュータプログラムとしての画像処理プログラムに従って実行する。
ステップS101において、撮像装置の撮像光学系のピントが被写体に合った状態でユーザが撮像装置のシャッタボタンを押す(シャッターON)と、処理が開始される。
ステップS102では、撮像時の撮像条件パラメータ情報を取得する。撮像条件パラメータ情報は、例えば、撮像光学系の焦点距離やFナンバー(Fno)、さらには撮影距離(合焦物体距離)を含む。例えば、焦点距離が短く、パンフォーカス状態になる場合は、不均一ぼけは発生しにくい。また、Fnoを変化させると、回折の影響で不均一ぼけの形状は変化する。さらに、撮影距離を変化させると、不均一ぼけが発生する物体距離が変化する。撮像条件パラメータ情報の取得は、シャッタボタンを押す前であってもよいし後であってもよい。デジタルスチルカメラには、シャッタボタンの半押し操作によって合焦動作を行い、シャッタボタンが全押し操作されることで撮像を行うものがある。このようなデジタルスチルカメラでは、シャッタボタンの半押し操作にて撮像条件は固定されるので、その時点で撮像条件パラメータ情報を取得してもよい。
次に、ステップS103では、撮影時の撮像条件パラメータ情報と、不均一ぼけが発生する撮像条件を示すパラメータ情報として予めデータベースに用意された特定撮像条件パラメータ情報とが一致するか否かを判定する。
ここで、図5と表1を用いて特定撮像条件パラメータ情報およびこれと撮像時の撮像条件パラメータ情報との一致判定、つまりは不均一ぼけの発生判定について説明する。前述したように、撮像条件パラメータ情報には、撮像光学系の焦点距離、Fnoおよび撮影距離を含む。
焦点距離については、広角側の焦点距離や望遠端付近では不均一ぼけは目立ちにくいが、中間焦点距離では不均一ぼけが目立ちやすい。これは、広角側ではパンフォーカス状態となり、画面全体が合焦画像領域となるために、非合焦画像領域で発生する不均一ぼけは目立ちにくいからである。また、望遠端付近では被写界深度が浅いために、物体距離が変化するとすぐにぼけが大きくなるために不均一ぼけが目立ちにくいからである。これに対して、中間焦点距離では、パンフォーカス状態でもなく、物体距離が変化しても望遠端付近ほど大きくぼけないために、不均一ぼけは目立ち易い。
Fnoを絞ると回折の影響によってリング状のぼけが発生するが、収差の影響は少なくなるためにぼけの異形は目立ちにくい。撮影距離が至近である場合は、無限遠にピントを合わせた場合に対して、一般に結像性能が低下するために不均一ぼけは目立ちにくい。このように焦点距離、Fnoおよび撮影距離等の撮像条件に応じて不均一ぼけの発生度合い(目立ち度合い)が変化するため、撮像条件パラメータ情報を判定に用いることで誤検出を低減できる。判定方法は、例えば表1に示すような内容であってもよい。焦点距離、Fnoおよび撮影距離に応じた不均一ぼけの発生をデータテーブルとして予め用意(記憶)し、これと実際の撮像時の撮像条件と比較することで判定を行ってもよい。実際の撮像時の撮像条件が、データテーブルに用意された値ではなく中間の値であった場合、最も値の近いデータテーブルの値を用いてもよい。例えば表1では、撮影距離が5mの場合は撮影距離3mのデータテーブルの判定結果を参照する。撮影距離が8mの場合は10mのデータテーブルの判定結果を参照する。他の撮像条件パラメータに関しても同様である。
また、図6および表2に示すように、撮像条件パラメータ情報に、撮像光学系のデフォーカス量を含んでもよい。デフォーカス量を用いことで、不均一ぼけの検出精度をより向上させることができる。
特定撮像条件パラメータ情報と撮像時の撮像条件パラメータ情報とが一致しない場合は不均一ぼけ検出処理は行わない。一方、特定撮像条件パラメータ情報と撮像時の撮像条件パラメータ情報とが一致した場合は、ステップS104にて、以下に説明する距離マップを取得し、その後、不均一ぼけ検出処理を行う。
距離マップとは、入力画像を複数の画像領域に分割し、その画像領域ごとの物体距離の情報(つまりは入力画像における物体距離分布の情報)を示すデータマップである。距離マップの取得方法としては、例えば、複数回の撮像において互いに異なる物体距離にピントを合わせ複数枚の画像を取得し、これら複数の画像それぞれにおいて合焦画像領域を抽出する方法を用いてもよい。これにより、画像内での画像領域ごとの物体距離を示す距離マップが得られる。また、複数回の撮像において互いに異なる絞り値を設定して複数枚の画像を取得し、これら複数の画像それぞれにおいて合焦画像領域を抽出する方法を用いてもよい。絞り値によって被写界深度が変化し、合焦画像領域も変化するため、各絞り値にて被写界深度に含まれる物体距離(つまりは合焦物体距離)を求めることで、距離マップを得ることができる。
図7を用いて、絞り値を変化させることによる距離マップの取得方法についてより詳しく説明する。ここでは、ピントを合わせる被写体が入力画像(撮像画面)の中心に存在する場合について説明する。
図7(a)は絞り開放状態を示し、黒領域はピントが合っている画像領域(合焦画像領域)を示す。図7(b)は絞りを開放状態から1段絞った状態を示す。図7(c)は、図7(a),(b)に示した状態の差分を示す。撮影距離とFnoと焦点距離から被写界深度を計算することで、ピントが合っている被写体までの距離(合焦物体距離)を計算できる。
例えば、図7(a)に示した合焦画像領域に対応する合焦物体距離範囲が2mから4mとすると、図7(b)ではこれよりも広い2mから10mの合焦物体距離範囲を有する。そして、図7(b)に示した合焦画像領域から図7(a)の合焦画像領域を差し引いた残り(差分)の画像領域に対応する物体距離4mから10mが、絞りを開放状態から一段絞った状態に対して固有に対応する合焦物体距離である。このようにして、画像領域ごとの物体距離を得ることができ、距離マップを取得することができる。なお、絞り値は1段刻みだけでなく、0.5段刻み等、より細かく変化させることで、距離マップの精度を向上させることができる。
さらに、距離マップの取得方法としては、撮像光学系の瞳を分割し、それぞれの分割瞳領域からの光を用いた位相差検出方式による合焦動作を行い、画像領域ごとの物体距離を求める方法もある。瞳の分割は、撮像素子の画素ごとにマイクロレンズを配置する方法や、画素を複数に分割する方法がある。また、瞳分割により視差画像を取得し、該視差画像から画像領域(画素)ごとの物体距離を求めてもよい。
このような距離マップは、シャッタボタンが押されてから不均一ぼけ検出処理が開始されるまでのいずれのタイミングで取得してもよい。距離マップを取得して、撮像条件パラメータ情報としてデフォーカス量を含むことで、不均一ぼけの検出精度が向上する。
例えば、不均一ぼけの発生判定前に距離マップを取得すると、すべての入力画像の撮像において距離マップを取得することになる。この場合は、距離マップの取得負荷が増加するものの、距離マップを全ての入力画像に対して取得できるため、この後の工程での処理の自由度が増える。例えば、後の工程で画像回復フィルタを用いた画像回復処理を行う場合には、距離マップから得られる情報に基づいて画像回復フィルタを変化させてもよい。一方、不均一ぼけの発生判定後に距離マップを取得すると、不均一ぼけが発生する撮像条件にて撮像された入力画像に対してのみ距離マップを取得すれば済むので、距離マップの取得負荷は最小限に抑えられる。
次に、図4に示すステップS105では、不均一ぼけ検出処理を行う。この際、撮像条件パラメータ情報を参照してもよい。例えば、撮像条件パラメータ情報に含まれている、距離マップから得られるデフォーカス量を参照して特定物体距離範囲を決定してもよい。例えば、デフォーカス量が著しく大きくなると、被写体画像のぼけも大きくなり、被写体画像か不均一ぼけかの判別が不可能になるが、この状態では不均一ぼけは背景と判別不可能になる。また、デフォーカス量が著しく小さいと、ピントが合っている状態に近い結像性能となり、不均一ぼけが発生する可能性が低い。このため、デフォーカス量を参照することで、不均一ぼけの検出が確実に行える可能性を高め、その結果、不均一ぼけの検出精度を高めることができる。
また、撮像条件パラメータ情報に焦点距離、Fnoおよび撮影距離だけでなく、そのときに不均一ぼけが発生する被写体距離を含んでもよく、それを参照して特定物体距離範囲を決定してもよい。
以下、不均一ぼけ検出処理について詳しく説明する。まず、入力画像の全体に対して画像処理用のフィルタを用いた不均一ぼけ検出処理を行うと、処理の負荷が大きい。このため、実施例では、前述したように撮像条件パラメータ情報に基づいて不均一ぼけの発生の有無を予め判定し、不均一ぼけが発生している場合に限り、不均一ぼけ検出処理を行う。しかも、不均一ぼけ検出処理を不均一ぼけの発生の可能性が高い画像領域のみで行うことで、検出処理の負荷を軽減している。
不均一ぼけを検出する際に、以下の条件を満足するC×C個の画素(フィルタセル)を有するフィルタを用いる、つまりは、C×C個の画素を含む領域内で不均一ぼけ検出処理を行うと、検出精度と処理の負荷とのバランスが取れるのでよい。
1<C<def/P ・・・ (1)
ただし、defはデフォーカス量であり、Pは画素ピッチである。
不均一ぼけの検出領域について、図8を用いて説明する。不均一ぼけは、撮像光学系の結像性能(収差や回折など)に起因して発生する。収差量に対して被写体が十分大きければ、図8(a)に示すように、不均一ぼけは目立たなくなる。その閾値として、例えば条件式(1)で定義されるCを用いてもよい。逆に被写体の大きさが小さく、1画素に近いほど、図8(b)に示すように不一ぼけの発生が顕著になる。
例えば、1/2.3型(4.65mm×6.2mm)撮像素子であって、1.4μmの画素ピッチを有する撮像素子を用いて撮像を行う場合において、デフォーカス量を0.1mmとすると、Cの上限は71画素となる。上記撮像素子で取得された入力画像の総画素数は、4428×3321となる。例えば、この入力画像で1000×1000画素の大きさの被写体が非合焦領域に存在したとしても、不均一ぼけは目立たないと考えられる。
条件式(1)では、下限値として1(画素)を有する。不均一ぼけが発生していても、1画素よりも小さい領域であれば、1画素の中で信号強度が積算されて目立たないためである。このように下限値を設定することで、処理負荷をより軽減することができる。
不均一ぼけを検出する際に、不均一ぼけがメリジオナル方向においてサジタル方向に延びる対称軸に関して対称な形状を有することを利用するとよい。このことについて、図+を用いて説明する。
図9(a)に示すように、撮像光学系の結像性能に依存して発生する不均一ぼけは、撮像光学系が光軸に対して回転対称な光学系である場合には、メリジオナル方向Mにおいて、サジタル方向Sに延びる対称軸に関して対称な形状を有する。一方、不均一ぼけではない不均一な形状の被写体は、図9(b)に示すように、メリジオナル方向において対称な形状を有するとは限らない。そこで、図9(c),(d)に示すように不均一ぼけを検出する画像領域をメリジオナル方向に対して折り返し、折り返した画像と折り返していない画像との信号強度の差分をとる。そして、その差分を積算した結果が閾値を超えた場合は不均一な形状の被写体であり、閾値を下回った場合は収差や回折に起因する不均一ぼけと判別できる。
また、撮像条件に応じた不均一ぼけの形状のデータを用意し、このデータを不均一ぼけを検出する際に参照してもよい。不均一ぼけが発生する撮像条件において、被写体がたまたま不均一な形状を有する場合が考えられ、このまま検出処理を行うと、被写体を不均一ぼけとして誤検出するおそれがある。このため、不均一ぼけの形状を予めデータとして用意し、これを参照することで誤検出を回避することができる。
例えば、図10に示すように、入力画像中に不均一ぼけが存在したとする。一方、図11に示すように、撮像条件および像高ごとに不均一ぼけの形状データを用意しているとする。形状データは、入力画像の長辺方向または短辺方向に平行なメリジオナル方向を有するように予め計算しておくとよい。全ての撮像条件に対して形状データを用意してもよいが、これではデータ量が膨大となり、必要な記憶容量も増大するため、不均一ぼけが発生する撮像条件に対してのみ形状データを用意することで、データ量の削減を図ることができる。
また、不均一ぼけを検出する際に、撮像条件に応じて用意した不均一ぼけの形状データ(の重心)を入力画像の中心回りで回転させてから参照するとよい。すなわち、図11に示すように用意した形状データを、図12(a),(b)に示すように回転させて、不均一ぼけのメリジオナル方向と形状データのメリジオナル方向が一致するようにする。Vは垂直方向を示し、Hは水平方向を示す。
その後に、図10に示した不均一ぼけと照合する。この照合は、例えば、不均一ぼけの検出領域内で該不均一ぼけと不均一ぼけ形状データとの輝度信号の差分をとり、検出領域内で積算した値が一定の閾値以下であれば一致するとみなす、という方法を採用すればよい。不均一ぼけ形状データを回転させて用いることで、不均一な形状の被写体を不均一ぼけと誤検出することを回避することができる。
さらに、被写体の大きさに依存して不均一ぼけの大きさは変化する。このため、不均一ぼけの大きさを変化させた形状パターンを用意して検出処理を行うとよい。
また、不均一ぼけを検出する際に、微分フィルタを使用してエッジが検出できない画像領域から検出するとよい。例えば、エッジが検出できる画像領域は合焦画像領域の可能性が高く、この合焦画像領域では不均一ぼけは発生しにくい。このため、エッジが検出できない画像領域、すなわち合焦画像領域から外れた画像領域で不均一ぼけの検出処理を行うことで、検出精度を向上させることができる。
また、不均一ぼけを検出する際に色情報を利用してもよい。具体的には、複数の色成分(例えば、RGBチャンネル)で画素信号を検出し、その中で最も輝度(強度)が高い色成分で検出を行うとよい。例えば、点光源を含む夜景を撮像した場合のように不均一ぼけの周辺が黒の画像領域となる場合には、その周辺画像領域の輝度信号は0に近いので、検出領域外とするのは容易である。しかし、その周辺画像領域に輝度が高い画素が存在していた場合には、不均一ぼけを検出することが困難になるおそれがある。このような場合に、色成分を用いて判別するとよい。例えば、不均一ぼけを発生させている被写体の色が赤であり、その周辺の画像領域の色が灰色であったとする。例えばデジタルスチルカメラでよく用いられているRGBチャンネルで輝度信号の検出を行っている場合、被写体はRチャンネルの信号強度が最も強くなる。これに対して、周辺の画像領域ではRGBチャンネルでほぼ同等の信号強度になる。このように両者の色が異なるため、不均一ぼけが発生している画像領域とその周辺画像領域と判別が容易になる。
その他、不均一ぼけ検出処理を、入力画像のうち輝度飽和画素の周辺の画像領域で行うことが好ましい。
以上のようにして不均一ぼけ検出処理が終了した後は、入力画像における不均一ぼけを除去したり低減したりするために、入力画像に対して整形処理(補正処理)や画像回復処理等の画像処理を行ってもよい。
整形処理は、例えば、検出した不均一ぼけを距離情報やFnoをもとに推定した大きさの円形のぼけ像に置き換えることで、丸く整形してもよい。また、検出した不均一ぼけを、同輝度を持つ領域となるように塗りつぶしてもよい。また、複数回の撮像により得られた複数の画像のうち一部の画像にのみ不均一ぼけが含まれる場合は、不均一ぼけがない画像から切り抜いた画像領域を、不均一ぼけを含む画像における該不均一ぼけの領域に張り付けてもよい。 また、検出した不均一ぼけを平滑化処理することでぼかしてもよい。その他、エッジ処理やにじみ処理を整形処理として行ってもよい。
なお、図4では、距離マップを取得する場合について説明した、距離マップは必ずしも取得しなくてもよい。この場合は、入力画像の全体を特定物体距離範囲し、撮像条件パラメータ情報と特定撮像条件パラメータ情報とが一致した場合に、入力画像全体に対して不均一ぼけ検出処理を行う。この場合、距離マップを用いる場合に比べて検出精度は下がるおそれがあるが、距離マップの取得負荷が削減される。
また、必ずしも撮像時の撮像条件パラメータ情報が特定撮像条件パラメータ情報に一致しなくても、所定の近接範囲にあれば不均一ぼけ検出処理を行ってもよい。
以下、本発明の具体的な実施例について説明する。
図13のフローチャートには、本発明の実施例1である画像処理装置が搭載された撮像装置にて行われる画像処理方法を示している。ステップS201では、まずシャッタボタンが半押しされることに応じて撮像光学系のピント状態が固定され、その後のステップS203で、シャッタボタンが全押しされることに応じてその固定されたピント状態での撮像が行われる。これにより、入力画像が取得される。ステップS201とステップS203の間のステップS202では、撮像が行われる前に、撮像時の撮像条件パラメータ情報を取得する。
次に、ステップS204では、不均一ぼけが発生する特定撮像条件パラメータ情報をデータベースから読み出し、ステップS202で取得した撮像時の撮像条件パラメータ情報と比較する。これらが一致しない(または所定の近接範囲にない)場合は、不均一ぼけの検出を行なわずにそのまま本処理を終了する。不均一ぼけの検出を行わないので、その整形処理も行わない。
一方、撮像条件パラメータ情報が一致する(または所定の近接範囲にある)場合は、ステップS205にて、特定物体距離範囲に対応する画像領域にて不均一ぼけ検出処理を行う。ただし、本実施例では距離マップを取得していないため、入力画像全体に対して不均一ぼけ検出処理を行う。その代わり、本実施例では、前述した不均一ぼけの形状データを用いて、入力画像内の不均一ぼけを検出することで、検出精度を高めている。
次に、ステップS206では、検出した不均一ぼけに対する整形処理を行い、不均一ぼけを目立たなくしている。
図14には、図13を用いて説明した画像処理方法を実施する撮像装置の構成を示している。撮像装置は、撮像光学系101で形成された被写体像を撮像素子102で光電変換する。A/D変換器103は、撮像素子102から出力されたアナログ撮像信号をデジタル撮像信号に変換する。デジタル撮像信号は、RGB色成分ごとに信号強度を有する。画像処理部104は、デジタル画像信号に対して各種処理を行うことで、デジタル画像としての入力画像を生成する。撮像素子102から画像処理部104により撮像系が構成される。
システムコントローラ110は、撮像光学系制御部106を通じて撮像光学系101のズーム動作、フォーカス動作および絞り動作を制御する。撮像光学系制御部106は、撮像条件取得部としての状態検知部107に対して撮像時の撮像条件パラメータ情報を送る。
記憶部108は、特定撮像条件パラメータ情報のデータベースを格納(記憶)しており、画像処理部(処理部)104内の判定部104aに該パラメータ情報を送る。判定部104aは、記憶部108から受け取った特定撮像条件パラメータ情報と、状態検知部107から受け取った撮像時の撮像条件パラメータ情報とが一致している(又は所定の近接範囲にある)か否かを判定する。判定部104aで一致判定がなされた場合は、画像処理部104内の検出部104bにおいて、入力画像に対して不均一ぼけ検出処理を行う。そして、整形部104cで、検出した不均一ぼけに対する整形処理を行う。
整形処理後の出力画像(結果画像)は、画像記録媒体109に記録されたり、LCD等により構成される表示部105に表示されたりする。
実施例1では、一般的なコンパクトデジタルカメラを想定し、センサーサイズは1/2.3型(4.65mm×6.2mm)としている。1.4μmの画素ピッチとしたとき、デフォーカス量を0.1mmとすると、Cの上限値は71画素となる。
図15のフローチャートには、本発明の実施例2である画像処理装置が搭載された撮像装置にて行われる画像処理方法を示している。本実施例では、ステップS301にてシャッタボタンの全押しの前または後に撮像時の撮像条件パラメータ情報を取得する。そして、ステップS302にて、シャッタボタンの全押しの後(撮像後)にデータベースから特定撮像条件パラメータ情報を読み出して、撮像時の撮像条件パラメータ情報と比較する。これらが一致しない(または所定の近接範囲にない)場合は、不均一ぼけの検出を行なわずにそのまま本処理を終了する。不均一ぼけの検出を行わないので、その整形処理も行わない。
一方、撮像条件パラメータ情報が一致する(または所定の近接範囲にある)場合は、ステップS303にて、フォーカス位置(合焦物体距離)を変えて複数回撮像を行い、複数枚の画像を取得する。このとき、図16(a)に示すように本来の撮像対象である被写体に合焦した画像と、図16(b)に示すように不均一ぼけが発生する物体距離に対して合焦した画像とを取得する。これらの画像間では、不均一ぼけの形状は、被写体の形状と比較して大きく変化するので、図16(c)に示すように画像の差分をとることで、不均一ぼけを誤検出の可能性を低くしつつ検出することができる。
続いてステップS304では、前述した距離マップを取得する。その後、ステップS305で不均一ぼけ検出処理を行い、さらにステップS306で整形処理を行う。
図17には、図15を用いて説明した画像処理方法を実施する撮像装置の構成を示している。本実施例の撮像装置において、画像処理部204以外の構成要素(201〜203,205〜210)は実施例1の撮像装置の構成要素(101〜103,105〜110)と同じである。
記憶部208は、画像処理部(処理部)204内の判定部204aに特定撮像条件パラメータ情報を送る。判定部204aは、特定撮像条件パラメータ情報と、状態検知部207から受け取った撮像時の撮像条件パラメータ情報とが一致している(又は所定の近接範囲にある)か否かを判定する。判定部204aで一致判定がなされた場合は、画像処理部204内の取得部204bにて距離マップを取得し、検出部204cにおいて、入力画像に対して不均一ぼけ検出処理を行う。そして、整形部204dで、検出した不均一ぼけに対する整形処理を行う。
実施例2では、撮像素子としてフルサイズ(24mm×36mm)のセンサーを想定し、画素ピッチは6μmとして計算する。デフォーカス量は0.4mmとして計算する。Cの上限値は67画素となる。
図15のフローチャートには、本発明の実施例3である画像処理装置が搭載された撮像装置にて行われる画像処理方法を示している。本実施例では、ステップS401にてシャッタボタンの全押しの前または後に撮像時の撮像条件パラメータ情報を取得する。そして、ステップS402にて、シャッタボタンの全押しの後(撮像後)にデータベースから特定撮像条件パラメータ情報を読み出して、距離マップを取得する。この際に、上述した瞳分割による距離マップの取得を行う。また、ステップS403では、特定撮像条件パラメータ情報と撮像時の撮像条件パラメータ情報と比較する。これらが一致しない(または所定の近接範囲にない)場合は、不均一ぼけの検出を行なわずにそのまま本処理を終了する。不均一ぼけの検出を行わないので、その整形処理も行わない。
一方、撮像条件パラメータ情報が一致する(または所定の近接範囲にある)場合は、ステップS404にて、特定物体距離範囲に対応する画像領域にて不均一ぼけ検出処理を行う。特定物体距離範囲は、特定撮像条件パラメータ情報を参照して決定する。特定撮像条件パラメータ情報に焦点距離、Fnoおよび撮影距離だけでなく、そのときに不均一ぼけが発生する物体距離を含ませて、これを参照して特定物体距離範囲を決定する。これにより、扱うデータ量が多くなるが、不均一ぼけの検出精度は高くなる。その際、被写体を不均一ぼけとして誤検出する可能性を低減するために、顔認識技術を用いてもよい。顔認識は画像の中から人物の顔を検出する画像処理技術である。顔認識技術で検出した顔認識領域は例外処理することで、人間の目などをぼけ像として誤検出する可能性は低減できる。
次に、ステップS405で不均一ぼけの整形処理を行い、さらにステップS406では整形処理後に結果画像に対して画像回復処理を行う。画像回復処理の際に、取得した距離マップを用いて画像回復フィルタを変化させてもよい。
図19には、図18を用いて説明した画像処理方法を実施する撮像装置の構成を示している。本実施例の撮像装置において、画像処理部304以外の構成要素(301〜303,305〜310)は実施例1の撮像装置の構成要素(101〜103,105〜110)と同じである。
記憶部308は、画像処理部(処理部)304内の判定部304aに特定撮像条件パラメータ情報を送る。判定部304aは、特定撮像条件パラメータ情報と状態検知部307から受け取った撮像時の撮像条件パラメータ情報とが一致している(又は所定の近接範囲にある)か否かを判定する。また、画像処理部304内の取得部304bは、距離マップを取得する。判定部304aで一致判定がなされた場合は、画像処理部304内の検出部304cにおいて、入力画像に対して不均一ぼけ検出処理を行う。そして、整形部304dで、検出した不均一ぼけに対する整形処理を行う。さらに、回復部304eで、整形処理後の結果画像に対して画像回復処理を行い、回復画像を画像記録媒体309や表示部305に出力する。
実施例3では、撮像素子としてAPS−C(15.2mm×22.7mm)のセンサーを想定している。画素ピッチは4.3μmとして計算している。デフォーカス量は0.3mmを想定している。Cの上限値は70画素となる。
表1と表2に撮像条件の判定例を示す。
実施例1〜3では、画像処理装置が撮像装置に搭載された場合について説明したが、撮像装置とは別に設けられたパーソナルコンピュータを画像処理装置として用いてもよい。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
良好な撮影画像を生成することが可能な画像処理技術を提供することができる。
101 撮像光学系
102 撮像素子
104 画像処理部
107 状態検知部
108 記憶部

Claims (16)

  1. 光学系を用いた撮像により生成された入力画像に前記光学系に起因した特定のぼけ成分を発生させる特定の撮像条件の情報を記憶する記憶部と、
    前記撮像時の撮像条件の情報を取得する撮像条件取得部と、
    前記撮像時の撮像条件が前記特定の撮像条件に対して一致するとき又は所定の近接範囲にあるときに、前記入力画像に含まれる前記特定のぼけ成分を検出するためのぼけ検出処理を行う処理部とを有することを特徴とする画像処理装置。
  2. 前記処理部は、前記ぼけ検出処理を、前記撮像時の撮像条件の情報を用いて得られる、前記特定のぼけ成分が発生する特定の物体距離範囲に対応する画像領域で行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記処理部は、前記ぼけ検出処理を、C×C個の画素を含む領域で行い、
    defを前記光学系のデフォーカス量とし、Pを前記画素のピッチとするとき、
    1<C<def/P
    なる条件を満足することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記特定のぼけ成分は、前記入力画像の中心と該特定のぼけ成分の重心とを結ぶメリジオナル方向において、該メリジオナル方向に直交するサジタル方向に延びる対称軸に関して対称なぼけ成分であることを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。
  5. 前記処理部は、前記ぼけ検出処理を、前記入力画像のうち微分フィルタを使用してエッジが検出されない画像領域で行うことを特徴とする請求項1から4のいずれか一項に記載の画像処理装置。
  6. 前記処理部は、前記ぼけ検出処理を、前記入力画像のうち輝度飽和画素の周辺の画像領域で行うことを特徴とする請求項1から4のいずれか一項に記載の画像処理装置。
  7. 前記処理部は、前記ぼけ検出処理を、前記入力画像を構成する複数の色成分のうち最も強度が高い色成分に対して行うことを特徴とする請求項1から4のいずれか一項に記載の画像処理装置。
  8. 前記撮像条件として、前記光学系の焦点距離およびFナンバーと、撮影距離とを用いることを特徴とする請求項1から7のいずれか一項に記載の画像処理装置。
  9. 前記入力画像における物体距離分布の情報を取得し、
    前記撮像条件として、前記物体距離分布の情報から得られるデフォーカス量を用いることを特徴とする請求項1から8のいずれか一項に記載の画像処理装置。
  10. 前記処理部は、前記特定のぼけ成分の形状に関するデータを用意し、
    前記ぼけ検出処理において該データを参照することを特徴とする請求項1から9のいずれか一項に記載の画像処理装置。
  11. 前記処理部は、前記特定のぼけ成分の形状に関するデータを、それぞれ異なる前記特定の撮像条件ごとに用意し、
    前記撮像時の撮像条件に対して一致する又は前記所定の近接範囲にある前記特定の撮像条件に対応する前記データを参照することを特徴とする請求項10に記載の画像処理装置。
  12. 前記処理部は、前記ぼけ検出処理により検出された前記特定のぼけ成分を除去または低減するためのぼけ補正処理を行うことを特徴とする請求項1から11のいずれか一項に記載の画像処理装置。
  13. 前記処理部は、前記入力画像に対して前記ぼけ補正処理が行われた結果画像に対して、画像回復処理を行うことを特徴とする請求項12に記載の画像処理装置。
  14. 光学系を用いて撮像を行い、入力画像を生成する撮像系と、
    請求項1から13のいずれか一項に記載の画像処理装置とを有することを特徴とする撮像装置。
  15. コンピュータに、
    光学系を用いた撮像により生成された入力画像を取得するステップと、
    前記入力画像に前記光学系に起因した特定のぼけ成分を発生させる特定の撮像条件の情報を用意するとともに、前記撮像時の撮像条件の情報を取得するステップと、
    前記撮像時の撮像条件が前記特定の撮像条件に対して一致するとき又は所定の近接範囲にあるときに、前記入力画像に含まれる前記特定のぼけ成分を検出するためのぼけ検出処理を行うステップとを含む処理を実行させるコンピュータプログラムであることを特徴とする画像処理プログラム。
  16. 光学系を用いた撮像により生成された入力画像を取得するステップと、
    前記入力画像に前記光学系に起因した特定のぼけ成分を発生させる特定の撮像条件の情報を用意するステップと、
    前記撮像時の撮像条件の情報を取得するステップと、
    前記撮像時の撮像条件が前記特定の撮像条件に対して一致するとき又は所定の近接範囲にあるときに、前記入力画像に含まれる前記特定のぼけ成分を検出するためのぼけ検出処理を行うステップとを有することを特徴とする画像処理方法。
JP2012277805A 2012-12-20 2012-12-20 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法 Expired - Fee Related JP5619124B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012277805A JP5619124B2 (ja) 2012-12-20 2012-12-20 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
US14/132,141 US9148552B2 (en) 2012-12-20 2013-12-18 Image processing apparatus, image pickup apparatus, non-transitory storage medium storing image processing program and image processing method
CN201310711200.3A CN103888663B (zh) 2012-12-20 2013-12-20 图像处理设备、图像拾取设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012277805A JP5619124B2 (ja) 2012-12-20 2012-12-20 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法

Publications (3)

Publication Number Publication Date
JP2014123805A true JP2014123805A (ja) 2014-07-03
JP2014123805A5 JP2014123805A5 (ja) 2014-08-14
JP5619124B2 JP5619124B2 (ja) 2014-11-05

Family

ID=50957372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012277805A Expired - Fee Related JP5619124B2 (ja) 2012-12-20 2012-12-20 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法

Country Status (3)

Country Link
US (1) US9148552B2 (ja)
JP (1) JP5619124B2 (ja)
CN (1) CN103888663B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016095954A1 (en) 2014-12-15 2016-06-23 Toyota Motor Europe Nv/Sa Systems for and method of welding using beam shaping means and shielding means
JP2021056678A (ja) * 2019-09-27 2021-04-08 キヤノン株式会社 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9237277B1 (en) * 2014-06-06 2016-01-12 Google Inc. Accurate simulation of shallow depth of field using contrast detection
JP6259165B2 (ja) * 2015-04-16 2018-01-10 富士フイルム株式会社 撮像装置、画像処理装置、画像処理方法、プログラム及び記録媒体
KR20180036463A (ko) * 2016-09-30 2018-04-09 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자 장치
US11341612B1 (en) * 2019-01-23 2022-05-24 Idemia Identity & Security USA LLC Method and system for automatic correction and generation of facial images
WO2020195073A1 (ja) * 2019-03-27 2020-10-01 ソニー株式会社 画像処理装置、画像処理方法、プログラム、撮像装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721365A (ja) * 1993-07-06 1995-01-24 Canon Inc 画像処理方法および装置
JP2005182745A (ja) * 2003-11-26 2005-07-07 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2010281968A (ja) * 2009-06-03 2010-12-16 Canon Inc レンズ装置、及びその制御方法
JP2011043646A (ja) * 2009-08-20 2011-03-03 Canon Inc 撮像装置及び方法
JP2011523238A (ja) * 2008-08-04 2011-08-04 キヤノン株式会社 画像処理装置及び画像処理方法
JP2013198109A (ja) * 2012-03-22 2013-09-30 Olympus Imaging Corp 撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6778210B1 (en) * 1999-07-15 2004-08-17 Olympus Optical Co., Ltd. Image pickup apparatus with blur compensation
JP2004145287A (ja) 2002-08-30 2004-05-20 Fuji Photo Film Co Ltd 赤目補正方法、画像処理方法、プリント方法およびプリンタ
US7720302B2 (en) 2003-09-25 2010-05-18 Fujifilm Corporation Method, apparatus and program for image processing
JP2008146155A (ja) * 2006-12-06 2008-06-26 Sony Corp 画像処理方法および装置
JP4942216B2 (ja) * 2008-09-30 2012-05-30 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置及びプログラム
JP5317891B2 (ja) 2009-08-19 2013-10-16 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2011187208A (ja) 2010-03-05 2011-09-22 Toppan Printing Co Ltd 有機el素子の製造方法及びそれを用いた有機el素子並びに有機elディスプレイ
JP2012003233A (ja) * 2010-05-17 2012-01-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2012019337A (ja) * 2010-07-07 2012-01-26 Olympus Corp 画像処理装置及び方法並びにプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721365A (ja) * 1993-07-06 1995-01-24 Canon Inc 画像処理方法および装置
JP2005182745A (ja) * 2003-11-26 2005-07-07 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2011523238A (ja) * 2008-08-04 2011-08-04 キヤノン株式会社 画像処理装置及び画像処理方法
JP2010281968A (ja) * 2009-06-03 2010-12-16 Canon Inc レンズ装置、及びその制御方法
JP2011043646A (ja) * 2009-08-20 2011-03-03 Canon Inc 撮像装置及び方法
JP2013198109A (ja) * 2012-03-22 2013-09-30 Olympus Imaging Corp 撮像装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016095954A1 (en) 2014-12-15 2016-06-23 Toyota Motor Europe Nv/Sa Systems for and method of welding using beam shaping means and shielding means
JP2021056678A (ja) * 2019-09-27 2021-04-08 キヤノン株式会社 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム
JP7455542B2 (ja) 2019-09-27 2024-03-26 キヤノン株式会社 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム

Also Published As

Publication number Publication date
CN103888663A (zh) 2014-06-25
CN103888663B (zh) 2017-04-12
JP5619124B2 (ja) 2014-11-05
US9148552B2 (en) 2015-09-29
US20140176768A1 (en) 2014-06-26

Similar Documents

Publication Publication Date Title
JP5619124B2 (ja) 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
US9607240B2 (en) Image processing apparatus, image capturing apparatus, image processing method, image capturing method, and non-transitory computer-readable medium for focus bracketing
JP5657343B2 (ja) 電子機器
US9313419B2 (en) Image processing apparatus and image pickup apparatus where image processing is applied using an acquired depth map
EP3327667B1 (en) Image processing device, image capturing apparatus, and image processing method for obatining depth information
US9253377B2 (en) Image processing device and image processing system where de-mosaic image is generated based on shift amount estimation of pixels of captured images
JP2004343519A (ja) 撮像装置および画像処理装置
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
CN107277360A (zh) 一种双摄像头切换进行变焦的方法、移动终端及存储装置
JP2008211679A (ja) 撮像装置およびその方法
JP2014235224A (ja) 撮像装置および制御プログラム
US8514305B2 (en) Imaging apparatus
JP6436840B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US10326951B2 (en) Image processing apparatus, image processing method, image capturing apparatus and image processing program
JP7373297B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4271648B2 (ja) 画像合成装置、撮像手段、およびプログラム
JP6238673B2 (ja) 画像処理装置、撮像装置、撮像システム、画像処理方法、画像処理プログラム、および、記憶媒体
JP2016010080A (ja) 画像処理装置、画像処理方法及びプログラム
JP6314281B1 (ja) 画像処理方法及び前景領域取得方法
JP2017118293A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2009159535A (ja) 撮像装置および画像処理方法
JP6604737B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2021077166A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2017092800A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2016024226A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理装置の制御プログラム及び記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140512

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140512

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140916

R151 Written notification of patent or utility model registration

Ref document number: 5619124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees