JP7208809B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7208809B2
JP7208809B2 JP2019015988A JP2019015988A JP7208809B2 JP 7208809 B2 JP7208809 B2 JP 7208809B2 JP 2019015988 A JP2019015988 A JP 2019015988A JP 2019015988 A JP2019015988 A JP 2019015988A JP 7208809 B2 JP7208809 B2 JP 7208809B2
Authority
JP
Japan
Prior art keywords
image
sharpness
focus
control
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019015988A
Other languages
English (en)
Other versions
JP2019145096A (ja
JP2019145096A5 (ja
Inventor
由美 柳内
真一 宮▲崎▼
勇治 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/275,442 priority Critical patent/US10972714B2/en
Publication of JP2019145096A publication Critical patent/JP2019145096A/ja
Publication of JP2019145096A5 publication Critical patent/JP2019145096A5/ja
Application granted granted Critical
Publication of JP7208809B2 publication Critical patent/JP7208809B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像データを処理する画像処理装置、画像処理方法およびプログラムに関する。
人間は目で見たものを立体的に知覚しており、これは脳が両眼の手がかりと単眼の手がかり、また運動視差等をもとに知覚していると考えられている。両眼の手がかりとしては、両眼での網膜像の差である網膜視差などがある。さらに、単眼の手がかりとしては、線遠近法や物体の大きさ、肌理の勾配、陰影、大気遠近やボケの効果等が挙げられる。これらの1つ以上の手がかりを利用して、人間は立体感つまり「もの」の奥行きや厚みや深さ、「もの」の前後関係を知覚している。
カメラなどで撮影され、表示、投影あるいは印刷された2次元画像を見る際には、ピントが合っている部分と、奥行きに応じてボケている部分のボケ方の差から、画像の立体感を感じている。つまり、画像の合焦している(ピントがあっている)部分と、合焦していない(ボケている)部分を再現することが、立体感のある画像を得るために重要となる。また、人の目が合焦している(ピントが合っている)、合焦していない(ボケている)をどの程度見分けることができるか、つまり視覚感度についても様々な検討が行われている。例えば、明度変動に関するVTF(Visual Transfer Function:視覚の伝達関数)やコントラスト感度特性などを用いて説明されている。
一方、例えばレーザー距離計等で、撮影地点から対象物までの実距離を測定する方法、2台のカメラの視差情報から距離を計測する方法など、撮影時に被写体を含むシーンの距離情報を取得する方法も提案されている。特許文献1には、奥行き情報を利用した高画質化手法の技術が記載されている。
特開2009-251839号公報
プリンタなどの出力装置を通して画像を出力すると、例えば記録媒体(printing medium)やインクの滲みによる画像の鮮鋭性の低下や、入力画像データを記録媒体サイズ(プリントサイズ)に変倍することにより、出力画像の鮮鋭性が低下する。ディスプレイやプロジェクタでも同様に出力画像において画像の鮮鋭性が低下する。そのため、画像の合焦している(ピントがあっている)部分と、合焦していない(ボケている)部分の再現性が変化してしまい、人間が感じる画像の立体感が変化する。また、人間が感じる画像の立体感に画像の明るさが影響するため、合焦している(ピントが合っている)部分の見た目の明るさにより人間が感じる画像の立体感が変化する。
特許文献1では、画像の各位置の奥行きを画像から推定して算出し、奥行きと画像処理方法を対応付けして各位置の画像処理方法を効果的に適宜選択し、立体感の低下を防止しつつ高解像度化を図る処理が記載されている。
本発明の目的は、このような従来の問題点を解決することにある。上記の点に鑑み、本発明は、出力処理による鮮鋭性への影響を低減する画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
上記課題を解決するため、本発明に係る画像処理装置は、出力装置で写真画像を出力するための画像データを入力する入力手段と、前記出力装置で出力された前記写真画像を鑑賞する鑑賞者が感じる立体感を、前記画像データが有する立体感に近づけるために、前記画像データに対応する合焦面からの距離に関する情報に基づいて、前記画像データの各画素のデータに対して、画像の鮮鋭性を制御する処理を実行する制御手段と、を備え、前記制御手段は、前記画像において合焦していると判定される合焦領域に隣接する周辺領域の輝度に応じて、前記合焦領域に対する鮮鋭性の制御量を設定することを特徴とする。
本発明によれば、出力処理による鮮鋭性への影響を低減することができる。
画像処理装置を適用したプリントシステムの全体構成を示す図。 撮影時の合焦面、像ずれ量とデフォーカス量の関係を説明するための図。 合焦面と物体との距離を算出する方法を説明するための図。 画像処理部の構成を示す図。 デフォーカスマップを説明するための図。 画像処理を示すフローチャート。 コントラスト感度特性を示す図。 鮮鋭性の相対関係の変化を説明するための図。 明るさの対比現象を説明するための図。 計測用チャートを示す図。 周辺領域の設定を説明するための図。 デフォーカス量と立体感制御量の関係を示す図。 計測用チャートを示す図。 画像出力条件の設定処理を示すフローチャート。
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
[第1の実施形態]
図1は、本実施形態における画像処理装置を適用したプリントシステムの全体構成を示す。本実施形態では、画像処理装置であるインクジェットプリンタを適用した例を説明する。図1のプリントシステムは、パーソナルコンピュータ装置(PC)101(以下、「PC」ともいう)と出力装置102を含む。出力装置102は、ネットワークやUSBまたはローカルバスなどのインタフェースを介してPC101に接続されている。PC101は、出力装置102への印刷制御指示、必要な情報およびデータの転送などを実行する。記憶装置105には、OSをはじめ、本実施形態のシステムプログラムや各種アプリケーションソフトウェアおよび各種処理に必要なパラメータデータを記憶管理している。記憶装置105は、例えば、ハードディスクやフラッシュROMで構成される。CPU104は、記憶装置105に格納されたソフトウェアを実行するにあたり、作業メモリ107を用いて処理を実行する。ユーザインタフェースとなる操作部(以下、「UI」ともいう)106は、上記処理の実行に関して、ユーザによる入力の受付や、ユーザに対する表示に関する処理を行い、キーボードやポインティングデバイス等の入力機器やディスプレイ等の表示機器を含む。また、データ入出力装置108は、SDカード等の外部記録媒体とのデータの入出力を行う。また、不図示の撮像装置をデータ入出力装置108やデータ転送部109へ直接接続し、外部記録媒体を介さずにデータの受け渡しを行ってもよい。
出力装置102は、データ転送部109、プリンタ制御部112、画像処理部110、印刷部111を含み、PC101から印刷データを受信する。本実施形態では、印刷データは、カメラ等の撮像装置で被写体を撮像することで得られる写真画像の入力画像データ、入力画像データに対応した撮影時の合焦面からの距離に相当する情報、画像処理パラメータとプリンタ制御データ、ユーザがUI上で選択した印刷品位や記録媒体等の印刷情報データ、を含んで構成される。記録媒体とは例えば紙メディア等を指す。また、出力装置102は、CPU113、記憶装置114、作業メモリ115を含む。出力装置102は、記憶装置114に記憶されたプログラムを作業メモリ115に読み出して実行することにより出力装置102を統括的に制御する。
撮影時の合焦面からの距離に相当する情報とは、デフォーカス量や像ずれ量、実際の合焦面から物体までの距離である。これらは、本実施形態ではカメラ等の撮像装置で生成されたデータとして説明するが、それに限られず、実際に距離を測定した情報から生成されたデータであってもよい。また、例えば、入力画像データのボケ量を解析した結果から生成されたデータや、他の撮影時のデータを併用したデータでもよい。
入力画像データや合焦面からの距離に相当する情報は、撮像装置内で生成されてもよいし、撮像装置に接続されたPC101または出力装置102で生成されてもよい。また、合焦面からの距離に相当する情報を生成するための情報を撮像装置から取得し、撮像装置に接続されたPC101や出力装置102内で合焦面からの距離に相当する情報を生成してもよい。また、撮像装置はPC101に接続され、PC101を経由して合焦面からの距離に相当する情報を生成するための情報を取得した出力装置102で生成されてもよい。ここで、合焦面からの距離に相当する情報を生成するための情報とは、例えば、撮影レンズの射出瞳の異なる領域を通過した光をそれぞれ光電変換して得られる対の画像などである。
データ転送部109は、PC101から送られてきた印刷データから、入力画像データと撮影時の合焦面からの距離に相当するデータと画像処理パラメータとを取り出して画像処理部110に送り、プリンタ制御データをプリンタ制御部112に送る。入力画像データは、PC101内で記憶装置105にプログラムとして記憶されている解像度変換処理によりユーザ設定された記録媒体のサイズに変倍されたデータである。また、解像度変換処理は、出力装置102の画像処理部110内で行われてもよい。また、本実施形態では、画像処理部110は、出力装置102内にあるが、PC101内に構成されてもよい。
また、画像処理パラメータやプリンタ制御データは、PC101中の記憶装置105や、不図示の出力装置102内の記憶装置(ハードディスクやROM等)に記憶されてもよい。これらが、印刷データ内の印刷情報データに基づいて選択され、画像処理部110、プリンタ制御部112に送られる構成でもよい。プリンタ制御部112は、プリンタ制御データに従って印刷部111の動作を制御する。本実施形態では、印刷部111における印刷は、インクジェット記録方式により行われる。
図2は、撮影時の合焦面、像ずれ量とデフォーカス量の関係を説明するための図である。合焦面201は、撮像装置において像面(撮像面)203と平行でピントの合う平面である。また、デフォーカス量205は、撮像面とデフォーカスした撮像面位置204との差(予定結像面と実際の結像面との差)であり、ボケ量に比例している。デフォーカス量205は、撮像装置において、瞳分割型位相差検出方式やボケの異なる複数の画像を用いて検出される。例えば、画像の像ずれ量(視差量)206からデフォーカス量205が算出されてもよい。撮影レンズの射出瞳の異なる領域を通過した光をそれぞれ光電変換して得られる一対の画素データに対して、データを相対的にずらしながら相関値を演算し、最も相関が高くなる像ずれ量206が視差量となる。さらに、算出した像ずれ量206に対して、撮像素子の画素ピッチとレンズに応じて決定される変換係数を用いて、被写体像面の予定結像面に対するデフォーカス量205を算出する。
また、DFD(Depth of Defocus)方式でデフォーカス量が算出されてもよい。DFD方式では、撮像光学系の撮影パラメータを制御することでボケの異なる複数の画像を取得し、複数の取得画像において、測定対象画素およびその周辺画素を用いて互いのボケの相関量を算出し、デフォーカス量を算出する。
次に、図3を用いて合焦面と物体との距離を算出する方法を説明する。図3では、距離301は合焦物体距離OBJ(0)であり、距離302は合焦像物体に対する撮像面距離S(0)である。また、距離303は物体距離OBJ(def)であり、距離304は合焦面から物体までの距離である。レンズの公式により、下記の式(1)、(2)が成立するため、物体距離OBJ(def)は下記の式(3)で算出することが可能である。
Figure 0007208809000001
Figure 0007208809000002
Figure 0007208809000003
式(3)で算出した物体距離を合焦物体距離から減算することで、合焦面から物体までの距離304が算出される。上述した合焦面からの距離に相当する情報とは、合焦面からの距離に比例した情報である。そのため、合焦面からの距離に相当する情報としては、上述した像ずれ量206、デフォーカス量205、合焦面からの距離304のいずれでもよい。
次に、デフォーカスマップについて説明する。上述のデフォーカス量205を入力画像データ上の複数個所でマップ化したものがデフォーカスマップであり、図5(a)は、デフォーカスマップの一例を示している。本実施形態では、図5(a)に示すように、2つの立方体501、502を撮影した入力画像データに対するデフォーカスマップであり、入力画像データの各画素に対応するデフォーカス量205の情報を保持している。
図5(b)は、デフォーカス量205と本実施形態で使用する各領域との対応を説明するための図である。図5(b)でデフォーカス量205の値「0」が撮影時の合焦面に相当するデフォーカス量205であり、図5(a)の最も黒い部分(領域503)に対応する。デフォーカス量205の値「0」から離れるにつれて、図5(a)では白くなっていく。図5(a)のデフォーカスマップにおいて、デフォーカス量205の値「0」の領域が領域503に対応しており、ピントが合っている(合焦面)画像領域である。以下、領域503を合焦領域という。本実施形態では、領域503以外の領域を、デフォーカスマップ上で合焦面に対応しない領域として非合焦領域504とする。デフォーカス量d1は、許容合焦領域505と非許容合焦領域506の境界の値である。さらに、デフォーカス量d2は、デフォーカスマップに含まれる最大のデフォーカス量である。デフォーカス量dxは、デフォーカス量d1とd2の間の特定のデフォーカス量を表す。
また、本実施形態では、ピントが合っていると許容する領域を許容合焦領域505とする。許容合焦領域505は、被写界深度としてその範囲を定義してもよいし、被験者実験によって任意に定義してもよい。また、許容合焦領域505以外の領域を、許容合焦領域505ではない領域として非許容合焦領域506とする。図5(b)では、横軸をデフォーカス量205としたが、合焦面からの距離に相当する情報である、上述の像ずれ量206や合焦面からの距離304であってもよい。また、本実施形態では、合焦領域503と許容合焦領域505を、合焦していると判定される領域と総称し、非合焦領域504と非許容合焦領域506を、合焦していないと判定される領域と総称する。
本実施形態における画像処理部110の構成を図4に示す。また、本実施形態における画像処理を図6のフローチャートを参照しながら説明する。画像処理部110は、入力画像データを取得し(S601)、撮影時の合焦面からの距離に相当する情報として上述のデフォーカスマップを取得する(S602)。さらに、領域設定部401は、入力画像データあるいは/およびデフォーカスマップを用いて、入力画像中の周辺領域を設定する(S603)。領域設定部401における処理については後述する。さらに、明るさ情報取得部402は、デフォーカスマップの情報により設定した合焦領域あるいは許容合焦領域と、領域設定部401で設定した周辺領域の明るさ情報を入力画像より取得する(S604)。さらに、立体感制御部403は、加えて、記憶装置105や、不図示の出力装置102内の記憶装置(ハードディスクやROM等)に記憶されている出力装置102の出力特性に基づいて定められた画像処理条件405を取得する(S605)。
本実施形態では、画像処理条件405は、印刷条件毎に記憶装置内に保持されており、上述の印刷情報データに応じて画像処理条件405が選択され、立体感制御部403に入力される。立体感制御部403における処理の詳細は後述するが、入力画像データとデフォーカスマップ、出力装置102の出力特性に基づいて定められた画像処理条件405によって、画像の立体感を制御する(S606)。なお、画像処理条件405の詳細については後述する。
次に、出力画像生成部404では、立体感制御部403から出力される出力画像データ(RGB)に対して、インクジェットプリンタの記録ヘッドで記録するためのデータを生成する(S607)。例えば、まずデバイス非依存のRGBデータをデバイス依存のRGBデータに変換する色変換処理を実行し、デバイス依存のRGBデータからインク色データに変換するインク色分解処理を実行する。さらに、記録装置の階調特性に線形的に対応づけられるように階調補正を行う階調補正処理、インク色データをインクドットのON/OFFの情報に変換するハーフトーン処理、記録ヘッドの各記録走査で記録される2値データを生成するマスクデータ変換処理等を実行する。いずれもインクジェットプリンタにおいては一般的な処理であるので、それらの詳細な説明は省略する。出力画像生成部404で作成された出力データは、印刷部111に送られ、記録媒体上に記録される(S608)。
[出力装置における立体感]
ここで、出力装置102の鮮鋭性に影響する出力特性と、立体感の制御について説明する。人間は、カメラなどで撮影された2次元画像を見る際、合焦している(ピントが合っている)合焦領域を含む許容合焦領域と、合焦していない(ボケている)非許容合焦領域の鮮鋭感の差から画像の奥行き感や立体感を感じる。一方、プリンタに限らず、ディスプレイやプロジェクタ等の出力装置で画像を出力した際、出力された画像の鮮鋭性は、出力装置に入力された画像データが有する画像の鮮鋭性とは異なる。すなわち、出力装置で出力するための処理がなされることによって、出力装置に入力される前の画像データが有する鮮鋭性が変化し、鑑賞者が感じる立体感が低減してしまう。また、照明条件や鑑賞者が鑑賞する距離等の画像を鑑賞する環境、または鑑賞する人の視覚特性等の影響により、鑑賞者が感じる画像の鮮鋭性が、出力装置によって出力された画像が有する画像の鮮鋭性と異なり、さらに立体感が感じられなくなってしまう可能性がある。
図7は、コントラスト感度特性(contrast sensitivity functions:CSF)の模式図を示しており、横軸は空間周波数、縦軸はコントラスト感度である。図7で示すように、コントラスト感度特性は、画像の平均輝度(明るさ)によって異なる。平均輝度が明視レベルの場合、2~6(cycle/deg)あたりでコントラスト関数特性は最大となる。空間周波数がそれより低くなっても高くなっても感度は低下し、さらに、平均輝度が高くなるほどピークの空間周波数が大きくなりピークが高くなる傾向がある。
人間は、空間周波数により知覚できる輝度の変化の量が異なり、図7に示すコントラスト感度特性を見ても分かる通り、バンドパス特性を有している。また、図7に示す平均輝度(明るさ)の違いによるコントラスト感度特性の図からも分かるように、平均輝度が明るくなるにつれてコントラスト感度のピークが高くなり、かつピークの周波数が高周波側にシフトする。この影響により、入力画像の立体感に影響している許容合焦領域と非許容合焦領域の鮮鋭性の関係が、出力画像を鑑賞する際に維持されない場合がある。
図8のグラフを用いてさらに詳しく説明する。なお、図8においては、説明簡略化のため、合焦領域の画像の空間周波数特性と非合焦領域に含まれる特定のデフォーカス量に対応する画像の空間周波数特性とが同じ周波数にピークを持つ画像を例として説明する。図8(a)は、鮮鋭性の差により立体感がある入力画像データにおいて、特定の周波数における入力画像データの合焦領域の鮮鋭性を示すコントラストC1と、非合焦領域の鮮鋭性を示すコントラスト値C2の相対関係を示している。一方、図7の「平均輝度(明るさ)が中」の場合のコントラスト感度を適用すると、出力画像の合焦領域と非合焦領域のコントラストの関係は、図8(b)に示すコントラスト値C1とC2’に変化する。
図8(a)及び8(b)から明らかなように、入力画像データの鮮鋭性の変化量が、コントラスト感度特性の影響により、合焦領域と非合焦領域で異なる。これにより、立体感に影響する鮮鋭性の差(コントラスト値C1とC2’の関係802)が、入力画像データにおける鮮鋭性の差(コントラスト値C1とC2の関係801)と異なり、適切な立体感が得られない画像となってしまう。本実施形態では、コントラスト感度特性を適用したデフォーカス量205毎の鮮鋭性に関する特性に基づいたボケの状態によって適切に鮮鋭性を制御することで、立体感のある出力画像の鮮鋭性を制御することができる。また、後述するが、特に許容合焦領域に関しては、周辺領域の輝度に応じて鮮鋭性の制御を行う。それにより、立体感のある出力画像の鮮鋭性の制御において許容合焦領域に関して、周辺領域に対する見た目の明るさに応じた鮮鋭性の制御を行うことができる。
後述する画像処理条件405には、コントラスト感度特性を適用したデフォーカス量205毎の鮮鋭性に関する特性に基づいたデフォーカス量と立体感制御量の関係が設定される。これを用いて画像の鮮鋭性を適切に制御した出力画像においては、合焦領域と非合焦領域のコントラスト値の関係は、図8(a)に示すようにそれぞれC1とC2となる。図8に示すように、画像処理条件405に基づいて立体感制御処理を実行した出力画像では、処理をしない場合の鮮鋭性の差(コントラスト値C1とC2’の関係802)に対してより小さくなることで、入力画像における鮮鋭性の差に等しく(もしくは限りなく近く)なり、適切な立体感を得ることができる。
図8では、説明簡略化のため、合焦領域の画像の空間周波数と非合焦領域に含まれる特定のデフォーカス量205に対応する画像の空間周波数との2点に対するコントラストを比較した。これに限らず、合焦領域と非合焦領域の他のデフォーカス量205に対応する画像についても同様である。また、許容合焦領域に含まれる特定のデフォーカス量205に対応する画像と非許容合焦領域に含まれる特定のデフォーカス量205に対応する画像との2点においても同様である。
前述のコントラスト感度特性に加え、人間の視覚特性として、側抑制とよばれる視覚システムの働きによって、明るさの対比現象が発生する。この現象を図9で説明する。図9の領域901と領域902の部分の物理的な明るさは等しいにも関わらず、人間の目で見て知覚・認知する明るさは、上記の視覚システムの働きにより領域901の方が実際よりも暗く見え、領域902の方が実際よりも明るくみえる。これは、視覚システムの神経細胞群は、互いに近くや隣接する別の神経細胞群と抑制しあっており、光が当たった神経細胞群自身は強く応答するとともに、周りにある神経細胞群の活動を抑制することに起因する。具体的には、図9では領域903は白であるため、領域903に反応する神経細胞群は応答が強くなり、その結果、領域901に反応する神経細胞群は抑制され、領域901の灰色はより暗く見える。一方、領域904は黒であるため、その領域に反応する神経細胞群には光が当たらず神経細胞群は働かないため、領域902に反応する神経細胞群は抑制されず、領域901のように周辺に黒がある場合に比べて領域902の灰色はより明るく見える。
つまり、人間が画像の許容合焦領域を見た際に、前述した側抑制とよばれる視覚システムの働きによって明るさの対比現象が発生すると、見た目の明るさは、実際の明るさとは異なる。明るさが異なることで、コントラスト感度特性が変化するので、許容合焦領域の鮮鋭感が異なる。前述したように、鑑賞者は、許容合焦領域の鮮鋭感と、それ以外の非許容合焦領域の鮮鋭感との差によって立体感を感じている。つまり、許容合焦領域の明るさが同じでも、周辺領域の明るさの影響によっては、画像を鑑賞した鑑賞者が出力装置により出力された画像が有する立体感を感じることができない可能性がある。
例えば、入力画像における周辺領域の平均輝度値が許容合焦領域の平均輝度値より高い場合、低い場合と比較して出力画像の許容合焦領域の鮮鋭性が高くなるように制御する。つまり、本実施形態では、図8に示すような鮮鋭性の制御において、特に許容合焦領域に関しては、周辺領域の輝度値に応じて鮮鋭性を制御する。なお、鮮鋭性の制御量については、後述する画像処理条件405に、コントラスト感度特性を適用したデフォーカス量205毎の出力画像特性(鮮鋭感)を考慮した、デフォーカス量205に対する立体感制御量として設定されている。
本実施形態では、様々な平均輝度(明るさ)に対するコントラスト感度特性とデフォーカス量205毎に立体感制御量を画像処理条件405に設定している。例えば、図10(a)に示すチャート画像を用いた被験者実験を事前に実施する。この際、領域1011に対して周辺領域の明るさが変化した場合の領域1011の見た目の明るさの変化量を事前設定しておく。これにより、入力画像の許容合焦領域と周辺領域の明るさの関係により、許容合焦領域に対して考慮するコントラスト感度特性を適切に設定することができる。
なお、図10(b)の点1012は領域1011と周辺領域の明るさが等しい場合(パッチ1006)に相当する。そして、周辺領域が暗くなるほど領域1011の見た目の明るさが明るくなり、周辺領域が明るくなるほど領域1011の見た目の明るさが暗くなる傾向(例えばパッチ1003)を示している。
以上の理由により、合焦領域を含む許容合焦領域の周辺領域の明るさの情報に応じて、合焦領域を含む許容合焦領域の鮮鋭性を適切に制御することで、出力画像において適切な立体感を得ることができる。
[領域設定処理と明るさ情報の取得]
領域設定処理について説明する。領域設定部401では、デフォーカスマップに基づいて入力画像の許容合焦領域に対して周辺領域を設定する。周辺領域の設定の際、図11(a)に示す入力画像と、これに対するデフォーカスマップ(図11(b))を領域設定部401の入力とする。以下、3つの周辺領域の設定方法について図11(c)、図11(d)、図11(e)を用いて説明する。
図11(a)の入力画像中の物体1101の面1102が撮影時の合焦面である。よって、デフォーカスマップ(図11(b))における領域1103は合焦領域となる。領域設定部401で設定する周辺領域は入力画像の許容合焦領域の周りに存在し、許容合焦領域に注目した場合に、前述の明るさ対比現象の発生に影響する領域である。1つの設定方法として、図11(c)に示す許容合焦領域1105に対して、周辺領域1105は許容合焦領域1104の重心画素から特定の画素距離1106の範囲に設定する。
また、1つの設定方法として、図11(b)に示すように、周辺領域1107を許容合焦領域1107の境界画素から特定の画素距離1109の範囲に設定する。なお、特定の画素距離1106、1109)は、出力画像サイズ等を鑑みて許容合焦領域に注目した際に側抑制が発生する視野角から算出する。あるいは被験者実験等から明るさ対比現象が発生する周辺領域の範囲のデータを集めて算出する等の方法により事前に設定し、出力装置102内の記憶装置(ハードディスクやROM等)に記載する。
さらに、1つの設定方法として、図11(e)に示すように周辺領域1111を図11(b)のデフォーカスマップを参照して設定する。例えば、非許容合焦領域中で特定のデフォーカス量205の範囲に含まれる領域として周辺領域1111を設定する。
ここまでは、許容合焦領域に対する周辺領域の設定方法について述べたが、例えば一般的な画像特徴検出技術やサリエンシーなどを利用して被写体検出を行い、許容合焦領域を含む主被写体領域に対し、上述した方法で周辺領域を設定する方法でもよい。上述の周辺領域を設定するためのパラメータ(デフォーカス量205、画素距離1106、1109等)は、図1に不図示の出力装置102内の記憶装置(ハードディスクやROM等)に記憶されている。領域設定部401は、上記のパラメータにより設定した入力画像内の周辺領域の全ての画素値あるいは画素座標を、明るさ情報取得部402に出力する。明るさ情報取得部402は、領域設定部401から出力された周辺領域の画素値あるいは画素座標から入力画像での周辺領域の平均輝度情報と、入力画像における許容合焦領域の平均輝度情報を算出し、各領域の明るさ情報として立体感制御部403に出力する。
[立体感制御処理]
立体感制御処理について説明する。立体感制御部403では、画像処理条件405に設定されている鮮鋭性の制御パラメータにより入力画像データの鮮鋭性を制御する。画像処理条件405には、コントラスト感度特性を適用したデフォーカス量205毎の出力画像特性(鮮鋭感)を考慮した、デフォーカス量205に対する立体感制御量が設定されている。
図12は、画像処理条件405に設定されているコントラスト感度特性を適用したデフォーカス量205と立体感制御量との関係を示している。画像処理条件405の作成方法については後述する。本実施形態の立体感制御部403では、入力画像データの各画素の輝度情報に対して、処理対象画素のデフォーカスマップのデフォーカス量205と、明るさ情報取得部402で算出された許容合焦領域と周辺領域の明るさ情報とを参照しながら、画像処理条件405に設定された立体感制御量(単に制御量ともいう)を適用してシャープネス処理を行う。
シャープネス処理では、例えば、式(4)のLaplacian Of Gaussianフィルタやアンシャープマスクを用いる。式(5)に式(4)のLaplacian Of Gaussianフィルタを用いた際の入力画像データの輝度情報の変換式を示す。Out(x,y)は、立体感制御処理後の画像データ、βは画像処理条件403に設定されるデフォーカス量205に対する立体感制御量である。βは前項で説明したように、入力画像における周辺領域の平均輝度値が許容合焦領域の平均輝度値より高い場合、許容合焦領域の平均輝度値より低い場合と比較して出力画像の許容合焦領域の鮮鋭性が高くなるように制御されるよう画像処理条件405により設定されている。
Figure 0007208809000004
Figure 0007208809000005
図12において、デフォーカス量d1は、図5(b)に示す許容合焦領域と非許容合焦領域の境界の値である。さらにデフォーカス量d2は、デフォーカスマップに含まれる最大のデフォーカス量である。
出力画像において、コントラスト感度特性を適用したデフォーカス量205毎の鮮鋭性に関する特性を考慮した適切な立体感を得るためには、図12(a)に示すように、デフォーカス量205に応じた制御量を適切に設定する必要がある。図12(a)は、制御量の一例を示しており、デフォーカス量205が大きくなるにつれて、制御量1201が小さくなる。
尚、デフォーカス量205に応じた立体感制御量は、図12(a)に示すものに限られない。例えば、図12(b)の制御量1202に示すように、非許容合焦領域を0としてもよい。非許容合焦領域の制御量を0としても、許容合焦領域と非許容合焦領域の間の鮮鋭性の差を、入力画像における許容合焦領域と非許容合焦領域の間の鮮鋭性の差に近づけることができるため、立体感を有する出力画像を得ることができる。
ここで、本実施形態では、前述したように周囲の明るさによって鑑賞者が感じる鮮鋭性が異なることを考慮して、画像に対する立体感制御処理を、許容合焦領域の平均輝度値に基づいて設定する。具体的には、入力画像における許容合焦領域の周辺に位置する周辺領域の平均輝度値が、許容合焦領域の平均輝度値より高い場合には、許容合焦領域の平均輝度値より低い場合と比較して、出力画像の許容合焦領域の鮮鋭性が高くなるように制御する。図12(d)に、周辺領域の平均輝度値が許容合焦領域の平均輝度値より高い場合の制御量1204を示す。また、図12(c)に、周辺領域の平均輝度値が許容合焦領域の平均輝度値より低い場合の制御量1203を示す。いずれも、デフォーカス量が大きくなるほど立体感制御量が小さくなるように設定されているが、図12(d)における制御量1204は、図12(c)における制御量1204よりも大きく設定されている。すなわち、周辺領域が合焦領域よりも明るい場合に立体感を再現するための制御量は、周辺領域が合焦領域よりも暗い場合に立体感を再現するための制御量よりも大きな値が設定される。
ここまでは、立体感制御処理としてシャープネス処理を採用して許容合焦領域の鮮鋭性を高める方法を説明したが、画像をボケさせるフィルタを使用して非合焦領域の鮮鋭性を低下させることにより立体感のある画像を得る方法を採用してもよい。周辺領域をさらにボケさせて鮮鋭性を低下させ、合焦領域の鮮鋭性との差を大きくすることで、立体感のある画像を得ることができる。例えば、ガウシアンフィルタの強度を立体感制御量により制御することで実現できる。その際には、図12(e)及び(f)に示すように、デフォーカス量が大きくなるほど立体感制御量が大きくなるように設定することで、立体感のある画像を得ることができる。尚、このように、画像をぼけさせるフィルタを非合焦領域に適用する場合においても、合焦領域の周辺の領域の明るさを考慮することが望ましい。前述したように、鑑賞者は画像の鮮鋭性の差によって画像に立体感を感じる。従って、ボケさせるフィルタを用いる場合には、周辺領域の平均輝度値が許容合焦領域の平均輝度値よりも高い場合に設定される立体感制御量を、周辺領域の平均輝度値が許容合焦領域の平均輝度値よりも低い場合に設定される立体感制御量よりも小さくなるように設定する。
なお、シャープネス処理に使用するフィルタは、Laplacian Of Gaussianフィルタだけでなく、特定フィルタの強度を鮮鋭性制御量で制御したものでもよい。ここで、特定フィルタとは、例えば、出力装置の鮮鋭性の低下を示す特性から、その逆特性を求めて作成されたフィルタである。
また、本実施形態では、鮮鋭性を制御する処理としてシャープネス処理を例に説明したが、これはコントラスト処理であってもよい。合焦領域を含む許容合焦領域の入力画像データの各画素の輝度値のコントラストが高くなるように輝度変換を行う。輝度変換については鮮鋭性制御量を係数とする変換式を用いる方法や入力画像データの各画素の輝度値から生成したヒストグラムを均等化することでコントラストを高める方法等があるが、コントラストが制御できる方法であれば、これらに限られない。シャープネス処理とコントラスト処理のどちらも出力画像の鮮鋭性を制御することができるため、出力装置102の特性に応じて、どちらかの処理を選択する、あるいは2つの処理を組み合わせて実行してもよい。
[画像処理条件]
立体感制御処理での画像処理条件405の作成方法について説明する。まず、例えば図13に示すような計測用チャートをプリンタやディスプレイ、プロジェクタ等の出力装置102で出力する。その後、不図示の測定装置を用いて、取得した出力装置102の出力画像に対して前述のコントラスト感度特性を適用した画像の周波数特性(MTF)を算出する。また、出力画像生成における各画像処理をPC上でシミュレートして得られた画像に視覚のコントラスト感度特性を適用した画像のMTF特性を算出する方法でもよい。
図13に示す画像は、ピントが合っている合焦面に対応する画像群1301、特定のデフォーカス量205における入力画像のボケ量に相当するボケで表現された複数の画像群1302を含んで構成されている。より詳細には、空間周波数の異なる複数の矩形パターンあるいは正弦波パターン、均一パターン1303、1304を含むチャートである。なお、図13に示したものは、空間周波数の異なる複数の正弦波パターン1301、1302である。均一パターンは、正弦波パターン上の最大画素値と最小値の画素値とを含んで構成される。
画像処理条件405の作成方法を図14のフローチャートを参照しながら説明する。まず、図13に示す計測用チャートを取得する(チャート出力、S1401)。取得された計測用チャートの測定画像に対しコントラスト感度特性を適用する。測定画像をフーリエ変換した空間周波数特性に対しコントラスト特性を乗じることでコントラスト感度特性を適用し(S1402、S1403)、その結果を逆フーリエ変換してMTF算出用画像を取得する(S1404)。続いて、MTF算出用画像から画像のMTF特性を算出する(S1405)。測定画像が正弦波パターンである場合、本実施形態におけるMTF特性は式(6)あるいは式(7)で算出する。この値は、光学伝達関数の絶対値を意味する。出力画像の平均明度が変化する場合は式(7)を用いてもよい。式(6)や式(7)におけるR1、R2の値は反射率であるが、輝度や濃度やデバイスRGB値を用いてもよい。不図示の測定装置としては、出力装置102がプリンタである場合は、例えばスキャナやデジタルカメラ、顕微鏡であり、ディスプレイやプロジェクタの場合は、デジタルカメラを用いてもよい。
Figure 0007208809000006
Figure 0007208809000007
また、矩形波パターンである場合、出力装置102のMTF特性は、式(6)または式(7)を適用することで得られるコントラスト伝達関数(CTF)で表現される。また、CTF値をコルトマン補正式で変換したMTF値を用いてもよい。
前述の方法により、計測用チャートに含まれる合焦面に対応する画像群1301および特定のデフォーカス量に対応する画像群1302それぞれの画像に対しコントラスト感度特性を適用した画像の周波数特性(MTF特性)が取得される。
これにより、デフォーカス量205ごとにMTF特性が取得できる。つまり、コントラスト感度特性を適用したデフォーカス量205毎の鮮鋭性に関する特性が得られる。一方、適切な立体感を有する出力画像を得るためには、立体感制御処理を適用しない場合と比較して、処理を適用した際の出力画像の許容合焦領域と非許容合焦領域の間の鮮鋭性の差が、入力画像における許容合焦領域と非許容合焦領域の間の鮮鋭性の差に近づく必要がある。つまり、処理後の画像において、許容合焦領域と非許容合焦領域の間の鮮鋭性の差を適切に制御するためには、コントラスト感度を適用したデフォーカス量205毎の鮮鋭性に関する特性に応じて、鮮鋭性制御量を設定すればよい。例えば、特定の空間周波数における処理後の画像の合焦領域の鮮鋭性あるいは周波数特性を入力画像の鮮鋭性あるいは周波数特性に、鮮鋭化処理によって復元するように立体感制御量を設定する(S1405)。
同様に、非合焦領域に対してもデフォーカス量毎に得られるMTF特性から復元量を算出して立体感制御量とする。これにより、図12に示すデフォーカス量205に対する立体感制御量が算出される。本実施形態では、図12(a)に示すように、合焦領域の立体感制御量は0であるが、合焦領域の鮮鋭性の特性に変化がある場合は、その制御量は0ではなく変化に対応した値であってもよい。
画像処理条件405としてデフォーカス量と鮮鋭度の関係を定義する方法は、デフォーカス量205を入力として鮮鋭性制御量を出力とする関係式として設定する方法、LUT方式でパラメータを選択して設定する方法等がある。勿論のこと、これらに限られず、デフォーカス量205に対する鮮鋭性制御量を算出できるのであれば、どのような方法でもよい。
画像処理条件405により鮮鋭化処理をしない場合の鮮鋭性の差に対して、処理を行った場合の鮮鋭性の差が、入力画像データにおける鮮鋭性の差に近くなることを満足することで、適切な立体感を有する出力画像が得られる。よって、立体感制御量は、上述を満足する値であれば、MTF特性を復元する値には限られない。
上記で説明した方法により、コントラスト感度特性を適用したデフォーカス量205毎の鮮鋭性に影響する特性から、立体感制御量を導出する(S1406)。これに基づいて入力画像データを処理することで、出力画像における立体感を制御することが可能になる。
本実施形態は、画像処理条件405として、コントラスト感度特性を適用したデフォーカス量205と立体感制御量との関係を例に説明した。画像処理条件405はこれに限られず、合焦面からの距離に相当する情報である像ずれ量206もしくは合焦面と物体との距離304と、立体感制御量との関係としてもよい。
以上のように、デフォーカス量205に応じた出力装置102の鮮鋭性に関する出力特性から導出される画像処理条件405を設定する(S1407)。設定された画像処理条件405に基づいて入力画像データを処理することで、出力画像の立体感を制御することが可能となる。
また、以上で説明した実施形態では、写真画像中の画像データとしてカメラ等の撮像装置で撮影したデータ、合焦面からの距離に相当する情報として撮影時のデフォーカス量を用いる形態を説明した。しかし、撮像して得られた写真画像を画像編集用のソフトウェアで編集して焦点位置の補正を行い、その際に合わせて画像中の領域毎のフォーカス量も変更することもある。その場合には、補正後の画像データと変更後のデフォーカス量を用いてもよい。また、撮像装置側でフォーカス量を取得せずに、撮像した画像を画像編集用のソフトウェアで解析し、その解析によりフォーカス量を取得するようにしてもよい。また、これらに限らず、例えばモデリング、レンダリング、画像編集用のソフトウェア等で作成した写真画像のデータと、その画像データに対応するソフトで作成された合焦面からの距離に相当する情報を使用することもできる。これらのソフトウェアでは、合焦面からの距離に相当する情報であるマップを用いて画像のボケ情報等を生成する場合がある。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102 出力装置: 113 CPU: 114 記憶装置: 115 作業メモリ

Claims (17)

  1. 出力装置で写真画像を出力するための画像データを入力する入力手段と、
    前記出力装置で出力された前記写真画像を鑑賞する鑑賞者が感じる立体感を、前記画像データが有する立体感に近づけるために、前記画像データに対応する合焦面からの距離に関する情報に基づいて、前記画像データの各画素のデータに対して、画像の鮮鋭性を制御する処理を実行する制御手段と、を備え、
    前記制御手段は、前記画像において合焦していると判定される合焦領域に隣接する周辺領域の輝度に応じて、前記合焦領域に対する鮮鋭性の制御量を設定する、
    ことを特徴とする画像処理装置。
  2. 前記制御手段は、前記周辺領域の輝度が前記合焦領域の輝度より高い場合、前記周辺領域の輝度が前記合焦領域の輝度より低い場合よりも、前記合焦領域に対する前記鮮鋭性の制御量を大きくすることを特徴とする請求項1に記載の画像処理装置。
  3. 前記合焦面からの距離に関する情報は、デフォーカス量を含むことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記制御手段は、前記デフォーカス量が第1の量の場合の前記鮮鋭性の制御量を、前記デフォーカス量が前記第1の量よりも小さい第2の量の場合の前記鮮鋭性の制御量よりも大きくすることを特徴とする請求項3に記載の画像処理装置。
  5. 前記制御手段による鮮鋭性の制御が行われた画像データにおける前記合焦していると判定される領域と合焦していないと判定される領域との間の鮮鋭性の相対関係は、前記制御手段による鮮鋭性の制御が行われない画像データよりも、前記写真画像における前記合焦していると判定される領域と前記合焦していないと判定される領域との間の鮮鋭性の相対関係に近いことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 特定のデフォーカス量に対応し、複数の空間周波数に対応する複数のパターンを含む第1の計測用チャートを出力する第1のチャート出力手段と、
    前記第1のチャート出力手段により出力された前記第1の計測用チャートに基づいて、前記制御手段による鮮鋭性の制御量を取得する第1の取得手段と、をさらに備え、
    前記制御手段は、前記第1の取得手段により取得された前記制御量を用いて、前記入力手段により入力された画像データが表す画像の鮮鋭性を制御する、
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記第1の取得手段は、前記第1のチャート出力手段により出力された前記第1の計測用チャートからMTF特性を求め、当該MTF特性に基づいて得られる鮮鋭性の復元量を、前記鮮鋭性の制御量として取得することを特徴とする請求項6に記載の画像処理装置。
  8. 前記合焦していると判定される領域に複数の輝度を有する前記周辺領域が対応づけられた複数のパターンを含む第2の計測用チャートに基づいて、前記合焦していると判定される領域と前記周辺領域との間のコントラスト感度特性を取得する第2の取得手段、をさらに備え、
    前記第1の取得手段は、前記第1のチャート出力手段により出力された前記第1の計測用チャートと、前記第2の取得手段により取得された前記コントラスト感度特性とに基づいて前記鮮鋭性の制御量を取得する、
    ことを特徴とする請求項6又は7に記載の画像処理装置。
  9. 前記制御手段による鮮鋭性の制御は、シャープネス処理、コントラスト処理、の少なくともいずれかを含むことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記写真画像は被写体を撮像することにより得られたものであることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記合焦面は被写体を撮像する際の合焦面であることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記出力装置による出力は、印刷、表示の少なくともいずれかを含むことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 出力装置において実行される制御方法であって、
    写真画像の画像データを入力する入力工程と、
    前記写真画像中の合焦面からの距離に関する情報に基づいて、前記入力された画像データが表す画像の鮮鋭性を制御する制御工程と、
    前記制御工程において鮮鋭性の制御が行われた画像データを出力する出力工程と、を有し、
    前記制御工程では、前記画像において合焦していると判定される合焦領域に隣接する周辺領域の輝度に応じて、前記合焦領域に対する鮮鋭性の制御量を変化させる、
    ことを特徴とする画像処理方法。
  14. コンピュータを、
    写真画像の画像データを入力する入力工程と、
    前記写真画像中の合焦面からの距離に関する情報に基づいて、前記入力された画像データが表す画像の鮮鋭性を制御する制御工程と、
    前記制御工程において鮮鋭性の制御が行われた画像データを出力する出力工程と、を実行させるためのプログラムであって、
    前記制御工程では、前記画像において合焦していると判定される合焦領域に隣接する周辺領域の輝度に応じて、前記合焦領域に対する鮮鋭性の制御量を変化させる、
    ことを特徴とするプログラム。
  15. 出力装置で写真画像を出力するための画像データを入力する入力手段と、
    前記出力装置で出力された前記写真画像を鑑賞する鑑賞者が感じる立体感を、前記画像データが有する立体感に近づけるために、前記画像データに対応する合焦面からの距離に関する情報に基づいて、前記画像データの各画素のデータに対して、画像の鮮鋭性を制御する処理を実行する制御手段と、を備え、
    前記制御手段は、前記画像において合焦していると判定される合焦領域に隣接する周辺領域の輝度が前記合焦領域の輝度より高い場合、前記周辺領域の輝度が前記合焦領域の輝度より低い場合よりも、非合焦領域に対する前記鮮鋭性の制御量を小さくする、
    ことを特徴とする画像処理装置。
  16. 前記合焦面からの距離に関する情報は、デフォーカス量を含むことを特徴とする請求項15に記載の画像処理装置。
  17. 前記制御手段による鮮鋭性の制御は、画像をボケさせる処理であることを特徴とする請求項15又は16に記載の画像処理装置。
JP2019015988A 2018-02-15 2019-01-31 画像処理装置、画像処理方法およびプログラム Active JP7208809B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/275,442 US10972714B2 (en) 2018-02-15 2019-02-14 Image processing apparatus, image processing method and storage medium for storing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018025348 2018-02-15
JP2018025348 2018-02-15

Publications (3)

Publication Number Publication Date
JP2019145096A JP2019145096A (ja) 2019-08-29
JP2019145096A5 JP2019145096A5 (ja) 2022-01-27
JP7208809B2 true JP7208809B2 (ja) 2023-01-19

Family

ID=67772548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019015988A Active JP7208809B2 (ja) 2018-02-15 2019-01-31 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7208809B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158388A (ja) 2005-11-30 2007-06-21 Tama Tlo Kk 画質改善方法、装置及びプログラム
JP2007329902A (ja) 2006-05-08 2007-12-20 Matsushita Electric Ind Co Ltd 画像処理方法、画像処理装置、プログラム、記録媒体および集積回路
JP2014064247A (ja) 2012-09-24 2014-04-10 Hitachi Media Electoronics Co Ltd 画像撮影装置および画像処理方法
JP2014168227A (ja) 2013-01-31 2014-09-11 Canon Inc 画像処理装置、撮像装置、画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158388A (ja) 2005-11-30 2007-06-21 Tama Tlo Kk 画質改善方法、装置及びプログラム
JP2007329902A (ja) 2006-05-08 2007-12-20 Matsushita Electric Ind Co Ltd 画像処理方法、画像処理装置、プログラム、記録媒体および集積回路
JP2014064247A (ja) 2012-09-24 2014-04-10 Hitachi Media Electoronics Co Ltd 画像撮影装置および画像処理方法
JP2014168227A (ja) 2013-01-31 2014-09-11 Canon Inc 画像処理装置、撮像装置、画像処理方法

Also Published As

Publication number Publication date
JP2019145096A (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
JP7137313B2 (ja) 出力装置、画像処理方法およびプログラム
US10972714B2 (en) Image processing apparatus, image processing method and storage medium for storing program
US10992851B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium, with image processing based on image processing condition and information equivalent to distance from focal plane
US11037037B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable storage medium
JP7403594B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10225466B2 (en) Imaging apparatus and imaging method with error corrected interpolation frame generation
JP5464279B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
US11645774B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
TWI462054B (zh) Estimation Method of Image Vagueness and Evaluation Method of Image Quality
JP2011135563A (ja) 撮像装置および画像処理方法
US20190355101A1 (en) Image refocusing
WO2012008116A1 (en) Image processing apparatus, image processing method, and program
JP2004133919A (ja) 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
US11120315B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable storage medium, with image processing using distance information equivalent to distance from focal plane at time of image-capturing and image processing condition
JP7278080B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7356218B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7208809B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6682184B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP2015198380A (ja) 画像処理装置、撮像装置、画像処理プログラム、および画像処理方法
Aslantas et al. Multi focus image fusion by differential evolution algorithm
JP2019016222A (ja) 画像処理装置およびその制御方法
JP7300962B2 (ja) 画像処理装置、画像処理方法、撮像装置、プログラム、および記憶媒体
JP2014049895A (ja) 画像処理方法
JP2019145096A5 (ja)
JP2015088914A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R151 Written notification of patent or utility model registration

Ref document number: 7208809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151