JP7117914B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7117914B2
JP7117914B2 JP2018125281A JP2018125281A JP7117914B2 JP 7117914 B2 JP7117914 B2 JP 7117914B2 JP 2018125281 A JP2018125281 A JP 2018125281A JP 2018125281 A JP2018125281 A JP 2018125281A JP 7117914 B2 JP7117914 B2 JP 7117914B2
Authority
JP
Japan
Prior art keywords
image
image processing
distance information
defocus
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018125281A
Other languages
English (en)
Other versions
JP2020004266A (ja
JP2020004266A5 (ja
Inventor
修平 小川
真一 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018125281A priority Critical patent/JP7117914B2/ja
Priority to US16/443,186 priority patent/US11153552B2/en
Publication of JP2020004266A publication Critical patent/JP2020004266A/ja
Publication of JP2020004266A5 publication Critical patent/JP2020004266A5/ja
Priority to JP2022120710A priority patent/JP7403594B2/ja
Application granted granted Critical
Publication of JP7117914B2 publication Critical patent/JP7117914B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
人間は目で見たものを立体的に知覚しており、これは脳が両眼の手掛かりと単眼の手掛かり、また運動視差等をもとに知覚していると考えられている。両眼の手掛かりとしては、両眼での網膜像の差である網膜視差などがある。さらに、単眼の手掛かりとしては、線遠近法や物体の大きさ、肌理の勾配、大気遠近やボケの効果等が挙げられる。これらの一つ以上の手掛かりを利用して、人間は立体感つまり「もの」の奥行や厚みや深さ、「もの」の前後関係を知覚している。
撮像装置により撮影され、表示、投影、あるいは印刷された2次元画像を人間が見る際には、ピントが合っている部分と、奥行に応じてボケている部分のボケ方の差から画像の立体感が認識される。つまり、画像の合焦している(ピントが合っている)部分と、合焦していない(ボケている)部分の再現が立体感にとって重要となる。
特許第6143747号公報
しかしながら、撮像装置の視差情報等から得られる、合焦面からの距離に相当する情報(深度値やデフォーカス量など)には、欠損やノイズが含まれる。例えば、2台の撮像装置の視差情報から、深度値を計測するステレオ法においては、取得可能な深度の精度が、2台の撮像装置間の距離に依存している。このような場合、撮像装置間の距離が短くなればなるほど、深度の精度が悪くなる。そのため、物理的に2台の撮像装置間の距離を十分に離すことができないような状況においては、立体感の制御に必要なだけの深度やデフォーカスの精度を確保することが難しい。また、深度値やデフォーカス量の精度は撮影した画像にも依存する。特に上記ステレオ法によって撮影された場合、画像のエッジ部分は、コントラストが高く、深度値が一意に決まりやすい。その一方、画像の平坦な部分はコントラストが低く、深度値が一意に決まり難いため、深度値の確からしさ(確度)が低くなってしまう。
カメラから得られた深度の精度を向上させる技術として、例えば、特許文献1では、注目画素の深度値と、周辺画素値の深度値から、深度値の方向導関数を求めることにより、深度値にノイズがある画素を特定している。しかしながら、特許文献1では、ノイズがある画素を特定するために深度値のみを用いているため、上述した画像の平坦部分などにおいては、確からしさ(確度)の低い深度値の影響を受けやすいといった課題がある。
上記課題を鑑み、本発明では、撮影画像に関する、合焦面からの距離に相当する情報の精度を向上させることを目的とする。
本発明は、上記の課題を解決するために、以下の構成を有する。すなわち、入力画像と、前記入力画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報と、を取得する取得手段と、前記入力画像の画素値を用いて、前記距離情報の確度を示す評価値を導出する導出手段と、前記評価値に基づき、前記距離情報を修正する修正手段とを有し、前記導出手段は、前記距離情報に対する評価値の空間分布を導出するとともに、前記空間分布に基づいて、前記入力画像を複数の領域に分割し、前記修正手段は、前記空間分布に基づいて、前記分割した領域ごとに前記距離情報を修正する
本発明により、撮影画像に関する、合焦面からの距離に相当する情報の精度を向上させることができる。
本発明に係るPCと出力装置の構成例を示す図。 レンズと像ずれ量デフォーカス量、合焦面の関係を示す図。 合焦像距離、物体距離、合焦物体距離の関係を示す図。 第1の実施形態に係るソフトウェア構成の例を示す図。 本発明に係る画像処理のフローチャートを示す図。 デフォーカス量と各領域を説明するための図。 本発明に係るコントラストと空間周波数の関係を説明するための図。 本発明に係る立体感制御量とデフォーカス量の関係を説明するための図。 本発明に係る印刷に応じた立体感制御量の変動を説明するための図。 本発明に係る画像処理条件を生成する際に用いるパターンの例を示す図。 本発明に係る画像処理条件の生成処理のフローチャート。 本発明に係る画像の周波数特性を説明するための図。 第2の実施形態に係るデフォーカスマップ修正処理のフローチャート。 第3の実施形態に係るデフォーカスマップ修正処理のフローチャート。
本発明の実施形態に係る画像処理装置を、図面を参照しながら説明する。なお、図面間で符号の同じものは同じ動作をするとして、重複する説明を省く。また、以下に示す実施形態にて提示されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。
以下に説明する各実施形態においては、出力装置としてインクジェットプリンタを例に挙げ、修正したデフォーカス量(デフォーカス情報)に基づいて、立体感制御を行う画像処理を説明する。また、以下の説明において、2次元の画像形成を行う際の立体感の再現に係る制御を立体感制御と記載する。
[システム構成]
図1は、本発明の一実施形態に係る画像処理装置を適用したプリントシステムの全体構成の例を示す。情報処理装置(以下、「PC」ともいう)101と出力装置102を含んで構成される。PC101と出力装置102とが、ネットワークやUSB(Universal Serial Bus)またはローカルバスなどのインタフェースにより、通信可能に接続されている。ここでの接続方式は、特に限定するものではなく、有線/無線も問わない。PC101は、出力装置102への印刷制御指示、必要な情報及びデータの転送などを実施する。したがって、図1には不図示であるが、PC101と出力装置102はそれぞれ、外部装置との通信部を備える。
PC101は、CPU103、記憶装置104、UI105、作業メモリ106、およびデータ入力装置107を含んで構成される。記憶装置104は、不揮発性の記憶領域であり、OS(Operating System)や、本実施形態のシステムプログラムや各種アプリケーションソフトおよび各種処理に必要なパラメータデータを記憶している。記憶装置104は、HDDやフラッシュROMに代表される手段で構成可能である。CPU103は、記憶装置104に格納された各種ソフトウェアを実行する際に、作業メモリ106を用いて処理を実行する。UI105は、ユーザインタフェースとなる操作部であり、各種処理の実行に関して、キーボードやマウス等の入力機器やディスプレイ等の表示機器を含む。作業メモリ106は、揮発性の記憶領域であり、例えば、CPU103による各種処理を実行する際に利用される。データ入力装置107は、SDカード等の外部記録媒体とのデータの入出力を行う。また、PC101は、カメラ等の撮像装置(不図示)をデータ入力装置107へ接続し、外部記録媒体を介さずにデータの受け渡しを直接行ってもよい。
出力装置102は、データ転送部108、画像処理部109、印刷部110、およびプリンタ制御部111を含んで構成される。上述したように、本実施形態では、出力装置102は、インクジェット方式で印刷動作が実行可能なプリンタを想定して説明するが、他の機能を有する複合機(MFP:Multi-Function Peripheral)などであってもよい。出力装置102には、PC101から印刷処理に用いられる印刷データが適時送信される。本実施形態における印刷データは、以下のデータを含んで構成される。なお、ここで示すデータは一例であり、他のデータを含んでもよい。
(1)カメラ等の撮像装置で撮像された入力画像データ
(2)入力画像データに対応した撮影時の合焦面からの距離に相当する情報
(3)画像処理パラメータとプリンタ制御データ
(4)ユーザがUI上で選択した印刷品位や記録媒体等の印刷情報データ
記録媒体とは、出力装置102において画像形成が行われる媒体であり、例えば、紙メディア等を指す。撮影時の合焦面からの距離に相当する情報(以下、「距離情報」とも称する)とは、デフォーカス量や像ずれ量、実際の合焦面から物体までの距離の情報などが相当する。入力画像データや、距離情報は、撮像装置(不図示)内で生成されてもよいし、撮像装置(不図示)に接続されたPC101または出力装置102において生成されてもよい。また、距離情報を生成するための情報を撮像装置(不図示)から取得し、撮像装置に接続されたPC101や出力装置102内で距離情報を生成してもよい。ここで、距離情報を生成するための情報とは、例えば、撮像装置が備える撮影レンズの射出瞳の異なる領域を通過した光をそれぞれ光電変換して得られる対の画像などが挙げられる。
データ転送部108は、PC101から送られてきた印刷データから、入力画像データ、距離情報、及び画像処理パラメータを取り出して画像処理部109に送る。また、データ転送部108は、プリンタ制御データや印刷情報データをプリンタ制御部111に送る。
画像処理パラメータやプリンタ制御データは、PC101内の記憶装置104や、出力装置102内の記憶装置(HDDやROM等:不図示)に記憶されている。これらが、印刷データ内の印刷情報データに基づいて選択され、画像処理部109やプリンタ制御部111に送られる構成でもよい。プリンタ制御部111は、プリンタ制御データに従って印刷部110の動作を制御する。本例では、印刷部110における印刷に関しては、インクジェット記録方式により印刷を行う。
図2は、本実施形態に係る、撮影時の合焦面、像ずれ量、及びデフォーカス量の関係を説明するための図である。図2において、合焦面201は、撮像装置(不図示)において像面(撮像面)203と並行でピントの合う平面のことである。また、デフォーカス量205(def)は、像面203とデフォーカスした撮像面位置204との差(予定結像面と実際の結像面との差)であり、ボケ量に比例している。本例では、予定結像面は、像面203に対応し、実際の結像面は、撮像面位置204に対応する。デフォーカス量205を検出する方法としては、従来、瞳分割型位相差検出方式や、ボケの異なる複数の画像を用いてデフォーカス量を検出する方法が知られている。
例えば、特開2008-15754号公報では、図2に示す画像の像ずれ量(視差量)206からデフォーカス量205を算出する方法が開示されている。この方法では、撮影レンズの射出瞳の異なる領域を通過した光をそれぞれ光電変換して得られる一対の画素データに対して、データを相対的にずらしながら相関値を演算し、最も相関が高くなる像ずれ量206が視差量となる。さらに算出した像ずれ量206に対して、撮像素子の画素ピッチとレンズに応じて決定される変換係数を用いて被写体像面の予定結像面に対するデフォーカス量205を算出する。
また、特開2013-253964号公報では、DFD(Depth from Defocus)方式によってデフォーカス量を算出する方法が開示されている。DFD方式は、撮像光学系の撮影パラメータを制御することにより、ボケの異なる複数の画像を取得し、複数の取得画像において測定対象画素およびその周辺画素を用いて互いのボケの相関量を算出してデフォーカス量205を算出する。
次に、図3を用いて合焦面201と物体との距離を算出する方法を説明する。図3において、301は合焦物体距離OBJ(0)を示し、合焦面201からレンズ202までの距離である。302は合焦像物体に対する撮像面距離S(0)を示し、レンズ202から像面203(予定結像面)までの距離である。303は物体距離OBJ(def)を示し、レンズ202から物体(不図示)までの距離である。304は合焦面201から物体(不図示)までの距離である。変数defは、デフォーカス量205を示している。また、変数def=0の場合とは、像面203とデフォーカスした撮像面位置204との差が0であることを示す。レンズの公式により、下記の式(1)、式(2)が成立するため、物体距離OBJ(def)は下記の式(3)によって算出することが可能である。
Figure 0007117914000001
Figure 0007117914000002
Figure 0007117914000003
式(3)によって算出した物体距離OBJ(def)を合焦物体距離OBJ(0)から引くことにより、合焦面201から物体(不図示)までの距離304を算出することができる。
上述した合焦面201からの距離に相当する情報(距離情報)とは、合焦面201からの距離に比例した情報である。そのため、合焦面201からの距離に相当する情報(距離情報)としては、上述した像ずれ量206、デフォーカス量205、合焦面201から物体(不図示)までの距離304のいずれでもよい。
次にデフォーカスマップについて説明する。上述のデフォーカス量205を入力画像データ上の複数個所でマップ化したものがデフォーカスマップであり、入力画像データの各画素に対応するデフォーカス量の情報を保持している。したがって、入力画像データの画素数に応じて、保持されるデフォーカス量の情報の数は異なる。
図6は、デフォーカス量と本実施形態で使用する各領域を説明するための図である。図6において、横軸はデフォーカス量[mm]を示しており、中央の値を0とし、左右に離れるほどデフォーカス量が増加している。図6において、デフォーカス量=“0”が撮影時の合焦面201に相当するデフォーカス量であり、合焦面画像領域(以下、合焦領域503)と呼ぶ。合焦領域503以外の領域を本実施形態では、デフォーカスマップ上で合焦面201に対応しない領域として非合焦領域504とする。また、ピントが合っているものとして許容する領域を許容合焦領域505とする。許容合焦領域505は、被写界深度としてその範囲を定義してもよいし、被験者実験によって任意に定義してもよい。許容合焦領域505以外の領域を、本実施形態では非許容合焦領域506とする。図6では、横軸をデフォーカス量としたが、これに限定するものではない。例えば、距離情報の例として挙げた、上述の像ずれ量206や、合焦面201から物体までの距離304の情報などの他の情報を用いてもよい。
<第1の実施形態>
本願発明の第1の実施形態に係る画像処理部109の構成例を図4に示す。画像処理部109は、例えば、専用の回路等によって実行されてもよい。もしくは、CPUや記憶領域を設け、CPUが記憶領域に記憶されたプログラムを読み出して実行することにより実現されてもよい。なお、本実施形態では、画像処理部109は、出力装置102が備える構成としているが、これに限定するものではない。例えば、画像処理部109に対応する機能がPC101や撮像装置(不図示)にて提供され、それらが出力装置102と連携もしくは出力装置102の情報を取得することで実行されるような構成であってもよい。
画像処理部109は、画像取得部401、情報生成部400、立体感制御部405、および条件保持部406を含んで構成される。情報生成部400は、上述した合焦面201からの距離に相当する情報(距離情報)を生成する部位であり、デフォーカスマップ取得部402、デフォーカスマップスコア算出部403、およびデフォーカスマップ修正部404を含んで構成される。
本実施形態に係る画像処理部109における画像処理を図5のフローチャートを用いて説明する。
S101にて、画像取得部401は、撮像された入力画像を取得する。入力画像は、撮像された画像の色情報を示す。ここでは、上記にて(1)にて示した入力画像データに相当する。
S102にて、デフォーカスマップ取得部402は、撮像された画像に対応するデフォーカスマップを取得する。デフォーカスマップは、入力画像の一つ以上の画素ごとに合焦面201からの距離を記録したマップである。なお、デフォーカスマップは入力画像と対応づけて予め与えられてもよいし、上述の方法により、像ずれ量206からデフォーカスマップが生成されてもよい。
S103にて、デフォーカスマップスコア算出部403は、画像取得部401およびデフォーカスマップ取得部402において取得された入力画像の色情報を用いて、デフォーカスマップのスコアを画素ごとに算出する。ここでの色情報とは、例えば、画素のRGB値などが挙げられる。
本実施形態において、デフォーカスマップのスコアとは、デフォーカスマップが持つ値の確からしさ(確度)を画素ごとに示した評価値である。上述したように、像ずれ量206等を用いて、デフォーカス量205などの距離情報(合焦面201からの距離に相当する情報)を算出する場合、画像のエッジ部分など、コントラストの高い領域は、像ずれ量が一意に決まりやすい。これは、コントラストの高い領域であれば、ある像ずれ量において高い相関値を示すことがはっきりと特定することができるためである。一方、画像の平坦な部分(コントラストが低い領域)は、いずれの像ずれ量においても相関値に変化が乏しく、像ずれ量を一意に決め難い。このことから、入力画像中のコントラストが高い領域で得られたデフォーカス量は、相対的に確からしさが高く、コントラストが低い領域で得られたデフォーカス量は相対的に確からしさが低いことがわかる。言い換えると、高い相関が特定できる場合とは、その画素における距離情報の確度が高いことを意味する。
本実施形態では、画像中の領域ごとに算出されたコントラストをデフォーカスマップのスコアに反映させる。画像からコントラストを得る手法の代表例として、画像に対してフィルタ処理を施す手法がある。この場合、下式に代表されるようなフィルタを用いて得られた値を用いることでコントラストの高い画素を得ることが可能である。なお、フィルタはコントラストの高い画素を得られるものであればよく、下式に限定するものではない。
Figure 0007117914000004
Figure 0007117914000005
Figure 0007117914000006
Figure 0007117914000007
Figure 0007117914000008
Iは、入力画像の色情報から輝度成分を抽出した画像を示す。g、gはそれぞれ、画像におけるx、y方向のフィルタを示す。画像におけるx、y方向は予め規定されているものとする。i、jはそれぞれ、x、y方向に沿ったフィルタ中心からの距離を示す。σは、フィルタパラメータを示す。*は、畳み込み演算を示す。Scoreは、得られたデフォーカスマップのスコアを示す。
デフォーカスマップのスコアを算出した後、S104にて、デフォーカスマップスコア算出部403は、デフォーカスマップを修正する。本処理では、S103にて算出したスコアの値に応じて、デフォーカスマップの値を重み付けする。これにより、相対的にスコアの低いデフォーカスマップの値を、相対的にスコアの高いデフォーカスマップの値によって修正する。具体的には、周辺領域ウィンドウサイズWを定義し、注目画素と、周辺領域ウィンドウサイズWによって決められる周囲領域のデフォーカスマップの値を、スコアの値によって下式のように重み付けする。
Figure 0007117914000009
、jは、注目画素に対する周囲画素の相対的な位置を示す。Nは、周辺領域ウィンドウサイズによって決められる周囲領域の画素数を示す。def(x,y)は、座標位置(x,y)の注目画素に対する修正前のデフォーカスマップの値を示す。def’(x,y)は、座標位置(x,y)の注目画素に対する修正後のデフォーカスマップの値を示す。
[出力装置における立体感]
ここで、出力装置102の鮮鋭性に影響する出力特性と立体感の制御について説明する。上述したように、人間がカメラなどの撮像装置で撮影された2次元画像を見る際、合焦している(ピントが合っている)合焦領域を含む許容合焦領域と、合焦していない(ボケている)非許容合焦領域の鮮鋭感の差から画像の奥行き感や立体感を認識している。
一方、本実施形態で述べているプリンタなどの出力装置を通して画像を出力すると、例えば、記録媒体やインクの滲みによる画像の鮮鋭性の低下や、入力画像データを記録媒体サイズ(プリントサイズ)に変倍する解像度変換処理により、画像の鮮鋭性が低下する。ディスプレイやプロジェクタなどの他の出力装置でも同様に出力画像においては画像の鮮鋭性が低下する。
このような出力装置の出力特性による入力画像の鮮鋭性の変化は、入力データとして鮮鋭性の高い(ピントが合っている)許容合焦領域では大きく変化し、入力データとして鮮鋭性の低い(ボケている)非許容合焦領域では殆ど変化しない。つまり、各領域で鮮鋭性の変化量が異なる。そのため、入力画像に立体感に影響していた許容合焦領域と非許容合焦領域の鮮鋭性の関係が、出力画像でそのまま維持されないこととなる。
図7のグラフを用いてさらに詳しく説明する。図7において、説明の簡略化のため、合焦領域の画像の空間周波数特性と、非合焦領域に含まれる特定のデフォーカス量に対応する画像の空間周波数特性とが同じ周波数にピークを持つ画像として扱う。また、本実施形態では、記録媒体サイズに変倍するために画像に対する拡大処理を行ってからプリンタで出力した際の特性を出力特性とする。本実施形態では、解像度変換処理として拡大処理を例に挙げて許容合焦領域と非許容合焦領域の鮮鋭性の関係を説明しているが、解像度変換処理が等倍処理・縮小処理であってもよい。
図7は、画像のコントラストと空間周波数特性との関係を示し、縦軸をコントラスト、横軸を空間周波数[cycle/degree]とする。実線は図6に示したデフォーカス量d0における変化を示し、破線は図6に示したデフォーカス量dxにおける変化を示す。ボケによる立体感がある入力画像データでは、特定の空間周波数において、入力画像データの合焦領域の鮮鋭性を示すコントラスト値C1と、非合焦領域の鮮鋭性を示すコントラスト値C2が図7(a)に示す関係となる。この入力画像を拡大すると、図7(b)に示すようにコントラスト値C1とC2は、C1’とC2’に変化する。ここでは、上述したように、入力画像データを記録媒体サイズに変倍するように拡大処理を行うものとする。
図7(a)と図7(b)から明らかなように、出力装置の出力特性によって入力画像データの鮮鋭性の変化量が、合焦領域と非合焦領域で異なる。そのため、立体感に影響する鮮鋭性の差(コントラスト値C1’とC2’の関係702)が、入力画像データにおける鮮鋭性の差(コントラスト値C1とC2の関係701)より小さくなり、適切な立体感が得られない出力画像となる。つまり、入力画像と同様の立体感のある出力画像を得るためには、前述のデフォーカス量に相当する画像のボケの状態と出力装置の鮮鋭性に影響する出力特性に基づいて適切に鮮鋭性を制御する必要がある。言い換えると、出力特性に応じて、鮮鋭性の差(コントラスト間の関係性)が入力画像の状態に維持もしくは近づくように制御する必要がある。
本実施形態において、画像出力条件に設定される出力装置の出力特性に基づいたデフォーカス量と立体感制御量の関係を用いて画像の鮮鋭性を適切に制御する。この制御により得られる出力画像では、合焦領域と非合焦領域のコントラスト値の関係は、図7(c)となる。図7(c)で示すC1”は合焦領域のコントラスト値、C2”は非合焦領域のコントラスト値である。図7(c)に示すように、本実施形態に係る画像出力条件に基づいて立体感制御処理を実施した出力画像では、処理をしない場合の鮮鋭性の差(関係702)に対して、画像の立体感に影響する鮮鋭性の差(関係703)が大きくなる。これにより入力画像における鮮鋭性の差(コントラスト値C1とC2の関係701)に近くなっているため、本実施形態では、入力画像に近い、適切な立体感を出力画像でも得ることができる。
なお、図7では、説明の簡略化のため、合焦領域の画像の空間周波数と、非合焦領域に含まれる特定のデフォーカス量に対応する画像の空間周波数の2点に対するコントラストを比較した。しかし、合焦領域と非許容合焦領域の別のデフォーカス量に対応する画像についても前述の関係は成立する。また、許容合焦領域に含まれる特定のデフォーカス量に対応する画像と、非許容合焦領域に含まれる特定のデフォーカス量に対応する画像の空間周波数の2点においても前述の関係は成立する。
また、画像の鮮鋭性に影響する画像特性としてコントラスト値を取り上げたが、出力装置の出力特性による合焦領域と非合焦領域の画像の鮮鋭性の変化については、鮮鋭度を示す空間周波数特性においても同じ関係が説明できることは自明である。
次に、画像処理部109が有する立体感制御部405に関する説明を行う。立体感制御部405では、条件保持部406に設定されている鮮鋭性の制御パラメータにより、入力画像データの鮮鋭性を制御する。条件保持部406には各デフォーカス量に対する立体感制御量に関する情報が設定されている。
図8は、条件保持部406に設定されているデフォーカス量と立体感制御量の関係を示している。図8において、縦軸は立体感制御量を示し、横軸はデフォーカス量を示す。図8におけるデフォーカス量は、図6に対応するものとする。画像処理条件の作成方法については後述する。以下、図8に示す関係を用いて、具体的に処理フローを説明する。
図5のフローに戻る。S105にて、立体感制御部405は、条件保持部406に保持されている画像処理条件を取得する。
S106にて、立体感制御部405は、入力画像データの各画素の輝度情報に対して、処理対象画素のデフォーカスマップ(図6)のデフォーカス量を参照しながら、画像処理条件(図8)に設定された立体感制御量を適用して鮮鋭化処理を行う。鮮鋭化処理では、例えば、下式に示すようなLaplacian Of Gaussianフィルタが用いられる。
Figure 0007117914000010
σ、βは立体感制御量に関するフィルタパラメータを示し、それぞれ、デフォーカス量に応じた値が設定される。σ、βはLUT(Look-Up Table)方式でパラメータを予め設定してもよいし、デフォーカス量に対する関係式を用いて計算してもよい。そのほかの変数は、上述した式と同様である。
上記Laplacian Of Gaussianフィルタを用いた鮮鋭化処理は下式のように記述される。
Figure 0007117914000011
Iは入力画像を示し、Outは鮮鋭化処理後の画像を示す。*は畳み込み演算を表す。
図8において、β=β1は、入力画像の合焦領域に対する制御量を示す。図8において、β1は最大の立体感制御量を示す。また、デフォーカス量d1は、図6に示す許容合焦領域505と非許容合焦領域506の境界の値である。さらに、デフォーカス量d2は、デフォーカスマップ(図6)に含まれる最大のデフォーカス量を示す。したがって、デフォーカス量は、d0(=0)からd2までの範囲の値をとる。また、立体感制御量は、β1から0までの範囲の値をとる。
出力画像において、出力装置の出力特性を考慮した適切な立体感を得るためには、図8(a)~(c)に示すように、入力画像内の合焦領域503の画素に対する立体感制御量が最も大きくなるように画像処理条件を設定する。つまり、デフォーカス量d0に対する立体感制御量β1が最大となるように設定する。さらに、非合焦領域504の制御量は、デフォーカス量が大きくなるほど(d2に近づくほど)制御量が小さくなるように、つまり単調減少となるように設定するとよい。合焦面201からの距離に相当する情報としてのデフォーカス量defが画像のボケ量に対応する値である場合は、図8(a)のように、デフォーカス量と立体感制御量は非線形な関係をもつ。図8(a)に示す線は、β=f(d)=α・dにて示される。ここでのαは、変換係数を示す。この曲線の式は一例であり、他の式を用いてもよい。デフォーカス量が像ずれ量206に対応する場合は、図8(b)のように、線形な関係をもつ。
また、図8(c)のように、非許容合焦領域506(d1~d2の範囲)に対しては立体感制御量βを“0”としてもよい。この場合でも、前述のように許容合焦領域505と非許容合焦領域506の鮮鋭性の差は、入力画像における許容合焦領域505と非許容合焦領域506の鮮鋭性の差に近づき、出力画像の立体感を得ることが可能である。上記の立体感制御量は記録媒体の特性や、インク(記録剤)の特性、記録媒体サイズなどによって異なる。これは、記録媒体やインク特性ごとに、インクの滲み等による画像の鮮鋭性の低下の度合いが異なるとともに、記録媒体サイズによって解像度変換処理の変倍率が異なるためである。
図9は、上述したような記録媒体の特性等に応じて、立体感制御量を変化させる例を示す図である。図9の実線は、図8(a)と異なる条件で出力した際のデフォーカス量に対する立体感制御量を示している。図9の破線は、図8(a)の実線に対応する。例えば、図9(a)は、図8(a)と比べてインクの滲みが大きい、もしくは変倍率が大きいために立体感制御量が大きい場合を示している。逆に、図9(b)は、図8(a)と比べてインクの滲みが小さい、もしくは変倍率が小さいために立体感制御量が小さい場合を示している。
なお、シャープネス処理に使用するフィルタは、上述したLaplacian of Gaussianフィルタだけでなく、特定フィルタの強度を鮮鋭性制御量で調整する方法もある。特定フィルタとは、例えば、出力装置の鮮鋭性の低下情報の逆特性を求めて作成されたフィルタである。
また、上記では鮮鋭性を制御する処理として鮮鋭化処理を例に説明したが、これはコントラスト処理でもよい。具体的には、図8(d)に示すように、合焦領域503を含む許容合焦領域505(d0~d1の範囲)の入力画像データの各画素の輝度値のコントラストが高くなるように輝度変換を行う。輝度変換については立体感制御量を係数とする変換式を用いる方法や、上述したような入力画像データの各画素の輝度値から生成したヒストグラムを均等化することでコントラストを高める方法等があるが、コントラストが制御できれば、もちろんこれに限らない。
シャープネス処理とコントラスト処理のどちらも処理も出力画像の鮮鋭性を制御することができるため、画像出力装置の特性に応じて、どちらかの処理を選択する、あるいは二つの処理を組み合わせて使用してもよい。
[画像処理条件]
ここで、条件保持部406で保持される画像処理条件の作成方法について説明する。ここでの画像処理条件とは、図8に示すような変換方法に相当し、出力装置の出力特性に基づき設定される。画像処理条件に設定するパラメータは、例えば、図10に示すような計測用画像をプリンタやディスプレイ、プロジェクタ等の出力装置102で出力し、測定装置(不図示)を用いて取得した出力装置102による出力画像の周波数特性(MTF特性)から算出する。なお、出力画像生成における各画像処理をPC101上でシミュレートして得られた画像から出力装置102のMTF特性を算出方法が用いられてもよい。つまり、本実施形態では、出力装置の出力特性および距離情報の値に応じて、立体感制御量βは変動する。
図10に示す画像は、ピントが合っている合焦面201に対応する画像群1000、あるデフォーカス量における入力画像のボケ量に相当するボケで表現された複数の画像群1001を含んで構成されている。より詳細には、図10に示す画像は、周波数の異なる複数の矩形パターン、あるいは、正弦波パターン、均一パターンといった、複数のパターン1002、1003を含むチャートである。なお、図10に示す画像は、周波数の異なる複数の正弦波パターンである。均一パターンは、夫々正弦波パターン上の最大画素値と最小値の画素値で構成される。
画像処理条件の作成方法を図11のフローチャートを用いて説明する。処理フローは、出力装置102やPC101等の情報処理装置などが連携することにより実行される。なお、画像処理条件の作成を行うタイミングは、特に限定するものではなく、出力装置102の出荷前に予め実行され、その生成情報が出力装置102の条件保持部406に保持されていてもよいし、適時更新されるような構成であってもよい。また、本処理を実行するにあたり、出力装置102の出力結果を計測するための計測装置(不図示)が用いられるものとする。
S201にて、出力装置102は、図10に示すような計測画像を出力する。
S202にて、測定装置(不図示)は、出力装置102で出力した計測用画像を測定し、MTF特性算出に必要な情報を取得する。ここでの必要な情報は、MTF特性の算出方法に応じて異なるものとする。
S203にて、情報処理装置(不図示)は、測定装置(不図示)にて取得された情報を用いてMTF特性の算出を行う。例えば、計測画像が正弦波パターンである場合、MTF特性は、以下に示す式(12)~(14)、あるいは式(15)で算出することができる。下式に示すMTFの値は、光学伝達関数の絶対値を意味する。出力画像の平均明度が変化する場合は式(15)の使用が好ましい。
Figure 0007117914000012
Figure 0007117914000013
Figure 0007117914000014
Figure 0007117914000015
uは正弦波の周波数を示す。Max(u)は周波数で変化する正弦波パターンの最大反射率を示す。Min(u)は周波数で変化する正弦波パターンの最小反射率を示す。RおよびRは、均一パターンの反射率(R>R)を示す。
上記の式(12)や式(15)において、反射率R1、R2を用いているが、代わりに輝度や濃度やデバイスRGB値を用いてもよい。計測装置(不図示)としては、出力装置102がプリンタである場合は、例えばスキャナやデジタルカメラ、顕微鏡を用いることができる。出力装置102がディスプレイやプロジェクタの場合は、デジタルカメラを用いることができる。
また、計測画像が矩形波パターンである場合、出力装置102のMTF特性は、式(12)または式(15)を適用することで得られるコントラスト伝達関数(CTF)で表現される。あるいは、CTF値をコルトマン補正式で変換したMTF値が用いられてもよい。
前述の方法により、計測画像に含まれる合焦面201に対応する画像群1000、および任意のデフォーカス量に対応する画像群1001の夫々の画像の周波数特性(MTF特性)が取得される。図12は、周波数特性の例を示す。図12において、縦軸はMTF特性を示し、横軸は空間周波数[cycle/degree]を示す。また、図12において、実線(D0)は、合焦面201に対応する画像群1000の周波数特性を示す。点線(D1)は、許容合焦領域505に含まれるデフォーカス量d1に対応する画像群1001の周波数特性を示す。破線(D2)は、非許容合焦領域506に含まれるデフォーカス量d2に対応する画像群1001の周波数特性を示している。
これにより、デフォーカス量ごとに、MTF特性が取得できる。つまり、デフォーカス量ごとの出力装置102の鮮鋭性に関する出力特性が得られる。
S204にて、情報処理装置(不図示)は、出力画像の合焦領域の鮮鋭性あるいは周波数特性を、入力画像の鮮鋭性あるいは周波数特性に鮮鋭化処理によって復元するように、立体感制御量を算出する。
出力画像において、入力画像と同様の適切な立体感を得るためには、立体感制御処理を適用しない場合と比較して、処理を適用した際の出力画像の許容合焦領域と非許容合焦領域の鮮鋭性の差が、入力画像におけるその鮮鋭性の差に近づける必要がある。つまり、出力画像において許容合焦領域と非許容合焦領域の鮮鋭性の差を適切に制御するためには、デフォーカス量ごとの出力装置102の鮮鋭性に影響する出力特性に応じて立体感制御量を設定すればよい。そこで、本実施形態では、特定の周波数における出力画像の合焦領域の鮮鋭性あるいは周波数特性を、入力画像の鮮鋭性あるいは周波数特性に鮮鋭化処理によって復元するように立体感制御量を設定する。同様に、本実施形態では、非合焦領域に対しても、デフォーカス量ごとに得られるMTF特性から復元量を算出し、立体感制御量とする。これにより、図8に示すようなデフォーカス量に対する立体感制御量が算出される。
デフォーカス量と鮮鋭度の関係は、図8に示したデフォーカス量を入力として立体感制御量を出力とする関係式として設定する方法、LUT方式でパラメータを選択して設定する方法等がある。なお、これらの方法に限定するものではなく、デフォーカス量に対する立体感制御量を算出できるのであれば、どのような方法でもよい。
また、立体感制御量は、MTF特性を復元する値に限らない。出力装置102の出力特性に基づいたデフォーカス量と鮮鋭化の制御量に応じた鮮鋭化処理をしない場合の鮮鋭性の差に対して、処理を行った場合の鮮鋭性の差が大きくなることを満足すると、出力画像で適切な立体感を得られる。
更には、図8に示す合焦面201における制御量β1は、画像のMTF特性を特定の値(例えば、0.8から1.2)に復元するように設定すると、出力画像における合焦面201の鮮鋭性が好ましい画像が得られる。
本実施形態では、画像処理条件としてデフォーカス量と立体感制御量の関係を例に説明した。しかしこれに限定するものではなく、合焦面201からの距離に相当する情報(距離情報)として挙げた像ずれ量206もしくは合焦面と物体との距離304と、立体感制御量の関係を画像処理条件としてもよい。
そして、S205にて、情報処理装置(不図示)は、S204にて算出した立体感制御量に基づき、デフォーカス量に応じた出力装置の鮮鋭性に関する出力特性から導出される画像処理条件を条件保持部406に設定し、保持させる。そして、本処理フローを終了する。この画像処理条件を用いて、入力画像データを処理することで、出力画像の立体感を制御することが可能になる。
(第1の実施形態の効果)
入力画像から求められるデフォーカスマップのスコア(値の確からしさ)を用いて、デフォーカスマップの値を修正することにより、相対的にスコアの低いデフォーカスマップの値が修正される。これにより、デフォーカスマップの精度が向上し、合焦面からの距離に相当する情報の精度を向上させることができる。その結果、画像に対して所望の立体感制御を施しやすくなる。
<第2の実施形態>
本発明に係る第2の実施形態について説明する。第2の実施形態は、図5にて示したS104のデフォーカスマップ修正処理が第1の実施形態と異なる。
[デフォーカスマップ修正処理]
図13は、本実施形態に係るデフォーカスマップ修正処理のフローを示す。
S301にて、デフォーカスマップスコア算出部403は、デフォーカスマップスコアの空間分布を算出する。デフォーカスマップスコアの空間分布とは、スコアの高い画素が集中している度合を、一つ以上の画素に対して示したものである。スコアの空間分布を求める代表例として、単位面積当たりのスコアの平均により求めることが可能である。
Figure 0007117914000016
Nは周辺領域の要素数を示す。なお、スコアの空間分布の求め方は上記の式(16)に限定するものではない。例えば、スコアの閾値を設定し、閾値よりも高いスコアが単位面積あたりに存在する数を計算することで、空間分布を求めてもよい。
S302にて、デフォーカスマップスコア算出部403は、デフォーカスマップ修正のための周辺領域ウィンドウサイズを決定する。周辺領域ウィンドウサイズは、例えば、式(9)において用いたデフォーカスマップを修正する際のウィンドウサイズWと同じであってよい。
スコアの空間分布が高い値を示すほど、確度の高いデフォーカス量が密集していることを示している。この時、ウィンドウサイズが大きければ大きいほど、修正によるオリジナルのデフォーカス量からの変化が大きくなる。したがって、このような場合は、周辺領域ウィンドウサイズWを狭くすることにより、オリジナルのデフォーカス量を変化させないようにする。一方、スコアの空間分布が低い値を示すほど、確度の高いデフォーカス量が少ないことを示している。この場合は、周辺領域ウィンドウサイズWを広くすることにより、確度がより高いデフォーカス量を用いて、デフォーカス量の修正を行うことが可能となる。すなわち、スコアの空間分布が高くなればなるほど、周辺領域ウィンドウサイズWを小さくすればよい。
S303にて、デフォーカスマップスコア算出部403は、S302で一つ以上の画素ごとに決定された周辺領域ウィンドウサイズWを用いて、デフォーカスマップを修正する。デフォーカスマップの修正は上記の式(9)によって行う。なお、デフォーカスマップの修正に用いる式は、別の式を用いてもよい。
(第2の実施形態の効果)
周辺領域ウィンドウサイズWの値をデフォーカスマップの空間分布に基づいて決定することにより、確度の高いデフォーカス量が密集している領域は、オリジナルの確度の高いデフォーカス量を採用しやすくなる。一方、確度が高いデフォーカス量が周囲に少ない場合は、ウィンドウサイズを広げることにより、確度がより高いデフォーカス量を用いて注目画素のデフォーカス量を修正しやすくなる。その結果、本実施形態により、修正したデフォーカス量の精度が向上する。
<第3の実施形態>
本発明に係る第3の実施形態について説明する。第3の実施形態は、図5に示したS104のデフォーカスマップ修正処理の内容が第1の実施形態と異なる。
図14は、本実施形態に係るデフォーカスマップ修正処理のフローを示す。
S401にて、デフォーカスマップスコア算出部403は、デフォーカスマップスコアの空間分布を算出する。本処理の詳細は、第2の実施形態にて述べた図13のS301と同様である。
S402にて、デフォーカスマップスコア算出部403は、デフォーカスマップを領域分割するための、領域分割の初期点の位置を計算する。この処理は、S401にて求められたデフォーカスマップの空間分布に基づき、初期点の位置が決定される。つまり、デフォーカスマップの空間分布が高い値を示すほど、領域をより細かく分割するために初期点を多く配置し、デフォーカスマップの空間分布が低い値を示すほど、領域を大まかに分割するために初期点を少なく配置する。初期点の数および配置方法については、例えば、空間分布に対応して予め規定されていてもよいし、決定するための算出式が用いられてもよい。
S403にて、デフォーカスマップスコア算出部403は、S402にて決定された領域分割初期点に基づいて、領域分割を行う。領域分割の手法には、Achanta,etal. IEEE Transactions on Pattern Analysis and Machine Intelligence 2012,“SLIC Superpixels Compared to State―of―the―Art Superpixel Methods”.に示される方法などがある。また、単純に矩形形状に分割してもよい。領域分割の手法は、上記に限定するものでは無く、他の手法が用いられてもよい。
S404にて、デフォーカスマップスコア算出部403は、領域ごとに、領域を代表するデフォーカス量を算出する。領域を代表するデフォーカス量は、領域内デフォーカス量の中央値により求める。ただし、以下の場合は、領域ごとのデフォーカス量を「エラー」
とする。
・領域内デフォーカス量の分散が、予め定められた所定の閾値を超える場合
・領域内デフォーカス量のうち、所定の閾値を超えるスコアを持つデフォーカス量の割合が、予め定められた所定の閾値を超えない場合
上記の所定の閾値については、記憶領域にて保持されているものとする。
S405にて、デフォーカスマップスコア算出部403は、領域間の類似度を求める。領域間の類似度は、例えば、隣接する領域間のヒストグラムインターセクションによって、下式を用いて算出することができる。
Figure 0007117914000017
l、mはそれぞれ領域のインデックスを表し、領域mと領域lは隣接している。histは領域lのヒストグラムを示す。histは領域mのヒストグラムを示す。Nはヒストグラムのビン数である。ヒストグラムは、入力画像と領域分割結果から予め作成されているものとする。また、デフォーカス量が「エラー」とされた領域とその他の領域との類似度は“0”とする。
S406にて、デフォーカスマップスコア算出部403は、領域ごとに算出されたデフォーカスの値を、領域間類似度に基づいて伝播させる。
Figure 0007117914000018
は、類似度の数を示す。defは、領域mにおけるデフォーカス量を示す。
なお、上記類似度の算出は、隣接した領域間で計算したが、必ずしも隣接した領域でなくともよく、類似度を領域間の距離や色に応じた値に基づいて計算してもよい。また、同じ領域に対するデフォーカス量の伝播は一回でなく、複数回繰り返してもよい。複数回繰り返すことにより、S404において「エラー」とされた領域ごとのデフォーカス量を推定しやすくなる。
S407にて、デフォーカスマップスコア算出部403は、エッジ整形を行う。エッジ整形は、S406において得られたデフォーカスマップ中のエッジを、入力画像のエッジと一致させる処理である。具体的には、Min,etal, IEEE Transactions on Image Processing,vol.23,issue12,pp.5638-5653 2014,“Fast Global Smoothing Based on Weighted Least Squares”.や、Kopf etal, ACM Transactions on Graphics,“Joint Bilateral Upsampling”.などのエッジ保存型フィルタを用いて行えばよい。デフォーカスマップ中のエッジを入力画像のエッジと一致させようとする処理であれば、上記手法以外の手法が用いられてよい。本処理を行うことで、入力画像と出力画像のエッジの関係性が一致し、整合性がとれる。なお、エッジ整形を行う理由として、これまでの変換処理(伝播処理等)により、エッジの位置などが変化することを考慮しているためである。
(第3の実施形態の効果)
本実施形態では、デフォーカスマップを領域ごとに計算し、かつデフォーカスの値の確からしさ(確度)が低い領域はエラーとして扱うため、ノイズに対して頑健になる。また、領域分割の細かさをデフォーカスのスコアの空間分布に応じて変化させるため、スコアの高い領域のデフォーカス量の精度をより高く、スコアの低い領域のデフォーカス量をできるだけスコアの高い領域のデフォーカス量を用いて修正することが可能となる。
また、本実施形態では、領域ごとに算出されたデフォーカス量を、領域間の類似度に基づいて伝播する。さらに、エッジ整形を行うことにより、デフォーカスマップのエッジの位置を、入力画像のエッジの位置と一致させることが可能となる。その結果、エッジの位置がずれたことに起因する鮮鋭化後の疑似輪郭といったアーティファクト(エラーやゆがみ)を抑制することができる。
<その他の実施形態>
本発明のその他の実施形態にとして、本発明に係る距離情報(合焦面からの距離に相当する情報)を、立体感制御だけでなく、その他の処理にも応用する例について示す。
本発明に係る距離情報を、画像中の被写体認識に用いるように構成してよい。被写体の深度を用いて認識を行う例としては、特開2014-17907号公報などが詳しい。本発明に係る距離情報(合焦面からの距離に相当する情報)を被写体認識に用いることにより、より正確な深度情報を得ることが可能となる。このため、被写体認識の精度が向上する。
また、本発明に係る距離情報を、3次元ポリゴンモデルの生成に用いるように構成してもよい。深度を利用して3次元ポリゴンモデルを生成する例としては、特開2017-157208号公報などが詳しい。本発明に係る距離情報(合焦面からの距離に相当する情報)を用いることにより、より正確な深度情報を得ることが可能となる。このため、3次元ポリゴンモデルの精度が向上する。
また、本発明に係る距離情報を、被写体抽出に用いるように構成してもよい。深度を利用して、画像から被写体を抽出する例としては、特開2015-162730号公報などが詳しい。本発明に係る距離情報(合焦面からの距離に相当する情報)を被写体認識に用いることにより、より正確な深度情報を得ることが可能となる。このため、被写体抽出の精度が向上する。
また、本発明に係る距離情報を、画像のエフェクト処理に用いるように構成してもよい。深度を利用して、画像にエフェクトを施す例としては、特開2013-118468号公報などが詳しい。本発明に係る距離情報(合焦面からの距離に相当する情報)を被写体認識に用いることにより、より正確な深度情報を得ることが可能となる。このため、深度情報の不正確さによって発生するエフェクト処理時の疑似輪郭などのアーティファクトの軽減につながる。
なお、本発明に係る距離情報を適用する処理は上記に限定するものでは無く、他の処理に適用してもよい。
本発明は上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101…PC、102…出力装置、108…データ転送部、109…画像処理部、110…印刷部、111…プリンタ制御部、400…情報生成部、401…画像取得部、402…デフォーカスマップ取得部、403…デフォーカスマップスコア算出部、404…デフォーカスマップ修正部、405…立体感制御部、406…条件保持部

Claims (13)

  1. 入力画像と、前記入力画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報と、を取得する取得手段と、
    前記入力画像の画素値を用いて、前記距離情報の確度を示す評価値を導出する導出手段と、
    前記評価値に基づき、前記距離情報を修正する修正手段と
    を有し、
    前記導出手段は、前記距離情報に対する評価値の空間分布を導出するとともに、前記空間分布に基づいて、前記入力画像を複数の領域に分割し、
    前記修正手段は、前記空間分布に基づいて、前記分割した領域ごとに前記距離情報を修正することを特徴とする画像処理装置。
  2. 前記距離情報は、デフォーカス情報、像ずれ量、もしくは、前記合焦面から物体までの距離を示す情報のいずれかであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記導出手段は、前記空間分布が示す値が高いほど細かく分割し、前記空間分布が示す値が低いほどおおまかに分割することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記修正手段は、評価値が高い距離情報の値がより重みが高くなるように重み付けを行うことで、前記距離情報の修正を行うことを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。
  5. 前記修正手段にて修正された距離情報と、画像処理条件とを用いて、出力装置から出力される画像の鮮鋭度を制御する制御手段を更に有し、
    前記画像処理条件は、前記距離情報に応じて変動する前記出力装置の出力特性に基づいて定められることを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。
  6. 前記制御手段は、コントラスト処理もしくはシャープネス処理を行うことにより、前記出力装置から出力される画像の鮮鋭度を制御することを特徴とする請求項に記載の画像処理装置。
  7. 入力画像と、前記入力画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報と、を取得する取得工程と、
    前記入力画像の画素値を用いて、前記距離情報の確度を示す評価値を導出する導出工程と、
    前記評価値に基づき、前記距離情報を修正する修正工程と
    を有し、
    前記導出工程では、前記距離情報に対する評価値の空間分布を導出するとともに、前記空間分布に基づいて、前記入力画像を複数の領域に分割し、
    前記修正工程では、前記空間分布に基づいて、前記分割した領域ごとに前記距離情報を修正することを特徴とする画像処理方法。
  8. 前記距離情報は、デフォーカス情報、像ずれ量、もしくは、前記合焦面から物体までの距離を示す情報のいずれかであることを特徴とする請求項に記載の画像処理方法。
  9. 前記導出工程では、前記空間分布が示す値が高いほど細かく分割し、前記空間分布が示す値が低いほどおおまかに分割することを特徴とする請求項7または8に記載の画像処理方法。
  10. 前記修正工程では、評価値が高い距離情報の値がより重みが高くなるように重み付けを行うことで、前記距離情報の修正を行うことを特徴とする請求項乃至のいずれか一項に記載の画像処理方法。
  11. 前記修正工程にて修正された距離情報と、画像処理条件とを用いて、出力装置から出力される画像の鮮鋭度を制御する制御工程を更に有し、
    前記画像処理条件は、前記距離情報に応じて変動する前記出力装置の出力特性に基づいて定められることを特徴とする請求項乃至10のいずれか一項に記載の画像処理方法。
  12. 前記制御工程では、コントラスト処理もしくはシャープネス処理を行うことにより、前記出力装置から出力される画像の鮮鋭度を制御することを特徴とする請求項11に記載の画像処理方法。
  13. コンピュータを、請求項1乃至6のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018125281A 2018-06-29 2018-06-29 画像処理装置、画像処理方法、及びプログラム Active JP7117914B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018125281A JP7117914B2 (ja) 2018-06-29 2018-06-29 画像処理装置、画像処理方法、及びプログラム
US16/443,186 US11153552B2 (en) 2018-06-29 2019-06-17 Image processing apparatus, image processing method and non-transitory computer-readable storage medium
JP2022120710A JP7403594B2 (ja) 2018-06-29 2022-07-28 画像処理装置、画像処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018125281A JP7117914B2 (ja) 2018-06-29 2018-06-29 画像処理装置、画像処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022120710A Division JP7403594B2 (ja) 2018-06-29 2022-07-28 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020004266A JP2020004266A (ja) 2020-01-09
JP2020004266A5 JP2020004266A5 (ja) 2021-08-12
JP7117914B2 true JP7117914B2 (ja) 2022-08-15

Family

ID=69008517

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018125281A Active JP7117914B2 (ja) 2018-06-29 2018-06-29 画像処理装置、画像処理方法、及びプログラム
JP2022120710A Active JP7403594B2 (ja) 2018-06-29 2022-07-28 画像処理装置、画像処理方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022120710A Active JP7403594B2 (ja) 2018-06-29 2022-07-28 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11153552B2 (ja)
JP (2) JP7117914B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10972714B2 (en) 2018-02-15 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for storing program
JP7137313B2 (ja) * 2018-02-15 2022-09-14 キヤノン株式会社 出力装置、画像処理方法およびプログラム
JP7199169B2 (ja) 2018-07-05 2023-01-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020141226A (ja) 2019-02-27 2020-09-03 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR20210121508A (ko) * 2020-03-30 2021-10-08 삼성전자주식회사 이미지 신호 처리부의 동작 방법 및 이미지 신호 처리부를 포함하는 이미지 시스템
CN112233040B (zh) * 2020-10-29 2024-02-20 南京理工大学智能计算成像研究院有限公司 一种自动离焦校正的傅里叶叠层显微成像方法
JP2022083913A (ja) * 2020-11-25 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006090896A (ja) 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2012063987A (ja) 2010-09-16 2012-03-29 Toshiba Corp 画像処理装置
WO2013145554A1 (ja) 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5066851B2 (ja) 2006-07-05 2012-11-07 株式会社ニコン 撮像装置
JP4766702B2 (ja) 2008-01-11 2011-09-07 キヤノン株式会社 画像処理装置及び方法
JP6143747B2 (ja) 2011-06-24 2017-06-07 ソフトキネティック ソフトウェア 深度測定の品質の向上
JP2013118468A (ja) 2011-12-02 2013-06-13 Sony Corp 画像処理装置および画像処理方法
JP6214183B2 (ja) 2012-05-11 2017-10-18 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP6039274B2 (ja) 2012-07-05 2016-12-07 ローム株式会社 Dc/dcコンバータおよびその制御回路、それを用いた電源装置、電源アダプタおよび電子機器
JP6202927B2 (ja) * 2012-08-31 2017-09-27 キヤノン株式会社 距離検出装置、撮像装置、プログラム、記録媒体および距離検出方法
JP2015035658A (ja) 2013-08-07 2015-02-19 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置
JP6351238B2 (ja) * 2013-11-15 2018-07-04 キヤノン株式会社 画像処理装置、撮像装置および距離補正方法
JP6294703B2 (ja) 2014-02-26 2018-03-14 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6800650B2 (ja) 2015-10-30 2020-12-16 キヤノン株式会社 信頼度生成装置、信頼度生成方法、および撮像装置
US10659766B2 (en) * 2015-10-30 2020-05-19 Canon Kabushiki Kaisha Confidence generation apparatus, confidence generation method, and imaging apparatus
JP6348623B2 (ja) 2016-02-26 2018-06-27 株式会社ワントゥーテンイマジン 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム
JP6336148B2 (ja) 2017-01-25 2018-06-06 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US10992851B2 (en) 2018-02-15 2021-04-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium, with image processing based on image processing condition and information equivalent to distance from focal plane
US10972714B2 (en) 2018-02-15 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for storing program
JP7137313B2 (ja) 2018-02-15 2022-09-14 キヤノン株式会社 出力装置、画像処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006090896A (ja) 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2012063987A (ja) 2010-09-16 2012-03-29 Toshiba Corp 画像処理装置
WO2013145554A1 (ja) 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2020004266A (ja) 2020-01-09
US20200007854A1 (en) 2020-01-02
JP7403594B2 (ja) 2023-12-22
JP2022136272A (ja) 2022-09-15
US11153552B2 (en) 2021-10-19

Similar Documents

Publication Publication Date Title
JP7117914B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11037037B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable storage medium
JP7137313B2 (ja) 出力装置、画像処理方法およびプログラム
JP4585456B2 (ja) ボケ変換装置
US10992851B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium, with image processing based on image processing condition and information equivalent to distance from focal plane
US10972714B2 (en) Image processing apparatus, image processing method and storage medium for storing program
US20210183090A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11792513B2 (en) Apparatus and method for detecting an edge in an image
JP2012050013A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2012023455A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP7278080B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7356218B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11120315B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable storage medium, with image processing using distance information equivalent to distance from focal plane at time of image-capturing and image processing condition
JP7208809B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5516365B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
Aslantas et al. Multi focus image fusion by differential evolution algorithm
JP2019016222A (ja) 画像処理装置およびその制御方法
JP3915037B1 (ja) 画像処理プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体、ならびに画像処理装置
JP2018200722A (ja) 画像処理装置及びその制御方法、並びにプログラム及び記憶媒体
JP2018017611A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R151 Written notification of patent or utility model registration

Ref document number: 7117914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151