JP2020009074A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2020009074A
JP2020009074A JP2018128569A JP2018128569A JP2020009074A JP 2020009074 A JP2020009074 A JP 2020009074A JP 2018128569 A JP2018128569 A JP 2018128569A JP 2018128569 A JP2018128569 A JP 2018128569A JP 2020009074 A JP2020009074 A JP 2020009074A
Authority
JP
Japan
Prior art keywords
image
image processing
processing
distance information
sharpness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018128569A
Other languages
English (en)
Other versions
JP7199169B2 (ja
Inventor
宮▲崎▼ 真一
Shinichi Miyazaki
真一 宮▲崎▼
真耶 黒川
Maya Kurokawa
真耶 黒川
香川 英嗣
Hidetsugu Kagawa
英嗣 香川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018128569A priority Critical patent/JP7199169B2/ja
Priority to US16/449,819 priority patent/US10964041B2/en
Publication of JP2020009074A publication Critical patent/JP2020009074A/ja
Priority to US17/184,738 priority patent/US11645774B2/en
Application granted granted Critical
Publication of JP7199169B2 publication Critical patent/JP7199169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

【課題】適切な立体感を得るとともに、高画質な画像を出力装置に出力することを可能とする。【解決手段】画像処理装置であって、画像と、前記画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報とを取得する取得手段と、出力装置の鮮鋭度に係る出力特性に基づき、距離情報に応じた画像処理条件を設定する設定手段と、前記取得手段にて取得した距離情報と前記設定手段にて設定した画像処理条件とを用いて、前記画像に対して画像処理を行う処理手段とを有し、前記処理手段は、前記距離情報に応じて、前記画像処理を適用する前記画像の空間周波数の帯域を切り替える。【選択図】図7

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
人間は目で見たものを立体的に知覚しており、これは脳が両眼の手がかりと単眼の手がかり、また運動視差等をもとに知覚していると考えられている。両眼の手がかりとしては、両眼での網膜像の差である網膜視差などがある。さらに、単眼の手がかりとしては、線遠近法や物体の大きさ、肌理の勾配、陰影、大気遠近やボケの効果等が挙げられる。これらの1つ以上の手がかりを利用して、人間は立体感つまり「もの」の奥行きや厚みや深さ、「もの」の前後関係を知覚している。
撮像装置により撮影され、表示、投影あるいは印刷された2次元画像を人間が見る際には、ピントが合っている部分と、奥行きに応じてボケている部分のボケ方の差から画像の立体感が認識される。つまり、画像の合焦している(ピントがあっている)部分と、合焦していない(ボケている)部分の再現が立体感にとって重要となる。
一方、例えばレーザー距離計等で、撮影地点から対象物までの実距離を測定する方法、2台のカメラの視差情報から距離を計測する方法など、一般的に撮影時に被写体を含むシーンの距離情報を取得する方法も提案され始めている。奥行き情報を利用した高画質化手法としては、例えば、特許文献1の技術がある。
特開2009−251839号公報
上述のように、2次元の静止画における立体感はボケの効果、つまり画像の鮮鋭性によるところが大きいため、出力画像の鮮鋭性を適切に制御しなければ、立体感のある画像を提供することができない。さらに、鮮鋭性の制御においては、人間の視覚特性を考慮した補正を行い、かつ撮影時のノイズ等の画質劣化要因を極力抑制しなければ、立体感があり、かつ高画質な画像を出力することが出来ない。
しかしながら、特許文献1で用いる奥行き情報は、画像自体から推定算出した情報であるため、画像の特性や構図によっては正しく奥行を求めることが出来ない場合がある。また、特許文献1では、画質劣化要因を考慮した画像処理は施されていない。その結果、対象画像に適した処理を施すことができず、画像の立体感に違和感が生じることや、画質劣化要因を強調してしまう場合があった。
上記課題を鑑み、本発明は、画像における立体感を表現でき、かつ、高画質な画像の出力を可能とすることを目的とする。
上記課題を解決するために、本発明は以下の構成を有する。すなわち、画像処理装置であって、画像と、前記画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報とを取得する取得手段と、出力装置の鮮鋭度に係る出力特性に基づき、距離情報に応じた画像処理条件を設定する設定手段と、前記取得手段にて取得した距離情報と前記設定手段にて設定した画像処理条件とを用いて、前記画像に対して画像処理を行う処理手段とを有し、前記処理手段は、前記距離情報に応じて、前記画像処理を適用する前記画像の空間周波数の帯域を切り替える。
本発明により、画像における立体感を表現でき、かつ、高画質な画像の出力が可能となる。
本発明に係る画像処理システムの構成例を示す図。 合焦面、像ずれ量とデフォーカス量の関係を示す図。 合焦像距離、物体距離、合焦物体距離の関係を示す図。 本発明の一実施形態に係るソフトウェア構成の例を示す図。 デフォーカスマップと各領域を説明するための図。 本発明に係る画像処理のフローチャートを示す図。 本発明に係るコントラストと空間周波数の関係を説明するための図。 本発明に係るデフォーカス量と立体感制御量の関係を説明するための図。 本発明に係る印刷に応じた立体感制御量の変動を説明するための図。 本発明に係る画像処理条件を生成する際に用いるパターンの例を示す図。 本発明に係る画像処理条件の生成処理のフローチャート。 本発明に係る画像の周波数特性を説明するための図。
以下、図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。
以下に説明する実施形態では、出力装置の一例としてインクジェットプリンタを例に挙げて、本発明に係る画像処理を説明する。また、以下の説明において、2次元の画像形成を行う際の立体感の再現に係る制御を立体感制御と記載する。
[システム構成]
図1は、本発明の一実施形態に係る画像処理装置を適用したプリントシステムの全体構成の例を示す。情報処理装置(以下、「PC」ともいう)101と出力装置102を含んで構成される。PC101と出力装置102とが、ネットワークやUSB(Universal Serial Bus)またはローカルバスなどのインタフェースにより、通信可能に接続されている。ここでの接続方式は、特に限定するものではなく、有線/無線も問わない。PC101は、出力装置102への印刷制御指示、必要な情報及びデータの転送などを実施する。したがって、図1には不図示であるが、PC101と出力装置102はそれぞれ、外部装置との通信部を備える。
PC101は、CPU103、記憶装置104、UI105、作業メモリ106、およびデータ入力装置107を含んで構成される。記憶装置104は、不揮発性の記憶領域であり、OS(Operating System)や、本実施形態のシステムプログラムや各種アプリケーションソフトおよび各種処理に必要なパラメータデータを記憶している。記憶装置104は、HDDやフラッシュROMに代表される手段で構成可能である。CPU103は、記憶装置104に格納された各種ソフトウェアを実行する際に、作業メモリ106を用いて処理を実行する。UI105は、ユーザインタフェースとなる操作部であり、各種処理の実行に関して、キーボードやマウス等の入力機器やディスプレイ等の表示機器を含む。作業メモリ106は、揮発性の記憶領域であり、例えば、CPU103による各種処理を実行する際に利用される。データ入力装置107は、SDカード等の外部記録媒体とのデータの入出力を行う。また、PC101は、カメラ等の撮像装置(不図示)をデータ入力装置107へ接続し、外部記録媒体を介さずにデータの受け渡しを直接行ってもよい。
出力装置102は、データ転送部108、画像処理部109、印刷部110、およびプリンタ制御部111を含んで構成される。上述したように、本実施形態では、出力装置102は、インクジェット方式で印刷動作が実行可能なプリンタを想定して説明するが、他の機能を有する複合機(MFP:Multi−Function Peripheral)などであってもよい。出力装置102には、PC101から印刷処理に用いられる印刷データが適時送信される。
本実施形態に係る印刷データは、入力画像データ、入力画像データに対応した撮影時の合焦面からの距離に相当する情報、記録媒体の固有データである画像処理パラメータとプリンタ制御データ、印刷情報データなどを含んで構成される。入力画像データは、カメラ等の撮像装置で撮像された画像が相当する。印刷情報データは、ユーザーがUI上で選択した印刷品位や記録媒体等の情報が相当する。
記録媒体とは、出力装置102において画像形成が行われる媒体であり、例えば、紙メディア等を指す。撮影時の合焦面からの距離に相当する情報(以下、「距離情報」とも称する)とは、デフォーカス量(デフォーカス情報)や像ずれ量、実際の合焦面から物体までの距離の情報などが相当する。入力画像データや、距離情報は、撮像装置(不図示)内で生成されてもよいし、撮像装置(不図示)に接続されたPC101または出力装置102において生成されてもよい。また、距離情報を生成するための情報を撮像装置(不図示)から取得し、撮像装置に接続されたPC101や出力装置102内で距離情報を生成してもよい。ここで、距離情報を生成するための情報とは、例えば、撮像装置が備える撮影レンズの射出瞳の異なる領域を通過した光をそれぞれ光電変換して得られる対の画像などが挙げられる。
データ転送部108は、PC101から送られてきた印刷データから、入力画像データ、距離情報、及び画像処理パラメータを取り出して画像処理部109に送る。データ転送部108は、プリンタ制御データをプリンタ制御部111に送る。本実施形態において、入力画像データは、PC101内で記憶装置104にプログラムとして記憶されている解像度変換処理によってユーザー設定した記録媒体のサイズに変倍された上で用いられる。また、解像度変換処理は、出力装置102内の画像処理部109内で同様に処理されてもよい。また、本実施形態では、画像処理部109は出力装置102内にあるが、PC101中で行ってもよい。
また、画像処理パラメータやプリンタ制御データは、PC101内の記憶装置104や、出力装置102内の記憶装置(不図示)に記憶されている。これらが、印刷データ内の印刷情報データに基づいて選択され、画像処理部109やプリンタ制御部111に送られる構成でもよい。プリンタ制御部111は、プリンタ制御データに従って印刷部110の動作を制御する。本例では、印刷部110における印刷に関しては、インクジェット記録方式により印刷を行う。
図2は、本実施形態に係る、撮影時の合焦面、像ずれ量、及びデフォーカス量の関係を説明するための図である。図2において、合焦面201は、撮像装置(不図示)において像面(撮像面)203と並行でピントの合う平面のことである。また、デフォーカス量205(def)は、像面203とデフォーカスした撮像面位置204との差(予定結像面と実際の結像面との差)であり、ボケ量に比例している。本例では、予定結像面は、像面203に対応し、実際の結像面は、撮像面位置204に対応する。デフォーカス量205を検出する方法としては、従来、瞳分割型位相差検出方式や、ボケの異なる複数の画像を用いてデフォーカス量を検出する方法が知られている。
例えば、特開2008−15754号公報では、図2に示す画像の像ずれ量(視差量)206からデフォーカス量205を算出する方法が開示されている。この方法では、撮影レンズの射出瞳の異なる領域を通過した光をそれぞれ光電変換して得られる一対の画素データに対して、データを相対的にずらしながら相関値を演算し、最も相関が高くなる像ずれ量206が視差量となる。さらに算出した像ずれ量206に対して、撮像素子の画素ピッチとレンズに応じて決定される変換係数を用いて被写体像面の予定結像面に対するデフォーカス量205を算出する。
また、特開2013−253964号公報では、DFD(Depth from Defocus)方式によってデフォーカス量を算出する方法が開示されている。DFD方式は、撮像光学系の撮影パラメータを制御することにより、ボケの異なる複数の画像を取得し、複数の取得画像において測定対象画素およびその周辺画素を用いて互いのボケの相関量を算出してデフォーカス量205を算出する。
次に、図3を用いて合焦面201と物体との距離を算出する方法を説明する。図3において、301は合焦物体距離OBJ(0)を示し、合焦面201からレンズ202までの距離である。302は合焦像物体に対する撮像面距離S(0)を示し、レンズ202から像面203(予定結像面)までの距離である。303は物体距離OBJ(def)を示し、レンズ202から物体(不図示)までの距離である。304は合焦面201から物体(不図示)までの距離である。変数defは、デフォーカス量205を示している。また、変数def=0の場合とは、像面203とデフォーカスした撮像面位置204との差が0であることを示す。レンズの公式により、下記の式(1)、式(2)が成立するため、物体距離OBJ(def)は下記の式(3)によって算出することが可能である。
式(3)によって算出した物体距離OBJ(def)を合焦物体距離OBJ(0)から引くことにより、合焦面201から物体(不図示)までの距離304を算出することができる。
上述した合焦面201からの距離に相当する情報(距離情報)とは、合焦面201からの距離に比例した情報である。そのため、合焦面201からの距離に相当する情報(距離情報)としては、上述した像ずれ量206、デフォーカス量205、合焦面201から物体(不図示)までの距離304のいずれでもよい。
次にデフォーカスマップについて説明する。上述のデフォーカス量205を入力画像データ上の複数個所でマップ化したものがデフォーカスマップであり、入力画像データの各画素に対応するデフォーカス量の情報を保持されている。したがって、入力画像データの画素数に応じて、保持されるデフォーカス量の情報の数は異なる。
図5(a)は、本実施形態に係るデフォーカスマップを説明するための図である。ここでは、図5(a)に示すように、2つの立方体501、502を撮影した入力画像データに対するデフォーカスマップを例に挙げて説明する。入力画像データの各画素に対応するデフォーカス量の情報が保持されている。図5(a)に示す画像において、503にて示す位置にピントがあっているものとし、その位置からの距離が離れるほど(奥行き方向の距離が離れるほど)、デフォーカス量が増加するものとする。
図5(b)は、デフォーカス量と本実施形態で使用する各領域を説明するための図である。図6において、横軸はデフォーカス量[mm]を示しており、中央の値を0とし、左右に離れるほどデフォーカス量が増加している。図5(b)でデフォーカス量=“0”が撮影時の合焦面201に相当するデフォーカス量であり、図5(a)の最も黒い部分(合焦領域503)に対応する。デフォーカス量の値が“0”から離れるにつれて、図5(a)では白くなっていく。図5(a)のデフォーカスマップにおいて、合焦領域503は、ピントが合っている合焦面画像領域である。図5(b)にも示す合焦領域503に対応する。合焦領域503以外の領域を本実施形態では、デフォーカスマップ上で合焦領域503に対応しない領域として非合焦領域504とする。また、ピントが合っていると許容する領域を許容合焦領域505とする。許容合焦領域505は、被写界深度としてその範囲を定義してもよいし、被験者実験によって任意に定義してもよい。許容合焦領域505以外の領域を、本実施形態では非許容合焦領域506とする。図5(b)では、横軸をデフォーカス量としたが、これに限定するものではない。例えば、距離情報の例として挙げた、上述の像ずれ量206や合焦面201から物体までの距離304の情報などの他の情報を用いてもよい。
<第1の実施形態>
本願発明の第1の実施形態に係る画像処理部109の構成例を図4に示す。画像処理部109は、例えば、専用の回路等によって実行されてもよい。もしくは、CPUや記憶領域を設け、CPUが記憶領域に記憶されたプログラムを読み出して実行することにより実現されてもよい。なお、本実施形態では、画像処理部109は、出力装置102が備える構成としているが、これに限定するものではない。例えば、画像処理部109に対応する機能がPC101や撮像装置(不図示)にて提供され、それらが出力装置102と連携もしくは出力装置102の情報を取得することで実行されるような構成であってもよい。
画像処理部109は、立体感制御部401、および出力画像生成部402を含んで構成される。立体感制御部401には、画像データ、デフォーカスマップ(距離情報)、及び画像処理条件403が入力される。出力画像生成部402は、立体感制御部401によって処理された画像データが入力され、印刷部110にて用いる画像データを出力データとして出力する。各処理部の処理の詳細は、フローチャートと併せて説明する。
本実施形態に係る画像処理部109における画像処理を図6のフローチャートを用いて説明する。
S101にて、画像処理部109は、入力画像データを取得する。
S102にて、画像処理部109は、距離情報として、上述のデフォーカスマップを取得する。
S103にて、立体感制御部401は、記憶装置104や、出力装置102内の記憶装置(ハードディスクやROM等:不図示)に記憶されている出力装置102の出力特性に基づいて定められた画像処理条件403を取得する。本実施形態では、画像処理条件403は、出力装置102の出力特性に対応して印刷条件ごとに規定され、記憶装置(不図示)内に保持されている。立体感制御部401は、上述の印刷情報データに応じて画像処理条件403を選択し、取得する。
S104にて、立体感制御部401は、入力画像の輝度情報に対して、立体感制御処理を行う。ここでの処理の詳細は後述するが、入力画像データの鮮鋭性の特性とデフォーカスマップ、出力装置の出力特性に基づいて定められた画像処理条件403によって、画像の立体感を制御する。なお、画像処理条件403の詳細については後述する。また、上記の入力画像データの鮮鋭性の特性は、カメラ等の撮像装置から取得した情報を用いてよい。この情報は、入力画像データと共に取得されるものとして説明する。
S105にて、出力画像生成部402は、立体感制御部401から出力される出力画像データ(RGB)に対して、印刷部110にて記録するための出力データを生成する。上述したように、本実施形態では、出力装置102としてインクジェットプリンタを用いているため、この場合は、インクジェット方式の記録ヘッド(不図示)で記録する際に用いられる出力データを生成する。出力画像生成の具体的な処理としては、まず、対象の出力画像データにおけるデバイス非依存のRGBデータを、デバイス依存のRGBデータに変換する色変換処理が行われる。次に、デバイス依存のRGBデータからインク色データに変換するインク色分解処理、記録装置の階調特性に線形的に対応づけられるように階調補正を行う階調補正処理が行われる。さらに、インク色データをインクドットのON/OFFの情報であるハーフトーン処理、記録ヘッド(不図示)の各記録走査で記録される2値データを生成するマスクデータ変換処理等が行われる。いずれもインクジェットプリンタにおいては一般的な処理であり、本実施形態の根幹に関わる部分ではないため、ここでの詳細な説明は割愛する。
S106にて、出力画像生成部402は、作成した出力データを印刷部110に出力する。この出力データは、印刷部110により、記録媒体上に出力(記録)されることとなる。そして、本処理フローを終了する。
[出力装置における立体感]
出力装置102の鮮鋭性に影響する出力特性と立体感の制御について説明する。上述したように、人間がカメラなどの撮像装置で撮影された2次元画像を見る際、合焦している(ピントが合っている)合焦領域を含む許容合焦領域と、合焦していない(ボケている)非許容合焦領域の鮮鋭感の差から画像の奥行き感や立体感を認識している。
一方、本実施形態に係るプリンタなどの出力装置を通して画像を出力すると、例えば、記録媒体やインクの滲みによる画像の鮮鋭性の低下や、入力画像データを記録媒体サイズ(プリントサイズ)に変倍する解像度変換処理などにより、画像の鮮鋭性が低下する。ディスプレイやプロジェクタなどの他の出力装置でも同様に出力画像においては画像の鮮鋭性が低下する。
このような出力装置の出力特性による入力画像の鮮鋭性の変化は、入力において鮮鋭性の高い(ピントが合っている)許容合焦領域では大きく変化し、入力において鮮鋭性の低い(ボケている)非許容合焦領域ではその変化は小さくなる。つまり、1の画像内において、各領域で鮮鋭性の変化量が異なる。そのため、入力画像に立体感に影響していた許容合焦領域と非許容合焦領域の鮮鋭性の関係が、出力画像ではそのまま維持されないこととなる。
図7のグラフを用いてさらに詳しく説明する。図7において、説明の簡略化のため、合焦領域の画像の空間周波数特性と、非合焦領域に含まれる特定のデフォーカス量に対応する画像の空間周波数特性とが同じ周波数にピークを持つ画像として扱う。また、本実施形態では、記録媒体サイズに変倍するために画像に対する拡大処理を行ってからプリンタで出力した際の特性を出力特性とする。本実施形態では、解像度変換処理として拡大処理を例に挙げて許容合焦領域と非許容合焦領域の鮮鋭性の関係を説明しているが、解像度変換処理が等倍処理・縮小処理であってもよい。
図7は、画像のコントラストと空間周波数特性との関係を示し、縦軸をコントラスト、横軸を空間周波数[cycle/degree]とする。また、本明細書では、便宜上、「高周波(数)」「中周波(数)」「低周波(数)」と記載する場合があるが、これらは相対的な関係を示しており、特定の帯域を示すものではない。しかし、人間の目の特性などに応じて、これらの帯域を規定し、処理を行うような構成であってもよい。
図7(a)において、合焦領域503の入力特性701(実線)と出力特性702(破線)が示されている。同様に、図7(b)において、非合焦領域504の特定のデフォーカス量での入力特性703(実線)と出力特性704(破線)が示されている。図7(c)は、図7(a)の入力特性701(実線)と図7(b)の入力特性703(破線)を同一のグラフ内に示したものである。同様に、図7(d)は、図7(a)の出力特性702(実線)と図7(b)の出力特性704(破線)を同一のグラフ内に示したものである。
ボケによる立体感がある入力画像データでは、特定の空間周波数における入力画像データの合焦領域503の鮮鋭性を示すコントラスト値C1と、非合焦領域504の鮮鋭性を示すコントラスト値C2が図7(c)に示す関係710となる。この入力画像を出力装置102で出力すると図7(d)に示すようにコントラスト値C1とC2はそれぞれ、C1’とC2’に変化する。
図7(c)と図7(d)から明らかなように、出力装置102の出力特性によって入力画像データの鮮鋭性の変化量が、合焦領域503と非合焦領域504で異なる。そのため、立体感に影響する鮮鋭性の差(コントラスト値C1’とC2’の関係711)が、入力画像データにおける鮮鋭性の差(コントラスト値C1とC2の関係710)より小さくなり、適切な立体感が得られない出力画像となる。つまり、入力画像と同様の立体感のある出力画像を得るためには、前述のデフォーカス量に相当する画像のボケの状態と出力装置の鮮鋭性に影響する出力特性に基づいて適切に鮮鋭性を制御する必要がある。言い換えると、出力特性応じて、鮮鋭性の差(コントラスト間の関係性)が入力画像の状態に維持もしくは近づくように制御する必要がある。
図7(e)は、合焦領域の図7(a)の出力特性702(実線)と、出力装置の出力特性に基づいたデフォーカス量と立体感制御量の関係を用いて画像の鮮鋭性を制御した結果の特性705(破線)を示している。同様に、図7(f)は、図7(b)の出力特性704(実線)と、出力装置の出力特性に基づいたデフォーカス量と立体感制御量の関係を用いて画像の鮮鋭性を制御した結果の特性706(破線)を示している。また、図7(g)は、図7(e)の特性705(実線)と図7(g)の特性706(破線)を同一のグラフ内に示したものである。ここでは、出力画像に対して、画像の鮮鋭性を入力画像と同一もしくは近づけるように制御することを「回復」もしくは「復元」と称する。
画像の鮮鋭性を適切に制御した出力画像では、合焦領域503と非合焦領域504のコントラスト値の関係は、図7(g)に示すように関係716となる。図7(g)において、C1’’は合焦領域503のコントラスト値であり、C2’’は非合焦領域504のコントラスト値である。図7(g)に示すように、本実施形態に係る画像出力条件に基づいて立体感制御処理を実施した出力画像では、画像の立体感に影響する鮮鋭性の差が、コントラスト値C1’’とC2’’の関係716に示すような値となる。一方、本実施形態に係る処理を適用しない場合の鮮鋭性の差は、図7(d)に示すように、コントラスト値C1’とC2’の関係711に示すような値となる。つまり、本実施形態に係る画像出力条件に基づいて立体感制御処理を実施した出力画像では、処理をしない場合の鮮鋭性の差(関係711)に対して、画像の立体感に影響する鮮鋭性の差(関係716)が大きくなる。これにより、入力画像における鮮鋭性の差(コントラスト値C1とC2の関係710)に近くなっているため、本実施形態では、入力画像に近い、適切な立体感を出力画像でも得ることができる。
本実施形態では、図7(a)と図7(e)を比較して分かるように、合焦領域503では、低周波から高周波数の帯域(図7(e)の周波数帯域712)にかけて鮮鋭性を制御し回復させている。つまり、合焦領域503では、周波数帯域712の範囲において、出力特性702を、入力特性701に近づけるもしくは同一となるように制御して、特性705に設定している。これは、人間の目がピントの合っている合焦領域では、非常に細かいテクスチャまで特徴として確認できることでピントが合っていると知覚することに起因している。
一方、図7(b)と図7(f)を比較して分かるように、非合焦領域504では、デフォーカス量に応じて、高周波数帯域を含まないように帯域を制限(図7(f)の周波数帯域714)した上で、鮮鋭度を回復している。つまり、非合焦領域504では、周波数帯域714の範囲において、出力特性704を、入力特性703に近づけるもしくは同一となるように制御して、特性706に設定している。これは、ボケている(デフォーカス量が大きい)部分においては、低周波数から中周波数の帯域の部分の回復が重要である。これとともに、上述した高周波数帯域では撮影画像において目につきやすいノイズ成分が含まれる領域であるため、鮮鋭度を回復した場合にはノイズ成分まで強調されてしまう。そのため、回復の対象とする範囲としては、低周波数から中周波数の範囲を対象とする。このように、人間の視覚特性を考慮し、画質の劣化要因であるノイズ成分(高周波帯域)を回復させないように制御することで、適切な立体感を得るとともに、高画質な画像を出力装置に出力することが可能である。なお、周波数帯域714の高周波側の上限値は、人間の視覚に基づいて、予め規定されていてもよい。もしくは、出力装置102の出力特性において、コントラストの値が所定の値(例えば、0)となる空間周波数を、周波数帯域714の高周波側の上限値としてもよい。
また、出力装置によっては、図7(e)に示す周波数帯域713や図7(f)に示す周波数帯域715のように、低周波側の一部に対して帯域制限を加えて鮮鋭度を回復してもよい。これは、プリンタ等の出力装置では、低周波側の劣化は、劣化がない(略ない)もしくは視覚的に見えない程度の劣化であるためである。また、後述するフィルタ処理により鮮鋭度を回復させる場合は、低周波側の領域を回復する程、フィルタサイズが大きくなり、処理速度の低下の要因となる。そのため、低周波側の帯域に制限を設けることで、処理速度の低下を抑制することが可能となる。ここで制限される低周波側の領域の範囲は、例えば、人間の視覚に基づいて予め規定されていてもよい。また、帯域制限される低周波側の帯域として、図7(e)に示す合焦領域に対する範囲と、図7(f)に示す非合焦領域に対する範囲とを異なるように構成してもよい。因みに、視覚的に見えない程度の劣化とは、後述するMTF特性の値で0.2とすることが望ましい。
図示はしていないが、上述したような回復の制御において、デフォーカス量が大きくなるにつれて高周波数を含まないように徐々に狭くなるように、周波数帯域を制限することが望ましい。また、許容合焦領域505はピントが合って見える領域であるため、低周波から高周波の鮮鋭度の補正が必要な全帯域にかけて鮮鋭性を制御し回復させ、非許容合焦領域506では制限された帯域に対して鮮鋭度を回復するようにしてもよい。
なお、図7では、説明の簡略化のため、合焦領域の画像の空間周波数と、非合焦領域に含まれる特定のデフォーカス量に対応する画像の空間周波数の2点に対するコントラストを比較した。しかし、合焦領域と非合焦領域の別のデフォーカス量に対応する画像についても前述の関係は成立する。また、許容合焦領域に含まれる特定のデフォーカス量に対応する画像と、非許容合焦領域に含まれる特定のデフォーカス量に対応する画像の空間周波数の2点においても前述の関係は成立する。
また、画像の鮮鋭性に影響する画像特性としてコントラスト値を取り上げたが、出力装置の出力特性による合焦領域と非合焦領域の画像の鮮鋭性の変化については、鮮鋭度を示す空間周波数特性においても同じ関係が説明できることは自明である。
[立体感制御処理]
以下、本実施形態に係る立体感制御処理について説明する。立体感制御部401では、画像処理条件403に設定されている鮮鋭性の制御パラメータにより入力画像データの鮮鋭性を制御する。画像処理条件403には、各デフォーカス量に対する立体感制御量が設定されている。
図8は、画像処理条件403に設定されているデフォーカス量と立体感制御量の関係を示している。図8において、縦軸は立体感制御量を示し、横軸はデフォーカス量を示す。図8におけるデフォーカス量は、図5(b)に対応するものとする。画像処理条件の作成方法については後述する。
立体感制御部401では、入力画像データの各画素の輝度情報に対して、処理対象画素のデフォーカスマップのデフォーカス量を参照しながら、画像処理条件403に設定された立体感制御量を適用してシャープネス処理を行う。シャープネス処理では、例えば、Laplacian Of Gaussianフィルタ(式(4))やアンシャープマスクを用いる。
σは立体感制御量に関するフィルタパラメータを示し、それぞれ、デフォーカス量に応じた値が設定される。σはLUT(Look−Up Table)方式でパラメータを予め設定してもよいし、デフォーカス量に対する関係式を用いて計算してもよい。x、yはそれぞれ、画素のx方向およびy方向の座標を示し、座標は予め規定されているものとする。
式(5)は、式(4)に示すLaplacian Of Gaussianフィルタを用いた際の入力画像データの輝度情報の変換式を示す。
I(x,y)は、入力画像データを示す。Out(x,y)は、立体感制御処理後の画像データを示す。βは、画像処理条件403に設定されるデフォーカス量に対する立体感制御量である。
なお、シャープネス処理に使用するフィルタは、上述したLaplacian Of Gaussianフィルタだけでなく、特定フィルタの強度を鮮鋭性の制御量で調整する方法もある。特定フィルタとは、例えば、出力装置の鮮鋭性の低下情報の逆特性を求めて作成されたフィルタである。
また、上記説明したようにデフォーカス量に応じて帯域制限することが重要であり、帯域制限して鮮鋭度を補正できればどのようなフィルタでもよい。例えば、上記のLaplacian Of Gaussianフィルタ等で帯域制限して鮮鋭度を制御してもよいし、帯域制限フィルタを鮮鋭性の低下情報の逆特性から作成してもよい。
図8において、デフォーカス量d=0でのβ=β1は入力画像の合焦領域に対する制御量を示す。図8において、β1は最大の立体感制御量を示す。また、デフォーカス量d1は、図5(b)に示す許容合焦領域505と非許容合焦領域506の境界の値である。つまり、d1は、許容合焦領域505に含まれる上限値を示す。さらに、デフォーカス量d2は、デフォーカスマップに含まれる最大のデフォーカス量を示す。したがって、デフォーカス量は、d0(=0)からd2までの範囲の値をとる。また、立体制御量は、β1から0までの範囲の値をとる。
出力画像において、出力装置の出力特性を考慮した適切な立体感を得るためには、図8(a)〜(c)に示すように、入力画像内の合焦領域503の画素に対する立体感制御量が最も大きくなるように画像処理条件を設定する。つまり、デフォーカス量d0に対する立体感制御量β1が最大となるように設定する。さらに、非合焦領域504の制御量は、デフォーカス量が大きくなるほど(d2に近づくほど)制御量が小さくなるように、つまり単調減少となるように設定するとよい。合焦面201からの距離に相当する情報としてデフォーカス量defが画像のボケ量に対応する値である場合は、図8(a)のように、デフォーカス量と立体感制御量は非線形な関係をもつ。図8(a)に示す線は、β=f(d)=α・d2にて示される。ここでのαは、変換係数を示す。この曲線の式は一例であり、他の式を用いてもよい。デフォーカス量が像ずれ量206に対応する場合は、図8(b)のように、線形な関係をもつ。
また、図8(c)のように、非許容合焦領域506(d1〜d2の範囲)に対しては立体感制御量βを“0”としてもよい。この場合でも、前述のように許容合焦領域505と非許容合焦領域506の鮮鋭性の差は、入力画像における許容合焦領域505と非許容合焦領域506の鮮鋭性の差に近づき、出力画像の立体感を得ることが可能である。また、図8(c)では、立体感制御量βが“0”となる位置が許容合焦領域505と非許容合焦領域506の境界である例を示している。しかし、プリンタ等の出力装置では、例えば、図7に示したように入力特性と出力特性の差が、視覚的に無視できる差になるデフォーカス量の位置から立体感制御量βを“0”としてもよい。
上記の立体感制御量は、図9に示すように記録媒体の特性やインク(記録剤)の特性、記録媒体サイズなどによって異なる。これは、記録媒体やインク特性ごとに、インクの滲み等よる画像の鮮鋭性の低下の度合が異なるとともに、記録媒体サイズによって解像度変換処理の変倍率が異なるためである。
図9は、上述したような記録媒体の特性等に応じて、立体感制御量を変化させる例を示す図である。図9の実線は、図8(a)と異なる条件で出力した際のデフォーカス量に対する立体感制御量の線を示している。図9の破線は、図8(a)の実線に対応する。例えば、図9(a)は、図8(a)と比べてインクの滲みが大きい、もしくは変倍率が大きいために立体感制御量が大きい場合を示している。逆に、図9(b)は、図8(a)と比べてインクの滲みが小さい、もしくは変倍率が小さいために立体感制御量が小さい場合を示している。
また、上記では鮮鋭性を制御する処理としてシャープネス処理を例に説明したが、これはコントラスト処理でもよい。具体的には、図8(d)に示すように、合焦領域503を含む許容合焦領域505(d0〜d1の範囲)の入力画像データの各画素の輝度値のコントラストが高くなるように輝度変換を行う。輝度変換については立体感制御量を係数とする変換式を用いる方法や、上述したような入力画像データの各画素の輝度値から生成したヒストグラムを均等化することでコントラストを高める方法等があるが、コントラストが制御できれば、もちろんこれに限らない。
シャープネス処理とコントラスト処理のどちらも処理も出力画像の鮮鋭性を制御することができるため、画像出力装置の特性に応じて、どちらかの処理を選択する、あるいは2つの処理を組み合わせて使用してもよい。
[画像処理条件]
立体感制御処理での画像処理条件403の作成方法について説明する。本実施形態に係る画像処理条件とは、図8に示すような変換方法に相当し、出力装置の出力特性に基づき設定される。画像処理条件403に設定するパラメータは、例えば、図10に示す計測用画像をプリンタやディスプレイ、プロジェクタ等の出力装置102で出力し、測定装置(不図示)を用いて取得した出力装置102による出力画像の周波数特性(MTF特性)から算出する。なお、出力画像生成における各画像処理をPC101上でシミュレートして得られた画像から出力装置102のMTF特性を算出方法が用いられてもよい。つまり、本実施形態では、出力装置の出力特性および距離情報の値に応じて、立体感制御量βは変動する。
図10に示す画像は、ピントが合っている合焦面201に対応する画像群1000、あるデフォーカス量における入力画像のボケ量に相当するボケで表現された複数の画像群1001を含んで構成されている。より詳細には、図10に示す画像は、周波数の異なる複数の矩形パターン、あるいは、正弦波パターン、均一パターンといった、複数のパターン1002、1003を含むチャートである。なお、図10に示す画像は、周波数の異なる複数の正弦波パターンである。均一パターンは、夫々正弦波パターン上の最大画素値と最小値の画素値で構成される。
画像処理条件の作成方法を図11のフローチャートを用いて説明する。処理フローは、出力装置102やPC101等の情報処理装置などが連携することにより実行される。なお、画像処理条件の作成を行うタイミングは、特に限定するものではなく、出力装置102の出荷前に予め実行され、その生成情報が出力装置102の条件保持部406に保持されていてもよいし、適時更新されるような構成であってもよい。また、本処理を実行するにあたり、出力装置102の出力結果を計測するための計測装置(不図示)が用いられるものとする。
S201にて、出力装置102は、図10に示すような計測画像を出力する。
S202にて、測定装置(不図示)は、出力装置102で出力した計測用画像を測定し、MTF特性算出に必要な情報を取得する。ここでの必要な情報は、MTF特性の算出方法に応じて異なるものとする。
S203にて、情報処理装置(不図示)は、測定装置(不図示)にて取得された情報を用いてMTF特性の算出を行う。例えば、計測画像が正弦波パターンである場合、MTF特性は、以下に示す式(6)〜式(8)、あるいは式(9)で算出することができる。下式に示すMTFの値は、光学伝達関数の絶対値を意味する。出力画像の平均明度が変化する場合は式(9)の使用が好ましい。
uは正弦波の周波数を示す。Max(u)は周波数で変化する正弦波パターンの最大反射率を示す。Min(u)は周波数で変化する正弦波パターンの最小反射率を示す。RおよびRは、均一パターンの反射率(R>R)を示す。
上記の式(6)や式(9)において、R、Rの値は反射率を用いているが、代わりに輝度や濃度やデバイスRGB値を用いてもよい。計測装置(不図示)としては、出力装置102がプリンタである場合は、例えばスキャナやデジタルカメラ、顕微鏡を用いることができる。出力装置102がディスプレイやプロジェクタの場合は、デジタルカメラを用いることができる。
また、計測画像が矩形波パターンである場合、出力装置102のMTF特性は式(6)または式(9)を適用することで得られるコントラスト伝達関数(CTF)で表現される。あるいは、CTF値をコルトマン補正式で変換したMTF値が用いられてもよい。
前述の方法により、計測画像に含まれる合焦面201に対応する画像群1000および任意のデフォーカス量に対応する画像群1001の夫々の画像の周波数特性(MTF特性)が取得される。図12は、周波数特性の例を示す。図12において、縦軸はMTF特性を示し、横軸は空間周波数[cycle/degree]を示す。また、図12において、実線(D0)は、合焦面201に対応する画像群1000の周波数特性を示す。点線(D1)は、許容合焦領域505に含まれるデフォーカス量d1に対応する画像群1001の周波数特性を示す。破線(D2)は、非許容合焦領域506に含まれるデフォーカス量d2に対応する画像群1001の周波数特性を示している。
これにより、デフォーカス量ごとに、MTF特性が取得できる。つまり、デフォーカス量ごとの出力装置102の鮮鋭性に関する出力特性が得られる。
S204にて、情報処理装置(不図示)は、出力画像の合焦領域の鮮鋭性あるいは周波数特性を、入力画像の鮮鋭性あるいは周波数特性へ鮮鋭化処理によって復元するように、立体感制御量を算出する。
出力画像において、入力画像と同様の適切な立体感を得るためには、立体感制御処理を適用しない場合と比較して、処理を適用した際の出力画像の許容合焦領域と非許容合焦領域の鮮鋭性の差が、入力画像におけるその鮮鋭性の差に近づける必要がある。つまり、出力画像において許容合焦領域と非許容合焦領域の鮮鋭性の差を適切に制御するためには、デフォーカス量ごとの出力装置102の鮮鋭性に影響する出力特性に応じて立体感制御量を設定すればよい。そこで、本実施形態では、特定の周波数における出力画像の合焦領域の鮮鋭性あるいは周波数特性を、入力画像の鮮鋭性あるいは周波数特性に鮮鋭化処理によって復元するように立体感制御量を設定する。同様に、本実施形態では、非合焦領域に対しても、デフォーカス量ごとに得られるMTF特性から復元量を算出し、立体感制御量とする。これにより、図8に示すようなデフォーカス量に対する立体感制御量が算出される。
デフォーカス量と鮮鋭度の関係は、図8に示したデフォーカス量を入力として立体感制御量を出力とする関係式として設定する方法、LUT方式でパラメータを選択して設定する方法等がある。なお、これらの方法に限定するものではなく、デフォーカス量に対する立体感制御量を算出できるのであれば、どのような方法でもよい。
また、立体感制御量は、MTF特性を復元する値に限らない。出力装置102の出力特性に基づいたデフォーカス量と鮮鋭化の制御量に応じた鮮鋭化処理をしない場合の鮮鋭性の差に対して、処理を行った場合の鮮鋭性の差が大きくなることを満足すると、出力画像で適切な立体感を得られる。
更には、図8に示す合焦面201における制御量β1は、画像のMTF特性を特定の値(例えば、0.8から1.2)に復元するように設定すると、出力画像における合焦面201の鮮鋭性が好ましい画像が得られる。
本実施形態では、画像処理条件としてデフォーカス量と立体感制御量の関係を例に説明した。しかし、これに限定するものではなく、合焦面201からの距離に相当する情報(距離情報)として挙げた像ずれ量206もしくは合焦面と物体との距離304と、立体感制御量の関係を画像処理条件としてもよい。
そして、S205にて、情報処理装置(不図示)は、S204にて算出した立体感制御量に基づき、デフォーカス量に応じた出力装置の鮮鋭性に関する出力特性から導出される画像処理条件403を設定する。そして、本処理フローを終了する。この画像処理条件403を用いて、入力画像データを処理することで、出力画像の立体感を制御することが可能になる。
以上、本実施形態により、適切な立体感を得るとともに、高画質な画像を出力装置に出力することが可能となる。
上記の実施形態では、図5(b)に示すように、デフォーカスマップにおいて、ピントが合っているものとして扱う許容合焦領域505と、それ以外の非許容合焦領域506の2つの領域を用いて、画像処理を適用する空間周波数の帯域を切り替える例をしめした。これに限定するものではなく、例えば、非許容合焦領域を複数の領域に分割し、その分割した領域ごとに画像処理を適用する空間周波数の帯域を切り替えるような構成であってもよい。
<その他の実施形態>
本発明は上述の実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101…PC、102…出力装置、108…データ転送部、109…画像処理部、110…印刷部、111…プリンタ制御部、401…立体感制御部、402…出力画像生成部、403…画像処理条件

Claims (13)

  1. 画像と、前記画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報とを取得する取得手段と、
    出力装置の鮮鋭度に係る出力特性に基づき、距離情報に応じた画像処理条件を設定する設定手段と、
    前記取得手段にて取得した距離情報と前記設定手段にて設定した画像処理条件とを用いて、前記画像に対して画像処理を行う処理手段と
    を有し、
    前記処理手段は、前記距離情報に応じて、前記画像処理を適用する前記画像の空間周波数の帯域を切り替えることを特徴とする画像処理装置。
  2. 前記処理手段は、前記距離情報が第1の値を示す場合、前記距離情報が前記第1の値よりも大きな第2の値を示す場合よりも、前記画像処理を適用する空間周波数の帯域を広げることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の値は、前記合焦面から所定の距離までの範囲の値であり、
    前記第2の値は、前記所定の距離よりも大きな値であり、
    前記所定の距離は、ピントが合っているとして許容される、前記合焦面からの距離の上限値であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記処理手段は、所定の周波数よりも低い空間周波数の帯域においては、前記画像に対し前記画像処理を適用しないことを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 画像と、前記画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報とを取得する取得手段と、
    出力装置の鮮鋭度に係る出力特性に基づき、距離情報に応じた画像処理条件を設定する設定手段と、
    前記取得手段にて取得した距離情報と前記設定手段にて設定した画像処理条件とを用いて、前記画像に対して画像処理を行う処理手段と
    を有し、
    前記処理手段は、前記距離情報が所定の値よりも大きい値を示す場合、前記画像の第1の周波数よりも高い帯域に対しては前記画像処理を適用しないことを特徴とする画像処理装置。
  6. 前記所定の値は、ピントが合っているとして許容される、前記合焦面からの距離の上限値であることを特徴とする請求項5に記載の画像処理装置。
  7. 前記処理手段は、第2の周波数よりも低い空間周波数の帯域においては、前記画像に対し前記画像処理を適用せず、
    前記第2の周波数は、前記第1の周波数よりも低く、かつ、前記出力装置の鮮鋭度に係る出力特性および人間の視覚に基づいて規定される劣化が略ない範囲の周波数であることを特徴とする請求項5または6に記載の画像処理装置。
  8. 前記画像処理は、コントラスト処理もしくはシャープネス処理を行うことによる画像の鮮鋭度を制御する処理であることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 前記画像処理条件は、前記コントラスト処理もしくは前記シャープネス処理における、距離情報に応じた制御量であることを特徴とする請求項8に記載の画像処理装置。
  10. 前記距離情報は、デフォーカス情報、像ずれ量、もしくは、前記合焦面から物体までの距離を示す情報のいずれかであることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 画像と、前記画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報とを取得する取得工程と、
    出力装置の鮮鋭度に係る出力特性に基づき、距離情報に応じた画像処理条件を設定する設定工程と、
    前記取得工程にて取得した距離情報と前記設定工程にて設定した画像処理条件とを用いて、前記画像に対して画像処理を行う処理工程と
    を有し、
    前記処理工程において、前記距離情報に応じて、前記画像処理を適用する前記画像の空間周波数の帯域を切り替えることを特徴とする画像処理方法。
  12. 画像と、前記画像に含まれる画素それぞれに対応する、合焦面からの距離に関する距離情報とを取得する取得工程と、
    出力装置の鮮鋭度に係る出力特性に基づき、距離情報に応じた画像処理条件を設定する設定工程と、
    前記取得工程にて取得した距離情報と前記設定工程にて設定した画像処理条件とを用いて、前記画像に対して画像処理を行う処理工程と
    を有し、
    前記処理工程において、前記距離情報が所定の値よりも大きい値を示す場合、前記画像の第1の周波数よりも高い帯域に対しては前記画像処理を適用しないことを特徴とする画像処理方法。
  13. コンピュータを、請求項1乃至10のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018128569A 2018-07-05 2018-07-05 画像処理装置、画像処理方法、及びプログラム Active JP7199169B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018128569A JP7199169B2 (ja) 2018-07-05 2018-07-05 画像処理装置、画像処理方法、及びプログラム
US16/449,819 US10964041B2 (en) 2018-07-05 2019-06-24 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US17/184,738 US11645774B2 (en) 2018-07-05 2021-02-25 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018128569A JP7199169B2 (ja) 2018-07-05 2018-07-05 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020009074A true JP2020009074A (ja) 2020-01-16
JP7199169B2 JP7199169B2 (ja) 2023-01-05

Family

ID=69102255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018128569A Active JP7199169B2 (ja) 2018-07-05 2018-07-05 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (2) US10964041B2 (ja)
JP (1) JP7199169B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7199169B2 (ja) 2018-07-05 2023-01-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020141226A (ja) 2019-02-27 2020-09-03 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2022083913A (ja) * 2020-11-25 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228113A (ja) * 2014-05-30 2015-12-17 キヤノン株式会社 画像処理装置および画像処理方法
JP2016045240A (ja) * 2014-08-20 2016-04-04 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置並びにその制御方法
JP2018014646A (ja) * 2016-07-21 2018-01-25 キヤノン株式会社 画像処理装置および画像処理方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4470676A (en) * 1978-07-28 1984-09-11 Canon Kabushiki Kaisha Focus detecting device
GB0216641D0 (en) * 2002-07-18 2002-08-28 Univ Nottingham Image analysis method, apparatus and software
JP5066851B2 (ja) 2006-07-05 2012-11-07 株式会社ニコン 撮像装置
JP5243833B2 (ja) 2008-04-04 2013-07-24 株式会社日立製作所 画像信号処理回路、画像表示装置、および画像信号処理方法
US20160042522A1 (en) * 2010-02-19 2016-02-11 Dual Aperture International Co. Ltd. Processing Multi-Aperture Image Data
JP5891409B2 (ja) * 2012-01-12 2016-03-23 パナソニックIpマネジメント株式会社 特徴抽出装置、特徴抽出方法、および特徴抽出プログラム
JP6214183B2 (ja) 2012-05-11 2017-10-18 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP6173156B2 (ja) * 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
US9300857B2 (en) * 2014-04-09 2016-03-29 International Business Machines Corporation Real-time sharpening of raw digital images
JP6313685B2 (ja) * 2014-05-01 2018-04-18 キヤノン株式会社 撮像装置およびその制御方法
JP6381376B2 (ja) * 2014-09-02 2018-08-29 キヤノン株式会社 撮像装置、カメラシステム、画像処理装置および画像処理プログラム
JP6385241B2 (ja) * 2014-10-27 2018-09-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3018516B1 (en) * 2014-11-05 2019-06-19 Canon Kabushiki Kaisha Image capturing apparatus and method for controlling image capturing apparatus
US9292926B1 (en) * 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
JP2016151955A (ja) * 2015-02-18 2016-08-22 キヤノン株式会社 画像処理装置、撮像装置、距離計測装置、および画像処理方法
JP6544978B2 (ja) * 2015-04-15 2019-07-17 キヤノン株式会社 画像出力装置およびその制御方法、撮像装置、プログラム
JP6584122B2 (ja) * 2015-04-21 2019-10-02 キヤノン株式会社 画像処理装置及び画像処理方法
CN107205113B (zh) * 2016-03-18 2020-10-16 松下知识产权经营株式会社 图像生成装置、图像生成方法及计算机可读存储介质
JP7137313B2 (ja) 2018-02-15 2022-09-14 キヤノン株式会社 出力装置、画像処理方法およびプログラム
US10972714B2 (en) 2018-02-15 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for storing program
US10992851B2 (en) 2018-02-15 2021-04-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium, with image processing based on image processing condition and information equivalent to distance from focal plane
JP7117914B2 (ja) 2018-06-29 2022-08-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020010146A (ja) 2018-07-05 2020-01-16 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7199169B2 (ja) 2018-07-05 2023-01-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020167592A (ja) * 2019-03-29 2020-10-08 キヤノン株式会社 プログラム、画像処理装置、および画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228113A (ja) * 2014-05-30 2015-12-17 キヤノン株式会社 画像処理装置および画像処理方法
JP2016045240A (ja) * 2014-08-20 2016-04-04 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置並びにその制御方法
JP2018014646A (ja) * 2016-07-21 2018-01-25 キヤノン株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20210183090A1 (en) 2021-06-17
JP7199169B2 (ja) 2023-01-05
US10964041B2 (en) 2021-03-30
US11645774B2 (en) 2023-05-09
US20200013178A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
JP7137313B2 (ja) 出力装置、画像処理方法およびプログラム
JP7403594B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10972714B2 (en) Image processing apparatus, image processing method and storage medium for storing program
US11037037B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable storage medium
US10992851B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium, with image processing based on image processing condition and information equivalent to distance from focal plane
US11645774B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP5235642B2 (ja) 画像処理装置およびその方法
CN109310278B (zh) 图像处理装置、图像处理方法、程序和图像处理系统
WO2011148921A1 (ja) 画像処理装置、画像表示装置および画像撮像装置
JP2011135563A (ja) 撮像装置および画像処理方法
JP2011248479A (ja) 画像処理装置、画像処理方法、およびプログラム
US9508130B2 (en) Image processing apparatus, image processing method, and storage medium for performing image restoration
JP2008097657A (ja) 画像処理装置及び方法
JP2022083913A (ja) 画像処理装置、画像処理方法及びプログラム
JP7278080B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7356218B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11120315B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable storage medium, with image processing using distance information equivalent to distance from focal plane at time of image-capturing and image processing condition
JP7208809B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6576174B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2013127804A (ja) 画像処理プログラム、画像処理装置、および画像処理方法
JP2019016222A (ja) 画像処理装置およびその制御方法
US20240144536A1 (en) Image processing device, image processing method, and storage medium
CN101489146B (zh) 自适应的不可见结构光技术实现方法
JP2019186905A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221220

R151 Written notification of patent or utility model registration

Ref document number: 7199169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151