JP7080688B2 - 画像処理装置、撮像装置、画像処理方法、プログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、プログラム Download PDF

Info

Publication number
JP7080688B2
JP7080688B2 JP2018054173A JP2018054173A JP7080688B2 JP 7080688 B2 JP7080688 B2 JP 7080688B2 JP 2018054173 A JP2018054173 A JP 2018054173A JP 2018054173 A JP2018054173 A JP 2018054173A JP 7080688 B2 JP7080688 B2 JP 7080688B2
Authority
JP
Japan
Prior art keywords
image
data
subject
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018054173A
Other languages
English (en)
Other versions
JP2019169769A (ja
Inventor
正明 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018054173A priority Critical patent/JP7080688B2/ja
Priority to PCT/JP2019/009312 priority patent/WO2019181560A1/ja
Publication of JP2019169769A publication Critical patent/JP2019169769A/ja
Priority to US17/017,026 priority patent/US11663710B2/en
Application granted granted Critical
Publication of JP7080688B2 publication Critical patent/JP7080688B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、被写体の画像データおよび被写体の距離分布情報を処理する技術に関する。
距離マップは被写体の距離分布を表す情報であり、距離マップデータを用いて画像を加工して表示することで、ユーザは被写体までの距離感を直感的に把握できる。特許文献1では、合焦状態の被写体の画像領域を強調して表示する、いわゆるピーキングと称される方法が開示されている。撮像信号をモノクロ信号に変換した上で、合焦状態の被写体の画像領域を、被写体までの距離に応じた色で着色する処理が行われる。
特開2008-135812号公報
特許文献1に開示された従来技術では、撮像信号がモノクロ信号に変換された時点で元の被写体色を把握することができなくなる。また、カラー撮像信号をそのまま利用する場合、被写体によってはピーキング色と被写体色とが被ることがあり、被写体の距離感を把握することが困難となる。
本発明の目的は、被写体の色の表示に影響を与えずに、被写体の距離感を把握することが可能な画像処理装置を提供することである。
本発明の一実施形態の画像処理装置は、被写体の画像データを取得する第1の取得手段と、前記被写体の距離分布に関連する情報をマップデータとして取得する第2の取得手段と、前記画像データの低周波数成分を抑圧したテクスチャ画像のデータを生成する第1の生成手段と、前記マップデータおよび前記テクスチャ画像のデータから前記被写体の距離分布および輝度を表す第1のデータを生成する第2の生成手段と、を備える。
本発明の画像処理装置によれば、被写体の色の表示に影響を与えずに、被写体の距離感を把握することが可能な画像処理装置を提供することができる。
本発明の実施形態に係る撮像装置の機能構成を示すブロック図である。 本発明の実施形態に係る画像処理部の機能構成を示すブロック図である。 本発明の実施形態に係る低域抑圧フィルタ部の機能構成を示すブロック図である。 第1実施形態に係る画像処理部の動作の説明図である。 第2実施形態に係る撮像部の構成の説明図である。 第2実施形態に係る画面の分割例を示す模式図である。 第2実施形態に係る低域抑圧フィルタ部のローパスフィルタ特性の説明図である。 第2実施形態に係る画像処理部の動作の説明図である。 第3実施形態に係る画像処理部の機能構成を示すブロック図である。
以下に、本発明の好適な実施形態について、図面を参照して詳細に説明する。本発明に係る画像処理装置の一例として、デジタルカメラへの適用例を示す。
[第1実施形態]
図1は、本実施形態の撮像装置100の機能構成を示すブロック図である。制御部101はCPU(中央演算処理装置)を備え、撮像装置全体を制御する。制御部101は、撮像装置100が備える各構成部の動作プログラムをROM(リード・オンリ・メモリ)102から読み出し、RAM(ランダム・アクセス・メモリ)103に展開して実行する。ROM102は書き換え可能な不揮発性メモリであり、CPUが実行する動作プログラムに加え、撮像装置100が備える各構成部の動作に必要なパラメータ等を記憶する。RAM103は書き換え可能な揮発性メモリであり、撮像装置100が備える各構成部の動作において出力されたデータの一時的な記憶領域として用いられる。
撮像光学系104はレンズや絞り等を備え、被写体からの光を撮像部105に結像させる。撮像部105はCCD(電荷結合素子)イメージセンサやCMOS(相補型金属酸化膜半導体)イメージセンサ等の撮像素子を備える。撮像素子は、撮像光学系104により結像された光学像に対して光電変換を行い、アナログ画像信号をA/D(アナログ/デジタル)変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号に対してA/D変換処理を行い、デジタル画像データをRAM103に出力して記憶させる。
画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、縮小/拡大、フィルタリング等の様々な画像処理を適用する。記録媒体108は、撮像装置100に着脱可能なメモリカード等であり、RAM103に記憶されている画像データを記録する。画像処理部107で処理された画像データや、A/D変換部106によるA/D変換後の画像データ等が、記録画像データとして記録媒体108に記録される。表示部109は、LCD(液晶表示装置)等の表示デバイスを備え、撮像部105により取得された撮像画像のスルー表示等を行い、また各種の情報を画面に表示する。
距離マップ取得部110は、TOF(Time of Flight)方式等で被写体の距離分布に関連する情報を距離マップとして取得する。距離マップまたは撮像画像に関連する像ずれ量やデフォーカス量のデータは、被写体の奥行方向における深度情報を有する。以下では、深度情報の分布を表すデータを距離マップデータという。取得された距離マップデータはデジタルデータとしてRAM103に記憶される。距離マップデータの生成方法については任意である。
図2は、画像処理部107の構成を説明するための図である。現像部201は、A/D変換部106により変換された画像データ204を取得し、ホワイトバランス調整、色補間等の処理を施して輝度信号と色差信号に変換する。現像部201は、被写体の画像データ204の輝度成分(Y)と色成分(C)を分離するYC分離処理を行い、輝度信号および色差信号を出力する。
低域抑圧フィルタ部202は、現像部201から輝度信号を取得して後述のフィルタ処理を行い、低周波数成分を抑圧したテクスチャ画像の信号を生成する。低域抑圧フィルタ部202は、低周波数成分を抑圧したテクスチャ画像の信号を加算部203に出力する。加算部203は低域抑圧フィルタ部202の出力信号と距離マップ取得部110の出力信号205を加算し、加算結果を輝度信号206として出力する。輝度信号206と、現像部201の出力する色差出力信号207にしたがって、図1の表示部109は画面にライブビュー画像をリアルタイムに表示する。
図3は、低域抑圧フィルタ部202の構成例を示す図である。水平ローパスフィルタ部(HLPFと記す)301は、現像部201からの輝度信号304が入力され、画面の水平方向におけるローパスフィルタリングを行う。垂直ローパスフィルタ部(VLPFと記す)302は、HLPF301の出力信号を取得し、画面の垂直方向におけるローパスフィルタリングを行う。減算部303は、輝度信号304とVLPF302の出力信号を取得し、輝度信号304からVLPF302の出力信号を減算する。減算後の信号は、低域抑圧フィルタ部202の出力信号305となる。
本実施形態において、HLPF301およびVLPF302のフィルタ係数は[121]とする。低周波数成分の抑圧方法については、ローパスフィルタを用いる方法に限定されるものではなく、例えばバンドパスフィルタを用いてもよい。
図4は、画像処理部107が行う処理について説明する模式図である。画像401は、図2の現像部201の輝度信号に対応する画像例を示す。画像401内に示す被写体407から409のうち、被写体407および408は人物であり、被写体409は建物である。画像401は中央の被写体408に焦点が合った状態で撮像された画像であり、被写体407は被写体408よりも手前側(撮像部側)に位置し、被写体409は被写体408よりも奥側に位置している。
画像402は、図2の低域抑圧フィルタ部202によるテクスチャ成分の出力信号に対応する画像である。画像403は距離マップデータを表す距離マップ画像である。距離マップ画像は各画素位置に対応する距離情報をもち、距離分布を画像と関連付けて表現した画像である。本実施形態では画像403がモノクロ画像であって、手前側(撮像部側)ほど白く、奥側ほど黒いこと表わしている。つまり、撮像装置から被写体までの距離(被写体距離)が小さいほど白くなることを意味する。
画像404は、図2の加算部203によるテクスチャ距離マップの出力信号に対応する合成画像である。距離マップを表す画像403は、例えばTOF方式でデータが取得される。この場合、被写体表面の質感や凹凸が表現できるほどの分解能は無いため、距離マップ画像は概ね平坦であって、信号が低周波数帯域に集中している。一方、テクスチャ成分を表す画像402は低周波数成分が抑圧されているので、テクスチャ距離マップを表す画像404の輝度信号の空き帯域を効率的に利用できる。この画像404を用いることにより、ユーザは被写体の距離感を直感的に把握しつつ、ライブビュー画像を確認できる。加えて、色差出力信号207はライブビュー画像の色差信号として表示画像上に表現されるので、ユーザは被写体画像の色を同時に確認できる。しかし、被写体画像の色が必要無い場合は、色差出力信号207を必要とせず、無彩色でライブビュー画像を構成してもよい。
本実施形態によれば、被写体の色と被写体までの距離感とを同時に把握することが可能な画像処理装置を提供できる。尚、表示部109の画面にライブビュー画像をリアルタイムに表示する構成例を説明したが、本発明はこれに限定されるものではない。記録媒体108に記録されている距離マップ付きの静止画像または動画像のデータを取得して、表示部109の画面に画像を表示させる構成にしてもよい。
[第2実施形態]
次に本発明の第2実施形態を説明する。第1実施形態との相違点を説明し、第1実施形態と同様の事項については既に使用した符号または記号を用いることで、それらの詳細な説明を省略する。このような説明の省略の仕方は後述の実施形態でも同じである。
本実施形態においては、瞳分割型撮像素子を用いた撮像面位相差検出方式により、視点の異なる複数の視点画像データを取得して像ずれ量やデフォーカス量を算出する処理を説明する。撮像部105は瞳分割型撮像素子を有し、距離マップ取得部110は複数の視点画像データを用いて位相差検出の演算を行う。位相差検出の演算結果に基づいて距離マップデータの取得および撮像光学系の焦点調節制御が行われる。
図5は、撮像部105が備える撮像素子の画素部の構成を示す模式図である。画素部502は、マイクロレンズ501と、マイクロレンズ501に対応する一対の光電変換部503、504を備える。図5では多数の画素部502が二次元アレイ状に規則的に配列されていることを示している。一対の光電変換部503、504からそれぞれ、一対の画像としてA像、B像が出力されるものとする。第1の光電変換部503は、撮像光学系104における第1の瞳部分領域を通過する光束に対する光電変換を行い、第2の光電変換部504は、撮像光学系104における第2の瞳部分領域を通過する光束に対する光電変換を行う。図5に示す構成により、撮像光学系104の異なる瞳部分領域を通過する一対の光束から、一対のA像信号およびB像信号が取得される。距離マップ取得部110は、A像信号とB像信号との位相差を検出して距離マップデータを取得する。複数の画像間で対応する着目領域に対して相関演算を行うことにより距離マップデータを取得可能である。本実施形態では、各画素部が2分割された光電変換部を有する例を示すが、分割数が3以上である光電変換部によって、より多くの視点画像データを取得可能である。
着目している微小ブロックにおけるA像のデータ系列をE(1)~E(m)と表記し、B像のデータ系列をF(1)~F(m)と表記する。mは着目ブロックのサイズに対応するデータ数を表す。この場合、データ系列E(1)~E(m)に対して、データ系列F(1)~F(m)を相対的にずらしながら、下記式(1)により、2つのデータ系列間のずらし量kにおける相関量C(k)の演算が行われる。
C(k)=Σ|E(n)-F(n+k)| ・・・(1)
式(1)において、Σの記号で示す総和の演算はnについて計算される。このΣ演算においてn、n+kの取る範囲は、1~mの範囲に限定される。また、ずらし量kは整数であり、一対のデータの検出ピッチを単位とした相対的シフト量を表す。
式(1)の演算結果については、一対のデータ系列の相関が高いシフト量において相関量C(k)が最小になる。C(k)が最小となるkを、kjと表記する。下記式(2)から式(4)で示す3点内挿法を用い、連続的な相関量に対する最小値C(x)を与えるシフト量xを算出することができる。
x=kj+D/SLOP ・・・(2)
D={C(kj-1)-C(kj+1)}/2 ・・・(3)
SLOP=MAX{C(kj+1)-C(kj),C(kj-1)-C(kj)}・・・(4)
式(2)で求めたシフト量xから、デフォーカス量(DEFと記す)を下記式(5)により算出することができる。
DEF=KX・PY・x ・・・(5)
式(5)において、PYは検出ピッチを表し、KXは一対の瞳を通過する光束の重心の開き角の大きさによって決まる変換係数である。図6は画面600の分割例を示す模式図である。画面600をm×m画素のサイズをもつ微小ブロック601に分割し、微小ブロックごとにデフォーカス量を算出する処理が実行される。微小ブロックの1辺のサイズを表すmの値は、例えば4である。本実施形態では、式(5)に示すデフォーカス量DEFの絶対値|DEF|が距離マップとして利用される。
画像処理部107の構成は、第1実施形態と同様である。低域抑圧フィルタ部202の構成は図3に示す通りであるが、本実施形態においては、HLPF301およびVLPF302のカットオフ周波数がナイキスト周波数の1/mになるようにフィルタ係数が決定される。本実施形態ではローパスフィルタのカットオフ周波数として、ナイキスト周波数を、着目ブロックのサイズに対応するmで除算した周波数が決定される。図7を参照して具体的に説明する。
図7は、図3のHLPF301およびVLPF302の周波数特性を説明するための図である。横軸はサンプリング周波数で正規化された空間周波数を表し、0.5がナイキスト周波数である。縦軸は周波数がゼロのときの振幅で正規化された信号振幅を表す。HLPF301およびVLPF302のフィルタ係数を[1222221]とする。この場合、図7に示す周波数特性となり、目標のカットオフ周波数0.5/m=0.5/4=0.125以上の周波数の信号振幅を十分に減衰させることができる。
本実施形態におけるデフォーカス量の算出単位は、図6に示すように、m×mブロックごとになるので、距離マップの占有帯域は低周波数の帯域に集中する。低域抑圧フィルタ部202の目標のカットオフ周波数をナイキスト周波数の1/m、つまりナイキスト周波数をmで除算した周波数とすることで、距離マップとテクスチャ画像との占有帯域の重複を回避できる。
図8は、図1の画像処理部107の動作を説明するための図である。符号401、402、407~409については、第1実施形態で説明した図4における符号と同じである。距離マップを表す画像803は、デフォーカス量がゼロのときに白く、デフォーカス量が大きいほど黒く表現される。例えば、撮像画像において焦点の合っている合焦領域に対応するマップ値を第1の値とし、焦点の合っていない非合焦領域に対応するマップ値を第2の値とする。このとき、第1の値の方が第2の値よりも大きい。マップ値は、撮像画像内で所定の被写体(主被写体)に焦点が合っている合焦領域に対応する距離を基準として、主被写体よりも手前側(撮像部側)または奥側に離れるにつれて単調減少する。つまり、距離マップデータは深度情報に応じたデプス階調のデータであって、焦点の合った被写体位置を基準として当該位置でのマップ値が最大であり、撮像部に近いほど小さく、また撮像部から遠いほど小さい。本実施形態のテクスチャ距離マップを表す合成画像804は、デフォーカス量がゼロである領域が白くなって輝度強調されて表示される。よって、焦点合わせ時のピントの視認性を向上させることができる。また、記録媒体108に記録済みである距離マップ付きの静止画像や動画像のデータを読み出して表示部109の画面に表示させた場合、ユーザは記録画像のピントを確認したうえで再撮影するのに都合が良い。
本実施形態によれば、撮像面位相差検出が可能な撮像素子を用いて、距離マップ取得部110により位相差検出の演算を行い、デフォーカスマップを取得して距離分布を表現した画像を表示することができ、ユーザは焦点検出状態を容易に把握できる。
[第2実施形態の変形例]
本発明は、複数の視点画像データに基づく位相差検出により距離マップデータを取得する例に限定されるものではない。本変形例ではDFD(Depth From Defocus)方式による距離マップデータの取得例を説明する。
DFD方式で撮像部から被写体までの被写体距離に関連する情報を取得するために、ブラケット撮影が行われる。例えばフォーカスブラケット撮影では、所定の画角で撮像光学系のフォーカス位置を変更しながら連続撮影が行われる。この場合、距離マップ取得部110は、フォーカス位置の異なる状態で撮像された複数枚の画像間の相関演算を行い、演算結果に基づいて距離マップデータを取得する。またアパーチャブラケット撮影では、撮像光学系の絞り値を変更しながら連続撮影が行われる。この場合、距離マップ取得部110は、絞り値が異なる複数枚の画像間の相関演算を行い、演算結果に基づいて距離マップデータを取得する。各撮影方法は公知であるため、それらの詳細な説明を省略する。
[第3実施形態]
次に本発明の第3実施形態を説明する。図9は、本実施形態の画像処理部107の構成を示す図である。本実施形態では図2に示す構成に対し、ルックアップテーブル部901、無彩色判定部902、第1の選択部903および第2の選択部904が追加されている。
ルックアップテーブル部901は、予めメモリに記憶されているデータを参照し、距離マップデータが表す距離値を色値に変換することにより、着色された距離マップのデータを生成する。ルックアップテーブル部901は距離マップ取得部110の出力信号205を取得し、距離マップデータの距離値に対応した色差信号を第2の選択部904に出力する。
無彩色判定部902は、現像部201から色差信号を取得し、下記式(6)および(7)を用いて、画面ごとに無彩色のシーンであるか否かを判定する。
SAT=√{(U/128)^2+(V/128)^2} ・・・(6)
SUM=ΣSAT ・・・(7)
式(6)のUおよびVは色差信号を表し、符号付き8ビット(-128~127)とする。式(7)のΣ積算は画面全体にわたってSATの値が積算されることを表す。無彩色判定部902は、SUMの値が所定の閾値より小さい場合、無彩色のシーンと判定し、論理値Trueの信号を出力する。また無彩色判定部902は、SUMの値が所定の閾値以上である場合、有彩色のシーンと判定し、論理値Falseの信号を出力する。無彩色判定部902の判定信号は第1の選択部903および第2の選択部904にそれぞれ入力される。
第1の選択部903には現像部201の出力する輝度信号と加算部203の出力信号が入力される。第1の選択部903は無彩色判定部902の判定信号に基づき、論理値Trueの場合に現像部201が出力する輝度信号を選択する。また第1の選択部903は無彩色判定部902の判定信号に基づき、論理値Falseの場合に加算部203の出力を選択し、テクスチャ距離マップのデータを出力する。
第2の選択部904は無彩色判定部902の判定信号に基づき、論理値Trueの場合にルックアップテーブル部901の出力を選択し、色変換によって着色された距離マップに対応する色差信号を出力する。また第2の選択部904は無彩色判定部902の判定信号に基づき、論理値Falseの場合に現像部201の出力する色差信号を選択する。
第1の選択部903が出力する輝度信号905と、第2の選択部904が出力する色差信号906は、図1の表示部109に送られて、ライブビュー画像がリアルタイムに表示される。
無彩色判定部902の出力が論理値Falseの信号であって有彩色のシーンの場合(第1の表示モード)、第1実施形態と同様のテクスチャ距離マップに対応する信号が出力される。無彩色判定部902の出力が論理値Trueの信号であって無彩色のシーンの場合(第2の表示モード)、特許文献1と同様のピーキング付加画像の信号が出力される。こうすることで、被写体の色を表現する必要が無い場合に距離情報の表現に色情報が使えるようになるので、ユーザは被写体の距離感をより直感的に把握することができる。
本実施形態では、画面ごとに無彩色の判定を行う構成としたが、本発明はこれに限定されるものではない。例えば上記式(6)のSUMの値が所定の閾値を下回った状態の画面が所定の回数で連続した場合に無彩色判定部902が論理値Trueの信号を出力してもよい。こうすることで、頻繁に表示モードが切り替わることによる視認性の低下を抑制できる。また、現時点でどちらの表示モードで表示が行われているのかを、ユーザが分かりやすいように、無彩色判定部902の判定結果に対応する指標情報を表示部109の画面上に表示させることが望ましい。
本実施形態によれば、無彩色または有彩色のシーン判定を行い、判定結果に応じた表示モードで表示される画像をユーザに提示することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、距離分布をグレースケールで表示する実施形態も本発明の技術的範囲に含まれる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:制御部
104:撮像光学系
105:撮像部
107:画像処理部
109:表示部
110:距離マップ取得部


Claims (14)

  1. 被写体の画像データを取得する第1の取得手段と、
    前記被写体の距離分布に関連する情報をマップデータとして取得する第2の取得手段と、
    前記画像データの低周波数成分を抑圧したテクスチャ画像のデータを生成する第1の生成手段と、
    前記マップデータおよび前記テクスチャ画像のデータから前記被写体の距離分布および輝度を表す第1のデータを生成する第2の生成手段と、を備える
    ことを特徴とする画像処理装置。
  2. 前記被写体の画像データに対して輝度成分と色成分との分離を行う分離手段を備え、
    前記第1の生成手段は、前記分離手段により分離された輝度成分から前記テクスチャ画像のデータを生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2の生成手段は、前記マップデータと前記テクスチャ画像のデータを加算して前記第1のデータを生成し、前記被写体の画像データから当該被写体の色を表す第2のデータを生成する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記第1のデータと、前記分離手段により分離された色成分に基づく前記第2のデータにしたがって画像を表示する表示手段を備える
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記被写体を撮像する撮像手段を備え、
    前記表示手段は、前記撮像手段により取得される撮像画像から前記第2の生成手段により生成される前記第1および第2のデータを取得して画像をリアルタイムに表示する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記第2の取得手段は、複数の画像間で対応する着目領域に対して相関演算を行うことにより前記マップデータを取得し、
    前記第1の生成手段は前記低周波数成分を抑圧する処理に用いられるフィルタを備え、前記着目領域のサイズに対応する前記フィルタのカットオフ周波数を決定する
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記第1の生成手段は、ナイキスト周波数を、前記着目領域のサイズに対応する値で除算することにより前記カットオフ周波数を決定する
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 前記第1の取得手段により取得される画像データが無彩色のデータである場合、前記被写体の画像の輝度成分を有するデータを選択し、前記第1の取得手段により取得される画像データが有彩色のデータである場合、前記第2の生成手段により生成された前記第1のデータを選択する第1の選択手段を備える
    ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記第2の取得手段によって取得された前記マップデータを着色された画像データに変換する変換手段と、
    前記第1の取得手段により取得される画像データが無彩色のデータである場合、前記着色された画像データを選択し、前記第1の取得手段により取得される画像データが有彩色のデータである場合、前記被写体の画像の色成分を有するデータを選択する第2の選択手段を備える
    ことを特徴とする請求項8に記載の画像処理装置。
  10. 前記マップデータの画像の輝度は、撮像画像にて焦点の合っている領域に対応する値の方が、前記撮像画像にて焦点の合っていない領域に対応する値よりも大きい
    ことを特徴とする請求項5に記載の画像処理装置。
  11. 前記第1の取得手段は、視点が異なる複数の画像データ、または、撮像光学系のフォーカス位置もしくは絞り値が異なる状態で撮像された複数の画像データを取得する
    ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 請求項1乃至11のいずれか1項に記載の画像処理装置と、
    複数のマイクロレンズと、各マイクロレンズに対応する複数の光電変換部を備える撮像素子を備え、
    前記第1の取得手段は、前記撮像素子により複数の画像データを取得する
    ことを特徴とする撮像装置。
  13. 被写体の画像データを処理する画像処理装置にて実行される画像処理方法であって、
    前記画像データを取得する第1の取得工程と、
    前記被写体の距離分布に関連する情報をマップデータとして取得する第2の取得工程と、
    前記画像データの低周波数成分を抑圧したテクスチャ画像のデータを生成する第1の生成工程と、
    前記マップデータおよび前記テクスチャ画像のデータから前記被写体の距離分布および輝度を表すデータを生成する第2の生成工程と、を有する
    ことを特徴とする画像処理方法。
  14. 請求項13に記載した画像処理方法の各工程を画像処理装置のコンピュータに実行させる
    ことを特徴とするプログラム。


JP2018054173A 2018-03-22 2018-03-22 画像処理装置、撮像装置、画像処理方法、プログラム Active JP7080688B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018054173A JP7080688B2 (ja) 2018-03-22 2018-03-22 画像処理装置、撮像装置、画像処理方法、プログラム
PCT/JP2019/009312 WO2019181560A1 (ja) 2018-03-22 2019-03-08 画像処理装置、撮像装置、画像処理方法、プログラム
US17/017,026 US11663710B2 (en) 2018-03-22 2020-09-10 Image processing device, imaging device, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018054173A JP7080688B2 (ja) 2018-03-22 2018-03-22 画像処理装置、撮像装置、画像処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2019169769A JP2019169769A (ja) 2019-10-03
JP7080688B2 true JP7080688B2 (ja) 2022-06-06

Family

ID=67986181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018054173A Active JP7080688B2 (ja) 2018-03-22 2018-03-22 画像処理装置、撮像装置、画像処理方法、プログラム

Country Status (3)

Country Link
US (1) US11663710B2 (ja)
JP (1) JP7080688B2 (ja)
WO (1) WO2019181560A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246200A (ja) 2005-03-04 2006-09-14 Fuji Photo Film Co Ltd 画像処理装置および画像処理方法
JP2010218548A (ja) 2009-03-17 2010-09-30 Mitsubishi Electric Research Laboratories Inc 仮想画像を合成する方法
JP2014207591A (ja) 2013-04-15 2014-10-30 株式会社Jvcケンウッド 画像変換装置および画像変換方法
JP2015041901A (ja) 2013-08-22 2015-03-02 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
JP2016046706A (ja) 2014-08-25 2016-04-04 株式会社リコー 画像処理装置、画像処理方法、記憶媒体及びプログラム
JP2016143919A (ja) 2015-01-29 2016-08-08 キヤノン株式会社 画像処理装置およびその制御方法
JP2017032360A (ja) 2015-07-30 2017-02-09 株式会社キーエンス 画像検査装置、画像検査方法および画像検査プログラム
US20180205926A1 (en) 2017-01-17 2018-07-19 Seiko Epson Corporation Cleaning of Depth Data by Elimination of Artifacts Caused by Shadows and Parallax

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008135812A (ja) 2006-11-27 2008-06-12 Sony Corp 撮像装置、撮像方法、およびプログラム
KR101055581B1 (ko) * 2008-03-20 2011-08-23 삼성메디슨 주식회사 초음파 시스템 및 클러터 신호 제거용 필터 설정 방법
US9762790B2 (en) * 2016-02-09 2017-09-12 Panasonic Intellectual Property Management Co., Ltd. Image pickup apparatus using edge detection and distance for focus assist
JP6621027B2 (ja) * 2016-09-16 2019-12-18 パナソニックIpマネジメント株式会社 撮像装置
US11682131B2 (en) * 2017-10-27 2023-06-20 Canon Kabushiki Kaisha Image capturing apparatus and method of controlling image capturing apparatus
US10972714B2 (en) * 2018-02-15 2021-04-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method and storage medium for storing program
JP7137313B2 (ja) * 2018-02-15 2022-09-14 キヤノン株式会社 出力装置、画像処理方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246200A (ja) 2005-03-04 2006-09-14 Fuji Photo Film Co Ltd 画像処理装置および画像処理方法
JP2010218548A (ja) 2009-03-17 2010-09-30 Mitsubishi Electric Research Laboratories Inc 仮想画像を合成する方法
JP2014207591A (ja) 2013-04-15 2014-10-30 株式会社Jvcケンウッド 画像変換装置および画像変換方法
JP2015041901A (ja) 2013-08-22 2015-03-02 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
JP2016046706A (ja) 2014-08-25 2016-04-04 株式会社リコー 画像処理装置、画像処理方法、記憶媒体及びプログラム
JP2016143919A (ja) 2015-01-29 2016-08-08 キヤノン株式会社 画像処理装置およびその制御方法
JP2017032360A (ja) 2015-07-30 2017-02-09 株式会社キーエンス 画像検査装置、画像検査方法および画像検査プログラム
US20180205926A1 (en) 2017-01-17 2018-07-19 Seiko Epson Corporation Cleaning of Depth Data by Elimination of Artifacts Caused by Shadows and Parallax

Also Published As

Publication number Publication date
WO2019181560A1 (ja) 2019-09-26
US11663710B2 (en) 2023-05-30
JP2019169769A (ja) 2019-10-03
US20200410279A1 (en) 2020-12-31

Similar Documents

Publication Publication Date Title
JP5830348B2 (ja) 撮像装置
JP5451782B2 (ja) 画像処理装置および画像処理方法
JP5738606B2 (ja) 撮像装置
TWI471004B (zh) 成像裝置、成像方法及程式
WO2012132797A1 (ja) 撮像装置及び撮像方法
JP5690396B2 (ja) 撮像装置およびシェーディング補正方法
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
KR20200110320A (ko) 화상 처리 장치, 출력 정보 제어 방법, 및 프로그램
JP5882789B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN104956661A (zh) 图像拾取装置、图像处理装置、图像处理方法和非暂时性计算机可读存储介质
JP2017060010A (ja) 撮像装置、撮像装置の制御方法、およびプログラム
JP6748847B2 (ja) 撮像装置
JP7337562B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
US20230300474A1 (en) Image processing apparatus, image processing method, and storage medium
US11032463B2 (en) Image capture apparatus and control method thereof
JP7080688B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP6639276B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP6370004B2 (ja) 撮像装置および撮像方法
JP6005246B2 (ja) 撮像装置、ヒストグラムの表示方法、プログラム、画像処理装置
JP7198055B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP2018005008A (ja) カメラボディおよび交換レンズ
US11375123B2 (en) Image processing apparatus, image capturing apparatus, control method for image processing apparatus, and program storage medium with coordinated display of image and display of distribution information of evaluation value
US20220385827A1 (en) Image processing device, image processing method, imaging device, and storage medium
JP2014049895A (ja) 画像処理方法
JP7502902B2 (ja) 画像処理装置、撮像装置、制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220525

R151 Written notification of patent or utility model registration

Ref document number: 7080688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151