JP2019208170A - 画像処理装置、画像処理方法、プログラム、記憶媒体 - Google Patents

画像処理装置、画像処理方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2019208170A
JP2019208170A JP2018103670A JP2018103670A JP2019208170A JP 2019208170 A JP2019208170 A JP 2019208170A JP 2018103670 A JP2018103670 A JP 2018103670A JP 2018103670 A JP2018103670 A JP 2018103670A JP 2019208170 A JP2019208170 A JP 2019208170A
Authority
JP
Japan
Prior art keywords
range
image
image processing
processing apparatus
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018103670A
Other languages
English (en)
Other versions
JP7158180B2 (ja
Inventor
賢治 小貫
Kenji Konuki
賢治 小貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018103670A priority Critical patent/JP7158180B2/ja
Priority to EP19169725.9A priority patent/EP3576402A1/en
Priority to US16/421,629 priority patent/US11012650B2/en
Priority to CN201910464500.3A priority patent/CN110557559B/zh
Publication of JP2019208170A publication Critical patent/JP2019208170A/ja
Application granted granted Critical
Publication of JP7158180B2 publication Critical patent/JP7158180B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】撮影時にユーザがピント位置や被写界深度を調整する負荷を軽減することができる画像処理装置を提供する。【解決手段】入力画像について、ピント位置から被写界深度内の範囲である第1の範囲を算出する第1の算出部と、入力画像について、入力画像が撮影された時の絞り値に対して、仮想的に所定量変更した絞り値に設定した場合のピント位置から被写界深度内の範囲である第2の範囲を算出する第2の算出部と、入力画像が撮影された時の撮影モードに応じて、第1の範囲または第2の範囲を、第1の範囲以外の領域または第2の範囲以外の領域と区別できるように表示部に表示する表示制御部と、を備える。【選択図】図4

Description

本発明は、撮像される画像を加工してモニタに表示する処理を行う画像処理装置に関するものである。
従来より、デジタルカメラにおいては、被写体の確認を目的として、液晶表示装置(LCD)などを用いた電子ビューファインダー(EVF)が用いられている。さらには、被写体の合焦状態、被写界の深度などを確認しながら撮影ができるように、EVF上に現在のピント位置を重畳した画像を表示する技術が知られている。
例えば特許文献1には、合焦位置を指定するための情報をEVF上に重畳表示し、合焦位置と被写体位置との関係に応じて合焦位置を指定するための情報の表示状態を変化させる技術が開示されている。特許文献1によれば、焦点を合わせる位置を指定する際に、奥行き方向を含めて指定することを直感的且つ容易に行うことができるとされている。
特開2016−4163号公報
しかしながら、特許文献1に開示されている構成では、撮影モードや撮影シーンが変化した場合に、必ずしもユーザの撮影意図に適した情報が表示されるとは限らない場合がある。また、ユーザがピント位置や被写界深度の範囲を画面上で指定する必要があり、ファインダーを覗き込みながら調整して撮影することは困難である。
本発明は上述した課題に鑑みてなされたものであり、その目的は、撮影時にユーザがピント位置や被写界深度を調整する負荷を軽減することができる画像処理装置を提供することである。
本発明に係わる画像処理装置は、入力画像について、ピント位置から被写界深度内の範囲である第1の範囲を算出する第1の算出手段と、前記入力画像について、前記入力画像が撮影された時の絞り値に対して、仮想的に所定量変更した絞り値に設定した場合の前記ピント位置から被写界深度内の範囲である第2の範囲を算出する第2の算出手段と、前記入力画像が撮影された時の撮影モードに応じて、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように表示手段に表示する表示制御手段と、を備えることを特徴とする。
また、本発明に係わる画像処理装置は、入力画像について、ピント位置から被写界深度内の範囲である第1の範囲を算出する第1の算出手段と、前記入力画像について、前記入力画像が撮影された時の絞り値に対して、仮想的に所定量変更した絞り値に設定した場合の前記ピント位置から被写界深度内の範囲である第2の範囲を算出する第2の算出手段と、前記入力画像が撮影された時のフォーカス調整情報に応じて、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように表示手段に表示する表示制御手段と、を備えることを特徴とする。
本発明によれば、撮影時にユーザがピント位置や被写界深度を調整する負荷を軽減することができる画像処理装置を提供することが可能となる。
本発明の画像処理装置の第1の実施形態である撮像装置の構成を示すブロック図。 第1の実施形態における撮像素子の構成を示す図。 第1の実施形態における画像処理部の構成を示すブロック図。 第1の実施形態における画像処理装置の動作を示すフローチャート。 第1の実施形態における入力画像の例を示す図。 第1の実施形態におけるエッジ画像およびデフォーカスマップを示す図。 第1の実施形態におけるデフォーカス量のヒストグラムおよび被写界深度範囲を示す図。 第1の実施形態における表示用画像を示す図。 第1の実施形態における絞りを変化させる段数の算出方法を示す図。 第1の実施形態における第2の被写界深度範囲を示す図。 第1の実施形態における表示用画像を示す図。 第1の実施形態における入力画像の他の例を示す図。 第1の実施形態におけるエッジ画像およびデフォーカスマップを示す図。 第1の実施形態におけるデフォーカス量のヒストグラムおよび被写界深度範囲を示す図。 第1の実施形態における表示用画像の他の例を示す図。 第2の実施形態における画像処理装置の動作を示すフローチャート。
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。
(第1の実施形態)
本実施形態では、デジタルカメラなどの撮像装置を用いてユーザがEVFを見ながら合焦範囲を調整しながら、ユーザの近くにいる複数の人物を撮影する場合を例に挙げて説明する。なお本実施形態では、レンズ部のフォーカス調整用リングを動かすことで調整を行うMF(マニュアルフォーカス)での撮影を想定して説明する。ただし、本実施形態で説明する技術は、電子ビューファインダー(EVF)の画面上の任意の部分をタッチしてピント位置を指定したり、AF(オートフォーカス)機能を用いて撮影したりするなど、他の使用形態においても適用可能である。また、以下では、画像処理装置の一例として撮像装置について説明するが、本発明の画像処理装置は撮像装置に限定されず、例えばパーソナルコンピュータ(PC)などであってもよい。
図1は、本発明の画像処理装置の第1の実施形態である撮像装置100の構成を示すブロック図である。図1において、撮像光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群、絞り調整装置、および、シャッター装置を備えている。この撮像光学系101は、撮像部102に到達する被写体像の倍率やピント位置、あるいは、光量を調整する。撮像部102は、撮像光学系101を通過した被写体の光束を光電変換し電気信号に変換するCCDやCMOSセンサー等の撮像素子を有する。
A/D変換部103は、入力されたアナログの画像信号をデジタルの画像信号に変換する。画像処理部104は、通常の信号処理の他に、本実施形態における表示用画像の加工処理を行う。画像処理部104はA/D変換部103から出力された画像のみでなく、記録部110から読み出した画像に対しても同様の画像処理を行うことができる。
制御部105は、適正な明るさを持つ入力画像を得るための撮影時の露光量を算出し、それを実現するために撮像光学系101と撮像部102を制御して、絞り、シャッタースピード、撮像素子のアナログゲインを制御する。
表示部106は、画像処理部104から出力される画像を液晶表示装置(LCD)などの表示用部材に逐次表示することにより、電子ビューファインダ(EVF)として機能する。記録部107は、画像を記録する機能を有し、たとえば、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体を含んでもよい。
図2は、撮像部102内の撮像素子102Aを示す図である。図2(a)は、撮像素子102Aの画素配列を示している。図2(b)は、撮像素子102Aの単位画素302を拡大して示しており、各単位画素302がマイクロレンズ301と一対の光電変換素子303A,304Bを備えることが示されている。図2(a)に示されるように、撮像素子102Aには単位画素302が二次元的に規則的に配列されている。
図3は、画像処理部104の内部構造を示すブロック図である。図3において、信号処理部201は、ノイズ低減処理や現像処理など通常の信号処理を行う他、ガンマ変換などによる階調圧縮処理によって所定の出力レンジに階調圧縮する処理などを行う。撮影情報取得部202は、撮影時にユーザが設定した撮影モードや、焦点距離、絞り値、露光時間など撮像における各種情報を取得する。
エッジ生成部203は、信号処理部201が出力した画像からエッジ信号を生成する処理を行う。デフォーカス演算部204は、撮像光学系101の射出瞳の異なる領域を通過した光束により形成される複数の被写体像の位相差に基づいて、撮像された画像におけるデフォーカスの分布を示すデフォーカスマップを生成する。ヒストグラム算出部205は、デフォーカス演算部204が生成したデフォーカスマップに対するヒストグラムを生成する。表示用加工処理部206は、エッジ生成部203およびデフォーカス演算部204の出力を用いて、信号処理部201が処理した画像を表示部106に表示するための加工処理を行う。
以下、ユーザがEVFを見ながら合焦範囲を調整し静止画を撮影する際の、表示用加工処理の内容について図4のフローチャートを用いて説明する。図5の画像501は、本処理における入力画像の一例を示しており、3人の人物502,503,504が撮像装置100から見て手前側から奥側に並んでいるシーンを示している。
ステップS401では、エッジ生成部203は入力画像501に対してBpf(バンドパスフィルタ)を適用することにより、エッジ画像を生成する。具体的には、水平方向および垂直方向それぞれに[-1 0 2 0 -1]のフィルタを適用した信号を加算する。なお、エッジ画像の生成方法としてはこれに限らず、Lpf(ローパスフィルタ)を適用した画像と元の画像との差分をとることでエッジ成分を抽出するなど、他の方法であってもよい。図6(a)の画像601は得られるエッジ画像を示している。
ステップS402では、デフォーカス演算部204は入力画像501に対するデフォーカスマップを生成する。具体的な生成方法については、例えば特開2016−9062号公報で説明されているような公知の手法を用い、画素毎にデフォーカス量を算出しデフォーカスマップを作成する。図6(b)の画像602は得られるデフォーカスマップを示している。画像602において、奥行き方向の真ん中にいる人物503の領域が合焦を示す値をとっており、手前側の人物502は前ボケの非合焦を、奥側の人物504は後ボケの非合焦を示している。
ステップS403では、S402で生成したデフォーカスマップ画像602に基づいて、ヒストグラム算出部205はデフォーカス量のヒストグラムを生成する。図7は得られるヒストグラムを示しており、図中点線701で示したデフォーカスの値が0で、ピントが最も合っていることを意味している。
ステップS404では、S403で生成したデフォーカス量のヒストグラムを用いて第1のデフォーカス範囲を算出する。ここで、第1のデフォーカス範囲とは現在撮像している画像において被写界深度に含まれると判断されるデフォーカス量の値域を意味するものである。算出方法としては、Fを入力画像501に対して撮影情報取得部202が取得した絞り値、δを許容錯乱円径の値すなわち撮像部102の画素数および大きさに依存する値とし、範囲の上限値および下限値をそれぞれ+Fδ、−Fδとする。したがって、図7のヒストグラムにおいて示したようにデフォーカスの値が−Fδ〜+Fδの範囲(グレー部分)に含まれる領域は深度内に含まれると判定することができる。
ステップS405では、シーン情報としてS404で算出した第1のデフォーカス範囲に含まれる画素の割合を用いて後段の加工処理の仕方を制御する。具体的には、デフォーカスマップ画像602の全画素数に対して第1のデフォーカス範囲に含まれる画素の割合が80%以上(所定の割合以上)であればS406以降の加工処理へ、そうでなければS407以降の加工処理へ処理を進める。例えば、デフォーカスマップ画像602において深度内に含まれているのが人物503一人のみで、上記の割合が80%に満たない場合などにS407へ進む。
ステップS407では、表示用加工処理部206は入力画像501に対して表示用の加工処理を適用する。具体的には、S401で生成したエッジ信号が所定の値以上であり、かつS402で生成したデフォーカス量が第1のデフォーカス範囲に含まれる領域に対して、入力画像501に緑色の信号を重畳する(区別して表示する)処理を行う。図8の画像801はその結果得られる画像を示しており、奥行き方向に真ん中にいる人物503のエッジ領域のみ緑色が重畳され目立たせている(太線)ことがわかる(表示制御)。逆にそれ以外の2人の人物502,504には緑色が重畳されておらず、深度外(第1のデフォーカス範囲以外)に存在するということが確認できる。
ステップS408では、撮影情報取得部202は撮影中に設定されている撮影モードに関する情報を取得する。ここで撮影モードが例えば絞り優先モードやマニュアルモードなど、ユーザが手動で任意に絞り値を変更可能なモードである場合にはステップS409へ、そうでないシャッター速度優先モードやオートモードなどである場合(絞り値を変更可能な撮影モード以外のモード)にはステップS412へ処理を進める。
ステップS409では、デフォーカス演算部204は2つの仮想絞り値を算出する。ここで仮想絞り値とは、現在設定されているものとは異なる絞り値(所定量変更した絞り値)のことであり、以下の式で算出される。
FV+=FR×(√2)N+ …(式1)
FV−=FR×(√2)N- …(式2)
ここで、FV+およびFV−は、仮想絞り値、FRは現在の絞り値、N+およびN−は被写界深度を広げるあるいは狭めるために絞り値を変える段数を表しており、共にFRに応じて決定される定数である。より具体的には、本実施形態においては、現在の絞り値に対して絞りを仮想的に広げるあるいは狭める段数を制御部105が決定し、その段数だけ絞りを広げるあるいは狭めることにより、被写界深度がどのように変わるかを計算し、表示部106に表示する。ユーザは、この絞り値の変化の段数と被写界深度の変化の様子を見て、自分が希望する被写界深度を得るために絞りを操作する量を決める参考とすることができる。
絞りを仮想的に広げるあるいは狭める段数N+およびN−は次のように決定される。図9は現在の絞り値FRと絞り値を仮想的に変化させる段数N+およびN−の関係を示しており、FRの値が大きい程N+の値が小さくなり、N−の値が大きくなっていることがわかる。これは、現在の絞り値FRが小さい(絞りが開いている)ほど絞り値を変えたときの深度の変化量が小さいため、仮想的に絞り値を変更する度合いを大きくすることで深度の変化量を大きくすることが目的である。このように、仮想的に絞り値を変化させる量N+,N−を、現在の絞り値に応じて変化させることにより、ユーザは絞り値を変化させたときの被写界深度の変化の様子を容易に把握することが出来る。
なお、仮想絞り値FV+およびFV−の算出方法は上記の方法に限らず、N+をFRに対して右上がりにするなど異なる算出方法にしてもよい。また、ユーザが自由に設定することで、FV−を最小の絞り値に固定して開放時の深度を表示しながら、FV+を+1段変えた絞り値として深度を表示するといったような方法も可能である。
ステップS410では、デフォーカス演算部204はS409で算出した仮想絞り値FV+およびFV−に対する第2のデフォーカス範囲を算出する。算出方法としてはS404と同様に、絞り値を大きい値に変更したときの被写界深度の上限値および下限値をそれぞれ+FV+δ、−FV+δとし、絞り値を小さい値に変更したときの被写界深度の上限値および下限値をそれぞれ+FV−δ、−FV−δとする。結果的に得られる第2のデフォーカス範囲の一例を図10に示す。図中、2つの第2のデフォーカス範囲はS404で算出した第1のデフォーカス範囲に対して、狭い範囲と広い範囲になっており、これはそれぞれ絞り値を仮想的に変更したことで深度が狭くあるいは広くなっていることを示している。
ステップS411では、表示用加工処理部206はS407において加工処理を適用した画像に対して、さらに加工処理を行う。具体的には、S402で生成したデフォーカス量が第2のデフォーカス範囲に含まれる領域に対して所定の色信号を重畳する処理を行う。ここで、S410において第2のデフォーカス範囲として絞り値を大きくした場合と小さくした場合との2つの範囲を算出した。しかし、どちらか片方の範囲に含まれる深度内領域に対して色信号を重畳してもよいし、あるいはそれぞれの範囲に異なる色信号を重畳してもよい。例えば、絞り値を大きくしたときの深度内領域には青色、絞り値を小さくしたときの深度内領域には赤色を重畳することで、絞り値を変えたときにどこまで深度が変化するかを示すことができる。
図11の画像1101はその結果得られる画像を示している。図8の画像801において奥行き方向の真ん中にいる人物503のエッジ領域のみ色信号が重畳されているのに対して、手前側および奥側にいる人物502,504のエッジ領域にも色信号が重畳(中太線)されていることがわかる。したがって、ユーザは3人の人物を全て深度内に収めるためにはどの程度絞り値を調整すればよいかを判断することが可能となる。
ステップS412では、表示用加工処理部206が生成した加工済み画像1101を表示部106に表示する。
一方、ステップS405において、デフォーカスマップ画像の全画素数に対して第1のデフォーカス範囲に含まれる画素の割合が80%以上であった場合は、S406に進む。この条件を満足する撮影状況としては、例えば屋外の遠景シーンを撮影する場合などが考えられる。
図12の画像1201は入力画像の一例を示しており、植物や河川、建造物などが遠方に存在するシーンである。図13(a)の画像1301は、画像1201を入力画像としたときのステップS401で得られるエッジ画像を示している。また、図13(b)の画像1302は、画像1201を入力画像としたときのステップS402で得られるデフォーカスマップを示している。さらに、図14は、画像1201を入力画像としたときのステップS403で得られるヒストグラムを示している。
入力画像が画像1201である場合には、S404でデフォーカス演算部204により算出される第1のデフォーカス範囲は、図14のヒストグラムにおけるグレー部分1401となる。これを見ると、入力画像が画像501である場合の図7のヒストグラムよりも第1のデフォーカス範囲が広くなっていることがわかる。これは、入力画像1201に示す遠景シーンにおいて、フォーカス位置が遠方に定められてパンフォーカス状態となり、深度が深くなっているためである。その結果として、ステップS405の判定において、デフォーカスマップ画像1302の全画素数に対して第1のデフォーカス範囲に含まれる画素の割合が80%以上となり、S406に進むこととなる。
ステップS406では、表示用加工処理部206は入力画像1201に対して表示用の加工処理を適用し、ステップS412では、表示用加工処理部206が生成した加工済み画像を表示部106に表示する。具体的には、まずS401で生成したエッジ信号が所定の値以上であり、かつS402で生成したデフォーカス量が第1のデフォーカス範囲に含まれない領域に対して、入力画像501に黄色の信号を重畳する処理を行う。さらに、表示部106に表示する際、加工した部分を点滅させるようにする。これは、ステップS407のように第1のデフォーカス範囲に含まれる領域に対して色信号を重畳する処理を行うと、画像1201の大部分に対して色信号が重畳されることになり、被写界深度外の領域の視認性が低下してしまうのを避けることが目的である。図15の画像1501は実際に表示される画像を示しており、最も手前側(撮像装置に近い側)に位置する植物のみが目立っている(太線)ことがわかる。これにより、ユーザは色信号が点滅していない領域は被写界深度内に入っており、点滅している一部の領域が被写界深度外になっていることを確認することができる。
以上のようにして、入力画像を取得してから、画像処理部104でデフォーカス演算および加工処理を行い、表示部106に表示するまでの本実施形態における処理が実行される。本実施形態のこのような構成により、ユーザの撮影の仕方やユーザが撮影しているシーンに適した方法で被写界深度情報を表示することで、撮影時にユーザがピント位置や深度を調整する負荷を軽減することができる。
なお本実施形態では、1つの絞り値に対する深度内の範囲を1色で表現するように加工する場合について説明したが、これに限らず合焦を示す値(デフォーカス量が0)を閾値として異なる色で加工してもよい。例えば、S410の第2のデフォーカス範囲においてデフォーカス量が0より大きい領域(手前側)は水色、0より小さい領域(奥側)は紺色などにすることで、被写体の前後関係を把握し、ピント位置をどちら側に調整すればよいかの判断をしやすくできる。特に、2つの被写体がデフォーカス量としては近い値を持っていながら、画像内では面内方向に離れていて前後関係が目視のみでは判断しにくい場合においては、より利便性が向上する。また、加工方法としては単純に色信号を重畳するのではなく、輝度や彩度をデフォーカス量に応じて変化させるなど、他の方法を用いてもよい。
また、本実施形態では、被写体距離情報を取得する方法として、図2に示したような、撮像光学系の射出瞳の異なる領域を通過した光束が形成する複数の被写体像の位相差に基づいて取得する例について説明したが、他の構成や手段を代用あるいは併用してもよい。例えば複数のレンズおよび撮像素子を有する複眼カメラを用いることで、より精度のよい像ずれ量を検出できるようにしてもよい。また、TOF(Time Of Flight)カメラや超音波により距離が計測可能な構成とすることで、模様の変化が乏しい被写体に対する測距性能を向上させることが可能となる。
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。この第2の実施形態における画像処理装置の構成は、第1の実施形態の構成と同様であるので、その説明は省略する。本実施形態の画像処理装置は、その動作が第1の実施形態と異なる。以下では、第1の実施形態と異なる動作について、図16のフローチャートを参照しながら、図5乃至図11も用いて説明する。
図16は、第2の実施形態の画像処理装置の動作を示すフローチャートである。まず、ステップS1601では、エッジ生成部203は図5の入力画像501に対してBpf(バンドパスフィルタ)を適用することにより、エッジ画像を生成する。具体的には、水平方向および垂直方向それぞれに[-1 0 2 0 -1]のフィルタを適用した信号を加算する。なお、エッジ画像の生成方法としてはこれに限らず、Lpf(ローパスフィルタ)を適用した画像と元の画像との差分をとることでエッジ成分を抽出するなど、他の方法であってもよい。図6(a)の画像601は得られるエッジ画像を示している。
ステップS1602では、デフォーカス演算部204は入力画像501に対するデフォーカスマップを生成する。具体的な生成方法は、第1の実施形態と同様である。図6(b)の画像602は得られるデフォーカスマップを示している。画像602において、奥行き方向の真ん中にいる人物503の領域が合焦を示す値をとっており、手前側の人物502は前ボケの非合焦を、奥側の人物504は後ボケの非合焦を示している。
ステップS1603では、S1602で生成したデフォーカスマップ画像602に基づいて、ヒストグラム算出部205がデフォーカス量のヒストグラムを生成する。図7は得られるヒストグラムを示しており、図中点線701で示したデフォーカスの値が0で、ピントが最も合っていることを意味している。また、デフォーカス量が+の値は前ボケの非合焦を、−の値は後ボケの非合焦をそれぞれ意味している。
ステップS1604では、S1603で生成したデフォーカス量のヒストグラムを用いて第1のデフォーカス範囲を算出する。ここで、第1のデフォーカス範囲とは現在撮像している画像において被写界深度に含まれると判断されるデフォーカス量の値域を意味するものである。算出方法としては、Fを入力画像501に対して撮影情報取得部202が取得した絞り値、δを許容錯乱円径の値すなわち撮像部102の画素数および大きさに依存する値とし、範囲の上限値および下限値をそれぞれ+Fδ、−Fδとする。したがって、図7のヒストグラムにおいて示したようにデフォーカス量が−Fδ〜+Fδの範囲(グレー部分)に含まれる領域は深度内に含まれると判定することができる。
ステップS1605では、表示用加工処理部206は入力画像501に対して表示用の加工処理を適用する。具体的には、S1601で生成したエッジ信号が所定の値以上であり、かつS1602で生成したデフォーカス量が第1のデフォーカス範囲に含まれる領域に対して、入力画像501に緑色の信号を重畳する処理を行う。図8の画像801はその結果得られる画像を示しており、奥行き方向に真ん中にいる人物503のエッジ領域のみ緑色が重畳され目立たせている(太線)ことがわかる。逆にそれ以外の2人の人物502,504には緑色が重畳されておらず、深度外にいるということが確認できる。
ステップS1606では、制御部105は、ユーザにより撮像光学系101のフォーカス位置が変更されて所定時間が経過したか否か(フォーカス調整情報)を判定する。具体的な処理は、まず所定の時間間隔においてフォーカス調整がなされたか否かを検出するものであり、ユーザがフォーカス調整用リングを動かした場合に、変更されたという判定がなされる。続いて、フォーカス位置が変更されてから所定の時間、例えば3秒が経過したか否かを判定する。ここでフォーカス位置の変更に対して所定時間の経過時間を持たせるのは、ユーザがフォーカス位置を調整する際、マニュアルフォーカス(以下、MF)においては調整用リングをわずかに動かしたり止めたりすることから、判定の結果が敏感に切り替わるのを避けるためである。なお、フォーカス調整の方法としてはこれに限らず、ユーザがシャッターボタンや表示部106の画面などフォーカス調整用リング以外の操作部材を操作することで、AFを動作させている場合においても同様に適用可能である。また、フォーカス調整を検出する方法については、例えば入力画像501における現在の深度内領域のエッジ信号の変化によって判定するなど、他の方法であってもよい。フォーカス位置の変更から所定時間が経過したと判定された場合にはS1607へ、そうでない場合にはS1610へ処理を進める。
ステップS1607では、デフォーカス演算部204は2つの仮想絞り値を算出する。ここで仮想絞り値とは、現在設定されているものとは異なる絞り値のことであり、以下の式で算出される。
FV+=FR×(√2)N+ …(式1)
FV−=FR×(√2)N- …(式2)
ここで、FV+およびFV−は、仮想絞り値、FRは現在の絞り値、N+およびN−は被写界深度を広げるあるいは狭めるために絞り値を変える段数を表しており、共にFRに応じて決定される定数である。より具体的には、本実施形態においては、現在の絞り値に対して絞りを仮想的に広げるあるいは狭める段数を制御部105が決定し、その段数だけ絞りを広げるあるいは狭めることにより、被写界深度がどのように変わるかを計算し、表示部106に表示する。ユーザは、この被写界深度の変化の様子を見て、自分が希望する被写界深度を得るために絞りを操作する量を決める参考とすることができる。
絞りを仮想的に広げるあるいは狭める段数N+およびN−は次のように決定される。図9は現在の絞り値FRと絞り値を仮想的に変化させる段数N+およびN−の関係を示しており、FRの値が大きい程N+の値が小さくなり、N−の値が大きくなっていることがわかる。これは、現在の絞り値FRが小さい(絞りが開いている)ほど絞り値を変えたときの深度の変化量が小さいため、仮想的に絞り値を変更する度合いを大きくすることで深度の変化量を大きくすることが目的である。このように、仮想的に絞り値を変化させる量を、現在の絞り値に応じて変化させることにより、ユーザは絞り値を変化させたときの被写界深度の変化の様子を容易に把握することが出来る。
なお、仮想絞り値FV+およびFV−の算出方法は上記の方法に限らず、N+をFRに対して右上がりにするなど異なる算出方法にしてもよい。また、ユーザが自由に設定することで、FV−を最小の絞り値に固定して開放時の深度を表示しながら、FV+を+1段変えた絞り値として深度を表示するといったような方法も可能である。
ステップS1608では、デフォーカス演算部204はS1607で算出した仮想絞り値FV+およびFV−に対する第2のデフォーカス範囲を算出する。算出方法としてはS1604と同様に、絞り値を大きい値に変更したときの被写界深度の上限値および下限値をそれぞれ+FV+δ、−FV+δとし、絞り値を小さい値に変更したときの被写界深度の上限値および下限値をそれぞれ+FV−δ、−FV−δとする。結果的に得られる第2のデフォーカス範囲の一例を図10に示す。図中、2つの第2のデフォーカス範囲はS1604で算出した第1のデフォーカス範囲に対して、狭い範囲と広い範囲になっており、これはそれぞれ絞り値を仮想的に変更したことで深度が狭くあるいは広くなっていることを示している。
ステップS1609では、表示用加工処理部206はS1605において加工処理を適用した画像に対して、さらに加工処理を行う。具体的には、S1602で生成したデフォーカス量が第2のデフォーカス範囲に含まれる領域に対して所定の色信号を重畳する処理を行う。ここで、S1608において第2のデフォーカス範囲として絞り値を大きくした場合と小さくした場合との2つの範囲を算出した。しかし、どちらか片方の範囲に含まれる深度内領域に対して色信号を重畳してもよいし、あるいはそれぞれの範囲に異なる色信号を重畳してもよい。例えば、絞り値を大きくしたときの深度内領域には青色、絞り値を小さくしたときの深度内領域には赤色を重畳することで、絞り値を変えたときにどこまで深度が変化するかを示すことができる。
図11の画像1101はその結果得られる画像を示している。図8の画像801において奥行き方向の真ん中にいる人物503のエッジ領域のみ重畳されているのに対して、手前側および奥側にいる人物502,504のエッジ領域にも色信号が重畳(中太線)されていることがわかる。したがって、ユーザは3人の人物を全て深度内に収めるためにはどの程度絞り値を調整すればよいかを判断することが可能となる。
ステップS1610では、表示用加工処理部206が生成した加工済み画像1101を表示部106に表示する。ユーザがフォーカス位置を調整しているときは現在の深度範囲のみに色信号を重畳し、深度の範囲やボケ具合を調整しているときは複数の絞り値に対応する深度範囲に色信号を重畳することにより、ユーザが操作する目的に適した情報を表示することができる。
以上のようにして、入力画像を取得してから、画像処理部104でデフォーカス演算および加工処理を行い、表示部106に表示するまでの本実施形態における処理が実行される。本実施形態のこのような構成により、撮影時にユーザの操作状況に適した被写界深度情報を表示することで、撮影時にユーザがピント位置や深度を調整する負荷を軽減することができる。
なお本実施形態では、1つの絞り値に対する深度内の範囲を1色で表現するように加工する場合について説明したが、これに限らず合焦を示す値(デフォーカス量が0)を閾値として異なる色で加工してもよい。例えば、S1608の第2のデフォーカス範囲においてデフォーカス量が0より大きい領域(手前側)は水色、0より小さい領域(奥側)は紺色などにすることで、被写体の前後関係を把握し、ピント位置をどちら側に調整すればよいかの判断をしやすくできる。特に、2つの被写体がデフォーカス量としては近い値を持っていながら、画像内では面内方向に離れていて前後関係が目視のみでは判断しにくい場合においては、より利便性が向上する。また、加工方法としては単純に色信号を重畳するのではなく、輝度や彩度をデフォーカス量に応じて変化させるなど、他の方法を用いてもよい。
また、本実施形態では、距離情報を取得する方法として、図2に示したような、撮像光学系の射出瞳の異なる領域を通過した光束が形成する複数の被写体像の位相差に基づいて取得する例について説明したが、他の構成や手段を代用あるいは併用してもよい。例えば複数のレンズおよび撮像素子を有する複眼カメラを用いることで、より精度のよい像ずれ量を検出できるようにしてもよい。また、TOF(Time Of Flight)カメラや超音波により距離が計測可能な構成とすることで、模様の変化が乏しい被写体に対する測距性能を向上させたりすることが可能となる。
ここまで、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、実施形態で説明した各画像処理の一部あるいは全てを、画像の撮影に用いた装置(カメラなど)の外部の装置(コンピュータなど)に実行させるようにしてもよい。
(その他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
101:撮像光学系、102:撮像部、103:A/D変換部、104:画像処理部、105:制御部、106:表示部、107:記録部

Claims (19)

  1. 入力画像について、ピント位置から被写界深度内の範囲である第1の範囲を算出する第1の算出手段と、
    前記入力画像について、前記入力画像が撮影された時の絞り値に対して、仮想的に所定量変更した絞り値に設定した場合の前記ピント位置から被写界深度内の範囲である第2の範囲を算出する第2の算出手段と、
    前記入力画像が撮影された時の撮影モードに応じて、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように表示手段に表示する表示制御手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記表示制御手段は、前記撮影モードが、絞り値を手動で変更可能な撮影モードである場合に、前記第2の範囲を前記第2の範囲以外の領域と区別できるように前記表示手段に表示することを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示制御手段は、前記撮影モードが、絞り値を手動で変更可能な撮影モード以外の撮影モードである場合に、前記第1の範囲を前記第1の範囲以外の領域と区別できるように前記表示手段に表示することを特徴とする請求項1に記載の画像処理装置。
  4. 入力画像について、ピント位置から被写界深度内の範囲である第1の範囲を算出する第1の算出手段と、
    前記入力画像について、前記入力画像が撮影された時の絞り値に対して、仮想的に所定量変更した絞り値に設定した場合の前記ピント位置から被写界深度内の範囲である第2の範囲を算出する第2の算出手段と、
    前記入力画像が撮影された時のフォーカス調整情報に応じて、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように表示手段に表示する表示制御手段と、
    を備えることを特徴とする画像処理装置。
  5. 前記表示制御手段は、フォーカスの位置を変更してから所定時間が経過していない場合に、前記第1の範囲を前記第1の範囲以外の領域と区別できるように前記表示手段に表示することを特徴とする請求項4に記載の画像処理装置。
  6. 前記表示制御手段は、フォーカスの位置を変更してから所定時間が経過した後に、前記第2の範囲を前記第2の範囲以外の領域と区別できるように前記表示手段に表示することを特徴とする請求項4に記載の画像処理装置。
  7. 前記第2の算出手段は、前記入力画像が撮影された時の絞り値に応じて、前記絞り値を仮想的に変更する前記所定量を設定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記第2の算出手段は、前記入力画像が撮影された時の絞り値が小さいほど、前記絞り値を仮想的に変更する前記所定量を大きく設定することを特徴とする請求項7に記載の画像処理装置。
  9. 前記表示制御手段は、前記第1の範囲または前記第2の範囲に色を重畳して表示することにより、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように前記表示手段に表示することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記表示制御手段は、前記第1の範囲または前記第2の範囲が前記入力画像の全画素数に対して所定の割合に満たない場合に、前記第1の範囲または前記第2の範囲に色を重畳して前記表示手段に表示することを特徴とする請求項9に記載の画像処理装置。
  11. 前記表示制御手段は、前記第1の範囲以外の領域または前記第2の範囲以外の領域に色を重畳して表示することにより、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように前記表示手段に表示することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  12. 前記表示制御手段は、前記第1の範囲または前記第2の範囲が全画素数に対して所定の割合以上の場合に、前記第1の範囲以外の領域または前記第2の範囲以外の領域に色を重畳して前記表示手段に表示することを特徴とする請求項11に記載の画像処理装置。
  13. 前記第1及び第2の算出手段は、ピント位置から被写界深度内の範囲であるか否かを、1つの単位画素に複数の光電変換素子を有する撮像素子から得られた信号に基づいて算出することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記第1及び第2の算出手段は、被写界深度内の範囲であるか否かを、光または超音波を用いて被写体距離を検出することにより算出することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 前記表示制御手段は、前記入力画像のエッジ信号に基づいて、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように前記表示手段に表示することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
  16. 入力画像について、ピント位置から被写界深度内の範囲である第1の範囲を算出する第1の算出工程と、
    前記入力画像について、前記入力画像が撮影された時の絞り値に対して、仮想的に所定量変更した絞り値に設定した場合の前記ピント位置から被写界深度内の範囲である第2の範囲を算出する第2の算出工程と、
    前記入力画像が撮影された時の撮影モードに応じて、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように表示手段に表示する表示制御工程と、
    を有することを特徴とする画像処理方法。
  17. 入力画像について、ピント位置から被写界深度内の範囲である第1の範囲を算出する第1の算出工程と、
    前記入力画像について、前記入力画像が撮影された時の絞り値に対して、仮想的に所定量変更した絞り値に設定した場合の前記ピント位置から被写界深度内の範囲である第2の範囲を算出する第2の算出工程と、
    前記入力画像が撮影された時のフォーカス調整情報に応じて、前記第1の範囲または前記第2の範囲を、前記第1の範囲以外の領域または前記第2の範囲以外の領域と区別できるように表示手段に表示する表示制御工程と、
    を有することを特徴とする画像処理方法。
  18. コンピュータを、請求項1乃至15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  19. コンピュータを、請求項1乃至15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2018103670A 2018-05-30 2018-05-30 画像処理装置、画像処理方法、プログラム、記憶媒体 Active JP7158180B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018103670A JP7158180B2 (ja) 2018-05-30 2018-05-30 画像処理装置、画像処理方法、プログラム、記憶媒体
EP19169725.9A EP3576402A1 (en) 2018-05-30 2019-04-17 Image processing apparatus, image processing method, and storage medium
US16/421,629 US11012650B2 (en) 2018-05-30 2019-05-24 Image processing apparatus, image processing method, and storage medium
CN201910464500.3A CN110557559B (zh) 2018-05-30 2019-05-30 图像处理设备、图像处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103670A JP7158180B2 (ja) 2018-05-30 2018-05-30 画像処理装置、画像処理方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2019208170A true JP2019208170A (ja) 2019-12-05
JP7158180B2 JP7158180B2 (ja) 2022-10-21

Family

ID=66349296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103670A Active JP7158180B2 (ja) 2018-05-30 2018-05-30 画像処理装置、画像処理方法、プログラム、記憶媒体

Country Status (4)

Country Link
US (1) US11012650B2 (ja)
EP (1) EP3576402A1 (ja)
JP (1) JP7158180B2 (ja)
CN (1) CN110557559B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7380675B2 (ja) 2019-03-27 2023-11-15 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム、撮像装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7293025B2 (ja) * 2019-07-29 2023-06-19 キヤノン株式会社 撮像装置およびその制御方法
CN111246106B (zh) * 2020-01-22 2021-08-03 维沃移动通信有限公司 图像处理方法、电子设备及计算机可读存储介质
US11729502B2 (en) * 2021-04-28 2023-08-15 Canon Kabushiki Kaisha Apparatus including focusing function and method of the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241067A (ja) * 2002-02-18 2003-08-27 Minolta Co Ltd 撮像装置
JP2014123848A (ja) * 2012-12-20 2014-07-03 Sony Corp 表示制御装置および表示制御方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4264663B2 (ja) 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
EP2026567B1 (en) * 2007-07-31 2010-10-06 Ricoh Company, Ltd. Imaging device and imaging method
CN101217623B (zh) 2007-12-26 2012-07-11 广东威创视讯科技股份有限公司 一种快速手动调焦、对焦方法
CN101888482A (zh) * 2010-06-22 2010-11-17 宇龙计算机通信科技(深圳)有限公司 多焦距图像同时显示的方法、系统及移动终端
JP6112925B2 (ja) * 2013-03-15 2017-04-12 オリンパス株式会社 表示機器及び表示方法
JP6286668B2 (ja) * 2013-05-22 2018-03-07 パナソニックIpマネジメント株式会社 撮像装置および撮像画像の表示方法
JP6288952B2 (ja) * 2013-05-28 2018-03-07 キヤノン株式会社 撮像装置およびその制御方法
JP6620394B2 (ja) 2014-06-17 2019-12-18 ソニー株式会社 制御装置、制御方法及びプログラム
JP6320195B2 (ja) 2014-06-24 2018-05-09 キヤノン株式会社 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
JP6445831B2 (ja) * 2014-10-16 2018-12-26 キヤノン株式会社 撮像装置及びその制御方法ならびにプログラム
KR20170123125A (ko) 2016-04-28 2017-11-07 엘지전자 주식회사 이동단말기 및 그 제어방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241067A (ja) * 2002-02-18 2003-08-27 Minolta Co Ltd 撮像装置
JP2014123848A (ja) * 2012-12-20 2014-07-03 Sony Corp 表示制御装置および表示制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7380675B2 (ja) 2019-03-27 2023-11-15 ソニーグループ株式会社 画像処理装置、画像処理方法、プログラム、撮像装置

Also Published As

Publication number Publication date
US11012650B2 (en) 2021-05-18
CN110557559A (zh) 2019-12-10
CN110557559B (zh) 2021-12-17
JP7158180B2 (ja) 2022-10-21
EP3576402A1 (en) 2019-12-04
US20190373202A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP7158180B2 (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
JP5368350B2 (ja) 立体撮像装置
JP5469258B2 (ja) 撮像装置および撮像方法
US10326941B2 (en) Image generating apparatus, imaging observing apparatus, imaging apparatus, and storage medium storing image processing program
JP6031545B2 (ja) 撮像装置及び撮影支援方法
JP6045214B2 (ja) 焦点調節装置及びその制御方法
JP5263310B2 (ja) 画像生成装置、撮像装置、画像生成方法
JP7422843B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP4710983B2 (ja) 画像合成装置、撮像装置、画像合成方法
JP2014036362A (ja) 撮像装置、その制御方法、および制御プログラム
JP4693709B2 (ja) 画像処理装置及び画像処理方法
JP7198055B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP2016142924A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2022173069A (ja) 画像処理装置及び方法、及び、撮像装置及びその制御方法、プログラム、記憶媒体
JP7071165B2 (ja) 表示制御装置及び方法、及び撮像装置
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
JP2014131188A (ja) 撮像装置、その制御方法、および制御プログラム
JP2012235180A (ja) デジタルカメラ
JP7501696B2 (ja) 撮像装置
JP5968026B2 (ja) 撮像装置及びその制御方法
JP2018022984A (ja) 画像処理装置及びその制御方法、プログラム並びに撮像装置
JP2024118556A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2013149043A (ja) 画像処理装置
JP2010161702A (ja) 撮像装置及びその近景撮影モード切替方法並びにカメラ付携帯電話機

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221011

R151 Written notification of patent or utility model registration

Ref document number: 7158180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151