JP2020085967A - 画像処理装置およびその制御方法ならびにプログラム - Google Patents

画像処理装置およびその制御方法ならびにプログラム Download PDF

Info

Publication number
JP2020085967A
JP2020085967A JP2018215783A JP2018215783A JP2020085967A JP 2020085967 A JP2020085967 A JP 2020085967A JP 2018215783 A JP2018215783 A JP 2018215783A JP 2018215783 A JP2018215783 A JP 2018215783A JP 2020085967 A JP2020085967 A JP 2020085967A
Authority
JP
Japan
Prior art keywords
image
defocus
focus
display
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018215783A
Other languages
English (en)
Other versions
JP7198055B2 (ja
Inventor
賢治 小貫
Kenji Konuki
賢治 小貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018215783A priority Critical patent/JP7198055B2/ja
Priority to US16/683,408 priority patent/US11108944B2/en
Publication of JP2020085967A publication Critical patent/JP2020085967A/ja
Application granted granted Critical
Publication of JP7198055B2 publication Critical patent/JP7198055B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction

Abstract

【課題】撮影した画像を再生して深度範囲を確認する際に、複数の表示形態を用いる際にも容易に所望の確認を行うことが可能な画像処理装置を提供する。【解決手段】本発明に係る画像処理装置は、1つ以上の画像を取得する取得手段と、1つ以上の画像の表示を異なる表示態様で表示手段に表示するともに、表示態様と表示手段に表示する画像内の焦点のずれ量およびずれの方向を示すデフォーカス情報とに基づいて、表示手段に表示する画像に該画像に関するデフォーカス範囲を示す情報を重畳する、表示制御手段と、を有し、表示制御手段は、表示手段に表示する画像の数に応じて、合焦または非合焦のデフォーカス範囲を示す情報と、ピント位置を変更することが可能なデフォーカス範囲或いは絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報とを用いる表示を異ならせる。【選択図】図4

Description

本発明は、画像処理装置およびその制御方法ならびにプログラムに関する。
従来、デジタルカメラ等の撮像装置では、ユーザが被写体の合焦状態や被写界深度を確認しながら撮影可能なように、LCDなどの表示素子を用いた電子ビューファインダー(EVF)に、被写体の合焦状態等を表示する技術が知られている。
特許文献1は、撮影時などに、被写界深度を表す指標やどの範囲の被写体がリフォーカス可能であるのかをユーザに提示する技術を開示している。また、特許文献2は、画像再生時に表示する焦点検出領域の表示形態を、再生画像に対応した焦点検出領域選択モード及び焦点調節モードに応じて変更する技術を開示している。
特開2014−197824号公報 特開2003−90952号公報
ところで、ユーザが撮影した画像を閲覧する際に、その目的に応じて画像の表示形態を変更する場合がある。例えば、1枚の画像に対して深度範囲を確認する場合には画像を等倍あるいは拡大して表示する一方、撮影に成功或いは失敗した写真を選択したり、削除したりする場合には複数の画像をマルチ表示して同時に閲覧することが考えられる。
特許文献1に開示される技術では、例えば複数の画像をマルチ表示して同時に閲覧する際には、個々の画像の表示が小さくなって視認性が低下するため、複雑な情報はユーザの目的に対して却って有益でない可能性がある。また、特許文献2に開示される技術は、撮影時の焦点検出のモードを反映した情報を表示するだけでは、深度範囲の確認や撮影成功か否かの判断のためには十分な情報が得られない場合がある。
本発明は、上記課題を鑑みたものであり、その目的は、撮影した画像を再生して深度範囲を確認する際に、複数の表示形態を用いる際にも容易に所望の確認を行うことが可能な技術を提供することである。
この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、1つ以上の画像を取得する取得手段と、1つ以上の画像の表示を異なる表示態様で表示手段に表示するともに、前記表示態様と前記表示手段に表示する画像内の焦点のずれ量およびずれの方向を示すデフォーカス情報とに基づいて、前記表示手段に表示する画像に該画像に関するデフォーカス範囲を示す情報を重畳する、表示制御手段と、を有し、前記表示制御手段は、前記表示手段に表示する画像の数に応じて、合焦または非合焦のデフォーカス範囲を示す情報と、ピント位置を変更することが可能なデフォーカス範囲或いは絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報とを用いる表示を異ならせる、ことを特徴とする。
本発明によれば、撮影した画像を再生して深度範囲を確認する際に、複数の表示形態を用いる際にも容易に所望の確認を行うことが可能になる。
実施形態1における画像処理装置の一例としてのデジタルカメラの機能構成例を示すブロック図 実施形態1における撮像部の構成の一例を模式的に示す図 実施形態1における画像処理部の機能構成例を示すブロック図 実施形態1におけるデフォーカス情報重畳処理に係る一連の動作を示すフローチャート 実施形態1における入力画像、エッジ画像およびデフォーカスマップの一例を示す図 実施形態1におけるデフォーカスマップのヒストグラムおよび深度範囲を説明する図 実施形態1における絞り値に応じて定まる定数kの算出方法の一例を示す図 実施形態1における絞り値を変化させる段数N、N-の算出方法の一例を示す図 実施形態1におけるデフォーカスマップのヒストグラムおよび第3の表示デフォーカス範囲を説明する図 実施形態1における第1〜第3のデフォーカス範囲に含まれる領域に対する加工画像の一例を説明する図 実施形態1におけるマルチ表示において第1のデフォーカス範囲外の領域に対する加工画像の一例を説明する図 実施形態2におけるマルチ表示の表示順序の変更例を説明する図
(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では、デジタルカメラなどの撮影装置を用いて、ユーザがEVFを見て深度範囲を確認しながら、画像を補正したり撮影の適否を判断して削除したりするユースケースを例に説明する。しかし、本実施形態は、撮影された画像を取得し、取得した画像を見て上述の操作を行うことができる画像処理装置にも適用可能である。また、画像処理装置は、例えば、デジタルカメラを遠隔制御可能であり、デジタルカメラで撮影される画像を取得して画像処理装置に表示させ、ユーザが当該装置を操作して画像を補正したり撮影の適否を判断して削除したりする場合にも適用可能である。このような画像処理装置には、デジタルカメラ、スマートフォンを含む携帯電話機、ゲーム機、タブレット端末、時計型や眼鏡型の情報端末、医療機器などが含まれてよい。
(デジタルカメラの構成)
図1は、本実施形態の画像処理装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
光学系101は、ズームレンズやフォーカスレンズを含むレンズ群、光量を調整する絞り調整装置、および、シャッター装置を備えている。この光学系101は、レンズ群を光軸方向に進退させることにより、撮像部102に到達する被写体像の倍率やピント位置を調整する。
撮像部102は、光学系101を通過した被写体の光束を光電変換し電気信号に変換するCCD或いはCMOSセンサ等の光電変換素子を含み、所定の時間間隔で電気信号に変換されたアナログ画像信号を出力する。本実施形態に係る撮像部102は、図2(A)に示すような画素配列を有し、この画素配列では、個々の画素202が二次元状に規則的に配列されている。画素配列を構成する画素202は、図2(B)に示すように、マイクロレンズ201と一対の光電変換部203、204から構成される。一対の光電変換部203、204とは、それぞれ、光学系101の射出瞳の異なる領域を通過した光束を受光して光電変換を行う。このため、光電変換部203側に基づく画像信号(例えばA像という)と光電変換部204側に基づく画像信号(例えばB像という)とは被写体像に位相差を有する。撮像部102は、例えばA像とB像のアナログ画像信号を出力する。
A/D変換部103は、撮像部102から出力されたアナログ画像信号をデジタル画像信号に変換する。画像処理部104は、撮像部102からのデジタル画像信号に通常の信号処理、および後述するデフォーカス情報重畳処理を行う。ここで通常の処理信号は、例えば、ノイズ低減処理や現像処理、ガンマ変換による階調圧縮処理によって所定の出力レンジに階調圧縮する処理などを含む。また、画像処理部104は、A/D変換部103から出力された画像のみならず、記録部107から読み出した画像に対しても同様の画像処理を行うことができる。なお、制御部105が画像処理部104を包含し、画像処理部104の機能を兼ね備えてもよい。
制御部105は、例えばCPUやMPUなどのプロセッサを含み、不揮発性メモリ108に記録されたプログラムを揮発性メモリ109に展開し、実行することにより、デジタルカメラ100が備える各ブロックの動作を制御する。例えば、制御部105は、適正な明るさを持つ入力画像を得る為の撮影時の露光量を算出し、算出した露光量を実現するために光学系101と撮像部102を制御して、絞り、シャッタースピード、センサのアナログゲインを制御する。また、制御部105は、画像処理部104を兼ねる場合には後述するデフォーカス情報重畳処理を実行する。
表示部106は、画像処理部104から出力される画像信号をLCDなどの表示用部材に逐次表示する。記録部107は、例えば、半導体メモリ等の記録媒体を含み、撮像部102で撮像され、画像処理部104等で所定の処理が施された画像を記録する。半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた着脱可能な情報記録媒体を含んでもよい。
(画像処理部の構成)
次に、図3を参照して、本実施形態に係る画像処理部104の構成について説明する。なお、画像処理部104の各ブロックは、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。また、複数の機能ブロックが統合され又は1つの機能ブロックが分離されてもよい。
信号処理部301は、ノイズ低減処理や現像処理など、上述の通常の信号処理を行う他、ガンマ変換などによる階調圧縮処理によって所定の出力レンジに階調圧縮する処理などを行う。なお、信号処理部301は、A像とB像の信号を合成して1つの画像信号を扱ってよい。撮影情報取得部302は、撮影時にユーザが設定した撮影モードや、焦点距離、絞り値、露光時間などの各種情報を、例えば制御部105を介して不揮発性メモリ108又は揮発性メモリ109から取得して、デフォーカス演算部304に提供する。
エッジ生成部303は、信号処理部301から出力された画像信号から、エッジ信号を生成する。デフォーカス演算部304は、A像とB像の画像信号を取得する。デフォーカス演算部304は、光学系101の射出瞳の異なる領域から到来する光束が生ずる被写体像の位相差に基づいて、撮像された画像におけるデフォーカスの分布(すなわち焦点のずれ量とそのずれの方向)を示すデフォーカスマップを生成する。
表示制御部305は、エッジ生成部303およびデフォーカス演算部304の出力を用いて、画像に関するデフォーカス情報を当該画像に重畳した加工画像を生成(加工処理)して表示部106に表示するように表示制御を行う。
(デフォーカス情報重畳処理に係る一連の動作)
次に、図4を参照して、本実施形態に係るデフォーカス情報重畳処理の一連の動作について説明する。このデフォーカス情報重畳処理は、ユーザが撮像した画像の深度範囲を確認するためにEVF(すなわち表示部106)に画像を表示する際に実行される。なお、図4に示す処理は、特に説明する場合を除き画像処理部104の各部によって実行される例を説明するが、制御部105が画像処理部104を包含して不揮発性メモリ108のプログラムを揮発性メモリ109に展開、実行することにより実現されてもよい。本実施形態に係る入力画像501は、再生時にEVFに表示される画像であり、図5(A)に示すように、3人の人物(502、503、504)がデジタルカメラ100から見て手前側から奥側にそれぞれ並んでいるシーンである。また、以下のS401〜S416の処理は画像ごとに行う処理として説明するが、後述するマルチ表示を行う場合には、マルチ表示で必要な画像の数だけ処理を繰り返してよい。
S401では、エッジ生成部303は、入力画像501に対してBpf(バンドパスフィルタ)を適用することにより、エッジ画像を生成する。具体的には、水平方向および垂直方向それぞれに[−1 0 2 0 −1]のフィルタを適用した信号を加算する。なお、エッジ画像の生成方法としてはこれに限らず、Lpf(ローパスフィルタ)を適用した画像と元の画像との差分をとることでエッジ成分を抽出するなど、他の方法であっても良い。図5(B)の画像511は、エッジ生成部303の処理によって得られるエッジ画像を示したものである。
S402では、デフォーカス演算部304は入力画像501に対するデフォーカスマップを生成する。デフォーカス演算部304は、例えば特開2016−9062号公報に開示される公知の手法を用いることができ、画素毎にデフォーカス値(すなわち焦点のずれ量とそのずれの方向を示す)を算出しデフォーカスマップとして扱う。図5(C)の画像521は、デフォーカス演算部304によって得られるデフォーカスマップの一例を示している。画像521において、奥行き方向の真ん中にいる人物523の領域が合焦を示す値をとっており、手前側の人物522は前ボケの非合焦を、奥側の人物524は後ボケの非合焦を示している。
S403では、デフォーカス演算部304は第1のデフォーカス範囲を算出する。ここで、第1のデフォーカス範囲は、例えば静止画撮影時に被写界深度に含まれると判断されるデフォーカスの値域である。この範囲は、光学系101の絞り値をF、許容錯乱円径の値(すなわち撮像部102の画素数および大きさに依存する値)をδとし、範囲の上限値および下限値をそれぞれ+Fδ、−Fδとすると、図6に示すようになる。図6は、デフォーカスマップ521に対するデフォーカスのヒストグラムを示している。図6において破線で示すデフォーカス値はデフォーカスの値が0であることを示す。デフォーカス値が0である場合、ピントが最も合っており、+の値は前ボケの方向に合焦度合が変化し、所定以上の値になると非合焦となる。一方、−の値は後ボケの方向に合焦度合が変化し、所定以上の値になると非合焦となる。すなわち、デフォーカスの値が−Fδ〜+Fδの範囲に含まれる領域を被写界深度内(すなわち第1の表示デフォーカス範囲)に含まれると判定することができる。
S404では、撮影後の画像501に対してピント位置を変更することが可能なデフォーカス範囲(第2のデフォーカス範囲)を算出する。具体的には、撮影時の絞り値に応じて定まる定数をkとして、撮影時のピント位置に対して変更可能な範囲kFδを算出する。図7は定数kの値の設定方法について定義したものであり、横軸は入力画像501の撮影時の絞り値であるFRであり、FRの値に対するkの値域を表している。図7に示す例では、kの値はFRが小さいほど大きくなる。これは、撮影時に絞りが絞り込まれるほど撮像部102において生成される複数の被写体像の位相差が小さくなり、位相差を再調整することでピント位置を変更することが困難となるためである。例えばFRが2である時、1Fδ分のピント再調整が可能となる。
なお、本実施形態では、絞り値とkの関係としての一例を示したが、これに限定するものではない。例えば、デジタルカメラ100が複数の光学系101や撮像部102を有する複眼カメラの構成であれば、より位相差の大きい複数の被写体像を取得し、大きくピント位置を変更することが可能となるため、kの値をより大きな値として定義することができる。
S405では、デフォーカス演算部304は絞り値を撮影時の値から変更した場合の仮想的な絞り値に対する第3のデフォーカス範囲を算出する。デフォーカス演算部304は、まず二つの仮想絞り値をFV+およびFV-として、それぞれを以下の式(1)、(2)に従って算出する。

ここで、FRは撮影時の絞り値、NおよびN-は深度を広げる或いは狭めるために絞り値を変える段数を表しており、共にFRに応じて決定する定数である。図8(A)及び(B)は、FR とNおよびN-の関係を示したものであり、横軸は入力画像501の撮影時の絞り値であるFRであり、FRの値に対するNの値域又N-の値域を表している。図8(A)及び(B)に示す例では、FRの値が大きい程Nの値は小さくなる一方、N-の値はFRの値が大きい程大きくなる。これは、撮影時の絞り値FRが小さいほど絞り値を変更したときの深度(すなわちピント範囲)の変化量は小さいため、仮想的に絞り値を変更する度合いを大きくすることでピント範囲の変化量を大きくすることが目的である。なお、仮想絞り値FV+およびFV-の算出方法はここで示す例に限らず、NはFRに対して右上がりにするなど異なる算出方法にしても良い。また、(例えば不図示の操作部材を通じて)ユーザが自由に設定することで、FV-を最小の絞り値に固定して常に開放時の深度を表示しながら、FV+を+1段変えた絞り値として深度を表示するといったような算出方法にしてもよい。
そして、デフォーカス演算部304は、算出した仮想絞り値FV+およびFV-を用いて第3のデフォーカス範囲を算出する。算出方法としてはS403と同様に、絞り値を大きい値に変更したときの上限値および下限値をそれぞれ+FV+δ、−FV+δとし、絞り値を小さい値に変更したときの上限値および下限値をそれぞれ+FV-δ、−FV-δとする。結果的に得られる第3のデフォーカス範囲の一例を図9に示す。図9では、S404で算出した第1のデフォーカス範囲に対し、2つの第3のデフォーカス範囲がそれぞれ狭い範囲と広い範囲を構成している。これはそれぞれ絞り値を仮想的に変更したことで深度が狭くあるいは広くなっていることを示している。
S406では、表示制御部305は入力画像501をEVFに拡大表示しているか否かを判定する。表示制御部305は入力画像501を拡大表示していると判定した場合にはS407へ進み、そうでない場合にはS408へ進む。
S407では、表示制御部305は入力画像501に対して表示用の加工処理を適用する。具体的には、拡大画像におけるS401で生成されたエッジ信号が所定の値以上であり、かつS402で生成されたデフォーカス値がS404で算出された第2のデフォーカス範囲に含まれる領域に対して、入力画像501に青色(第2の色)の信号を重畳する。これにより、撮影後にピント位置を変更することで再撮影することなく所望とする画像が得られるか否かをユーザが判断することができる。なお、本実施形態では、画像を拡大表示して再生する場合にS407の加工処理を行う例に説明しているが、拡大表示でなくとも撮影後のRECレビュー時に適用することも可能である。このようにしても、ユーザに対して、再撮影の必要があるか否かを判断するための有用な情報を提供することができる。
S408では、表示制御部305は、入力画像501をEVFに等倍で表示しているか否かを判定する。表示制御部305は、入力画像501を等倍表示していると判定した場合にはS409へ進み、そうでない場合にはS412へ進む。S409では、表示制御部305は、S404で算出された第2のデフォーカス範囲が所定の閾値以上(例えば1Fδ以上)か否かを判定する。表示制御部305は、第2のデフォーカス範囲が1Fδ以上であると判定した場合はS411へ進み、そうでない場合にはS410へ進む。
S410では、表示制御部305は、入力画像501に対して表示用の加工処理を適用する。例えば、表示制御部305は、S401で生成されたエッジ信号が所定の値以上であり、かつS402で生成されたデフォーカス値がS405で算出された第3のデフォーカス範囲に含まれる領域に対して、入力画像501に赤色(第3の色)の信号を重畳する。
S411では、表示制御部305は入力画像501に対して表示用の加工処理を適用する。具体的には、表示制御部305は、S401で生成されたエッジ信号が所定の値以上であり、かつS402で生成されたデフォーカス値がS404で算出された第2のデフォーカス範囲に含まれる領域に対し、入力画像501に青色(第2の色)の信号を重畳する。
ここで、上述のS409〜S411の処理において、加工処理を適用する領域を第2および第3のデフォーカス範囲に含まれる領域のどちらかとして選択する理由について説明する。第2のデフォーカス範囲はピント位置を変更可能な範囲であり、S404において説明したように、複数の被写体像における位相差の大きさおよび絞り値に依存する。ピント位置の変更可能な範囲が例えば0.1Fδ(図7においてk=0.1)である場合、この範囲に含まれる領域は画像内ではごく僅かな一部の領域となる。すなわちユーザがこの領域を確認する場合には当該画像を拡大表示しなければ視認できない程度のものであると考えられる。そのような場合、ピント位置の変更可能な範囲に含まれる領域に加工処理を適用してもユーザにとって有益な情報とはなり難い。これに対し、絞り値を変更した場合の深度範囲を示せば、ユーザは撮影条件を変更して再撮影すること等を判断することができるため、ユーザにとって有益な情報となる。
S412では、表示制御部305は、EVFに所定の数以上の複数の画像を表示するかを判定する。具体的には、複数の画像を同時に表示するマルチ再生において、3x3枚(計9枚)以上の画像をEVFに表示しているか否かを判定する。表示制御部305は、3x3枚以上表示していると判定した場合にはS414へ進み、そうでない場合にはS413へ進む。S413では、表示制御部305は、入力画像501に対して表示用の加工処理を適用する。具体的にはS410と同様、第3のデフォーカス範囲に含まれる領域に対して、入力画像501に赤色(第3の色)の信号を重畳する。
S414では、表示制御部305は、表示用の加工処理の対象が深度内であるか深度外であるかを判定する。例えば、ユーザは不図示の操作部材を介してどちらを加工対象とするかを設定可能であり、表示制御部305は、その設定値を例えば不揮発性メモリ108から読み出して判定を行う。なお、3x3枚以上の画像を同時に表示している場合、各画像の表示倍率は小さくなって(各画像は小さく変倍されて)いるため、深度内の領域を全て加工して色信号を重畳する場合には視認性が低下する可能性がある。このため、各画像の深度外の領域のみに所定の色信号を重畳することが好ましい。
S415では、表示制御部305は、入力画像501に対して表示用の加工処理を適用する。具体的には、表示制御部305は、S401で生成されたエッジ信号が所定の値以上であり、かつS402で生成されたデフォーカス値が第1のデフォーカス範囲に含まれる領域に対して、入力画像501に緑色の信号を重畳する。なお、S407、S410、S411、S413において第2又は第3のデフォーカス範囲に所定の色の信号が重畳されている場合、本ステップによって更に第1のデフォーカス範囲に含まれる領域に対して緑色(第1の色)の信号が重畳される。一方、3x3枚(計9枚)以上のマルチ再生であって加工対象が深度内である場合には、第1のデフォーカス範囲にのみ色の信号が重畳される。
S416では、表示制御部305は入力画像501に対して表示用の加工処理を適用する。具体的には、S401で生成されたエッジ信号が所定の値以上であり、かつS402で生成されたデフォーカス値がS403で算出された第1のデフォーカス範囲に含まれない領域に対して、入力画像501に黄色(第4の色)の信号を重畳する。画像処理部104は、表示制御部305によって重畳された画像を出力すると、その後、デフォーカス情報の重畳処理を終了する。マルチ表示を行う場合、画像処理部104は、表示に必要な画像の数だけ処理を終了した場合、本一連の動作を終了する。
ここまで説明したデフォーカス情報の重畳処理によって生成される画像の具体例について説明する。入力画像501に対してS415の処理(すなわち第1のデフォーカス範囲に含まれる領域に対する加工処理)により生成される画像を図10(A)に示す。図10(A)に示す例では、画像1001において奥行き方向の真ん中にいる人物1003のエッジ領域に緑色の信号が重畳されて目立っている(太線)。逆に人物1003以外の2人の人物1002、1004には緑色が重畳されておらず、深度外にいるということが確認できる。
さらに、S415の処理に加えてS407(S411も同様)の処理(すなわち第2のデフォーカス範囲に含まれる領域に対する加工処理)を行なった画像を図10(B)に示す。図10(B)では、画像1011において奥行き方向の真ん中にいる人物1013のエッジ領域に加え、人物1012のエッジ領域にも色信号が重畳(中太線)されている。これにより、ユーザは、撮影時には深度外であった人物1012が撮影後のピント調整によりピントを合わせることが可能な範囲にいると判断することができる。
また、S415の処理に加えてS410(S414も同様)の処理(すなわち第3のデフォーカス範囲に含まれる領域に対する加工処理)を行なった画像を図10(C)に示す。図10(C)の画像1021は、絞り値を大きい値に変更(より絞り込む)した場合の第3のデフォーカス範囲である−FV+δ〜+FV+δに含まれる領域に加工処理を行なった画像である。画像1021において奥行き方向の真ん中にいる人物1023のエッジ領域に加え、人物1022および1024のエッジ領域にも色信号が重畳(中太線)されている。これにより、ユーザは、撮影時には深度外であった人物1022および1024が絞りを変更して(この場合、より絞り込んで)撮影することで、これらの人物の領域を深度範囲内に収めることが可能であると判断することができる。
なお、上述の説明では、第3のデフォーカス範囲として絞り値を大きくした場合の深度範囲に加工処理を行う場合について説明したが、これに加えて絞り値を小さくした場合の深度範囲に対しても異なる色信号を重畳するようにしても良い。例えば、絞り値を大きくしたときの深度内領域には赤色、絞り値を小さくしたときの深度内領域には橙色とするなど、異なる色信号を重畳することで、それぞれ絞り値を変えたときにどこまで深度が変化するかを示すことができる。
S416の処理(すなわち撮影時の深度範囲である第1のデフォーカス範囲に含まれない領域に対する加工処理)を行なった画像を図11に示す。図11に示す画像1101はEVFに表示される撮影済みの9枚の画像を示したものであり、各画像は1枚のみを表示する場合よりも縮小されている。図11に示す例では、各画像における、深度内に含まれる領域には加工処理がなされず、深度外である領域のエッジ部に対してのみ、色信号が重畳(中太線)されている。例えば、画像1102では真ん中にいる人物以外は深度範囲に含まれていないために加工処理がなされている。また、画像1103では画像全体が深度範囲に含まれているため、どの領域にも加工処理がなされていない。このようにすることで、ユーザは、主要な被写体にピントが合っている画像を選択したり、画像全体がピンボケしているような失敗写真を選択・削除したりする操作において、視認性の良い状態で容易に目的とする操作を行うことができる。
以上説明したように本実施形態によれば、1つ以上の画像を再生する際に、表示態様とデフォーカス情報(すなわち画像内の焦点のずれ量およびずれの方向を示す)とに基づいてデフォーカス範囲を示す情報を表示するようにした。このとき、表示する画像の数に応じて、第1(又は第4)のデフォーカス範囲を示す情報と、第2のデフォーカス範囲或いは第3のデフォーカス範囲を示す情報とを用いる表示を異ならせるようにした。特に、表示部に所定の数以上の複数の画像を表示する場合、第1(又は第4)のデフォーカス範囲を示す情報を重畳する。また、所定の数より少ない画像を表示する場合、少なくとも、第2のデフォーカス範囲或いは第3のデフォーカス範囲を示す情報を重畳するようにする。このようにすることで、ユーザは、目的に応じたデフォーカス範囲の情報を容易に確認することができ、ピントの確認や撮影後の深度変更(すなわち補正)、画像の選択と削除などを行う負荷が軽減される。換言すれば、撮影した画像を再生して深度範囲を確認する際に、複数の表示形態を用いる際にも容易に所望の確認を行うことが可能になる。
なお、本実施形態では、1つの絞り値に対する深度内の範囲を1色で表現するように加工する例を説明した。しかし、深度内の範囲の表現はこれに限らず、合焦を示す値(デフォーカス値が0)を閾値として異なる色で加工しても良い。例えばピント位置よりも前の領域(手前側)は水色、後ろの領域(奥側)は紺色などにして、デフォーカス値を段階的に表現するようにしてもよい。このようにすることで、ユーザは被写体の前後関係を把握し、ピント位置をどちら側に調整すれば良いかを容易に判断することができる。特に、2つの被写体がデフォーカス値としては近い値を持っていながら、画像内では二次元的に離れていて前後関係が目視のみでは判断しにくい場合において被写体の前後関係を容易に把握することができる。また、表示制御部305は、画像に色信号を重畳するのではなく、輝度や彩度をデフォーカス値に応じて変化させた信号を画像に重畳するなど、他の方法を用いても良い。
また、本実施形態では、図2(A)に示したような、撮影光学系の瞳の異なる領域を通過した光束が生ずる被写体像を取得し、その位相差に基づいてデフォーカスマップを生成する構成について説明した。しかし、他の構成や手段を代用あるいは併用しても良い。例えば複数のレンズおよび撮像素子を有する複眼カメラの構成とすることで、異なる複数の視点または異なる複数の合焦位置を有する複数の画像に基づき、より精度の良い像ずれ量を検出できるようにしても良い。また、TOF(Time Of Flight)カメラや超音波により距離が計測可能な構成とすることでデフォーカス情報を取得し、模様の変化が乏しい被写体に対する測距性能を向上することが可能となる。
(実施形態2)
次に、実施形態2について説明する。本実施形態では、上述のS416においてマルチ再生時に加工処理を適用することに加えて、画像の表示順序を変更する例を説明する。なお、本実施形態に係るデジタルカメラ100の構成は、実施形態1と実質的に同一である。また、デフォーカス情報重畳処理は、実施形態1では画像ごとに一連の動作を行う場合を例に説明したが、本実施形態では、複数の画像について一度に処理を行う点と上記画像の表示順序を変更する点が異なる。このため、共通する構成や動作の説明を省略し、相違点について重点的に説明する。
(デフォーカス情報重畳処理に係る一連の動作)
上述の図4を参照して、本実施形態に係るデフォーカス情報重畳処理について説明する。S403では、デフォーカス演算部304は、記録部107に記録されている全ての画像について第1のデフォーカス範囲(すなわち深度範囲)を算出する。
S416では、表示制御部305は、まず、第1のデフォーカス範囲に含まれない領域に対して、入力画像501に黄色(第4の色)の信号を重畳する。その後、デフォーカス演算部304は各画像において深度(第1のデフォーカス範囲)内に含まれる画素をカウントし、該画素のカウント数に応じて画像を表示する順番を変更する。
具体的には、表示制御部305は、深度(第1のデフォーカス範囲)内の画素数が多い画像ほど、複数の画像のうちの先頭に近くなるように表示する。図12に示す画像1201は、その結果を示したものであり、深度(第1のデフォーカス範囲)内に含まれている画素が少ない画像ほど、複数の画像のうちの最後(右下)に近くなるように順序付けされている。このようにすることで、仮に画像内のどこにもピントが合っていないような失敗画像がある場合、ユーザは当該失敗画像を容易に見つけることが可能になる。画像処理部104は、複数の画像を表示した後に、或いはユーザによる画像に対する操作が終了した後に、本一連の処理を終了する。
以上説明したように、本実施形態では、深度(第1のデフォーカス範囲)内に含まれる画素が多い画像ほど、複数の画像のうちの先頭に近くなるように表示するようにした。このようにすることで、ピントが所望の状態である(或いはピントが合っていない)画像を容易に発見できるようになる。すなわち、ユーザは画像の選択や削除等をより容易に行うことができるようになる。
しかし、この実施形態に限らず、深度内に含まれる画素が少ないほど、複数の画像のうちの先頭に表示したり、深度内の画素が10%に満たない画像を、常に最後に表示したりするなど、種々の変更が可能である。
また本実施形態では、デフォーカス範囲に含まれる画素数に応じて、複数の画像の表示順序を変更する処理について説明したが、デフォーカス範囲内の画素数に応じてジャンプ再生するようにしても良い。例えば、1枚の画像を等倍で表示する場合、ユーザから画像送りの指示を受け付けたことに応じて、深度内の画素が占める割合が90%以上の画像の先頭、次に割合が70%以上の画像の先頭、同40%以上、同10%以上と画像を切り替える。これにより、ユーザは、画像を縮小することなく表示しながら(すなわち細部の視認性を確保しつつ)、ピントが所望の状態である画像やほとんど合っていない画像をそれぞれまとめて確認することが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
104…画像処理部、105…制御部、106…表示部、303…エッジ生成部、304…デフォーカス演算部、306…表示制御部

Claims (18)

  1. 1つ以上の画像を取得する取得手段と、
    1つ以上の画像の表示を異なる表示態様で表示手段に表示するともに、前記表示態様と前記表示手段に表示する画像内の焦点のずれ量およびずれの方向を示すデフォーカス情報とに基づいて、前記表示手段に表示する画像に該画像に関するデフォーカス範囲を示す情報を重畳する、表示制御手段と、を有し、
    前記表示制御手段は、前記表示手段に表示する画像の数に応じて、合焦または非合焦のデフォーカス範囲を示す情報と、ピント位置を変更することが可能なデフォーカス範囲或いは絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報とを用いる表示を異ならせる、ことを特徴とする画像処理装置。
  2. 前記表示制御手段は、前記表示手段に所定の数以上の複数の画像を表示する場合、前記合焦または非合焦のデフォーカス範囲を示す情報を重畳し、前記所定の数より少ない画像を表示する場合、少なくとも、前記ピント位置を変更することが可能なデフォーカス範囲或いは絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報を重畳する、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示制御手段は、前記表示手段に1つの画像を表示する場合、前記合焦または非合焦のデフォーカス範囲を示す情報と、前記ピント位置を変更することが可能なデフォーカス範囲或いは絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報とを重畳する、ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記表示制御手段は、前記表示手段に1つの画像を表示する場合であって、かつ前記1つの画像においてピント位置を変更することが可能なデフォーカス範囲が閾値以上である場合、前記合焦または非合焦のデフォーカス範囲を示す情報と、ピント位置を変更することが可能なデフォーカス範囲を示す情報とを重畳する、ことを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記表示制御手段は、前記表示手段に少なくとも一部が拡大された1つの画像を表示する場合、前記合焦または非合焦のデフォーカス範囲を示す情報と、ピント位置を変更することが可能なデフォーカス範囲を示す情報を重畳する、ことを特徴とする請求項2又は3に記載の画像処理装置。
  6. 前記表示制御手段は、前記表示手段に前記所定の数より少ない、複数の画像を表示する場合、前記合焦または非合焦のデフォーカス範囲を示す情報と、絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報を重畳する、ことを特徴とする請求項2に記載の画像処理装置。
  7. 前記合焦または非合焦のデフォーカス範囲は、画像を撮像した際の絞り値に基づいて定まる範囲である、ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記ピント位置を変更することが可能なデフォーカス範囲は、画像に対して撮影後にピント位置を変更することが可能なリフォーカスの可能な範囲である、ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記絞り値を撮影時から変更した場合のデフォーカス範囲は、画像を撮像した際の第1の絞り値とは異なる仮想的な第2の絞り値に基づいて定まる範囲である、ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記合焦または非合焦のデフォーカス範囲を示す情報と、前記ピント位置を変更することが可能なデフォーカス範囲或いは絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報とは、それぞれ、画像内の焦点のずれ量およびずれの方向に応じて表示される、ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記表示制御手段は、前記表示手段に所定の数以上の複数の画像を表示する場合、それぞれの画像における合焦のデフォーカス範囲に含まれる画素の数に基づいて、前記複数の画像の表示順を変更する、ことを特徴とする請求項1又は2に記載の画像処理装置。
  12. 前記デフォーカス情報は、撮影光学系の瞳の異なる領域を通過した光束が生ずる被写体像の位相差に基づいて得られる、ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  13. 前記デフォーカス情報は、異なる複数の視点または異なる複数の合焦位置を有する複数の画像に基づいて得られる、ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  14. 前記デフォーカス情報は、光または音波の信号に基づいて得られる、ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  15. 前記表示制御手段は、前記合焦または非合焦のデフォーカス範囲を示す情報と、前記ピント位置を変更することが可能なデフォーカス範囲或いは絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報とを、前記画像におけるエッジ信号を用いて表示する、ことを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
  16. 前記第2の絞り値を設定するための、ユーザによる入力を受け付ける設定手段を更に有する、ことを特徴とする請求項9に記載の画像処理装置。
  17. 取得手段が、1つ以上の画像を取得する取得工程と、
    表示制御手段が、1つ以上の画像の表示を異なる表示態様で表示手段に表示するともに、前記表示態様と前記表示手段に表示する画像内の焦点のずれ量およびずれの方向を示すデフォーカス情報とに基づいて、前記表示手段に表示する画像に該画像に関するデフォーカス範囲を示す情報を重畳する、表示制御工程と、を有し、
    前記表示制御工程では、前記表示手段に表示する画像の数に応じて、合焦または非合焦のデフォーカス範囲を示す情報と、ピント位置を変更することが可能なデフォーカス範囲或いは絞り値を撮影時から変更した場合のデフォーカス範囲を示す情報とを用いる表示を異ならせる、ことを特徴とする画像処理装置の制御方法。
  18. コンピュータを、請求項1から16のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018215783A 2018-11-16 2018-11-16 画像処理装置およびその制御方法ならびにプログラム Active JP7198055B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018215783A JP7198055B2 (ja) 2018-11-16 2018-11-16 画像処理装置およびその制御方法ならびにプログラム
US16/683,408 US11108944B2 (en) 2018-11-16 2019-11-14 Image processing apparatus for providing information for confirming depth range of image, control method of the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018215783A JP7198055B2 (ja) 2018-11-16 2018-11-16 画像処理装置およびその制御方法ならびにプログラム

Publications (2)

Publication Number Publication Date
JP2020085967A true JP2020085967A (ja) 2020-06-04
JP7198055B2 JP7198055B2 (ja) 2022-12-28

Family

ID=70726647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018215783A Active JP7198055B2 (ja) 2018-11-16 2018-11-16 画像処理装置およびその制御方法ならびにプログラム

Country Status (2)

Country Link
US (1) US11108944B2 (ja)
JP (1) JP7198055B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229879A1 (ja) 2020-05-15 2021-11-18 株式会社フジクラ 一束化吊線

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086952A (ja) * 2004-09-17 2006-03-30 Casio Comput Co Ltd デジタルカメラ、および、プログラム
JP2009098167A (ja) * 2007-10-12 2009-05-07 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2010093422A (ja) * 2008-10-06 2010-04-22 Canon Inc 撮像装置
JP2014197824A (ja) * 2013-03-05 2014-10-16 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2017034474A (ja) * 2015-07-31 2017-02-09 キヤノン株式会社 撮像装置およびその制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003090952A (ja) 2001-09-17 2003-03-28 Canon Inc 撮像装置
JP2006054536A (ja) 2004-08-10 2006-02-23 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP5478935B2 (ja) * 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
JP2014123848A (ja) * 2012-12-20 2014-07-03 Sony Corp 表示制御装置および表示制御方法
JP6112925B2 (ja) * 2013-03-15 2017-04-12 オリンパス株式会社 表示機器及び表示方法
JP6244655B2 (ja) 2013-05-16 2017-12-13 ソニー株式会社 画像処理装置および画像処理方法
JP6245892B2 (ja) * 2013-08-21 2017-12-13 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
JP6620394B2 (ja) * 2014-06-17 2019-12-18 ソニー株式会社 制御装置、制御方法及びプログラム
JP6320195B2 (ja) 2014-06-24 2018-05-09 キヤノン株式会社 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
JP6576171B2 (ja) 2015-09-02 2019-09-18 キヤノン株式会社 映像処理装置、映像処理方法、及びプログラム
US10062353B2 (en) * 2016-06-27 2018-08-28 Intel Corporation System to compensate for visual impairment
JP6717690B2 (ja) * 2016-07-01 2020-07-01 オリンパス株式会社 撮像装置、撮像方法、およびプログラム
JP2019176249A (ja) * 2018-03-27 2019-10-10 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006086952A (ja) * 2004-09-17 2006-03-30 Casio Comput Co Ltd デジタルカメラ、および、プログラム
JP2009098167A (ja) * 2007-10-12 2009-05-07 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2010093422A (ja) * 2008-10-06 2010-04-22 Canon Inc 撮像装置
JP2014197824A (ja) * 2013-03-05 2014-10-16 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2017034474A (ja) * 2015-07-31 2017-02-09 キヤノン株式会社 撮像装置およびその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229879A1 (ja) 2020-05-15 2021-11-18 株式会社フジクラ 一束化吊線

Also Published As

Publication number Publication date
US20200162660A1 (en) 2020-05-21
JP7198055B2 (ja) 2022-12-28
US11108944B2 (en) 2021-08-31

Similar Documents

Publication Publication Date Title
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
US9258545B2 (en) Stereoscopic imaging apparatus
US9208569B2 (en) Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
JP5469258B2 (ja) 撮像装置および撮像方法
JP6838994B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
US9106825B2 (en) Image capture apparatus, image capture method and storage medium
JP6159097B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JP2012049773A (ja) 撮像装置および方法、並びにプログラム
JP7422843B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP6095266B2 (ja) 画像処理装置及びその制御方法
JP7158180B2 (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
JP5936358B2 (ja) 画像表示装置、画像表示方法、撮像装置およびその制御方法、プログラムおよびそれを記憶する記憶媒体
JP6611531B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP2022000695A (ja) 撮像装置
JP6608194B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP7198055B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
US20190281225A1 (en) Focus detection device and focus detection method
JP6491442B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2012124650A (ja) 撮像装置および撮像方法
JP2017163412A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
JP2015084517A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP5968026B2 (ja) 撮像装置及びその制御方法
JP6833772B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6387149B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221216

R151 Written notification of patent or utility model registration

Ref document number: 7198055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151