JP7435592B2 - 画像処理装置、画像処理方法、プログラム、撮像装置 - Google Patents
画像処理装置、画像処理方法、プログラム、撮像装置 Download PDFInfo
- Publication number
- JP7435592B2 JP7435592B2 JP2021508186A JP2021508186A JP7435592B2 JP 7435592 B2 JP7435592 B2 JP 7435592B2 JP 2021508186 A JP2021508186 A JP 2021508186A JP 2021508186 A JP2021508186 A JP 2021508186A JP 7435592 B2 JP7435592 B2 JP 7435592B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- defocus
- processing device
- display
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/34—Systems for automatic generation of focusing signals using different areas in a pupil plane
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/18—Signals indicating condition of a camera member or suitability of light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/704—Pixels specially adapted for focusing, e.g. phase difference pixel sets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Description
下記引用文献1には、或る任意の点位置に対して、マニュアル操作によりフォーカスレンズを合焦させる際に、当該点位置におけるデフォーカス量に関する情報を表示する撮像装置が記載されている。
そこで本技術では、撮像画像の或る任意の領域におけるデフォーカス量の分布を表示させることを目的とする。
これにより、撮像画像の複数位置におけるデフォーカス量の分布がデフォーカスマップ画像として表示される。
これにより、撮像素子部における像面位相差画素により検出された位相差情報を用いてデフォーカス量が算出される
これにより、撮像画像の対象領域内における複数位置のデフォーカス量の分布がデフォーカスマップ画像として表示される。
これにより、撮像画像における被写体距離の分布がデプスマップ画像として表示される。また、デプスマップ画像とデフォーカスマップ画像が切り換え可能に表示される。
これにより、撮像画像の各位置のデフォーカス量の値の違いがデフォーカスマップ画像における色の違いとして表示される。
これにより、デフォーカスマップ画像における各デフォーカス量表示アイコンの表示態様から、各デフォーカス量表示アイコンに対応する位置のデフォーカス量の分布が表示される。
これにより、デフォーカス量に応じて径の異なる円環状のデフォーカス量表示アイコンが表示される。
これにより、合焦位置及び合焦位置以外の領域におけるデフォーカス量の分布がデフォーカスマップ画像として表示される。
これにより、撮像画像におけるデフォーカス量の分布を示すデフォーカスマップ画像を表示させた状態でユーザからのフォーカス調整操作又は絞り調整操作が行われる。
これにより、撮像画像(撮像動画)の録画中における撮像画像のデフォーカス量の分布の変化がデフォーカスマップ画像により表示される。
これにより、第1の画像出力を受信した出力機器にはデフォーカスマップ画像が表示されず、第2の画像出力を受信した出力機器にはデフォーカスマップ画像が表示される。
ここでいう出力機器とは、画像処理装置を内蔵する機器であり、例えばデジタルスチルカメラやデジタルビデオカメラなどの撮像装置である。また、出力機器は、画像処理装置を内蔵する機器から出力された画像信号に基づいて画像を表示する表示機器であってもよい。
これにより、ユーザ操作によりデフォーカスマップ画像の表示制御を終了させることなしに、デフォーカスマップ画像の表示制御が終了する。
これにより、ユーザ操作により指定された撮像画像内の領域にデフォーカスマップ画像が表示される。
これにより、撮像画像内容に応じた対象領域にデフォーカスマップ画像が表示される。
これにより、撮像画像内の顔領域にデフォーカスマップ画像が表示される。
これにより、撮像画像内の瞳領域にデフォーカスマップ画像が表示される。
これにより、撮像画像内の各位置におけるデフォーカス量情報が、撮像画像のメタデータとして記録される。
本技術に係る画像処理方法は、位相差検出部により検出した位相差情報から算出される、撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成する手順と、前記生成したデフォーカスマップデータを用いて、撮像画像の各位置にそれぞれの位置におけるデフォーカス量を示す色を付すことにより撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、撮像画像にデフォーカスマップ画像を重畳して表示させる表示制御を行う手順と、出力する外部の出力機器に応じて、デフォーカスマップ画像を表示させずに撮像画像を表示させる第1の画像出力、又はデフォーカスマップ画像の表示を含む撮像画像を表示させる第2の画像出力を行わせる手順と、を含むものである。
本技術に係るプログラムは、このような画像処理方法に相当する処理を情報処理装置に実行させるプログラムである。
<1.画像処理装置として適用できる機器の構成>
<2.撮像装置の構成>
<3.マップ画像の表示態様及び撮像動作制御>
<4.画像処理装置が実行する処理>
<5.まとめ及び変形例>
なお、以下の説明において、同様の内容については同一符号を付し、説明を省略するものとする。
デフォーカスマップデータとは、撮像画像又は撮像画像内の対象領域における各位置のデフォーカス量を示すものである。デフォーカス量とは、撮像画像内の或る位置におけるデフォーカス(ボケ)の状態を定量的に示したもので、例えばデフォーカスサークルの直径に相当する。
デプスマップデータとは、撮像画像又は撮像画像内の対象領域における各位置の被写体距離を示すものである。被写体距離とは、撮像画像内の或る位置からフォーカスレンズまでの距離を示したものである。
デフォーカスマップデータ画像とは、デフォーカスマップデータを用いて生成された撮像画像又は撮像画像内の対象領域におけるデフォーカス量の分布を示す画像である。
デプスマップデータ画像とは、デプスマップデータを用いて生成された撮像画像又は撮像画像内の対象領域における被写体距離の分布を示す画像である。
以下の説明では、デフォーカスマップデータとデプスマップデータをまとめてマップデータと、デフォーカスマップ画像とデプスマップ画像をまとめてマップ画像とも表記する。
以下では、主に撮像装置により本開示に係る画像処理装置が実現される例を説明するが、画像処理装置は、各種の機器において実現できる。
画像処理装置となりうる機器としては、デジタルスチルカメラ1Aやデジタルビデオカメラ1Bなどの撮像装置1、スマートフォンなどの携帯端末2が想定される。
なお、撮像装置1や携帯端末2に限らず、画像処理装置となりうる機器は他にも各種考えられる。
画像ソースとなり得る機器としては、撮像装置1、携帯端末2などが想定される。画像処理装置となる得る機器としては、携帯端末2やパーソナルコンピュータ3などが想定される。
なお、或る携帯端末2やパーソナルコンピュータ3が、画像処理装置として機能する他の携帯端末2やパーソナルコンピュータ3に対する画像ソースとなることもある。
なお、画像処理装置としての携帯端末2やパーソナルコンピュータ3は、上記の画像処理結果によって得られた画像ファイルを有線通信や無線通信を介して画像ソースとしての撮像装置1や携帯端末2に転送し、当該撮像装置1や携帯端末2に撮像画像を表示することもできる。
画像処理装置としての撮像装置1の構成例を図3を参照して説明する。
なお、図2で説明したように、撮像装置1で撮像した画像ファイルを有線通信や無線通信を介して画像処理装置としての携帯端末2やパーソナルコンピュータ3に転送し、当該転送した携帯端末2やパーソナルコンピュータ3で画像処理を行ってもよい。
ドライバ部20は、カメラ制御部18やカメラ信号処理部13からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させる。
像面位相差画素(位相差検出部22)は一対の位相差信号を検出し、撮像素子部12は、像面位相差画素により検出した一対の位相差信号を出力する。当該位相差信号はデフォーカス量を算出するための相関演算に用いられる。
撮像素子部12は、位相差信号をカメラ信号処理部13やカメラ制御部18に出力する。
図4では、イメージセンサ12a(撮像素子)の画素配列の一例として、撮像素子100A、100Bの画素配列の一部がそれぞれ示されている。
撮像素子100Aの撮像面には、2列×2行の画素からなる複数の画素群101が設けられている。画素群101はそれぞれベイヤー配列のカラーフィルタにより覆われており、各画素群101において、Rの分光感度を有する画素101Rが左下の位置に、Gの分光感度を有する画素101Gが左上と右下の位置に、Bの分光感度を有する画素101Bが右上の位置に配置されている。
各画素では、光束がマイクロレンズ104により分離され、フォトダイオード102、103に結像される。そして、フォトダイオード102、103からの信号により撮像信号及び位相差信号が読み出される。
位相差検出画素106が設けられていない領域については、カメラ信号処理部13が機械学習等の画像処理による超解像処理を実行することで、各位置についての位相差を補完する。
同時化処理では、各画素についての画像データが、R,G,B全ての色成分を有するようにする色分離処理を施す。例えば、ベイヤー配列のカラーフィルタを用いた撮像素子の場合は、色分離処理としてデモザイク処理が行われる。
YC生成処理では、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換処理では、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
なおカメラ信号処理部13はカメラ制御部18からの情報等を用いて、画像ファイルに付加するメタデータの生成も行う。
また図3では音声処理系については図示を省略しているが、実際には音声収録系、音声処理系を有し、画像ファイルには動画としての画像データとともに音声データも含まれるようにしてもよい。
記録制御部14の実際の形態は多様に考えられる。例えば記録制御部14は、撮像装置1に内蔵されるフラッシュメモリとその書込/読出回路として構成されてもよいし、撮像装置1に着脱できる記録媒体、例えばメモリカード(可搬型のフラッシュメモリ等)に対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
例えば、カメラ信号処理部13で表示用に解像度変換された撮像画像の画像データが供給され、表示部15はカメラ制御部18の指示に応じて、当該撮像画像の画像データに基づいて表示を行う。これによりスタンバイ中の撮像画像である、いわゆるスルー画(被写体のモニタリング画像)が表示される。
また表示部15は、記録制御部14において記録媒体から読み出された画像データの再生画像を表示させる。
表示部15はカメラ制御部18の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
例えば外部の表示装置、記録装置、再生装置等に対して撮像画像データ(静止画ファイルや動画ファイル)の送信出力を行う。
また出力部16はネットワーク通信部であるとして、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部18へ送られる。
メモリ部19は、カメラ制御部18が処理に用いる情報等を記憶する。図示するメモリ部19としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなど包括的に示している。
メモリ部19はカメラ制御部18としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
カメラ制御部18はメモリ部19のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1の全体を制御する。
例えばカメラ制御部18は、撮像素子部12のシャッタースピードの制御、カメラ信号処理部13における各種信号処理の指示、レンズ情報の取得、ユーザの操作に応じた撮像動作や記録動作、動画記録の開始/終了制御、記録した画像ファイルの再生動作、オートフォーカス(AF)制御とマニュアルフォーカス(MF)制御の切り換え、レンズ鏡筒におけるズーム、フォーカス、絞り調整等のレンズ系11の動作、ユーザインタフェース動作等について、必要各部の動作を制御する。
メモリ部19におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。
以上の撮像装置1は、撮像によって生成した画像ファイルに対して画像処理を行う。
入出力インタフェース45には、キーボード、マウス、タッチパネルなどよりなる入力装置46、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、有機EL(Electroluminescence)パネルなどよりなるディスプレイ、並びにスピーカなどよりなる出力装置47、HDD(Hard Disk Drive)が接続されている。
通信部49は、インターネット等の伝送路を介しての通信処理を行ったり、各種機器との有線/無線通信、バス通信などによる通信を行う。
例えば以下のソフトウエア(アプリケーションプログラム)によって、図6のような機能構成が画像処理装置30において構築される。
即ち、画像処理装置30は、マップデータ生成部31、表示制御部32、対象領域設定部33、動作制御部34、記録制御部35としての機能を備える。
例えば図7のように、マップデータ生成部31は、撮像画像の水平方向をX軸、垂直方向をY軸とすると、撮像画像におけるX軸座標(X1,X2,X3・・・)とY軸座標(Y1,Y2,Y3・・・)により特定される位置のデフォーカス量の値(DF1,DF2,DF3・・・)をデフォーカスマップデータとして生成する。
例えば図8のように、マップデータ生成部31は、撮像画像におけるX軸座標(X1,X2,X3・・・)とY軸座標(Y1,Y2,Y3・・・)により特定される位置の被写体距離の値(DP1,DP2,DP3・・・)をデプスマップデータとして生成する。
表示制御部32は、例えば、撮像画像にデフォーカスマップ画像を重畳させることで、デフォーカスマップ画像が撮像装置1の表示部15に表示される。
表示制御部32は、所定のタイミングに応じて通常の撮像画像についてデフォーカスマップ画像を重畳表示するか否かを切り換える。
なお、表示制御部32は、デフォーカスマップ画像をαブレンディング(α値を掛け合わせることで半透明な画像を重ねる処理)により表示させてもよいし、デフォーカスマップ画像を単独で出力することにより表示させてもよい。
表示制御部32は、所定のタイミングに応じて通常の撮像画像についてデプスマップ画像を重畳表示するか否かを切り換える。
また表示制御部32は、例えば、オートフォーカスモードによるフォーカス制御動作の開始時、オートフォーカスモードでのフォーカス制御動作による合焦時、マニュアルフォーカスモードでのユーザからのフォーカス調整操作又は絞り調整操作の検知時、撮像画像の録画開始時等、他にも様々なタイミングでマップ画像を表示させることができる。
また、表示制御部32は、マップ画像の表示から所定の時間経過後等にマップ画像の表示制御を終了する。
表示制御部32は、デフォーカスマップ画像とデプスマップ画像を互いに切り替える表示制御を行うことも可能である。
対象領域設定部33は、例えば撮像画像内容に応じて対象領域を設定する。
撮像画像内容は、例えば撮像装置1において設定されたモードである。例えば顔検出モードに設定されている場合、対象領域設定部33は画像解析処理により顔領域を検出し、当該検出した顔領域を対象領域として設定する。また瞳検出モードに設定されている場合、対象領域設定部33は画像解析処理により瞳領域を検出し、当該検出した瞳領域を対象領域として設定する。
また対象領域設定部33は、例えばユーザ操作により指定された撮像画像内の領域を対象領域として設定することができる。
なお、動作制御部34は撮像動作制御にあたり、デフォーカスマップデータを用いずに取得した位相差信号に基づいて撮像動作制御を行うこととしてもよい。
また、画像処理装置30の各機能は複数の画像処理装置30により実現されてもよい。例えば、カメラ信号処理部13に内蔵された画像処理装置30がマップデータ生成部31、対象領域設定部33、記録制御部35の機能を有し、カメラ制御部18に内蔵された画像処理装置30が表示制御部32、動作制御部34の機能を有することとしてもよい。
本技術におけるマップ画像の表示態様及び撮像動作制御の一例について、図9から図17を参照して説明する。
図9から図11は、撮像画像全体が対象領域として設定されたマップ画像の表示態様の例である。
デフォーカスマップ画像61は撮像画像60に重畳表示されており、例えば、撮像画像の各位置のデフォーカス量に応じて色分けを行い、ヒートマップのように表示させる。これにより、撮像画像全体の各位置のデフォーカス量を視覚的に認識することができる。なお、図10では、色分けを模式的に点描で表し、点描の密度の差を色の差として示している。デフォーカスマップ画像61は、デフォーカスマップデータを用いて画像処理装置30により生成される。
例えば図10では、被写体63は合焦状態となっており、被写体63の前方に位置する被写体64は合焦度の低下により前ボケ状態になっており、被写体63の後方に位置する被写体65は合焦度の低下により後ボケ状態になっていることが視覚的に確認できる。
デプスマップ画像66は撮像画像60に重畳表示されており、撮像画像60の各位置の被写体距離に応じて色分けされている。なお、図11では、被写体距離の違いを模式的に点描で表し、点描の密度の差を被写体距離の違いとして示している。デプスマップ画像66は、デプスマップデータを用いて画像処理装置30により生成される。
例えば図11では、被写体63よりも被写体65が後方に位置し、被写体63よりも被写体64が前方に位置することが視覚的に認識できる。これにより、例えば撮像画像全体における各被写体の被写体距離を考慮した被写界深度の調整が可能となる。
また、所定の被写体距離の範囲に該当する領域のみを対象領域として、デプスマップ画像として表示することもできる。これにより、所定の被写体距離の領域を視覚的に容易に確認することができる。
デフォーカス量の範囲及び被写体距離の範囲は、あらかじめ設定されていてもよいし、ユーザ操作により適宜設定されてもよい。
図12及び図13は、撮像画像内から検出された対象領域に応じて合焦位置が自動的に調整される例を示している。
図12Bでは、撮像画像60内の被写体71の顔領域72を検出し、検出した顔領域72を合焦位置から微小にずらす撮像動作制御が行われる。これにより、被写体71の顔領域72に僅かにボケが生じ、顔領域72の目尻、頬、顎などのしわを目立たなくさせることができる。
合焦位置からのずらし量は、検出した顔領域72の属性、即ち、顔領域72の大きさ、数、位置、年齢、性別等に応じてそれぞれ設定することができる。合焦位置からのずらし量はあらかじめ設定されていてもよいし、ユーザ操作により設定されてもよい。
上記の撮像動作制御は、撮像画像60で顔領域72が検出されると自動的に行われる。
図12Cは顔領域72が合焦位置となる場合のデフォーカスマップ画像73を示しており、図12Dは顔領域72を合焦位置から微小にずらす撮像動作制御が行われた後のデフォーカスマップ画像73を示している。
これにより、顔領域72におけるデフォーカス量の変化を視覚的に認識することができる。
瞳領域81における被写界深度の調節量は、例えば検出した瞳領域の大きさ、位置、年齢、性別等の情報に応じてあらかじめ設定されていてもよいし、ユーザ操作により設定されてもよい。
上記の例によれば、睫毛と瞳のボケ味のバランスを面で捉えて最適な被写界深度となるようにF値を自動制御することができる。
デフォーカス量表示アイコンは、例えば環状や四角状の枠、ボケ量を意味するバー等、様々な記号により表示することができる。
円環状アイコンBC1、BC2、BC3、BC4は、撮像画像60の各位置におけるデフォーカス量に応じて、それぞれ異なる径で表示されている。例えば円環状アイコンBCの径はデフォーカス量の絶対値とされ、円環状アイコンBCの径が大きくなるにしたがって、ボケ具合が大きくなるように表示される。
このような表示態様は、例えば被写体の瞳領域といったように比較的狭い対象領域における複数位置のデフォーカス量の分布を表示する際に有用である。
例えばピンチアウト操作により円環状アイコンBCの径を大きくすることで、フォーカスレンズや絞り機構の動作が制御され、円環状アイコンBCに対応する位置のデフォーカス量が大きくなる。また、ピンチイン操作により円環状アイコンBCの径を小さくすることで、フォーカスレンズや絞り機構の動作が制御され、円環状アイコンBCに対応する位置のデフォーカス量が小さくなる。
例えば、ユーザがタッチパネルをタッチすることにより撮像画像60内の領域91を選択すると、領域91のデフォーカス量がデフォーカスメーター62において矢印DFにより指し示される。
これにより、ユーザは撮像画像内の或る位置のデフォーカス量を確認したうえで、所望のデフォーカス量(ボケ具合)となるように調整を直感的に行うことができる。
さらに、図14Bの撮像画像60全体のデフォーカス量の分布を、図10に示すように色分けして表示してもよい。これにより、ユーザが矢印DFを操作する際に、他の領域のデフォーカス量を考慮することができる。
円環状アイコン群92、93は、それぞれの位置のデフォーカス量に応じて異なる大きさで表示されている。図15では被写体94の顔領域にはボケが生じておらず(合焦位置)、被写体95の顔領域にはボケが生じている状態である。
アイコン群93の円環状アイコンの径が小さくなると、相対的にアイコン群92円環状アイコンの径が大きくなり、アイコン群92に対応する被写体94の顔領域が合焦位置からずれるため、当該領域のデフォーカス量が大きくなる(ボケ具合が大きくなる)。
絞り機構の動作によりF値を制御し、被写界深度を深くすることで被写体94、95の両方を合焦状態とすることもできる。この場合、図17に示すように、円環状アイコン群92、93の円環状アイコンの径は同じ大きさとして表示される。
本技術におけるマップ画像の表示制御及び撮像動作制御を実現するために行われる画像処理装置の処理を、図18から図25を参照して説明する。
第1の実施の形態は、画像処理装置30がマップ画像の表示制御を実現するための処理であり、マップ画像がマニュアルフォーカスモード中に表示される例である。
フレーム情報とは、例えば現在の1フレームの画像データ、位相差信号に基づいて生成された各種マップデータのことである。ここでいう1フレームの画像データとは、カメラ信号処理部13で表示用に処理される画像データである。
画像処理装置30は、ステップS201でユーザによる対象領域の選択操作があるか、ステップS202で撮像装置1が顔認識モードに設定されているか、ステップS203で撮像装置1が瞳認識モードにも設定されているかを確認する。画像処理装置30は、上記の何れかにも該当しない場合は、ステップS201、S202、S203、S204の順に処理を進める。
そして画像処理装置30は、ステップS204において、撮像画像を対象領域として設定し、図19の処理を終える。これにより、撮像画像の全体が対象領域として設定される。
なお、ユーザ操作により選択された選択領域とは、あらかじめユーザにより設定された選択領域であってもよい。例えば、所定のデフォーカス量や被写体距離を設定しておき、画像処理装置30はステップS205において、所定のデフォーカス量や被写体距離に該当する領域を対象領域として設定することもできる。この場合、撮像画像におけるデフォーカス量や被写体距離は、前フレームにおいて生成された情報を用いればよい。
画像処理装置30は、ステップS206で顔領域が検出された場合、ステップS207、S208の順に処理を進め、顔領域を対象領域として設定し、図19の処理を終える。
また、ステップS206で顔領域が検出されなかった場合、画像処理装置30は、ステップS207、S204の順に処理を進め、撮像画像全体を対象領域として設定し、図19の処理を終える。
画像処理装置30は、ステップS209で瞳領域が検出された場合、ステップS210、S211の順に処理を進め、瞳領域を対象領域として設定し、図19の処理を終える。
また、ステップS210で顔領域が検出されなかった場合、画像処理装置30はステップS210、S204の順に処理を進め、撮像画像全体を対象領域として設定し、図19の処理を終える。
以上の処理により、マップデータを生成する対象領域が設定される。
画像処理装置30は、例えば、デフォーカスマップデータ画像又はデプスマップ画像の何れかを表示するモードであるかを判定し、そのモードに応じてどちらのマップデータを生成するかを判定する。
また、例えば画像処理装置30は、絞り機構の動作を制御するためのユーザ操作を検知したときは、デプスマップデータを生成することを設定するといったように、ユーザの操作状態に応じてどちらのマップデータを生成するかを判定することもできる。
画像処理装置30は、対象領域についてステップS102で取得した位相差信号を用いてデフォーカスについての相関演算を行うことで、図7に示すような対象領域内の各位置におけるデフォーカス量を示すデフォーカスマップデータを生成する。
また、画像処理装置30は、生成したデフォーカスマップデータにおけるデフォーカス情報とレンズ情報に基づいて被写体距離を算出することで、図8に示すような対象領域内の各位置における被写体距離を示すデプスマップデータを生成する。
なお、画像処理装置30は、ステップS104において、表示する何れかのマップデータを生成するのみならず、他方マップデータの両方を生成するとしてもよい。これにより、後述するステップS112において、デフォーカスマップデータとデプスマップデータの両方を記録することができる。
例えば、図10、図11で示したような、デフォーカス量や被写体距離の分布に応じて色分けされたマップ画像を生成する。またデフォーカスマップ画像であれば、図14に示すような各位置のデフォーカス量がデフォーカス量表示アイコンにより表示されたデフォーカスマップ画像を生成してもよい。
また、撮像装置1がマニュアルフォーカスモードに設定されている場合、画像処理装置30は、ステップS108においてマップ画像の表示タイミングであると判定し、ステップS110に処理を進め、マップ画像を撮像画像に重畳表示させる。
ここでのユーザ操作とは、マップ画像の表示のオン/オフを切り換えるための操作のことであり、例えば、マップ画像の表示を切り換えるためのボタンを設け、当該ボタンのオン/オフ操作をユーザ操作とすることが考えられる。
なお、ユーザ操作には、撮像装置のシャッターボタンの半押し/深押し操作、撮像画像の録画開始/終了操作等、様々な操作が考えられる。例えば、撮像装置のシャッターボタンの半押し/深押し操作の場合は、半押し操作をマップ画像の表示をオンとする操作とし、深押し操作をマップ画像の表示をオフとする操作とすることができる。また撮像画像の録画開始/終了操作の場合は、録画開始操作をマップ画像の表示をオンとする操作とし、録画終了操作をマップ画像の表示をオフとする操作とすることができる。このように様々な操作について、マップ画像表示のオン/オフの切り換える操作を割り当てることが可能である。
また画像処理装置30は、ステップS107において、マップ画像の表示をオフとするユーザ操作を検知すると、ステップS108においてマップ画像の表示タイミングではないと判定し、ステップS109に処理を進め、マップ画像を撮像画像に重畳表示させることなく、撮像画像のみを表示する。
ステップS101においてシャッター操作を検知すると、画像処理装置30はステップS111に処理を進め、撮像信号や位相差信号等のフレーム情報を取得する。またこのとき画像処理装置30は、生成したマップデータがある場合は、当該マップデータも取得する。
これにより、撮像画像内の各位置におけるデフォーカス量情報が、撮像画像のメタデータとして記録される。
画像処理装置30は、ステップS112の処理の後ステップS101に戻り、上記と同様の処理を行う。
その場合、画像処理装置30は、ステップS102の後にステップS107、S108の順に処理を行い、ステップS108において判定フラグがOFFの場合は、ステップS109に処理を進めることとしてもよい。
これにより、マップ画像を表示する必要のない場合、画像処理装置30は、ステップS103からS106の処理、即ち、マップデータの生成を行うことなく、ステップS109で撮像画像の表示を行うことができる。この場合、画像処理装置30は、ステップS108においてステップS103からステップS306でマップ画像を生成した上で、ステップS110で、撮像画像にマップ画像を重畳表示させる。
また、撮像装置1が顔認証モードにある場合は、マップ画像の表示タイミングにおいて、図12C、図12Dに示すように、検出された顔領域(対象領域)にマップ画像が表示される。同様に、撮像装置1が瞳認証モードにある場合は、図13C、図13Dに示すように、検出された瞳領域(対象領域)の各部分におけるマップ画像が表示される。
従って、ユーザは、撮像画面60の対象領域における各位置のデフォーカス量や被写体距離を視覚的、直感的に認識することができる。また、ユーザは、各位置のデフォーカス量や被写体距離を考慮しつつ、マニュアル操作により、フォーカス制御やF値制御を行うことができる。
第2の実施の形態は、画像処理装置30がマップ画像の表示制御を実現するための処理であり、マップ画像がオートフォーカスモードやマニュアルフォーカスモードにおける所定のタイミングで表示される例である。また、第2の実施の形態では、画像処理装置30がマップ画像を表示させてから所定の時間が経過すると、マップ画像の表示を終了する。
第2の実施の形態におけるタイミング判定処理の詳細を図21を参照して説明する。
マニュアルフォーカスモードに設定されている場合、画像処理装置30は、ステップS314においてフォーカス調整操作を検知したか否かを判定し、ステップS315において絞り調整操作が検知されたか否かを判定する。
フォーカス調整操作と絞り調整操作の何れも検知されなかった場合、画像処理装置30はステップS316に処理を進める。
オートフォーカスモードに設定されている場合、画像処理装置30は、ステップS320においてフォーカス制御動作が開始されたか否かを判定し、ステップS321においてフォーカス制御動作による合焦が完了したか否かを判定する。
フォーカス制御動作が開始されておらず、フォーカス制御動作による合焦が完了していない場合、画像処理装置30は図21の処理を終える。
ここではまだタイマカウントが開始されていないため、像処理装置30は、ステップS317からステップS318に処理を進め、判定フラグをONとし、図21の処理を終える。
判定フラグとは、マップ画像を表示するタイミングであるか否かを示すフラグであり、判定フラグがONであることは、マップ画像を撮像画像に重畳表示するタイミングであることを示している。
そして画像処理装置30は、ステップS120において、タイマカウント中であるか否かを判定する。
タイマカウント中でない場合は、新たにマップ画像の重畳表示が開始されたことを意味するため、画像処理装置30は、ステップS121においてタイマをリセットし、新たにタイマカウントをスタートさせる。
ここでタイマは、5秒、30秒、1分など様々に設定することが考えられる。また、検知されたタイマカウントの開始契機に応じて、それぞれ異なるタイマを設定してもよい。例えば、マニュアルフォーカスモードにおいて、フォーカス調整操作又は絞り調整操作の何れかを検知したときは、タイマを3秒に設定し、オートフォーカスモードにおいて、フォーカス制御動作による合焦の完了からタイマを1分に設定してもよい。
判定フラグがONかつタイマカウント中の場合、即ち、マップ画像の重畳表示にマニュアルフォーカスモードとオートフォーカスモードの切り換えが行われると、画像処理装置30は、図21のイミング判定処理においてステップS310からステップS311に処理を進め、タイマカウントを終了し、ステップS312で判定フラグをOFFに設定し、ステップS313に処理を進める。
これにより、ステップS314、S315、S320、S321の何れかの契機を検知しなかった場合は、画像処理装置30は、図20のステップS108においてステップS109に処理を進め、撮像画像におけるマップ画像の重畳表示を終了し、撮像画像のみを表示させる。
具体的には、画像処理装置30は、ステップS314、S315、S320、S321の何れかの契機を検知するとステップS317、S319の順に処理を進め、タイマカウントを終了する。そして、画像処理装置30は、S318、図20のS108、S110、S120、S121の順に処理を進め、タイマカウントのリセット/スタートを行う。
即ち、マニュアルフォーカスモードにおけるフォーカス調整操作又は絞り調整操作を検知したタイミング、オートフォーカスモードにおけるフォーカス制御動作の開始やフォーカス制御動作による合焦の完了を検知したタイミングにおいて、図10、図11、図12C、図12D、図13C、図13D等に示すようなマップ画像が撮像画像の対象領域に重畳表示される。
第3の実施の形態は、画像処理装置30がマップ画像の表示制御を実現するための処理であり、マップ画像が撮像動画の記録中に表示されるとともに、画像処理装置30が画像データを出力する出力機器に応じて異なる表示制御を行う例である。
出力機器とは、画像処理装置を内蔵する機器であり、例えばデジタルスチルカメラやデジタルビデオカメラなどの撮像装置である。また、出力機器は、画像処理装置を内蔵する機器から出力された画像信号に基づいて画像を表示する外部の表示機器であってもよい。
そして画像処理装置30は、ステップS103において、図19の対象領域設定処理を行い、撮像画像内の対象領域を設定する。
ここで、図23でタイミング判定処理について説明する。
画像処理装置30は、ステップS301において、撮像装置1が撮像画像(撮像動画)の録画中であるかを判定する。撮像装置1が撮像画像の録画中には、画像処理装置30は、ステップS302で判定フラグをONにし、図23の処理を終える。
またステップS108において判定フラグがONの場合、画像処理装置30は、ステップS130に処理を進める。
これにより、第1の画像出力を受信した、例えば撮像装置1に接続された外部の表示機器において撮像画像のみの表示を行うことができる。
これにより、第2の画像出力を受信した、例えば撮像装置1の表示部においてマップ画像を確認することができる。
例えば映画の撮像などを行う際に、撮像装置1による撮像を行っているフォーカスマンにとっては、撮像画像へのマップ画像の重畳表示は、フォーカスや絞り機構を調節するために有用であるが、一方で、撮像装置1に接続された外部モニタ等で撮像画像を確認する監督等にとっては、マップ画像が却って撮像画像の確認の妨げになることもある。
そこで第3の実施の形態の例によれば、内容の異なる複数の画像出力を行うことで、出力機器ごとに異なる表示制御を行うことができる。
第4の実施の形態は、マップデータを用いた撮像画像の撮像動作制御を実現するための画像処理装置30による処理である。
画像処理装置30は、ステップS104で生成マップ種別の判定を行い、ステップS105で判定したマップ種別に応じたマップデータを生成する。
ここで、対象領域設定処理の詳細について、図25を参照して説明する。
画像処理装置30は、ステップS401でデフォーカス量表示アイコンに対するユーザ操作を検知したか、ステップS404で顔検出モードであるか、ステップS405で瞳検出モードであるかを順に判定する。
ステップS401、S404、S407の何れにも該当しない場合、画像処理装置30は撮像動作制御を行うことなく図25の処理を終える。
デフォーカス量表示アイコンに対するユーザ操作とは、例えば図14Aのように円環状アイコンBCの径を変化させるためのピンチイン又はピンチアウト操作である。または図14Bのようなデフォーカスメーター62に設けられた矢印DFを上下方向にスライドさせる操作である。
撮像動作制御が終わると、画像処理装置30は、ステップS403において、動作後のフォーカスレンズの位置や絞り機構の状態から取得される位相差情報や撮像信号を用いて、再度デフォーカス量を算出し、デフォーカスマップデータを生成する。
画像処理装置30は、生成したデフォーカスマップデータからデフォーカスマップ画像を生成し、デフォーカスマップデータとレンズ情報からデプスマップデータを生成する。そして、画像処理装置30は図25の処理を終了する。
属性情報は、対象領域の面積、撮像画像内に占める対象領域の比率、撮像画像内における対象領域の位置などの対象領域自体に紐付けられた属性に関する情報、被写体の位置、人数、年齢、性別、顔領域の大きさなど対象領域における被写体に紐付けられた属性等、様々な情報が想定される。
固定値は、対象領域の属性情報に応じてあらかじめ設定された値であってもよいし、ユーザにより各位置の値が設定されてもよい。また、固定値は、対象領域の各位置におけるデフォーカス量の数値で設定されていてもよいし、対象領域の各位置におけるデフォーカス量の補正比率であってもよい。
これにより、対象領域の合焦位置からのずらし量(デフォーカス量)が調整される。例えば、性別、年齢によって顔領域のデフォーカス量の絶対値を大きくすることで、図13に示すように、顔のしわ等をぼかして表示することができる。
対象領域の各部分とは、例えば、瞳領域であれば睫毛部分とそれ以外の部分、顔領域であれば目部分、鼻部分、耳部分、口部分等、対象領域の属性に応じて設定される。
画像処理装置30は、ステップS107において、例えば上述のようなマップ画像の表示タイミングを判定するタイミング判定処理を実行し、表示タイミングであれば判定フラグをONとし、表示タイミングでなければ判定フラグをOFFとする。
またステップS108において判定フラグがONの場合、画像処理装置30は、ステップS110に処理を進め、マップ画像を撮像画像に重畳表示させる。
ステップS101においてシャッター操作を検知すると、画像処理装置30はステップS111に処理を進め、撮像信号や位相差信号等のフレーム情報を取得する。またこのとき画像処理装置30は、生成したマップデータがある場合は、当該マップデータも取得する。
図25のステップS401、S402の処理を行うことで、図15、図16のように、ユーザが選択した任意の領域について、アイコン群の円環状アイコンの径を変化させることにより、デフォーカス量を調節することができるようになる。
また、ステップS404、S405、S406の処理を行うことで、図12に示すような、顔領域におけるデフォーカス量の調節が自動的に行われるようになる。さらに、ステップS407、S408、S409の処理を行うことで、図13に示すような、瞳領域における睫毛部分のデフォーカス量の調節が自動的に行われるようになる。
実施の形態の撮像装置1に搭載された画像処理装置30は、撮像素子部12における像面位相差画素(位相差検出部22)により検出した位相差情報から算出される、撮像素子部12による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成するマップデータ生成部31と、マップデータ生成部31が生成したデフォーカスマップデータを用いて、撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、表示制御を行う表示制御部32と、を備える(図18)。
これにより、撮像画像の複数位置におけるデフォーカス量の分布がデフォーカスマップ画像として表示される。
従って、ユーザは、合焦位置といった点位置でなく、撮像画像の複数位置という面領域としてデフォーカス量の分布を認識することが可能となる。即ち、ユーザは、撮像画像の全体についてのデフォーカス量の分布を知ることができるため、撮像画像の各位置におけるデフォーカス量の調整を行う際に、他の領域のデフォーカス量を考慮しながら調整することができる。
これにより、撮像画像の対象領域内における複数位置のデフォーカス量の分布がデフォーカスマップ画像として表示される。
例えば撮像にあたり、被写体の顔をボケさせたい場合、ユーザが知りたいのは被写体の顔領域における各位置のデフォーカス量の分布である。そこで、ユーザの目的に応じて様々な対象領域を選択し、当該選択した対象領域についてのデフォーカス量の分布を表示させることで、ユーザの意図を反映させたポイントを絞った表示を行うことができる。
また、撮像画像の全体についてデフォーカスマップ画像を表示する必要がないため、画像処理装置30のデフォーカスマップデータ及びデフォーカスマップ画像を生成する処理負担を軽減することができる。
なお、画像処理装置30が、撮像画像内で設定された対象領域内の複数位置のデプスマップデータを生成し、対象領域についてのデプスマップ画像を生成する際にも上記と同様の効果が生じ得る。
これにより、撮像画像における被写体距離の分布がデプスマップ画像として表示される。また、デプスマップ画像とデフォーカスマップ画像が切り換え可能に表示される。
従って、ユーザは、撮像画像という面領域における各位置の被写体距離をデプスマップ画像により認識することができる。よって、ユーザは、撮像画像全体の被写体距離を考慮したうえで、被写界深度の深さを調節することができる。
また、デプスマップ画像とデフォーカスマップ画像が切り換え可能であることで、撮像画像の被写体距離を考慮した被写体深度の調整を行うときはデプスマップ画像を表示させ、撮像画像の各位置のデフォーカス量を考慮したフォーカス制御の調整を行うときはデフォーカスマップ画像を表示させるといったように、目的に応じてマップ画像の表示態様を選択することができる。
これにより、撮像画像の各位置のデフォーカス量の値の違いがデフォーカスマップ画像における色の違いとして表示される。
従って、撮像画像(対象領域)の各位置のデフォーカス量の値の違いを色で表示することで、撮像画像(対象領域)におけるデフォーカス量の分布を視覚的、直感的に容易に捉えることができるようになる。
また、撮像画像(対象領域)における或る位置のデフォーカス量を変更した際にも、当該位置の色の変化を確認することで、画像が合焦位置に向かって変化しているのか、それとも前ボケ又は後ボケへ変化しているのかを視覚的に容易に認識することができる。
よって、当該色の表示に基づいて、撮像画面での被写体のボケを直感的に容易に調整することができる。
これにより、デフォーカスマップ画像における各デフォーカス量表示アイコンの表示態様から、各デフォーカス量表示アイコンに対応する位置のデフォーカス量の分布が表示される。
従って、撮像画像(対象領域)の各位置のデフォーカス量の値の違いをデフォーカス量表示アイコンの表示態様の違いで表示することで、撮像画像(対象領域)におけるデフォーカス量の分布を視覚的、直感的に容易に捉えることができるようになる。
これにより、図14Bのようなデフォーカス量に応じて径の異なる円環状アイコンBCが表示される。デフォーカス量に応じて径が変わるため、円環状アイコンBCの大きさによりデフォーカス量を直感的に認識することができる。
これにより、フォーカス制御動作に応じて変動した各位置のデフォーカス量に基づいてデフォーカスマップデータが生成され、当該生成されたデフォーカスマップデータを用いたデフォーカスマップ画像が表示される。従って、フォーカス制御中のデフォーカスマップ画像の変化を確認することができる。
これにより、合焦位置及び合焦位置以外の領域におけるデフォーカス量の分布がデフォーカスマップ画像として表示される。
よって、合焦状態における撮像画像のデフォーカス量の分布を視覚的に容易に確認することができる。また、オートフォーカスモードによるフォーカス制御動作により被写体に対して合焦状態とした後に、マニュアル操作により被写体における合焦位置を僅かにずらそうとする場合であっても、合焦状態における撮像画像の全体又は一部領域のデフォーカス量の分布を考慮した繊細なデフォーカス量の調整操作を行うことができる。
これにより、撮像画像におけるデフォーカス量の分布を示すデフォーカスマップ画像を表示させた状態でユーザからのフォーカス調整操作又は絞り調整操作が行われる。
従って、ユーザは、撮像画像の各位置におけるデフォーカス量の変化を直感的に確認しながらフォーカス調整操作又は絞り調整操作を行うことができるため、対象領域のデフォーカス量の分布を考慮した繊細なデフォーカス量の調整操作を行うことができる。
これにより、撮像画像(撮像動画)の録画中における撮像画像のデフォーカス量の分布の変化がデフォーカスマップ画像により表示される。
従って、ユーザは、対象領域全体のデフォーカス量の分布を考慮しながら撮像動画の録画を行うことができる。これにより、撮像動画の録画中においても対象領域のデフォーカス量の分布を考慮した繊細なデフォーカス量の調整操作を行うことができる。
これにより、第1の画像出力を受信した出力機器にはデフォーカスマップ画像が表示されず、第2の画像出力を受信した出力機器にはデフォーカスマップ画像が表示される。
例えば映画の撮像などを行う際に、画像処理装置30が搭載された撮像装置1により撮像を行っているフォーカスマンにとっては、撮像画像へのマップ画像の重畳表示は、フォーカスや絞り機構を調節するために有用であるが、一方で、撮像装置1に接続された外部モニタ等で撮像画像を確認する監督等にとっては、マップ画像が却って撮像画像の確認の妨げになることもある。そこで、内容の異なる複数の画像出力を行うことで、ユーザの目的が異なる出力機器ごとに異なる表示制御を行うことができる。
これにより、ユーザ操作によりデフォーカスマップ画像の表示制御を終了させることなしに、デフォーカスマップ画像の表示制御が終了する。
従って、ユーザがデフォーカスマップ画像の閲覧をしているときに必要以上に長い間デフォーカスマップ画像が表示されることがなくなるため、快適にデフォーカスマップ画像から撮像画像への切り換えを行うことができる。
また、例えば、マニュアルフォーカスモードにおいて、フォーカス調整操作又は絞り調整操作の何れかを検知したときは、表示時間を30秒に設定し、オートフォーカスモードにおいて、フォーカス制御動作による合焦の完了からタイマを1分と設定する等、デフォーカスマップ画像を表示する契機ごとに適した表示時間を設定することで、より快適にデフォーカスマップ画像から撮像画像への切り換えを行うことができる。
これにより、ユーザ操作により指定された撮像画像内の領域にデフォーカスマップ画像が表示される。従って、ユーザがデフォーカス量の分布を確認したい対象領域について、容易にデフォーカスマップ画像を表示させることができる。
これにより、撮像画像内容に応じた対象領域にデフォーカスマップ画像が表示される。従って、ユーザの目的に応じた対象領域についてのデフォーカス量の分布を表示させることで、ユーザの目的を反映させたポイントを絞った表示を行うことができる。
これにより、撮像画像内の顔領域にデフォーカスマップ画像が表示される。顔領域におけるしわ、シミ等が比較的目立つような場合に、顔領域から合焦位置を僅かにずらすことで顔領域をぼかすことができるが、このときにどのくらいボケさせたのかを視覚的に確認できることはユーザにとって有用である。
これにより、撮像画像内の瞳領域にデフォーカスマップ画像が表示される。瞳領域における睫毛部分とその他の領域のデフォーカス量の違いをデフォーカスマップ画像により視覚的に容易に確認することができる。
これにより、撮像画像内の各位置におけるデフォーカス量情報が、撮像画像のメタデータとして記録される。従って、ユーザが撮像した撮像画像を後で閲覧する際にも、当該撮像画像にデフォーカスマップ画像を重畳表示させることができる。
即ち実施の形態のプログラムは、位相差検出部により検出した位相差情報から算出される、撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成するマップデータ生成機能と、前記マップデータ生成機能により生成したデフォーカスマップデータを用いて、撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、表示制御を行う表示制御機能と、を画像処理装置に実行させるプログラムである。このようなプログラムにより、上述した画像処理装置30を、例えば携帯端末2,パーソナルコンピュータ3、或いは撮像装置1などの機器において実現できる。
あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magnet optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
(1)
位相差検出部により検出した位相差情報から算出される、撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成するマップデータ生成部と、
前記マップデータ生成部が生成したデフォーカスマップデータを用いて、撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、表示制御を行う表示制御部と、を備えた
画像処理装置。
(2)
前記位相差検出部は、前記撮像素子部における像面位相差画素により前記位相差情報を検出する
(1)に記載の画像処理装置。
(3)
前記マップデータ生成部は、撮像画像内で設定された対象領域内の複数位置のデフォーカスマップデータを生成し、
前記表示制御部は、前記対象領域についてのデフォーカスマップ画像を生成する
(1)又は(2)に記載の画像処理装置。
(4)
前記マップデータ生成部は、算出したデフォーカス量に基づいて前記撮像素子部による撮像画像の複数位置における被写体距離を算出し、前記算出した前記被写体距離を示すデプスマップデータを生成し、
前記表示制御部は、前記マップデータ生成部が生成したデプスマップデータを用いて、撮像画像における前記被写体距離の分布を示すデプスマップ画像を生成し、表示制御を行う
(1)から(3)の何れかに記載の画像処理装置。
(5)
前記表示制御部は、撮像画像の各位置のデフォーカス量に応じた色が付されたデフォーカスマップ画像を生成する
(1)から(4)の何れかに記載の画像処理装置。
(6)
前記表示制御部は、デフォーカス量に応じて表示態様の異なるデフォーカス量表示アイコンを用いたデフォーカスマップ画像を生成する
(1)から(5)の何れかに記載の画像処理装置。
(7)
前記デフォーカス量表示アイコンは円環状に形成され、デフォーカス量に応じて前記デフォーカス量表示アイコンの径を変化させる
(6)に記載の画像処理装置。
(8)
前記表示制御部は、オートフォーカスモードによるフォーカス制御動作により合焦状態とされたことに応じてデフォーカスマップ画像を表示させる制御を行う
(1)から(7)の何れかに記載の画像処理装置。
(9)
前記表示制御部は、マニュアルフォーカスモードによるユーザからのフォーカス調整操作又は絞り調整操作の検知に応じてデフォーカスマップ画像を表示させる制御を行う
(1)から(8)の何れかに記載の画像処理装置。
(10)
前記表示制御部は、撮像画像の録画が開始されることに応じてデフォーカスマップ画像を表示させる制御を行う
(1)から(9)の何れかに記載の画像処理装置。
(11)
デフォーカスマップ画像を表示させずに撮像画像を表示させる第1の画像出力と、デフォーカスマップ画像の表示を含む撮像画像を表示させる第2の画像出力と、が行われる
(1)から(10)の何れかに記載の画像処理装置。
(12)
前記表示制御部は、デフォーカスマップ画像の表示制御を開始してから所定時間が経過すると、デフォーカスマップ画像の表示制御を終了する
(1)から(11)の何れかに記載の画像処理装置。
(13)
ユーザ操作により指定された撮像画像内の領域を前記対象領域として設定する対象領域設定部を有する
(3)から(12)の何れかに記載の画像処理装置。
(14)
撮像画像内容に応じて前記対象領域を設定する対象領域設定部を有する
(3)から(12)の何れかに記載の画像処理装置。
(15)
前記対象領域設定部は撮像画像内で検出された顔領域を前記対象領域として設定する
(14)に記載の画像処理装置。
(16)
前記対象領域設定部は撮像画像内で検出された瞳領域を前記対象領域として設定する
(14)に記載の画像処理装置。
(17)
前記マップデータ生成部が生成したデフォーカスマップデータを、撮像画像に対する付加情報として記録する記録制御部を備えた
(1)から(16)の何れかに記載の画像処理装置。
(18)
前記表示制御部は、オートフォーカスモードによるフォーカス制御動作が開始されることに応じてデフォーカスマップ画像を表示させる制御を行う
(1)から(17)の何れかに記載の画像処理装置。
(19)
位相差検出部により検出した位相差情報から算出される、撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成し、
前記生成したデフォーカスマップデータを用いて、撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、表示制御を行う
画像処理方法。
(20)
位相差検出部により検出した位相差情報から算出される、撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成するマップデータ生成機能と、
前記マップデータ生成機能により生成したデフォーカスマップデータを用いて、撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、表示制御を行う表示制御機能と、を画像処理装置に実行させる
プログラム。
(21)
画像撮像を行う撮像素子部と、
位相差検出部により検出した位相差情報から算出される、前記撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成するマップデータ生成部と、
前記マップデータ生成部が生成したデフォーカスマップデータを用いて、撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、表示制御を行う表示制御部と、を備えた
撮像装置。
Claims (18)
- 位相差検出部により検出した位相差情報から算出される、撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成するマップデータ生成部と、
前記マップデータ生成部が生成したデフォーカスマップデータを用いて、撮像画像の各位置にそれぞれの位置におけるデフォーカス量を示す色を付すことにより撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、撮像画像にデフォーカスマップ画像を重畳して表示させる表示制御を行う表示制御部と、を備え、
出力する外部の出力機器に応じて、デフォーカスマップ画像を表示させずに撮像画像を表示させる第1の画像出力、又はデフォーカスマップ画像の表示を含む撮像画像を表示させる第2の画像出力が行われる
画像処理装置。 - 前記位相差検出部は、前記撮像素子部における像面位相差画素により前記位相差情報を検出する
請求項1に記載の画像処理装置。 - 前記マップデータ生成部は、撮像画像内で設定された対象領域内の複数位置のデフォーカスマップデータを生成し、
前記表示制御部は、前記対象領域についてのデフォーカスマップ画像を生成する
請求項1に記載の画像処理装置。 - 前記マップデータ生成部は、算出したデフォーカス量に基づいて前記撮像素子部による撮像画像の複数位置における被写体距離を算出し、前記算出した前記被写体距離を示すデプスマップデータを生成し、
前記表示制御部は、前記マップデータ生成部が生成したデプスマップデータを用いて、撮像画像の各位置にそれぞれの位置における前記被写体距離を示す色を付すことにより撮像画像の前記被写体距離の分布を示すデプスマップ画像を生成し、撮像画像にデプスマップ画像を重畳して表示させる表示制御を行う
請求項1に記載の画像処理装置。 - 前記表示制御部は、デフォーカス量に応じて表示態様の異なるデフォーカス量表示アイコンを用いたデフォーカスマップ画像を生成する
請求項1に記載の画像処理装置。 - 前記デフォーカス量表示アイコンは円環状に形成され、デフォーカス量に応じて前記デフォーカス量表示アイコンの径を変化させる
請求項5に記載の画像処理装置。 - 前記表示制御部は、オートフォーカスモードによるフォーカス制御動作により合焦状態とされたことに応じてデフォーカスマップ画像を表示させる制御を行う
請求項1に記載の画像処理装置。 - 前記表示制御部は、マニュアルフォーカスモードによるユーザからのフォーカス調整操作又は絞り調整操作の検知に応じてデフォーカスマップ画像を表示させる制御を行う
請求項1に記載の画像処理装置。 - 前記表示制御部は、撮像画像の録画が開始されることに応じてデフォーカスマップ画像を表示させる制御を行う
請求項1に記載の画像処理装置。 - 前記表示制御部は、デフォーカスマップ画像の表示制御を開始してから所定時間が経過すると、デフォーカスマップ画像の表示制御を終了する
請求項1に記載の画像処理装置。 - ユーザ操作により指定された撮像画像内の領域を前記対象領域として設定する対象領域設定部を有する
請求項3に記載の画像処理装置。 - 撮像画像内容に応じて前記対象領域を設定する対象領域設定部を有する
請求項3に記載の画像処理装置。 - 前記対象領域設定部は撮像画像内で検出された顔領域を前記対象領域として設定する
請求項12に記載の画像処理装置。 - 前記対象領域設定部は撮像画像内で検出された瞳領域を前記対象領域として設定する
請求項12に記載の画像処理装置。 - 前記マップデータ生成部が生成したデフォーカスマップデータを、撮像画像に対する付加情報として記録する記録制御部を備えた
請求項1に記載の画像処理装置。 - 位相差検出部により検出した位相差情報から算出される、撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成する手順と、
前記生成したデフォーカスマップデータを用いて、撮像画像の各位置にそれぞれの位置におけるデフォーカス量を示す色を付すことにより撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、撮像画像にデフォーカスマップ画像を重畳して表示させる表示制御を行う手順と、
出力する外部の出力機器に応じて、デフォーカスマップ画像を表示させずに撮像画像を表示させる第1の画像出力、又はデフォーカスマップ画像の表示を含む撮像画像を表示させる第2の画像出力を行わせる手順と、を含む
画像処理方法。 - 位相差検出部により検出した位相差情報から算出される、撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成するマップデータ生成機能と、
前記マップデータ生成機能により生成したデフォーカスマップデータを用いて、撮像画像の各位置に、それぞれの位置におけるデフォーカス量を示す色を付すことにより撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、撮像画像にデフォーカスマップ画像を重畳して表示させる表示制御を行う表示制御機能と、
出力する外部の出力機器に応じて、デフォーカスマップ画像を表示させずに撮像画像を表示させる第1の画像出力、又はデフォーカスマップ画像の表示を含む撮像画像を表示させる第2の画像出力を行わせる機能と、を画像処理装置に実行させる
プログラム。 - 画像撮像を行う撮像素子部と、
位相差検出部により検出した位相差情報から算出される、前記撮像素子部による撮像画像の複数位置におけるデフォーカス量を示すデフォーカスマップデータを生成するマップデータ生成部と、
前記マップデータ生成部が生成したデフォーカスマップデータを用いて、撮像画像の各位置に、それぞれの位置におけるデフォーカス量を示す色を付すことにより撮像画像のデフォーカス量の分布を示すデフォーカスマップ画像を生成し、撮像画像にデフォーカスマップ画像を重畳して表示させる表示制御を行う表示制御部と、を備え、
出力する外部の出力機器に応じて、デフォーカスマップ画像を表示させずに撮像画像を表示させる第1の画像出力、又はデフォーカスマップ画像の表示を含む撮像画像を表示させる第2の画像出力が行われる
撮像装置。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019060386 | 2019-03-27 | ||
| JP2019060386 | 2019-03-27 | ||
| PCT/JP2020/004374 WO2020195198A1 (ja) | 2019-03-27 | 2020-02-05 | 画像処理装置、画像処理方法、プログラム、撮像装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2020195198A1 JPWO2020195198A1 (ja) | 2020-10-01 |
| JP7435592B2 true JP7435592B2 (ja) | 2024-02-21 |
Family
ID=72611783
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021508186A Active JP7435592B2 (ja) | 2019-03-27 | 2020-02-05 | 画像処理装置、画像処理方法、プログラム、撮像装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11985420B2 (ja) |
| EP (1) | EP3933474B1 (ja) |
| JP (1) | JP7435592B2 (ja) |
| WO (1) | WO2020195198A1 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022244311A1 (ja) * | 2021-05-20 | 2022-11-24 | ソニーグループ株式会社 | 撮像装置、および画像処理方法、並びにプログラム |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012150224A (ja) | 2011-01-18 | 2012-08-09 | Canon Inc | 撮像装置および制御方法 |
| JP2014178643A (ja) | 2013-03-15 | 2014-09-25 | Olympus Imaging Corp | 表示機器 |
| JP2016197177A (ja) | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | 表示制御装置及びその制御方法、及び撮像装置 |
| JP2018005008A (ja) | 2016-07-04 | 2018-01-11 | 株式会社ニコン | カメラボディおよび交換レンズ |
| JP2018081534A (ja) | 2016-11-17 | 2018-05-24 | キヤノン株式会社 | 画像処理装置、撮像装置および制御方法 |
Family Cites Families (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8559705B2 (en) * | 2006-12-01 | 2013-10-15 | Lytro, Inc. | Interactive refocusing of electronic images |
| JP5478935B2 (ja) * | 2009-05-12 | 2014-04-23 | キヤノン株式会社 | 撮像装置 |
| JP2013030895A (ja) * | 2011-07-27 | 2013-02-07 | Sony Corp | 信号処理装置、撮像装置、信号処理方法およびプログラム |
| KR101680186B1 (ko) * | 2011-08-30 | 2016-11-28 | 삼성전자주식회사 | 영상 촬영 장치 및 그 제어 방법 |
| KR101792641B1 (ko) * | 2011-10-07 | 2017-11-02 | 엘지전자 주식회사 | 이동 단말기 및 그의 아웃 포커싱 이미지 생성방법 |
| JP6202927B2 (ja) * | 2012-08-31 | 2017-09-27 | キヤノン株式会社 | 距離検出装置、撮像装置、プログラム、記録媒体および距離検出方法 |
| JP6286668B2 (ja) * | 2013-05-22 | 2018-03-07 | パナソニックIpマネジメント株式会社 | 撮像装置および撮像画像の表示方法 |
| KR102068748B1 (ko) * | 2013-07-31 | 2020-02-11 | 삼성전자주식회사 | 디지털 촬영 장치, 그 제어 방법, 및 영상 재생 장치 및 방법 |
| WO2015013947A1 (zh) * | 2013-08-01 | 2015-02-05 | 华为终端有限公司 | 一种拍照方法及装置 |
| JP6701512B2 (ja) * | 2013-09-24 | 2020-05-27 | ソニー株式会社 | 撮影装置、撮影方法、およびプログラム |
| KR102150890B1 (ko) * | 2014-02-21 | 2020-09-02 | 삼성전자주식회사 | 이미지 초점 표시 방법 및 상기 방법이 적용되는 전자장치 |
| US10091409B2 (en) * | 2014-12-30 | 2018-10-02 | Nokia Technologies Oy | Improving focus in image and video capture using depth maps |
| JP6808333B2 (ja) | 2015-04-03 | 2021-01-06 | キヤノン株式会社 | 表示制御装置及び方法、及び撮像装置 |
| JP6546474B2 (ja) * | 2015-07-31 | 2019-07-17 | キヤノン株式会社 | 撮像装置およびその制御方法 |
| JP6576171B2 (ja) * | 2015-09-02 | 2019-09-18 | キヤノン株式会社 | 映像処理装置、映像処理方法、及びプログラム |
| JP6659148B2 (ja) * | 2016-02-03 | 2020-03-04 | キヤノン株式会社 | 表示制御装置及びその制御方法、プログラム、並びに記憶媒体 |
| JP6643122B2 (ja) * | 2016-02-03 | 2020-02-12 | キヤノン株式会社 | 距離画像装置、撮像装置、および距離画像補正方法 |
| JP6757184B2 (ja) * | 2016-03-24 | 2020-09-16 | キヤノン株式会社 | 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム |
| JP6752681B2 (ja) * | 2016-10-19 | 2020-09-09 | キヤノン株式会社 | 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体 |
| KR102390184B1 (ko) * | 2017-04-26 | 2022-04-25 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 영상 표시 방법 |
| JP7062455B2 (ja) * | 2018-02-07 | 2022-05-06 | キヤノン株式会社 | 電子機器及びその制御方法 |
| JP7173841B2 (ja) * | 2018-11-14 | 2022-11-16 | キヤノン株式会社 | 画像処理装置およびその制御方法ならびにプログラム |
| JP7286315B2 (ja) * | 2018-12-28 | 2023-06-05 | キヤノン株式会社 | 報知装置、撮像装置、報知方法、及びプログラム |
| US11368626B2 (en) * | 2020-02-06 | 2022-06-21 | Canon Kabushiki Kaisha | Display control apparatus that controls display of information relating to bokeh and method for controlling the same |
-
2020
- 2020-02-05 JP JP2021508186A patent/JP7435592B2/ja active Active
- 2020-02-05 EP EP20779101.3A patent/EP3933474B1/en active Active
- 2020-02-05 US US17/433,079 patent/US11985420B2/en active Active
- 2020-02-05 WO PCT/JP2020/004374 patent/WO2020195198A1/ja not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012150224A (ja) | 2011-01-18 | 2012-08-09 | Canon Inc | 撮像装置および制御方法 |
| JP2014178643A (ja) | 2013-03-15 | 2014-09-25 | Olympus Imaging Corp | 表示機器 |
| JP2016197177A (ja) | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | 表示制御装置及びその制御方法、及び撮像装置 |
| JP2018005008A (ja) | 2016-07-04 | 2018-01-11 | 株式会社ニコン | カメラボディおよび交換レンズ |
| JP2018081534A (ja) | 2016-11-17 | 2018-05-24 | キヤノン株式会社 | 画像処理装置、撮像装置および制御方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3933474B1 (en) | 2025-09-10 |
| EP3933474A4 (en) | 2022-07-27 |
| US11985420B2 (en) | 2024-05-14 |
| EP3933474A1 (en) | 2022-01-05 |
| WO2020195198A1 (ja) | 2020-10-01 |
| JPWO2020195198A1 (ja) | 2020-10-01 |
| US20220159190A1 (en) | 2022-05-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10311649B2 (en) | Systems and method for performing depth based image editing | |
| KR101786049B1 (ko) | 디지털 촬영 장치, 디지털 촬영 장치 제어 방법, 및 컴퓨터 판독가능 저장매체 | |
| JP4288612B2 (ja) | 画像処理装置および方法、並びにプログラム | |
| JP7380675B2 (ja) | 画像処理装置、画像処理方法、プログラム、撮像装置 | |
| US20120044400A1 (en) | Image pickup apparatus | |
| US9065998B2 (en) | Photographing apparatus provided with an object detection function | |
| CN104702824A (zh) | 摄像装置及摄像装置的控制方法 | |
| JP2016219991A (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
| JP6253007B2 (ja) | 表示装置 | |
| JP7435592B2 (ja) | 画像処理装置、画像処理方法、プログラム、撮像装置 | |
| KR101812656B1 (ko) | 디지털 촬영 장치 및 이의 제어 방법 | |
| CN104902179B (zh) | 一种相机图像的预览方法和装置 | |
| JP7550825B2 (ja) | 画像処理方法及び装置、モバイル端末、記憶媒体 | |
| US12114087B2 (en) | Imaging apparatus and imaging method for performing first and second readouts during a vertical period | |
| JP2005352164A (ja) | 撮像装置及びその制御方法、並びにプログラム及び記憶媒体 | |
| JP6768449B2 (ja) | 撮像制御装置、撮像装置の制御方法及びプログラム | |
| US20250251567A1 (en) | Image capturing apparatus, control method for the same, and storage medium | |
| US12238434B2 (en) | Imaging device and imaging method for autofocus control | |
| JP6355324B2 (ja) | 撮像装置およびその制御方法 | |
| US20240273135A1 (en) | Information processing device, information processing method, and program | |
| JP7271316B2 (ja) | 撮像装置及びその制御方法 | |
| JP2017135477A (ja) | 画像管理装置、画像再生装置及びそれらの制御方法、システム、プログラム並びに記憶媒体 | |
| JP6577820B2 (ja) | 撮像装置およびその制御方法ならびにプログラム | |
| WO2021210340A1 (ja) | 画像処理装置、画像処理方法及び撮像装置 | |
| JP2013055540A (ja) | 画像処理装置、撮像装置およびシステム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221209 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20221209 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230801 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240122 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7435592 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |