JP2017184217A - 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム - Google Patents

画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム Download PDF

Info

Publication number
JP2017184217A
JP2017184217A JP2016112103A JP2016112103A JP2017184217A JP 2017184217 A JP2017184217 A JP 2017184217A JP 2016112103 A JP2016112103 A JP 2016112103A JP 2016112103 A JP2016112103 A JP 2016112103A JP 2017184217 A JP2017184217 A JP 2017184217A
Authority
JP
Japan
Prior art keywords
image
viewpoint
changing
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016112103A
Other languages
English (en)
Other versions
JP6757184B2 (ja
JP2017184217A5 (ja
Inventor
暁彦 上田
Akihiko Ueda
暁彦 上田
福田 浩一
Koichi Fukuda
浩一 福田
勇希 吉村
Yuki Yoshimura
勇希 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2017/002504 priority Critical patent/WO2017163588A1/ja
Priority to SG11201808036XA priority patent/SG11201808036XA/en
Priority to RU2018137046A priority patent/RU2707066C1/ru
Priority to DE112017001458.1T priority patent/DE112017001458T5/de
Priority to KR1020187029815A priority patent/KR102157491B1/ko
Priority to CN201780019656.XA priority patent/CN108886581B/zh
Publication of JP2017184217A publication Critical patent/JP2017184217A/ja
Priority to PH12018502032A priority patent/PH12018502032A1/en
Priority to US16/137,801 priority patent/US10924665B2/en
Publication of JP2017184217A5 publication Critical patent/JP2017184217A5/ja
Application granted granted Critical
Publication of JP6757184B2 publication Critical patent/JP6757184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/20Linear translation of a whole image or part thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/793Processing of colour television signals in connection with recording for controlling the level of the chrominance signal, e.g. by means of automatic chroma control circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction

Abstract

【課題】複数の視点画像に基づいて、視点変更画像を表示させる操作とピント位置を変更した画像を表示させる操作とを並行して操作することが可能な画像処理装置を提供する。【解決手段】本発明に係る画像処理装置は、入射する光線の強度と角度情報を含む画像信号を取得する取得手段と、視点を変更する操作とピント位置を変更する操作とを受け付ける操作手段と、画像信号に基づいて得られる複数の視点画像に基づいて、視点を変更する操作に応じて視点を変更すると共に、ピント位置を変更する操作に応じてピント位置を変更した表示画像を生成する処理手段と、を備える。【選択図】図17

Description

本発明は、画像処理装置、撮像装置およびこれらの制御方法ならびにプログラムに関する。
撮影レンズの異なる瞳領域を通過した光束を記録することにより、複数の視点画像を同時に撮影可能な撮像装置が知られている。非特許文献1には、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成された撮像素子を用いた撮像装置が開示されている。この撮像素子は、分割された光電変換部のそれぞれが、1つのマイクロレンズを介して撮影レンズの異なる瞳部分領域を通過した光束を受光するように構成され、いわゆる瞳分割を実現する。このため、出力された信号は、光強度の空間分布と角度分布情報とを含むLight Field(LF)データと等価であり、複数の視点画像を得ることができる。
また、非特許文献1には、取得したLFデータを用いて、撮像面とは異なる仮想的な面に結像させた合成画像を生成することにより、撮影後に撮像画像のピント位置(合焦位置ともいう)を変更することができるリフォーカス技術が開示されている。
Ren.Ng、外7名,「Light Field Photography with a Hand−Held Plenoptic Camera」,Stanford Tech Report CTSR 2005−02
ところで、複数の視点画像に基づいて、視点を変更した画像(視点変更画像)を表示させる操作と、リフォーカス技術によってピント位置を変更した画像を表示させる操作とを並行して行いたい場合がある。しかし、非特許文献1では、視点変更画像の表示とピント位置を変更した画像の表示とを並行して操作する方法について考慮していない。
本発明は、上述の問題点に鑑みてなされたものである。すなわち、複数の視点画像に基づいて、視点変更画像を表示させる操作とピント位置を変更した画像を表示させる操作とを並行して操作することが可能な画像処理装置、撮像装置およびこれらの制御方法ならびにプログラムを提供することを目的とする。
この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、入射する光線の強度と角度情報を含む画像信号を取得する取得手段と、視点を変更する操作とピント位置を変更する操作とを受け付ける操作手段と、画像信号に基づいて得られる複数の視点画像に基づいて、視点を変更する操作に応じて視点を変更すると共に、ピント位置を変更する操作に応じてピント位置を変更した表示画像を生成する処理手段と、を備えることを特徴とする。
本発明によれば、複数の視点画像に基づいて、視点変更画像を表示させる操作とピント位置を変更した画像を表示させる操作とを並行して操作することが可能になる。
本発明の実施形態に係る画像処理装置の一例としてのデジタルカメラの機能構成例を示すブロック図 実施形態1に係る画像処理部の機能構成例を示すブロック図 実施形態1に係る画素配列を模式的に示す図 実施形態1に係る画素を模式的に示す平面図及び断面図 実施形態1に係る瞳分割の概要を説明する図 実施形態1に係る画素内部の光強度分布の例を説明する図 実施形態1に係る瞳強度分布の例を説明する図 実施形態1に係る撮像素子と瞳分割との関係(a)、及び第1視点画像と第2視点画像におけるデフォーカス量と像ずれ量の関係(b)を説明する図 実施形態1に係る撮像画像のコントラスト分布の例を示す図 実施形態1に係る視点画像間の差を拡大した視差強調の例を説明する図 実施形態1に係るリフォーカス処理の概略を説明する図 実施形態1に係るアンシャープネス処理の概要を説明する図 実施形態1に係るリフォーカス可能範囲を説明する図 実施形態1に係る視点移動処理の原理を説明する図 実施形態1に係る撮像素子の周辺像高における瞳ずれを説明する図 実施形態1に係る撮像画像に対する視点移動及びピント調整操作に係る一連の動作を示すフローチャート 実施形態1に係る視点画像操作処理の一連の動作を示すフローチャート 実施形態1に係る現像処理の一連の動作を示すフローチャート 実施形態1に係る視点移動、ピント調整のUIを模式的に示す図 実施形態1に係るUIに強調度合のUIを追加した例を模式的に示す図 実施形態2に係る視差画像操作処理の一連の動作を示すフローチャート 実施形態3に係る画素配列を模式的に示す図 実施形態3に係る画素を模式的に示す平面図及び断面図 実施形態3に係る視点移動、ピント調整のUIを模式的に示す図 実施形態4に係る視差画像操作処理の一連の動作を示すフローチャート 実施形態4に係る視点移動、ピント調整のUIの表記例を模式的に示す図 実施形態4に係る視点移動、ピント調整のUIの表記例を模式的に示す図 実施形態4に係る視点移動、ピント調整のUIの表記例を模式的に示す図
(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では画像処理装置の一例として、LFデータを取得可能な任意のデジタルカメラに本発明を適用した例を説明する。しかし、本発明は、デジタルカメラに限らず、取得したLFデータを処理可能な任意の機器にも適用可能である。これらの機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末、監視システム、車載システム、内視鏡などの医療システム、画像を提供可能なロボットなどが含まれてよい。また、任意の機器がインターネット又はローカルネットワーク上の、プロセッサ等の処理手段を備えたサーバ機器(仮想マシンを含む)にLFデータと操作内容を送信し、LFデータに対する処理の一部又は全部をサーバ機器で実行する構成が含まれてよい。この場合、任意の機器はサーバ機器から処理結果を受信して表示させる構成が含まれてよい。
(デジタルカメラ100の全体構成)
図1は、本実施形態の画像処理装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
第1レンズ群101は、結像光学系を構成する例えばズームレンズを含み、結像光学系の先端に配置されると共に、光軸方向に進退可能に保持される。シャッタ102は絞りを含み、その開口径を調節することにより撮影時に撮像素子107に入射する光量を調節する。また、静止画を撮影する際には露光する時間を調節するシャッタとして機能する。シャッタ102と、結像光学系を構成する第2レンズ群103とは一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)をなす。
第3レンズ群105は、結像光学系を構成する例えば焦点レンズを含み、光軸方向の進退により焦点調節を行なう。光学素子106は光学的ローパスフィルタを含み、撮像画像の偽色やモアレを軽減する。撮像素子107は例えばCMOSフォトセンサーと周辺回路とから構成される撮像素子を含み、結像光学系の結像面に配置される。
ズームアクチュエータ111は、第1レンズ群101ないし第3レンズ群103の進退動作を発生させる駆動装置を含み、不図示のカム筒を回動することにより、第1レンズ群101ないし第3レンズ群103を光軸方向に進退駆動させる。絞りシャッタアクチュエータ112は、シャッタ102の動作を発生させる駆動装置を含み、シャッタ102の開口径やシャッタ動作を、絞りシャッタ駆動部128の制御に応じて制御する。フォーカスアクチュエータ114は、第3レンズ群105の進退動作を発生させる駆動装置を含み、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。
照明装置115は撮影時の被写体照明用電子フラッシュを含み、例えばキセノン管を用いた閃光照明装置、或いは連続発光するLEDを備えた照明装置である。補助光発光部116はAF補助光の発光装置を含み、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体あるいは低コントラストの被写体に対する焦点検出能力を向上させる。
制御部121は、CPU(又はMPU)、ROM、及びRAMを含み、ROMに記憶されたプログラムをRAMに展開、実行することによりデジタルカメラ100全体の各部を制御して、AF、撮影、画像処理と記録等の一連の動作を実行する。また、制御部121はA/Dコンバータ、D/Aコンバータ、通信インターフェース回路等を備えてもよい。更に、制御部121は、表示部131に表示する表示内容を制御する表示制御部としての機能を含み、また、画像処理部125によって実行される処理を代わりに実行してもよい。
電子フラッシュ制御部122は、制御回路又は制御モジュールを含み、撮影動作に同期して照明装置115の点灯を制御する。補助光駆動部123は、焦点検出動作に同期して補助光発光部116の点灯を制御する。撮像素子駆動部124は、撮像素子107の撮像動作を制御するとともに、取得した画像信号をA/D変換して制御部121に送信する。125は画像処理回路で、撮像素子107が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行なう。
フォーカス駆動部126、絞りシャッタ駆動部128、及びズーム駆動部129は、それぞれ制御回路又は制御モジュールを含む。フォーカス駆動部126は、焦点検出結果に基づいてフォーカスアクチュエータ114を制御する。また、絞りシャッタ駆動部128は、撮影動作の所定のタイミングで絞りシャッタアクチュエータ112を制御する。更にズーム駆動部129は、撮影者のズーム操作に応じてズームアクチュエータ111を制御する。
表示部131は、LCD等の表示装置を含み、例えばカメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態の表示画像等を表示する。操作部132はデジタルカメラ100を操作するためのスイッチ群を含み、例えば電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等を含む。操作部132が入力されたユーザ操作を制御部121に送信すると、制御部121はユーザ操作に対応した動作を実行するために、デジタルカメラ100の各部を制御する。記録媒体133は、例えば着脱可能なフラッシュメモリを含み、撮影済み画像を記録する。
通信部134は、通信回路又はモジュールを含み、所定の規格に準拠した通信方式を用いて、外部装置(例えば外部に設置されたサーバ)と通信を確立する。通信部134は、外部装置と、例えば画像データのアップロードやダウンロード、アップロードした画像データに対して外部装置が行った所定の処理の結果の受信等を行う。
(画像処理部125の構成)
次に、画像処理部125の構成について、図2を参照して説明する。画像取得部151は、記録媒体133から読み出された画像データを保存する。画像データは、後述する第1の視点画像と第2の視点画像とを合成した画像(A+B像ともいう)と、第1の視点画像とから構成される画像データである。
減算部152は、A+B像から第1の視点画像を減算することで第2の視点画像を生成する。シェーディング処理部153は、第1の視点画像と第2の視点画像の像高による光量変化を補正する。操作情報取得部154は、ユーザが変更した視点移動とリフォーカス用の調整値を受け取り、視点変更処理部155とリフォーカス処理部156へユーザが操作した調整値を供給する。
視点変更処理部155は、第1の視点画像と第2の視点画像の加算比率(重み付け)を変更して視点を変更した画像を合成する。詳細は後述するが、視点変更処理部155の処理により被写界深度を拡大又は縮小した画像を生成することができる。リフォーカス処理部156は、第1の視点画像と第2の視点画像とを瞳分割方向にシフト加算することにより合成画像を生成し、異なるピント位置の画像を生成する。リフォーカス処理部156による処理についても詳細は後述する。
また、画像処理部125は、以下に説明するホワイトバランス部157、デモザイキング部158、ガンマ変換部159、色調整部160の構成により現像処理を行う。ホワイトバランス部157はホワイトバランス処理を行う。具体的には白の領域のR、G、Bが等色になるようにR、G、Bの各色にゲインをかける。このホワイトバランス処理をデモザイキング処理前に行うことにより、彩度を算出する際に、色かぶり等により偽色の彩度よりも高い彩度になることを回避し、誤判定を防止することができる。
デモザイキング部158は各画素において欠落している3原色のうち2色のカラーモザイク画像データを補間することによって、全ての画素においてR、G、Bのカラー画像データが揃ったカラー画像を生成する。デモザイキング部158は、注目画素に対して、注目画素の周辺の画素を用いた補間を行う。その後、各画素について補間処理結果としてのR、G、Bの3原色のカラー画像データを生成する。
ガンマ変換部159は、各画素のカラー画像データにガンマ補正処理を適用して、例えば表示部131の表示特性に整合させたカラー画像データを生成する。色調整部160は、画像の見栄えを改善するための処理である、例えばノイズ低減、彩度強調、色相補正、エッジ強調といった各種の色調整処理をカラー画像データに適用する。
圧縮部161は、色調整されたカラー画像データをJPEG等の所定の圧縮方式に準拠した方法で圧縮し、記録する際のカラー画像データのデータサイズを小さくする。出力部163は、上述したカラー画像データ、圧縮された画像データ、又はユーザインターフェース用の表示データを出力する。
(撮像素子107の構成)
本実施形態に係る撮像素子107の画素及び副画素の配列について、図3を参照して説明する。図3は、2次元状に配置された画素配列を4列×4行の範囲で示しており、更に各画素に含まれる副画素配列を8列×4行の範囲で示している。
図3に示す画素配列のうち、2列×2行の画素群では、左上の位置にR(赤)の分光感度を有する画素200Rを、右上と左下の位置にG(緑)の分光感度を有する画素200Gを、右下の位置にB(青)の分光感度を有する画素200Bをそれぞれ有する。更に、各画素は、2列×1行に配列された副画素201と副画素202を有する。
図3に示した4列×4行の画素(8列×4行の副画素)を面状に多数配置することにより、撮像画像(或いは焦点検出信号)の取得が可能になる。撮像素子107は、例えば、画素の配置される周期Pが4μm、画素数Nが横5575列×縦3725行=約2075万画素、副画素の列方向周期PSが2μm、副画素数NSが横11150列×縦3725行=約4150万画素である。
図3に示した画素200Gの構造をより詳細に説明する。図4(a)は、画素200Gを、撮像素子107の受光面側(+z側)から見た平面図を、図4(b)は、図4(a)のa−a断面を−y側から見た断面図を、それぞれ示している。
画素200Gは、x方向にNH分割(2分割)、y方向にNV分割(1分割)された光電変換部301と光電変換部302とを有するように構成される。光電変換部301と光電変換部302とは、副画素201と副画素202とにそれぞれ対応する。
また、画素200Gは、画素の受光側(+z方向)に入射光を集光するためのマイクロレンズ305を有し、マイクロレンズ305を通過して入射した光束が、光電変換部301又は光電変換部302により受光されるように構成される。光電変換部301と光電変換部302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードとしてもよいし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとしてもよい。カラーフィルタ306は、マイクロレンズ305と、光電変換部301および光電変換部302との間に配置され、所定の周波数の光を通過させる。図4(b)では、カラーフィルタ306を画素200Gに対して1つ設ける例を示しているが、必要に応じて、副画素毎に分光透過率の異なるカラーフィルタを設けてもよく、或いはカラーフィルタを省略してもよい。
光電変換部301と光電変換部302では、受光量に応じて電子とホールが対生成され、更に空乏層で分離される。その後、負電荷の電子はn型層に蓄積され、ホールは定電圧源(不図示)に接続されたp型層300を通じて撮像素子107の外部へ出力される。光電変換部301と光電変換部302のn型層に蓄積された電子は、転送ゲートを介して静電容量部(FD)に転送され、電圧信号に変換される。
(撮像素子107の画素構造と瞳分割の関係)
次に、図4に示した撮像素子107の画素構造と瞳分割との対応関係を、図5を参照して説明する。図5は、図4(a)に示した画素200Gのa−a断面を+y側から見た断面図と、結像光学系の射出瞳面の対応関係を示している。なお、図5では、射出瞳面の座標軸と対応を取るために、画素200Gの断面図のx軸とy軸を図4に対して反転させている。
副画素201の瞳部分領域501は、副画素201で受光可能な瞳領域を表している。副画素201の瞳部分領域501は、瞳面上で+X側に重心が偏心しており、重心が−x方向に偏心している光電変換部301の受光面と、マイクロレンズによって、概ね、共役関係になっている。
一方、副画素202の瞳部分領域502は、副画素202で受光可能な瞳領域を表している。副画素202の瞳部分領域502は、瞳面上で−X側に重心が偏心しており、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズによって、概ね、共役関係になっている。なお、瞳領域500は、光電変換部301と光電変換部302(副画素201と副画素202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。
上述した構成の画素200Gに光が入射した際の様子をより具体的に説明する。図6は、画素200Gに形成されたマイクロレンズ305に、光が入射した場合の光強度分布の例を示している。図6(a)はマイクロレンズ光軸に平行な断面における光強度分布を、図6(b)はマイクロレンズ焦点位置でのマイクロレンズ光軸に垂直な断面における光強度分布を、それぞれ示している。図6において、Hはマイクロレンズ305の凸側の面を、fはマイクロレンズの焦点距離を、nFΔは後述するリフォーカスによる焦点位置の可動範囲を、φは入射する光束の最大角度を示す。
入射光は、マイクロレンズ305によって焦点位置に集光されるが、光の波動性による回折の影響により、集光スポットの直径は回折限界Δより小さくならず、例えば図6(a)及び図6(b)に示すように有限の大きさとなる。例えば、光電変換部301の受光面サイズが約1〜2μm程度である場合、マイクロレンズの集光スポットも約1μm程度である。そのため、光電変換部301の受光面とマイクロレンズ305を介して共役の関係にある瞳部分領域501(光電変換部302には瞳部分領域502)は、回折ボケのため、明瞭に瞳分割がされていない受光率分布(瞳強度分布)となる。
この画素200Gにおける瞳強度分布は、更に横軸を瞳座標、縦軸を受光率として模式的に示すと図7のようになる。なお、瞳強度分布701は図5の瞳部分領域501のX軸に沿った瞳強度分布の例(実線)を、瞳強度分布702は瞳部分領域502のX軸に沿った瞳強度分布の例(破線)をそれぞれ示している。瞳部分領域501と瞳部分領域502とが異なる瞳位置においてなだらかな瞳強度のピークを有しており、マイクロレンズ305を通過した光がなだらかに瞳分割されることを示している。
更に、撮像素子107の位置の異なる画素と瞳分割との対応関係は、図8(a)のようになる。異なる瞳部分領域(瞳部分領域501と瞳部分領域502)を通過したそれぞれの光束は、撮像面800を通過して撮像素子107の各画素に異なる角度で入射する。そして、2×1分割された各画素の副画素201(光電変換部301)と副画素202(光電変換部302)とによって受光される。すなわち、撮像素子107は、結像光学系の異なる瞳部分領域を通過する光束を受光するように構成された複数の副画素が設けられた画素を、複数配列している。
このような構成の撮像素子107を用いることにより、各画素の副画素201の受光信号を集めて第1視点画像を生成し、各画素の副画素202の受光信号を集めて第2視点画像を生成することができる。つまり、撮像素子107の各画素により取得される入力画像から、異なる瞳部分領域毎に複数の視点画像を生成することができる。なお、本実施形態では、第1視点画像と第2視点画像は、それぞれ、ベイヤー配列の画像となるため、必要に応じて第1視点画像と第2視点画像とにデモザイキング処理を適用してもよい。また、撮像素子の画素毎に、副画素201と副画素202の信号を加算して読み出すことにより、有効画素数Nの解像度の撮像画像を生成することができる。本実施形態では、複数の視点画像(第1視点画像と第2視点画像)から生成した撮像画像を用いる例を説明する。なお、図8(a)では、瞳領域が水平方向に2つに瞳分割される例を示したが、副画素の分割方法に応じて瞳分割が垂直方向に行われてもよい。しかしこれに限らず、本実施形態も他の実施形態も、公知の技術により複数の視点画像を取得できるものであれば適用出来る。例えば特開2011−22796号公報のように、複数の視点の異なるカメラをまとめて撮像素子107とみなす構成でもよい。また、図1の光学系と異なり、物体平面と撮像素子が共役の関係にあるように、マイクロレンズアレイ上で撮影光学系からの光束を結像させ、その結像面に撮像素子を設ける構成でもよい。さらには、マイクロレンズアレイ上で撮影光学系からの光束を再結像させ(一度結像した光束が拡散する状態にあるものを結像させるので再結像と呼んでいる)、その結像面に撮像素子を設けるような構成でも良い。また、適当なパターンを施したマスク(ゲイン変調素子)を撮影光学系の光路中に挿入する方法も利用できる。
(視差画像間のデフォーカス量と像ずれ量の関係)
次に、撮像素子107から出力される第1視点画像と第2視点画像との間のデフォーカス量と像ずれ量の関係について説明する。図8(b)は、第1視点画像と第2視点画像とのデフォーカス量と、第1視点画像と第2視点画像との間の像ずれ量との関係を模式的に示している。撮像面800に撮像素子107(図8(b)では不図示)が配置され、図5、図8(a)及び図8(b)と同様に、結像光学系の射出瞳が、瞳部分領域501と瞳部分領域502に2分割される。
デフォーカス量dは、被写体の結像位置から撮像面800までの距離を大きさ|d|で表わす。デフォーカス量dは、例えば被写体の結像位置が撮像面800より被写体側にある状態(前ピン状態ともいう)を負符号(d<0)で表す。一方、被写体の結像位置が撮像面800より被写体の反対側にある状態(後ピン状態ともいう)を正符号(d>0)で表す。被写体の結像位置が撮像面にある合焦状態はd=0である。図9では、被写体801が合焦状態(d=0)である例を、被写体802が前ピン状態(d<0)である例を、それぞれ示している。なお、前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)とする。
前ピン状態(d<0)である場合、被写体802からの光束のうち、瞳部分領域501(瞳部分領域502)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子に配列された各画素を構成する副画素201(副画素202)により受光され、第1視点画像(第2視点画像)が生成される。よって、第1視点画像(第2視点画像)は、撮像面800上の重心位置G1(G2)に、被写体802が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|の増加に伴い、概ね、比例して増加する。同様に、第1視点画像と第2視点画像間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|の増加に伴い、概ね、比例して増加する。後ピン状態(d>0)である場合、第1視点画像と第2視点画像間の被写体像の像ずれ方向が前ピン状態である場合と反対となるが、同様である。
従って、本実施形態では、第1視点画像と第2視点画像、もしくは、第1視点画像と第2視点画像を加算した撮像信号のデフォーカス量の大きさの増加に伴い、第1視点画像と第2視点画像間の像ずれ量の大きさが増加する。
(視点画像修正とリフォーカス)
次に、本実施形態に係る視点画像修正処理とリフォーカス処理について説明する。本実施形態のリフォーカス処理では、第1段階として、視点変更処理部155が撮像画像の各画素値に基づくコントラストの高低を表すコントラスト分布を算出する。第2段階として、視点変更処理部155は算出したコントラスト分布に基づいて、画素毎に複数の視点画像(第1視点画像と第2視点画像)間の差を拡大して視差を強調する変換を行い、複数の修正視点画像(第1修正視点画像と第2修正視点画像)を生成する。第3段階として、リフォーカス処理部156は複数の修正視点画像(第1修正視点画像と第2修正視点画像)を相対的にシフト加算して、リフォーカス画像を生成する。
なお、以下ではi、jを整数として、撮像素子107の行方向j番目、列方向i番目の位置を(j、i)と表わす。また、位置(j、i)の画素の第1視点画像をA0(j、i)、第2視点画像をB0(j、i)、撮像画像をI(j、i)=A0(j、i)+B0(j、i)と表わす。
(第1段階:コントラスト分布の算出)
視点変更処理部155は、ベイヤー配列の撮像画像I(j、i)に対し、式(1)に従って、位置(j、i)毎にRGB毎の色重心を一致させて、輝度Y(j、i)を算出する。
次に、視点変更処理部155は、輝度Y(j、i)に対して、瞳分割方向である水平方向(列i方向)に、[1、2、−1、−4、−1、2、1]などのラプラシアン型フィルタ処理を適用して、水平方向の高周波成分dY(j、i)を算出する。視点変更処理部155は、必要に応じて、瞳分割方向ではない垂直方向(行j方向)に[1、1、1、1、1、1、1]などの高周波カットフィルタ処理を適用して、垂直方向の高周波ノイズを抑制してもよい。
次に、視点変更処理部155は、規格化(正規化)された水平方向の高周波成分dZ(j、i)を、式(2)に従って算出する。ここで、定数Y0を分母に加えるのは、0で除算することにより式(2)が発散することを防止するためである。視点変更処理部155は、必要に応じて、式(2)で規格化する前に、輝度Y(j、i)に高周波カットフィルタ処理を適用して高周波ノイズを抑制してもよい。
視点変更処理部155は、コントラスト分布C(j、i)を式(3)に従って算出する。式(3)の1行目は、撮像画像の輝度が所定輝度Ycよりも低輝度の場合、コントラスト分布C(j、i)を0とすることを示す。一方、式(3)の3行目は、規格化された高周波成分dZ(j、i)が所定値Zcより大きい場合、コントラスト分布C(j、i)を1とすることを示す。それ以外(すなわち式(3)の2行目)は、dZ(j、i)をZcで規格化した値がコントラスト分布C(j、i)となることを示す。
ここで、コントラスト分布C(j、i)は、[0、1]の範囲の値をとり、0に近いほどコントラストが低く、1に近いほどコントラストが高くなる。
図9は、式(3)によって得られる、撮像画像のコントラスト分布C(j、i)の一例を示している。このコントラスト分布において、白い部分は水平方向の高周波成分が多くコントラストが高いことを示し、黒い部分は水平方向の高周波成分が少なくコントラストが低いことを示している。
(第2段階:視差画像の視差強調処理)
次に、視差画像の視差強調処理について説明する。視差強調処理では、まず視点画像の像ずれ分布を算出する。像ずれ分布の算出は、第1視点画像A0と第2視点画像B0の1対の像に対して相関演算を行って、1対の像の相対的な位置ずれ量を計算することにより得られる。相関演算には、様々な公知の方法が知られているが、視点変更処理部155は、例えば式(4)に示すような一対の像の差の絶対値を加算することにより、像の相関値を得ることができる。
ここで、A0i、B0iは、それぞれ第1視点画像A0、第2視点画像B0のi番目の画素の輝度を表す。またniは、演算に用いる画素数を表す数字で、像ずれ分布の最小演算範囲に応じて適切に設定される。
視点変更処理部155は、例えば式(4)のCOR(k)が最小となるkを、像ずれ量として算出する。すなわち、1対の像をk画素ずらした状態で、行方向のi番目の各A0画素とB0画素の差の絶対値を取り、その絶対値を行方向の複数画素について加算する。そして、視点変更処理部155は、加算された値、すなわちCOR(k)が最も小さくなるときのkをA0とB0の像ずれ量とみなし、ずらし量k画素を算出する。
これに対し、2次元的な像を瞳分割方向のみにk画素分動かして第1視点画像A0の画素と第2視点画像B0の差分をとるようにし、複数列について加算する場合、相関演算は式(5)で定義される。
ここで、A0ij、B0ijは、それぞれ第1視点画像A0、第2視点画像B0のj列目i番目の画素の輝度を表す。また、niは、演算に用いる画素数、njは相関演算を行う1対の像の列方向の数をそれぞれ表す。
視点変更処理部155は、式(4)と同様に式(5)のCOR(k)が最小となるkを像ずれ量として算出する。なお、添え字kはiにのみ加算されてjとは無関係である。これは、2次元的な像を瞳分割方向のみに移動させながら相関演算をしていることに対応する。視点変更処理部155は、式(5)に従って第1視点画像A0、第2視点画像B0の各領域の像ずれ量を算出し、像ずれ分布を算出することができる。
後述する本実施形態のリフォーカス処理では、高コントラスト部分のみに後述のシャープネス処理を行って、リフォーカス処理を行う。従って、上述したコントラスト分布の算出処理において、コントラスト分布C(j、i)が0である領域(すなわち所定輝度Ycよりも低輝度の位置)には、式(5)による相関演算を行わないようにしてもよい。
次に、具体的な視差強調処理の例について説明する。瞳強度分布の例を図7に示したように、画素毎に形成されるマイクロレンズと複数に分割された光電変換部による瞳分割では、回折ボケのために、なだらかな瞳分割となる。そのため、なだらかに分割された瞳強度分布に応じた複数の視点画像では、瞳分割方向の実効F値が十分に暗く(大きく)ならないため、実効的な焦点深度が深くなりにくい。
従って、本実施形態では、視点変更処理部155は、複数の視点画像(第1視点画像と第2視点画像)に対して、画素毎に視点画像間の差を拡大して視差を強調する処理を行う。視点変更処理部155は、視差強調処理により、複数の修正視点画像(第1修正視点画像と第2修正視点画像)を生成する。
視点変更処理部155は、第1視点画像A0(j、i)と第2視点画像B0(j、i)に対して、式(6)および式(7)に従って視点画像間の差を拡大し、第1修正視点画像A(j、i)と第2修正視点画像B(j、i)を生成する。ここで、k(0≦k≦1)、α(0≦α≦1)を実数とする。
図10は、視差強調処理によって、所定の位置において視点画像間の差が拡大した例を示している。視差強調処理を行う前の第1視点画像A0(101)と第2視点画像B0(102)の例を破線で示し、式(4)および式(5)による視差強調処理を行った後の第1修正視点画像A(103)と第2修正視点画像B(104)の例を実線で示している。図10では、横軸は1152番目〜1156番目の画素を副画素(サブピクセル)単位で示し、縦軸は各画素における視差の大きさを示している。視差強調処理により、視点画像間の差が小さかった部分はあまり変化しない(例えば1154番目付近)が、視点画像間の差が大きかった部分はより拡大(例えば1153番目や1155番目付近)して、視差が強調されている。
このように、本実施形態では、視点変更処理部155は、複数の視点画像毎に、複数の視点画像間の差を拡大させて視差を強調した複数の修正視点画像を生成する。なお、視点変更処理部155は、式(6)及び式(7)のように、画素内に含まれる複数の副画素の信号を用いて演算することにより、視差強調処理の負荷を抑制することができる。
式(6)では、kの値を大きくして視差強調を強くすると、複数の修正視点画像(第1修正視点画像と第2修正視点画像)間の視差が大きくなる。従って、kの値を大きくすることにより、分割方向の実効F値を暗く(大きく)し、分割方向の実効的な焦点深度を深く修正することができる。しかし、視差強調を過剰に強くすると、修正視点画像のノイズが増加してS/Nが低下してしまう。
このため、本実施形態では、コントラスト分布C(j、i)に基づいて、視差強調の変換の強さを領域適応的に調整する。例えば、視点変更処理部155は、コントラストが高い領域では、視差を大きくして視差強調の強度を強くし、分割方向の実効F値を暗く(大きく)する。一方、コントラストが低い領域では、S/Nを維持するため視差強調の強度を弱くして、S/N低下を抑制する。このようにすることで、複数の修正視点画像(第1修正視点画像と第2修正視点画像)間の視差を大きくして、分割方向の実効F値を暗く(大きく)し、分割方向の実効的な焦点深度を深く修正することができる。また、後述するリフォーカス処理では、複数の修正視点画像(第1修正視点画像と第2修正視点画像)を用いてリフォーカス画像を生成ことにより、リフォーカス効果を向上(リフォーカスによる画像の変化を強調)させることができる。
視点変更処理部155は、必要に応じて、撮像画像の低輝度の領域よりも高輝度の領域における視差強調の強度を強くすれば、例えばS/N低下を抑制することができる。また、必要に応じて、撮像画像の高周波成分が少ない領域よりも高周波成分が多い領域において、視差強調の強度をより強くしても、同様に例えばS/N低下を抑制することができる。
(第3段階:リフォーカス処理)
複数の修正視点画像(第1修正視点画像と第2修正視点画像)を用いた、瞳分割方向(列方向或いは水平方向)のリフォーカス処理について、図11を参照して説明する。図11は、撮像面800に配置された撮像素子107の列方向i番目の画素の信号を含む、第1修正視点画像Aiと第2修正視点画像Biとを模式的に示している。第1修正視点画像Aiは、(図8(a)の瞳部分領域501に対応した)主光線角度θaでi番目の画素に入射した光束の受光信号を含む。第2修正視点画像Biは、(図8(a)の瞳部分領域502に対応した)主光線角度θbでi番目の画素に入射した光束の受光信号を含む。つまり、第1修正視点画像Aiと第2修正視点画像Biは、光強度分布情報に加えて、入射角度情報も有している。
入射角情報を有することにより、リフォーカス処理部156は、所定の仮想的な結像面におけるリフォーカス画像を生成することができる。具体的に、リフォーカス処理部156は、第1修正視点画像Aiを角度θaに沿って、第2修正視点画像Biを角度θbに沿って、それぞれ仮想結像面810まで平行移動させる。そして、平行移動した各修正視点画像を画素毎に加算することにより、仮想結像面810におけるリフォーカス画像を生成することができる。図11の例では、第1修正視点画像Aiを角度θaに沿って仮想結像面810まで平行移動させることは、第1修正視点画像Aiを列方向に+0.5画素シフトすることに対応する。一方、第2修正視点画像Biを角度θbに沿って仮想結像面810まで平行移動させることは、第2修正視点画像Biを列方向に−0.5画素シフトすることに対応する。つまり、図11の例における、仮想結像面810における第1修正視点画像Aiと第2修正視点画像Biの組み合わせは、第1修正視点画像Aiと第2修正視点画像Biとを相対的に+1画素シフトすることにより得られる。このため、第1修正視点画像Aiと、シフトした第2修正視点画像Bi+1とを画素毎に加算することにより、仮想結像面810におけるリフォーカス画像を生成することができる。
このようにリフォーカス処理部156は、整数シフト量sとして、式(8)に従って第1修正視点画像Aと第2修正視点画像Bをシフト加算することにより、整数シフト量sに応じた各仮想結像面におけるリフォーカス画像I(j、i;s)を生成する。
本実施形態では、第1修正視点画像Aと第2修正視点画像Bはベイヤー配列で構成されるため、リフォーカス処理部156は、2の倍数のシフト量s=2n(n:整数)で、同色毎に式(8)に従ったシフト加算を行う。すなわち、リフォーカス処理部156は、画像のベイヤー配列を保ったままリフォーカス画像I(j、i;s)を生成し、その後、生成したリフォーカス画像I(j、i;s)にデモザイキング処理を施す。なお、リフォーカス処理部156は、必要に応じて、まず第1修正視点画像Aと第2修正視点画像Bとにデモザイキング処理を施し、デモザイキング処理後の第1修正視点画像と第2修正視点画像を用いてシフト加算処理を行ってもよい。さらに、リフォーカス処理部156は、必要に応じて、第1修正視点画像Aと第2修正視点画像Bの各画素間の補間信号を生成して、非整数シフト量に応じたリフォーカス画像を生成してもよい。このようにすれば、仮想結像面の位置をより詳細な粒度で変更したリフォーカス画像を生成することができる。
次に、リフォーカス処理部156が、より効果的なリフォーカス画像を生成するために適用するシャープネス処理、及びリフォーカス可能範囲の算出について説明する。
(シャープネス処理)
上述したように、リフォーカス処理では、第1修正視点画像Aと第2修正視点画像Bとがシフト加算されて、仮想結像面におけるリフォーカス画像が生成される。シフト加算により第1修正視点画像Aと第2修正視点画像Bの像をずらすため、リフォーカス処理前の画像に対する相対的なずらし量(像ずらし量ともいう)がわかる。
ここで、上述したリフォーカス処理による整数シフト量sは、この像ずらし量に対応する。このため、リフォーカス処理部156は、像ずらし量sに対応した領域にシャープネス処理を行うことにより、リフォーカス画像における被写体の輪郭強調を実現することができる。
本実施形態に係るシャープネス処理では、例えば、図12に概要を示すアンシャープマスク処理を用いる。アンシャープマスク処理は、注目画素を中心とした局所領域(元の信号)に、ぼかしフィルタを適用し、ぼかし処理を適用する前後の画素値の差分を注目画素の画素値に反映することにより、輪郭強調を実現する。
処理対象の画素値Pに対するアンシャープマスク処理は、式(9)に従って算出される。但し、P'は処理適用後の画素値、Rはぼかしフィルタの半径、Tは適用量(%)である。
式(9)においてF(i、j、R)は、画素P(i、j)に対して半径Rのぼかしフィルタを適用して得られる画素値である。なお、ぼかしフィルタには、公知の方法、例えばガウスぼかしを用いることができる。ガウスぼかしは、処理対象の画素からの距離に応じてガウス分布に従った重み付けを適用して平均化する処理であり、自然な処理結果を得ることができる。また、ぼかしフィルタの半径Rの大きさは、シャープネス処理を適用したい画像上の周波の波長に関係する。すなわち、Rが小さいほど細かい模様が強調され、Rが大きいほど緩やかな模様が強調される。適用量T(i、j)は、像ずれ分布に応じてアンシャープマスク処理による輪郭強調の適用量を変化させる値である。具体的には、各画素の位置の像ずれ量をpred(i、j)とし、リフォーカス処理によるシフト量sとすると、|s−pred(i、j)|が小さい値(例えば像ずれ1画素以内)となる領域、すなわち仮想結像面で合焦状態となる領域、では適用量Tを大きくする。一方、|s−pred(i、j)|が大きい値(例えば像ずれ量が3画素以上の場合)となる領域では、適用量Tを小さくする。このようにすることで、デフォーカス量が小さいピント位置または合焦近傍である領域には輪郭強調することができ、かつデフォーカス量が大きいボケ領域にはアンシャープマスク処理をかけない(またはぼかし処理)ようにすることができる。つまり、リフォーカス処理によるピント位置の移動の効果をより強調することができる。
(リフォーカス可能範囲の算出)
リフォーカス可能範囲は、リフォーカス処理によって変更可能なピント位置の範囲を表す。例えば、図13は、本実施形態に係るリフォーカス可能範囲を模式的に示している。許容錯乱円をδ、結像光学系の絞り値をFとすると、絞り値Fにおける被写界深度は±Fδである。これに対して、NH×NV(2×1)分割されて狭くなった瞳部分領域501(502)の水平方向の実効絞り値F01(F02)は、F01=NHFと暗くなる。第1修正視点画像(第2修正視点画像)毎の実効的な被写界深度は±NHFδとNH倍深くなり、合焦範囲がNH倍に広がる。すなわち、実効的な被写界深度±NHFδの範囲内では、第1修正視点画像(第2修正視点画像)毎に合焦した被写体像が取得されている。このため、リフォーカス処理部156は、図11に示した主光線角度θa(θb)に沿って第1修正視点画像(第2修正視点画像)を平行移動するリフォーカス処理により、撮影後に、ピント位置を再調整(リフォーカス)することができる。換言すれば、撮影後にピント位置を再調整(リフォーカス)できる撮像面からのデフォーカス量dは限定されており、デフォーカス量dのリフォーカス可能範囲は、概ね、式(10)の範囲である。
許容錯乱円δは、例えばδ=2ΔX(画素周期ΔXのナイキスト周波数1/(2ΔX)の逆数)などで規定される。このように、リフォーカス可能範囲を算出することにより、ユーザ操作によってピント位置を変更(リフォーカス)する際の操作可能な範囲に対応させることができる。また、リフォーカス処理によって合焦させることのできる光線(被写体)を予め把握することができるため、例えば、所定の被写体がリフォーカス可能範囲に含まれるように、結像光学系の状態等の撮影条件を制御して再び撮影することも可能になる
(視点移動処理)
次に、視点変更処理部155によって実行される、本実施形態に係る視点移動処理について説明する。なお、視点移動処理は、手前側の非主被写体のボケが主被写体に被る場合に、非主被写体によるボケを低減するための処理である。
図14(a)〜(c)は視点移動処理の原理を示している。この図では、撮像素子107(不図示)が撮像面600に配置されており、図11と同様に、結像光学系の射出瞳が瞳部分領域501と瞳部分領域502とに2分割される。
図14(a)は、主被写体q1の合焦像p1に、手前の被写体q2のボケ像Γ1+Γ2が重なって撮影される場合(主被写体への前ボケ被りともいう)の一例を示している。また、図14(b)と図14(c)は、図14(a)に示す例を、結像光学系の瞳部分領域501を通過する光束と、瞳部分領域502を通過する光束とに、それぞれ分けて示している。図14(b)では、主被写体q1からの光束は、瞳部分領域501を通過して、合焦状態で像p1に結像する。一方、手前の被写体q2からの光束は、瞳部分領域501を通過して、デフォーカス状態でボケ像Γ1に広がる。それぞれの光束は、撮像素子107の異なる画素の副画素201により受光されて、第1視点画像が生成される。図14(b)に示すように、第1視点画像では、主被写体q1の像p1と手前の被写体q2のボケ像Γ1とは重ならずに受光される。これは、所定領域(被写体q1の像p1近傍)において、複数の視点画像(第1視点画像と第2視点画像)のうち、至近側の被写体(被写体q2のボケ像Γ1)が最も狭い範囲で撮影されている視点画像となる。換言すれば、所定領域(被写体q1の像p1近傍)において、複数の視点画像(第1視点画像と第2視点画像)のうち、被写体q2のボケ像Γ1の写りが少なく、コントラスト評価値が最も大きい視点画像が得られる。
一方、図14(c)では、主被写体q1からの光束は、瞳部分領域502を通過して、合焦状態で像p1に結像する。一方、手前の被写体q2からの光束は、瞳部分領域502を通過して、デフォーカス状態でボケ像Γ2に広がる。それぞれの光束は、撮像素子107の各画素の副画素202で受光されて、第2視点画像が生成される。図14(c)に示すように、第2視点画像では、主被写体q1の像p1と手前の被写体q2のボケ像Γ2が重なって受光される。これは、所定領域(被写体q1の像p1近傍)において、複数の視点画像(第1視点画像と第2視点画像)のうち、至近側の被写体(被写体q2のボケ像Γ2)が最も広い範囲で撮影されている視点画像となる。換言すれば、所定領域(被写体q1の像p1近傍)において、複数の視点画像(第1視点画像と第2視点画像)のうち、被写体q2のボケ像Γ2の写りが多く、コントラスト評価値が最も小さい視点画像が得られる。
従って、像p1近傍において、像p1とボケ像Γ1の重なりが少ない第1視点画像の重みを大きくし、像p1とボケ像Γ2の重なりが多い第2視点画像の重みを小さくして加算すれば、主被写体に対する前ボケ被りを低減させることができる。
次に、視点変更処理部155が、第1視点画像と第2視点画像とを、重みを用いて重ね合わせる処理について説明する。なお、視点変更処理部155は、上述した第1視点画像A(j、i)と第2視点画像B(j、i)とを入力する。
第1ステップとして、視点変更処理部155は、視点移動を行う所定領域R=[j1、j2]×[i1、i2]と所定領域の境界幅σとを設定したうえで、式(11)に従って所定領域Rと所定領域の境界幅σに応じたテーブル関数T(j、i)を算出する。
なお、テーブル関数T(j、i)は、所定領域Rの内側で1、所定領域Rの外側で0となる関数であり、所定領域Rの境界幅σで1から0に概ね連続的に変化する。なお、視点変更処理部155は、必要に応じて、所定領域を円形やその他の任意の形状としてもよく、また、複数の所定領域及び複数の境界幅を設定してもよい。
第2ステップとして、視点変更処理部155は、実係数w(−1≦w≦1)を用いて、式(12A)に従う第1視点画像A(j、i)の第1重み係数Wa(j、i)を算出する。また、視点変更処理部155は、式(12B)に従う第2視点画像B(j、i)の第2重み係数Wb(j、i)を算出する。
第3ステップとして、視点変更処理部155は、第1視点画像A(j、i)と、第2視点画像B(j、i)と、第1重み係数Wa(j、i)と、第2重み係数Wb(j、i)とを用いて、式(13)に従って出力画像I(j、i)を生成する。
或いは、視点変更処理部155は、シフト量sを用いたリフォーカス処理と組み合わせて、式(14A)もしくは式(14B)に従って出力画像Is(j、i)を生成してもよい。
このようにして出力された出力画像Is(j、i)は、視点が移動した画像であると共に、ピント位置が再調整(リフォーカス)された画像となる。
このように、出力画像の領域に応じて連続的に変化する重み係数を用いて、複数の視点画像毎に重み係数をかけて合成し、出力画像を生成するようにした。すなわち、視点変更処理部155は、式(13)を用いて主被写体に対する前ボケ被りを低減させる場合、像p1近傍において、像p1とボケ像Γ1の重なりが少ない第1視点画像の第1重み係数Waを、像p1とボケ像Γ2の重なりが多い第2視点画像の第2重み係数Wbより大きくして出力画像を生成する。
換言すれば、視点変更処理部155は、画像の所定領域において、至近側の被写体が最も広い範囲で撮影されている視点画像の重み係数を最も小さくし、もしくは、至近側の被写体が最も狭い範囲で撮影されている視点画像の重み係数を最も大きくする。また、視点変更処理部155は、出力画像の所定領域において、コントラスト評価値が最も小さい視点画像の重み係数を最も小さくし、もしくは、コントラスト評価値が最も大きい視点画像の重み係数を最も大きくする。
なお、視点変更処理部155は、必要に応じて、視点移動処理を行わない所定領域以外では、結像光学系のボケ形状を変化させないために、複数の視点画像毎の重み係数(第1重み係数、第2重み係数)を、概ね均等に加算し、出力画像を生成してもよい。また、ユーザの指定に応じて重み係数(すなわち加算比率)を変更した出力画像を生成する方法を後述するが、視点移動処理を行う所定領域をユーザが指定するようにしてもよい。
(瞳ずれに対する視点移動処理)
次に、撮像素子107の周辺像高における瞳ずれについて説明する。図15(a)〜(c)は、各画素の副画素201と副画素202がそれぞれ受光する瞳部分領域(501、502)と結像光学系の射出瞳400との関係を示している。
図15(a)は、結像光学系の射出瞳距離Dlと撮像素子107の設定瞳距離Dsが同じ場合を示している。この場合、結像光学系の射出瞳400は、中央像高の場合も周辺像高の場合も同様に、瞳部分領域501と瞳部分領域502によって概ね均等に瞳分割される。
これに対して、図15(b)は、結像光学系の射出瞳距離Dlが撮像素子107の設定瞳距離Dsより短い場合を示している。この場合、周辺像高では、結像光学系の射出瞳400が、瞳部分領域501と瞳部分領域502によって不均一に瞳分割される。図15(b)の例では、瞳部分領域501に対応した第1視点画像の実効絞り値が、瞳部分領域502に対応した第2視点画像の実効絞り値より小さい(明るい)値となる。反対側の像高(不図示)では、逆に、瞳部分領域501に対応した第1視点画像の実効絞り値が、瞳部分領域502に対応した第2視点画像の実効絞り値より大きい(暗い)値となる。
図15(c)は、結像光学系の射出瞳距離Dlが撮像素子107の設定瞳距離Dsより長い場合である。この場合も、周辺像高では、結像光学系の射出瞳400が、瞳部分領域501と瞳部分領域502によって不均一に瞳分割される。図15(c)の例では、瞳部分領域501に対応した第1視点画像の実効絞り値が、瞳部分領域502に対応した第2視点画像の実効絞り値より大きい(暗い)値となる。反対側の像高(不図示)では、逆に、瞳部分領域501に対応した第1視点画像の実効絞り値が、瞳部分領域502に対応した第2視点画像の実効絞り値より小さい(明るい)値となる。
すなわち、瞳ずれにより周辺像高で瞳分割が不均一になることに伴って、第1視点画像と第2視点画像の実効F値も不均一になる。このため、第1視点画像と第2視点画像のいずれかのボケの広がり方が大きくなり、他方のボケの広がり方が小さくなる。
従って、視点変更処理部155は、必要に応じて、出力画像の所定領域において、実効絞り値が最も小さい視点画像の重み係数を最も小さくし、もしくは、実効絞り値が最も大きい視点画像の重み係数を最も大きくすることが望ましい。このような視点移動処理を行うことにより、主被写体への前ボケ被りを低減させることができる。
(被写界深度拡大処理)
次に、視点変更処理部155による深度拡大処理について、再び図14を参照して説明する。上述したように、図14(b)において瞳部分領域501を通過した像が第1視点画像、瞳部分領域502を通過した像が第2視点画像である。各視点画像は、図からも明らかなように、本来の瞳領域の半分を通過して得られる画像であるため、水平方向2分割の瞳分割領域の場合には水平方向の絞り径が半分となる。このため、水平方向の被写界深度は4倍になる。一方、本実施形態では垂直方向に瞳分割した構成ではないため、垂直方向の被写界深度の変化はない。従って、第1視点画像または第2視点画像は、第1視点画像と第2視点画像とを合成した画像(A+B像)の被写界深度に対して、縦横平均として2倍の被写界深度を有する画像となる。
このように視点変更処理部155は、第1視点画像または第2視点画像の加算比率を1:1以外に変更して合成画像を生成することにより、被写界深度が拡大した画像を生成することができる。更に、視点変更処理部155は、上述したコントラスト分布と像ずれ分布を用いたアンシャープマスク処理を、第1視点画像又は第2視点画像の加算比率を変更した画像に対して適用する。このようにすることで、被写界深度を拡大し、かつ輪郭を強調した合成画像を生成することができる。また、深度拡大処理では、視点移動処理と同様に、所定領域をユーザの指定に応じて処理するようにしてもよい。なお、視点画像から合成画像は、視点変更処理部155から出力されると、上述した現像処理が適用され、現像処理の適用された画像が画像処理部125から出力される。
(撮像画像の視点移動及びピント調整操作に係る一連の動作)
次に、図16を参照して、撮像画像の視点移動及びピント調整操作に係る一連の動作について説明する。なお、本処理は、例えば操作部132に含まれるレリーズスイッチ等がユーザによって押下された場合に開始される。また、本処理は、制御部121が不図示のROMに記憶されたプログラムをRAMの作業用領域に展開、実行すると共に、画像処理部125等の各部を制御することにより実現される。
S101において、撮像素子107は、制御部121の指示に応じて撮像を行う。S102において、撮像素子107は、視差画像データを出力する。具体的に、撮像素子107は、上述した視点画像(A+B像とA像)を1つのファイルフォーマットの画像データとして出力する。また、記録媒体133は、撮像素子107から出力された画像データを一時的に記憶する。
S103において、画像処理部125は、制御部121の指示に応じて視差画像データを読み込む。例えば、画像処理部125は、記録媒体133に記憶した画像データを、画像取得部151を用いて取得する。このとき、画像処理部125は、A+B像からB像を生成して、例えば、左側の視点の画像である第1視点画像(A像)と、右側の視点の画像である第2視点画像(B像)とを取得する。S104において、制御部121は、操作部132と画像処理部125の出力とを制御して、後述する視点画像操作処理、すなわち、撮像画像に対する視点移動及びピント調整を行う。制御部121は、視点画像操作処理を終えると、本一連の処理を終了する。
(視点画像操作処理に係る一連の動作)
次に、S104における視点画像操作処理に係る一連の動作について、図17に示すフローチャートを参照して説明する。なお、以下の説明では、視点移動(及び被写界深度の変更)を行うためのユーザインターフェース(視点移動UI)における操作を、ピント調整を行うためのユーザインターフェース(ピント調整UI)における操作より先に行う例を示す。しかし、ピント調整UI操作を、視点移動UI操作より先に行ってもかまわない。
S201において、制御部121は、視点移動UIとピント調整UIとを備えたユーザインターフェース(単にUIという)と、撮影画像とを表示部131に表示させる。
S202において、制御部121は、操作部132を介して入力されたユーザ操作に基づいて、視点移動を行うかどうかを判定する。制御部121は、入力されたユーザ操作が視点移動を行うことを示す場合、制御部121は視点移動を行うと判定して処理をS203へ進める。一方、入力されたユーザ操作が視点移動を行うことを示さない場合、制御部121は視点移動を行わないと判定して処理をS207へ進める。
S203において、制御部121は、操作部132を介して視点移動UIを操作するユーザ操作を更に取得する。ここで、表示部131に表示する視点移動UIの一例を、図19Aに示している。図19Aの例では、UIを構成する一部の領域1000に画像(撮影画像や視点画像)を表示する。上述したように、本実施形態では水平方向に2つに瞳分割した画像を得る構成であるため、左右のみの視点画像を用いて視点映像を生成する。
視点移動UIは、ユーザが操作部材を視点の変化する方向へ操作可能なように、スライダー1001とスライダーバー1002とを水平方向に配置する。これにより、ユーザが視点移動の操作をより直感的に操作することができる。
S204において、制御部121は画像処理部125を用いて、視点画像の加算比率を変更した合成画像を生成する。具体的に、画像処理部125は、操作情報取得部154を介してS203において指定されたスライダー1001の位置を取得する。画像処理部125は、スライダー101の位置に応じて第1視点画像と第2視点画像の加算比率を変更して合成(すなわち視点移動処理)することにより、視点移動した画像を生成する。スライダーバー1002の右端の値を1、中央を0、左端の値を−1と定義すると、画像処理部125は、スライダー1001が位置xにある場合、第1視点画像と第2視点画像の比率を(1+x):(1−x)となるように加算比率を変更する。
S205において、制御部121は、画像処理部125を用いて、S204において合成された画像に現像処理を適用する。現像処理は、図18のフローチャートを参照して後述する。S206において、制御部121は、S205において現像処理を適用した画像を表示部131に表示する。
S207において、制御部121は、操作部132を介して入力されたユーザ操作に基づいて、ピント調整を行うかどうかを判定する。制御部121は、入力されたユーザ操作がピント調整を行うことを示す場合、制御部121はピント調整を行うと判定して処理をS208へ進める。一方、入力されたユーザ操作がピント調整を行うことを示さない場合、制御部121はピント調整を行わないと判定して一連の処理を終了する。
S208において、制御部121は、操作部132を介してピント調節UIを操作するユーザ操作を更に取得する。図19Aはピント調整UIの一例を示している。上述した視点移動UIでは、視点移動する方向にスライダーバーが設定され、これに対してピント調整UIでは、視点移動とは異なる方向に(異なる角度を持たせて)設置する。図19Aの例では、ピント調整UIのスライダーバー1003とスライダー1004は、視点移動UIであるスライダーバー1002の方向と直交する方向(すなわち上下方向)に設定される。例えば、制御部121は、スライダー1004を上側に動かすと後ピン状態が強くなる方向に、下側に動かすと前ピン状態が強くなる方向にピント調整を制御する。ピント調整範囲は、上述したリフォーカス可能範囲に対応し、式(10)に従って算出される。
S209において、制御部121は、画像処理部125を用いてS208で指定されたスライダー位置に基づいて、ピント調整位置を算出すると共に上述したリフォーカス処理を行う。画像処理部125は、スライダーバー1002に対するスライダー1004の位置に基づいて、リフォーカス可能範囲に対するデフォーカス量(あるいはシフト量)を決定する。S210において、制御部121は、画像処理部125を用いて現像処理を行う。そして、制御部121は、S211において表示部131に現像処理された画像を表示させて、視差画像操作処理に係る一連の動作を終了して、呼び出し元に処理を戻す。
(現像処理に係る一連の動作)
次に、S205及びS210における現像処理について、図18を参照して説明する。S301において、画像処理部125は、白の領域のR,G,Bが等色になるようにR,G,Bの各色にゲインをかけてホワイトバランス処理を行う。S302において、画像処理部125は、デモザイキング処理を行う。具体的に、画像処理部125は、入力画像に対して、それぞれの規定方向で補間を行って、その後方向選択を行うことにより、各画素について補間処理結果としてR、G,Bの3原色のカラー画像信号を生成する。
S303において、画像処理部125は、ガンマ処理を行う。S304において、画像処理部125は、画像の見栄えを改善するためのノイズ低減、彩度強調、色相補正、エッジ強調といった各種の色調整処理を行う。S305において、画像処理部125は、S304において色調整されたカラー画像信号をJPEG等の所定の方式で圧縮処理して、圧縮された画像データを出力する。S306において、制御部121は、画像処理部125から出力された画像データを、記録媒体133に記録して現像処理に係る一連の動作を終了して呼び出し元に処理を戻す。
(視点移動UI及びピント調整UIの例)
次に、図19B〜図19Eを参照して、上述した視点移動UI及びピント調整UIの操作例と操作後の合成画像の例を説明する。図19Bは、ピント調整UIを操作してリフォーカス処理を行った合成画像を表示した例を示している。スライダー1004を下方向に動かすユーザ操作に対して、制御部121は、(画像処理部125を用いて)前ピン状態が強くなるようにピント調整(リフォーカス処理)を行って出力画像を表示している。
図19Cは、図19Bに対して更に視点移動UIのスライダー1001を右方向に移動させて、視点移動処理を行った合成画像を表示した例を示している。スライダー1001を右方向に動かすユーザ操作に対して、制御部121は、(画像処理部125を用いて)視点移動処理を行って被写界深度を拡大した出力画像を表示している。また、図19Dは、図19Bに対して視点移動UIのスライダー1001を左方向に移動させて、視点移動処理を行い、被写界深度を拡大した合成画像を表示した例を示している。このように視点移動UIとピント調整UIを並行して行えるように、操作部材であるスライダーとスライダーバーを配置することにより、ユーザが視点移動、被写界深度の拡大、リフォーカス処理を並行して(同時に)行うことが可能となる。
更に、図20には、上述した視差強調処理とシャープネス処理における強調度合を変更可能なUIを更に追加した例を示している。制御部121は、図19A〜図19Dに示したUIに加えて、強調度合を変更できるスライダー1005とスライダーバー1006とを配置する。このスライダー1005に対する操作は、上述の視差強調処理における変数k、或いはシャープネス処理における適用量Tに対応するパラメータを変化させ、表示される合成画像における強調度合を変更する。
なお、本実施形態では、各画素が縦方向に分割された撮像素子で得られた信号に基づいて水平方向に視点移動処理を行うため、視点移動UIを水平方向に配置するようにした。しかし、撮像素子の分割方向が水平方向でない(例えば垂直方向)場合には、視点移動UIを配置する方向を当該分割方向に合わせて(例えば垂直方向)配置してもよい。この場合、ピント調整UIは、視点移動UIと異なる方向に配置して両UIの区別をより明確にしてもよいし、垂直方向を維持して、ピント位置に対する操作をより直観的に行うようにしてもよい。
以上説明したように、入射する光線の強度と角度情報を含む画像信号を取得した後に、視点を移動する操作とピント位置を操作する操作を受け付けて、当該操作に応じた合成画像を生成し、表示するようにした。このようにすることで、ユーザが視点移動や被写界深度の拡大、ピント位置の調整(リフォーカス)を並行して行うことが可能になる。換言すれば、複数の視点画像に基づいて、視点変更画像を表示させる操作とピント位置を変更した画像を表示させる操作とを並行して操作することが可能になる。
また、強調度合を変更する操作を更に受け付けることにより、ピント調整のされた合成画像の強調処理を更に並行して行うことが可能となる。さらに、入射する光線の強度と角度情報を含む画像信号を取得する撮像素子の画素が水平方向に複数分割されている場合には、視点移動UIを水平方向に操作可能に配置するようにした。このようにすることで、視点の移動可能な方向とユーザが操作可能な方向が一致するため、ユーザはより直観的に操作を行うことができるようになる。
(実施形態2)
次に実施形態2について説明する。実施形態2では、画像を縦位置表示又は横位置表示に切り換えて視点画像の操作を行う例について説明する。本実施形態のデジタルカメラ100の構成は実施形態1と同一構成であり、視差画像操作処理の一部が異なる。このため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(視点画像操作処理に係る一連の動作)
本実施形態に係る視点画像操作処理について、図21を参照して説明する。S401において、制御部121は、画像データの縦位置表示を行うかどうかを判定する。制御部121は、例えば入力画像のメタデータを参照して縦位置で撮影された画像であるかを判定する。制御部121は、縦位置で撮影された画像であると判定した場合、縦位置表示を行うためにS402へ処理を進める。一方、縦位置で撮影された画像でないと判定した場合、横位置表示を行うためにS403へ処理を進める。なお、S401の判定は、ユーザが操作部132のボタン等を介して縦位置表示に設定した場合に縦位置表示を行うようにしてもよいし、メタデータから撮像素子の画素の分割方向を示す情報を取得して、当該分割方向に応じて表示の向きを判定してもよい。
S402において、制御部121は、縦位置で画像を表示した上で、視点移動UIを垂直方向に変更可能に表示すると共にピント調整UIを水平方向に変更可能に表示する。一方、S403において、制御部121は、横位置で画像を表示した上で、視点移動UIを水平方向に変更可能に表示すると共にピント調整UIを垂直方向に変更表示に表示する。その後、制御部121は、S202〜S211に係る処理を実施形態1と同様に行って、呼び出し元に処理を戻す。
以上説明したように本実施形態では、入力した画像が縦位置表示又は横位置表示かに応じて、視点移動UI及びピント調整UIを動的に切り替えるようにした。このようにすることで、ユーザは、表示向きの異なる撮影画像が存在する場合であっても、撮影画像の視点移動が可能な方向に合わせた操作を行うことが可能になる。
(実施形態3)
次に実施形態3について説明する。実施形態3では、各画素が水平方向と垂直方向とにそれぞれ2分割された撮像素子を用いる点が異なる。このため、この点以外のデジタルカメラ100の構成は、実施形態1と同一である。従って、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
本実施形態に係る撮像素子107の画素及び副画素の配列について、図22を参照して説明する。図22は、本実施形態の撮像素子107について、画素の配列を4列×4行の範囲で、副画素の配列を8列×8行の範囲で示している。
本実施形態において、図22に示す2列×2行の画素群200では、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下にそれぞれ配置されている。更に、各画素は2列×2行に配列された副画素221から副画素224により構成される。
撮像素子107は、図22に示す4列×4行の画素(8列×8行の副画素)を面上に多数配置して、撮像画像(副画素信号)の取得を可能としている。撮像素子107は、例えば、画素の周期Pが4μm、画素数Nが横5575列×縦3725行=約2075万画素、副画素の周期PSUBが2μm、副画素数NSUBが横11150列×縦7450行=約8300万画素の撮像素子107となる。
図22に示す1つの画素200Gを、撮像素子107の受光面側(+z側)から見た平面図を図23(a)に示し、図23(a)のa−a断面を−y側から見た断面図を図23(b)に示す。図23(a)に示すように、本実施形態の画素200Gでは、x方向にNH分割(2分割)、y方向にNV分割(2分割)された光電変換部2301〜2304が形成される。光電変換部2301〜2304は、それぞれ副画素221〜224に対応する。
本実施形態では、第1視点画像は、各画素の副画素201の受光信号を集めて生成される。同様に、第2視点画像は各画素の副画素202の受光信号を、第3視点画像は各画素の副画素203の受光信号を、第4視点画像は各画素の副画素204の受光信号を集めて、それぞれ生成される。なお、本実施形態では、第1視点画像から第4視点画像は、それぞれ、ベイヤー配列の画像であり、必要に応じて、第1視点画像から第4視点画像に、デモザイキング処理を行ってもよい。
j、iを整数として、撮像素子107の行方向j番目、列方向i番目の位置を(j、i)、位置(j、i)の画素の第1視点画像をA0(j、i)、第2視点画像をB0(j、i)、第3視点画像をC0(j、i)、第4視点画像をD0(j、i)とする。このとき、撮像画像Iは、I(j、i)=A0(j、i)+B0(j、i)+C0(j、i)+D0(j、i)である。
(視点画像修正とリフォーカス)
視点変更処理部155は、実施形態1と同様に、コントラスト処理を行う。すなわち、ベイヤー配列の撮像画像I(j、i)に対し、式(1)に従って輝度Y(j、i)を算出する。また、視点変更処理部155は、高周波成分dY(j、i)、高周波成分dZ(j、i)、コントラスト分布C(j、i)を算出する。
次に、視点変更処理部155は、視点画像の視差強調処理を行う。視点変更処理部155は、第1視点画像A0(j、i)から第4視点画像D0(j、i)に対して、式(15)および式(16)に従って視点画像間の差を拡大し、視差強調する変換を行う。視点変更処理部155は、この処理によって第1修正視点画像A(j、i)から第4修正視点画像D(j、i)を生成する。ここで、0≦kAB、kAC、kAD、kBC、kBD、kCD ≦1の実数とする。
そして、リフォーカス処理部156は、視点変更処理部155によって出力された修正視点画像を用いてリフォーカス処理を行う。具体的に、リフォーカス処理部156は、整数シフト量sとして、式(17)に従い第1修正視点画像Aから第4修正視点画像Dをシフト加算する。
すなわち、整数シフト量sに応じた各仮想結像面でのリフォーカス画像I(j、i;s)を生成することができる。なお、第1修正視点画像Aから第4修正視点画像Dがベイヤー配列であるため、2の倍数のシフト量s=2n(n:整数)で、同色毎に式(10)のシフト加算を行い、ベイヤー配列を保って、リフォーカス画像I(j、i;s)を生成する。画像処理部125は、生成されたリフォーカス画像I(j、i;s)にデモザイキング処理を行う。
なお、必要に応じて、第1修正視点画像から第4修正視点画像にデモザイキング処理を適用し、リフォーカス処理部156はデモザイキング処理後の第1修正視点画像から第4修正視点画像にシフト加算処理を行ってリフォーカス画像を生成してもよい。また、リフォーカス処理部156は、必要に応じて、第1修正視点画像から第4修正視点画像の各画素間の補間信号を生成し、非整数シフト量に応じたリフォーカス画像を生成してもよい。
(像ずれ分布)
さらに、本実施形態における視点画像の像ずれ分布について説明する。水平方向の瞳分割方向の像ずれ分布は実施形態1と同様のため省略し、垂直方向の瞳分割方向の像ずれ分布について説明する。
視点変更処理部155は、2次元的な像を垂直方向の瞳分割方向のみにk画素分動かして第1視点画像A0の画素と第3視点画像C0の差分をとる。従って、複数行について加算する相関演算の式は、式(18)で定義される。
但し、A0ij、C0ijはそれぞれ第1視点画像A0、第3視点画像B0のj列目i番目の画素の輝度を表す。またniは演算に用いる画素数を表す数字、njは相関演算を行う1対の像の列方向の数である。
視点変更処理部155は、式(18)に示すCOR’(k)が最小となるkを像ずれ量として算出する。なお、添え字kはjにのみ加算されてiとは無関係である。これは、2次元的な像を垂直方向の瞳分割方向のみに移動させながら相関演算をしていることに対応する。このように、視点変更処理部155は、第1視点画像A0、第3視点画像C0の各領域の像ずれ量を算出することにより、像ずれ分布を生成することができる。なお、本実施形態ではA0とC0を用いたが、B0とD0を用いて相関演算をしてもよいし、A0とB0を加算した信号とC0とD0と加算した信号で相関演算してもよい。
(被写界深度拡大処理)
視点変更処理部155は、実係数w(−1≦w≦1)として、式(19A)〜(19D)に従って各視点画像の重み係数をそれぞれ算出する。
ここで、Wa(j、i)は第1視点画像A(j、i)の第1重み係数、Wb(j、i)は第2視点画像B(j、i)の第2重み係数、Wc(j、i)は第3視点画像C(j、i)の第3重み係数、Wd(j、i)は第4視点画像D(j、i)の第4重み係数である。
視点変更処理部155は、各視点画像と対応する重み係数から、式(20)に従って出力画像I(j、i)を生成する。
(視点移動UI及びピント調整UIの例)
更に、本実施形態に係る視点移動UIとピント調整UIの構成について、図24を参照して説明する。本実施形態の構成では、瞳分割方向が水平方向と垂直方向の2方向で分割されているため、ユーザは垂直方向と水平方向とで視点移動させることが可能である。このため、本実施形態では、ユーザがそれぞれの方向に操作するための、2軸のスライダーとスライダーバーを設ける。
水平方向の視点移動には水平方向のスライダーバー3001とスライダー3002とを配置し、垂直方向の視点移動には垂直方向のスライダーバー4001とスライダー4002とを配置する。ピント調整UIは視点移動UIとは互いに異なる方向にスライダーバー5001とスライダー5002とを配置する。なお、ピント調整UIは、十字型に配置された視点移動UIの交点を通るように配置されているが、他の位置に配置されてもよい。このように、視点移動の2方向のスライダーをそれぞれ移動させることで第1から第4の視点画像の重み係数を変更し、視点の異なる画像を生成することができる。そして、実施形態1と同様に、視点移動UIとピント調整UIとを並行して(同時に)操作することが可能になる。
以上説明したように、本実施形態では、入射する光線の強度と角度情報を含む画像信号を取得した後に、2次元状(水平及び垂直方向)に視点を移動する操作と、ピント位置を操作する操作とを受け付けて、当該操作に応じた合成画像を生成し、表示するようにした。このようにすることで、入力した画像信号から2次元状に視点を移動させた画像を生成可能な場合に、ユーザは2次元状の視点移動、ピント位置の調整(リフォーカス)を並行して行うことが可能になる。
(実施形態4)
次に実施形態4について説明する。実施形態4では、画像を縦位置表示又は横位置表示に切り換えて視点画像の操作を行う際のUIの表記(上述した視点移動UI等に付す表示)を制御する例について説明する。視点画像の操作を行うUIの表記は、例えば視点画像の操作に応じて視点画像の視点が変更される向きを示す。本実施形態のデジタルカメラ100の構成は実施形態1と同一構成であり、視差画像操作処理の一部が異なる。このため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(視点画像操作処理に係る一連の動作)
本実施形態に係る視点画像操作処理について、図25を参照して説明する。S501において、制御部121は、視差画像の操作を行うUIの表記を画像の縦位置表示に合わせるかを判定するため、入力画像を縦位置で表示するかを判定する。制御部121は、例えば入力画像のメタデータを参照して入力画像が縦位置で撮影された画像であるかを判定し、入力画像を縦位置で表示すると判定した場合は、UIの表記を縦位置用とするためにS502へ処理を進める。一方、縦位置で撮影された画像でないと判定した場合、横位置用の表記を行うためにS503へ処理を進める。S502において、制御部121は、さらに画像の回転角度を判定する。制御部121は、例えば入力画像のメタデータを参照して撮影画像の角度(例えば、90度右回転した縦位置、又は90度左回転した縦位置)を判定する。制御部121は、入力画像が90度右回転で撮影された画像であると判定した場合、表示部131に90度右回転の表記を行うためにS504へ処理を進める。一方、撮影画像が90度右回転でない(かつ縦位置表示で撮影された)画像であると判定した場合、90度左回転の表記を行うためにS505へ処理を進める。なお、S501及びS502における判定は、ユーザが操作部132のボタン等を介して縦位置表示に設定した場合に縦位置用の表記を行うようにしてもよいし、メタデータから撮像素子の画素の分割方向を示す情報を取得して、当該分割方向に応じて視差画像の操作を行うUIの表記を判定してもよい。
S503において、制御部121は、横位置で画像を表示した上で、視点移動の操作を行うUIの表記を、横位置用の表記(左右)にして表示する(図26)。S504において、制御部121は、90度右回転の縦位置で画像を表示した上で、視点移動の操作を行うUIの表記をスライダーの左側を上、右側を下として表示する(図27)。S505において、制御部121は、90度右回転の縦位置で画像を表示した上で、視点移動の操作を行うUIの表記をスライダーの左側を下、右側を上として表示する(図28)。このようにすれば、制御部121は、視点移動の操作を行うUIの表記を視点移動UIの向きに応じて切り替えることができるほか、同じ縦位置であっても当該表記を回転角度に応じて切り替えを行うことができる。S503〜S505の処理を終了すると、制御部121は、その後S202〜S211に係る処理を実施形態1と同様に行って、呼び出し元に処理を戻す。
以上説明したように本実施形態では、入力した画像が縦位置表示又は横位置表示か、及び回転角度に応じて、視点移動UIの表記を動的に切り替えるようにした。このようにすることで、ユーザは、表示向きの異なる撮影画像が存在する場合であっても、撮影画像の視点移動が可能な方向に合わせた操作を行うことが可能になる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
121…制御部、125…画像処理部、131…表示部、132…操作部、151…画像取得部、155…視点変更処理部、156…リフォーカス処理部

Claims (18)

  1. 入射する光線の強度と角度情報を含む画像信号を取得する取得手段と、
    視点を変更する操作とピント位置を変更する操作とを受け付ける操作手段と、
    前記画像信号に基づいて得られる複数の視点画像に基づいて、前記視点を変更する操作に応じて視点を変更すると共に、前記ピント位置を変更する操作に応じてピント位置を変更した表示画像を生成する処理手段と、を備える
    ことを特徴とする画像処理装置。
  2. 前記操作手段は、前記画像信号に基づいて所定の方向に視点を変更した前記表示画像を生成可能な場合に、前記視点を変更する操作を、前記所定の方向に沿って受け付ける、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記操作手段は、前記画像信号に基づいて所定の方向に視点を変更した前記表示画像を生成可能な場合に、前記ピント位置を変更する操作を、前記所定の方向と異なる方向に沿って受け付ける、
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記操作手段は、所定の位置から前記所定の方向に沿って離れるほど前記所定の方向への視点の変更が大きくなり、前記所定の位置から前記所定の方向に沿って反対側に離れるほど、前記所定の方向と反対側に視点の変更が大きくなるように、前記視点を変更する操作を受け付ける、
    ことを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記所定の方向は、水平方向又は垂直方向である、
    ことを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
  6. 前記操作手段は、横位置において水平方向に視点を変更可能な前記表示画像を縦位置で表示する場合、前記視点を変更する操作を、垂直方向に受け付ける、
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記視点を変更する操作に応じて視点が変更される向きを示す表記を表示する表示手段を更に備え、
    前記表示手段は、前記表記を、前記操作手段が前記視点を変更する操作を受け付ける方向に応じて異ならせる、
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 前記操作手段は、前記ピント位置を変更する操作が所定の位置から操作を受け付ける方向に離れるほど前記ピント位置の変更が大きくなるように、前記ピント位置を変更する操作を受け付ける、
    ことを特徴とする請求項2から7のいずれか1項に記載の画像処理装置。
  9. 前記操作手段は、前記画像信号に基づく表示画像が表示された状態で前記視点を変更する操作と前記ピント位置を変更する操作とを受け付ける、
    ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記操作手段は、前記表示画像における輪郭強調の度合を変更する操作を更に受け付け、
    前記処理手段は、前記輪郭強調の度合に応じて、前記表示画像における合焦している領域に対する輪郭強調を行う、
    ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記処理手段は、前記視点を変更する操作に応じて前記複数の視点画像を加算するための重み付けを異ならせ、前記重み付けを用いて前記複数の視点画像を加算して、前記表示画像を生成する、
    ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 前記処理手段は、前記ピント位置を変更する操作に応じて前記複数の視点画像間のシフト量を変更し、前記シフト量によりずらした前記複数の視差画像を加算して、前記表示画像を生成する、
    ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  13. 複数の副画素を含む画素が2次元状に配置され、前記副画素から出力された信号に基づいて入射する光線の強度と角度情報を含む画像信号を出力する撮像素子と、
    視点を変更する操作とピント位置を変更する操作とを受け付ける操作手段と、
    前記画像信号に基づいて得られる複数の視点画像に基づいて、前記視点を変更する操作に応じて視点を変更すると共に、前記ピント位置を変更する操作に応じてピント位置を変更した表示画像を生成する処理手段と、を備え、
    前記撮像素子は、前記画素のなかで所定の方向に複数の前記副画素が配置され、
    前記操作手段は、前記画像信号に基づいて前記所定の方向に視点を変更した前記表示画像を生成可能な場合に、前記視点を変更する操作を、前記所定の方向に沿って受け付ける、
    ことを特徴とする撮像装置。
  14. 前記操作手段は、前記撮像装置を用いて横位置で撮影された前記画像信号を横位置の前記表示画像として表示する場合、前記視点を変更する操作を、前記所定の方向に沿って受け付け、横位置で撮影された前記画像信号を縦位置の前記表示画像として表示する場合、前記視点を変更する操作を、前記所定の方向と垂直な方向に沿って受け付ける、
    ことを特徴とする請求項13に記載の撮像装置。
  15. 前記視点を変更する操作に応じて視点が変更される向きを示す表記を表示する表示手段を更に備え、
    前記表示手段は、前記表記を、前記画像信号の撮影された、縦位置又は横位置からの回転角に応じて異ならせる、
    ことを特徴とする請求項14に記載の撮像装置。
  16. 取得手段が、入射する光線の強度と角度情報を含む画像信号を取得する取得工程と、
    操作手段が、視点を変更する操作とピント位置を変更する操作とを受け付ける操作工程と、
    処理手段が、前記画像信号に基づいて得られる複数の視点画像に基づいて、前記視点を変更する操作に応じて視点を変更すると共に、前記ピント位置を変更する操作に応じてピント位置を変更した表示画像を生成する処理工程と、を有する
    ことを特徴とする画像処理装置の制御方法。
  17. 複数の副画素を含む画素が2次元状に配置され、前記副画素から出力された信号に基づいて入射する光線の強度と角度情報を含む画像信号を出力する撮像素子を有する撮像装置の制御方法であって、
    取得手段が、前記撮像素子から出力される前記画像信号を取得する取得工程と、
    操作手段が、視点を変更する操作とピント位置を変更する操作とを受け付ける操作工程と、
    処理手段が、前記画像信号に基づいて得られる複数の視点画像に基づいて、前記視点を変更する操作に応じて視点を変更すると共に、前記ピント位置を変更する操作に応じてピント位置を変更した表示画像を生成する処理工程と、を有し、
    前記撮像素子は、前記画素のなかで所定の方向に複数の前記副画素が配置され、
    前記操作工程では、前記画像信号に基づいて前記所定の方向に視点を変更した前記表示画像を生成可能な場合に、前記視点を変更する操作を、前記所定の方向に沿って受け付ける、
    ことを特徴とする撮像装置の制御方法。
  18. コンピュータに、請求項16に記載の画像処理装置の制御方法の各工程を実行させるためのプログラム。
JP2016112103A 2016-03-24 2016-06-03 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム Active JP6757184B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
SG11201808036XA SG11201808036XA (en) 2016-03-24 2017-01-25 Image processing apparatus, imaging apparatus, and control methods thereof
RU2018137046A RU2707066C1 (ru) 2016-03-24 2017-01-25 Устройство обработки изображения, устройство создания изображения, их способы управления и программа
DE112017001458.1T DE112017001458T5 (de) 2016-03-24 2017-01-25 Bildverarbeitungsvorrichtung, Bildgebungsvorrichtung und Steuerverfahren davon
KR1020187029815A KR102157491B1 (ko) 2016-03-24 2017-01-25 화상 처리장치, 촬상장치 및 이들의 제어방법과, 기억매체
PCT/JP2017/002504 WO2017163588A1 (ja) 2016-03-24 2017-01-25 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
CN201780019656.XA CN108886581B (zh) 2016-03-24 2017-01-25 图像处理装置、摄像装置及其控制方法
PH12018502032A PH12018502032A1 (en) 2016-03-24 2018-09-21 Image processing apparatus, imaging apparatus, and control methods thereof
US16/137,801 US10924665B2 (en) 2016-03-24 2018-09-21 Image processing apparatus, imaging apparatus, control methods thereof, and storage medium for generating a display image based on a plurality of viewpoint images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016060897 2016-03-24
JP2016060897 2016-03-24

Publications (3)

Publication Number Publication Date
JP2017184217A true JP2017184217A (ja) 2017-10-05
JP2017184217A5 JP2017184217A5 (ja) 2019-07-11
JP6757184B2 JP6757184B2 (ja) 2020-09-16

Family

ID=60006543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112103A Active JP6757184B2 (ja) 2016-03-24 2016-06-03 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム

Country Status (8)

Country Link
US (1) US10924665B2 (ja)
JP (1) JP6757184B2 (ja)
KR (1) KR102157491B1 (ja)
CN (1) CN108886581B (ja)
DE (1) DE112017001458T5 (ja)
PH (1) PH12018502032A1 (ja)
RU (1) RU2707066C1 (ja)
SG (1) SG11201808036XA (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018216212A1 (de) 2017-09-25 2019-03-28 Koito Manufacturing Co., Ltd. Fahrzeugleuchte
WO2019155981A1 (ja) * 2018-02-06 2019-08-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
CN110148454A (zh) * 2019-05-21 2019-08-20 上海联影医疗科技有限公司 一种摆位方法、装置、服务器及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10714520B1 (en) * 2017-08-04 2020-07-14 Facebook Technologies, Llc Manufacturing an on-chip microlens array
EP3933474A4 (en) * 2019-03-27 2022-07-27 Sony Group Corporation IMAGE PROCESSING DEVICE AND METHOD, IMAGING PROGRAM AND DEVICE
CN114731383A (zh) * 2019-11-28 2022-07-08 索尼集团公司 显示终端设备
KR20210087809A (ko) * 2020-01-03 2021-07-13 삼성전자주식회사 이미지 센서를 포함하는 전자 장치 및 그의 동작 방법
JP2022184138A (ja) * 2021-05-31 2022-12-13 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
US11922606B2 (en) 2021-10-04 2024-03-05 Samsung Electronics Co., Ltd. Multipass interference correction and material recognition based on patterned illumination without frame rate loss

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211335A (ja) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2013110556A (ja) * 2011-11-21 2013-06-06 Olympus Corp プレノプティックカメラ
JP2015115818A (ja) * 2013-12-12 2015-06-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム。
JP2015198340A (ja) * 2014-04-01 2015-11-09 キヤノン株式会社 画像処理装置およびその制御方法、並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100557172B1 (ko) * 2005-04-22 2006-03-03 삼성전자주식회사 이동통신 단말기의 사용자 인터페이스 표시 장치 및 방법
JP4513906B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2011022796A (ja) 2009-07-15 2011-02-03 Canon Inc 画像処理方法および画像処理装置
WO2012064106A2 (en) * 2010-11-12 2012-05-18 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
JP2012244196A (ja) * 2011-05-13 2012-12-10 Sony Corp 画像処理装置及び方法
JP2014029353A (ja) * 2012-07-31 2014-02-13 Sony Corp 焦点調整装置および焦点調整方法
US20140327771A1 (en) * 2013-05-01 2014-11-06 Nvidia Corporation System, method, and computer program product for displaying a scene as a light field
JP6548367B2 (ja) * 2014-07-16 2019-07-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2016060897A (ja) 2014-09-22 2016-04-25 株式会社リコー ポリマーとその製造方法
JP2016112103A (ja) 2014-12-12 2016-06-23 株式会社ハイレックスコーポレーション 昇降装置及び座椅子昇降装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211335A (ja) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2013110556A (ja) * 2011-11-21 2013-06-06 Olympus Corp プレノプティックカメラ
JP2015115818A (ja) * 2013-12-12 2015-06-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム。
JP2015198340A (ja) * 2014-04-01 2015-11-09 キヤノン株式会社 画像処理装置およびその制御方法、並びにプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018216212A1 (de) 2017-09-25 2019-03-28 Koito Manufacturing Co., Ltd. Fahrzeugleuchte
WO2019155981A1 (ja) * 2018-02-06 2019-08-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
US11323689B2 (en) 2018-02-06 2022-05-03 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method, and recording medium
CN110148454A (zh) * 2019-05-21 2019-08-20 上海联影医疗科技有限公司 一种摆位方法、装置、服务器及存储介质

Also Published As

Publication number Publication date
DE112017001458T5 (de) 2018-12-06
KR20180123117A (ko) 2018-11-14
SG11201808036XA (en) 2018-10-30
US10924665B2 (en) 2021-02-16
JP6757184B2 (ja) 2020-09-16
US20190028640A1 (en) 2019-01-24
PH12018502032A1 (en) 2019-07-15
KR102157491B1 (ko) 2020-09-18
CN108886581B (zh) 2020-12-22
RU2707066C1 (ru) 2019-11-21
CN108886581A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
JP6757184B2 (ja) 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
US10681286B2 (en) Image processing apparatus, imaging apparatus, image processing method, and recording medium
JP6789833B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
CN107465866B (zh) 图像处理设备及方法、摄像设备和计算机可读存储介质
CN107431755B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
JP2018107654A (ja) 画像処理装置および画像処理方法、プログラム、記憶媒体
US20200174222A1 (en) Image processing method, image processing device, and image pickup apparatus
JP7422843B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP6516510B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6976754B2 (ja) 画像処理装置および画像処理方法、撮像装置、プログラム
JP7204357B2 (ja) 撮像装置およびその制御方法
JP6254843B2 (ja) 画像処理装置およびその制御方法
WO2017163588A1 (ja) 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
JP7150785B2 (ja) 画像処理装置、撮像装置、画像処理方法、および、記憶媒体
WO2016143913A1 (en) Image processing method, image processing device, and image pickup apparatus
JP6800648B2 (ja) 画像処理装置及びその制御方法、プログラム並びに撮像装置
JP7091048B2 (ja) 撮像装置およびその制御方法
JP6817855B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US10964739B2 (en) Imaging apparatus and control method thereof
JP2018050231A (ja) 撮像装置、撮像方法および撮像制御プログラム
JP2016024402A (ja) 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200828

R151 Written notification of patent or utility model registration

Ref document number: 6757184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151