WO2014046036A1 - 撮像装置及びその制御方法 - Google Patents

撮像装置及びその制御方法 Download PDF

Info

Publication number
WO2014046036A1
WO2014046036A1 PCT/JP2013/074829 JP2013074829W WO2014046036A1 WO 2014046036 A1 WO2014046036 A1 WO 2014046036A1 JP 2013074829 W JP2013074829 W JP 2013074829W WO 2014046036 A1 WO2014046036 A1 WO 2014046036A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
face
unit
main subject
Prior art date
Application number
PCT/JP2013/074829
Other languages
English (en)
French (fr)
Inventor
武弘 河口
林 淳司
岩崎 洋一
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201380048849.XA priority Critical patent/CN104838313B/zh
Priority to JP2014536831A priority patent/JP6084982B2/ja
Publication of WO2014046036A1 publication Critical patent/WO2014046036A1/ja
Priority to US14/645,067 priority patent/US9699367B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout

Abstract

 本発明は、マニュアルフォーカス時に人の顔等にピントを容易に合わせられるようにする。本発明は、カラー撮像素子23の撮像面に、RGB画素35~37及び第1及び第2の位相差画素36a,36bを2次元配列する。RGB画素35~37の画素値に基づいて被写体像データ55を生成する。被写体像データ55に対して顔検出処理を行う。顔像が検出された場合に、被写体像データ55内の顔領域62を上下に分割した上下画像のうちの上画像に対応する第1の画像データ61Lを第1の位相差画素36aの画素値に基づき生成する。上下画像のうちの下画像に対応する第2の画像データ61Rを第2の位相差画素36bの画素値に基づき生成する。被写体像データ55内の顔領域62に対応する位置に第1及び第2の画像データ61L,61R(特殊スプリットイメージデータ66)を合成した後に表示部8に出力して、ライブビュー表示を行う。

Description

撮像装置及びその制御方法
 本発明は、合焦確認用の画像の生成及び表示を行う撮像装置及びその制御方法に関する。
 デジタルカメラとして、位相差検出方式やコントラスト検出方式を用いたオートフォーカスの他に、撮影者が手動でピント調整(フォーカス調整ともいう)を行うことができる、いわゆるマニュアルフォーカスモードを備えるものが良く知られている。
 マニュアルフォーカスモードを有するデジタルカメラとしては、撮影した被写体を確認しながらピント調整ができるようにレフレックスミラーを設けて、目視による位相差を表示するスプリットマイクロプリズムスクリーンを用いた方法や、目視によるコントラストの確認を行う方法を採用しているものが良く知られている。
 ところで、近年普及しているレフレックスミラーを省略したデジタルカメラでは、レフレックスミラーがないため位相差を表示しながら被写体像を確認する方法がなく、コントラスト検出方式に頼らざるを得なかった。しかし、この場合には、LCD等の表示装置の解像度以上のコントラス表示ができず、一部拡大するなどして表示する方法を採らざるを得なかった。
 そこで、近年では、マニュアルフォーカスモード時に操作者が被写体に対してピントを合わせる作業を容易にするために、合焦確認に使用するスプリットイメージ(第2の表示用画像)をライブビュー画像(スルー画像ともいう)内に表示している。スプリットイメージとは、瞳分割された被写体光をそれぞれ撮像して得られた画像を分割表示したものであり、各画像の位相差を表すものである。上下に分割されたスプリットイメージはピントがずれているとスプリットイメージの上下画像が左右にずれ、ピントが合った状態だと上下画像の左右のずれがなくなる。撮影者は、スプリットイメージの上下画像のずれがなくなるように、マニュアルフォーカスリングを操作してピントを合わせる。
 特許文献1に記載のデジタルカメラでは、絞りを光軸と垂直方向に移動させることで2つの測距位置でそれぞれ被写体画像の撮影を行い、これら2つの被写体画像を用いてスプリットイメージをライブビュー画像内に表示している。
 特許文献2に記載のデジタルカメラでは、被写体像の像面と撮像素子の受光面との間の距離に相当する値をずれ量として求め、このずれ量に応じて左右相反する方向にずらしたスプリットイメージをライブビュー画像内に表示している。
 特許文献3及び4に記載のデジタルカメラは、撮影用の通常画素と、瞳分割された被写体光を受光する焦点検出用の2種類の位相差画素とが撮像面上に複数配列されてなる撮像素子を備えている。このデジタルカメラでは、通常画素からの出力信号に基づき撮影画像を生成してライブビュー画像表示を行うとともに、2種類の位相差画素のそれぞれからの出力に基づきスプリットイメージを生成してライブビュー画像内に表示している。
特開2004-40740号公報 特開2001-309210号公報 特開2009-147665号公報 特開2009-163220号公報
 ところで、スプリットイメージは、ライブビュー画像内の特定の領域、例えば中央領域などに表示されるのが通常である。このため、上記特許文献1から4に記載のデジタルカメラでは、マニュアルフォーカス操作で人の顔などの主要被写体にピントを合わせたい場合に、この主要被写体がスプリットイメージの上下画像の境界を跨ぐ位置にないとピント調整が難しいという問題がある(図14参照)。
 また、近年では、ライブビュー画像内のスプリットイメージの表示位置を変更可能にしているデジタルカメラも知られている。しかしながら、このようなデジタルカメラでは、ユーザが主要被写体の位置に合わせてスプリットイメージを移動させる操作を行う必要があるので、この移動操作に手間が掛かる。
 本発明の目的は、スプリットイメージ等の合焦確認用の画像を用いたマニュアルフォーカスを行う際に、顔などの主要被写体にピントを容易に合わせることが可能な撮像装置及びその制御方法を提供することにある。
 本発明の目的を達成するための撮像装置は、撮影レンズと、撮影レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、第1及び第2の画素群から出力された第1及び第2の画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成手段と、第1及び第2の表示用画像の少なくともいずれか一方を表示する表示手段と、第1の表示用画像から特定の主要被写体像を検出する検出手段と、検出手段で主要被写体像が検出された場合に、生成手段を制御して第1及び第2の画像から主要被写体像を複数分割した分割像を生成させ、分割像に基づいて第2の表示用画像を生成させる生成制御手段と、表示手段に対して生成手段により生成された第1の表示用画像を表示させ、かつ第1の表示用画像の表示領域内に生成手段により生成された第2の表示用画像を表示させる制御を行う表示制御手段であって、検出手段で主要被写体像が検出された場合に、第1の表示用画像内の主要被写体像に対応する位置に第2の表示用画像を表示させる表示制御手段と、を備える。
 本発明によれば、第1の表示用画像の表示領域内に、主要被写体像の位置・大きさに合わせた第2の表示用画像を表示させることができる。
 撮像素子は、第1及び第2の画素群と、第1及び第2の領域を通過した被写体像が瞳分割されずにそれぞれ入射する第3の画素群とを含み、生成手段は、第3の画素群の出力から第1の表示用画像を生成することが好ましい。これにより、第3の画素群の出力により構成される被写体像を見ながら手動でピント調整を行うことができる。
 検出手段は、主要被写体像内の目の位置を検出可能であり、生成制御手段は、検出手段により目の位置が検出された場合に、生成手段を制御して、目の位置を境界として主要被写体像を分割した分割像を第1及び第2の画像から生成させることが好ましい。これにより、主要被写体の目の位置にピントを合わせることができる。
 表示制御手段は、検出手段の検出結果に基づき、表示領域内に第2の表示用画像を囲む第1の被写体識別枠を表示させることが好ましい。これにより、第2の表示用画像内の主要被写体像の位置や第2の表示用画像の境界が把握し易くなる。
 表示制御手段は、検出手段の検出結果に基づき、第2の表示用画像内に主要被写体像を囲む半透明の第2の被写体識別枠を表示させることが好ましい。これにより、第2の表示用画像内の主要被写体像の位置や第2の表示用画像の境界が把握し易くなる。
 表示制御手段は、検出手段の検出結果に基づき、第2の表示用画像内に主要被写体像を囲み、かつ第1及び第2の画像の境界を跨ぐ部分が透明な第3の被写体識別枠を表示させることが好ましい。これにより、第2の表示用画像内の主要被写体像の位置や第2の表示用画像の境界が把握し易くなる。
 検出手段は、第1及び第2の画像のそれぞれから主要被写体像を検出し、表示制御手段は、検出手段による第1及び第2の画像からの主要被写体像の検出結果に基づき、第1の表示用画像内における、第1の画像内の主要被写体像に対応する領域と第2の画像内の主要被写体像に対応する領域との両方を囲む第4の被写体識別枠を、第2の表示用画像内に表示させることが好ましい。これにより、第2の表示用画像の表示領域内で被写体識別枠が主要被写体像上に表示されることが防止されるので、この表示領域内での主要被写体像の境界が把握し易くなる。
 第2の表示用画像は、表示領域内の特定の領域内に表示されるものであり、表示制御手段は、検出手段の検出結果に基づき、主要被写体像が特定の領域外に位置する場合には、主要被写体像を表示手段に拡大表示させることが好ましい。これにより、主要被写体像が特定の領域外で検出された場合でも主要被写体にピントを合わせることができる。
 表示制御手段は、検出手段により主要被写体像が検出されなかった場合には、表示領域内の特定の領域に第2の表示用画像を表示させることが好ましい。
 特定の領域は、表示領域の中央領域であることが好ましい。
 検出手段は、主要被写体像として人の顔を検出することが好ましい。
 撮影レンズには、フォーカスレンズが含まれており、フォーカス操作を受けてフォーカスレンズを撮影レンズの光軸方向に移動させるレンズ移動機構を備え、フォーカス操作には手動操作が含まれることが好ましい。
 また、本発明の撮像装置の制御方法は、撮影レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、第1及び第2の画素群から出力された第1及び第2の画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成ステップと、第1の表示用画像から特定の主要被写体像を検出する検出ステップと、検出ステップで主要被写体像が検出された場合に、生成ステップにて第1及び第2の画像から主要被写体像を複数分割した分割像を生成させ、分割像に基づいて第2の表示用画像を生成させる生成制御ステップと、表示部に対して生成ステップで生成された第1の表示用画像を表示させ、かつ第1の表示用画像の表示領域内に生成ステップで生成された第2の表示用画像を表示させる制御を行う表示制御ステップであって、検出ステップで主要被写体像が検出された場合に、第1の表示用画像内の主要被写体像に対応する位置に第2の表示用画像を表示させる表示制御ステップと、を有する。
 本発明の撮像装置及びその制御方法は、特定の主要被写体像が検出された場合に、第1及び第2の画像から主要被写体を複数分割した分割像を生成して、この分割像に基づき生成した第2の表示用画像を第1の表示用画像内の主要被写体像に対応する位置に表示させるので、手動のピント調整で主要被写体にピントを合わせる際に、撮影者が従来よりも簡単に主要被写体にピントを合わせることができる。
図1はデジタルカメラの正面斜視図である。 図2はデジタルカメラの背面斜視図である。 図3はデジタルカメラの電気的構成を示すブロック図である。 図4はカラー撮像素子の撮像面の概略図である。 図5は第1及び第2の位相差画素の断面図である。 図6はカラー撮像素子に入射する被写体光を説明するための説明図である。 図7は第1実施形態の画像処理回路の機能ブロック図である。 図8は通常生成モードの合焦時におけるスプリットイメージデータを説明するための説明図である。 図9は通常生成モードの非合焦時におけるスプリットイメージデータを説明するための説明図である。 図10は特殊SIデータの生成処理を説明するための説明図である。 図11は特殊生成モードの合焦時におけるスプリットイメージデータを説明するための説明図である。 図12は特殊生成モードの非合焦時におけるスプリットイメージデータを説明するための説明図である。 図13は第1実施形態のデジタルカメラの撮影処理の流れを示したフローチャートである。 図14は比較例のスプリットイメージデータを説明するための説明図である。 図15は第2実施形態のデジタルカメラの電気的構成を示すブロック図である。 図16は第2実施形態の顔枠表示を説明するための説明図である。 図17は比較例の顔枠表示を説明するための説明図である。 図18は第3実施形態のデジタルカメラの電気的構成を示すブロック図である。 図19は第3実施形態のデジタルカメラの撮影処理の流れを示したフローチャートである。 図20は第3実施形態のスプリットイメージデータを説明するための説明図である。 図21は第4実施形態の顔枠表示を説明するための説明図である。 図22は第5実施形態の顔枠表示を説明するための説明図である。 図23は第6実施形態のデジタルカメラの電気的構成を示すブロック図である。 図24は第6実施形態の顔領域の拡大表示処理を説明するための説明図である。 図25は第7実施形態のデジタルカメラの電気的構成を示すブロック図である。 図26は第7実施形態の顔枠表示を説明するための説明図である。 図27は第7実施形態のデジタルカメラの撮影処理の流れを示したフローチャートである。 図28は図27中のライブビュー表示の流れを示したフローチャートである。 図29は他実施形態のカラー撮像素子の撮像面の概略図である。 図30はスマートフォンの斜視図である。 図31はスマートフォンの電気的構成を示すブロック図である。
 [第1実施形態のデジタルカメラ]
 図1に示すように、デジタルカメラ2は本発明の撮像装置に相当するものである。このデジタルカメラ2のカメラ本体2aの前面には、レンズ鏡筒3、ストロボ発光部5などが設けられている。カメラ本体2aの上面には、シャッタボタン6、電源スイッチ7などが設けられている。レンズ鏡筒3の外周面には、本発明の手動操作に相当するマニュアルフォーカス(以下、単にMFという)操作に用いられるフォーカスリング(レンズ移動機構)3aが回転自在に取り付けられている。
 図2に示すように、カメラ本体2aの背面には表示部(表示手段)8、操作部9が設けられている。表示部8は、撮影待機状態時には電子ビューファインダとして機能することで、ライブビュー画像(スルー画ともいう)を表示する。また、画像再生時の表示部8には、メモリカード10に記録されている画像データに基づき画像が再生表示される。
 操作部9は、モード切替スイッチ、十字キー、実行キーなどから構成されている。モード切替スイッチは、デジタルカメラ2の動作モードを切り替える際に操作される。デジタルカメラ2は、被写体を撮像して撮影画像を得る撮影モード、撮影画像を再生表示する再生モードなどを有する。また、撮影モードには、オートフォーカス(以下、単にAFという)を行うAFモード、及びMF操作を行うMFモードがある。
 十字キーや実行キーは、表示部8にメニュー画面や設定画面を表示したり、これらメニュー画面や設定画面内に表示されるカーソルを移動したり、デジタルカメラ2の各種設定を確定したりする際などに操作される。
 カメラ本体2aの底面には、図示は省略するが、メモリカード10が装填されるカードスロットと、このカードスロットの開口を開閉する装填蓋とが設けられている。
 図3に示すように、デジタルカメラ2のCPU11(生成制御手段)は、操作部9からの制御信号に基づき、メモリ13から読み出した各種プログラムやデータを逐次実行して、デジタルカメラ2の各部を統括的に制御する。なお、メモリ13のRAM領域は、CPU11が処理を実行するためのワークメモリや、各種データの一時保管先として機能する。
 レンズ鏡筒3には、ズームレンズ15及びフォーカスレンズ16を含む撮影レンズ17、メカシャッタ18などが組み込まれている。ズームレンズ15及びフォーカスレンズ16は、それぞれズーム機構19、フォーカス機構20により駆動され、撮影レンズ17の光軸Oに沿って前後移動される。ズーム機構19及びフォーカス機構20は、ギアやモータなどで構成されている。また、フォーカス機構20は、図示しないギアを介してフォーカスリング3aと接続している。このため、フォーカス機構20は、MFモード時にフォーカスリング3aが回転操作(フォーカス操作)されることに伴い、フォーカスレンズ16を光軸Oの方向(以下、光軸方向という)に沿って移動させる。
 メカシャッタ18は、カラー撮像素子23への被写体光の入射を阻止する閉じ位置と、被写体光の入射を許容する開き位置との間で移動する可動部(図示は省略)を有する。メカシャッタ18は、可動部を各位置に移動させることにより、撮影レンズ17からカラー撮像素子23へと至る光路を開放/遮断する。また、メカシャッタ18には、カラー撮像素子23に入射する被写体光の光量を制御する絞りが含まれている。メカシャッタ18、ズーム機構19、及びフォーカス機構20は、レンズドライバ25を介してCPU11によって動作制御される。
 メカシャッタ18の背後には、カラー撮像素子23が配置されている。カラー撮像素子23は、撮影レンズ17等を通過した被写体光を電気的な出力信号に変換して出力する。なお、カラー撮像素子23としては、CCD(Charge Coupled Device)型撮像素子、CMOS(Complementary Metal Oxide Semiconductor)型撮像素子などの各種類の撮像素子を用いることができる。撮像素子ドライバ27は、CPU11の制御の下でカラー撮像素子23の駆動を制御する。
 画像処理回路(生成手段)29は、カラー撮像素子23からの出力信号に対して階調変換、ホワイトバランス補正、γ補正処理などの各種処理を施して被写体像データ(撮影画像データともいう)を生成する。また、画像処理回路29は、MFモード時には、被写体像データの他にMF操作用のスプリットイメージデータを生成する。被写体像データやスプリットイメージデータは、メモリ13のVRAM領域(VRAMを別途設けても可)に一時的に格納される。VRAM領域は、連続した2フィールド画分を記憶するライブビュー画像用のメモリエリアを有しており、各データを逐次上書き格納する。
 圧縮伸長処理回路31は、シャッタボタン6が押下操作されたときに、VRAM領域に格納された被写体像データに対して圧縮処理を施す。また、圧縮伸長処理回路31は、メディアI/F32を介してメモリカード10から得られた圧縮画像データに対して伸長処理を施す。メディアI/F32は、メモリカード10に対する被写体像データの記録及び読み出しなどを行う。
 表示制御部33は、撮影モード時にはVRAM領域に格納された被写体像データやスプリットイメージデータを読み出して表示部8へ出力する。また、表示制御部33は、再生モード時には圧縮伸長処理回路31で伸長された撮影画像データを表示部8へ出力する。
 <カラー撮像素子の構成>
 図4に示すように、カラー撮像素子23の撮像面上には、赤(R)色のR画素35と、緑(G)色のG画素36と、青(B)色のB画素37とが2次元配列されている。RGB画素35~37は、本発明の第3の画素群に相当するものであり、光電変換素子39(図5参照)と、光電変換素子39の上方に配置された3原色のいずれかのカラーフィルタ40(図5参照)とを有している。RGB画素35~37の各光電変換素子39上には、それぞれR色,G色,B色のカラーフィルタ40が設けられる。ここで「~上」、「上方」とは、図5中の半導体基板45からマイクロレンズ49に向かう方向(図中上方向)を指す。
 カラー撮像素子23のカラーフィルタ配列(画素配列)は、下記の特徴(1)、(2)、(3)、(4)、(5)、及び(6)を有している。
 〔特徴(1)〕
 カラーフィルタ配列は、6×6画素に対応する正方配列パターンからなる基本配列パターンPを含み、この基本配列パターンPが水平方向及び垂直方向に繰り返し配置されている。このようにRGBのカラーフィルタ40が所定の周期性をもって配列されているため、従来知られているランダム配列と比較して、カラー撮像素子23から読み出されるR、G、B信号の画素補間処理(同時化処理またはデモザイク処理ともいう)等を行う際に、繰り返しパターンにしたがって処理を行うことができる。また、基本配列パターンPの単位で間引き処理して画像を縮小する場合に、間引き処理後のカラーフィルタ配列を間引き処理前の配列と同じにすることで、共通の処理回路を用いることができる。
 〔特徴(2)〕
 カラーフィルタ配列は、輝度信号を得るために最も寄与する色(この実施形態では、Gの色)に対応するG色のカラーフィルタが、カラーフィルタ配列の水平、垂直、及び斜め方向(斜め右上及び斜め左下方向、斜め右下及び斜め左上方向)の各フィルタライン内に1つ以上配置されている。これにより、高周波領域での画素補間処理の再現精度を向上させることができる。
 〔特徴(3)〕
 基本配列パターンPは、G画素36の画素数の比率が他の色のR画素35、B画素37の各々の画素数の比率よりも大きくなる。これにより、画素補間処理時におけるエリアシングが抑制されるとともに、高周波再現性が向上する。
 〔特徴(4)〕
 カラーフィルタ配列は、G色以外の2色以上の他の色(この実施形態では、R,Bの色)に対応するR色及びB色のカラーフィルタ40が、基本配列パターンP内においてカラーフィルタ配列の水平、及び垂直方向の各ライン内にそれぞれ1つ以上配置されている。これにより、偽色(色モワレ)の発生を低減することができる。その結果、偽色の発生を抑制するための光学ローパスフィルタを撮影レンズ17の入射面から撮像面までの光路に配置しないようにでき、又は光学ローパスフィルタを適用する場合でも偽色の発生を防止するための高周波数成分をカットする働きの弱いものを適用することができる。このため、解像度を損なわないようにすることができる。
 〔特徴(5)〕
 カラーフィルタ配列は、G色のカラーフィルタ40が設けられた2×2のG画素36に対応する正方配列41を含んでいる。このような2×2のG画素36を取り出し、水平方向のG画素36の画素値の差分絶対値、垂直方向のG画素36の画素値の差分絶対値、斜め方向のG画素36の画素値の差分絶対値を求めることで、水平方向、垂直方向、及び斜め方向のうち、差分絶対値の小さい方向に相関があると判断することができる。すなわち、このカラーフィルタ配列によれば、正方配列41内の最小画素間隔のG画素36の情報を使用して、水平方向、垂直方向、及び斜め方向のうちの相関の高い方向判別ができる。この方向判別結果は、画素補間処理に使用することができる。
 〔特徴(6)〕
 基本配列パターンPは、その中心に対して点対称になっている。また、基本配列パターンP内の4つの3×3のサブ配列も、それぞれ中心のG色のカラーフィルタ40に対して点対称になっている。このような対称性により、後段の処理回路の回路規模を小さくしたり、簡略化したりすることが可能になる。
 〔位相差画素〕
 カラー撮像素子23の撮像面の一部の領域(例えば中央領域)上には、一部のG画素36の代わりに、第1の位相差画素36a(図中「G1」で表示)、第2の位相差画素36b(図中「G2」で表示)が設けられている。第1及び第2の位相差画素36a,36bは、本発明の第1の画素群、第2の画素群に相当するものである。
 カラー撮像素子23の撮像面には、第1及び第2の位相差画素36a,36bで構成される第1の配列パターン42と第2の配列パターン43とが垂直方向(第2の方向)に所定の画素間隔(本実施例では12画素間隔)で繰り返し配置されている。第1の配列パターン42には、第1の位相差画素36a及び第2の位相差画素36bが水平方向(第1の方向)に所定の画素間隔(本実施例では3画素間隔)で交互に配列されている。第2の配列パターン43は、第1の配列パターン42を水平方向に上記所定の画素間隔分ずらしたものである。
 第1及び第2の位相差画素36a,36bの断面を示す図5の(A)部分,図5の(B)部分において、カラー撮像素子23の半導体基板45の表層には光電変換素子39がマトリックス状に形成されている。なお、半導体基板45には、図示は省略するが、各画素の駆動や信号出力に用いられる各種回路が設けられている。
 各光電変換素子39上には遮光膜47が設けられている。遮光膜47は、第1の位相差画素36aの光電変換素子39の図中左半分の領域(以下、単に左領域という)を覆い、かつ第2の位相差画素36bの図中右半分の領域(以下、単に左領域という)を覆うように設けられている。これにより、第1の位相差画素36aの光電変換素子39の右領域のみが露呈し、かつ第2の位相差画素36bの光電変換素子39の左領域のみが露呈する。なお、図示は省略するが、RGB画素35~37の光電変換素子39上には遮光膜47が設けられてはいない。
 遮光膜47上には、図示しない平坦化層などを介してカラーフィルタ40が設けられている。第1及び第2の位相差画素36a,36bに対応する位置にはG色のカラーフィルタ40が設けられている。また、図示は省略するが、R、G、Bの各色の画素35~37にそれぞれ対応する位置にR、G、Bの各色のカラーフィルタ40が設けられている。
 各色のカラーフィルタ40上には、それぞれマイクロレンズ49が設けられている。なお、カラーフィルタ40とマイクロレンズ49との間にも透光性の平坦層などの各種層が設けられていてもよい。
 第1の位相差画素36a上のマイクロレンズ49に、図中左斜め方向から入射した被写体光50L(図中、実線で表示、本発明の被写体像)は、マイクロレンズ49により光電変換素子39の右領域に集光(結像)される。逆にマイクロレンズ49に図中右斜め方向に入射した被写体光50R(図中、点線で表示、本発明の被写体像)は、遮光膜47により遮光されるので光電変換素子39の左領域には集光されない。
 また、第2の位相差画素36b上のマイクロレンズ49に入射した被写体光50Rは、マイクロレンズ49により光電変換素子39の左領域に集光(結像)される。逆にマイクロレンズ49に入射した被写体光50Lは、遮光膜47により遮光されるので光電変換素子39の右領域には集光されない。
 図6に示すように、被写体光50L,50Rは、撮影レンズ17(ズームレンズ15及びフォーカスレンズ16)の左領域17L、右領域17Rをそれぞれ通過している。なお、図面の煩雑化を防止するため両レンズ15,16は一体化して図示している。
 図5に戻って、カラー撮像素子23に入射した被写体光が遮光膜47により瞳分割されることで、第1の位相差画素36aは被写体光50Lに対して感度が高くなり、逆に第2の位相差画素36bは被写体光50Rに対して感度が高くなる。なお、本実施形態では、遮光膜47が瞳分割を行う瞳分割部として機能しているが、例えば、マイクロレンズ49の位置を偏心させてもよい。
 また、図示は省略するが、RGB画素35~37上のマイクロレンズ49に入射した被写体光50Rは光電変換素子39の左領域に集光され、被写体光50Lは光電変換素子39の右領域に集光される。このため、RGB画素35~37は、被写体光50L及び被写体光50Rの両方に対して感度が高くなる。
 <画像処理回路の構成>
 図7に示すように、画像処理回路(生成手段)29は、画素補間処理部51と、被写体像生成部(被写体像生成手段)52と、顔検出部(検出手段)53と、スプリットイメージ生成部54と、を備えている。
 画素補間処理部51は、第1及び第2の位相差画素36a,36bの周囲に位置するG画素36の画素値に基づき、両位相差画素36a,36bの位置における補間画素の画素値を求める。このG画素36の補間画素の画素値は被写体像生成部52へ出力される。
 また、画素補間処理部51は、第2の位相差画素36bの周囲に位置する第1の位相差画素36aの画素値に基づき、この第2の位相差画素36bの位置における補間画素の画素値を求める。さらに、画素補間処理部51は、第1の位相差画素36aの周囲に位置する第2の位相差画素36bの画素値に基づき、この第1の位相差画素36aの位置における補間画素の画素値を求める。これら両位相差画素36a,36bの補間画素の画素値は、スプリットイメージ生成部54へ出力される。
 被写体像生成部52は、撮影モード時にRGB画素35~37の画素値(画像信号)、及びG画素36の補間画素の画素値に基づき、本発明の第1の表示用画像に相当するフルカラーの被写体像データ55を生成する。この被写体像データ55は、メモリ13のVRAM領域に一時的に格納される。なお、被写体像生成部52には、RGB信号の被写体像データ55を輝度信号Y及び色差信号Cr、Cbに変換するYC変換処理回路(図示は省略)が設けられている。
 顔検出部53は、メモリ13のVRAM領域から読み出した被写体像データ55を解析して、被写体像データ55から主要被写体である人H(図10参照)の顔を検出する顔検出処理を行うことで、この被写体像データ55内の顔像の位置、大きさを検出する。この際には、例えば被写体像データ55内で人Hの両目が存在する領域が特定される。この特定には、Haar-like特徴などを用いた公知の目検出方法が用いられる。そして、人Hの両目が存在する領域が特定されると、人Hの肌や髪の色とこれらの位置関係から顔の輪郭が特定される。これにより、顔像の位置が求められるとともに、肌色の領域の面積から顔像の大きさが求められる。また、顔像の大きさを求める際には、目の間隔を測定し、測定された両眼の間隔から顔の大きさを決定することもできる。
 ここで、被写体像データ55内の顔像の位置や大きさを検出する方法として、上述の方法以外にも各種の方法が公知であり、公知の各種方法を用いて顔像の位置や大きさを検出してもよい。顔検出部53は、顔像の位置及び大きさの検出結果を「顔検出情報60」としてスプリットイメージ生成部54へ出力する。なお、顔像が検出されなかった場合には、顔検出情報60の出力は行われない。
 スプリットイメージ生成部54は、両位相差画素36a,36bの画素値(画像信号)と、両位相差画素36a,36bの補間画素の画素値と、顔検出部53から入力される顔検出情報とに基づいて、合焦確認に使用する白黒のスプリットイメージデータ(第2の表示用画像)を生成する。
 <通常生成モード>
 図8及び図9に示すように、スプリットイメージ生成部54は、CPU11の制御の下、顔検出部53から顔検出情報60が入力されない場合に通常生成モードで動作する。この場合のスプリットイメージ生成部54は、各第1の位相差画素36a及びその補間画素の画素値の輝度成分に基づき、被写体像の中央領域の図中上半分の領域をL視点側から見たときの白黒の第1の画像データ61Lを生成する。
 また、スプリットイメージ生成部54は、各第2の位相差画素36b及びその補間画素の画素値の輝度成分に基づき、被写体像の中央領域の図中下半分の領域をR視点側から見たときの白黒の第2の画像データ61Rを生成する。これにより、第1の画像データ61Lと第2の画像データ61Rとを含む白黒の通常スプリットイメージデータ(以下、通常SIデータと略す)61が得られる。なお、図中では通常SIデータ61のイメージを容易に把握できるように、通常SIデータ61を被写体像データ55に合成しているが、この合成は表示制御部33にて行われる。通常SIデータ61は、メモリ13のVRAM領域に一時的に格納される。
 通常SIデータ61の上下画像を構成する第1の画像データ61Lと第2の画像データ61Rとは、フォーカスレンズ16の合焦状態に応じて図中左右方向にシフトする。両画像データ61L,61R間のずれ量はフォーカスレンズ16の焦点のずれ量に対応しており、フォーカスレンズ16が合焦しているときには両画像データ61L,61Rのずれ量がゼロ(ほぼゼロを含む)となる(図8参照)。また、フォーカスレンズ16の焦点がずれるほど、両画像データ61L,61Rのずれ量が大きくなる(図9参照)。
 <特殊生成モード>
 図10に示すように、スプリットイメージ生成部54は、CPU11の制御の下、顔検出部53から顔検出情報60が入力された場合に特殊生成モードで動作する。特殊生成モード時のスプリットイメージ生成部54は、顔検出情報60に基づき、被写体像データ55内の顔像の領域(以下、単に顔領域という)62の位置及び大きさを判別する(図10の(A)部分,図10の(B)部分参照)。この顔領域62は、本発明の主要被写体像に相当するものであり、顔検出結果に応じて位置や大きさが変化する領域である。一方、図中の符号64は被写体像データ55(ライブビュー画像)の表示領域の中央領域(本発明の特定の領域)であり、この中央領域64には前述の通常SIデータ61が表示される。この中央領域64は、カラー撮像素子23の撮像面内での両位相差画素36a,36bの配置領域に対応した固定の領域である。
 次いで、スプリットイメージ生成部54は、各第1の位相差画素36a及びその補間画素の中から、顔領域62を上下に分割してなる上下画像(分割像)のうちの上画像を構成する画素を選択して、これら各画素の画素値の輝度成分に基づき第1の画像データ66Lを生成する。また、スプリットイメージ生成部54は、各第2の位相差画素36b及びその補間画素の中から、上述の上下画像のうちの下画像を構成する画素を選択して、これら各画素の画素値の輝度成分に基づき第2の画像データ66Rを生成する。これにより、第1の画像データ66Lと第2の画像データ66Rとを含む白黒の特殊スプリットイメージデータ(以下、特殊SIデータと略す)66が得られる。
 スプリットイメージ生成部54が生成した特殊SIデータ66は、メモリ13のVRAM領域に一時的に格納される。この際に、特殊SIデータ66のヘッダ等には、スプリットイメージ生成部54が判別した顔領域62の位置を示す顔領域位置情報が格納される。
 なお、図示は省略するが、スプリットイメージ生成部54には、オフセット減算やゲイン調整を行う各種調整回路が設けられている。
 図3に戻って、表示制御部(表示制御手段)33は、通常生成モード時にはメモリ13のVRAM領域から被写体像データ55及び通常SIデータ61を読み出して、被写体像データ55の中央領域64に通常SIデータ61を合成した後に表示部8へ出力する。これにより、図8及び図9に示したように、被写体像データ55に基づくフルカラー画像の中央領域に、通常SIデータ61に基づく白黒のスプリットイメージが合成されたライブビュー画像が表示部8に表示される。
 一方、表示制御部33は、特殊生成モード時にはメモリ13のVRAM領域から被写体像データ55及び特殊SIデータ66を読み出した後、特殊SIデータ66のヘッダ等に格納されている顔領域位置情報を参照する。これにより、被写体像データ55内の顔領域62の位置が判別される。
 次いで、図11及び図12に示すように、表示制御部33は、被写体像データ55の顔領域62に特殊SIデータ66を合成した後に表示部8へ出力する。これにより、被写体像データ55に基づくフルカラー画像内に、特殊SIデータ66に基づく白黒のスプリットイメージが合成されたライブビュー画像が表示部8に表示される。通常生成モード時と同様に、合焦時にはスプリットイメージの上下画像(両画像データ66L,66R)のずれ量がゼロ(ほぼゼロを含む)となる(図11参照)。また、フォーカスレンズ16の焦点がずれるほど上下画像のずれ量も大きくなる(図12参照)。
 <その他の構成>
 なお、図示は省略するが、デジタルカメラ2にはAF用のAF検出回路が設けられている。AF検出回路は、第1の位相差画素36aの出力により構成される画像と、第2の位相差画素36bの出力により構成される画像とを解析して、両画像のずれ方向及び両画像間のずれ量を検出することでフォーカス調整量(デフォーカス量ともいう)を求める。このフォーカス調整量に基づき、CPU11はレンズドライバ25及びフォーカス機構20によりフォーカスレンズ16を駆動して焦点調節を行う。このような位相差方式のAF処理については公知であるので、ここでは具体的な説明は省略する。
 <第1実施形態のデジタルカメラの作用>
 次に、図13を用いて上記構成のデジタルカメラ2の作用について説明を行う。MF操作を行う場合には、操作部9にてデジタルカメラ2がMFモードに設定される(ステップS1)。MFモードに設定されると、CPU11はレンズドライバ25を介してメカシャッタ18の動作を制御するとともに、撮像素子ドライバ27を介してカラー撮像素子23を駆動する(ステップS2)。なお、AFモードが設定された場合のデジタルカメラ2の動作は公知であるのでここでは具体的な説明は省略する。
 カラー撮像素子23のRGB画素35~37の画素値(出力)は、画像処理回路29へ出力された後、画素補間処理部51にて補間処理されたG画素36の補間画素の画素値と共に被写体像生成部52に入力される。また、第1及び第2の位相差画素36a,36bの画素値も同様に画像処理回路29へ出力された後、画素補間処理部51にて補間処理された両位相差画素36a,36bの補間画素の画素値と共にスプリットイメージ生成部54に入力される(ステップS3)。
 被写体像生成部52は、RGB画素35~37及び補間画素の画素値に基づき、被写体像データ55を生成して、メモリ13のVRAM領域に格納する(ステップS4)。
 顔検出部53は、メモリ13のVRAM領域に新たな被写体像データ55が格納される毎に、この被写体像データ55をVRAM領域から読み出して顔検出処理を行う(ステップS5)。そして、顔検出部53は、被写体像データ55内に顔像が含まれている場合には、その位置及び大きさを検出する。この顔検出部53による検出結果は、顔検出情報60としてスプリットイメージ生成部54へ出力される。
 <通常生成モード時のライブビュー表示>
 スプリットイメージ生成部54は、CPU11の制御の下、顔検出部53からの顔検出情報60の入力がない場合には通常生成モードで動作する(ステップS6でNO、ステップS7)。スプリットイメージ生成部54は、各第1の位相差画素36a及びその補間画素の画素値の輝度成分に基づき第1の画像データ61Lを生成するとともに、各第2の位相差画素36b及びその補間画素の画素値の輝度成分に基づき第2の画像データ61Rを生成する。これにより、第1の画像データ61Lと第2の画像データ61Rとを含む通常SIデータ61が生成される(ステップS8)。この通常SIデータ61はメモリ13のVRAM領域に格納される。
 表示制御部33は、メモリ13から被写体像データ55及び通常SIデータ61を読み出して、被写体像データ55内の中央領域64に通常SIデータ61を合成した後に表示部8へ出力する。これにより、図8及び図9に示したように、フルカラー画像の中央領域64に白黒のスプリットイメージが合成されたライブビュー画像が表示部8に表示される(ステップS9)。
 <特殊生成モード時のライブビュー表示>
 スプリットイメージ生成部54は、CPU11の制御の下、顔検出部53から顔検出情報60が入力された場合には特殊生成モードで動作する(ステップS6でYES、ステップS10)。最初に、スプリットイメージ生成部54は、図10の(A)部分、図10の(B)部分に示したように、顔検出情報60に基づき被写体像データ55内の顔領域62の位置及び大きさを判別する。
 次いで、スプリットイメージ生成部54は、各第1の位相差画素36a及びその補間画素の中から、顔領域62を上下に分割したうちの上画像(分割像)を構成する画素を選択して、これら各画素の画素値の輝度成分に基づき第1の画像データ66Lを生成する。また、スプリットイメージ生成部54は、各第2の位相差画素36b及びその補間画素の中から、顔領域62の下画像(分割像)を構成する画素を選択して、これら各画素の画素値の輝度成分に基づき第2の画像データ66Rを生成する。これにより、第1の画像データ66Lと第2の画像データ66Rとを含む白黒の特殊SIデータ66が得られる(ステップS11)。この特殊SIデータ66はメモリ13のVRAM領域に格納される。また、特殊SIデータ66のヘッダ等には顔領域位置情報が格納される。
 表示制御部33は、メモリ13のVRAM領域から被写体像データ55及び特殊SIデータ66を読み出した後、特殊SIデータ66のヘッダ等に格納されている顔領域位置情報を参照する。この参照結果に基づき、表示制御部33は、被写体像データ55の顔領域62に特殊SIデータ66を合成した後に表示部8へ出力する。これにより、フルカラー画像の顔領域62に白黒のスプリットイメージが合成されたライブビュー画像が表示部8に表示される。
 図12に示したように、両画像データ66L,66Rは、フォーカスレンズ16の合焦状態に応じて図中左右方向にシフトする。このため、ユーザは、フォーカスリング3aを回転操作してフォーカスレンズ16を光軸方向に沿って移動させる。フォーカスレンズ16が被写体に合焦する合焦位置に近づくのに伴って、両画像データ66L,66Rのずれ量が次第に小さくなる。これにより、ユーザはライブビュー画像を確認しながらフォーカス調整を行うことができる。
 フォーカスレンズ16が合焦位置にセットされると、両画像データ66L,66Rのずれ量がゼロとなる。これにより、フォーカスレンズ16が被写体に合焦して、フォーカス調整が完了する(ステップS13)。以下、シャッタボタン6が押下操作されるまで、上述の処理が繰り返し実行される(ステップS14でNO)。
 シャッタボタン6が押下されると(ステップS14でYES)、被写体像生成部52にて1フレーム分の被写体像データ55が生成されてメモリ13のVRAM領域に一時的に格納される。この被写体像データ55は、圧縮伸長処理回路31にて圧縮された後、メディアI/F32を介してメモリカード10に記録される(ステップS15)。以下、MFモードが終了するまで上述の処理が繰り返し実行される(ステップS16)。
 <第1実施形態のデジタルカメラの作用効果>
 このように本発明では、被写体像データ55内の顔領域62に、その位置・大きさに対応した特殊SIデータ66を合成してライブビュー表示を行っている。これにより、中央領域64内での人Hの顔像の位置に関係なく、人Hの顔にピントが合っていない場合には顔像(スプリットイメージ)を分割した両画像データ66L,66Rが左右にずれた状態でライブビュー表示される(図12参照)。
 一方、比較例を示す図14において、従来のスプリットイメージ表示では、顔像が中央領域64内の上側あるいは下側の領域にあると、この顔像がスプリットイメージの上下画像の境界よりも上側あるいは下側に位置してしまう。その結果、顔像にピントを合わせることが困難であった。
 これに対して本発明では、顔検出により検出された顔領域の位置・大きさに合わせたスプリットイメージが表示されるので、顔像がライブビュー画像の中央領域64に位置するようにフレーミングを調整したり、顔像の位置に合わせて手動でスプリットイメージの位置を移動させたりする必要がなくなる。その結果、従来よりも簡単に顔にピントを合わせることができる。
 [第2実施形態のデジタルカメラ]
 次に、図15を用いて本発明の第2実施形態のデジタルカメラ70について説明を行う。上記第1実施形態では顔検出部53により検出された顔像の識別表示を行っていないが、デジタルカメラ70では顔検出部53により検出された顔像の識別表示を行う。
 デジタルカメラ70は、表示制御部33に顔枠表示部72が設けられており、かつ顔検出部53が顔検出情報60にも顔枠表示部72へ出力する点を除けば、第1実施形態のデジタルカメラ2と基本的に同じ構成である。このため、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 図16に示すように、顔枠表示部72は、顔検出部53から取得した顔検出情報60に基づき顔領域62を判別することにより、被写体像データ55の表示領域内に特殊SIデータ66(顔領域62)を囲む顔枠(第1の被写体識別枠)73を重畳表示させる。このような顔枠73を表示するのは以下の理由による。
 比較例を示す図17において、顔枠74を特殊SIデータ66(顔領域62)内に表示した場合には、特殊SIデータ66内の顔の位置が把握し難くなる。また、両画像データ66L,66Rの境界の一部に顔枠74が重なることで、この境界における両画像データ66L,66Rのずれ量が把握し難くなる。その結果、両画像データ66L,66Rのずれがゼロとなるようにピント調整を行うことが難しくなる。
 これに対して本発明のデジタルカメラ70では、特殊SIデータ66(顔領域62)を囲むように顔枠73を表示することにより、特殊SIデータ66内の顔の位置が把握し易くなる。また、両画像データ66L,66Rの境界も把握し易くなる。その結果、顔枠73を表示した場合でも、ピント調整を行い易くすることができる。
 [第3実施形態のデジタルカメラ]
 次に、図18を用いて本発明の第3実施形態のデジタルカメラ78について説明を行う。上記第1及び第2実施形態のデジタルカメラ2,70では、特殊SIデータ66を構成する両画像データ66L,66Rの境界の位置を特に定めてはいないが、デジタルカメラ78では目の位置を両画像データ66L,66Rの境界の位置として設定する。
 なお、デジタルカメラ78は、第1実施形態の顔検出部53及びスプリットイメージ生成部54の代わりに顔検出部53a及びスプリットイメージ生成部54aが設けられている点を除けば、上記第1実施形態と基本的に同じ構成である。このため、上記第1実施形態と機能・構成上同一のものについては同一符号を付してその説明は省略する。
 顔検出部53aは、基本的には上述の顔検出部53と基本的に同じものであるが、顔検出の際に行う目検出により人Hの目が検出された場合には、この目の位置に関する情報を「目検出情報60a」としてスプリットイメージ生成部54aへ出力する。また、顔検出部53aは、目が検出されない場合には目検出法以外の公知の顔検出法を用いて顔検出処理を行う。この場合には、顔検出情報60のみがスプリットイメージ生成部54aへ出力される。
 スプリットイメージ生成部54aは、基本的には上述のスプリットイメージ生成部54と同じものであり、顔検出情報60に基づき特殊SIデータ66を生成する。ただし、スプリットイメージ生成部54aは、顔検出部53aから目検出情報60aが入力された場合には、この目検出情報60aに基づく目の位置を、顔領域62を上下に分割したときの上下画像の境界として決定する。そして、スプリットイメージ生成部54aは、目の位置を境界とする上下画像にそれぞれ対応する両位相差画素36a,36b及びその補間画素を選択し、これら各画素の輝度成分に基づき第1及び第2の画像データ66La,66Ra(図20参照)を生成する。これにより、目の位置を境界とする白黒の特殊SIデータ66aが得られる。
 CPU11(生成制御手段)は、顔検出部53aで目が検出された場合には、スプリットイメージ生成部54aを制御して特殊SIデータ66aの生成を実行させる。
 <第3実施形態のデジタルカメラの作用>
 図19を用いて、上記構成のデジタルカメラ78の作用について説明を行う。なお、ステップS1からステップS10までの処理の流れは図13に示した第1実施形態と同じであるので、ここでは具体的な説明は省略する。
 なお、前述のステップS5,S6において、顔検出部53aは、顔検出処理の際に目が検出された場合に、この目の位置を示す目検出情報60aを顔検出情報60と共にスプリットイメージ生成部54aへ出力する。また、顔検出部53aは、目が検出されなかった場合には目検出法以外の顔検出法を用いて顔検出処理を行い、顔検出情報60のみをスプリットイメージ生成部54aへ出力する。
 <特殊生成モード:目の非検出時>
 CPU11は、顔検出部53aで目が検出されなかった場合(ステップS10-1でNO)には、スプリットイメージ生成部54aを制御して第1実施形態と同様に特殊SIデータ66を生成させる(ステップS11)。以下、第1実施形態と同様のライブビュー表示が実行される(ステップS12)。
 <特殊生成モード:目の検出時>
 逆に、CPU11は、顔検出部53aで目が検出された場合(ステップS10-1でYES)に、スプリットイメージ生成部54aを制御して、目検出情報60aに基づく目の位置を境界として分割された顔領域62の上下画像にそれぞれ対応する両画像データ66La,66Raを生成させる(ステップS11-1)。これにより、目の位置を境界とする白黒の特殊SIデータ66aが得られる。この特殊SIデータ66aは、第1実施形態と同様にヘッダ等に顔領域62の位置情報を格納した状態で、メモリ13のVRAM領域に一時的に格納される。
 図20に示すように、被写体像データ55の顔領域62に特殊SIデータ66aを合成した後に表示部8へ出力する。これにより、フルカラー画像内に、目の位置を境界とした白黒のスプリットイメージが合成されたライブビュー画像が表示部8に表示される(ステップS12)。なお、これ以降の処理は、第1実施形態と基本的に同じであるので、ここでは説明を省略する(図13参照)。
 このように本発明の第3実施形態のデジタルカメラ78では、顔の目の位置を境界として分割されたスプリットイメージを表示することができるので、人Hの目にピントを合わせることが容易となる。
 [第4実施形態のデジタルカメラ]
 次に、図21を用いて本発明の第4実施形態のデジタルカメラについて説明を行う。上記第2実施形態では、被写体像データ55の表示領域内に特殊SIデータ66を囲む顔枠73を重畳表示させている。これに対して第4実施形態では、特殊SIデータ66の表示領域内に顔像を囲む半透明の顔枠(第2の被写体識別枠)76を重畳表示する。
 第4実施形態のデジタルカメラは、図15に示した上記第2実施形態のデジタルカメラ70と基本的に同じ構成である。このため、上記第2実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。ただし、第4実施形態の顔枠表示部72は、顔検出情報60から特殊SIデータ66の表示領域内での顔像の位置、大きさを判別して、この判別結果に基づいて顔枠76を特殊SIデータ66の表示領域内に重畳表示させる。
 顔枠76は半透明であるので、この顔枠76を特殊SIデータ66の表示領域内に表示しても、特殊SIデータ66内の顔の位置を容易に把握可能である。また、両画像データ66L,66Rの境界におけるずれ量も容易に把握可能である。その結果、第2実施形態と同様に、顔枠76を表示した場合でもピント調整は行い易くなる。
 [第5実施形態のデジタルカメラ]
 次に、図22を用いて本発明の第5実施形態のデジタルカメラについて説明を行う。上記第4実施形態のデジタルカメラでは、特殊SIデータ66の表示領域内に顔枠76を半透明表示させている。これに対して、第5実施形態のデジタルカメラでは、特殊SIデータ66の表示領域内に顔枠76とは異なる顔枠を重畳表示させている。
 第5実施形態のデジタルカメラも、上記第4実施形態のデジタルカメラと同様に、図15に示した上記第2実施形態のデジタルカメラ70と基本的には同じ構成であるので、上記第2実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。ただし、第5実施形態の顔枠表示部72は、顔検出情報60に基づいて、特殊SIデータ66の表示領域内に顔像を囲む顔枠(第3の被写体識別枠)77を表示させている。この顔枠77は、両画像データ66L,66Rに基づく上下画像の境界を跨ぐ部分(以下、単に境界跨ぎ部分という)77aが透明に表示されている。すなわち、顔枠77は、上下画像の境界で分割されているともいえる。
 このように顔枠77の境界跨ぎ部分77aを透明表示することで、両画像データ66L,66Rの境界におけるずれ量を容易に把握することができる。その結果、第2及び第4の実施形態と同様に、顔枠77を表示した場合でもピント調整は行い易くなる。
 [第6実施形態のデジタルカメラ]
 次に、図23を用いて本発明の第6実施形態のデジタルカメラ80について説明を行う。上記各実施形態のデジタルカメラでは、顔検出処理により顔像が中央領域64内で検出される場合について説明したが、デジタルカメラ80では顔像が中央領域64外で検出された場合でも容易に顔にピントが合わせられる。
 デジタルカメラ80は、表示制御部33内に顔枠表示部72の代わりに拡大表示部81を備えている点を除けば、上記第2実施形態のデジタルカメラ70と基本的に同じ構成であり、上記第1及び第2実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 図24の(A)部分に示すように、拡大表示部81は、顔検出部53から取得した顔検出情報60に基づき顔領域62が中央領域64外に位置するか否かを判別し、この顔領域62が中央領域64外に位置する場合には、この顔領域62を拡大した拡大画像データ83を生成して表示部8へ出力する。これにより、図24の(B)部分に示すように、拡大画像データ83に基づき顔領域62の拡大画像が表示部8にライブビュー表示される。なお、この場合には、スプリットイメージ生成部54による通常・特殊SIデータ61,66の生成は行われない。
 このように第5実施形態のデジタルカメラ80では、顔領域62が中央領域64外に位置する場合には、この顔領域62を拡大表示するので、顔領域62の拡大画像を見ながら顔にピントを合わせることができる。その結果、特殊SIデータ66の表示ができない場合でも合焦精度を改善することができる。
 [第7実施形態のデジタルカメラ]
 次に、図25を用いて本発明の第7実施形態のデジタルカメラ85について説明を行う。上記第2、第4、及び第5の各実施形態では、被写体像データ55に対して顔検出処理を行った結果(顔検出情報60)に基づいて、顔枠73,76,77をライブビュー画像に重畳表示させている。これに対して、デジタルカメラ85では、両位相差画素36a,36bの出力からそれぞれ生成される2視点の画像データに対して顔検出処理を行った結果に基づいて、顔枠をライブビュー画像に重畳表示させる。
 デジタルカメラ85は、第2実施形態の顔検出部53及び顔枠表示部72の代わりに、位相差画像生成部86、顔検出部87、及び顔枠表示部89が設けられている点を除けば、第2実施形態のデジタルカメラ70と基本的に同じ構成である。このため、上記第2実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 位相差画像生成部86は、第1の位相差画素36a及びその補間画素の画素値に基づき、前述の中央領域64をL視点側から見たときの第1の位相差画像データ91Lを生成する。また、位相差画像生成部86は、第2の位相差画素36b及びその補間画素の画素値に基づき、中央領域64をR視点側から見たときの第2の位相差画像データ91Rを生成する。第1及び第2の位相差画像データ91L,91Rは、両位相差画素36a,36bの出力から生成される本発明の第1の画像、第2の画像に相当するものである。これら両位相差画像データ91L,91Rは顔検出部87へ出力される。
 顔検出部87は、両位相差画像データ91L,91Rのそれぞれに対して顔検出処理を行い、両位相差画像データ91L,91Rのそれぞれにおける顔像の位置、大きさを検出する。なお、具体的な顔検出処理方法は、上記第1実施形態の顔検出部53による顔検出処理方法と同じであるので具体的な説明は省略する。顔検出部87は、両位相差画像データ91L,91Rの両方で顔像が検出された場合には、両位相差画像データ91L,91Rの両方における顔像の位置及び大きさの検出結果を「左右顔検出情報92」として顔枠表示部89へ出力する。この左右顔検出情報92は、スプリットイメージ生成部54に対しても出力される。スプリットイメージ生成部54は、左右顔検出情報92に基づき顔領域62の位置及び大きさを判別して特殊SIデータ66を生成する。
 また、顔検出部87は、両位相差画像データ91L,91Rの少なくともいずれか一方で顔像が検出されなかった場合には、第1実施形態の顔検出部53と同様に、メモリ13のVRAM領域から読み出した被写体像データ55に対して顔検出処理を行う。そして、顔検出部87は、被写体像データ55から顔像が検出された場合には、顔検出情報60を顔枠表示部89へ出力する。
 なお、顔検出部87は、両位相差画像データ91L,91Rの両方で顔像が検出された場合においても被写体像データ55に対して顔検出処理を行って、顔検出情報60をスプリットイメージ生成部54へ出力する。これにより、上記各実施形態と同様にスプリットイメージ生成部54にて特殊SIデータ66を生成することができる。
 図26の(A)部分,図26の(B)部分に示すように、顔枠表示部89は、顔検出部87から左右顔検出情報92が入力された場合に、左右顔検出情報に基づき第1及び第2の位相差画像データ91L,91R内でそれぞれ顔像を囲む第1の顔領域94L、第2の顔領域94Rをそれぞれ判別する。
 次いで、図26の(C)部分に示すように、顔枠表示部89は、特殊SIデータ66の表示領域内に、各顔領域94L、94Rの両方を囲む顔枠(第4の被写体識別枠)95を重畳表示させる。この顔枠95を決定する方法は特に限定はされないが、例えば、各顔領域94L、94Rをそれぞれ囲む枠の各点の座標を求めて、全ての座標を含む枠を顔枠95として決定してもよい。
 なお、顔枠表示部89は、顔検出部87から顔検出情報60が入力された場合には、この顔検出情報60に基づいて、上記第2、第4、第5の各実施形態のいずれかの顔枠73,76,77をライブビュー画像内に重畳表示させる。
 <第7実施形態のデジタルカメラの作用>
 図27を用いて、上記構成のデジタルカメラ85の作用について説明を行う。なお、ステップS3までは図13に示した上記第1実施形態と同じであるので、ここでは具体的な説明は省略する。
 ステップS3の終了後、被写体像生成部52は、RGB画素35~37及び補間画素の画素値に基づき被写体像データ55を生成してメモリ13のVRAM領域に格納する。また、位相差画像生成部86は、両位相差画素36a,36b及びその補間画素の画素値に基づき両位相差画像データ91L,91Rをそれぞれ生成して顔検出部87へ出力する(ステップS4-1)。
 顔検出部87は、位相差画像生成部86から新たな両位相差画像データ91L,91Rが入力される毎に、これら両位相差画像データ91L,91Rに対して顔検出処理を行う(ステップS5-1)。
 <両位相差画像の少なくとも一方で顔像が非検出>
 顔検出部87は、両位相差画像データ91L,91Rの少なくともいずれか一方で顔像が検出されなかった場合(ステップS5-1でNO)には、メモリ13のVRAM領域から読み出した被写体像データ55に対して顔検出処理を行う(ステップS6)。なお、被写体像データ55で顔像が検出されなかった場合(ステップS6でNO)には、図13に示したステップS7からステップS9までの各処理が実行される。
 また、被写体像データ55で顔像が検出された場合(ステップS6でYES)には、この顔像の位置及び大きさを示す顔検出情報60がスプリットイメージ生成部54と顔枠表示部89とにそれぞれ出力される(ステップS6-1)。
 <両位相差画像の両方で顔像が検出>
 一方、顔検出部87は、両位相差画像データ91L,91Rの両方で顔像が検出された場合(ステップS5-1でYES)には、それぞれの顔像の位置及び大きさを示す左右顔検出情報92をスプリットイメージ生成部54及び顔枠表示部89へ出力する(ステップS6-2)。
 <特殊生成モード>
 少なくとも被写体像データ55で顔像が検出された場合(ステップS5-1またはステップS6でYES)には、スプリットイメージ生成部54は特殊生成モードで動作する(ステップS10)。スプリットイメージ生成部54は、顔検出情報60または左右顔検出情報92に基づき、第1の画像データ66Lと第2の画像データ66Rとを含む特殊SIデータ66を生成してメモリ13のVRAM領域に格納する(ステップS11)。
 <ライブビュー画像表示(ステップS12’)>
 図28に示すように、表示制御部33は、メモリ13のVRAM領域から被写体像データ55及び特殊SIデータ66を読み出して、被写体像データ55の顔領域62に特殊SIデータ66を合成した後に表示部8へ出力する(ステップS20)。これにより、フルカラー画像内に、その顔領域62の位置及び大きさに対応した白黒のスプリットイメージを合成したライブビュー画像が表示部8に表示される。
 この際に顔枠表示部89は、顔検出部87から顔検出情報60が入力された場合、すなわち、両位相差画像データ91L,91Rの両方で顔像が検出されなかった場合(ステップS21でNO)には、この顔検出情報60に基づいて上記第2、第4、第5の各実施形態の顔枠73,76,77のいずれかをライブビュー画像内に重畳表示させる(ステップS22)。
 逆に顔枠表示部89は、顔検出部87から左右顔検出情報92が入力された場合、すなわち、両位相差画像データ91L,91Rの両方で顔像が検出された場合(ステップS21でYES)には、この左右顔検出情報92に基づき両位相差画像データ91L,91R内における第1及び第2の顔領域94L,94Rをそれぞれ判別する。次いで、顔枠表示部89は、図26に示したように、特殊SIデータ66の表示領域内に各顔領域94L、94Rの両方を囲む顔枠95を重畳表示させる(ステップS23)。
 図27に戻って、これ以降の処理の流れは、図13に示した第1実施形態と同じであるのでここでは説明を省略する。なお、フォーカスレンズ16が合焦位置に近づくに従って、両位相差画像データ91L,91Rの位相差が次第に小さくなり、これに伴い顔枠95も次第に小さくなる。
 このように第7実施形態のデジタルカメラ85では、両位相差画像データ91R,91Lで検出された顔像がそれぞれ含まれる領域の両方を囲む顔枠95を特殊SIデータ66の表示領域内に重畳表示させているので、特殊SIデータ66の表示領域内で顔枠95が顔像上に表示されることが防止される(図26の(C)部分参照)。
 一方、比較例を示す前述の図17において、被写体像データ55から検出した顔像を囲む顔枠74を特殊SIデータ66の表示領域内に重畳表示させた場合には、この顔枠74が顔像上に表示されるおそれがある。このように顔枠74が顔像上に表示されると、第1の画像データ66L内の顔像と第2の画像データ66R内の顔像との境界(以下、単に顔像境界という)の一部が顔枠74で覆われてしまうので、この顔像境界でのずれ量が把握し難くなるおそれがある。
 これに対して本発明では、顔枠95が顔像上に表示されないので、顔像境界を容易に把握することができる。その結果、顔枠95の表示を行った場合でもピント調整が行い易くなる。
 [その他]
 上記各実施形態のうちの少なくとも2つを適宜組わせてもよい。また、上記各実施形態では、カラー撮像素子23の撮像面にRGB画素35~37と両位相差画素36a,36bが2次元配列されているが、例えば、図29に示すように、カラー撮像素子23’の撮像面に両位相差画素36a,36bのみが2次元配列されている場合にも本発明を適用することができる。この場合には、被写体像生成部52が、例えば互いに隣り合う両位相差画素36a,36bの画素値(出力)を加算した加算画素値を求めて、各加算画素値に基づいて被写体像データ55の生成を行う。なお、通常及び特殊SIデータ61,66の生成方法は、第1実施形態と基本的に同じであるので説明は省略する。
 また、図29に示したようにカラー撮像素子23の撮像面に両位相差画素36a,36bのみが2次元配列されている場合、あるいは撮像面に一定の割合で両位相差画素36a,36bが設けられている場合には、表示部8に通常/特殊スプリットイメージデータに基づくスプリットイメージのみの表示を行わせてもよい。
 上記各実施形態では、カラー撮像素子23の撮像面にRGB画素35~37と両位相差画素36a,36bが上述の図4に示した配列パターンで配列されている場合について説明を行ったが、これら各画素の配列パターンは適宜変更してもよい。
 上記各実施形態では、通常及び特殊SIデータ61,66として垂直方向(上下)に2分割されているものを例に挙げて説明を行ったが、本発明のスプリットイメージデータには、2つの位相差画像(第1の画像、第2の画像)を重畳して合成表示したときに、ピントがずれている場合には2重像として表示され、ピントが合った状態ではクリアに表示されるものが含まれる。
 例えば、通常及び特殊SIデータ61,66が水平方向に2分割、水平及び垂直方向に対して傾いた斜め方向に2分割されていてもよい。また、各SIデータ61,66を垂直方向または水平方向に短冊状に分割して、第1の画像データと第2の画像データとを交互に表示させるようにしてもよい。さらに、各SIデータ61,66を格子状に分割して、第1の画像データと第2の画像データとをそれぞれ市松模様(チェッカーパターン)状に並べて表示させてもよい。
 上記各実施形態では、通常画素として3色のRGB画素について説明したが、例えばRGBの3原色+他の色(例えば、エメラルド(E))の4色の画素であっても良く、画素の種類は特に限定されない。また、本発明は、原色RGBの補色であるC(シアン)、M(マゼンタ)、Y(イエロー)の画素にも適用できる。
 上記各実施形態では、被写体像データ55の表示領域内の中央領域64を、通常SIデータ61を表示する本発明の特定の領域として設定しているが、この中央領域64以外の領域を特定の領域として設定してもよい。この場合には、上記第6実施形態のデジタルカメラ80では、特定の領域以外で顔像が検出されたときに顔像の拡大表示を行う。
 上記各実施形態では、本発明の特定の主要被写体として人Hの顔を例に挙げて説明を行ったが、例えば、犬、猫、自動車、飛行機等の各種の被写体を特定の主要被写体としている場合にも本発明を適用することができる。また、上記各実施形態では、主要被写体が顔であるので顔枠73,76,77,95(第1~第4の被写体識別枠)を表示しているが、主要被写体の種類に応じて第1~第4の被写体識別枠の形状等を適宜変更してもよい。
 上記各実施形態では本発明の撮像装置としてデジタルカメラを例に挙げて説明を行ったが、例えば、撮影機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、タブレット型コンピュータ、携帯型ゲーム機にも本発明を適用することができる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
 <スマートフォンの構成>
 図30は、スマートフォン500の外観を示すものである。スマートフォン500は、平板状の筐体501を有している。筐体501の一方の面には、表示入力部502と、スピーカ503と、マイクロホン504、操作部505と、カメラ部506とを備えている。なお、筐体501の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成、折り畳み構造やスライド機構を有する構成を採用することもできる。
 表示入力部502は、CPU507からの指令を受けた表示処理部508の制御により、画像(静止画像及び動画像)や文字情報などを表示する。また、表示入力部502は、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネル構造を有している。この表示入力部502は、表示パネル510と、操作パネル512とで構成されている。
 表示パネル510は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル512は、光透過性を有しており、表示パネル510の表示面上に載置されている。この操作パネル512は、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号をスマートフォン500のCPUに出力する。CPUは、受信した検出信号に基づいて、表示パネル510上の操作位置(座標)を検出する。このような操作パネル512で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられる。
 図31に示すように、スマートフォン500は、表示入力部502、スピーカ503、マイクロホン504、操作部505、カメラ部506、CPU507、表示処理部508の他に、無線通信部515と、通話部516と、記憶部517と、外部入出力部518と、GPS(Global Positioning System)受信部519と、モーションセンサ部520と、電源部521とを備える。
 無線通信部515は、CPU507の指示に従って、移動通信網に収容された基地局装置に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 通話部516は、スピーカ503やマイクロホン504を備え、マイクロホン504を通じて入力されたユーザの音声を音声データに変換してCPU507に出力したり、無線通信部515等で受信された音声データを復号してスピーカ503から出力する。
 操作部505は、例えば押しボタン式のスイッチや十字キーなどを用いたハードウェアキーであり、ユーザからの指示を受け付ける。この操作部505は、例えば筐体501の表示部の下部や筐体501の側面に搭載される。
 記憶部517は、CPU507の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータなどを記憶し、またストリーミングデータなどを一時的に記憶する。また、記憶部517は、スマートフォン内蔵の内部記憶部517aと着脱自在な外部メモリスロットを有する外部記憶部517bにより構成される。なお、内部記憶部517aと外部記憶部517bとしては、フラッシュメモリタイプ、ハードディスクタイプなどの公知の各種記憶媒体が用いられる。
 外部入出力部518は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等により直接的または間接的に接続するためのものである。
 GPS受信部519は、GPS衛星ST1~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、高度からなる位置を検出する。この検出結果はCPU507に出力される。
 モーションセンサ部520は、例えば、3軸の加速度センサなどを備えており、スマートフォン500の物理的な動きを検出する。これにより、スマートフォン500の動く方向や加速度が検出される。この検出結果はCPU507に出力される。また、電源部521は、図示しないバッテリに蓄えられた電力をスマートフォン500の各部に供給する。
 CPU507は、記憶部517から読み出した制御プログラムや制御データに従って動作し、スマートフォン500の各部を統括して制御する。また、CPU507は、表示パネル510に対する表示制御、操作部505や操作パネル512を通じたユーザ操作を検出する操作検出制御などを実行する。
 表示制御の実行により、CPU507は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル510の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、CPU507は、操作部505を通じたユーザ操作を検出したり、操作パネル512を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 さらに、操作検出制御の実行によりCPU507は、操作パネル512に対する操作位置が、表示パネル510に重なる重畳部分(表示領域)か、それ以外の表示パネル510に重ならない外縁部分(非表示領域)かを判定し、操作パネル512の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。また、CPU507は、操作パネル512に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することができる。
 カメラ部506は、上記各実施形態のデジタルカメラと基本的に同じ構成であるので、上記各実施形態と同様の効果が得られる。なお、MF操作は、例えば表示入力部502や操作部505にて行えばよい。
 2,70…デジタルカメラ,8…表示部,23…カラー撮像素子,29…画像処理回路,33…表示制御部,35…R画素,36…G画素,37…B画素,36a…第1の位相差画素,36b…第2の位相差画素,52…被写体像生成部,53,53a…顔検出部,54,54a…スプリットイメージ生成部,61…通常スプリットイメージデータ,66,66a…特殊スプリットイメージデータ,72,89…顔枠表示部,73,76,77,95…顔枠,81…拡大表示部,83…拡大画像データ

Claims (13)

  1.  撮影レンズと、
     撮影レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、前記第1及び第2の画素群から出力された第1及び第2の画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成手段と、
     前記第1及び第2の表示用画像の少なくともいずれか一方を表示する表示手段と、
     第1の表示用画像から特定の主要被写体像を検出する検出手段と、
     前記検出手段で前記主要被写体像が検出された場合に、前記生成手段を制御して前記第1及び第2の画像から当該主要被写体像を複数分割した分割像を生成させ、前記分割像に基づいて前記第2の表示用画像を生成させる生成制御手段と、
     前記表示手段に対して前記生成手段により生成された前記第1の表示用画像を表示させ、かつ該第1の表示用画像の表示領域内に前記生成手段により生成された前記第2の表示用画像を表示させる制御を行う表示制御手段であって、前記検出手段で前記主要被写体像が検出された場合に、第1の表示用画像内の前記主要被写体像に対応する位置に前記第2の表示用画像を表示させる表示制御手段と、
     を備える撮像装置。
  2.  前記撮像素子は、前記第1及び第2の画素群と、前記第1及び第2の領域を通過した被写体像が瞳分割されずにそれぞれ入射する第3の画素群とを含み、
     前記生成手段は、前記第3の画素群の出力から前記第1の表示用画像を生成する請求項1記載の撮像装置。
  3.  前記検出手段は、前記主要被写体像内の目の位置を検出可能であり、
     前記生成制御手段は、前記検出手段により前記目の位置が検出された場合に、前記生成手段を制御して、前記目の位置を境界として前記主要被写体像を分割した分割像を前記第1及び第2の画像から生成させる請求項1または2記載の撮像装置。
  4.  前記表示制御手段は、前記検出手段の検出結果に基づき、前記表示領域内に前記第2の表示用画像を囲む第1の被写体識別枠を表示させる請求項1から3のいずれか1項記載の撮像装置。
  5.  前記表示制御手段は、前記検出手段の検出結果に基づき、前記第2の表示用画像内に前記主要被写体像を囲む半透明の第2の被写体識別枠を表示させる請求項1から3のいずれか1項記載の撮像装置。
  6.  前記表示制御手段は、前記検出手段の検出結果に基づき、前記第2の表示用画像内に前記主要被写体像を囲み、かつ前記第1及び第2の画像の境界を跨ぐ部分が透明な第3の被写体識別枠を表示させる請求項1から3のいずれか1項記載の撮像装置。
  7.  前記検出手段は、前記第1及び第2の画像のそれぞれから前記主要被写体像を検出し、
     前記表示制御手段は、前記検出手段による前記第1及び第2の画像からの前記主要被写体像の検出結果に基づき、第1の表示用画像内における、前記第1の画像内の前記主要被写体像に対応する領域と前記第2の画像内の前記主要被写体像に対応する領域との両方を囲む第4の被写体識別枠を、前記第2の表示用画像内に表示させる請求項1から3のいずれか1項記載の撮像装置。
  8.  前記第2の表示用画像は、前記表示領域内の特定の領域内に表示されるものであり、
     前記表示制御手段は、前記検出手段の検出結果に基づき、前記主要被写体像が前記特定の領域外に位置する場合には、当該主要被写体像を前記表示手段に拡大表示させる請求項1から7のいずれか1項記載の撮像装置。
  9.  前記表示制御手段は、前記検出手段により前記主要被写体像が検出されなかった場合には、前記表示領域内の特定の領域に前記第2の表示用画像を表示させる請求項1から8のいずれか1項記載の撮像装置。
  10.  前記特定の領域は、前記表示領域の中央領域である請求項8または9記載の撮像装置。
  11.  前記検出手段は、前記主要被写体像として人の顔を検出する請求項1から10のいずれか1項記載の撮像装置。
  12.  前記撮影レンズには、フォーカスレンズが含まれており、
     フォーカス操作を受けて前記フォーカスレンズを前記撮影レンズの光軸方向に移動させるレンズ移動機構を備え、
     前記フォーカス操作には手動操作が含まれる請求項1から11のいずれか1項記載の撮像装置。
  13.  撮影レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、前記第1及び第2の画素群から出力された第1及び第2の画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成ステップと、
     第1の表示用画像から特定の主要被写体像を検出する検出ステップと、
     前記検出ステップで前記主要被写体像が検出された場合に、前記生成ステップにて前記第1及び第2の画像から当該主要被写体像を複数分割した分割像を生成させ、前記分割像に基づいて前記第2の表示用画像を生成させる生成制御ステップと、
     表示部に対して前記生成ステップで生成された前記第1の表示用画像を表示させ、かつ該第1の表示用画像の表示領域内に前記生成ステップで生成された前記第2の表示用画像を表示させる制御を行う表示制御ステップであって、前記検出ステップで前記主要被写体像が検出された場合に、第1の表示用画像内の前記主要被写体像に対応する位置に前記第2の表示用画像を表示させる表示制御ステップと、
     を有する撮像装置の制御方法。
PCT/JP2013/074829 2012-09-19 2013-09-13 撮像装置及びその制御方法 WO2014046036A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380048849.XA CN104838313B (zh) 2012-09-19 2013-09-13 摄像装置及其控制方法
JP2014536831A JP6084982B2 (ja) 2012-09-19 2013-09-13 撮像装置
US14/645,067 US9699367B2 (en) 2012-09-19 2015-03-11 Imaging device and method for displaying multiple objects of an imaging view

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012205742 2012-09-19
JP2012-205742 2012-09-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/645,067 Continuation US9699367B2 (en) 2012-09-19 2015-03-11 Imaging device and method for displaying multiple objects of an imaging view

Publications (1)

Publication Number Publication Date
WO2014046036A1 true WO2014046036A1 (ja) 2014-03-27

Family

ID=50341349

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/074829 WO2014046036A1 (ja) 2012-09-19 2013-09-13 撮像装置及びその制御方法

Country Status (4)

Country Link
US (1) US9699367B2 (ja)
JP (1) JP6084982B2 (ja)
CN (1) CN104838313B (ja)
WO (1) WO2014046036A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016103962A1 (ja) * 2014-12-26 2016-06-30 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JP2017138478A (ja) * 2016-02-03 2017-08-10 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
CN104641626B (zh) * 2012-09-19 2018-02-27 富士胶片株式会社 摄像装置及对焦确认显示方法
JP5981026B2 (ja) * 2013-03-29 2016-08-31 富士フイルム株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
JP6132925B2 (ja) * 2013-09-30 2017-05-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
CN108141514B (zh) * 2015-09-30 2020-06-30 富士胶片株式会社 摄影装置及其控制方法
US9774767B2 (en) * 2015-11-29 2017-09-26 Jianhua Cao Digital memory card window arrangement for IP camera
JP6817789B2 (ja) * 2016-06-10 2021-01-20 ラピスセミコンダクタ株式会社 表示ドライバ及び半導体装置
JP2018109924A (ja) * 2017-01-06 2018-07-12 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN112866511B (zh) * 2019-11-12 2022-06-14 Oppo广东移动通信有限公司 成像组件、对焦方法和装置、电子设备
JP7458756B2 (ja) * 2019-11-29 2024-04-01 キヤノン株式会社 表示制御装置及びその制御方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163220A (ja) * 2007-12-14 2009-07-23 Canon Inc 撮像装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09214813A (ja) * 1996-01-30 1997-08-15 Victor Co Of Japan Ltd ビデオカメラの焦点情報表示装置
JP2001309210A (ja) * 2000-04-27 2001-11-02 Minolta Co Ltd デジタルカメラ
JP3929034B2 (ja) 2002-07-08 2007-06-13 富士フイルム株式会社 マニュアルフォーカス装置
US7099575B2 (en) * 2002-07-08 2006-08-29 Fuji Photo Film Co., Ltd. Manual focus device and autofocus camera
JP2004212891A (ja) * 2003-01-08 2004-07-29 Canon Inc 電子カメラ
US7649537B2 (en) * 2005-05-27 2010-01-19 Ati Technologies, Inc. Dynamic load balancing in multiple video processing unit (VPU) systems
JP4953971B2 (ja) * 2007-08-03 2012-06-13 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、および、これを実行させるためのプログラム
JP5043626B2 (ja) 2007-12-13 2012-10-10 キヤノン株式会社 撮像装置
US8279318B2 (en) 2007-12-14 2012-10-02 Canon Kabushiki Kaisha Image pickup apparatus and display control method for the same
JP5043730B2 (ja) * 2008-03-24 2012-10-10 キヤノン株式会社 撮像装置、その制御方法、画像処理装置及び画像処理方法
JP4759082B2 (ja) * 2009-11-18 2011-08-31 富士フイルム株式会社 複眼式撮像装置
JP2011119930A (ja) * 2009-12-02 2011-06-16 Seiko Epson Corp 撮像装置、撮像方法および撮像プログラム
WO2011148366A1 (en) * 2010-05-26 2011-12-01 Ramot At Tel-Aviv University Ltd. Method and system for correcting gaze offset
JP2011013683A (ja) * 2010-08-13 2011-01-20 Ricoh Co Ltd 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム
JP5447286B2 (ja) * 2010-08-13 2014-03-19 株式会社リコー 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム
JP2012044804A (ja) 2010-08-20 2012-03-01 Thk Co Ltd 流体発電装置
JP5561019B2 (ja) * 2010-08-23 2014-07-30 ソニー株式会社 撮像装置、プログラムおよび撮像方法
CN103842880B (zh) * 2011-09-28 2015-11-25 富士胶片株式会社 成像设备和聚焦控制方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163220A (ja) * 2007-12-14 2009-07-23 Canon Inc 撮像装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016103962A1 (ja) * 2014-12-26 2016-06-30 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JPWO2016103962A1 (ja) * 2014-12-26 2017-08-17 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
US9912859B2 (en) 2014-12-26 2018-03-06 Fujifilm Corporation Focusing control device, imaging device, focusing control method, and focusing control program
JP2017138478A (ja) * 2016-02-03 2017-08-10 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
CN104838313A (zh) 2015-08-12
JP6084982B2 (ja) 2017-02-22
JPWO2014046036A1 (ja) 2016-08-18
US9699367B2 (en) 2017-07-04
CN104838313B (zh) 2018-01-05
US20150201123A1 (en) 2015-07-16

Similar Documents

Publication Publication Date Title
JP6084982B2 (ja) 撮像装置
JP5937690B2 (ja) 撮像装置及びその制御方法
US9179059B2 (en) Image capture device and image display method
JP5753321B2 (ja) 撮像装置及び合焦確認表示方法
JP5697801B2 (ja) 撮像装置及び自動焦点調節方法
JP5960286B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5926391B2 (ja) 撮像装置及び合焦確認表示方法
US9609224B2 (en) Imaging device and image display method
JP6651672B2 (ja) 撮像装置
JP5747124B2 (ja) 撮像装置
JP5833254B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP7060634B2 (ja) 撮像装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13840109

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2014536831

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13840109

Country of ref document: EP

Kind code of ref document: A1