JP5901780B2 - Image processing apparatus, imaging apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, imaging apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5901780B2
JP5901780B2 JP2014536664A JP2014536664A JP5901780B2 JP 5901780 B2 JP5901780 B2 JP 5901780B2 JP 2014536664 A JP2014536664 A JP 2014536664A JP 2014536664 A JP2014536664 A JP 2014536664A JP 5901780 B2 JP5901780 B2 JP 5901780B2
Authority
JP
Japan
Prior art keywords
image
color
display
unit
display image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014536664A
Other languages
Japanese (ja)
Other versions
JPWO2014045738A1 (en
Inventor
克俊 井澤
克俊 井澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Application granted granted Critical
Publication of JP5901780B2 publication Critical patent/JP5901780B2/en
Publication of JPWO2014045738A1 publication Critical patent/JPWO2014045738A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Description

本発明は、画像処理装置、撮像装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing method, and an image processing program.

デジタルカメラとして、位相差検出方式やコントラスト検出方式を用いたオートフォーカスの他に、使用者が手動でフォーカス調整を行うことができる、いわゆるマニュアルフォーカスモードを備えるものが広く知られている。   In addition to autofocus using a phase difference detection method and a contrast detection method, digital cameras having a so-called manual focus mode in which a user can manually perform focus adjustment are widely known.

マニュアルフォーカスモードを有するデジタルカメラとしては、被写体を確認しながらフォーカス調整ができるようにレフレックスミラーを設けて、目視による位相差を表示するスプリットマイクロプリズムスクリーンを用いた方法を採用したものが知られている。また、目視によるコントラストの確認を行う方法を採用したものも知られている。   As a digital camera having a manual focus mode, a method using a split micro prism screen that displays a phase difference visually by providing a reflex mirror so that focus adjustment can be performed while checking a subject is known. ing. Also known is a method employing a method for visually confirming contrast.

ところで、近年普及しているレフレックスミラーを省略したデジタルカメラでは、レフレックスミラーがないため位相差を表示しながら被写体像を確認する方法がなく、コントラス検出方式に頼らざるを得なかった。しかし、この場合には、(liquid crystal display:液晶ディスプレイ)等の表示装置の解像度以上のコントラストの表示ができず、一部拡大するなどして表示する方法を採らざるを得なかった。   By the way, in a digital camera that omits a reflex mirror that has been widely used in recent years, there is no method for checking a subject image while displaying a phase difference because there is no reflex mirror, and it has been necessary to rely on a contrast detection method. However, in this case, it is impossible to display a contrast higher than the resolution of a display device such as a (liquid crystal display), and it has been necessary to take a method of displaying it by partially enlarging it.

そこで、近年では、マニュアルフォーカスモード時に操作者が被写体に対してピントを合わせる作業を容易にするために、スプリットイメージをライブビュー画像(スルー画像ともいう)内に表示している。ここで、スプリットイメージとは、例えば2分割された分割画像(例えば上下方向に分割された各画像)であって、ピントのずれに応じて視差発生方向(例えば左右方向)にずれ、ピントが合った状態だと視差発生方向のずれがなくなる分割画像を指す。操作者(例えば撮影者)は、スプリットイメージ(例えば上下方向に分割された各画像)のずれがなくなるように、マニュアルフォーカスリングを操作してピントを合わせる。   Therefore, in recent years, a split image is displayed in a live view image (also referred to as a through image) in order to make it easier for the operator to focus on the subject in the manual focus mode. Here, the split image is, for example, a divided image divided into two (for example, images divided in the vertical direction), and is shifted in the parallax generation direction (for example, the horizontal direction) according to the shift of the focus, and is in focus. In this state, it indicates a divided image in which the shift in the parallax generation direction is eliminated. An operator (for example, a photographer) adjusts the focus by operating the manual focus ring so that the split image (for example, each image divided in the vertical direction) is not displaced.

特開2009−147665号公報(以下、特許文献1という)に記載の撮像装置は、撮像光学系からの光束のうち、瞳分割部によって分割された光束により形成された第1の被写体像及び第2の被写体像をそれぞれ光電変換した第1の画像及び第2の画像を生成する。そして、これらの第1及び第2の画像を用いてスプリットイメージを生成すると共に、瞳分割部によって分割されない光束により形成された第3の被写体像を光電変換して第3の画像を生成する。そして、第3の画像を表示部に表示すると共に、第3の画像内に、生成したスプリットイメージを表示し、かつ第3の画像から抽出した色情報をスプリットイメージに付加するようにしている。このように第3の画像から抽出した色情報をスプリットイメージに付加することにより、スプリットイメージの視認性を良好にすることができる。   An imaging apparatus described in Japanese Patent Laying-Open No. 2009-147665 (hereinafter referred to as Patent Document 1) includes a first subject image and a first object image formed by a light beam divided by a pupil division unit among light beams from an imaging optical system. A first image and a second image are generated by photoelectrically converting the two subject images. Then, a split image is generated using the first and second images, and a third image is generated by photoelectric conversion of a third subject image formed by a light beam that is not divided by the pupil dividing unit. The third image is displayed on the display unit, the generated split image is displayed in the third image, and the color information extracted from the third image is added to the split image. In this way, by adding the color information extracted from the third image to the split image, the visibility of the split image can be improved.

特開2000−078607号公報(以下、特許文献2という)に記載の画像処理装置は、画像入力装置から入力された画像信号に対して色バランス調整を行う色バランス調整処理手段を有する。この色バランス調整処理手段は、画像信号の画像取得時における照明光源の色度を画像信号から推定し、推定された照明光源の色度に基づいて画像信号に対して色バランス調整を行う。   An image processing apparatus described in Japanese Patent Application Laid-Open No. 2000-078607 (hereinafter referred to as Patent Document 2) includes color balance adjustment processing means for performing color balance adjustment on an image signal input from the image input apparatus. The color balance adjustment processing unit estimates the chromaticity of the illumination light source when the image signal is acquired from the image signal, and performs color balance adjustment on the image signal based on the estimated chromaticity of the illumination light source.

しかしながら、特許文献1に記載の撮像装置は、第3の画像の表示色の色特性とスプリットイメージの表示色の色特性とが近似する場合がある。この場合、第3の画像とスプリットイメージとの境界線が視認し難くなる、という問題点があった。   However, in the imaging device described in Patent Document 1, the color characteristics of the display color of the third image and the color characteristics of the display color of the split image may be approximated. In this case, there is a problem that it becomes difficult to visually recognize the boundary line between the third image and the split image.

また、特許文献2に記載の画像処理装置を利用して、スプリットイメージやスプリットイメージ以外の画像(例えば背景画像)に対して色バランス調整を行ったとしても、スプリットイメージ以外の画像とスプリットイメージとの境界線が視認し難くなる、という問題点があった。   Further, even if the color balance adjustment is performed on the split image or an image other than the split image (for example, the background image) using the image processing device described in Patent Document 2, the image other than the split image, the split image, There is a problem that it becomes difficult to visually recognize the boundary line.

本発明は、このような実情を鑑みて提案されたものであり、第1の表示用画像と合焦確認に使用する第2の表示用画像との境界線の視認性を向上させることができる画像処理装置、撮像装置、画像処理方法及び画像処理プログラムを提供することを目的とする。   The present invention has been proposed in view of such a situation, and can improve the visibility of the boundary line between the first display image and the second display image used for focusing confirmation. An object is to provide an image processing apparatus, an imaging apparatus, an image processing method, and an image processing program.

本発明の第1の態様に係る画像処理装置は、撮影レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を含む撮像素子から出力された画像に基づいて第1の表示用画像を生成する第1の表示用画像生成部と、前記第1及び第2の画素群から出力された第1の画像及び第2の画像に基づいて合焦確認に使用する第2の表示用画像を生成する第2の表示用画像生成部と、前記第1の表示用画像生成部により生成された前記第1の表示用画像の色情報を取得する取得部と、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する色を前記第2の表示用画像の表示色として決定する決定部と、画像を表示する表示部と、前記表示部に対して、前記第1の表示用画像生成部により生成された前記第1の表示用画像を表示させ、かつ、該第1の表示用画像の表示領域内に前記第2の表示用画像生成部により生成された前記第2の表示用画像を表示させる表示制御部と、を含む。これにより、本構成を有しない場合に比べ、第1の表示用画像と合焦確認に使用する第2の表示用画像との境界線の視認性を向上させることができる。 An image processing apparatus according to a first aspect of the present invention includes an imaging device including first and second pixel groups in which a subject image that has passed through first and second regions in a photographic lens is divided into pupils, respectively. the first display image generating unit, the first image and the second image output from the first and second pixel group for generating a first display image based on the image output from the device A second display image generation unit that generates a second display image to be used for focus confirmation based on the first display image, and a color of the first display image generated by the first display image generation unit An acquisition unit that acquires information, and a color having a color characteristic different from the color characteristic of the first display image based on the color information acquired by the acquisition unit is a display color of the second display image A determination unit, a display unit for displaying an image, and the display unit The first display image generated by the first display image generation unit is displayed, and is generated by the second display image generation unit within a display area of the first display image. And a display control unit for displaying the second display image. Thereby, the visibility of the boundary line between the first display image and the second display image used for focusing confirmation can be improved as compared with the case where this configuration is not provided.

本発明の第2の態様は、本発明の第1の態様において、前記異なる色特性を有する色を、前記第1の表示用画像の色特性と異なる色特性であることを視認可能とする色としたものとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像と第2の表示用画像とを視覚的に識別することができる。   According to a second aspect of the present invention, in the first aspect of the present invention, it is possible to visually recognize that the color having the different color characteristic is a color characteristic different from the color characteristic of the first display image. It is good also as what. Accordingly, the first display image and the second display image can be visually identified as compared with the case where the present configuration is not provided.

本発明の第3の態様は、本発明の第1の態様又は第2の態様において、前記取得部が、前記第1の表示用画像の一部又は全てから前記色情報を取得するものとしてもよい。これにより、本構成を有しない場合に比べ、簡素な構成で、第2の表示用画像の色特性と第1の表示用画像の色特性とを高精度に異ならせることができる。   According to a third aspect of the present invention, in the first aspect or the second aspect of the present invention, the acquisition unit may acquire the color information from a part or all of the first display image. Good. Thereby, compared with the case where this configuration is not provided, the color characteristics of the second display image and the color characteristics of the first display image can be differentiated with high accuracy with a simple configuration.

本発明の第4の態様は、本発明の第1の態様又は第2の態様において、前記取得部が、前記第1の表示用画像と前記第1の画像若しくは前記第2の画像又は前記第2の表示用画像に基づいて前記色情報を取得するものとしてもよい。これにより、本構成を有しない場合に比べ、第2の表示用画像の色特性と第1の表示用画像の色特性とを高精度に異ならせることができる。また、請求項4に記載の発明によれば、第1の表示用画像が白とびしていても第1及び第2の画素群は感度が低いため、色情報を取得することができる。   According to a fourth aspect of the present invention, in the first aspect or the second aspect of the present invention, the acquisition unit includes the first display image, the first image, the second image, or the first image. The color information may be acquired based on two display images. As a result, the color characteristics of the second display image and the color characteristics of the first display image can be made to differ with high accuracy compared to the case without this configuration. According to the fourth aspect of the present invention, even if the first display image is overexposed, the first and second pixel groups have low sensitivity, so that color information can be acquired.

本発明の第5の態様は、本発明の第1の態様から第4の態様の何れか1つにおいて、前記撮像素子が、前記第1の表示用画像の撮像に使用される通常撮像領域と前記第2の表示用画像の撮像に使用されると共に前記通常撮像領域に隣接する合焦確認撮像領域とを有し、前記取得部が、前記第1の表示用画像のうち前記通常撮像領域における前記合焦確認撮像領域との境界側の縁部から出力された画像から前記色情報を取得するものとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像と第2の表示用画像との境界を鮮明にすることができる。   According to a fifth aspect of the present invention, in any one of the first aspect to the fourth aspect of the present invention, the imaging element includes a normal imaging region used for imaging the first display image. An in-focus confirmation imaging area that is used for imaging the second display image and is adjacent to the normal imaging area, and the acquisition unit includes the first display image in the normal imaging area. The color information may be acquired from an image output from an edge portion on the boundary side with the focus confirmation imaging region. Accordingly, the boundary between the first display image and the second display image can be made clearer than in the case where the present configuration is not provided.

本発明の第6の態様は、本発明の第1の態様から第5の態様の何れか1つにおいて、前記色情報を、前記第1の表示用画像の物体色の色特性を示す色情報としたものとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像において光源色よりも物体色が支配的な場合であっても第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。   According to a sixth aspect of the present invention, in any one of the first to fifth aspects of the present invention, the color information indicates color information indicating a color characteristic of an object color of the first display image. It is good also as what. As a result, the boundary between the first display image and the second display image is obtained even when the object color is more dominant than the light source color in the first display image as compared with the case without this configuration. The visibility of the line can be improved.

本発明の第7の態様は、本発明の第6の態様において、前記色特性を色相としたものとしてもよい。これにより、本構成を有しない場合に比べ、簡素な構成で、第1の表示用画像と第2の表示用画像との境界線の視認性をより一層向上させることができる。   According to a seventh aspect of the present invention, in the sixth aspect of the present invention, the color characteristic may be a hue. Thereby, the visibility of the boundary line between the first display image and the second display image can be further improved with a simple configuration as compared with the case where the present configuration is not provided.

本発明の第8の態様は、本発明の第6の態様又は第7の態様において、前記異なる色特性を有する色を、色相環において前記第1の表示用画像の物体色と予め定められた角度離れた色としたものとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像の色特性とは異なる色特性を有する色として適切な物体色を容易に決めることができる。   According to an eighth aspect of the present invention, in the sixth aspect or the seventh aspect of the present invention, the color having the different color characteristic is predetermined as an object color of the first display image in a hue circle. It is good also as what made the color away from the angle. As a result, an object color suitable as a color having a color characteristic different from the color characteristic of the first display image can be easily determined as compared with the case without this configuration.

本発明の第9の態様は、本発明の第6の態様から第8の態様の何れか1つにおいて、前記第1の表示用画像の物体色の色特性を、前記第1の表示用画像における原色成分の構成比としたものとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像の物体色の色特性として、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させる上で適切な色特性を容易に特定することができる。   According to a ninth aspect of the present invention, in any one of the sixth to eighth aspects of the present invention, the color characteristic of the object color of the first display image is the first display image. The composition ratio of the primary color components may be used. As a result, the visibility of the boundary line between the first display image and the second display image is improved as the color characteristic of the object color of the first display image, compared with the case where the present configuration is not provided. It is possible to easily identify appropriate color characteristics.

本発明の第10の態様は、本発明の第9の態様において、減少関数を含む入出力関数により前記構成比を変換して得た変換後の前記構成比を前記異なる色特性としたものとしてもよい。これにより、本構成を有しない場合に比べ、簡素な構成で、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。   According to a tenth aspect of the present invention, in the ninth aspect of the present invention, the converted composition ratio obtained by converting the composition ratio by an input / output function including a decreasing function is the different color characteristic. Also good. Thereby, the visibility of the boundary line between the first display image and the second display image can be improved with a simple configuration as compared with the case where the present configuration is not provided.

本発明の第11の態様は、本発明の第9の態様において、色変換データにより前記構成比を変換して得た変換後の前記構成比を前記異なる色特性としたものとしてもよい。これにより、本構成を有しない場合に比べ、簡素な構成で、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。   In an eleventh aspect of the present invention, in the ninth aspect of the present invention, the converted composition ratio obtained by converting the composition ratio by color conversion data may be the different color characteristics. Thereby, the visibility of the boundary line between the first display image and the second display image can be improved with a simple configuration as compared with the case where the present configuration is not provided.

本発明の第12の態様は、本発明の第11の態様において、前記色変換データを、減少関数を含む入出力関数に基づいて作成された色変換データとしたものとしてもよい。これにより、本構成を有しない場合に比べ、簡素な構成で、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。   According to a twelfth aspect of the present invention, in the eleventh aspect of the present invention, the color conversion data may be color conversion data created based on an input / output function including a reduction function. Thereby, the visibility of the boundary line between the first display image and the second display image can be improved with a simple configuration as compared with the case where the present configuration is not provided.

本発明の第13の態様は、本発明の第1の態様から第5の態様の何れか1つにおいて、前記色情報を、前記第1の表示用画像の光源色の色特性を示す色情報としたものとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像において物体色よりも光源色が支配的な場合であっても第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。   According to a thirteenth aspect of the present invention, in any one of the first to fifth aspects of the present invention, the color information is color information indicating a color characteristic of a light source color of the first display image. It is good also as what. As a result, the boundary between the first display image and the second display image is obtained even when the light source color is more dominant than the object color in the first display image as compared with the case without this configuration. The visibility of the line can be improved.

本発明の第14の態様は、本発明の第1の態様から第13の態様の何れか1つにおいて、前記第1及び第2の画素群の各々を、単一色の画素群とし、前記第2の表示用画像生成部が、前記第1及び第2の画素群から出力された前記第1の画像及び前記第2の画像に基づいて、前記第2の表示用画像として無彩色の画像を生成するものとしてもよい。これにより、本構成を有しない場合に比べ、簡素な構成で、無彩色の第2の表示用画像を得ることができる。 According to a fourteenth aspect of the present invention, in any one of the first to thirteenth aspects of the present invention, each of the first and second pixel groups is a single color pixel group, and the first display image generating section 2 is, on the basis of the first and second said output from the pixel group of the first image and the second image, the achromatic image as the second display image It may be generated. Thereby, it is possible to obtain an achromatic second display image with a simple configuration as compared with the case where this configuration is not provided.

本発明の第15の態様は、本発明の第14の態様において、前記決定部が、前記第2の表示用画像が無彩色画像の場合、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する有彩色を前記第2の表示用画像の表示色として決定するものとしてもよい。これにより、本構成を有しない場合に比べ、簡素な構成で、第2の表示用画像の表示色としての有彩色を決定することができる。   According to a fifteenth aspect of the present invention, in the fourteenth aspect of the present invention, in the case where the second display image is an achromatic image, the determination unit is based on the color information acquired by the acquisition unit. A chromatic color having a color characteristic different from the color characteristic of the first display image may be determined as the display color of the second display image. Thereby, it is possible to determine the chromatic color as the display color of the second display image with a simple configuration as compared with the case where this configuration is not provided.

本発明の第16の態様は、本発明の第1の態様から第15の態様の何れか1つにおいて、前記決定部が、前記第1の表示用画像及び第2の表示用画像が無彩色画像の場合、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する有彩色を前記第2の表示用画像の表示色として決定するものとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。   According to a sixteenth aspect of the present invention, in any one of the first to fifteenth aspects of the present invention, the determination unit is configured such that the first display image and the second display image are achromatic. In the case of an image, based on the color information acquired by the acquisition unit, a chromatic color having a color characteristic different from the color characteristic of the first display image is determined as the display color of the second display image. It may be a thing. Thereby, the visibility of the boundary line between the first display image and the second display image can be improved as compared with the case where this configuration is not provided.

本発明の第17の態様は、本発明の第1の態様から第16の態様の何れか1つにおいて、前記決定部が、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する有彩色であって前記第2の表示用画像における前記第1の画像に基づく領域と前記第2の画像に基づく領域とで異なる有彩色を前記第2の表示用画像の表示色として決定するものとしてもよい。これにより、本構成を有しない場合に比べ、第2の表示用画像において第1の画像に基づく画像と第2の画像に基づく画像とが視覚的に識別し易くなる。   According to a seventeenth aspect of the present invention, in any one of the first to sixteenth aspects of the present invention, the determining unit is configured to perform the first based on the color information acquired by the acquiring unit. A chromatic color having a color characteristic different from the color characteristic of the display image, wherein the chromatic color is different between the region based on the first image and the region based on the second image in the second display image. The display color of the second display image may be determined. This makes it easier to visually identify the image based on the first image and the image based on the second image in the second display image as compared with the case without this configuration.

本発明の第18の態様は、本発明の第1の態様から第17の態様の何れか1つにおいて、前記決定部が、前記第1の表示用画像の色特性と前記第2の表示用画像の色特性とを近付ける予め定められた条件を満足した場合、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性に予め定められた度合いで近付けた色特性を有する色を前記第2の表示用画像の表示色として更に決定するものとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像と第2の表示用画像との境界を視覚的に認識し難くすることができる。   According to an eighteenth aspect of the present invention, in any one of the first to seventeenth aspects of the present invention, the determination unit is configured to display the color characteristics of the first display image and the second display image. When a predetermined condition for approaching the color characteristic of the image is satisfied, a color that approaches the color characteristic of the first display image by a predetermined degree based on the color information acquired by the acquisition unit A color having characteristics may be further determined as the display color of the second display image. As a result, it is possible to make it difficult to visually recognize the boundary between the first display image and the second display image as compared with the case where the present configuration is not provided.

本発明の第19の態様は、本発明の第1の態様から第18の態様の何れか1つにおいて、前記撮像素子が、被写体像が瞳分割されずに結像されて第3の画像を出力する第3の画素群を有し、前記第1の表示用画像生成部が、前記第3の画素群から出力される前記第3の画像に基づいて前記第1の表示用画像を生成するのとしてもよい。これにより、本構成を有しない場合に比べ、第1の表示用画像の画質を向上させることができる。 Nineteenth aspect of the present invention, in any one of the eighteenth aspect of the first aspect of the present invention, the image pickup element, the third image are imaged object image without being pupil split The first display image generation unit generates the first display image based on the third image output from the third pixel group. It is also good. Thereby, compared with the case where it does not have this structure, the image quality of the 1st image for a display can be improved.

本発明の第20の態様に係る撮像装置は、本発明の第1の態様から第19の態様の何れか1つの画像処理装置と、前記撮像素子から出力された画像を記憶する記憶部と、を含む。これにより、本構成を有しない場合に比べ、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。   An image pickup apparatus according to a twentieth aspect of the present invention includes an image processing apparatus according to any one of the first to nineteenth aspects of the present invention, a storage unit that stores an image output from the image sensor, including. Thereby, the visibility of the boundary line between the first display image and the second display image can be improved as compared with the case where this configuration is not provided.

本発明の第21の態様に係る画像処理方法は、撮影レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を含む撮像素子から出力された画像に基づいて第1の表示用画像を生成する第1の表示用画像生成工程と、前記第1及び第2の画素群から出力された第1の画像及び第2の画像に基づいて第2の表示用画像を生成する第2の表示用画像生成工程と、前記第1の表示用画像生成工程により生成された前記第1の表示用画像の色情報を取得する取得工程と、前記取得工程により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する色を前記第2の表示用画像の表示色として決定する決定工程と、画像を表示する表示部に対して、前記第1の表示用画像生成工程により生成された前記第1の表示用画像を表示させ、かつ、該第1の表示用画像の表示領域内に前記第2の表示用画像生成工程により生成された前記第2の表示用画像を表示させる表示制御工程と、を含む。これにより、本構成を有しない場合に比べ、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。 An image processing method according to a twenty-first aspect of the present invention is an image processing method including first and second pixel groups in which a subject image that has passed through first and second regions in a photographic lens is divided into pupils and formed. the first display image generating step, the first image and the second image output from the first and second pixel group for generating a first display image based on the image output from the device the second display image generating step of, said first acquisition step of acquiring color information of the generated by the display image generation process first display image to generate a second display image based on the And a determination step of determining a color having a color characteristic different from the color characteristic of the first display image based on the color information acquired by the acquisition step as a display color of the second display image. , For the first display with respect to the display unit for displaying an image The first display image generated by the image generation step is displayed, and the second display generated by the second display image generation step is displayed in the display area of the first display image. And a display control step for displaying an image for use. Thereby, the visibility of the boundary line between the first display image and the second display image can be improved as compared with the case where this configuration is not provided.

上記目的を達成するために、本発明の第22の態様に係るプログラムは、本発明の第1の態様から第19の態様の何れか1つの画像処理装置における前記第1の表示用画像生成部、前記第2の表示用画像生成部、前記取得部、前記決定部及び前記表示制御部としてコンピュータを機能させるためのものである。これにより、本構成を有しない場合に比べ、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる。   In order to achieve the above object, a program according to a twenty-second aspect of the present invention provides the first display image generating unit in the image processing apparatus according to any one of the first to nineteenth aspects of the present invention. The computer functions as the second display image generation unit, the acquisition unit, the determination unit, and the display control unit. Thereby, the visibility of the boundary line between the first display image and the second display image can be improved as compared with the case where this configuration is not provided.

本発明によれば、第1の表示用画像と第2の表示用画像との境界線の視認性を向上させることができる、という効果が得られる。   According to the present invention, it is possible to improve the visibility of the boundary line between the first display image and the second display image.

第1実施形態に係るレンズ交換式カメラである撮像装置の外観の一例を示す斜視図である。It is a perspective view which shows an example of the external appearance of the imaging device which is a lens interchangeable camera which concerns on 1st Embodiment. 図1に示す撮像装置の背面側を示す背面図である。It is a rear view which shows the back side of the imaging device shown in FIG. 第1実施形態に係る撮像装置の電気系の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the electric system of the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置に含まれる撮像素子に設けられているカラーフィルタの配置の一例を示す概略配置図である。FIG. 2 is a schematic layout diagram illustrating an example of a layout of color filters provided in an image sensor included in the imaging device according to the first embodiment. 図4に示すカラーフィルタに含まれる2×2画素のG画素の画素値から相関方向を判別する方法の説明に供する図である。基本配列パターンの概念を説明するための図である。FIG. 5 is a diagram for explaining a method of determining a correlation direction from pixel values of 2 × 2 G pixels included in the color filter illustrated in FIG. 4. It is a figure for demonstrating the concept of a basic sequence pattern. 図4に示すカラーフィルタに含まれる基本配列パターンの概念を説明するための図である。It is a figure for demonstrating the concept of the basic sequence pattern contained in the color filter shown in FIG. 第1実施形態に係る撮像装置に含まれる撮像素子に設けられている遮光部材の配置の一例を示す概略配置図である。FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of light shielding members provided in an imaging element included in the imaging apparatus according to the first embodiment. 第1実施形態に係る撮像装置の撮像素子に含まれる位相差画素(第1の画素及び第2の画素)の構成の一例を示す概略構成図である。It is a schematic block diagram which shows an example of a structure of the phase difference pixel (1st pixel and 2nd pixel) contained in the image pick-up element of the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置の要部機能の一例を示すブロック図である。It is a block diagram which shows an example of the principal part function of the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置の表示装置における通常画像及びスプリットイメージの各々の表示領域の一例を示す模式図である。It is a schematic diagram which shows an example of each display area of the normal image and split image in the display apparatus of the imaging device which concerns on 1st Embodiment. 第1実施形態に対する比較例として表示装置に表示されたライブビュー画像における通常画像及びスプリットイメージの一例を示す画面態様図である。It is a screen mode figure which shows an example of the normal image and split image in the live view image displayed on the display apparatus as a comparative example with respect to 1st Embodiment. 第1実施形態に係る撮像装置で用いられる第1入出力関数の一例を示すグラフである。It is a graph which shows an example of the 1st input / output function used with the imaging device concerning a 1st embodiment. 第1実施形態に係る撮像装置で用いられる第2入出力関数の一例を示すグラフである。It is a graph which shows an example of the 2nd input / output function used with the imaging device concerning a 1st embodiment. 第1実施形態に係る撮像装置に含まれる画像処理部で行われる画像出力処理の流れの一例を示すフローチャートである。4 is a flowchart illustrating an example of a flow of image output processing performed by an image processing unit included in the imaging apparatus according to the first embodiment. 第1実施形態に係る撮像装置に含まれる画像処理部で行われるWB処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of WB processing performed by the image process part contained in the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置に含まれる画像処理部で行われる有彩色付与処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the chromatic color provision process performed by the image process part contained in the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置に含まれる画像処理部で行われる表示色差別化処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the display color differentiation process performed by the image process part contained in the imaging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置に含まれる画像処理部で行われる表示色同化処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the display color assimilation process performed by the image process part contained in the imaging device which concerns on 1st Embodiment. 第1実施形態に撮像装置の表示装置に表示されたライブビュー画像であって表示色差別化処理が実行された場合の通常画像及びスプリットイメージの一例を示す画面態様図である。It is a screen mode figure which shows an example of the normal image and split image which are the live view images displayed on the display apparatus of the imaging device in 1st Embodiment, and a display color differentiation process is performed. 第1実施形態に撮像装置の表示装置に表示されたライブビュー画像であって表示色差別化処理が実行された場合の通常画像及び色分けされたスプリットイメージの一例を示す画面態様図である。FIG. 3 is a screen mode diagram illustrating an example of a normal image and a color-divided split image when a display color differentiation process is performed on a live view image displayed on the display device of the imaging device according to the first embodiment. 第1実施形態に撮像装置の表示装置に表示されたライブビュー画像であって各々無彩色の通常画像及びスプリットイメージの一例を示す画面態様図である。It is a screen mode figure which shows an example of the achromatic normal image and split image which are the live view images displayed on the display apparatus of the imaging device according to the first embodiment. 第1実施形態に撮像装置の表示装置に表示されたライブビュー画像であって無彩色の通常画像及び有彩色のスプリットイメージの一例を示す画面態様図である。FIG. 3 is a screen view illustrating an example of an achromatic normal image and a chromatic split image that are live view images displayed on the display device of the imaging apparatus according to the first embodiment. 第1実施形態に撮像装置の表示装置に表示されたライブビュー画像であって色特性が近似している通常画像及びスプリットイメージの一例を示す画面態様図である。It is a screen mode figure which shows an example of the normal image and split image which are the live view images displayed on the display apparatus of the imaging device in 1st Embodiment, and the color characteristic is approximated. 第2実施形態に係るスマートフォンの外観の一例を示す斜視図である。It is a perspective view which shows an example of the external appearance of the smart phone which concerns on 2nd Embodiment. 第2実施形態に係るスマートフォンの電気系の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the principal part structure of the electrical system of the smart phone which concerns on 2nd Embodiment.

以下、添付図面に従って本発明に係る撮像装置の実施の形態の一例について説明する。   Hereinafter, an example of an embodiment of an imaging apparatus according to the present invention will be described with reference to the accompanying drawings.

[第1実施形態]
図1は、第1実施形態に係る撮像装置100の外観の一例を示す斜視図であり、図2は、図1に示す撮像装置100の背面図である。
[First Embodiment]
FIG. 1 is a perspective view illustrating an example of an appearance of the imaging apparatus 100 according to the first embodiment, and FIG. 2 is a rear view of the imaging apparatus 100 illustrated in FIG.

撮像装置100は、レンズ交換式カメラであり、カメラ本体200と、カメラ本体200に交換可能に装着される交換レンズ300(撮影レンズ、フォーカスレンズ302(手動操作部))と、を含み、レフレックスミラーが省略されたデジタルカメラである。また、カメラ本体200には、ハイブリッドファインダー(登録商標)220が設けられている。ここで言うハイブリッドファインダー220とは、例えば光学ビューファインダー(以下、「OVF」という)及び電子ビューファインダー(以下、「EVF」という)が選択的に使用されるファインダーを指す。   The imaging apparatus 100 is an interchangeable lens camera, and includes a camera body 200 and an interchangeable lens 300 (photographing lens, focus lens 302 (manual operation unit)) that is attached to the camera body 200 in an interchangeable manner. This is a digital camera with a mirror omitted. The camera body 200 is provided with a hybrid finder (registered trademark) 220. The hybrid viewfinder 220 here refers to a viewfinder in which, for example, an optical viewfinder (hereinafter referred to as “OVF”) and an electronic viewfinder (hereinafter referred to as “EVF”) are selectively used.

カメラ本体200と交換レンズ300とは、カメラ本体200に備えられたマウント256と、マウント256に対応する交換レンズ300側のマウント346(図3参照)とが結合されることにより交換可能に装着される。   The camera body 200 and the interchangeable lens 300 are interchangeably mounted by combining a mount 256 provided in the camera body 200 and a mount 346 (see FIG. 3) on the interchangeable lens 300 side corresponding to the mount 256. The

カメラ本体200の前面には、ハイブリッドファインダー220に含まれるOVFのファインダー窓241が設けられている。また、カメラ本体200の前面には、ファインダー切替えレバー(ファインダー切替え部)214が設けられている。ファインダー切替えレバー214を矢印SW方向に回動させると、OVFで視認可能な光学像とEVFで視認可能な電子像(ライブビュー画像)との間で切り換わるようになっている(後述)。なお、OVFの光軸L2は、交換レンズ300の光軸L1とは異なる光軸である。また、カメラ本体200の上面には、主としてレリーズボタン211及び撮影モードや再生モード等の設定用のダイヤル212が設けられている。   An OVF viewfinder window 241 included in the hybrid viewfinder 220 is provided on the front surface of the camera body 200. A finder switching lever (finder switching unit) 214 is provided on the front surface of the camera body 200. When the viewfinder switching lever 214 is rotated in the direction of the arrow SW, it switches between an optical image that can be viewed with OVF and an electronic image (live view image) that can be viewed with EVF (described later). The optical axis L2 of the OVF is an optical axis different from the optical axis L1 of the interchangeable lens 300. On the upper surface of the camera body 200, a release button 211 and a dial 212 for setting a shooting mode, a playback mode, and the like are mainly provided.

カメラ本体200の背面には、OVFのファインダー接眼部242、表示部213、十字キー222、MENU/OKキー224、BACK/DISPボタン225が設けられている。   An OVF viewfinder eyepiece 242, a display unit 213, a cross key 222, a MENU / OK key 224, and a BACK / DISP button 225 are provided on the rear surface of the camera body 200.

十字キー222は、メニューの選択、ズームやコマ送り等の各種の指令信号を出力するマルチファンクションのキーとして機能する。MENU/OKキー224は、表示部213の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。BACK/DISPボタン225は、選択項目など所望の対象の消去や指定内容の取消し、あるいは1つ前の操作状態に戻すときなどに使用される。   The cross key 222 functions as a multifunction key for outputting various command signals such as menu selection, zoom, frame advance, and the like. The MENU / OK key 224 has both a function as a menu button for instructing to display a menu on the screen of the display unit 213 and an function as an OK button for instructing confirmation and execution of selection contents. Key. The BACK / DISP button 225 is used for deleting a desired object such as a selection item, canceling a designated content, or returning to the previous operation state.

表示部213は、例えばLCDにより実現され、撮影モード時に連続フレームで撮像されて得られた連続フレーム画像の一例であるライブビュー画像(スルー画像)の表示に用いられる。また、表示部213は、静止画撮影の指示が与えられた場合に単一フレームで撮像されて得られた単一フレーム画像の一例である静止画像の表示にも用いられる。更に、表示部213は、再生モード時の再生画像の表示やメニュー画面等の表示にも用いられる。   The display unit 213 is realized by, for example, an LCD, and is used to display a live view image (through image) that is an example of a continuous frame image obtained by capturing images in a continuous frame in the shooting mode. The display unit 213 is also used to display a still image that is an example of a single frame image obtained by capturing a single frame when a still image shooting instruction is given. Furthermore, the display unit 213 is also used for displaying a playback image and a menu screen in the playback mode.

図3は第1実施形態に係る撮像装置100の電気系の構成(内部構成)の一例を示すブロック図である。   FIG. 3 is a block diagram illustrating an example of the configuration (internal configuration) of the electrical system of the imaging apparatus 100 according to the first embodiment.

撮像装置100は、撮影した静止画像や動画像を記録するデジタルカメラであり、カメラ全体の動作は、CPU(central processing unit:中央処理装置)12によって統括制御されている。撮像装置100は、CPU12の他に、操作部14、インタフェース部24、メモリ26、エンコーダ34、表示制御部36及び接眼検出部37を含む。また、撮像装置100は、本発明に係る第1の表示用画像生成部、第2の表示用画像生成部、取得部、決定部及び推定部の一例である画像処理部28を含む。CPU12、操作部14、インタフェース部24、記憶部の一例であるメモリ26、画像処理部28、エンコーダ34、表示制御部36、接眼検出部37及び外部インタフェース(I/F)39は、バス40を介して相互に接続されている。なお、メモリ26は、パラメータやプログラムなどが記憶された不揮発性の記憶領域(一例としてEEPROMなど)と画像などの各種情報が一時的に記憶される揮発性の記憶領域(一例としてSDRAMなど)とを有する。   The imaging device 100 is a digital camera that records captured still images and moving images, and the overall operation of the camera is controlled by a CPU (central processing unit) 12. In addition to the CPU 12, the imaging apparatus 100 includes an operation unit 14, an interface unit 24, a memory 26, an encoder 34, a display control unit 36, and an eyepiece detection unit 37. In addition, the imaging apparatus 100 includes an image processing unit 28 that is an example of a first display image generation unit, a second display image generation unit, an acquisition unit, a determination unit, and an estimation unit according to the present invention. The CPU 12, the operation unit 14, the interface unit 24, the memory 26 as an example of a storage unit, the image processing unit 28, the encoder 34, the display control unit 36, the eyepiece detection unit 37, and the external interface (I / F) 39 are connected to the bus 40. Are connected to each other. The memory 26 includes a non-volatile storage area (such as an EEPROM) that stores parameters, programs, and the like, and a volatile storage area (such as an SDRAM) that temporarily stores various information such as images. Have

操作部14は、レリーズボタン211、撮影モード等を選択するダイヤル(フォーカスモード切替え部)212、表示部213、ファインダー切替えレバー214、十字キー222、MENU/OKキー224及びBACK/DISPボタン225を含む。また、操作部14は、各種情報を受け付けるタッチパネルも含む。このタッチパネルは、例えば表示部213の表示画面に重ねられている。操作部14から出力された各種の操作信号はCPU12に入力される。   The operation unit 14 includes a release button 211, a dial (focus mode switching unit) 212 for selecting a shooting mode, a display unit 213, a viewfinder switching lever 214, a cross key 222, a MENU / OK key 224, and a BACK / DISP button 225. . The operation unit 14 also includes a touch panel that accepts various types of information. This touch panel is overlaid on the display screen of the display unit 213, for example. Various operation signals output from the operation unit 14 are input to the CPU 12.

撮影モードが設定されると、被写体を示す画像光は、手動操作により移動可能なフォーカスレンズを含む撮影レンズ16及びシャッタ18を介してカラーの撮像素子(一例としてCMOSセンサ)20の受光面に結像される。撮像素子20に蓄積された信号電荷は、デバイス制御部22から加えられる読出し信号によって信号電荷(電圧)に応じたデジタル信号として順次読み出される。撮像素子20は、いわゆる電子シャッタ機能を有しており、電子シャッタ機能を働かせることで、読出し信号のタイミングによって各フォトセンサの電荷蓄積時間(シャッタスピード)を制御する。なお、本第1実施形態に係る撮像素子20は、CMOS型のイメージセンサであるが、これに限らず、CCDイメージセンサでもよい。   When the photographing mode is set, the image light indicating the subject is coupled to the light receiving surface of the color image sensor (for example, a CMOS sensor) 20 via the photographing lens 16 including the focus lens that can be moved manually and the shutter 18. Imaged. The signal charge accumulated in the image sensor 20 is sequentially read out as a digital signal corresponding to the signal charge (voltage) by a read signal applied from the device control unit 22. The imaging element 20 has a so-called electronic shutter function, and controls the charge accumulation time (shutter speed) of each photosensor according to the timing of the readout signal by using the electronic shutter function. The image sensor 20 according to the first embodiment is a CMOS image sensor, but is not limited thereto, and may be a CCD image sensor.

図4には撮像素子20に設けられているカラーフィルタ21の配列の一例が模式的に示されている。なお、図4に示す例では、画素数の一例として(4896×3264)画素を採用し、アスペクト比として3:2を採用しているが、画素数及びアスペクト比はこれに限られるものではない。一例として図4に示すように、カラーフィルタ21は、輝度信号を得るために最も寄与するG(緑)に対応する第1のフィルタG、R(赤)に対応する第2のフィルタR及びB(青)に対応する第3のフィルタBを含む。第1のフィルタG(以下、Gフィルタと称する)、第2のフィルタR(以下、Rフィルタと称する)及び第3のフィルタB(以下、Bフィルタと称する)の配列パターンは、第1の配列パターンAと第2の配列パターンBとに分類される。   FIG. 4 schematically shows an example of the arrangement of the color filters 21 provided in the image sensor 20. In the example shown in FIG. 4, (4896 × 3264) pixels are adopted as an example of the number of pixels and 3: 2 is adopted as the aspect ratio. However, the number of pixels and the aspect ratio are not limited thereto. . As an example, as illustrated in FIG. 4, the color filter 21 includes a first filter G corresponding to G (green) that contributes most to obtain a luminance signal, and second filters R and B corresponding to R (red). A third filter B corresponding to (blue) is included. The arrangement pattern of the first filter G (hereinafter referred to as G filter), the second filter R (hereinafter referred to as R filter), and the third filter B (hereinafter referred to as B filter) is the first arrangement. It is classified into a pattern A and a second array pattern B.

第1の配列パターンAにおいて、Gフィルタは、3×3画素の正方配列の四隅及び中央の画素上に配置されている。第1の配列パターンAにおいて、Rフィルタは、正方配列の水平方向における中央の垂直ライン上に配置されている。第1の配列パターンAにおいて、Bフィルタは、正方配列の垂直方向における中央の水平ライン上に配置されている。第2の配列パターンBは、第1の基本配列パターンAとフィルタGの配置が同一で且つフィルタRの配置とフィルタBの配置とを入れ替えたパターンである。カラーフィルタ21は、6×6画素に対応する正方配列パターンからなる基本配列パターンCを含む。基本配列パターンCは、第1の配列パターンAと第2の配列パターンBとが点対称で配置された6×6画素のパターンであり、基本配列パターンCが水平方向及び垂直方向に繰り返し配置されている。すなわち、カラーフィルタ21では、R,G,Bの各色のフィルタ(Rフィルタ、Gフィルタ及びBフィルタ)が所定の周期性をもって配列されている。そのため、カラー撮像素子から読み出されるR,G,B信号の同時化(補間)処理等を行う際に、繰り返しパターンにしたがって処理を行うことができる。   In the first arrangement pattern A, the G filters are arranged on the four corners and the center pixel of the 3 × 3 pixel square arrangement. In the first arrangement pattern A, the R filter is arranged on the central vertical line in the horizontal direction of the square arrangement. In the first arrangement pattern A, the B filter is arranged on the central horizontal line in the vertical direction of the square arrangement. The second arrangement pattern B is a pattern in which the arrangement of the filter G is the same as that of the first basic arrangement pattern A and the arrangement of the filter R and the arrangement of the filter B are interchanged. The color filter 21 includes a basic array pattern C composed of a square array pattern corresponding to 6 × 6 pixels. The basic array pattern C is a 6 × 6 pixel pattern in which the first array pattern A and the second array pattern B are arranged point-symmetrically, and the basic array pattern C is repeatedly arranged in the horizontal direction and the vertical direction. ing. In other words, in the color filter 21, filters of R, G, and B colors (R filter, G filter, and B filter) are arranged with a predetermined periodicity. Therefore, when performing synchronization (interpolation) processing of R, G, and B signals read from the color image sensor, processing can be performed according to a repetitive pattern.

また、基本配列パターンCの単位で間引き処理して画像を縮小する場合、間引き処理した縮小画像のカラーフィルタ配列は、間引き処理前のカラーフィルタ配列と同じにすることができ、共通の処理回路を使用することができる。   When the image is reduced by thinning out in units of the basic arrangement pattern C, the color filter array of the reduced image after the thinning process can be the same as the color filter array before the thinning process, and a common processing circuit is provided. Can be used.

カラーフィルタ21は、輝度信号を得るために最も寄与する色(本第1実施形態では、Gの色)に対応するGフィルタが、カラーフィルタ配列の水平、垂直、及び斜め方向の各ライン内に配置されている。そのため、高周波となる方向によらず高周波領域での同時化処理の再現精度を向上させることができる。   The color filter 21 has a G filter corresponding to the color that contributes most to obtain a luminance signal (G color in the first embodiment) in each horizontal, vertical, and diagonal line of the color filter array. Has been placed. Therefore, it is possible to improve the reproduction accuracy of the synchronization process in the high frequency region regardless of the direction of high frequency.

カラーフィルタ21は、上記Gの色以外の2色以上の他の色(本第1実施形態では、R,Bの色)に対応するRフィルタ及びBフィルタが、カラーフィルタ配列の水平方向及び垂直方向の各ライン内に配置されている。そのため、色モワレ(偽色)の発生が抑制され、これにより、偽色の発生を抑制するための光学ローパスフィルタを光学系の入射面から撮像面までの光路に配置しないようにすることができる。また、光学ローパスフィルタを適用する場合でも、偽色の発生を防止するための高周波数成分をカットする働きの弱いものを適用することができ、解像度を損なわないようにすることができる。   The color filter 21 includes an R filter and a B filter corresponding to two or more other colors (R and B colors in the first embodiment) other than the G color. Located within each line of direction. For this reason, the occurrence of color moire (false color) is suppressed, whereby an optical low-pass filter for suppressing the occurrence of false color can be prevented from being arranged in the optical path from the incident surface of the optical system to the imaging surface. . Even when an optical low-pass filter is applied, it is possible to apply a filter having a weak function of cutting a high-frequency component for preventing the occurrence of false colors, so that the resolution is not impaired.

基本配列パターンCは、破線の枠で囲んだ3×3画素の第1の配列パターンAと、一点鎖線の枠で囲んだ3×3画素の第2の配列パターンBとが、水平、垂直方向に交互に並べられた配列となっていると捉えることもできる。   The basic array pattern C includes a 3 × 3 pixel first array pattern A surrounded by a broken line frame and a 3 × 3 pixel second array pattern B surrounded by a one-dot chain line. It can also be understood that the array is arranged alternately.

第1の配列パターンA及び第2の配列パターンBは、それぞれ輝度系画素であるGフィルタが4隅と中央に配置され、両対角線上に配置されている。また、第1の配列パターンAは、中央のGフィルタを挟んでBフィルタが水平方向に配列され、Rフィルタが垂直方向に配列される。一方、第2の配列パターンBは、中央のGフィルタを挟んでRフィルタが水平方向に配列され、Bフィルタが垂直方向に配列されている。すなわち、第1の配列パターンAと第2の配列パターンBとは、RフィルタとBフィルタとの位置関係が逆転しているが、その他の配置は同様になっている。   In the first array pattern A and the second array pattern B, G filters, which are luminance system pixels, are arranged at the four corners and the center, and are arranged on both diagonal lines. In the first arrangement pattern A, the B filter is arranged in the horizontal direction and the R filter is arranged in the vertical direction with the central G filter interposed therebetween. On the other hand, in the second arrangement pattern B, the R filters are arranged in the horizontal direction and the B filters are arranged in the vertical direction across the center G filter. That is, in the first arrangement pattern A and the second arrangement pattern B, the positional relationship between the R filter and the B filter is reversed, but the other arrangements are the same.

また、第1の配列パターンAと第2の配列パターンBの4隅のGフィルタは、一例として図5に示すように第1の配列パターンAと第2の配列パターンBとが水平、垂直方向に交互に配置されることにより、2×2画素に対応する正方配列のGフィルタが形成される。一例として図5に示すように取り出されたGフィルタからなる2×2画素については、水平方向のG画素の画素値の差分絶対値、垂直方向のG画素の画素値の差分絶対値、斜め方向(右上斜め、左上斜め)のG画素の画素値の差分絶対値が算出される。これにより、水平方向、垂直方向、及び斜め方向のうち、差分絶対値の小さい方向に相関があると判断することができる。すなわち、水平方向、垂直方向、及び斜め方向のうちの相関の高い方向が最小画素間隔のG画素の情報を使用して判別される。この判別結果は、周囲の画素から補間する処理(同時化処理)に使用することができる。   The G filters at the four corners of the first array pattern A and the second array pattern B are shown in FIG. 5 as an example, in which the first array pattern A and the second array pattern B are horizontal and vertical. Are alternately arranged, a square array of G filters corresponding to 2 × 2 pixels is formed. As an example, with respect to 2 × 2 pixels composed of G filters extracted as shown in FIG. 5, the difference absolute value of the pixel value of the G pixel in the horizontal direction, the difference absolute value of the pixel value of the G pixel in the vertical direction, and the diagonal direction The difference absolute value of the pixel values of the G pixels (upper right diagonal, upper left diagonal) is calculated. Thereby, it can be determined that there is a correlation in a direction having a small difference absolute value among the horizontal direction, the vertical direction, and the diagonal direction. That is, the direction with the highest correlation among the horizontal direction, the vertical direction, and the diagonal direction is determined using the information of the G pixels having the minimum pixel interval. This discrimination result can be used for the process of interpolating from surrounding pixels (synchronization process).

カラーフィルタ21の基本配列パターンCは、その基本配列パターンCの中心(4つのGフィルタの中心)に対して点対称に配置されている。また、基本配列パターンC内の第1の配列パターンA及び第2の配列パターンBも、それぞれ中心のGフィルタに対して点対称に配置されている従って、後段の処理回路の回路規模を小さくしたり、簡略化することが可能になる。   The basic array pattern C of the color filter 21 is arranged point-symmetrically with respect to the center of the basic array pattern C (the centers of the four G filters). In addition, the first array pattern A and the second array pattern B in the basic array pattern C are also arranged point-symmetrically with respect to the central G filter, so that the circuit scale of the subsequent processing circuit is reduced. Or can be simplified.

一例として図6に示すように基本配列パターンCにおいて、水平方向の第1から第6のラインのうちの第1及び第3のラインのカラーフィルタ配列は、GRGGBGである。第2のラインのカラーフィルタ配列は、BGBRGRである。第4及び第6のラインのカラーフィルタ配列は、GBGGRGである。第5のラインのカラーフィルタ配列は、RGRBGBである。図6に示す例では、基本配列パターンC,C’,C”が示されている。基本配列パターンC’は基本配列パターンCを水平方向及び垂直方向にそれぞれ1画素ずつシフトしたパターンを示し、基本配列パターンC”は、基本配列パターンCを水平方向及び垂直方向にそれぞれ2画素ずつシフトしたパターンを示す。このように、カラーフィルタ21は、基本配列パターンC’、C”を水平方向及び垂直方向に繰り返し配置しても、同じカラーフィルタ配列となる。なお、本第1実施形態では、基本配列パターンCを、便宜上、基本配列パターンという。   As an example, in the basic array pattern C as shown in FIG. 6, the color filter array of the first and third lines of the first to sixth lines in the horizontal direction is GRGGBG. The color filter array of the second line is BGBGR. The color filter array of the fourth and sixth lines is GBGGRG. The color filter array of the fifth line is RGRBGB. In the example shown in FIG. 6, basic array patterns C, C ′, and C ″ are shown. The basic array pattern C ′ indicates a pattern obtained by shifting the basic array pattern C by one pixel in the horizontal direction and the vertical direction, The basic array pattern C ″ indicates a pattern obtained by shifting the basic array pattern C by two pixels each in the horizontal direction and the vertical direction. As described above, the color filter 21 has the same color filter array even when the basic array patterns C ′ and C ″ are repeatedly arranged in the horizontal direction and the vertical direction. In the first embodiment, the basic array pattern C Is referred to as a basic array pattern for convenience.

撮像装置100は、位相差AF機能を有する。撮像素子20は、位相差AF機能を働かせた場合に用いられる複数の位相差検出用の画素を含む。複数の位相差検出用の画素は予め定めたパターンで配置されている。位相差検出用の画素上には、一例として図7に示すように、水平方向の左半分の画素を遮光する遮光部材20A及び水平方向の右半分の画素を遮光する遮光部材20Bが設けられている。なお、本第1実施形態では、説明の便宜上、遮光部材20Aが設けられている位相差検出用の画素を「第1の画素」と称し、遮光部材20Bが設けられている位相差画素を「第2の画素」と称する。また、第1の画素及び第2の画素を区別して説明する必要がない場合は「位相差画素」と称する。   The imaging apparatus 100 has a phase difference AF function. The image sensor 20 includes a plurality of phase difference detection pixels used when the phase difference AF function is activated. The plurality of phase difference detection pixels are arranged in a predetermined pattern. As shown in FIG. 7 as an example, a light shielding member 20A for shielding the left half pixel in the horizontal direction and a light shielding member 20B for shielding the right half pixel in the horizontal direction are provided on the phase difference detection pixels. Yes. In the first embodiment, for convenience of explanation, the phase difference detection pixel provided with the light shielding member 20A is referred to as a “first pixel”, and the phase difference pixel provided with the light shielding member 20B is represented by “ This is referred to as a “second pixel”. Further, when there is no need to distinguish between the first pixel and the second pixel, they are referred to as “phase difference pixels”.

図8には撮像素子20に配置されている第1の画素及び第2の画素の一例が示されている。図8に示す第1の画素は遮光部材20Aを有し、第2の画素は遮光部材20Bを有する。遮光部材20Aは、フォトダイオードPDの前面側(マイクロレンズL側)に設けられており、受光面の左半分を遮光する。一方、遮光部材20Bは、フォトダイオードPDの前面側に設けられており、受光面の右半分を遮光する。   FIG. 8 shows an example of the first pixel and the second pixel arranged in the image sensor 20. The first pixel shown in FIG. 8 has a light shielding member 20A, and the second pixel has a light shielding member 20B. The light shielding member 20A is provided on the front side (microlens L side) of the photodiode PD, and shields the left half of the light receiving surface. On the other hand, the light shielding member 20B is provided on the front side of the photodiode PD and shields the right half of the light receiving surface.

マイクロレンズL及び遮光部材20A,20Bは瞳分割部として機能し、第1の画素は、撮影レンズ16の射出瞳を通過する光束の光軸の左側のみを受光し、第2の画素は、撮影レンズ16の射出瞳を通過する光束の光軸の右側のみを受光する。このように、射出瞳を通過する光束は、瞳分割部であるマイクロレンズL及び遮光部材20A,20Bにより左右に分割され、それぞれ第1の画素および第2の画素に入射する。   The microlens L and the light shielding members 20A and 20B function as a pupil dividing unit, the first pixel receives only the left side of the optical axis of the light beam passing through the exit pupil of the photographing lens 16, and the second pixel is photographed. Only the right side of the optical axis of the light beam passing through the exit pupil of the lens 16 is received. In this way, the light beam passing through the exit pupil is divided into left and right by the microlens L and the light shielding members 20A and 20B, which are pupil dividing portions, and enter the first pixel and the second pixel, respectively.

また、撮影レンズ16の射出瞳を通過する光束のうちの左半分の光束に対応する被写体像と、右半分の光束に対応する被写体像のうち、ピントが合っている(合焦状態である)部分は、撮像素子20上の同じ位置に結像する。これに対し、前ピン又は後ピンの部分は、それぞれ撮像素子20上の異なる位置に入射する(位相がずれる)。これにより、左半分の光束に対応する被写体像と右半分の光束に対応する被写体像とは、視差が異なる視差画像(左目画像、右目画像)として取得することができる。   In addition, the subject image corresponding to the left half of the light beam passing through the exit pupil of the photographing lens 16 and the subject image corresponding to the right half of the light beam are in focus (in focus). The portion forms an image at the same position on the image sensor 20. On the other hand, the front pin portion or the rear pin portion is incident on different positions on the image sensor 20 (the phase is shifted). Thereby, the subject image corresponding to the left half light beam and the subject image corresponding to the right half light beam can be acquired as parallax images (left eye image and right eye image) having different parallaxes.

撮像装置100は、位相差AF機能を働かせることにより、第1の画素の画素値と第2の画素の画素値とに基づいて位相のずれ量を検出する。そして、検出した位相のずれ量に基づいて撮影レンズの焦点位置を調整する。なお、以下では、遮光部材20A,20Bを区別して説明する必要がない場合は符号を付さずに「遮光部材」と称する。   The imaging apparatus 100 detects a phase shift amount based on the pixel value of the first pixel and the pixel value of the second pixel by using the phase difference AF function. Then, the focal position of the photographing lens is adjusted based on the detected phase shift amount. Hereinafter, when it is not necessary to distinguish between the light shielding members 20A and 20B, the light shielding members 20A and 20B are referred to as “light shielding members” without reference numerals.

本第1実施形態では、遮光部材が、一例として図7に示すように、基本配列パターンCに含まれる2組の第1の配列パターンA及び第2の配列パターンBの左上角部のGフィルタの画素に対して設けられている。すなわち、図7に示す例では、0以上の整数を“n”とすると、垂直方向において(6n+1)番目のラインに遮光部材20Aが配置され、(6n+4)番目のラインに遮光部材20Bが配置されている。なお、図7に示す例では、全ての基本配列パターンCに遮光部材が設けられているが、これに限らず、撮像素子20の一部の所定の領域内の基本配列パターンCにのみ設けるようにしてもよい。   In the first embodiment, as shown in FIG. 7 as an example, the light shielding member is a G filter at the upper left corner of two sets of the first array pattern A and the second array pattern B included in the basic array pattern C. For the other pixels. That is, in the example shown in FIG. 7, when an integer greater than or equal to 0 is “n”, the light shielding member 20A is arranged on the (6n + 1) th line in the vertical direction, and the light shielding member 20B is arranged on the (6n + 4) th line. ing. In the example shown in FIG. 7, the light shielding members are provided for all the basic array patterns C. However, the present invention is not limited to this, and only the basic array patterns C in a predetermined region of the image sensor 20 are provided. It may be.

このように、カラーフィルタ21では、全ての第1の配列パターンA及び第2の配列パターンBの左上角部のGフィルタの画素に対して遮光部材が設けられており、垂直方向及び水平方向ともに3画素に1画素ずつ位相差画素が規則的に配置されている。このため、位相差画素の周囲に通常画素が比較的多く配置されるので、通常画素の画素値から位相差画素の画素値を補間する場合における補間精度を向上させることができる。なお、上記の「通常画素」とは、例えば位相差画素以外の画素(例えば遮光部材20A,20Bを有しない画素)を指す。   As described above, in the color filter 21, the light shielding member is provided for the pixels of the G filter at the upper left corner of all the first array pattern A and the second array pattern B, and both the vertical direction and the horizontal direction are provided. One phase difference pixel is regularly arranged for every three pixels. For this reason, since a relatively large number of normal pixels are arranged around the phase difference pixels, the interpolation accuracy in the case of interpolating the pixel values of the phase difference pixels from the pixel values of the normal pixels can be improved. The “normal pixel” refers to a pixel other than the phase difference pixel (for example, a pixel that does not have the light shielding members 20A and 20B).

撮像素子20は、第1の画素群、第2の画素群及び第3の画素群に分類される。第1の画素群とは、例えば複数の第1の画素を指す。第2の画素群とは、例えば複数の第2の画素を指す。第3の画素群とは、例えば複数の通常画素を指す。なお、以下では、第1の画素群から出力されるRAW画像を「第1の画像」と称し、第2の画素群から出力されるRAW画像を「第2の画像」と称し、第3の画素群から出力されるRAW画像を「第3の画像」と称する。   The image sensor 20 is classified into a first pixel group, a second pixel group, and a third pixel group. The first pixel group refers to a plurality of first pixels, for example. The second pixel group refers to, for example, a plurality of second pixels. The third pixel group refers to a plurality of normal pixels, for example. In the following, the RAW image output from the first pixel group is referred to as a “first image”, the RAW image output from the second pixel group is referred to as a “second image”, and the third image The RAW image output from the pixel group is referred to as a “third image”.

図3に戻って、撮像素子20は、第1の画素群から第1の画像(各第1の画素の画素値を示すデジタル信号)を出力し、第2の画素群から第2の画像(各第2の画素の画素値を示すデジタル信号)を出力する。また、撮像素子20は、第3の画素群から第3の画像(各通常画素の画素値を示すデジタル信号)を出力する。なお、第3の画素群から出力される第3の画像は有彩色の画像であり、例えば通常画素の配列と同じカラー配列のカラー画像である。撮像素子20から出力された第1の画像、第2の画像及び第3の画像は、インタフェース部24を介してメモリ26における揮発性の記憶領域に一時記憶される。   Returning to FIG. 3, the imaging device 20 outputs a first image (digital signal indicating the pixel value of each first pixel) from the first pixel group, and outputs a second image (from the second pixel group). A digital signal indicating the pixel value of each second pixel). Further, the image sensor 20 outputs a third image (a digital signal indicating the pixel value of each normal pixel) from the third pixel group. Note that the third image output from the third pixel group is a chromatic image, for example, a color image having the same color array as the normal pixel array. The first image, the second image, and the third image output from the image sensor 20 are temporarily stored in a volatile storage area in the memory 26 via the interface unit 24.

画像処理部28は、通常処理部30を有する。通常処理部30は、第3の画素群に対応するR,G,B信号を処理することで有彩色の通常画像(第1の表示用画像の一例)を生成する。また、画像処理部28は、スプリットイメージ処理部32を有する。スプリットイメージ処理部32は、第1の画素群及び第2の画素群に対応するG信号を処理することで無彩色のスプリットイメージを生成する。なお、本第1実施形態に係る画像処理部28は、画像処理に係る複数の機能の回路を1つにまとめた集積回路であるASIC(Application Specific Integrated Circuit)により実現される。しかし、ハードウェア構成はこれに限定されるものではなく、例えばプログラマブルロジックデバイスやCPU、ROM及びRAMを含むコンピュータなどの他のハードウェア構成であっても良い。   The image processing unit 28 includes a normal processing unit 30. The normal processing unit 30 generates a chromatic color normal image (an example of a first display image) by processing the R, G, and B signals corresponding to the third pixel group. Further, the image processing unit 28 includes a split image processing unit 32. The split image processing unit 32 generates an achromatic split image by processing G signals corresponding to the first pixel group and the second pixel group. Note that the image processing unit 28 according to the first embodiment is realized by an application specific integrated circuit (ASIC) that is an integrated circuit in which a plurality of functions related to image processing are integrated into one. However, the hardware configuration is not limited to this, and may be another hardware configuration such as a programmable logic device, a computer including a CPU, a ROM, and a RAM.

エンコーダ34は、入力された信号を別の形式の信号に変換して出力する。ハイブリッドファインダー220は、電子像を表示するLCD247を有する。LCD247における所定方向の画素数(一例として視差発生方向である水平方向の画素数)は、表示部213における同方向の画素数よりも少ない。表示制御部36は、表示部213及びLCD247に接続されており、LCD247及び表示部213を選択的に制御することによりLCD247又は表示部213に対して画像を表示させる。なお、以下では、表示部213及びLCD247を区別して説明する必要がない場合は「表示装置」と称する。   The encoder 34 converts the input signal into a signal of another format and outputs it. The hybrid viewfinder 220 has an LCD 247 that displays an electronic image. The number of pixels in a predetermined direction on the LCD 247 (for example, the number of pixels in the horizontal direction, which is a parallax generation direction) is smaller than the number of pixels in the same direction on the display unit 213. The display control unit 36 is connected to the display unit 213 and the LCD 247, and selectively displays the image on the LCD 247 or the display unit 213 by selectively controlling the LCD 247 and the display unit 213. Hereinafter, the display unit 213 and the LCD 247 are referred to as “display devices” when it is not necessary to distinguish between them.

なお、本第1実施形態に係る撮像装置100は、ダイヤル212(フォーカスモード切替え部)によりマニュアルフォーカスモードとオートフォーカスモードとを切り替え可能に構成されている。マニュアルフォーカスモードが選択されると、表示制御部36は、スプリットイメージが合成されたライブビュー画像を表示装置に表示させる。一方、ダイヤル212によりオートフォーカスモードが選択されると、CPU12は、位相差検出部及び自動焦点調整部として動作する。位相差検出部は、第1の画素群から出力された第1の画像と第2の画素群から出力された第2の画像との位相差を検出する。自動焦点調整部は、検出された位相差に基づいて撮影レンズ16のデフォーカス量をゼロにするように、デバイス制御部22からマウント256,346を介してレンズ駆動部(図示省略)を制御し、撮影レンズ16を合焦位置に移動させる。なお、上記の「デフォーカス量」とは、例えば第1の画像及び第2の画像の位相ずれ量を指す。   Note that the imaging apparatus 100 according to the first embodiment is configured to be able to switch between a manual focus mode and an autofocus mode with a dial 212 (focus mode switching unit). When the manual focus mode is selected, the display control unit 36 causes the display device to display a live view image obtained by combining the split images. On the other hand, when the autofocus mode is selected by the dial 212, the CPU 12 operates as a phase difference detection unit and an automatic focus adjustment unit. The phase difference detection unit detects a phase difference between the first image output from the first pixel group and the second image output from the second pixel group. The automatic focus adjustment unit controls the lens driving unit (not shown) from the device control unit 22 via the mounts 256 and 346 so that the defocus amount of the photographing lens 16 is zero based on the detected phase difference. Then, the photographing lens 16 is moved to the in-focus position. Note that the above “defocus amount” refers to, for example, the amount of phase shift between the first image and the second image.

接眼検出部37は、人(例えば撮影者)がファインダー接眼部242を覗き込んだことを検出し、検出結果をCPU12に出力する。従って、CPU12は、接眼検出部37での検出結果に基づいてファインダー接眼部242が使用されているか否かを把握することができる。   The eyepiece detection unit 37 detects that a person (for example, a photographer) looks into the viewfinder eyepiece unit 242 and outputs the detection result to the CPU 12. Therefore, the CPU 12 can grasp whether or not the finder eyepiece unit 242 is used based on the detection result of the eyepiece detection unit 37.

外部I/F39は、LAN(Local Area Network)やインターネットなどの通信網に接続され、通信網を介して、外部装置(例えばプリンタ)とCPU12との間の各種情報の送受信を司る。従って、撮像装置100は、外部装置としてプリンタが接続されている場合、撮影した静止画像をプリンタに出力して印刷させることができる。また、撮像装置100は、外部装置としてディスプレイが接続されている場合は、撮影した静止画像やライブビュー画像をディスプレイに出力して表示させることができる。   The external I / F 39 is connected to a communication network such as a LAN (Local Area Network) or the Internet, and controls transmission / reception of various types of information between the external device (for example, a printer) and the CPU 12 via the communication network. Therefore, when a printer is connected as an external device, the imaging apparatus 100 can output a captured still image to the printer for printing. Further, when a display is connected as an external device, the imaging apparatus 100 can output and display a captured still image or live view image on the display.

図9は第1実施形態に係る撮像装置100の要部機能の一例を示す機能ブロック図である。なお、図3に示すブロック図と共通する部分には同一の符号が付されている。   FIG. 9 is a functional block diagram illustrating an example of main functions of the imaging apparatus 100 according to the first embodiment. In addition, the same code | symbol is attached | subjected to the part which is common in the block diagram shown in FIG.

通常処理部30及びスプリットイメージ処理部32は、それぞれWBゲイン部、ガンマ補正部及び同時化処理部を有し(図示省略)、メモリ26に一時記憶された元のデジタル信号(RAW画像)に対して各処理部で順次信号処理を行う。すなわち、WBゲイン部は、R,G,B信号のゲインを調整することによりホワイトバランス(WB)を実行する。ガンマ補正部は、WBゲイン部でWBが実行された各R,G,B信号をガンマ補正する。同時化処理部は、撮像素子20のカラーフィルタの配列(ここでは一例としてベイヤ配列)に対応した色補間処理を行い、同時化したR,G,B信号を生成する。なお、通常処理部30及びスプリットイメージ処理部32は、撮像素子20により1画面分のRAW画像が取得される毎に、そのRAW画像に対して並列に画像処理を行う。   The normal processing unit 30 and the split image processing unit 32 each have a WB gain unit, a gamma correction unit, and a synchronization processing unit (not shown), and with respect to the original digital signal (RAW image) temporarily stored in the memory 26. Each processing unit sequentially performs signal processing. That is, the WB gain unit executes white balance (WB) by adjusting the gains of the R, G, and B signals. The gamma correction unit performs gamma correction on each of the R, G, and B signals that have been subjected to WB by the WB gain unit. The synchronization processing unit performs color interpolation processing corresponding to the color filter array (here, Bayer array as an example) of the image sensor 20, and generates synchronized R, G, and B signals. The normal processing unit 30 and the split image processing unit 32 perform image processing on the RAW image in parallel every time a RAW image for one screen is acquired by the image sensor 20.

通常処理部30は、インタフェース部24からR,G,BのRAW画像が入力され、第3の画素群のR,G,B画素を、第1の画素群及び第2の画素群のうちの同色の周辺画素(例えばG画素)により補間して生成する。これにより、第3の画素群から出力された第3の画像に基づいて記録用の通常画像を生成することができる。   The normal processing unit 30 receives R, G, and B raw images from the interface unit 24, and converts the R, G, and B pixels of the third pixel group into the first pixel group and the second pixel group. It is generated by interpolating with surrounding pixels of the same color (for example, G pixel). Thereby, a normal image for recording can be generated based on the third image output from the third pixel group.

また、通常処理部30は、生成した記録用の通常画像の画像データをエンコーダ34に出力する。通常処理部30により処理されたR,G,B信号は、エンコーダ34により記録用の信号に変換(エンコーディング)され、記録部40(図7参照)に記録される。また、通常処理部30により処理された第3の画像に基づく画像である表示用の通常画像は、表示制御部36に出力される。なお、以下では、説明の便宜上、上記の「記録用の通常画像」及び「表示用の通常画像」を区別して説明する必要がない場合は「記録用の」との文言及び「表示用の」との文言を省略して「通常画像」と称する。   Further, the normal processing unit 30 outputs the generated image data of the normal image for recording to the encoder 34. The R, G, B signals processed by the normal processing unit 30 are converted (encoded) into recording signals by the encoder 34 and recorded in the recording unit 40 (see FIG. 7). In addition, a normal image for display that is an image based on the third image processed by the normal processing unit 30 is output to the display control unit 36. In the following description, for convenience of explanation, when it is not necessary to distinguish between the above-mentioned “normal image for recording” and “normal image for display”, the term “for recording” and “for display” are used. Is referred to as a “normal image”.

撮像素子20は、第1の画素群及び第2の画素群の各々の露出条件(一例として電子シャッタによるシャッタ速度)を変えることができ、これにより露出条件の異なる画像を同時に取得することができる。従って、画像処理部28は、露出条件の異なる画像に基づいて広ダイナミックレンジの画像を生成することができる。また、同じ露出条件で複数の画像を同時に取得することができ、これら画像を加算することによりノイズの少ない高感度の画像を生成し、あるいは高解像度の画像を生成することができる。   The image sensor 20 can change the exposure conditions (shutter speed by an electronic shutter as an example) of each of the first pixel group and the second pixel group, and thereby can simultaneously acquire images having different exposure conditions. . Therefore, the image processing unit 28 can generate an image with a wide dynamic range based on images with different exposure conditions. In addition, a plurality of images can be simultaneously acquired under the same exposure condition, and by adding these images, a high-sensitivity image with little noise can be generated, or a high-resolution image can be generated.

一方、スプリットイメージ処理部32は、メモリ26に一旦記憶されたRAW画像から第1の画素群及び第2の画素群のG信号を抽出し、第1の画素群及び第2の画素群のG信号に基づいて無彩色のスプリットイメージを生成する。RAW画像から抽出される第1の画素群及び第2の画素群の各々は、上述したようにGフィルタの画素による画素群である。そのため、スプリットイメージ処理部32は、第1の画素群及び第2の画素群のG信号に基づいて、無彩色の左の視差画像及び無彩色の右の視差画像を生成することができる。なお、以下では、説明の便宜上、上記の「無彩色の左の視差画像」を「左目画像」と称し、上記の「無彩色の右の視差画像」を「右目画像」と称する。   On the other hand, the split image processing unit 32 extracts the G signal of the first pixel group and the second pixel group from the RAW image once stored in the memory 26, and the G of the first pixel group and the second pixel group. An achromatic split image is generated based on the signal. Each of the first pixel group and the second pixel group extracted from the RAW image is a pixel group including G filter pixels as described above. Therefore, the split image processing unit 32 can generate an achromatic left parallax image and an achromatic right parallax image based on the G signals of the first pixel group and the second pixel group. In the following, for convenience of explanation, the above “achromatic left parallax image” is referred to as a “left eye image”, and the above “achromatic right parallax image” is referred to as a “right eye image”.

スプリットイメージ処理部32は、第1の画素群から出力された第1の画像に基づく左目画像と、第2の画素群から出力された第2の画像に基づく右目画像とを合成することによりスプリットイメージを生成する。生成したスプリットイメージの画像データは表示制御部36に出力される。   The split image processing unit 32 combines the left-eye image based on the first image output from the first pixel group and the right-eye image based on the second image output from the second pixel group to split the image. Generate an image. The generated split image data is output to the display controller 36.

表示制御部36は、通常処理部30から入力された第3の画素群に対応する記録用の画像データと、スプリットイメージ処理部32から入力された第1、第2の画素群に対応するスプリットイメージの画像データとに基づいて表示用の画像データを生成する。例えば、表示制御部36は、通常処理部30から入力された第3の画素群に対応する記録用の画像データにより示される通常画像の表示領域内に、スプリットイメージ処理部32から入力された画像データにより示されるスプリットイメージを合成する。そして、合成して得た画像データを表示部213に出力する。ここで、スプリットイメージ処理部32により生成されるスプリットイメージは、左目画像の一部と右目画像の一部とを合成した複数分割の画像である。ここで言う「複数分割の画像」としては、例えば図11に示すスプリットイメージが挙げられる。図11に示すスプリットイメージは、表示部213の所定領域の位置に対応する位置の左目画像の一部と右目画像の一部とを合成した画像であって、上下方向に4分割された画像間が合焦状態に応じて所定方向(例えば視差発生方向)にずれた画像である。なお、スプリットイメージの態様は図11に示す例に限定されるものではなく、左目画像のうちの上半分の画像と右目画像のうちの下半分の画像とを合成した画像であってもよい。この場合、2分割された上下画像間が合焦状態に応じて所定方向(例えば視差発生方向)にずれる。   The display control unit 36 records image data corresponding to the third pixel group input from the normal processing unit 30 and the split corresponding to the first and second pixel groups input from the split image processing unit 32. Display image data is generated based on the image data of the image. For example, the display control unit 36 displays the image input from the split image processing unit 32 in the display area of the normal image indicated by the recording image data corresponding to the third pixel group input from the normal processing unit 30. The split image indicated by the data is synthesized. Then, the image data obtained by the synthesis is output to the display unit 213. Here, the split image generated by the split image processing unit 32 is a multi-divided image obtained by combining a part of the left eye image and a part of the right eye image. As the “multiple divided image” mentioned here, for example, a split image shown in FIG. The split image shown in FIG. 11 is an image obtained by synthesizing a part of the left eye image and a part of the right eye image at a position corresponding to the position of the predetermined area of the display unit 213, and between the images divided into four in the vertical direction. Is an image shifted in a predetermined direction (for example, a parallax generation direction) according to the in-focus state. The aspect of the split image is not limited to the example shown in FIG. 11 and may be an image obtained by combining the upper half image of the left eye image and the lower half image of the right eye image. In this case, the upper and lower images divided into two are shifted in a predetermined direction (for example, the parallax generation direction) according to the in-focus state.

通常画像にスプリットイメージを合成する方法は、通常画像の一部の画像に代えて、スプリットイメージを嵌め込む合成方法に限定されない。例えば、通常画像の上にスプリットイメージを重畳させる合成方法であってもよい。また、スプリットイメージを重畳する際に、スプリットイメージが重畳される通常画像の一部の画像とスプリットイメージとの透過率を適宜調整して重畳させる合成方法であってもよい。これにより、連続的に撮影している被写体像を示すライブビュー画像が表示部213の画面上に表示されるが、表示されるライブビュー画像は、通常画像の表示領域内にスプリットイメージが表示された画像となる。   The method of combining the split image with the normal image is not limited to the combining method of fitting the split image in place of a part of the normal image. For example, a synthesis method in which a split image is superimposed on a normal image may be used. In addition, when the split image is superimposed, a combining method may be used in which the transmittance of a part of the normal image on which the split image is superimposed and the split image are appropriately adjusted and superimposed. As a result, a live view image showing a subject image continuously shot is displayed on the screen of the display unit 213, but the displayed live view image has a split image displayed in the normal image display area. Image.

ハイブリッドファインダー220は、OVF240及びEVF248を含む。OVF240は、対物レンズ244と接眼レンズ246とを有する逆ガリレオ式ファインダーであり、EVF248は、LCD247、プリズム245及び接眼レンズ246を有する。   Hybrid viewfinder 220 includes OVF 240 and EVF 248. The OVF 240 is an inverse Galileo finder having an objective lens 244 and an eyepiece 246, and the EVF 248 has an LCD 247, a prism 245, and an eyepiece 246.

また、対物レンズ244の前方には、液晶シャッタ243が配設されており、液晶シャッタ243は、EVF248を使用する際に、対物レンズ244に光学像が入射しないように遮光する。   Further, a liquid crystal shutter 243 is disposed in front of the objective lens 244, and the liquid crystal shutter 243 shields the optical image from being incident on the objective lens 244 when the EVF 248 is used.

プリズム245は、LCD247に表示される電子像又は各種の情報を反射させて接眼レンズ246に導くと共に、光学像とLCD247に表示される情報(電子像、各種の情報)とを合成する。   The prism 245 reflects the electronic image or various information displayed on the LCD 247 and guides it to the eyepiece lens 246, and combines the optical image and information (electronic image and various information) displayed on the LCD 247.

ここで、ファインダー切替えレバー214を図1に示す矢印SW方向に回動させると、回動させる毎にOVF240により光学像を視認することができるOVFモードと、EVF248により電子像を視認することができるEVFモードとが交互に切り替えられる。   Here, when the viewfinder switching lever 214 is rotated in the direction of the arrow SW shown in FIG. 1, an OVF mode in which an optical image can be visually recognized by the OVF 240 and an electronic image can be visually recognized by the EVF 248 each time it is rotated. The EVF mode is switched alternately.

表示制御部36は、OVFモードの場合、液晶シャッタ243が非遮光状態になるように制御し、接眼部から光学像が視認できるようにする。また、LCD247には、スプリットイメージのみを表示させる。これにより、光学像の一部にスプリットイメージが重畳されたファインダー像を表示させることができる。   In the OVF mode, the display control unit 36 controls the liquid crystal shutter 243 to be in a non-light-shielding state so that an optical image can be visually recognized from the eyepiece unit. Further, only the split image is displayed on the LCD 247. Thereby, a finder image in which a split image is superimposed on a part of the optical image can be displayed.

一方、表示制御部36は、EVFモードの場合、液晶シャッタ243が遮光状態になるように制御し、接眼部からLCD247に表示される電子像のみが視認できるようにする。なお、LCD247には、表示部213に出力されるスプリットイメージが合成された画像データと同等の画像データが入力され、これにより、表示部213と同様に通常画像の一部にスプリットイメージが合成された電子像を表示させることができる。   On the other hand, in the EVF mode, the display control unit 36 controls the liquid crystal shutter 243 to be in a light shielding state so that only an electronic image displayed on the LCD 247 can be visually recognized from the eyepiece unit. Note that the image data equivalent to the image data obtained by combining the split image output to the display unit 213 is input to the LCD 247, whereby the split image is combined with a part of the normal image in the same manner as the display unit 213. Electronic images can be displayed.

図10には表示装置における通常画像及びスプリットイメージの各々の表示領域の一例が示されている。一例として図10に示すように、スプリットイメージは表示装置の画面中央部の矩形枠内に表示され、スプリットイメージの外周領域に通常画像が表示される。なお、図10に示す矩形枠を表す縁の線は実際には表示されないが、図10では説明の便宜上示されている。   FIG. 10 shows an example of display areas of the normal image and the split image in the display device. As an example, as shown in FIG. 10, the split image is displayed in a rectangular frame at the center of the screen of the display device, and a normal image is displayed in the outer peripheral area of the split image. Note that the edge line representing the rectangular frame shown in FIG. 10 is not actually displayed, but is shown in FIG. 10 for convenience of explanation.

図11には本第1実施形態に対する比較例として表示装置の同画面に表示された通常画像及びスプリットイメージの一例が模式的に示されている。一例として図11に示すように、スプリットイメージは無彩色で表示され、通常画像は有彩色で表示される。しかし、画面全体のホワイトバランスによっては通常画像の色に対してスプリットイメージの色が引き立たずにスプリットイメージと通常画像との境界が視認し難くなる。   FIG. 11 schematically shows an example of a normal image and a split image displayed on the same screen of the display device as a comparative example with respect to the first embodiment. As an example, as shown in FIG. 11, the split image is displayed in an achromatic color, and the normal image is displayed in a chromatic color. However, depending on the white balance of the entire screen, the color of the split image does not stand out from the color of the normal image, and the boundary between the split image and the normal image becomes difficult to visually recognize.

そこで、本第1実施形態に係る撮像装置100では、画像処理部28が、通常画像の表示色とスプリットイメージの表示色とを視覚的に差別化する処理(以下、「表示色差別化処理」という)を含む画像出力処理を行う。表示色差別化処理は、通常画像の色情報を取得し、取得した色情報に基づいて、通常画像の色特性とは異なる色特性を有する色をスプリットイメージの表示色として決定する処理を含む。上記の「色情報」とは、例えば通常画像の物体色の色特性を示す色情報を指す。また、上記の「通常画像の色特性とは異なる色特性」とは、例えば通常画像の物体色の色特性とは異なる色特性を指す。また、上記の「通常画像の色特性とは異なる色特性」とは、例えば色相環において通常画像の物体色と予め定められた角度離れた色を指す。ここで言う「予め定められた角度」とは、通常画像の物体色の色特性と異なる色特性であることが視認可能な色が得られる角度として予め定められた角度を指す。この場合、「予め定められた角度」は、好ましくは、160度以上200度以下であり、より好ましくは、170度以上190度以下であり、最も好ましくは、180度(補色を特定する角度)である。また、これに限らず、ユーザが操作部14を介して指定した角度(例えばユーザが視認可能な色が得られる角度)であってもよい。また、これに限らず、「予め定められた角度」として、複数の被験者による官能試験によって得られた評価結果に基づいて決められた角度を採用してもよい。この場合、複数の被験者のうちの過半数以上の被験者によって通常画像(サンプル画像)の物体色の色特性と異なる色特性である(例えばサンプル画像の物体色の色相と異なる色相である)と評価された角度を「予め定められた角度」として採用する例が挙げられる。   Therefore, in the imaging apparatus 100 according to the first embodiment, the image processing unit 28 visually differentiates the display color of the normal image from the display color of the split image (hereinafter, “display color differentiation process”). Image output processing including The display color differentiation process includes a process of acquiring color information of a normal image and determining a color having a color characteristic different from the color characteristic of the normal image as a display color of the split image based on the acquired color information. The “color information” refers to color information indicating the color characteristics of the object color of a normal image, for example. Further, the “color characteristic different from the color characteristic of the normal image” refers to a color characteristic different from the color characteristic of the object color of the normal image, for example. The “color characteristic different from the color characteristic of the normal image” refers to, for example, a color separated from the object color of the normal image by a predetermined angle in the hue circle. The “predetermined angle” here refers to an angle that is predetermined as an angle at which a color that is visually recognizable as having a color characteristic different from the color characteristic of the object color of the normal image is obtained. In this case, the “predetermined angle” is preferably 160 degrees or more and 200 degrees or less, more preferably 170 degrees or more and 190 degrees or less, and most preferably 180 degrees (an angle for specifying a complementary color). It is. In addition, the angle is not limited to this, and may be an angle designated by the user via the operation unit 14 (for example, an angle at which a user can visually recognize a color). Further, the present invention is not limited thereto, and an angle determined based on an evaluation result obtained by a sensory test by a plurality of subjects may be adopted as the “predetermined angle”. In this case, the majority of subjects among the plurality of subjects are evaluated to have a color characteristic different from the color characteristic of the object color of the normal image (sample image) (for example, a hue different from the hue of the object color of the sample image). The example which employ | adopts as a "predetermined angle" is given.

本第1実施形態では、上記の「通常画像の物体色の色特性」の一例として、WBの実施後の通常画像における原色成分の構成比を採用している。ここで言う「原色成分の構成比」とは、例えばR,G,Bの画素値について総和が“1”となるように正規化した比を指す。   In the first embodiment, as an example of the “color characteristic of the object color of the normal image”, the composition ratio of the primary color components in the normal image after the WB is adopted. The “component ratio of primary color components” here refers to a ratio that is normalized such that the sum of the R, G, and B pixel values is “1”.

また、表示色差別化処理では、一例として図12に示す第1入出力関数F(W)が用いられる。なお、図12に示す横軸は、第1入出力関数F(W)の入力値であって、WBの実施後の通常画像におけるR,G,Bの構成比の一成分を示す。すなわち、横軸は、WBの実施後の通常画像におけるR,G,Bの各々の画素値の平均値を示す。ここでは、(Rの平均値Wr)+(Gの平均値Wg)+(Bの平均値Wb)=1となるように正規化されたものを適用している。図12に示す縦軸は、第1入出力関数F(W)の出力値であって、スプリットイメージの画素の各々のR:G:Bを示す。第1入出力関数F(W)によれば、例えば入力がWr:Wg:Wb=0.4:0.3:0.3のように赤味が支配的であると仮定すると、出力がR:G:B=0.8:1:1となり、スプリットイメージは青緑系のグレーとなる。これにより、通常画像とスプリットイメージとの境界線の視認性が向上する。   In the display color differentiation process, the first input / output function F (W) shown in FIG. 12 is used as an example. The horizontal axis shown in FIG. 12 is an input value of the first input / output function F (W), and shows one component of the R, G, and B composition ratio in the normal image after WB. That is, the horizontal axis indicates the average value of the R, G, and B pixel values in the normal image after WB. Here, a normalized value is applied so that (R average value Wr) + (G average value Wg) + (B average value Wb) = 1. The vertical axis shown in FIG. 12 is the output value of the first input / output function F (W) and indicates R: G: B of each pixel of the split image. According to the first input / output function F (W), assuming that the red color is dominant, for example, the input is Wr: Wg: Wb = 0.4: 0.3: 0.3, the output is R : G: B = 0.8: 1: 1 and the split image is blue-green gray. Thereby, the visibility of the boundary line between the normal image and the split image is improved.

第1入出力関数F(W)は、WBの実施後の通常画像における原色成分の構成比を、スプリットイメージの原色成分の構成比に変換する関数である。第1入出力関数F(W)は、減少関数(入力値の増加に従って出力値が減少する特性を有する関数)である関数f1を含む。図12に示す第1入出力関数F(W)は、関数f1の一例として傾きが負の線形関数を含んでいるが、線形関数に代えて、入力値の増加に従って出力値が減少する特性を有する非線形関数を採用してもよい。また、図12に示す第1入出力関数F(W)は、各々関数f1に連続する線形関数であって傾きが“0”の関数f2,f3を含んでいるが、これらの関数f2,f3に変えて、非線形関数を用いてもよいし、傾きが負の線形関数を用いてもよい。また、第1入出力関数F(W)は、屈曲した関数(関数f1〜f3を組み合わせた関数)とされているが、これに限らず、単調減少する減少関数(例えばy=−ax+b)であってもよい。   The first input / output function F (W) is a function for converting the composition ratio of the primary color components in the normal image after the WB to the composition ratio of the primary color components of the split image. The first input / output function F (W) includes a function f1 that is a decreasing function (a function having a characteristic that the output value decreases as the input value increases). The first input / output function F (W) shown in FIG. 12 includes a linear function having a negative slope as an example of the function f1, but has a characteristic that the output value decreases as the input value increases instead of the linear function. You may employ | adopt the nonlinear function which has. Further, the first input / output function F (W) shown in FIG. 12 includes functions f2 and f3 each having a slope of “0” that is a linear function continuous to the function f1, and these functions f2 and f3. Alternatively, a non-linear function may be used, or a linear function having a negative slope may be used. The first input / output function F (W) is a bent function (a function combining the functions f1 to f3). However, the first input / output function F (W) is not limited to this, and is a monotonically decreasing function (for example, y = −ax + b). There may be.

また、本第1実施形態に係る撮像装置100では、画像処理部28が、通常画像の色特性とスプリットイメージの色特性とを近付けることにより通常画像の表示色とスプリットイメージの表示色とを同化させる処理(以下、「表示色同化処理」という)を行う。表示色同化処理では、一例として図13に示す第2入出力関数G(W)が用いられる。なお、図13に示す横軸は、第2入出力関数G(W)の入力値であって、図12に示す横軸と同様にWBの実施後の通常画像におけるR,G,Bの構成比の一成分を示す。図13に示す縦軸は、第2入出力関数G(W)の出力値であって、図12に示す縦軸と同様にスプリットイメージにおけるR,G,Bの構成比の一成分を示す。   In the imaging apparatus 100 according to the first embodiment, the image processing unit 28 assimilates the display color of the normal image and the display color of the split image by bringing the color characteristic of the normal image close to the color characteristic of the split image. (Hereinafter referred to as “display color assimilation process”). In the display color assimilation process, the second input / output function G (W) shown in FIG. 13 is used as an example. The horizontal axis shown in FIG. 13 is the input value of the second input / output function G (W), and the configurations of R, G, and B in the normal image after the WB are implemented as in the horizontal axis shown in FIG. One component of the ratio is shown. The vertical axis shown in FIG. 13 is the output value of the second input / output function G (W), and shows one component of the composition ratio of R, G, and B in the split image, similar to the vertical axis shown in FIG.

第2入出力関数G(W)も、第1入出力関数G(W)と同様に、WBの実施後の通常画像における原色成分の構成比を、スプリットイメージの原色成分の構成比に変換する関数である。但し、第2入出力関数G(W)は、図12に示す第1入出力関数F(W)と対称的な関数であり、関数g1,g2,g3を含む。   Similarly to the first input / output function G (W), the second input / output function G (W) also converts the composition ratio of the primary color components in the normal image after WB to the composition ratio of the primary color components of the split image. It is a function. However, the second input / output function G (W) is a function symmetrical to the first input / output function F (W) shown in FIG. 12, and includes functions g1, g2, and g3.

関数g1は、増加関数(入力値の増加に従って出力値も増加する関数)である。図13に示す第2入出力関数G(W)は、関数g1の一例として傾きが正の線形関数を含んでいるが、線形関数に代えて、入力値の増加に従って出力値も増加する特性を有する非線形関数を採用してもよい。また、図13に示す第2入出力関数G(W)は、各々関数g1に連続する線形関数であって傾きが“0”の関数g2,g3を含んでいるが、これらの関数g2,g3に変えて、非線形関数を用いてもよいし、傾きが正の線形関数を用いてもよい。また、第2入出力関数G(W)は、屈曲した関数(関数g1〜g3を組み合わせた関数)とされているが、これに限らず、単調増加する単調関数(例えばy=ax+b)であってもよい。   The function g1 is an increase function (a function in which the output value increases as the input value increases). The second input / output function G (W) shown in FIG. 13 includes a linear function having a positive slope as an example of the function g1, but instead of the linear function, the second input / output function G (W) has a characteristic that the output value increases as the input value increases. You may employ | adopt the nonlinear function which has. Further, the second input / output function G (W) shown in FIG. 13 is a linear function continuous to the function g1 and includes functions g2 and g3 having a slope of “0”. These functions g2 and g3 Instead of this, a nonlinear function may be used, or a linear function having a positive slope may be used. The second input / output function G (W) is a bent function (a function combining the functions g1 to g3). However, the second input / output function G (W) is not limited to this, and is a monotonically increasing function (for example, y = ax + b). May be.

なお、第1入出力関数F(W)及び第2入出力関数G(W)は所定の記憶領域(例えばメモリ28)に記憶されている。   The first input / output function F (W) and the second input / output function G (W) are stored in a predetermined storage area (for example, the memory 28).

次に本第1実施形態の作用として画像処理部28で行われる画像出力処理について、図14を参照して説明する。なお、ここでは、画像出力処理が画像処理部28で行われる場合を例示するが、本発明はこれに限定されるものではなく、例えばCPU12が画像出力処理プログラムを実行することにより撮像装置100で画像出力処理が行われるものとしてもよい。   Next, image output processing performed by the image processing unit 28 as an operation of the first embodiment will be described with reference to FIG. Here, the case where the image output process is performed by the image processing unit 28 is illustrated, but the present invention is not limited to this. For example, the CPU 12 executes the image output process program and the imaging apparatus 100 executes the image output process program. Image output processing may be performed.

図14において、先ず、ステップ400では、画像処理部28により、通常画像が取得される。上記ステップ400で取得された通常画像は画像処理部28により所定の記憶領域(例えばメモリ26)に記憶される。次のステップ402では、画像処理部28により、左目画像及び右目画像が取得され、取得された左目画像及び右目画像に基づいてスプリットイメージが生成される。   In FIG. 14, first, in step 400, a normal image is acquired by the image processing unit 28. The normal image acquired in step 400 is stored in a predetermined storage area (for example, the memory 26) by the image processing unit 28. In the next step 402, the image processing unit 28 acquires the left eye image and the right eye image, and generates a split image based on the acquired left eye image and right eye image.

次のステップ404では、画像処理部28により、WB処理が実行される。図15にはWB処理の流れの一例が示されている。図15に示すステップ404Aでは、画像処理部28により、通常画像から色情報が取得され、取得された色情報に基づいて撮像が行われた際の光源色が推定される。次のステップ404Bでは、画像処理部28により、WBで用いられるR,G,Bの各色に対するゲインとして、上記ステップ404Aで推定された光源色に応じたゲインが取得される。本第1実施形態では、例えば、晴天の日の太陽、曇りの日の太陽、蛍光灯、タングステン光源のそれぞれについてゲインが定められており(例えばメモリ26に記憶されており)、上記ステップ404Aで推定された光源色に対応する光源のゲインが取得される。   In the next step 404, the image processing unit 28 executes WB processing. FIG. 15 shows an example of the flow of WB processing. In step 404A shown in FIG. 15, the image processing unit 28 acquires color information from the normal image, and estimates a light source color when imaging is performed based on the acquired color information. In the next step 404B, the image processor 28 acquires a gain corresponding to the light source color estimated in step 404A as a gain for each of R, G, and B colors used in WB. In the first embodiment, for example, gains are determined for each of the sun on a clear day, the sun on a cloudy day, a fluorescent lamp, and a tungsten light source (for example, stored in the memory 26). The gain of the light source corresponding to the estimated light source color is acquired.

次のステップ404Cでは、画像処理部28により、上記ステップ404Bで取得されたゲインでホワイトバランスが実行され、その後、本ホワイトバランス処理を終了する。   In the next step 404C, the image processing unit 28 executes white balance with the gain acquired in step 404B, and then ends the white balance process.

図14に戻って、ステップ406では、画像処理部28により、上記ステップ402で生成されたスプリットイメージのうちの処理対象の画素(注目画素(i,j))が設定される。この場合、例えば、スプリットイメージのサイズがm×n画素の場合、画素(1,1)から画素(m,n)まで、本ステップ406が行われる毎に順次注目画素を移動させる。   Returning to FIG. 14, in step 406, the image processing unit 28 sets a pixel to be processed (target pixel (i, j)) in the split image generated in step 402. In this case, for example, when the size of the split image is m × n pixels, the target pixel is sequentially moved from the pixel (1, 1) to the pixel (m, n) every time this step 406 is performed.

次のステップ408では、画像処理部28により、上記ステップ404でホワイトバランス処理が実行されて得られた通常画像が無彩色画像でないか否かが判定される。ここで言う「無彩色画像」とは、例えばR,G,Bの構成比として|R−0.33|≦0.05かつ|G−0.33|≦0.05かつ|B−0.33|≦0.05を満たす画像を指す。本ステップ408において通常画像が無彩色画像でない場合は判定が肯定されてステップ410へ移行する。ステップ408において通常画像が無彩色画像である場合は判定が否定されてステップ412へ移行する。   In the next step 408, the image processing unit 28 determines whether or not the normal image obtained by executing the white balance process in step 404 is not an achromatic image. The “achromatic image” referred to here is, for example, as a component ratio of R, G, and B, | R−0.33 | ≦ 0.05, | G−0.33 | ≦ 0.05, and | B-0. An image satisfying 33 | ≦ 0.05. If it is determined in step 408 that the normal image is not an achromatic image, the determination is affirmed and the process proceeds to step 410. If it is determined in step 408 that the normal image is an achromatic image, the determination is negative and the process proceeds to step 412.

なお、通常画像が無彩色画像であるか否かの判定は、通常画像の全領域(全画素数)における無彩色領域(無彩色画素の画素数)の占有率が予め定められた占有率(例えば95%)以上であるか否かを判定することにより行われてもよい。また、通常画像における所定領域が無彩色領域である場合に通常画像が無彩色画像であると判定してもよい。また、通常画像におけるスプリットイメージとの境界に隣接する領域において無彩色領域が予め定められた面積(所定画素数)以上である場合に通常画像が無彩色画像であると判定してもよい。また、通常画像におけるスプリットイメージとの境界に隣接する領域が無彩色でないにも拘らずその他の領域が無彩色領域とされているために無彩色領域の占有率が予め定められた占有率以上になってしまった場合は通常画像が無彩色画像でないと判定してもよい。   Whether or not the normal image is an achromatic image is determined by determining whether the occupancy of the achromatic region (the number of pixels of the achromatic pixel) in the entire region (the total number of pixels) of the normal image is a predetermined occupancy rate ( For example, it may be performed by determining whether or not it is 95% or more. Further, when the predetermined area in the normal image is an achromatic color area, it may be determined that the normal image is an achromatic color image. In addition, the normal image may be determined to be an achromatic image when the achromatic region is equal to or larger than a predetermined area (a predetermined number of pixels) in a region adjacent to the boundary with the split image in the normal image. In addition, since the area adjacent to the boundary with the split image in the normal image is not an achromatic color, the other area is an achromatic color area, so the occupation ratio of the achromatic color area exceeds the predetermined occupation ratio. If it has become, it may be determined that the normal image is not an achromatic image.

ステップ412では、画像処理部28により、有彩色付与処理が実行される。図16には有彩色付与処理の流れの一例が示されている。図16に示すステップ412Aでは、画像処理部28により、上記ステップ406で設定された注目画素が最初の処理対象画素であるか否かが判定される。本ステップ412Aにおいて注目画素が最初の処理対象画素である場合は判定が肯定されてステップ412Bへ移行する。本ステップ412Aにおいて注目画素が最初の処理対象画素でない場合は判定が否定されてステップ412Cへ移行する。   In step 412, the image processing unit 28 executes chromatic color addition processing. FIG. 16 shows an example of the flow of chromatic color imparting processing. In step 412A shown in FIG. 16, the image processing unit 28 determines whether or not the target pixel set in step 406 is the first processing target pixel. If the target pixel is the first pixel to be processed in step 412A, the determination is affirmed and the process proceeds to step 412B. If the target pixel is not the first pixel to be processed in step 412A, the determination is negative and the process proceeds to step 412C.

ところで、所定の記憶領域(例えばメモリ26)には、注目画素のR,G,Bの画素値に乗じることにより注目画素に対して有彩色を付与可能な予め定められたR,G,Bの構成比(以下、「所定構成比」という)が記憶されている。   By the way, in a predetermined storage area (for example, the memory 26), predetermined R, G, and B values that can give a chromatic color to the target pixel by multiplying the R, G, and B pixel values of the target pixel. The component ratio (hereinafter referred to as “predetermined component ratio”) is stored.

そこで、ステップ412Bでは、画像処理部28により、所定構成比が所定の記憶領域から取得される。次のステップ412Cでは、画像処理部28により、上記ステップ412Bで取得された所定構成比の色毎の成分が注目画素の同色の画素値に対して乗じられることにより注目画素のR,G,Bの各色の画素値が補正される。例えば所定構成比として“R:G:B=0.2:0.2:0.6”が上記ステップ412Bで取得された場合、画像処理部28は、“R:G:B=0.2:0.2:0.6”の色毎の成分を注目画素の同色の画素値に対して乗じる。これにより、注目画素は青味を帯びた画素に補正される。また、上記の所定構成比として例えば“R:G:B=0.6:0.2:0.2”が上記ステップ412Bで取得された場合、画像処理部28は、“R:G:B=0.6:0.2:0.2”の色毎の成分を注目画素の同色の画素値に対して乗じる。これにより、注目画素は赤味を帯びた画素に補正される。このように本ステップ412Cが画像処理部28により実行されることで、通常画像の色特性とは異なる色特性を有する有彩色が注目画素の表示色として決定される。   Therefore, in step 412B, the image processing unit 28 acquires a predetermined composition ratio from a predetermined storage area. In the next step 412C, the image processing unit 28 multiplies the pixel value of the same color of the target pixel by the component for each color having the predetermined composition ratio acquired in step 412B, so that the R, G, B of the target pixel is obtained. The pixel values of each color are corrected. For example, when “R: G: B = 0.2: 0.2: 0.6” is acquired as the predetermined configuration ratio in step 412B, the image processing unit 28 determines that “R: G: B = 0.2. : 0.2: 0.6 "is multiplied by the pixel value of the same color of the target pixel. As a result, the target pixel is corrected to a bluish pixel. If, for example, “R: G: B = 0.6: 0.2: 0.2” is acquired as the above-described predetermined configuration ratio in step 412B, the image processing unit 28 determines that “R: G: B”. = 0.6: 0.2: 0.2 "is multiplied by the pixel value of the same color of the target pixel. As a result, the target pixel is corrected to a reddish pixel. As a result of this step 412C being executed by the image processor 28, a chromatic color having a color characteristic different from the color characteristic of the normal image is determined as the display color of the target pixel.

次のステップ412Dでは、画像処理部28により、上記ステップ412Cで補正された注目画素のR,G,Bの画素値が所定の記憶領域(例えばメモリ26)に記憶されることにより画像が記憶され、その後、ステップ418へ移行する。   In the next step 412D, the image processing unit 28 stores the R, G, and B pixel values of the target pixel corrected in step 412C in a predetermined storage area (for example, the memory 26), thereby storing the image. Thereafter, the process proceeds to step 418.

ステップ410では、画像処理部28により、表示色同化処理を実行する条件である表示色同化条件を満足していないか否かが判定される。ここで言う「表示色同化条件」としては、例えば表示色同化処理の実行を開始する指示が操作部14を介して入力されたとの条件が挙げられる。本ステップ410において表示色同化条件を満足していない場合は判定が肯定されてステップ414へ移行する。本ステップ410において表示色同化条件を満足している場合は判定が否定されてステップ416へ移行する。   In step 410, the image processing unit 28 determines whether or not a display color assimilation condition that is a condition for executing the display color assimilation process is satisfied. The “display color assimilation condition” mentioned here includes, for example, a condition that an instruction to start execution of the display color assimilation process is input via the operation unit 14. If the display color assimilation condition is not satisfied in step 410, the determination is affirmed and the routine proceeds to step 414. If the display color assimilation condition is satisfied in step 410, the determination is negative and the routine proceeds to step 416.

なお、ここでは、ステップ410において肯定判定された場合にステップ414に移行する例を挙げているが、ステップ410とステップ414との間に、表示色差別化処理を実行する条件を満足しているか否かを判定する処理を行うステップを挿入してもよい。この場合、表示色差別化処理を実行する条件を満足している場合は判定が肯定されてステップ414へ移行し、表示色差別化処理を実行する条件を満足していていない場合は判定が否定されてステップ418へ移行する。表示色差別化処理を実行する条件としては、例えば、表示色差別化処理の実行を開始する指示が操作部14を介して入力されたとの条件が挙げられる。この他にも、通常画像のR,G,Bの画素値の平均値(又は構成比)とスプリットイメージのR,G,Bの画素値の平均値(又は構成比)とがR,G,Bの各色について予め定められた誤差内で一致しているとの条件が例示できる。   Here, an example in which the process proceeds to step 414 when an affirmative determination is made in step 410 is given, but does the condition for executing the display color differentiation process be satisfied between step 410 and step 414? A step of performing a process of determining whether or not may be inserted. In this case, if the condition for executing the display color differentiation process is satisfied, the determination is affirmed and the process proceeds to step 414. If the condition for executing the display color differentiation process is not satisfied, the determination is negative. Then, the process proceeds to step 418. Examples of the condition for executing the display color differentiation process include a condition that an instruction to start execution of the display color differentiation process is input via the operation unit 14. In addition, the average value (or composition ratio) of the R, G, and B pixel values of the normal image and the average value (or composition ratio) of the R, G, and B pixel values of the split image are R, G, An example of the condition is that the colors of B match within a predetermined error.

ステップ414では、画像処理部28により、表示色差別化処理が実行される。図17には表示色差別化処理の流れの一例が示されている。図17に示すステップ414Aでは、上記ステップ406で設定された注目画素が最初の処理対象画素であるか否かが判定される。本ステップ414Aにおいて注目画素が最初の処理対象画素である場合は判定が肯定されてステップ414Bへ移行する。本ステップ414Aにおいて注目画素が最初の処理対象画素でない場合は判定が否定されてステップ414Cへ移行する。   In step 414, the image processing unit 28 executes display color differentiation processing. FIG. 17 shows an example of the flow of display color differentiation processing. In step 414A shown in FIG. 17, it is determined whether or not the pixel of interest set in step 406 is the first pixel to be processed. If the target pixel is the first pixel to be processed in step 414A, the determination is affirmed and the routine proceeds to step 414B. If the target pixel is not the first pixel to be processed in this step 414A, the determination is negative and the routine proceeds to step 414C.

ステップ414Bでは、画像処理部28により、特定の画像からR,G,Bの画素値(例えば特定の画像に含まれる全ての画素についての画素値)が取得される。ここでは「特定の画像」として、上記ステップ400で生成された通常画像の一部を採用しているが、これに限らず、通常画像並びに上記ステップ402で生成された左目画像及び右目画像であっても良い。また、本ステップ414Bでは、上記の「通常画像の一部」として、上記ステップ400で生成された通常画像のうち通常撮像領域におけるスプリットイメージ撮像領域との境界側の縁部から出力された画像を採用しているが、ここで言う「縁部」の大きさとは、例えば通常画像領域幅の1/3の大きさを指す。「通常画像領域幅の1/3の大きさ」はあくまでも一例であり、有効な画素値(色情報の一例)を取得するのに十分な領域であればよく、通常画像領域の大きさやスプリットイメージの大きさなどにより、有効な画素値を取得するのに必要となる「縁部」の大きさが異なるのは言うまでもない。また、縁部に限らず、通常画像における他の領域でもよい。通常画像における他の領域とは、通常画像における上記の「縁部」以外の領域を指す。また、「特定の画像」は、必ずしも通常画像の一部である必要はなく、通常画像の全領域の画像であってもよい。また、上記の「通常撮像領域」とは、撮像素子20における通常画像の撮像に使用される領域のことであり、例えば図10に示す「通常画像の表示領域」に対応する撮像装置20の領域を指す。また、上記の「スプリットイメージ撮像領域」とは、撮像素子20におけるスプリットイメージの撮像に使用されると共に通常撮像領域に隣接する領域を指し、例えば図10に示す「スプリットイメージの表示領域」に対応する撮像装置20の領域を指す。   In step 414B, the image processing unit 28 acquires R, G, and B pixel values (for example, pixel values for all pixels included in the specific image) from the specific image. Here, a part of the normal image generated in step 400 is adopted as the “specific image”. However, the present invention is not limited to this, and the normal image and the left-eye image and right-eye image generated in step 402 are used. May be. In Step 414B, as the “part of the normal image”, the image output from the edge on the boundary side with the split image imaging area in the normal imaging area among the normal images generated in Step 400 is used. Although adopted, the size of the “edge portion” here refers to, for example, the size of 1/3 of the normal image area width. “The size of 1/3 of the normal image area width” is merely an example, and it may be an area sufficient to obtain effective pixel values (an example of color information). The size of the normal image area and the split image may be used. It goes without saying that the size of the “edge” required to acquire an effective pixel value differs depending on the size of the pixel. Moreover, not only an edge part but the other area | region in a normal image may be sufficient. The other region in the normal image refers to a region other than the “edge” in the normal image. Further, the “specific image” is not necessarily a part of the normal image, and may be an image of the entire area of the normal image. In addition, the “normal imaging area” is an area used for imaging a normal image in the image sensor 20, and is, for example, an area of the imaging device 20 corresponding to the “normal image display area” illustrated in FIG. 10. Point to. The “split image capturing area” described above refers to an area that is used for capturing a split image in the image sensor 20 and is adjacent to the normal image capturing area, and corresponds to, for example, the “split image display area” illustrated in FIG. This refers to the area of the imaging device 20 that performs.

次のステップ414Dでは、画像処理部28により、上記ステップ414Bで取得されたR,G,Bの画素値の色毎の平均値が算出される。次のステップ414Eでは、画像処理部28により、上記ステップ414Dで算出されたR,G,Bの画素値の色毎の平均値に基づいてR,G,Bの画素値の構成比が算出される。ここでは、画像処理部28が、例えば上記ステップ414Dで算出したR,G,Bの画素値の色毎の平均値を総和が“1”となるように正規化することによりR,G,Bの構成比を算出する。   In the next step 414D, the image processing unit 28 calculates an average value for each color of the R, G, and B pixel values acquired in step 414B. In the next step 414E, the composition ratio of the R, G, B pixel values is calculated by the image processing unit 28 based on the average value for each color of the R, G, B pixel values calculated in step 414D. The Here, the image processing unit 28 normalizes the average value for each color of the R, G, and B pixel values calculated in step 414D, for example, so that the sum is “1”. The composition ratio is calculated.

次のステップ414Fでは、画像処理部28により、第1入出力関数F(W)が所定の記憶領域から取得される。次のステップ414Gでは、画像処理部28により、第1入出力関数F(W)を用いてスプリットイメージにおけるR,G,Bの画素値の構成比が算出される。すなわち、上記ステップ414Eで算出されたR,G,Bの画素値の構成比が第1入出力関数F(W)によりスプリットイメージにおけるR,G,Bの画素値の構成比に変換される。   In the next step 414F, the image processing unit 28 acquires the first input / output function F (W) from a predetermined storage area. In the next step 414G, the image processing unit 28 calculates the composition ratio of the R, G, and B pixel values in the split image using the first input / output function F (W). That is, the composition ratio of the R, G, B pixel values calculated in step 414E is converted into the composition ratio of the R, G, B pixel values in the split image by the first input / output function F (W).

次のステップ414Hでは、画像処理部28により、異色付与条件を満足しているか否かが判定される。ここで言う「異色付与条件」とは、スプリットイメージにおける左目画像による画像及び右目画像による画像の各々に対して異なる有彩色を付与する処理(異色付与処理)を実行する条件を指す。異色付与条件としては、例えば異色付与処理の実行を開始する指示が操作部14を介して行われたとの条件が挙げられる。また、ここで言う「異色付与処理」とは、例えば後述のステップ414I,414K,414L,414M,414Nを指す。本ステップ414Hにおいて異色付与条件を満足している場合は判定が肯定されてステップ414Iへ移行する。本ステップ414Hにおいて異色付与条件を満足していない場合は判定が否定されてステップ414Jへ移行する。   In the next step 414H, the image processing unit 28 determines whether or not the different color application condition is satisfied. The “different color application condition” here refers to a condition for executing a process (different color application process) of applying different chromatic colors to each of the image by the left eye image and the image by the right eye image in the split image. As the different color imparting condition, for example, a condition that an instruction to start execution of the different color imparting process is made through the operation unit 14 can be cited. Further, the “different color imparting process” referred to here indicates, for example, steps 414I, 414K, 414L, 414M, and 414N described later. If the different color application condition is satisfied in step 414H, the determination is affirmed and the routine proceeds to step 414I. If it is determined in step 414H that the different color imparting conditions are not satisfied, the determination is negative and the routine proceeds to step 414J.

ステップ414Iでは、画像処理部28により、上記ステップ406で設定された注目画素が右目画像に含まれる画素であるか否かが判定される。本ステップ414Jにおいて注目画素が右目画像に含まれる画素でない場合(注目画素が左目画像に含まれる画素である場合)は判定が否定されてステップ414Lへ移行する。本ステップ414Iにおいて注目画素が右目画像に含まれる画素である場合は判定が肯定されてステップ414Kへ移行する。   In step 414I, the image processing unit 28 determines whether the target pixel set in step 406 is a pixel included in the right-eye image. If the target pixel is not a pixel included in the right-eye image in this step 414J (if the target pixel is a pixel included in the left-eye image), the determination is negative and the process proceeds to step 414L. If the target pixel is a pixel included in the right-eye image in step 414I, the determination is affirmed and the process proceeds to step 414K.

ステップ414Kでは、画像処理部28により、上記ステップ414Gで算出された構成比に対して右目画像用の補正項が付与されることで右目画像構成比が算出される。例えば、上記ステップ414Gで算出されたR,G,Bの画素値の構成比をF(Wr),F(Wg),F(Wb)とすると、F(Wr)に対して補正項ΔRが加えられることで、右目画像構成比のR成分である“F(Wr)+ΔR”が算出される。また、F(Wg)に対して補正項ΔGが加えられることで、右目画像構成比のG成分である“F(Wg)+ΔG”が算出される。更に、F(Wb)に対して補正項ΔBが加えられることで、右目画像構成比のB成分である“F(Wb)+ΔB”が算出される。   In step 414K, the right-eye image composition ratio is calculated by the image processing unit 28 adding a correction term for the right-eye image to the composition ratio calculated in step 414G. For example, if the component ratio of the R, G, and B pixel values calculated in step 414G is F (Wr), F (Wg), and F (Wb), a correction term ΔR is added to F (Wr). As a result, “F (Wr) + ΔR”, which is the R component of the right-eye image composition ratio, is calculated. Also, by adding the correction term ΔG to F (Wg), “F (Wg) + ΔG”, which is the G component of the right-eye image composition ratio, is calculated. Further, by adding the correction term ΔB to F (Wb), “F (Wb) + ΔB”, which is the B component of the right-eye image composition ratio, is calculated.

次のステップ414Mでは、画像処理部28により、上記ステップ414Kで算出された右目画像構成比の色毎の成分が注目画素の同色の画素値に対して乗じられることにより注目画素のR,G,Bの各色の画素値が補正され、その後、ステップ414Pへ移行する。このように本ステップ414Mが画像処理部28により実行されることで、通常画像の色特性とは異なる色特性を有する色が注目画素の表示色として決定される。   In the next step 414M, the image processing unit 28 multiplies the component value for each color of the right-eye image composition ratio calculated in step 414K by the pixel value of the same color of the pixel of interest, so that R, G, The pixel value of each color of B is corrected, and then the process proceeds to step 414P. As a result of this step 414M being executed by the image processing unit 28, a color having a color characteristic different from the color characteristic of the normal image is determined as the display color of the target pixel.

ステップ414Lでは、画像処理部28により、上記ステップ414Gで算出された構成比に対して左目画像用の補正項が付与されることで左目画像構成比が算出される。例えば、上記ステップ414Gで算出されたR,G,Bの画素値の構成比をF(Wr),F(Wg),F(Wb)とすると、F(Wr)から補正項ΔRが減じられることで、左目画像構成比のR成分である“F(Wr)−ΔR”が算出される。また、F(Wg)から補正項ΔGが減じられることで、左目画像構成比のG成分である“F(Wg)−ΔG”が算出される。更に、F(Wb)から補正項ΔBが減じられることで、左目画像構成比のB成分である“F(Wb)−ΔB”が算出される。なお、補正項ΔR,ΔG,ΔBは、差が視認できる値であればよく、例えばΔR=ρF(Wr),ΔG=ρF(Wg),ΔB=ρF(Wb)のようにF(Wr),F(Wg),(Wb)を単純に線形倍した値を採用してもよい。   In step 414L, the left eye image composition ratio is calculated by adding a correction term for the left eye image to the composition ratio calculated in step 414G by the image processing unit 28. For example, if the component ratio of the R, G, and B pixel values calculated in step 414G is F (Wr), F (Wg), and F (Wb), the correction term ΔR is subtracted from F (Wr). Thus, “F (Wr) −ΔR” which is the R component of the left-eye image composition ratio is calculated. Further, by subtracting the correction term ΔG from F (Wg), “F (Wg) −ΔG”, which is the G component of the left-eye image composition ratio, is calculated. Further, by subtracting the correction term ΔB from F (Wb), “F (Wb) −ΔB”, which is the B component of the left-eye image composition ratio, is calculated. The correction terms ΔR, ΔG, and ΔB may be values that allow the difference to be visually recognized. For example, F (Wr), ΔR = ρF (Wr), ΔG = ρF (Wg), ΔB = ρF (Wb) A value obtained by simply linearly multiplying F (Wg) and (Wb) may be adopted.

次のステップ414Nでは、画像処理部28により、上記ステップ414Lで算出された左目画像構成比の色毎の成分が注目画素の同色の画素値に対して乗じられることにより注目画素のR,G,Bの各色の画素値が補正され、その後、ステップ414Pへ移行する。このように本ステップ414Nが画像処理部28により実行されることで、通常画像の色特性とは異なる色特性を有する色が注目画素の表示色として決定される。また、本ステップ414N及び上記ステップ414が画像処理部28により実行されることで、スプリットイメージにおける左目画像と右目画像とで異なる有彩色がスプリットイメージの表示色として決定される。   In the next step 414N, the image processing unit 28 multiplies the component value for each color of the left-eye image component ratio calculated in step 414L by the pixel value of the same color of the target pixel, so that R, G, The pixel value of each color of B is corrected, and then the process proceeds to step 414P. As a result of this step 414N being executed by the image processing unit 28 in this way, a color having a color characteristic different from the color characteristic of the normal image is determined as the display color of the target pixel. Further, by executing the step 414N and the above step 414 by the image processing unit 28, different chromatic colors in the split-eye left-eye image and right-eye image are determined as the split-image display color.

ステップ414Jでは、画像処理部28により、上記ステップ414Gで算出された構成比の色毎の成分が注目画素の同色の画素値に対して乗じられることにより注目画素のR,G,Bの各色の画素値が補正され、その後、ステップ414Pへ移行する。このように本ステップ414Jが画像処理部28により実行されることで、通常画像の色特性とは異なる色特性を有する色が注目画素の表示色として決定される。   In step 414J, the image processing unit 28 multiplies the component value for each color of the composition ratio calculated in step 414G by the pixel value of the same color of the target pixel, so that each color of R, G, B of the target pixel is changed. The pixel value is corrected, and then the process proceeds to step 414P. As a result of this step 414J being executed by the image processing unit 28 in this way, a color having a color characteristic different from the color characteristic of the normal image is determined as the display color of the target pixel.

ステップ414Pでは、画像処理部28により、上記ステップ414J,414M,414Nの何れかで補正された注目画素のR,G,Bの画素値が所定の記憶領域(例えばメモリ26)に記憶されることにより画像が記憶され、その後、ステップ418へ移行する。   In step 414P, the image processing unit 28 stores the R, G, and B pixel values of the target pixel corrected in any of the above steps 414J, 414M, and 414N in a predetermined storage area (for example, the memory 26). To store the image, and then the process proceeds to step 418.

一方、ステップ414Cでは、先の処理対象画素に対して異色付与処理が実行されたか否かが判定される。本ステップ414Cにおいて先の処理対象画素に対して異色付与処理が実行された場合は判定が肯定されてステップ414Qへ移行する。本ステップ414Cにおいて先の処理対象画素に対して異色付与処理が実行されていない場合は判定が否定されてステップ414Jへ移行する。   On the other hand, in step 414C, it is determined whether or not a different color imparting process has been executed for the previous process target pixel. If a different color imparting process is executed for the previous pixel to be processed in step 414C, the determination is affirmed and the process proceeds to step 414Q. If the different color imparting process has not been executed for the previous pixel to be processed in step 414C, the determination is negative and the process proceeds to step 414J.

ステップ414Qでは、画像処理部28により、上記ステップ406で設定された注目画素が右目画像に含まれる画素であるか否かが判定される。本ステップ414Qにおいて注目画素が右目画像に含まれる画素でない場合(注目画素が左目画像に含まれる画素である場合)は判定が否定されてステップ414Nへ移行する。本ステップ414Qにおいて注目画素が右目画像に含まれる画素である場合は判定が肯定されてステップ414Mへ移行する。   In step 414Q, the image processing unit 28 determines whether the target pixel set in step 406 is a pixel included in the right-eye image. In step 414Q, when the target pixel is not a pixel included in the right-eye image (when the target pixel is a pixel included in the left-eye image), the determination is negative and the process proceeds to step 414N. If it is determined in step 414Q that the pixel of interest is a pixel included in the right-eye image, the determination is affirmed and the process proceeds to step 414M.

図14に戻って、ステップ416では、画像処理部28により、表示色同化処理が実行される。図18には表示色同化処理の流れの一例が示されている。図18に示すステップ416Aでは、上記ステップ406で設定された注目画素が最初の処理対象画素であるか否かが判定される。本ステップ416Aにおいて注目画素が最初の処理対象画素である場合は判定が肯定されてステップ416Bへ移行する。本ステップ416Aにおいて注目画素が最初の処理対象画素でない場合は判定が否定されてステップ416Gへ移行する。   Returning to FIG. 14, in step 416, the display color assimilation process is executed by the image processing unit 28. FIG. 18 shows an example of the flow of display color assimilation processing. In step 416A shown in FIG. 18, it is determined whether or not the target pixel set in step 406 is the first processing target pixel. If the target pixel is the first pixel to be processed in step 416A, the determination is affirmed and the routine proceeds to step 416B. If the target pixel is not the first pixel to be processed in step 416A, the determination is negative and the process proceeds to step 416G.

ステップ416Bでは、画像処理部28により、特定の画像からR,G,Bの画素値(例えば特定の画像に含まれる全ての画素についての画素値)が取得される。ここでは言う「特定の画像」としては、例えばステップ414Bで用いる「特定の画像」に相当する画像を指す。   In step 416B, the image processing unit 28 acquires R, G, and B pixel values (for example, pixel values for all pixels included in the specific image) from the specific image. Here, the “specific image” refers to an image corresponding to the “specific image” used in step 414B, for example.

次のステップ416Cでは、画像処理部28により、上記ステップ416Bで取得されたR,G,Bの画素値の色毎の平均値が算出される。次のステップ416Dでは、画像処理部28により、上記ステップ416Cで算出されたR,G,Bの画素値の色毎の平均値に基づいてR,G,Bの画素値の構成比が算出される。ここでは、画像処理部28が、例えば上記ステップ416Cで算出したR,G,Bの画素値の色毎の平均値を総和が“1”となるように正規化することによりR,G,Bの構成比を算出する。   In the next step 416C, the image processing unit 28 calculates an average value for each color of the R, G, and B pixel values acquired in step 416B. In the next step 416D, the image processing unit 28 calculates the composition ratio of the R, G, and B pixel values based on the average value for each color of the R, G, and B pixel values calculated in Step 416C. The Here, the image processing unit 28 normalizes the average value for each color of the R, G, and B pixel values calculated in step 416C, for example, so that the sum is “1”, and thereby R, G, B The composition ratio is calculated.

次のステップ416Eでは、画像処理部28により、第2入出力関数G(W)が所定の記憶領域から取得される。次のステップ416Fでは、画像処理部28により、第2入出力関数G(W)を用いてスプリットイメージにおけるR,G,Bの画素値の構成比が算出される。すなわち、上記ステップ416Dで算出されたR,G,Bの画素値の構成比が第2入出力関数G(W)によりスプリットイメージにおけるR,G,Bの画素値の構成比に変換される。   In the next step 416E, the image processing unit 28 acquires the second input / output function G (W) from a predetermined storage area. In the next step 416F, the image processing unit 28 calculates the composition ratio of the R, G, and B pixel values in the split image using the second input / output function G (W). That is, the composition ratio of the R, G, and B pixel values calculated in step 416D is converted into the composition ratio of the R, G, and B pixel values in the split image by the second input / output function G (W).

次のステップ416Gでは、画像処理部28により、上記ステップ416Fで算出された構成比の色毎の成分が注目画素の同色の画素値に対して乗じられることにより注目画素のR,G,Bの各色の画素値が補正され、その後、ステップ416Hへ移行する。このように本ステップ416Gが画像処理部28により実行されることで、通常画像の色特性に予め定められた度合いで近付けた色特性を有する色が注目画素の表示色として決定される。   In the next step 416G, the image processing unit 28 multiplies the component value for each color of the composition ratio calculated in step 416F by the pixel value of the same color of the target pixel, so that R, G, B of the target pixel is obtained. The pixel value of each color is corrected, and then the process proceeds to step 416H. As a result of the execution of step 416G by the image processing unit 28 in this manner, a color having a color characteristic approaching the color characteristic of the normal image by a predetermined degree is determined as the display color of the target pixel.

次のステップ416Hでは、画像処理部28により、上記ステップ416Gで補正された注目画素のR,G,Bの画素値が所定の記憶領域(例えばメモリ26)に記憶されることにより画像が記憶され、その後、ステップ418へ移行する。   In the next step 416H, the image processing unit 28 stores the R, G, B pixel values of the target pixel corrected in the above step 416G in a predetermined storage area (for example, the memory 26), thereby storing the image. Thereafter, the process proceeds to step 418.

図14に戻って、ステップ418では、上記ステップ406で設定された注目画素(i,j)に対して、WB処理、有彩色付与処理、表示色差別化処理及び表示色同化処理以外の画像処理(例えばガンマ補正や同時化処理など)が行われる。   Returning to FIG. 14, in step 418, image processing other than WB processing, chromatic color addition processing, display color differentiation processing, and display color assimilation processing is performed on the target pixel (i, j) set in step 406. (For example, gamma correction and synchronization processing) are performed.

次のステップ420では、画像処理部28により、上記ステップ418で行われた画像処理により得られた画素値が画素毎に所定の記憶領域(例えばメモリ26)に記憶されることにより画像が記憶され、その後、ステップ422へ移行する。   In the next step 420, the image processing unit 28 stores the image by storing the pixel value obtained by the image processing performed in step 418 in a predetermined storage area (for example, the memory 26) for each pixel. Thereafter, the process proceeds to step 422.

次のステップ422では、画像処理部28により、全ての画素に対する有彩色付与処理、表示色差別化処理又は表示色同化処理が終了したか否かが判定される。本ステップ422において全ての画素に対する有彩色付与処理、表示色差別化処理又は表示色同化処理が終了した場合は判定が肯定されてステップ424へ移行する。本ステップ422において全ての画素に対する有彩色付与処理、表示色差別化処理又は表示色同化処理が終了していない場合は判定が否定されてステップ406へ移行する。   In the next step 422, the image processing unit 28 determines whether or not the chromatic color providing process, the display color differentiation process, or the display color assimilation process for all the pixels has been completed. If the chromatic color providing process, the display color differentiation process, or the display color assimilation process for all the pixels is completed in step 422, the determination is affirmed and the process proceeds to step 424. If the chromatic color providing process, the display color differentiation process, or the display color assimilation process for all the pixels is not completed in step 422, the determination is negative and the process proceeds to step 406.

ステップ424では、画像処理部28により、上記ステップ400,420で所定の記憶領域に記憶された画像が所定の出力先に出力された後、本画像処理を終了する。なお、上記の「所定の出力先」としては、例えば表示制御部36が挙げられ、この他にも、撮影者等により外部装置への出力が操作部14を介して指示された場合は上記の「所定の出力先」として外部I/F40が適用される。   In step 424, the image processing unit 28 outputs the image stored in the predetermined storage area in steps 400 and 420 to a predetermined output destination, and then ends the image processing. The above-mentioned “predetermined output destination” includes, for example, the display control unit 36. In addition, when the output to the external apparatus is instructed by the photographer or the like via the operation unit 14, The external I / F 40 is applied as the “predetermined output destination”.

上記ステップ400,420で所定の記憶領域に記憶された画像が表示制御部36に出力されると、一例として図19、図20、図22又は図23に示すように表示装置にライブビュー画像が表示される。ライブビュー画像は、通常画像及びスプリットイメージを含む。スプリットイメージは、左目画像と右目画像とに大別される(例えば図20参照)。   When the image stored in the predetermined storage area in steps 400 and 420 is output to the display control unit 36, as an example, a live view image is displayed on the display device as shown in FIG. 19, FIG. 20, FIG. Is displayed. The live view image includes a normal image and a split image. Split images are roughly classified into left-eye images and right-eye images (see, for example, FIG. 20).

ここで、被写体に対して、撮影レンズ16のピントが合っていない場合は、スプリットイメージにおける左目画像と右目画像とが視差発生方向(一例として水平方向)にずれる。また、通常画像とスプリットイメージとの境界の画像も視差発生方向にずれる。これは、位相差が生じていることを表しており、撮影者はスプリットイメージを通して視覚的に位相差が生じていること及び視差発生方向を認識することができる。   Here, when the photographing lens 16 is not focused on the subject, the left-eye image and the right-eye image in the split image are shifted in the parallax generation direction (for example, the horizontal direction). In addition, the boundary image between the normal image and the split image is also shifted in the parallax generation direction. This indicates that a phase difference has occurred, and the photographer can visually recognize the phase difference and the parallax generation direction through the split image.

一方、被写体に対して、撮影レンズ16のピントが合っている場合は、スプリットイメージにおける左目画像と右目画像とがずれない。通常画像とスプリットイメージとの境界の画像もずれない。これは、位相差が生じていないことを表しており、撮影者はスプリットイメージを通して視覚的に位相差が生じていないことを認識することができる。   On the other hand, when the photographing lens 16 is in focus with respect to the subject, the left-eye image and the right-eye image in the split image do not shift. The boundary image between the normal image and the split image is not shifted. This indicates that no phase difference has occurred, and the photographer can recognize that no phase difference has occurred visually through the split image.

このように、撮影者は、表示装置に表示されるスプリットイメージにより撮影レンズ16の合焦状態を確認することができる。また、マニュアルフォーカスモード時には、撮影レンズ16のフォーカスリング302を手動操作することによりピントのずれ量(デフォーカス量)をゼロにすることができる。また、通常画像とスプリットイメージとをそれぞれ色ずれのないカラー画像で表示することができ、撮影者の手動によるフォーカス調整をカラーのスプリットイメージで支援することができる。   In this way, the photographer can confirm the in-focus state of the photographing lens 16 by the split image displayed on the display device. In the manual focus mode, the focus shift amount (defocus amount) can be reduced to zero by manually operating the focus ring 302 of the photographing lens 16. Further, the normal image and the split image can be displayed as color images without color misregistration, and the manual focus adjustment by the photographer can be supported by the color split image.

図17に示す表示色差別化処理において、画像処理部28によりステップ414Jの処理が実行されると、一例として図19に示すように、表示装置に通常画像が表示されると共に通常画像の色特性とは異なる色特性を有する色でスプリットイメージが表示される。図19に示す例では、通常画像の表示色が赤系(ここでは一例として橙系)の色とされており、スプリットイメージの表示色が青系の色とされている。この場合、例えば通常画像のR,G,Bの画素値の構成比として“R:G:B=0.35:0.35:0.3”、スプリットイメージのR,G,Bの画素値の構成比として“R:G:B=0.31:0.31:0.38”が挙げられる。このようにシーン全体(一例として通常画像)の色比が赤系の物体色の影響が強い場合はスプリットイメージの表示色として青系の色が採用される。逆に、シーン全体の色比が青系の物体色の影響が強い場合はスプリットイメージの表示色として赤系の色が採用される。従って、通常画像に対してスプリットイメージを引き立たせることができる。   In the display color differentiation process shown in FIG. 17, when the process of step 414J is executed by the image processing unit 28, as shown in FIG. 19, for example, a normal image is displayed on the display device and the color characteristics of the normal image are displayed. The split image is displayed in a color having a color characteristic different from the above. In the example shown in FIG. 19, the display color of the normal image is red (in this case, orange), and the display color of the split image is blue. In this case, for example, “R: G: B = 0.35: 0.35: 0.3” as the component ratio of the R, G, B pixel values of the normal image, and the R, G, B pixel values of the split image As the component ratio, “R: G: B = 0.31: 0.31: 0.38” can be given. Thus, when the color ratio of the entire scene (normal image as an example) is strongly influenced by the red object color, the blue color is adopted as the split image display color. Conversely, when the color ratio of the entire scene is strongly influenced by a blue object color, a red color is employed as the split image display color. Therefore, it is possible to make the split image stand out from the normal image.

また、図17に示す表示色差別化処理において、画像処理部28によりステップ414K,414L,414M,414Nの処理が実行されると、一例として図20に示すように、左目画像及び右目画像の色特性が異なるスプリットイメージが表示される。図20に示す例では、スプリットイメージにおける左目画像が青系の色とされており、スプリットイメージにおける右目画像が緑系の色とされている。なお、通常画像の表示色は、図19に示す例と同様に赤系(ここでは一例として橙系)の色とされている。これにより、通常画像に対してスプリットイメージを引き立たせることができ、かつ、スプリットイメージにおいて左目画像と右目画像とが識別し易くなる。   In addition, in the display color differentiation process shown in FIG. 17, when the image processing unit 28 executes the processes of steps 414K, 414L, 414M, and 414N, as shown in FIG. 20 as an example, the colors of the left eye image and the right eye image Split images with different characteristics are displayed. In the example shown in FIG. 20, the left-eye image in the split image has a blue color, and the right-eye image in the split image has a green color. Note that the display color of the normal image is a red color (here, orange) as in the example shown in FIG. As a result, the split image can be emphasized with respect to the normal image, and the left-eye image and the right-eye image can be easily identified in the split image.

通常画像が無彩色画像の場合(ステップ408:N)、スプリットイメージも無彩色画像のため、一例として図21に示すように通常画像とスプリットイメージとの境界が視認し難くなる。そこで、本第1実施形態に係る画像処理部28は、図16に示す有彩色付与処理を実行することにより、一例として図22に示すようにスプリットイメージに対して有彩色を付与している。図22に示す例では、スプリットイメージの表示色として青系の色が採用されている。これにより、無彩色の通常画像に対してスプリットイメージを引き立たせることができる。なお、画像処理部28により、光源色を推定して、推定した光源色において赤系の色が支配的ならばスプリットイメージの表示色を青系の色とし、推定した光源色において青系の色が支配的ならばスプリットイメージの表示色を赤系の色とするようにしてもよい。   If the normal image is an achromatic image (step 408: N), the split image is also an achromatic color image, so that it becomes difficult to visually recognize the boundary between the normal image and the split image as shown in FIG. Therefore, the image processing unit 28 according to the first embodiment applies a chromatic color to the split image as illustrated in FIG. 22 by executing the chromatic color applying process shown in FIG. In the example shown in FIG. 22, a blue color is adopted as the display color of the split image. As a result, the split image can be enhanced with respect to the achromatic normal image. Note that if the light source color is estimated by the image processing unit 28 and the red color is dominant in the estimated light source color, the display color of the split image is set to the blue color, and the blue color is used in the estimated light source color. If is dominant, the display color of the split image may be a red color.

また、図18に示す表示色同化処理が画像処理部28により実行されると、一例として図23に示すように、互いの表示色が同化された通常画像及びスプリットイメージが表示される。図23に示す例では、通常画像の物体色として赤系(一例として橙系)が支配的であるため、スプリットイメージの表示色として赤系の色が採用され、これにより、スプリットイメージが通常画像に対して溶け込むように表示される。従って、通常画像とスプリットイメージとの境界を視覚的に認識し難くすることができる。   When the display color assimilation process shown in FIG. 18 is executed by the image processing unit 28, as shown in FIG. 23 as an example, a normal image and a split image in which the display colors are assimilated are displayed. In the example shown in FIG. 23, the red color (an orange color as an example) is dominant as the object color of the normal image. Therefore, the red color is adopted as the display color of the split image. It is displayed to melt into. Therefore, it is possible to make it difficult to visually recognize the boundary between the normal image and the split image.

以上に説明にしたように、本第1実施形態に係る撮像装置100は、撮影レンズ16の射出瞳を通過する光束の光軸の左側及び右側(第1及び第2の領域を通過した被写体像の一例)が瞳分割されてそれぞれ結像される第1及び第2の画素群を含む。また、通常画像生成部の一例である画像処理部28は、第1及び第2の画素群を有する撮像素子20から出力された画像に基づいて第1の表示用画像の一例である通常画像を生成する(ステップ400)。また、第2の表示用画像生成部の一例である画像処理部28は、第1及び第2の画素群から出力された第1及び第2の画像に基づいて第2の表示用画像の一例であるスプリットイメージを生成する(ステップ402)。また、取得部の一例である画像処理部28は、生成した通常画像の色情報を取得する(ステップ414B)。また、決定部の一例である画像処理部28は、取得した色情報に基づいて、通常画像の色特性とは異なる色特性を有する色をスプリットイメージの表示色として決定する(ステップ414J,414M,414N)。これにより、本構成を有しない場合に比べ、通常画像とスプリットイメージとの境界線の視認性を向上させることができる。   As described above, the imaging apparatus 100 according to the first embodiment has the left and right sides of the optical axis of the light beam passing through the exit pupil of the photographing lens 16 (the subject image that has passed through the first and second regions). 1) includes first and second pixel groups that are divided into pupils and imaged respectively. The image processing unit 28, which is an example of a normal image generation unit, generates a normal image, which is an example of a first display image, based on an image output from the image sensor 20 having the first and second pixel groups. Generate (step 400). The image processing unit 28, which is an example of a second display image generation unit, is an example of a second display image based on the first and second images output from the first and second pixel groups. A split image is generated (step 402). In addition, the image processing unit 28, which is an example of an acquisition unit, acquires color information of the generated normal image (Step 414B). The image processing unit 28, which is an example of a determination unit, determines a color having a color characteristic different from the color characteristic of the normal image as a split image display color based on the acquired color information (steps 414J, 414M, 414N). Thereby, the visibility of the boundary line between the normal image and the split image can be improved as compared with the case where this configuration is not provided.

また、本第1実施形態に係る撮像装置100は、通常画像の色特性とは異なる色特性を有する色として、通常画像の色特性と異なる色特性であることが視認可能な色を採用している。これにより、本構成を有しない場合に比べ、通常画像とスプリットイメージとを視覚的に識別することができる。   In addition, the imaging apparatus 100 according to the first embodiment employs a color that can be visually recognized as having a color characteristic different from that of the normal image as a color having a color characteristic different from that of the normal image. Yes. Thereby, compared with the case where it does not have this structure, a normal image and a split image can be visually identified.

また、本第1実施形態に係る撮像装置100では、画像処理部28が通常画像から色情報を取得している。これにより、本構成を有しない場合に比べ、簡素な構成で、スプリットイメージの色特性と通常画像の色特性とを高精度に異ならせることができる。   In the imaging device 100 according to the first embodiment, the image processing unit 28 acquires color information from the normal image. Thereby, compared with the case where this configuration is not provided, the color characteristics of the split image and the color characteristics of the normal image can be differentiated with high accuracy with a simple configuration.

また、本第1実施形態に係る撮像装置100では、画像処理部28が、通常画像及びスプリットイメージに基づいて色情報を取得している。これにより、本構成を有しない場合に比べ、スプリットイメージの色特性と通常画像の色特性とを高精度に異ならせることができる。また、通常画像が白とびしていても第1及び第2の画素群は感度が低いため、色情報を取得することができる。なお、通常画像及び第1の画像に基づいて色情報を取得しもよいし、通常画像及び第2の画像に基づいて色情報を取得しもよいし、通常画像、第1の画像及び第2の画像に色情報を取得しもよい   In the imaging device 100 according to the first embodiment, the image processing unit 28 acquires color information based on the normal image and the split image. Thereby, compared with the case where this configuration is not provided, the color characteristics of the split image and the color characteristics of the normal image can be differentiated with high accuracy. Even if the normal image is overexposed, the first and second pixel groups have low sensitivity, so that color information can be acquired. Note that the color information may be acquired based on the normal image and the first image, the color information may be acquired based on the normal image and the second image, the normal image, the first image, and the second image. Color information may be obtained for images

また、本第1実施形態に係る撮像装置100では、撮像素子20が、通常画像の撮像に使用される通常撮像領域とスプリットイメージの撮像に使用されると共に通常撮像領域に隣接するスプリットイメージ撮像領域とを有する。そして、画像処理部28が、通常画像のうち通常撮像領域におけるスプリットイメージ撮像領域との境界側の縁部から出力された画像から色情報を取得している。これにより、本構成を有しない場合に比べ、通常画像とスプリットイメージとの境界を鮮明にすることができる。   Further, in the imaging apparatus 100 according to the first embodiment, the imaging element 20 is used for the normal imaging area used for imaging the normal image and the split image imaging area used for imaging the split image and adjacent to the normal imaging area. And have. Then, the image processing unit 28 acquires color information from an image output from an edge portion of the normal image on the boundary side with the split image imaging region in the normal imaging region. As a result, the boundary between the normal image and the split image can be made clearer than in the case without this configuration.

また、本第1実施形態に係る撮像装置100は、色情報として、通常画像の物体色の色特性を示す色情報を採用している。これにより、本構成を有しない場合に比べ、通常画像において光源色よりも物体色が支配的な場合であっても通常画像とスプリットイメージとの境界線の視認性を向上させることができる。   In addition, the imaging apparatus 100 according to the first embodiment employs color information indicating the color characteristics of the object color of the normal image as color information. Thereby, the visibility of the boundary line between the normal image and the split image can be improved even when the object color is more dominant than the light source color in the normal image, compared to the case without this configuration.

また、本第1実施形態に係る撮像装置100は、通常画像の色特性とは異なる色特性として、通常画像の物体色の色特性と異なる色特性を採用している。これにより、本構成を有しない場合に比べ、通常画像において光源色よりも物体色が支配的な場合であっても通常画像とスプリットイメージとの境界線の視認性を向上させることができる。   In addition, the imaging apparatus 100 according to the first embodiment employs a color characteristic different from the color characteristic of the normal image as the color characteristic different from the color characteristic of the normal image. Thereby, the visibility of the boundary line between the normal image and the split image can be improved even when the object color is more dominant than the light source color in the normal image, compared to the case without this configuration.

また、本第1実施形態に係る撮像装置100は、色特性として色相を適用している。これにより、本構成を有しない場合に比べ、簡素な構成で、通常画像とスプリットイメージとの境界線の視認性をより一層向上させることができる。   Further, the imaging device 100 according to the first embodiment applies hue as the color characteristic. Accordingly, the visibility of the boundary line between the normal image and the split image can be further improved with a simple configuration as compared with the case where the present configuration is not provided.

また、本第1実施形態に係る撮像装置100は、通常画像の色特性とは異なる色特性を有する色として、色相環において通常画像の物体色と予め定められた角度離れた色を採用している。これにより、本構成を有しない場合に比べ、通常画像の色特性とは異なる色特性を有する色として適切な物体色を容易に決めることができる。   In addition, the imaging apparatus 100 according to the first embodiment employs a color that has a color characteristic different from the color characteristic of the normal image and that is separated from the object color of the normal image by a predetermined angle in the hue circle. Yes. Accordingly, an object color suitable as a color having a color characteristic different from the color characteristic of the normal image can be easily determined as compared with the case without this configuration.

また、本第1実施形態に係る撮像装置100は、上記の予め定められた角度として、通常画像の物体色の色特性と異なる色特性であることが視認可能な色が得られる角度を採用している。これにより、本構成を有しない場合に比べ、通常画像に対してスプリットイメージを鮮明に引き立たせることができる。   In addition, the imaging apparatus 100 according to the first embodiment employs an angle at which a color that can be visually recognized as having a color characteristic different from the color characteristic of the object color of the normal image is obtained as the predetermined angle. ing. Thereby, compared with the case where this structure is not provided, a split image can be clearly shown with respect to a normal image.

また、本第1実施形態に係る撮像装置100は、通常画像の物体色の色特性として、通常画像における原色成分の構成比を採用している。これにより、本構成を有しない場合に比べ、通常画像の物体色の色特性として、通常画像とスプリットイメージとの境界線の視認性を向上させる上で適切な色特性を容易に特定することができる。   In addition, the imaging apparatus 100 according to the first embodiment employs the composition ratio of the primary color components in the normal image as the color characteristic of the object color of the normal image. As a result, it is possible to easily identify an appropriate color characteristic for improving the visibility of the boundary line between the normal image and the split image as the color characteristic of the object color of the normal image, as compared with the case without this configuration. it can.

また、本第1実施形態に係る撮像装置100は、通常画像における原色成分の構成比として、ホワイトバランスの実施後の前記通常画像における原色成分の構成比を採用している。これにより、本構成を有しない場合に比べ、ホワイトバランスが実施された通常画像とスプリットイメージとの境界線を鮮明にすることができる。   In addition, the imaging apparatus 100 according to the first embodiment employs the composition ratio of the primary color components in the normal image after the white balance is implemented as the composition ratio of the primary color components in the normal image. Thereby, compared with the case where this configuration is not provided, the boundary line between the normal image and the split image in which the white balance is performed can be made clear.

また、本第1実施形態に係る撮像装置100では、推定部の一例である画像処理部28が通常画像に基づいて光源色を推定する。そして、ホワイトバランスで用いられる原色成分に対するゲインが画像処理部28により推定された光源色に応じて定められている。これにより、本構成を有しない場合に比べ、ホワイトバランスが実施された通常画像とスプリットイメージとの境界線の視認性を光源色を加味して向上させることができる。   In the imaging apparatus 100 according to the first embodiment, the image processing unit 28, which is an example of an estimation unit, estimates a light source color based on a normal image. Then, a gain for the primary color component used in white balance is determined according to the light source color estimated by the image processing unit 28. Thereby, the visibility of the boundary line between the normal image and the split image on which the white balance is performed can be improved in consideration of the light source color as compared with the case where the present configuration is not provided.

また、本第1実施形態に係る撮像装置100では、通常画像における原色成分の構成比が、通常画像における物体色の原色成分の各々についての画素値の平均値に基づいて定められている。これにより、本構成を有しない場合に比べ、通常画像における原色成分の構成比として、通常画像とスプリットイメージとの境界線の視認性を向上させる上で適切な構成比を容易に得ることができる。   In the imaging apparatus 100 according to the first embodiment, the composition ratio of the primary color components in the normal image is determined based on the average value of the pixel values for each of the primary color components of the object color in the normal image. As a result, as compared with the case without this configuration, it is possible to easily obtain an appropriate configuration ratio for improving the visibility of the boundary line between the normal image and the split image as the configuration ratio of the primary color components in the normal image. .

また、本第1実施形態に係る撮像装置100では、減少関数を含む入出力関数により通常画像における原色成分の構成比を変換して得た変換後の構成比を、通常画像の色特性とは異なる色特性として採用している。これにより、本構成を有しない場合に比べ、簡素な構成で、通常画像とスプリットイメージとの境界線の視認性を向上させることができる。   In the imaging apparatus 100 according to the first embodiment, the converted composition ratio obtained by converting the composition ratio of the primary color components in the normal image using the input / output function including the decrease function is the color characteristic of the normal image. Adopted as different color characteristics. Thereby, the visibility of the boundary line between the normal image and the split image can be improved with a simple configuration as compared with the case where the present configuration is not provided.

また、本第1実施形態に係る撮像装置100では、第1及び第2の画素群の各々を、単一色の画素群とし、画像処理部28が、第1及び第2の画素群から出力された第1及び第2の画像に基づいて、スプリットイメージとして無彩色の画像を生成している。これにより、本構成を有しない場合に比べ、簡素な構成で、無彩色のスプリットイメージを得ることができる。   In the imaging device 100 according to the first embodiment, each of the first and second pixel groups is a single color pixel group, and the image processing unit 28 is output from the first and second pixel groups. An achromatic image is generated as a split image based on the first and second images. Thereby, it is possible to obtain an achromatic split image with a simple configuration as compared with the case without this configuration.

また、本第1実施形態に係る撮像装置100では、上記の単一色の画素群として緑色の画素群を採用している。これにより、本構成を有しない場合に比べ、無彩色のスプリットイメージとして高精度な無彩色画像を得ることができる。   In the imaging apparatus 100 according to the first embodiment, a green pixel group is employed as the single color pixel group. Thereby, compared with the case where this configuration is not provided, it is possible to obtain a highly accurate achromatic image as an achromatic split image.

また、本第1実施形態に係る撮像装置100では、画像処理部28により、スプリットイメージが無彩色画像の場合、取得した色情報に基づいて、通常画像の色特性とは異なる色特性を有する有彩色をスプリットイメージの表示色として決定している。これにより、本構成を有しない場合に比べ、簡素な構成で、スプリットイメージの表示色としての有彩色を決定することができる。   In the imaging apparatus 100 according to the first embodiment, when the split image is an achromatic image, the image processing unit 28 has a color characteristic different from that of the normal image based on the acquired color information. The coloring is determined as the display color of the split image. Thereby, it is possible to determine the chromatic color as the display color of the split image with a simple configuration as compared with the case without this configuration.

また、本第1実施形態に係る撮像装置100では、画像処理部28が、通常画像及びスプリットイメージが無彩色画像の場合、取得した色情報に基づいて、通常画像の色特性とは異なる色特性を有する有彩色をスプリットイメージの表示色として決定している。これにより、本構成を有しない場合に比べ、通常画像とスプリットイメージとの境界線の視認性を向上させることができる。   Further, in the imaging apparatus 100 according to the first embodiment, when the normal image and the split image are achromatic images, the image processing unit 28 has color characteristics different from the color characteristics of the normal image based on the acquired color information. The chromatic color having the is determined as the display color of the split image. Thereby, the visibility of the boundary line between the normal image and the split image can be improved as compared with the case where this configuration is not provided.

また、本第1実施形態に係る撮像装置100では、画像処理部28が、通常画像の色特性とは異なる色特性を有する有彩色であってスプリットイメージにおける左目画像と右目画像とで異なる有彩色をスプリットイメージの表示色として決定している。これにより、本構成を有しない場合に比べ、スプリットイメージにおいて左目画像と右目画像とが視覚的に識別し易くなる。   In the imaging apparatus 100 according to the first embodiment, the image processing unit 28 is a chromatic color having a color characteristic different from the color characteristic of the normal image, and is different for the left-eye image and the right-eye image in the split image. Is determined as the split image display color. This makes it easier to visually distinguish the left-eye image and the right-eye image in the split image compared to the case without this configuration.

また、本第1実施形態に係る撮像装置100では、スプリットイメージとして、左目画像と右目画像とが視差発生方向と交差する方向(予め定められた方向の一例)に交互に配置された画像を採用している。これにより、スプリットイメージにおいて左目画像と右目画像とが視覚的により一層識別し易くなる。   In the imaging apparatus 100 according to the first embodiment, as the split image, an image in which the left eye image and the right eye image are alternately arranged in a direction intersecting the parallax generation direction (an example of a predetermined direction) is employed. doing. This makes it easier to visually distinguish the left eye image and the right eye image in the split image.

また、本第1実施形態に係る撮像装置100では、画像処理部28が、表示色同化条件を満足した場合、取得した色情報に基づいて、通常画像の色特性に予め定められた度合いで近付けた色特性を有する色をスプリットイメージの表示色として更に決定している。これにより、本構成を有しない場合に比べ、通常画像とスプリットイメージとの境界を視覚的に認識し難くすることができる。   In the imaging apparatus 100 according to the first embodiment, when the image processing unit 28 satisfies the display color assimilation condition, the image processing unit 28 approaches the color characteristics of the normal image with a predetermined degree based on the acquired color information. Further, the color having the above color characteristic is further determined as the display color of the split image. As a result, it is possible to make it difficult to visually recognize the boundary between the normal image and the split image as compared with the case where this configuration is not provided.

また、本第1実施形態に係る撮像装置100は、表示装置に対して同画面内において通常画像と画像処理部28により表示色が補正されたスプリットイメージとを並べて表示させる制御を行う表示制御部36を更に含む。これにより、本構成を有しない場合に比べ、簡素な構成で、通常画像とスプリットイメージとの境界線を視認することができる。   In addition, the imaging apparatus 100 according to the first embodiment includes a display control unit that performs control to display a normal image and a split image whose display color is corrected by the image processing unit 28 side by side on the same screen on the display device. 36 is further included. Thereby, it is possible to visually recognize the boundary line between the normal image and the split image with a simple configuration as compared with the case where this configuration is not provided.

また、本第1実施形態に係る撮像装置100では、撮像素子20が、第3の画素群を有し、画像処理部28が、第3の画素群から出力される第3の画像に基づいて通常画像を生成する。これにより、本構成を有しない場合に比べ、通常画像の画質を向上させることができる。   In the imaging device 100 according to the first embodiment, the imaging element 20 includes the third pixel group, and the image processing unit 28 is based on the third image output from the third pixel group. A normal image is generated. Thereby, compared with the case where this structure is not provided, the image quality of a normal image can be improved.

なお、上記第1実施形態では、WBの実施後の通常画像における原色成分の構成比を採用しているが、これに限らず、WBの実施前の通常画像における原色成分の構成比であってもよいし、ガンマ補正後の通常画像における原色成分の構成比であってもよい。   In the first embodiment, the composition ratio of the primary color components in the normal image after the implementation of WB is adopted. However, the configuration ratio is not limited to this, and the composition ratio of the primary color components in the normal image before implementation of the WB. Alternatively, it may be a composition ratio of primary color components in a normal image after gamma correction.

また、上記第1実施形態では、通常画像から取得される色情報の一例である画素値として通常画像の物体色のR,G,Bの画素値を採用した場合の形態例を挙げて説明したが、これに限らず、光源色のR,G,Bの画素値を採用してもよい。これにより、通常画像において物体色よりも光源色が支配的な場合であっても通常画像とスプリットイメージとの境界線の視認性を向上させることができる。   Further, in the first embodiment described above, an example in which the R, G, and B pixel values of the object color of the normal image are employed as the pixel value that is an example of the color information acquired from the normal image has been described. However, the present invention is not limited to this, and R, G, and B pixel values of the light source color may be adopted. Thereby, even when the light source color is more dominant than the object color in the normal image, the visibility of the boundary line between the normal image and the split image can be improved.

また、上記第1実施形態では、有彩色付与処理及び表示色差別処理において表示装置の種類に依存しない構成比で画素値を補正する例を挙げて説明したが、表示装置の種類に応じて定めた構成比で画素値を補正してもよい。例えば、接眼検出部37によりEVF248の使用が検出された場合、上記第1実施形態で説明した画素値の補正で用いる構成比に対して更なる補正項(例えばプラスの補正項)を付加して得た構成比を用いて画素値の補正を行う。これにより、表示部213よりも表示面積が小さなEVF248が使用された場合であっても、通常画像とスプリットイメージとの境界を視覚的に認識可能となる。   In the first embodiment, the example in which the pixel value is corrected with a configuration ratio that does not depend on the type of the display device in the chromatic color imparting process and the display color discrimination process has been described. However, it is determined according to the type of the display device. The pixel value may be corrected with the above-described composition ratio. For example, when the use of the EVF 248 is detected by the eyepiece detection unit 37, a further correction term (for example, a positive correction term) is added to the component ratio used in the pixel value correction described in the first embodiment. The pixel value is corrected using the obtained composition ratio. Thereby, even when the EVF 248 having a display area smaller than that of the display unit 213 is used, the boundary between the normal image and the split image can be visually recognized.

また、上記第1実施形態では、第1入出力関数F(W)の出力値の最大を“1”としたが、“1”を超える値としてもよい。第1入出力関数F(W)の出力値が“1”を超えた場合はその後に正規化処理を行うことで“1”以下の値に補正すればよい。なお、第2入出力関数G(W)の出力値についても同様である。   In the first embodiment, the maximum output value of the first input / output function F (W) is “1”, but may be a value exceeding “1”. When the output value of the first input / output function F (W) exceeds “1”, the value may be corrected to “1” or less by performing a normalization process thereafter. The same applies to the output value of the second input / output function G (W).

また、上記第1実施形態では、特定の画像から取得したR,G,Bの画素値の平均値からR,G,Bの画素値の構成比を算出する例を挙げて説明したが、特定の画像から取得したR,G,Bの画素値の代表値からR,G,Bの画素値の構成比を算出してもよい。ここで言う代表値としては、特定の画像から取得したR,G,Bの画素値のモードやメジアンなどが例示できる。   In the first embodiment, the example in which the composition ratio of the R, G, and B pixel values is calculated from the average value of the R, G, and B pixel values acquired from the specific image has been described. The component ratio of the R, G, and B pixel values may be calculated from the representative values of the R, G, and B pixel values acquired from the image. The representative value mentioned here can be exemplified by the mode, median, and the like of R, G, and B pixel values acquired from a specific image.

また、上記第1実施形態では、位相差画素としてG画素を例示したが、これに限らず、R,G,B画素の何れかであってもよい。また、上記第1実施形態では、位相差画素として単色画素を例示したが、これに限らず、R,G,B画素のうちの2つ以上の画素を位相差画素として用いてもよい。この場合、スプリットイメージとしてカラー画像が表示されるが、この場合であっても本発明は成立する。なお、複数色の位相差画素を採用する場合よりも上記第1実施形態で説明したように単色の位相差画素を用いた方が画素値の補正処理にかかる時間は短くて済むし、視覚的に背景色(例えば通常画像の表示色)との識別がし易くなる。   In the first embodiment, the G pixel is exemplified as the phase difference pixel. However, the present invention is not limited to this, and any of R, G, and B pixels may be used. In the first embodiment, a monochromatic pixel is exemplified as the phase difference pixel. However, the present invention is not limited to this, and two or more of the R, G, and B pixels may be used as the phase difference pixel. In this case, a color image is displayed as a split image. Even in this case, the present invention is established. It should be noted that, as described in the first embodiment, the time required for the pixel value correction processing is shorter and the visual processing is shorter when the single-color phase-difference pixels are used, as compared with the case where the phase-difference pixels of a plurality of colors are employed. In addition, it is easy to distinguish from the background color (for example, the display color of the normal image).

また、上記第1実施形態では、レフレックスミラーが省略されたレンズ交換式のデジタルカメラを例示したが、これに限らず、一体型レンズを有する撮像装置に対しても本発明を適用することができる。   In the first embodiment, the interchangeable lens type digital camera in which the reflex mirror is omitted is illustrated. However, the present invention is not limited to this, and the present invention can also be applied to an imaging apparatus having an integrated lens. it can.

また、上記第1実施形態では、表示部213及びEVF248を有する撮像装置100を例示したが、これに限らず、表示部213及びEVF248の何れか一方を有しているものであってもよい。   Moreover, in the said 1st Embodiment, although the imaging device 100 which has the display part 213 and EVF248 was illustrated, it is not restricted to this, You may have any one of the display part 213 and EVF248.

また、上記第1実施形態では、上下方向に複数分割されたスプリットイメージを例示したが、これに限らず、左右方向又は斜め方向に複数分割された画像をスプリットイメージとして適用してもよい。   In the first embodiment, the split image divided into a plurality of parts in the vertical direction is illustrated. However, the present invention is not limited to this, and an image divided into a plurality of parts in the left-right direction or the oblique direction may be applied as the split image.

また、上記第1実施形態では、スプリットイメージを表示する形態例を挙げて説明したが、これに限らず、左目画像及び右目画像から他の合焦確認画像を生成し、合焦確認画像を表示するようにしてもよい。例えば、左目画像及び右目画像を重畳して合成表示し、ピントがずれている場合は2重像として表示され、ピントが合った状態ではクリアに画像が表示されるようにしてもよい。   In the first embodiment, the example of displaying the split image has been described. However, the present invention is not limited to this. Other focus confirmation images are generated from the left eye image and the right eye image, and the focus confirmation image is displayed. You may make it do. For example, the left-eye image and the right-eye image may be superimposed and displayed as a composite image. If the image is out of focus, the image may be displayed as a double image, and the image may be clearly displayed when the image is in focus.

また、上記第1実施形態では、図12に示す入出力関数F(W)に従って出力用の表示色を決定する例を挙げて説明したが、これに限らず、所定の記憶領域(例えばメモリ26)に予め記憶しておいた色変換テーブルを用いて出力用の表示色を決定してもよい。この場合、色変換テーブルの一例としては、入力値の増加に従って出力値が減少する色変換テーブルが挙げられる。また、色変換テーブルの入力及び出力に係るデータは、図12に示す入出力関数F(W)に基づいて作成されたデータであってもよいし、色相環に基づいて作成されたデータであってもよい。これにより、簡素な構成で、通常画像とスプリットイメージとの境界線の視認性を向上させることができる。なお、図13に示す入出力関数G(W)に従って出力用の表示色を決定する場合も同様のことが言える。   In the first embodiment, the example in which the display color for output is determined according to the input / output function F (W) shown in FIG. 12 has been described. However, the present invention is not limited to this. The display color for output may be determined using a color conversion table stored in advance in (1). In this case, an example of the color conversion table is a color conversion table in which the output value decreases as the input value increases. Further, the data relating to the input and output of the color conversion table may be data created based on the input / output function F (W) shown in FIG. 12, or data created based on the hue circle. May be. Thereby, the visibility of the boundary line between the normal image and the split image can be improved with a simple configuration. The same applies to the case where the display color for output is determined according to the input / output function G (W) shown in FIG.

また、上記第1実施形態で説明した画像出力処理の流れ(図14参照)、ホワイトバランス処理の流れ(図15参照)、有彩色付与処理の流れ(図16参照)、表示色差別化処理の流れ(図17参照)及び表示色同化処理の流れ(図18参照)は一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。また、画像出力処理に含まれる各処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現されてもよいし、ハードウェア構成で実現されてもよい。また、ハードウェア構成とソフトウェア構成の組み合わせによって実現してもよい。ホワイトバランス処理、有彩色付与処理、表示色差別化処理及び表示色同化処理についても同様である。   Also, the image output process flow (see FIG. 14), the white balance process flow (see FIG. 15), the chromatic color application process flow (see FIG. 16), and the display color differentiation process described in the first embodiment. The flow (see FIG. 17) and the display color assimilation process (see FIG. 18) are examples. Therefore, it goes without saying that unnecessary steps may be deleted, new steps may be added, and the processing order may be changed within a range not departing from the spirit. Each process included in the image output process may be realized by a software configuration using a computer by executing a program, or may be realized by a hardware configuration. Further, it may be realized by a combination of a hardware configuration and a software configuration. The same applies to the white balance processing, chromatic color imparting processing, display color differentiation processing, and display color assimilation processing.

なお、画像出力処理を、コンピュータによりプログラムを実行することにより実現する場合は、プログラムを所定の記憶領域(例えばメモリ26)に予め記憶しておけばよい。ホワイトバランス処理、有彩色付与処理、表示色差別化処理及び表示色同化処理についても同様である。なお、必ずしも最初からメモリ26に記憶させておく必要はない。例えば、コンピュータに接続されて使用されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの任意の「可搬型の記憶媒体」に先ずはプログラムを記憶させておいてもよい。そして、コンピュータがこれらの可搬型の記憶媒体からプログラムを取得して実行するようにしてもよい。また、インターネットやLAN(Local Area Network)などを介してコンピュータに接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータがこれらからプログラムを取得して実行するようにしてもよい。   When the image output process is realized by executing a program by a computer, the program may be stored in a predetermined storage area (for example, the memory 26) in advance. The same applies to the white balance processing, chromatic color imparting processing, display color differentiation processing, and display color assimilation processing. It is not always necessary to store in the memory 26 from the beginning. For example, a program is first stored in an arbitrary “portable storage medium” such as a flexible disk connected to a computer, so-called FD, CD-ROM, DVD disk, magneto-optical disk, IC card or the like. Also good. Then, the computer may acquire the program from these portable storage media and execute it. Also, each program may be stored in another computer or server device connected to the computer via the Internet, a LAN (Local Area Network), etc., and the computer may acquire and execute the program from these. Good.

[第2実施形態]
上記第1実施形態では、撮像装置100を例示したが、撮像装置100の変形例である携帯端末装置としては、例えばカメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機などが挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
[Second Embodiment]
In the first embodiment, the imaging device 100 is illustrated. However, as a mobile terminal device that is a modification of the imaging device 100, for example, a mobile phone or a smartphone having a camera function, a PDA (Personal Digital Assistants), a portable game machine Etc. Hereinafter, a smartphone will be described as an example, and will be described in detail with reference to the drawings.

図24は、スマートフォン500の外観の一例を示す斜視図である。図24に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532と、操作部540と、カメラ部541とを備えている。なお、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド構造を有する構成を採用することもできる。   FIG. 24 is a perspective view illustrating an example of the appearance of the smartphone 500. A smartphone 500 illustrated in FIG. 24 includes a flat housing 502, and a display input in which a display panel 521 serving as a display unit and an operation panel 522 serving as an input unit are integrated on one surface of the housing 502. Part 520. The housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541. Note that the configuration of the housing 502 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent, or a configuration having a folding structure or a slide structure may be employed.

図25は、図24に示すスマートフォン500の構成の一例を示すブロック図である。図25に示すように、スマートフォン500の主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、を備える。また、スマートフォン500の主たる構成要素として、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501と、を備える。また、スマートフォン500の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。   FIG. 25 is a block diagram showing an example of the configuration of the smartphone 500 shown in FIG. As shown in FIG. 25, the main components of the smartphone 500 include a wireless communication unit 510, a display input unit 520, a call unit 530, an operation unit 540, a camera unit 541, a storage unit 550, and an external input / output. Part 560. In addition, as a main component of the smartphone 500, a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501 are provided. In addition, as a main function of the smartphone 500, a wireless communication function for performing mobile wireless communication via the base station device BS and the mobile communication network NW is provided.

無線通信部510は、主制御部501の指示に従って、移動通信網NWに収容された基地局装置BSに対して無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。   The radio communication unit 510 performs radio communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.

表示入力部520は、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。そのため、表示入力部520は、主制御部501の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する。なお、生成された3Dを鑑賞する場合には、表示パネル521は、3D表示パネルであることが好ましい。   The display input unit 520 is a so-called touch panel, and includes a display panel 521 and an operation panel 522. For this reason, the display input unit 520 displays images (still images and moving images), character information, and the like visually by controlling the main control unit 501, and visually transmits information to the user, and performs user operations on the displayed information. To detect. Note that when viewing the generated 3D, the display panel 521 is preferably a 3D display panel.

表示パネル521は、LCD、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。   The display panel 521 uses an LCD, an OELD (Organic Electro-Luminescence Display), or the like as a display device. The operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus. When such a device is operated by a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects an operation position (coordinates) on the display panel 521 based on the received detection signal.

図24に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。   As shown in FIG. 24, the display panel 521 and the operation panel 522 of the smartphone 500 integrally form the display input unit 520, but the operation panel 522 is disposed so as to completely cover the display panel 521. ing. When this arrangement is adopted, the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521. In other words, the operation panel 522 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 521 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 521. May be included).

なお、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。   Note that the size of the display area and the size of the display panel 521 may be completely matched, but it is not always necessary to match the two. In addition, the operation panel 522 may include two sensitive regions of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like. Furthermore, examples of the position detection method employed in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also

通話部530は、スピーカ531やマイクロホン532を備える。通話部530は、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力する。また、通話部530は、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力する。また、図24に示すように、例えば、スピーカ531を表示入力部520が設けられた面と同じ面に搭載し、マイクロホン532を筐体502の側面に搭載することができる。   The call unit 530 includes a speaker 531 and a microphone 532. The call unit 530 converts the user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501 and outputs the voice data to the main control unit 501. Further, the call unit 530 decodes the audio data received by the wireless communication unit 510 or the external input / output unit 560 and outputs it from the speaker 531. As shown in FIG. 24, for example, the speaker 531 can be mounted on the same surface as the display input unit 520 and the microphone 532 can be mounted on the side surface of the housing 502.

操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図24に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。   The operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user. For example, as illustrated in FIG. 24, the operation unit 540 is mounted on the side surface of the housing 502 of the smartphone 500 and is turned on when pressed with a finger or the like, and is turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.

記憶部550は、主制御部501の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータを記憶する。また、記憶部550は、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶する。また、記憶部550は、ストリーミングデータなどを一時的に記憶する。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552を有する。なお、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)などの格納媒体を用いて実現される。格納媒体としては、この他にも、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)が例示できる。   The storage unit 550 stores the control program and control data of the main control unit 501, application software, address data that associates the name and telephone number of the communication partner, and transmitted / received e-mail data. In addition, the storage unit 550 stores Web data downloaded by Web browsing and downloaded content data. The storage unit 550 temporarily stores streaming data and the like. In addition, the storage unit 550 includes an external storage unit 552 having an internal storage unit 551 built in the smartphone and a removable external memory slot. Each of the internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 is realized using a storage medium such as a flash memory type or a hard disk type. Other storage media include multimedia card micro type, card type memory (for example, MicroSD (registered trademark) memory, etc.), RAM (Random Access Memory), ROM (Read Only Memory). ) Can be exemplified.

外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等又はネットワークにより直接的又は間接的に接続するためのものである。他の外部機器に通信等としては、例えば、ユニバーサルシリアルバス(USB)、IEEE1394などが挙げられる。ネットワークとしては、例えば、インターネット、無線LAN、ブルートゥース(Bluetooth(登録商標))、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA(登録商標))が挙げられる。また、ネットワークの他の例としては、UWB(Ultra Wideband(登録商標))、ジグビー(ZigBee(登録商標))などが挙げられる。   The external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and is used to connect directly or indirectly to other external devices through communication or the like or a network. is there. Examples of communication with other external devices include universal serial bus (USB), IEEE 1394, and the like. Examples of the network include the Internet, wireless LAN, Bluetooth (Bluetooth (registered trademark)), RFID (Radio Frequency Identification), and infrared communication (Infrared Data Association: IrDA (registered trademark)). Other examples of the network include UWB (Ultra Wideband (registered trademark)) and ZigBee (registered trademark).

スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)が挙げられる。外部機器の他の例としては、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器が挙げられる。外部オーディオ・ビデオ機器の他にも、無線接続される外部オーディオ・ビデオ機器が挙げられる。また、外部オーディオ・ビデオ機器に代えて、例えば有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなども適用可能である。   Examples of the external device connected to the smartphone 500 include a memory card connected via a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, and a card socket. Other examples of the external device include a SIM (Subscriber Identity Module Card) / UIM (User Identity Module Card) card, and an external audio / video device connected via an audio / video I / O (Input / Output) terminal. Can be mentioned. In addition to the external audio / video device, an external audio / video device that is wirelessly connected can be used. Also, instead of external audio / video devices, for example, smartphones with wired / wireless connection, personal computers with wired / wireless connection, PDAs with wired / wireless connection, personal computers with wired / wireless connection, earphones, etc. also apply Is possible.

外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。   The external input / output unit may transmit data received from such an external device to each component inside the smartphone 500, or may allow data inside the smartphone 500 to be transmitted to the external device. it can.

GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。   The GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 501, performs positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 500 Detect the position consisting of longitude and altitude. When the GPS reception unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN), the GPS reception unit 570 can also detect the position using the position information.

モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。   The motion sensor unit 580 includes, for example, a three-axis acceleration sensor and detects the physical movement of the smartphone 500 in accordance with an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.

電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。   The power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 in accordance with an instruction from the main control unit 501.

主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。   The main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the storage unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 510.

アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。   The application processing function is realized by the main control unit 501 operating according to application software stored in the storage unit 550. Application processing functions include, for example, an infrared communication function that controls the external input / output unit 560 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .

また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。   Further, the main control unit 501 has an image processing function such as displaying video on the display input unit 520 based on image data (still image or moving image data) such as received data or downloaded streaming data. The image processing function is a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.

更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御とを実行する。   Further, the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.

表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。   By executing the display control, the main control unit 501 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail. Note that the scroll bar refers to a software key for accepting an instruction to move a display portion of an image, such as a large image that does not fit in the display area of the display panel 521.

また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたりする。また、操作検出制御の実行により、主制御部501は、スクロールバーを通じた表示画像のスクロール要求を受け付ける。   Further, by executing the operation detection control, the main control unit 501 detects a user operation through the operation unit 540, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 522. Or In addition, by executing the operation detection control, the main control unit 501 accepts a display image scroll request through a scroll bar.

更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル21に重ならない外縁部分(非表示領域)かを判定する。そして、この判定結果を受けて、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。   Furthermore, by executing the operation detection control, the main control unit 501 causes the operation position with respect to the operation panel 522 to overlap with the display panel 521 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 21. ) In response to the determination result, a touch panel control function for controlling the sensitive area of the operation panel 522 and the display position of the software key is provided.

また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。   The main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function in accordance with the detected gesture operation. Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.

カメラ部541は、CMOSやCCDなどの撮像素子を用いて撮像するデジタルカメラであり、図1等に示す撮像装置100と同様の機能を備えている。   The camera unit 541 is a digital camera that captures an image using an image sensor such as a CMOS or a CCD, and has the same function as the image capturing apparatus 100 illustrated in FIG.

また、カメラ部541は、マニュアルフォーカスモードとオートフォーカスモードとを切り替え可能である。マニュアルフォーカスモードが選択されると、操作部540又は表示入力部520に表示されるフォーカス用のアイコンボタン等を操作することにより、カメラ部541の撮影レンズのピント合わせを行うことができる。そして、マニュアルフォーカスモード時には、スプリットイメージが合成されたライブビュー画像を表示パネル521に表示させ、これによりマニュアルフォーカス時の合焦状態を確認できるようにしている。なお、図9に示すハイブリッドファインダー220をスマートフォン500に設けるようにしてもよい。   The camera unit 541 can switch between a manual focus mode and an autofocus mode. When the manual focus mode is selected, the photographing lens of the camera unit 541 can be focused by operating a focus icon button or the like displayed on the operation unit 540 or the display input unit 520. In the manual focus mode, the live view image obtained by combining the split images is displayed on the display panel 521 so that the in-focus state during the manual focus can be confirmed. In addition, you may make it provide the smart phone 500 with the hybrid finder 220 shown in FIG.

また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換する。そして、変換して得た画像データを記憶部550に記録したり、入出力部560や無線通信部510を通じて出力することができる。図24に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。なお、複数のカメラ部541が搭載されている場合には、撮像に供するカメラ部541を切り替えて単独にて撮像したり、あるいは、複数のカメラ部541を同時に使用して撮像したりすることもできる。   Further, the camera unit 541 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic coding Experts Group) under the control of the main control unit 501. The converted image data can be recorded in the storage unit 550 or output through the input / output unit 560 or the wireless communication unit 510. In the smartphone 500 shown in FIG. 24, the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this, and the camera unit 541 may be mounted on the back surface of the display input unit 520. Alternatively, a plurality of camera units 541 may be mounted. Note that when a plurality of camera units 541 are mounted, the camera unit 541 used for imaging may be switched and imaged alone, or a plurality of camera units 541 may be used simultaneously for imaging. it can.

また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。   The camera unit 541 can be used for various functions of the smartphone 500. For example, an image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of operation inputs of the operation panel 522. Further, when the GPS receiving unit 570 detects the position, the position can also be detected with reference to an image from the camera unit 541. Furthermore, referring to an image from the camera unit 541, the optical axis direction of the camera unit 541 of the smartphone 500 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment. Of course, the image from the camera unit 541 can be used in the application software.

その他、静止画又は動画の画像データに各種情報を付加して記憶部550に記録したり、入出力部560や無線通信部510を通じて出力したりすることもできる。ここで言う「各種情報」としては、例えば、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)が挙げられる。この他にも、モーションセンサ部580により取得した姿勢情報等などであってもよい。   In addition, various information can be added to still image or moving image data and recorded in the storage unit 550, or can be output through the input / output unit 560 or the wireless communication unit 510. Examples of the “various information” herein include, for example, position information acquired by the GPS receiving unit 570 and image information of the still image or moving image, audio information acquired by the microphone 532 (sound text conversion by the main control unit or the like). May be text information). In addition, posture information acquired by the motion sensor unit 580 may be used.

なお、上記各実施形態では、第1〜第3の画素群を有する撮像素子20を例示したが、本発明はこれに限定されるものではなく、第1の画素群及び第2の画素群のみからなる撮像素子であってもよい。この種の撮像素子を有するデジタルカメラは、第1の画素群から出力された第1の画像及び第2の画素群から出力された第2の画像に基づいて3次元画像(3D画像)を生成することができるし、2次元画像(2D画像)も生成することができる。この場合、2次元画像の生成は、例えば第1の画像及び第2の画像の相互における同色の画素間で補間処理を行うことで実現される。また、補間処理を行わずに、第1の画像又は第2の画像を2次元画像として採用してもよい。   In each of the above embodiments, the image pickup device 20 having the first to third pixel groups is illustrated, but the present invention is not limited to this, and only the first pixel group and the second pixel group. An image sensor made of A digital camera having this type of image sensor generates a three-dimensional image (3D image) based on the first image output from the first pixel group and the second image output from the second pixel group. 2D images (2D images) can also be generated. In this case, the generation of the two-dimensional image is realized, for example, by performing an interpolation process between pixels of the same color in the first image and the second image. Moreover, you may employ | adopt a 1st image or a 2nd image as a two-dimensional image, without performing an interpolation process.

上記各実施形態では、通常画像の表示領域内にスプリットイメージが表示される例を挙げて説明したが、本発明はこれに限定されるものではなく、表示装置に対して通常画像(第1の表示用画像の一例)を表示させずにスプリットイメージ(第2の表示用画像)を表示させてもよい。また、全画面を使用してスプリットイメージを表示させてもよい。ここで言う「スプリットイメージ」としては、位相差画素群(例えば第1の画素群及び第2の画素群)のみからなる撮像素子を使用する場合及び通常画素に対して所定の割合で位相差画素(例えば第1の画素群及び第2の画素群)が配置された撮像素子を使用する場合において、位相差画群から出力された画像(例えば第1の画素群から出力された第1の画像及び第2の画素群から出力された第2の画像)に基づくスプリットイメージが例示できる。このように、本発明は、通常画像とスプリットイメージとの双方を表示装置の同画面に同時に表示する態様に限定されるものではなく、スプリットイメージの表示が指示されている状態で通常画像の表示指示が解除された場合は表示制御部36が表示装置に対して通常画像を表示させずにスプリットイメージを表示させる制御を行うようにしてもよい。   In each of the above-described embodiments, the example in which the split image is displayed in the display area of the normal image has been described. However, the present invention is not limited to this, and the normal image (first image) is displayed on the display device. A split image (second display image) may be displayed without displaying an example of the display image. Alternatively, the split image may be displayed using the full screen. As used herein, the term “split image” refers to a case where an image sensor including only a phase difference pixel group (for example, a first pixel group and a second pixel group) is used, and a phase difference pixel at a predetermined ratio with respect to a normal pixel. When using an image sensor in which (for example, the first pixel group and the second pixel group) are arranged, an image output from the phase difference image group (for example, the first image output from the first pixel group) And a split image based on the second image output from the second pixel group. As described above, the present invention is not limited to a mode in which both the normal image and the split image are simultaneously displayed on the same screen of the display device, and the normal image is displayed in a state where the split image display is instructed. When the instruction is released, the display control unit 36 may perform control to display the split image without displaying the normal image on the display device.

12 CPU
20 撮像素子
26 メモリ
28 画像処理部
30 通常処理部
32 スプリットイメージ処理部
36 表示制御部
100 撮像装置
213 表示部
247 LCD
12 CPU
20 Image sensor 26 Memory 28 Image processing unit 30 Normal processing unit 32 Split image processing unit 36 Display control unit 100 Imaging device 213 Display unit 247 LCD

Claims (22)

撮影レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を含む撮像素子から出力された画像に基づいて第1の表示用画像を生成する第1の表示用画像生成部と、
前記第1及び第2の画素群から出力された第1の画像及び第2の画像に基づいて合焦確認に使用する第2の表示用画像を生成する第2の表示用画像生成部と、
前記第1の表示用画像生成部により生成された前記第1の表示用画像の色情報を取得する取得部と、
前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する色を前記第2の表示用画像の表示色として決定する決定部と、
画像を表示する表示部と、
前記表示部に対して、前記第1の表示用画像生成部により生成された前記第1の表示用画像を表示させ、かつ、該第1の表示用画像の表示領域内に前記第2の表示用画像生成部により生成された前記第2の表示用画像を表示させる表示制御部と、
を含む画像処理装置。
The first display is based on the image output from the image pickup device including the first and second pixel groups in which the subject image that has passed through the first and second regions in the photographing lens is divided into pupils, respectively. A first display image generator for generating an image;
A first image and a second display image generating unit that generates a second display image to be used to verify the focus on the basis of the second image output from the first and second pixel groups,
An acquisition unit that acquires color information of the first display image generated by the first display image generation unit;
A determination unit that determines a color having a color characteristic different from the color characteristic of the first display image based on the color information acquired by the acquisition unit as a display color of the second display image;
A display for displaying an image;
The display unit displays the first display image generated by the first display image generation unit, and the second display is displayed in a display area of the first display image. A display control unit for displaying the second display image generated by the image generation unit;
An image processing apparatus.
前記異なる色特性を有する色を、前記第1の表示用画像の色特性と異なる色特性であることが視認可能な色とした請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the color having the different color characteristic is a color that can be visually recognized as having a color characteristic different from the color characteristic of the first display image. 前記取得部は、前記第1の表示用画像の一部又は全てから前記色情報を取得する請求項1又は請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the acquisition unit acquires the color information from a part or all of the first display image. 前記取得部は、前記第1の表示用画像と前記第1の画像若しくは第2の画像又は前記第2の表示用画像とに基づいて前記色情報を取得する請求項1又は請求項2に記載の画像処理装置。   The said acquisition part acquires the said color information based on the said 1st image for a display and the said 1st image, a 2nd image, or the said 2nd image for a display. Image processing apparatus. 前記撮像素子は、前記第1の表示用画像の撮像に使用される通常撮像領域と前記第2の表示用画像の撮像に使用されると共に前記通常撮像領域に隣接する合焦確認撮像領域とを有し、
前記取得部は、前記第1の表示用画像のうち前記通常撮像領域における前記合焦確認撮像領域との境界側の縁部から出力された画像から前記色情報を取得する請求項1〜請求項4の何れか1項に記載の画像処理装置。
The imaging element includes a normal imaging area used for imaging the first display image and a focus confirmation imaging area used for imaging the second display image and adjacent to the normal imaging area. Have
The said acquisition part acquires the said color information from the image output from the edge part by the side of the boundary with the said focus confirmation imaging area in the said normal imaging area among said 1st images for a display. 5. The image processing apparatus according to any one of 4.
前記色情報を、前記第1の表示用画像の物体色の色特性を示す色情報とした請求項1〜請求項5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the color information is color information indicating a color characteristic of an object color of the first display image. 前記色特性を色相とした請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the color characteristic is a hue. 前記異なる色特性を有する色を、色相環において前記第1の表示用画像の物体色と予め定められた角度離れた色とした請求項6又は請求項7に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the color having the different color characteristic is a color separated from the object color of the first display image by a predetermined angle in a hue circle. 前記第1の表示用画像の物体色の色特性を、前記第1の表示用画像における原色成分の構成比とした請求項6〜請求項8の何れか1項に記載の画像処理装置。   9. The image processing apparatus according to claim 6, wherein the color characteristic of the object color of the first display image is a composition ratio of primary color components in the first display image. 10. 減少関数を含む入出力関数により前記構成比を変換して得た変換後の前記構成比を前記異なる色特性とした請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the converted composition ratio obtained by converting the composition ratio using an input / output function including a decrease function is the different color characteristic. 色変換データにより前記構成比を変換して得た変換後の前記構成比を前記異なる色特性とした請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the converted composition ratio obtained by converting the composition ratio using color conversion data is the different color characteristic. 前記色変換データを、減少関数を含む入出力関数に基づいて作成された色変換データとした請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the color conversion data is color conversion data created based on an input / output function including a reduction function. 前記色情報を、前記第1の表示用画像の光源色の色特性を示す色情報とした請求項1〜請求項5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the color information is color information indicating a color characteristic of a light source color of the first display image. 前記第1及び第2の画素群の各々を、単一色の画素群とし、
前記第2の表示用画像生成部は、前記第1及び第2の画素群から出力された前記第1の画像及び前記第2の画像に基づいて、前記第2の表示用画像として無彩色の画像を生成する請求項1〜請求項13の何れか1項に記載の画像処理装置。
Each of the first and second pixel groups is a single color pixel group;
The second display image generating section, wherein the output from the first and second pixel group based on the first image and the second image, achromatic as the second display image The image processing apparatus according to claim 1, which generates an image.
前記決定部は、前記第2の表示用画像が無彩色画像の場合、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する有彩色を前記第2の表示用画像の表示色として決定する請求項14に記載の画像処理装置。   When the second display image is an achromatic image, the determination unit has a color characteristic different from the color characteristic of the first display image based on the color information acquired by the acquisition unit. The image processing apparatus according to claim 14, wherein a chromatic color is determined as a display color of the second display image. 前記決定部は、前記第1の表示用画像及び第2の表示用画像が無彩色画像の場合、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する有彩色を前記第2の表示用画像の表示色として決定する請求項1〜請求項15の何れか1項に記載の画像処理装置。   When the first display image and the second display image are achromatic images, the determination unit determines the color characteristics of the first display image based on the color information acquired by the acquisition unit. The image processing apparatus according to claim 1, wherein chromatic colors having different color characteristics are determined as display colors of the second display image. 前記決定部は、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する有彩色であって前記第2の表示用画像における前記第1の画像に基づく領域と前記第2の画像に基づく領域とで異なる有彩色を前記第2の表示用画像の表示色として決定する請求項1〜請求項16の何れか1項に記載の画像処理装置。   The determination unit is a chromatic color having a color characteristic different from the color characteristic of the first display image based on the color information acquired by the acquisition unit, and the second display image has the chromatic color. The image according to any one of claims 1 to 16, wherein a chromatic color different between a region based on one image and a region based on the second image is determined as a display color of the second display image. Processing equipment. 前記決定部は、前記第1の表示用画像の色特性と前記第2の表示用画像の色特性とを近付ける予め定められた条件を満足した場合、前記取得部により取得された色情報に基づいて、前記第1の表示用画像の色特性に予め定められた度合いで近付けた色特性を有する色を前記第2の表示用画像の表示色として更に決定する請求項1〜請求項17の何れか1項に記載の画像処理装置。   The determination unit is based on the color information acquired by the acquisition unit when satisfying a predetermined condition for bringing the color characteristic of the first display image and the color characteristic of the second display image close to each other. The color having the color characteristic brought close to the color characteristic of the first display image by a predetermined degree is further determined as the display color of the second display image. The image processing apparatus according to claim 1. 前記撮像素子は、被写体像が瞳分割されずに結像されて第3の画像を出力する第3の画素群を有し、
前記第1の表示用画像生成部は、前記第3の画素群から出力される前記第3の画像に基づいて前記第1の表示用画像を生成する請求項1〜請求項18の何れか1項に記載の画像処理装置。
The imaging device includes a third pixel group for outputting the third image are imaged object image without being pupil split,
The first display image generation unit generates the first display image based on the third image output from the third pixel group. The image processing apparatus according to item.
請求項1〜請求項19の何れか1項に記載の画像処理装置と、
前記撮像素子から出力された画像を記憶する記憶部と、
を含む撮像装置。
An image processing apparatus according to any one of claims 1 to 19,
A storage unit for storing an image output from the image sensor;
An imaging apparatus including:
撮影レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を含む撮像素子から出力された画像に基づいて第1の表示用画像を生成する第1の表示用画像生成工程と、
前記第1及び第2の画素群から出力された第1の画像及び第2の画像に基づいて合焦確認に使用する第2の表示用画像を生成する第2の表示用画像生成工程と、
前記第1の表示用画像生成工程により生成された前記第1の表示用画像の色情報を取得する取得工程と、
前記取得工程により取得された色情報に基づいて、前記第1の表示用画像の色特性とは異なる色特性を有する色を前記第2の表示用画像の表示色として決定する決定工程と、
画像を表示する表示部に対して、前記第1の表示用画像生成工程により生成された前記第1の表示用画像を表示させ、かつ、該第1の表示用画像の表示領域内に前記第2の表示用画像生成工程により生成された前記第2の表示用画像を表示させる表示制御工程と、
を含む画像処理方法。
The first display is based on the image output from the image pickup device including the first and second pixel groups in which the subject image that has passed through the first and second regions in the photographing lens is divided into pupils, respectively. A first display image generation step for generating an image;
A second display image generating step of generating a second display image to be used to verify the focus based on the first image and the second image output from the first and second pixel groups,
An acquisition step of acquiring color information of the first display image generated by the first display image generation step ;
A determination step of determining a color having a color characteristic different from the color characteristic of the first display image based on the color information acquired by the acquisition step as a display color of the second display image;
The display unit for displaying an image displays the first display image generated by the first display image generation step, and the first display image is displayed in the display area of the first display image. A display control step for displaying the second display image generated by the two display image generation steps;
An image processing method including:
コンピュータを、
請求項1〜請求項19の何れか1項に記載の画像処理装置における前記第1の表示用画像生成部、前記第2の表示用画像生成部、前記取得部、前記決定部及び前記表示制御部として機能させるための画像処理プログラム。
Computer
The first display image generation unit, the second display image generation unit, the acquisition unit, the determination unit, and the display control in the image processing apparatus according to any one of claims 1 to 19. An image processing program for functioning as a unit.
JP2014536664A 2012-09-19 2013-08-05 Image processing apparatus, imaging apparatus, image processing method, and image processing program Expired - Fee Related JP5901780B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012205905 2012-09-19
JP2012205905 2012-09-19
PCT/JP2013/071180 WO2014045738A1 (en) 2012-09-19 2013-08-05 Image processing device, imaging device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP5901780B2 true JP5901780B2 (en) 2016-04-13
JPWO2014045738A1 JPWO2014045738A1 (en) 2016-08-18

Family

ID=50341062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014536664A Expired - Fee Related JP5901780B2 (en) 2012-09-19 2013-08-05 Image processing apparatus, imaging apparatus, image processing method, and image processing program

Country Status (4)

Country Link
US (1) US9712752B2 (en)
JP (1) JP5901780B2 (en)
CN (1) CN104737527B (en)
WO (1) WO2014045738A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874829B (en) * 2018-08-31 2022-10-14 北京小米移动软件有限公司 Image processing method and device, electronic device and storage medium
CN110675404B (en) * 2019-09-03 2023-03-21 RealMe重庆移动通信有限公司 Image processing method, image processing apparatus, storage medium, and terminal device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008116848A (en) * 2006-11-07 2008-05-22 Canon Inc Imaging apparatus
JP2009147665A (en) * 2007-12-13 2009-07-02 Canon Inc Image-pickup apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3690470B2 (en) 1998-09-02 2005-08-31 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and image processing method
US7391532B2 (en) * 2000-02-01 2008-06-24 Canon Kabushiki Kaisha Image correction in image sensing system including image sensing apparatus and image processing apparatus
CN1301491C (en) * 2001-03-13 2007-02-21 伊强德斯股份有限公司 Visual device, interlocking counter, and image sensor
WO2005027052A1 (en) * 2003-09-17 2005-03-24 Koninklijke Philips Electronics N.V. System and method for rendering 3-d images on a 3-d image display screen
JP5308792B2 (en) * 2008-11-28 2013-10-09 オリンパス株式会社 White balance adjustment device, white balance adjustment method, white balance adjustment program, and imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008116848A (en) * 2006-11-07 2008-05-22 Canon Inc Imaging apparatus
JP2009147665A (en) * 2007-12-13 2009-07-02 Canon Inc Image-pickup apparatus

Also Published As

Publication number Publication date
CN104737527A (en) 2015-06-24
US20150181127A1 (en) 2015-06-25
JPWO2014045738A1 (en) 2016-08-18
US9712752B2 (en) 2017-07-18
CN104737527B (en) 2018-06-22
WO2014045738A1 (en) 2014-03-27

Similar Documents

Publication Publication Date Title
JP6033454B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5681329B2 (en) Imaging apparatus and image display method
JP5931206B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
JP5901782B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5697801B2 (en) Imaging apparatus and automatic focusing method
JP5901781B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5960286B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5889441B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
US9609224B2 (en) Imaging device and image display method
JP6086975B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6000446B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5833254B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JPWO2015015935A1 (en) Imaging apparatus and image processing method
JPWO2014106916A1 (en) Image processing apparatus, imaging apparatus, program, and image processing method
JP5901780B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5972485B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5934844B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
WO2014045741A1 (en) Image processing device, imaging device, image processing method, and image processing program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160308

R150 Certificate of patent or registration of utility model

Ref document number: 5901780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees