WO2014045689A1 - 画像処理装置、撮像装置、プログラム及び画像処理方法 - Google Patents

画像処理装置、撮像装置、プログラム及び画像処理方法 Download PDF

Info

Publication number
WO2014045689A1
WO2014045689A1 PCT/JP2013/069447 JP2013069447W WO2014045689A1 WO 2014045689 A1 WO2014045689 A1 WO 2014045689A1 JP 2013069447 W JP2013069447 W JP 2013069447W WO 2014045689 A1 WO2014045689 A1 WO 2014045689A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
divided
pixel
parallax
Prior art date
Application number
PCT/JP2013/069447
Other languages
English (en)
French (fr)
Inventor
和紀 井上
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014536642A priority Critical patent/JP5931206B2/ja
Priority to CN201380033348.4A priority patent/CN104782110B/zh
Publication of WO2014045689A1 publication Critical patent/WO2014045689A1/ja
Priority to US14/576,213 priority patent/US9485430B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • G02B7/346Systems for automatic generation of focusing signals using different areas in a pupil plane using horizontal and vertical areas in the pupil plane, i.e. wide area autofocusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/24Focusing screens
    • G03B13/28Image-splitting devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • the present invention relates to an image processing device, an imaging device, a program, and an image processing method, and in particular, an image processing device that generates and displays an image for confirming the in-focus state of a subject image, and confirms the in-focus state.
  • the present invention relates to an imaging device that displays an image and a subject image, a program executed by the image processing device, and an image processing method that generates and displays an image for confirming the in-focus state.
  • the split image is an image obtained by combining a part of the left eye image and a part of the right eye image corresponding to a predetermined area.
  • a shift with respect to the parallax generation direction occurs between the left-eye image and the right-eye image according to the in-focus state.
  • the user confirms the in-focus state by visually recognizing the deviation between the left-eye image and the right-eye image in the split image.
  • Japanese Patent Laid-Open No. 2001-309210 discloses an imaging unit that acquires an image of a subject as an image signal via an optical system, an image plane for the subject in the optical system, and a light receiving surface of the imaging unit.
  • a detection unit for detecting a shift amount corresponding to a distance between the display unit, display means for displaying an image of a subject on a display screen based on an image signal acquired by the imaging unit, and a partial area of the display screen
  • an imaging apparatus including display change means for changing display content of a display change area according to a shift amount using an image of a subject. According to this imaging apparatus, it is possible to perform the focus adjustment with the same feeling as the focus adjustment using the split image when performing the focus adjustment manually.
  • Japanese Unexamined Patent Application Publication No. 2009-147665 discloses photoelectric conversion of the first subject image and the second subject image formed by the light beam divided by the pupil dividing unit out of the light beam from the imaging optical system.
  • An image acquisition unit that generates a first image and a second image, and that generates a third image by photoelectrically converting a third subject image formed by a light beam that is not divided by the pupil dividing unit;
  • An imaging apparatus having display means for displaying an image and split image generation means for generating a split image to be displayed in a third image is disclosed.
  • This imaging apparatus is an imaging apparatus that generates a split image using the first and second images by the split image generation unit, and adds color information extracted from the third image to the split image. According to this imaging apparatus, it is possible to improve usability when manually performing focus adjustment.
  • Japanese Unexamined Patent Application Publication No. 2009-163220 discloses that the first subject image and the second subject image formed by the light beam divided by the pupil dividing unit out of the light beam from the imaging optical system are photoelectrically converted.
  • An imaging apparatus having the same is disclosed. According to this imaging apparatus, it is possible to improve the visibility of the split image.
  • a predetermined image for displaying a split image may be used depending on the subject image. Only the split image is displayed in the display area. In that case, the user may not be able to correctly determine the shift amount of the shift in the split image. In this case, there is a possibility that the user cannot perform focus adjustment with high accuracy.
  • the present invention provides an image processing apparatus, an imaging apparatus, a program, and an image processing method capable of performing manual focus adjustment with high accuracy.
  • an image processing apparatus includes a first pixel group and a second pixel group in which a subject image that has passed through first and second regions in an imaging lens is divided into pupils, respectively.
  • a first display image is generated based on the image signal output from the image pickup device having the first and second images based on the image signal output from the first and second pixel groups.
  • Generation means for generating a second display image used for focus confirmation, and parallax calculation means for calculating a parallax indicating a shift amount between each pixel of the first image and each corresponding pixel of the second image
  • Display means for displaying an image; and displaying the first display image generated by the generation means on the display means, and the generation means within a display area of the first display image.
  • Display the second display image generated by Display control means for performing control wherein the generation means is a first divided image that is a part of a plurality of divided images obtained by dividing the first image in a predetermined division direction, And a second divided image that is an image excluding an area corresponding to the first divided image of a plurality of divided images obtained by dividing the second image in the same manner as the first image.
  • the second display image is generated by being shifted in a direction opposite to the intersecting direction intersecting with the dividing direction by a corresponding amount.
  • the generation unit has the first and second pixel groups in which the subject image that has passed through the first and second regions in the imaging lens is divided into pupils and formed, respectively.
  • a first display image is generated based on the image signal output from the image sensor, and focus confirmation is performed from the first and second images based on the image signal output from the first and second pixel groups.
  • a second display image to be used is generated.
  • the parallax which shows the deviation
  • the display control means displays the first display image generated by the generating means on the display means, and the display means generates the first display image within the display area of the first display image. Control for displaying the second display image is performed.
  • a first divided image that is a part of a plurality of divided images obtained by dividing the first image in a predetermined division direction by the generation unit and a second A second divided image that is an image excluding a region corresponding to the first divided image of a plurality of divided images obtained by dividing the image in the same manner as the first image is an amount corresponding to the parallax.
  • the second display image arranged to be shifted in a direction opposite to the intersecting direction intersecting with the division direction is generated.
  • the image processing apparatus is configured so that the first display image (confirmed in-focus state) is arranged by shifting a part of the first image and a part of the second image in opposite directions. Corresponding to the image to be generated). Therefore, according to the image processing apparatus of the present invention, it becomes easy to visually recognize the shift between the first image and the second image. Therefore, manual focus adjustment is performed as compared with the case where the present invention is not applied. Can be performed with high accuracy.
  • the generation unit generates the first display image by alternately arranging the first divided image and the second divided image in the dividing direction. You may do it. Thereby, the visibility with respect to the 1st image for a display can be improved.
  • the parallax calculation unit may calculate the parallax in a predetermined region including a boundary between the first divided image and the second divided image. . Thereby, the first image and the second image can be shifted by a shift amount corresponding to the shift position.
  • the generation unit has a pixel value difference between adjacent pixels in at least one of the first image and the second image equal to or greater than a predetermined first threshold value. And a pixel group continuously arranged in the same direction for a predetermined second threshold or more is extracted, and any one of the directions in which each pixel is continuously arranged in the extracted pixel group is divided.
  • the second display image may be generated as the direction.
  • the generation unit sets a value obtained by multiplying the parallax calculated by the parallax calculation unit by a predetermined coefficient larger than 1 as an amount corresponding to the parallax. Two display images may be generated. Thereby, even when the parallax amount of the parallax between the first image and the second image is small, the shift can be easily recognized.
  • the generation unit is a coefficient that increases as the parallax increases and the degree of increase as the parallax increases is small in the parallax calculated by the parallax calculation unit.
  • the second display image may be generated using a value obtained by multiplying a coefficient larger than 1 as an amount corresponding to the parallax.
  • the generation unit includes a pixel group in which a difference in pixel value between adjacent pixels in at least one of the first image and the second image is larger than a predetermined threshold value. And a region having a predetermined size and having the largest total area of the pixel group included in the region is defined as a region for which the second display image is to be generated. Two display images may be generated. Thereby, manual focus adjustment can be performed with higher accuracy.
  • the image processing apparatus further includes a face area extracting unit that extracts a face area corresponding to a face from at least one of the first image and the second image, and the generating unit includes the face
  • the second display image may be generated using the face region extracted by the region extraction unit as a region for which the second display image is to be generated. Accordingly, it is possible to focus using a face region that is generally a region to be focused.
  • the generating means forms the subject image without pupil division, and outputs the image output from the third pixel group that outputs an image signal indicating the third image.
  • a third divided image which is a part of a plurality of divided images obtained by dividing the third image based on the signal in the dividing direction, and the third divided image among the plurality of divided images
  • the second display image is generated by arranging the fourth divided image, which is an image excluding the region corresponding to, in a direction opposite to the intersecting direction by a distance corresponding to the parallax.
  • the generation unit forms the subject image without being pupil-divided, and outputs the image from the third pixel group that outputs an image signal indicating the third image.
  • the third image based on the image signal is generated as the second display image.
  • the display control unit may perform control to further display an image indicating an end portion of the second display image in the intersecting direction on the display unit. .
  • difference of a 1st image and a 2nd image can be visually recognized with higher precision.
  • the display control means displays a display excluding a predetermined first display area for displaying the second display image in the display area of the display means.
  • the second display image is superimposed on the first display image and displayed in the second display region that is a region, the first divided image and the second divided image are shifted.
  • the pixel value of the pixel in the region where the pixel corresponding to the second display image does not exist in the first display region by arranging the pixel value of the pixel corresponding to the region in the first display image.
  • the second display image may be displayed as a value. Thereby, the beauty of the first display image can be improved.
  • an imaging apparatus includes an image processing apparatus according to the present invention, the imaging lens, an imaging element that acquires a subject image as an image signal via the imaging lens, It has.
  • the imaging device according to the present invention operates in the same manner as the image processing device according to the present invention. Therefore, as with the image processing device according to the present invention, compared with the case where the present invention is not applied, Can be adjusted with high accuracy.
  • a program according to the present invention uses a computer to form first and second images in which subject images that have passed through the first and second regions of the imaging lens are divided into pupils, respectively.
  • the first display image is generated based on the image signal output from the image pickup device having the pixel group, and the first and second images are output based on the image signal output from the first and second pixel groups.
  • a parallax calculating unit that calculates a parallax indicating a deviation amount between each pixel of the first image and each corresponding pixel of the second image; and displaying the first display image generated by the generating unit.
  • a display control unit that controls the display unit to display the second display image generated by the generation unit in the display area of the first display image.
  • the generation unit generates a first divided image and a second image that are a part of a plurality of divided images obtained by dividing the first image in a predetermined division direction.
  • a second divided image which is an image excluding a region corresponding to the first divided image, of a plurality of divided images obtained by dividing in the same manner as the first image, is divided into the division direction by an amount corresponding to the parallax. Is shifted in the opposite direction to the crossing direction Is a program for generating said second display image placed.
  • the computer operates in the same manner as the image processing apparatus according to the present invention. Therefore, as in the case of the image processing apparatus according to the present invention, compared with a case where the present invention is not applied, The focus adjustment at can be performed with high accuracy.
  • the image processing method includes a first and a second image in which a subject image that has passed through the first and second regions in the imaging lens is divided into pupils, respectively.
  • First and second images based on image signals output from the first and second pixel groups, and a first display image is generated based on an image signal output from an image sensor having a pixel group.
  • the calculation step and the first display image generated in the generation step are displayed on the display means, and the second display generated by the generation means in the display area of the first display image Control to display the image for A first divided image that is a part of a plurality of divided images obtained by dividing the first image in a predetermined division direction in the generation step, and
  • a second divided image that is an image excluding a region corresponding to the first divided image of a plurality of divided images obtained by dividing the second image in the same manner as the first image
  • the second display image is generated by being shifted by a certain amount in a direction opposite to the intersecting direction intersecting the dividing direction.
  • the image processing method according to the present invention operates in the same manner as the image processing apparatus according to the present invention. Therefore, as with the image processing apparatus according to the present invention, compared with the case where the present invention is not applied, The focus adjustment at can be performed with high accuracy.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of light shielding members provided in an imaging element of an imaging apparatus according to an embodiment. It is a schematic block diagram which shows an example of a structure of the phase difference pixel (1st pixel and 2nd pixel) of the image pick-up element of the imaging device which concerns on embodiment. It is a block diagram which shows an example of the principal part function of the imaging device which concerns on embodiment. It is a front view which shows an example of the display mode of the normal image and split image which concern on embodiment. It is a flowchart which shows the flow of a process of the confirmation image display process program which concerns on embodiment.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of color filters and an arrangement of light shielding members provided in an imaging element of an imaging apparatus according to an embodiment. It is a perspective view which shows an example of the external appearance of the smart phone which concerns on 2nd Embodiment. It is a block diagram which shows an example of the principal part structure of the electrical system of the smart phone which concerns on 2nd Embodiment.
  • the imaging apparatus 100 is an interchangeable lens camera, and as illustrated in FIG. 1, a camera body 200 and an interchangeable lens 258 (photographing lens, focus lens 260) that is attached to the camera body 200 in a replaceable manner. And a reflex mirror is omitted.
  • the camera body 200 is provided with a hybrid finder (registered trademark) 220.
  • the hybrid viewfinder 220 here refers to a viewfinder in which, for example, an optical viewfinder (hereinafter referred to as “OVF”) and an electronic viewfinder (hereinafter referred to as “EVF”) are selectively used.
  • OPF optical viewfinder
  • EMF electronic viewfinder
  • the camera body 200 and the interchangeable lens 258 are interchangeably mounted by combining a mount 256 provided in the camera body 200 and a mount 346 (see FIG. 3) on the interchangeable lens 258 side corresponding to the mount 256.
  • the lens barrel of the interchangeable lens 258 is provided with a focus ring 260, and the focus lens is moved in the optical axis direction in accordance with the rotation operation of the focus ring 260.
  • the subject light can be imaged (see FIG. 3).
  • a front view of the camera body 200 is provided with an OVF viewfinder window 241 included in the hybrid viewfinder 220.
  • a finder switching lever 214 is provided on the front surface of the camera body 200. When the viewfinder switching lever 214 is rotated in the direction of the arrow SW, it switches between an optical image that can be viewed with OVF and an electronic image (live view image) that can be viewed with EVF (described later).
  • the OVF optical axis L2 is an optical axis different from the optical axis L1 of the interchangeable lens 258.
  • a release switch 211 and a dial 212 for setting a shooting mode, a playback mode, and the like are mainly provided on the upper surface of the camera body 200.
  • the release switch 211 detects a two-stage pressing operation: a state where the release switch 211 is pressed from the standby position to the intermediate position (half-pressed position) and a state where the release switch 211 is pressed to the final pressed position (full-pressed position) beyond the intermediate position. It is configured to be possible.
  • a state where the button is pressed from the standby position to the half-pressed position is referred to as “half-pressed state”
  • “a state where the button is pressed from the standby position to the fully-pressed position” is referred to as “full-pressed state”.
  • a confirmation image display process described later is executed by pressing the release switch 211 halfway, and then exposure (photographing) is performed when the release switch 211 is fully pressed.
  • an OVF viewfinder eyepiece 242 a display unit 213, a cross key 222, a MENU / OK key 224, and a BACK / DISP button 225 are provided on the back of the camera body 200.
  • the cross key 222 functions as a multi-function key that outputs various command signals such as menu selection, zoom and frame advance.
  • the MENU / OK key 224 has both a function as a menu button for instructing to display a menu on the screen of the display unit 213 and an function as an OK button for instructing confirmation and execution of selection contents. Key.
  • the BACK / DISP button 225 is used to delete a desired object such as a selection item, cancel a designated content, or return to the previous operation state.
  • the display unit 213 is realized by, for example, an LCD, and is used to display a live view image (through image) that is an example of a continuous frame image obtained by capturing a continuous frame in the shooting mode.
  • the display unit 213 is also used to display a still image that is an example of a single frame image obtained by capturing a single frame when a still image shooting instruction is given.
  • the display unit 213 is also used for displaying a playback image and a menu screen in the playback mode.
  • the imaging apparatus 100 is a digital camera that records captured still images and moving images, and the overall operation of the camera is controlled by a CPU (Central Processing Unit) 12 shown in FIG. As shown in the figure, the imaging apparatus 100 includes an operation unit 14, an interface unit 24, a memory 26, and an encoder 34 in addition to the CPU 12. The imaging apparatus 100 also includes a display control unit 36, an eyepiece detection unit 37, and an external interface (I / F) 39, which are examples of display control means according to the present invention. In addition, the imaging apparatus 100 includes an image processing unit 28 that is an example of a generation unit and a parallax calculation unit according to the present invention.
  • a CPU Central Processing Unit
  • the CPU 12, the operation unit 14, the interface unit 24, the memory 26, the image processing unit 28, the encoder 34, the display control unit 36, the eyepiece detection unit 37, and the external interface (I / F) 39 are connected to each other via the bus 40.
  • the memory 26 includes a non-volatile storage area (such as an EEPROM) that stores parameters, programs, and the like, and a volatile storage area (such as an SDRAM) that temporarily stores various information such as images.
  • the CPU 12 performs focusing control by driving and controlling the focus adjustment motor so that the contrast value of the image obtained by imaging is maximized. Further, the CPU 12 calculates AE information that is a physical quantity indicating the brightness of an image obtained by imaging. When the release switch 211 is half-pressed, the CPU 12 derives the shutter speed and F value corresponding to the brightness of the image indicated by the AE information. Then, the exposure state is set by controlling each related part so that the derived shutter speed and F value are obtained.
  • the operation unit 14 is a user interface operated by the operator when giving various instructions to the imaging apparatus 100. Various instructions received by the operation unit 14 are output as operation signals to the CPU 12, and the CPU 12 executes processing according to the operation signals input from the operation unit 14.
  • the operation unit 14 includes a release switch 211, a dial 212, a display unit 213, a viewfinder switching lever 214, a cross key 222, a MENU / OK key 224, and a BACK / DISP button 225.
  • the image light indicating the subject is received by the color image sensor (for example, a CMOS sensor) 20 via the photographing lens 16 including the focus lens that can be moved manually and the shutter 18.
  • the image is formed on the surface.
  • the signal charge accumulated in the image sensor 20 is sequentially read out as a digital signal corresponding to the signal charge (voltage) by a read signal applied from the device control unit 22.
  • the imaging element 20 has a so-called electronic shutter function, and controls the charge accumulation time (shutter speed) of each photosensor according to the timing of the readout signal by using the electronic shutter function.
  • the image sensor 20 according to the first embodiment is a CMOS image sensor, but is not limited thereto, and may be a CCD image sensor.
  • the image sensor 20 is provided with a color filter 21 shown in FIG. 4 as an example.
  • a color filter 21 shown in FIG. 4 (4896 ⁇ 3264) pixels are adopted as an example of the number of pixels and 3: 2 is adopted as the aspect ratio.
  • the number of pixels and the aspect ratio are not limited thereto.
  • the color filter 21 includes a first filter G corresponding to G (green) that contributes most to obtain a luminance signal, and second filters R and B corresponding to R (red).
  • a third filter B corresponding to (blue) is included.
  • the arrangement pattern of the first filter G (hereinafter referred to as G filter), the second filter R (hereinafter referred to as R filter), and the third filter B (hereinafter referred to as B filter) is the first arrangement. It is classified into a pattern A and a second array pattern B.
  • the G filters are arranged on the four corners and the center pixel of the 3 ⁇ 3 pixel square array.
  • the R filter is arranged on the central vertical line in the horizontal direction of the square arrangement.
  • the B filter is arranged on the central horizontal line in the vertical direction of the square arrangement.
  • the second arrangement pattern B is a pattern in which the arrangement of the G filter is the same as that of the first basic arrangement pattern A, and the arrangement of the R filter and the arrangement of the B filter are interchanged.
  • the color filter 21 includes a basic array pattern C composed of a square array pattern corresponding to 6 ⁇ 6 pixels.
  • the basic array pattern C is a 6 ⁇ 6 pixel pattern in which the first array pattern A and the second array pattern B are arranged point-symmetrically.
  • the color filter 21 includes the basic array pattern C in the horizontal direction and the vertical direction. Repeatedly arranged in the direction. In other words, in the color filter 21, filters of R, G, and B colors (R filter, G filter, and B filter) are arranged with a predetermined periodicity. Therefore, when performing synchronization (interpolation) processing of the R, G, and B signals read from the image sensor 20, processing can be performed according to a repetitive pattern.
  • the color filter array of the reduced image after the thinning process can be the same as the color filter array before the thinning process, and a common processing circuit is provided. Can be used.
  • the G filter corresponding to the color that contributes most to obtain the luminance signal (G color in the first embodiment) is in each of the horizontal, vertical, and diagonal lines of the color filter array. Has been placed. Therefore, it is possible to improve the reproduction accuracy of the synchronization process in the high frequency region regardless of the direction of high frequency.
  • the color filter 21 includes an R filter and a B filter corresponding to two or more other colors (R and B colors in the first embodiment) other than the G color. Located within each line of direction. For this reason, the occurrence of color moire (false color) is suppressed, whereby an optical low-pass filter for suppressing the occurrence of false color can be prevented from being arranged in the optical path from the incident surface of the optical system to the imaging surface. . Even when an optical low-pass filter is applied, it is possible to apply a filter having a weak function of cutting a high-frequency component for preventing the occurrence of false colors, so that the resolution is not impaired.
  • the basic array pattern C includes a 3 ⁇ 3 pixel first array pattern A surrounded by a broken line frame and a 3 ⁇ 3 pixel second array pattern B surrounded by a one-dot chain line. It can also be understood that the array is arranged alternately.
  • G filters which are luminance pixels, are arranged at the four corners and the center, and are arranged on both diagonal lines.
  • the B filter is arranged in the horizontal direction and the R filter is arranged in the vertical direction with the central G filter interposed therebetween.
  • the R filters are arranged in the horizontal direction and the B filters are arranged in the vertical direction across the center G filter. That is, in the first arrangement pattern A and the second arrangement pattern B, the positional relationship between the R filter and the B filter is reversed, but the other arrangements are the same.
  • the G filters at the four corners of the first array pattern A and the second array pattern B are shown in FIG. 5 as an example, in which the first array pattern A and the second array pattern B are horizontal and vertical. Are alternately arranged, a square array of G filters corresponding to 2 ⁇ 2 pixels is formed.
  • a square array of G filters corresponding to 2 ⁇ 2 pixels is formed.
  • the difference absolute value of the pixel value of the G pixel in the horizontal direction the difference absolute value of the pixel value of the G pixel in the vertical direction, and the diagonal direction
  • the difference absolute value of the pixel values of the G pixels (upper right diagonal, upper left diagonal) is calculated.
  • the basic array pattern C of the color filter 21 is arranged point-symmetrically with respect to the center of the basic array pattern C (the centers of the four G filters).
  • the first array pattern A and the second array pattern B in the basic array pattern C are also arranged point-symmetrically with respect to the central G filter. Therefore, the circuit scale of the subsequent processing circuit can be reduced or simplified.
  • the color filter array of the first and third lines of the first to sixth lines in the horizontal direction is GRGGBG.
  • the color filter array of the second line is BGBGR.
  • the color filter array of the fourth and sixth lines is GBGGRG.
  • the color filter array of the fifth line is RGRBGB.
  • basic array patterns C, C ′, C ′′ are shown.
  • the imaging apparatus 100 has a phase difference AF function.
  • the image sensor 20 according to the present embodiment includes a plurality of phase difference detection pixels used when the phase difference AF function is activated.
  • the plurality of phase difference detection pixels are arranged in a predetermined pattern.
  • the phase difference detection pixel is either the first pixel L in which the left half in the horizontal direction is shielded or the second pixel R in which the right half in the horizontal direction is shielded. is there.
  • phase difference pixels when it is not necessary to distinguish between the first pixel L and the second pixel R, they are referred to as “phase difference pixels”.
  • the first pixel L has a light shielding member 20A
  • the second pixel R has a light shielding member 20B.
  • the light shielding member 20A is provided on the front side (microlens M side) of the photodiode PD, and shields the left half of the light receiving surface.
  • the light shielding member 20B is provided on the front side of the photodiode PD and shields the right half of the light receiving surface.
  • the microlens M and the light shielding members 20A and 20B function as a pupil dividing unit, the first pixel L receives only the left side of the optical axis of the light beam passing through the exit pupil of the photographing lens 16, and the second pixel R is Only the right side of the optical axis of the light beam passing through the exit pupil of the photographing lens 16 is received. In this way, the light beam passing through the exit pupil is divided into left and right by the microlens M and the light shielding members 20A and 20B, which are pupil dividing portions, and enter the first pixel L and the second pixel R, respectively.
  • the subject image corresponding to the left half of the light flux passing through the exit pupil of the photographing lens 16 and the subject image corresponding to the right half of the light flux are in focus (in focus).
  • the portion forms an image at the same position on the image sensor 20.
  • the front pin that is in focus before the subject or the rear pin that is in focus behind the subject is incident on a different position on the image sensor 20 (out of phase).
  • the subject image corresponding to the left half light beam and the subject image corresponding to the right half light beam can be acquired as parallax images (left eye image and right eye image) having different parallaxes.
  • the imaging apparatus 100 detects a phase shift amount based on the pixel value of the first pixel L and the pixel value of the second pixel R. Then, the adjustment of the focal position of the photographic lens 16 by a user operation is assisted by presenting the detected phase shift amount.
  • the light shielding members 20A and 20B are referred to as “light shielding members” without reference numerals.
  • the image sensor 20 is classified into a first pixel group, a second pixel group, and a third pixel group.
  • the first pixel group refers to a plurality of first pixels L, for example.
  • the second pixel group refers to a plurality of second pixels R, for example.
  • the third pixel group refers to a plurality of normal pixels, for example.
  • the “normal pixel” here refers to, for example, a pixel other than the phase difference pixel (for example, a pixel having no light shielding members 20A and 20B).
  • the RAW image indicated by the image signal output from the first pixel group is referred to as a “first image”.
  • the RAW image indicated by the image signal output from the second pixel group is referred to as a “second image”.
  • the RAW image indicated by the image signal output from the third pixel group is referred to as a “third image”.
  • Each pixel included in the first pixel group and the second pixel group is disposed at a position where the positions in the horizontal direction are aligned within one pixel between the first pixel group and the second pixel group.
  • each pixel included in the first pixel group and the second pixel group is disposed at a position where the positions in the vertical direction are aligned within the one pixel between the first pixel group and the second pixel group. ing.
  • the first pixels L and the second pixels R are alternately arranged linearly in the horizontal direction and the vertical direction at intervals of a plurality of pixels.
  • the positions of the pixels included in the first and second pixel groups are positions aligned within one pixel in each of the horizontal direction and the vertical direction, but at least in either the horizontal direction or the vertical direction.
  • the position may be within a predetermined number of pixels (for example, within 2 pixels).
  • the position of each pixel included in the first and second pixel groups is set in the horizontal direction as shown in FIG. 7 as an example.
  • it is preferable that the positions are aligned within one pixel in each of the vertical directions.
  • the phase difference pixels are provided for the pixels of the G filter in a square array corresponding to 2 ⁇ 2 pixels. That is, in the example shown in FIG. 7, the pixel in the lower right corner in front view of FIG. 7 of the 2 ⁇ 2 pixel G filter is assigned to the phase difference pixel.
  • the light shielding member is provided for the pixel in the lower right corner of the 2 ⁇ 2 pixel G filter, and the phase difference pixel is spaced by a plurality of pixels in both the vertical direction and the horizontal direction.
  • the phase difference pixel is spaced by a plurality of pixels in both the vertical direction and the horizontal direction.
  • the interpolation accuracy in the case of interpolating the pixel values of the phase difference pixels from the pixel values of the normal pixels can be improved.
  • the pixels included in the first to third pixel groups are arranged so that the normal pixels used for interpolation do not overlap between the phase difference pixels, further improvement in interpolation accuracy can be expected.
  • the image sensor 20 outputs an image signal (digital signal indicating the pixel value of each first pixel) indicating the first image from the first pixel group, and outputs the image signal from the second pixel group.
  • An image signal indicating a second image (a digital signal indicating a pixel value of each second pixel) is output.
  • the imaging element 20 outputs an image signal indicating a third image (a digital signal indicating a pixel value of each normal pixel) from the third pixel group.
  • the third image is a chromatic image, for example, a color image having the same color array as the normal pixel array.
  • the image data indicating the first image, the second image, and the third image are temporarily stored in a volatile storage area in the memory 26 via the interface unit 24.
  • the image processing unit 28 includes a normal processing unit 30.
  • the normal processing unit 30 processes the R, G, and B signals corresponding to the third pixel group to generate a chromatic color normal image that is an example of the first display image.
  • the image processing unit 28 includes a split image processing unit 32.
  • the split image processing unit 32 processes the G signal corresponding to the first pixel group and the second pixel group to generate an achromatic split image that is an example of a second display image.
  • the image processing unit 28 according to the first embodiment is realized, for example, by an ASIC (Application Specific Integrated Circuit) that is an integrated circuit in which circuits for realizing a plurality of functions related to image processing are combined into one. .
  • ASIC Application Specific Integrated Circuit
  • the CPU 12 executes a confirmation image display processing program, which will be described later, and controls the split image processing unit 32 to generate a split image and causes the display unit 213 to display the generated split image.
  • the hardware configuration of the image processing unit 28 is not limited to the ASIC, and may be another hardware configuration such as a computer including a programmable logic device, CPU, ROM, and RAM.
  • the encoder 34 converts the input signal into a signal of another format and outputs it.
  • the hybrid viewfinder 220 has an LCD 247 that displays an electronic image.
  • the number of pixels in a predetermined direction on the LCD 247 (for example, the number of pixels in the horizontal direction, which is a parallax generation direction) is smaller than the number of pixels in the same direction on the display unit 213.
  • the display control unit 36 is connected to the display unit 213 and the LCD 247, respectively, and an image is displayed on the LCD 247 or the display unit 213 by selectively controlling the LCD 247 and the display unit 213.
  • the display unit 213 and the LCD 247 are referred to as “display devices” when it is not necessary to distinguish between them.
  • the imaging apparatus 100 is configured to be able to switch between a manual focus mode and an autofocus mode with a dial 212.
  • the display control unit 36 causes the display device to display a live view image obtained by combining the split images.
  • the CPU 12 operates as a phase difference detection unit and an automatic focus adjustment unit.
  • the phase difference detection unit detects a phase difference between the first image output from the first pixel group and the second image output from the second pixel group.
  • the automatic focus adjustment unit controls the lens driving unit (not shown) from the device control unit 22 via the mounts 256 and 346 so that the defocus amount of the photographing lens 16 is zero based on the detected phase difference. Then, the photographing lens 16 is moved to the in-focus position.
  • the above “defocus amount” refers to, for example, the amount of phase shift between the first image and the second image.
  • the eyepiece detection unit 37 detects that the user has looked into the viewfinder eyepiece unit 242, and outputs the detection result to the CPU 12. Therefore, the CPU 12 can grasp whether or not the finder eyepiece unit 242 is used based on the detection result of the eyepiece detection unit 37.
  • the external I / F 39 is connected to a communication network such as a LAN (Local Area Network) or the Internet, and controls transmission / reception of various information between the external device (for example, a printer) and the CPU 12 via the communication network. Therefore, when a printer is connected as an external device, the imaging apparatus 100 can output a captured still image to the printer for printing. Further, when a display is connected as an external device, the imaging apparatus 100 can output and display a captured still image or live view image on the display.
  • a communication network such as a LAN (Local Area Network) or the Internet
  • the normal processing unit 30 and the split image processing unit 32 each have a WB gain unit, a gamma correction unit, and a synchronization processing unit (not shown), and the original digital data temporarily stored in the memory 26.
  • Each processing unit sequentially performs signal processing on the signal (RAW image). That is, the WB gain unit executes white balance (WB) by adjusting the gains of the R, G, and B signals.
  • the gamma correction unit performs gamma correction on each of the R, G, and B signals that have been subjected to WB by the WB gain unit.
  • the synchronization processing unit performs color interpolation processing corresponding to the arrangement of the color filters 21 of the image sensor 20, and generates synchronized R, G, B signals.
  • the normal processing unit 30 and the split image processing unit 32 perform image processing on the RAW image in parallel every time a RAW image for one screen is acquired by the image sensor 20.
  • the normal processing unit 30 receives the R, G, B RAW images from the interface unit 24 and performs the first processing on the pixels that are shielded from light by the phase difference image in the R, G, B pixels of the third pixel group. Images obtained by interpolation with peripheral pixels of the same color (for example, adjacent G pixels) in the pixel group and the second pixel group may be generated as a normal image for display and a normal image for recording. .
  • the normal processing unit 30 outputs the generated image data of the normal image for recording to the encoder 34.
  • the R, G, and B signals processed by the normal processing unit 30 are converted (encoded) into recording signals by the encoder 34 and recorded in the recording unit 42 (see FIG. 9).
  • the normal processing unit 30 outputs the generated image data of the normal image for display to the display control unit 36.
  • the term “for recording” and “for display” are used. Is referred to as a “normal image”.
  • the image sensor 20 can change the exposure conditions (shutter speed by an electronic shutter as an example) of each of the first pixel group and the second pixel group, and thereby can simultaneously acquire images having different exposure conditions. . Therefore, the image processing unit 28 can generate an image with a wide dynamic range based on images with different exposure conditions. In addition, a plurality of images can be simultaneously acquired under the same exposure condition, and by adding these images, a high-sensitivity image with little noise can be generated, or a high-resolution image can be generated.
  • the split image processing unit 32 extracts the G signal of the first pixel group and the second pixel group from the RAW image once stored in the memory 26, and the G of the first pixel group and the second pixel group. An achromatic split image is generated based on the signal.
  • Each of the first pixel group and the second pixel group extracted from the RAW image is a pixel group including G filter pixels as described above. Therefore, the split image processing unit 32 can generate an achromatic left parallax image and an achromatic right parallax image based on the G signals of the first pixel group and the second pixel group.
  • the above “achromatic left parallax image” is referred to as a “left eye image”
  • the above “achromatic right parallax image” is referred to as a “right eye image”.
  • the split image processing unit 32 combines the left-eye image based on the first image output from the first pixel group and the right-eye image based on the second image output from the second pixel group to split the image. Generate an image.
  • the generated split image data is output to the display controller 36.
  • the display control unit 36 records image data corresponding to the third pixel group input from the normal processing unit 30 and the split corresponding to the first and second pixel groups input from the split image processing unit 32. Display image data is generated based on the image data of the image. For example, the display control unit 36 displays the image input from the split image processing unit 32 in the display area of the normal image indicated by the recording image data corresponding to the third pixel group input from the normal processing unit 30. The split image indicated by the data is synthesized. Then, the image data obtained by the synthesis is output to the display device.
  • the split image generated by the split image processing unit 32 is a multi-divided image obtained by combining a part of the left eye image and a part of the right eye image.
  • a split image 300 shown in FIG. 10 includes an upper half of the divided images obtained by dividing the left-eye image 300A into two in the front view vertical direction of FIG. 10 and a divided image obtained by similarly dividing the right-eye image 300B. It is the image which synthesize
  • the split image 300 is an image in which the divided images of the left-eye image 300A and the right-eye image 300B are shifted in a predetermined direction (in this embodiment, the left-right direction in the front view in FIG. 10) by an amount corresponding to the in-focus state. is there.
  • the split image 300 when the split image 300 is combined with the normal image 301, the split image 300 is combined instead of a part of the normal image, but the combining method is not limited to this.
  • a composition method in which the split image 300 is superimposed on the normal image 301 may be used.
  • the composition method is a method of superimposing the split image 300 by appropriately adjusting the transmittance of a part of the normal image 301 corresponding to the region on which the split image 300 is superimposed.
  • the normal image 301 and the split image 300 may be displayed in different layers. Thereby, the split image 300 can be displayed in the display area of the normal image in the live view image.
  • the live view image is an image that shows a subject image when a subject image that is continuously photographed is displayed continuously on the screen of the display device.
  • the hybrid finder 220 includes an OVF 240 and an EVF 248.
  • the OVF 240 is an inverse Galileo finder having an objective lens 244 and an eyepiece 246, and the EVF 248 has an LCD 247, a prism 245, and an eyepiece 246.
  • a liquid crystal shutter 243 is disposed in front of the objective lens 244, and the liquid crystal shutter 243 shields light so that an optical image does not enter the objective lens 244 when the EVF 248 is used.
  • the prism 245 reflects an electronic image or various information displayed on the LCD 247 and guides it to the eyepiece 246, and combines the optical image and information (electronic image and various information) displayed on the LCD 247.
  • an OVF mode in which an optical image can be visually recognized by the OVF 240 and an electronic image can be visually recognized by the EVF 248 each time it is rotated.
  • the EVF mode is switched alternately.
  • the display control unit 36 controls the liquid crystal shutter 243 to be in a non-light-shielded state so that the optical image can be viewed from the viewfinder eyepiece 242. Further, only the split image 300 is displayed on the LCD 247. Thereby, the finder image in which the split image 300 is superimposed on a part of the optical image can be displayed.
  • the display control unit 36 controls the liquid crystal shutter 243 to be in a light shielding state so that only the electronic image displayed on the LCD 247 from the viewfinder eyepiece unit 242 can be visually recognized.
  • image data equivalent to the image data obtained by combining the split image 300 output to the display unit 213 is input to the LCD 247, so that the split image 300 is displayed on a part of the normal image 301 as in the display unit 213. An electronic image obtained by combining can be displayed.
  • an image signal indicating each of the normal image 301 and the split image 300 is input to the display device.
  • the display device displays the split image 300 indicated by the input image signal in the display area 302 of the split image 300 having a rectangular shape at the center of the screen. Further, the display device displays the normal image 301 indicated by the input image signal in the outer peripheral area of the split image 300.
  • the display device displays the normal image 301 indicated by the input image signal in the display area of the display device. Display in the whole area.
  • the display device displays the split image 300 indicated by the input image signal in the display area 302,
  • the outer peripheral area is a blank area. Note that the frame representing the display area 302 is not actually displayed, but is shown in FIG. 10 for convenience of explanation.
  • the imaging apparatus 100 generates a split image 300 obtained by combining the left eye image 300A and the right eye image 300B, and displays the generated split image 300 so as to be within the display area 302.
  • the visibility of the shift between the left eye image 300A and the right eye image 300B may be reduced, and the user may not be able to correctly recognize the focused state of the subject image.
  • the imaging apparatus 100 generates and displays the split image 300 in which the left eye image 300A and the right eye image 300B are shifted and protruded from the display area 302 in opposite directions. Perform display processing.
  • FIG. 11 is a flowchart showing the flow of processing of the confirmation image display processing program executed by the CPU 12 when the imaging apparatus 100 is set to manual focusing and the release switch 211 is half-pressed. .
  • the program is stored in advance in a predetermined storage area (in this embodiment, the memory 26).
  • the confirmation image display processing program is executed by the image processing unit 28 executing the confirmation image display processing program. Display processing may be performed.
  • the imaging apparatus 100 displays the normal image 301 and the split image 300 on at least one of the display unit 213 and the LCD 247. In the present embodiment, the imaging device 100 displays the split image 300 on the display unit 213.
  • step S401 image data indicating the left eye image 300A based on the image signal output from the first pixel group, and image data indicating the right eye image 300B based on the image signal output from the second pixel group, Obtained via the interface unit 24.
  • Each acquired image data is stored in a predetermined storage area (for example, the memory 26) by the CPU 12.
  • image data indicating the normal image 301 based on the image signal output from the third pixel group is acquired via the interface unit 24.
  • the CPU 12 acquires image data indicating the normal image 301 based on the image signal output from the third pixel group, but the acquisition method of the image data indicating the normal image 301 is not limited to this. That is, image data indicating the normal image 301 may be generated based on the acquired image data indicating each of the left eye image 300A and the right eye image 300B. Examples of a method for generating image data indicating the normal image 301 include a method in which the left-eye image 300A or the right-eye image 300B is used as the normal image 301 as it is.
  • complementary pixels are arranged between adjacent pixels, and image data indicating the normal image 301 using an average value of pixel values surrounding the complementary pixels as a pixel value of the complementary pixels. It may be a method of generating. Further, the method of generating the normal image 301 may be a method of generating the normal image 301 by combining the left eye image 300A and the right eye image 300B.
  • control for displaying the normal image 301 on the display unit 213 is performed.
  • the normal image 301 is displayed on the display unit 213, but the present invention is not limited to this, and the normal image 301 may be displayed on the LCD 247.
  • the eyepiece detection unit 37 detects that the user has looked into the viewfinder eyepiece unit 242
  • the normal image 301 is displayed on the LCD 247.
  • the normal image 301 is displayed on the display unit 213. It may be displayed.
  • step S407 information indicating the display area 302 in the display unit 213 (hereinafter referred to as “display area information”) is read from the memory 26.
  • the memory 26 stores in advance information indicating the range of the display area 302 indicated by a predetermined coordinate system in the display area of each display device as the display area information.
  • the CPU 12 may determine the display area 302 based on at least one of the left-eye image 300A, the right-eye image 300B, and the normal image 301 instead of reading the display area information.
  • the CPU 12 first extracts a pixel group in which the pixel value difference between adjacent pixels in at least one of the left eye image 300A, the right eye image 300B, and the normal image 301 is equal to or greater than a predetermined first threshold value.
  • the first threshold value is 1/10 of the dynamic range of the pixel value.
  • the CPU 12 further extracts a pixel group that is continuously arranged in the same direction by a predetermined second threshold or more from the extracted pixel group.
  • the second threshold is one third of the length in the division direction of the divided images of the left eye image 300A and the right eye image 300B.
  • the CPU 12 determines an area having a predetermined size as the display area 302 in the display area of the display device and having a large sum of the areas of the pixel groups included in the area as the display area 302. To do.
  • an area where many contour lines of each object in the subject are displayed is set as the display area 302, and the shift between the left eye image 300A and the right eye image 300B can be easily viewed.
  • the division directions of the left eye image 300A and the right eye image 300B are determined.
  • information indicating the division direction (hereinafter referred to as “division direction information”) is stored in the memory 26 in advance, and the division direction is determined by reading the division direction information.
  • the CPU 12 may determine the division direction based on at least one of the left eye image 300A, the right eye image 300B, and the normal image 301 instead of reading the division direction information. At this time, the CPU 12 first extracts a pixel group in which the pixel value difference between adjacent pixels in at least one of the left-eye image 300A, the right-eye image 300B, and the normal image 301 is equal to or greater than a predetermined third threshold. . In the present embodiment, the third threshold value is 1/10 of the dynamic range of the pixel value. Further, the CPU 12 further extracts a pixel group that is continuously arranged in the same direction by a predetermined fourth threshold or more from the extracted pixel group.
  • the second threshold value is half of the length in the division direction of the divided images of the left eye image 300A and the right eye image 300B. Then, the CPU 12 sets the direction in which each pixel is continuous in the extracted pixel group as the division direction. When there are a plurality of extracted pixel groups, among the directions in which the pixels in each pixel group are continuous, the directions in which the pixels in the pixel group having the largest difference in pixel values are continuous, or The direction in which the pixels in the pixel group having the largest number of continuous pixels are continuous may be set as the division direction.
  • step S411 information indicating the number of divisions of each of the left eye image 300A and the right eye image 300B (hereinafter referred to as “division number information”) is read from the memory 26.
  • the memory 26 stores the division number information in advance.
  • the display area 302 is a part of the display area of the display unit 213 (for example, the central part). Further, it is assumed that the division direction is the vertical direction in front view of FIG. 13 and the division number is 4. In this case, as shown in FIG. 13 as an example, the CPU 12 divides each of the left-eye image 300A and the right-eye image 300B into four regions in the front-view vertical direction in FIG.
  • the amount of parallax between the left eye image 300A and the right eye image 300B in a predetermined region including the boundary between the left eye image 300A and the right eye image 300B when the split image 300 is formed is derived.
  • the CPU 12 extracts corresponding points corresponding to the boundary areas of the left eye image 300A and the right eye image 300B. Further, the CPU 12 sets the average value of the shift amount between the left eye image 300A and the right eye image 300B at the coordinate position of each extracted corresponding point as the parallax amount of the parallax between the left eye image 300A and the right eye image 300B.
  • the predetermined region including the boundary is a region formed of pixels having a distance from the boundary within a predetermined number of pixels, but is not limited thereto.
  • a region corresponding to the object may be detected, and the detected region may be a predetermined region including the boundary.
  • the predetermined area including the boundary may be an area for which a phase difference is to be detected when the autofocus mode is set.
  • step S415 the shift amount between the left eye image 300A and the right eye image 300B when the split image 300 is generated is derived.
  • the CPU 12 may directly use the parallax amount derived by the process of step S413 as the shift amount.
  • the shift is performed in order to make it easy to visually recognize the shift between the left-eye image 300A and the right-eye image 300B. Emphasize the amount.
  • the shift amount D ′ is derived by multiplying the parallax amount D of the parallax between the left-eye image 300A and the right-eye image 300B by a predetermined coefficient ⁇ . To do.
  • the amount of parallax D is smaller than when the shift is large. Therefore, even if the left eye image 300A and the right eye image 300B are shifted and displayed by the amount of the parallax amount D. The user may not be able to recognize the shift.
  • the shift amount D ′ is increased by multiplying the parallax amount D by a coefficient ⁇ larger than 1 that increases as the shift amount of the focus position of the subject image increases.
  • the method of emphasizing the shift between the left eye image 300A and the right eye image 300B is not limited to this.
  • a coefficient that increases as the deviation amount of the focal position of the subject image increases, and a coefficient larger than 1 that decreases as the deviation amount increases.
  • the shift amount D ′ may be derived by multiplying ⁇ by the square of the parallax amount D.
  • the shift between the left eye image 300A and the right eye image 300B is nonlinearly enhanced by shifting the left eye image 300A and the right eye image 300B according to the shift amount D '.
  • is a predetermined coefficient.
  • the coefficients ⁇ and ⁇ in the above equations (1) and (2) may be determined from the relationship between the F value of the photographing lens 16 and the resolution of the EVF 248 and the image sensor 20. That is, the coefficients ⁇ and ⁇ may be determined on the assumption of easy visibility when the user visually recognizes the split image 300. For example, as the F value increases, the shift amount decreases. Therefore, the coefficient ⁇ may be increased as the F value increases. Further, since the effect of shifting the left eye image 300A and the right eye image 300B decreases as the resolution of the display device increases, the coefficient ⁇ may be increased as the resolution of the display device increases.
  • step S417 it is determined whether or not there is a boundary between the left eye image 300A and the right eye image 300B in the split image 300 that is not a target of the processing in steps S413 and S415. If the determination in step S417 is affirmative, the process returns to step S413. If the determination is negative, the process proceeds to step S419.
  • step S419 information indicating each of the display area, the division direction, the number of upper divisions, and the shift amount obtained by the above processing to the split image processing unit 32, and instruction information for instructing generation of the split image 300 are displayed.
  • the split image 300 is generated by outputting.
  • the split image processing unit 32 converts the first divided image that is a part of the plurality of left eye images 300A obtained by dividing the left eye image 300A in the dividing direction, and the right eye image 300B into the left eye image 300A.
  • a second divided image that is an image excluding an area corresponding to the first divided image of the plurality of right-eye images 300A obtained by dividing in the same manner as in FIG.
  • the split image processing unit 32 generates the split image 300 by alternately arranging the left eye image 300A and the right eye image 300B. As an example, as shown in FIG.
  • the split image processing unit 32 intersects the left eye image 300A and the right eye image 300B with the divided direction by the derived shift amount D ′ (in the present embodiment, the orthogonal direction). Are shifted in opposite directions. At this time, the left eye image 300A and the right eye image 300B sandwiching each of the boundaries are shifted and displayed using the shift amount D ′ corresponding to each of the boundaries.
  • D ′ in the present embodiment, the orthogonal direction
  • the shift amount D ′ is derived for each boundary, but the present invention is not limited to this. That is, as shown in FIG. 17 as an example, the average value of the parallax amount of the parallax in the entire region of the left eye image 300A and the right eye image 300B is derived, and the entire region of the left eye image 300A and the right eye image 300B is derived according to the derived average value.
  • the same shift amount D ′ may be applied.
  • control is performed to display the split image 300 generated by the split image processing unit 32 in the display area 302 of the display unit 213.
  • the larger the parallax amount D of the parallax between the left eye image 300A and the right eye image 300B the larger the shift amount D '.
  • the split image 300 is in the state shown in FIG. 16, it is assumed that the focus position is moved in the direction in which the parallax amount D of the parallax between the left-eye image 300A and the right-eye image 300B is reduced by operating the focus ring 260.
  • the shift between the left-eye image 300A and the right-eye image 300B in the split image 300 is smaller than that in the previous state. That is, the user moves the focus position in the direction in which the shift amount of the left eye image 300A and the right eye image 300B in the split image 300 is reduced by operating the focus ring 260 while visually recognizing the split image 300. Can be focused.
  • step S423 it is determined whether or not the subject image is in focus.
  • the CPU 12 determines that the subject image is in focus when the parallax amount of the parallax between the left-eye image 300A and the right-eye image 300B is within a predetermined range including 0 (zero). If a negative determination is made in step S423, the process proceeds to step S427 described later.
  • step S423 the process proceeds to step S425, the user is notified that the subject image is in focus, and then the process proceeds to step S427.
  • the notification method as shown in FIG. 19 as an example, for example, a method of displaying the outer peripheral frame 304 of the split image 300 in a predetermined color, a method of outputting a predetermined sound, A method of changing the color of the split image 300 itself can be applied.
  • a method of changing the color of the split image 300 itself for example, a method of displaying the chromatic color by replacing the achromatic left eye image 300A and the right eye image 300B in the split image 300 with the normal image 301 may be applied. .
  • step S427 it is determined whether or not the focus position has been changed by the user operating the focus ring 260. If the determination in step S427 is affirmative, the process returns to step S413 described above, while if the determination is negative, the process proceeds to step S429.
  • step S429 it is determined whether or not a shooting instruction has been input by a user operation.
  • the CPU 12 determines that a shooting instruction has been input when a full-press operation on the release switch 211 is detected. If a negative determination is made in step S429, the process returns to step S427 described above, whereas if an affirmative determination is made, the process proceeds to step S431.
  • step S431 at the timing when the release switch 211 is fully pressed, a photographing process for recording image data indicating the normal image 301 in the memory 26 is performed, and the confirmation image generation processing program is terminated.
  • photography process is an imaging process currently generally performed, description here is abbreviate
  • the user can recognize the shift amount of the left-eye image 300A and the right-eye image 300B by visually recognizing the shift of the image 306 in the split image 300.
  • the split image 300 is generated using the left-eye image 300A and the right-eye image 300B.
  • the present invention is not limited to this, and the split image 300 is generated using the normal image 301 displayed as the subject image. May be. That is, as an example, as shown in FIG. 21, the normal images 301 may be arranged at the arrangement positions of the left eye image 300A and the right eye image 300B described above. In this case, the split image 300 is displayed in the same color as the normal image 301 that is the subject image.
  • FIG. 22 As shown on the left side of FIG. 22 and the like, a non-display area 303 is generated. Therefore, as an example, as shown on the left side of FIG. 22, it is assumed that the left eye image 300A and the right eye image 300B are shifted according to the shift amount.
  • the pixel value of the corresponding pixel in the normal image 301 may be the pixel value of each pixel in the non-display area 303.
  • the division direction is divided in the vertical direction in the front view of FIG. 23A, but the division direction is not limited to this and may be any direction. That is, as an example, as shown in FIG. 23B, the division direction may be the left-right direction in the front view of FIG.
  • the number of divisions is four, but the number of divisions is not limited to this and may be any natural number of two or more. That is, as an example, as shown in FIG. 23C, the number of divisions may be two.
  • the left-eye image 300A and the right-eye image 300B are divided by a predetermined division number or a derived division number in a predetermined division direction or a derived division direction. Then, when the CPU 12 performs control to display the split image 300, when the user operation instructs to change the division direction, the number of divisions, the position of the boundary, etc., the division direction, the number of divisions, The boundary position and the like may be changed.
  • the split image 300 is generated with the division direction set to the vertical direction in FIG.
  • the downward direction of the cross key 222 is pressed by a user operation, for example, as shown on the right side of FIG. 24, the CPU 12 moves the position of the boundary downward in the front view of FIG.
  • the imaging apparatus 100 includes a face area recognition unit that recognizes a face area indicating a human face from at least one of the left eye image 300A, the right eye image 300B, and the normal image 301.
  • the imaging apparatus 100 may use the face area recognized by the face area recognition unit as the display area 302 of the split image 300.
  • the face area recognizing means detects areas corresponding to eyes, nose, mouth and the like constituting the human face from the subject image, and recognizes the human face area according to the size and arrangement of each area.
  • the method for recognizing the face area is not limited to this, and a commonly used known method can be used.
  • a face area 310 recognized in, for example, the normal image 301 by the face area recognition unit is set as a display area 302 of the split image 300.
  • the light shielding member 20A or the light shielding member 20B is provided in the G filter of the color filter 21, but the present invention is not limited to this. That is, as an example, as illustrated in FIG. 26, a phase difference pixel may be provided for each of a G filter pixel, an R filter pixel, and a B filter pixel.
  • a phase difference pixel may be provided for each of a G filter pixel, an R filter pixel, and a B filter pixel.
  • a pixel group on the A plane and a pixel group on the B plane that are Bayer arrays are arranged in the horizontal direction and They are arranged with a half-pitch deviation from each other in the vertical direction.
  • the pixel group on the A surface includes a first pixel group
  • the pixel group on the B surface includes a second pixel group.
  • Each of the A-side pixel group and the B-side pixel group includes a third pixel group.
  • the imaging device 100 is illustrated.
  • a mobile terminal device that is a modification of the imaging device 100, for example, a mobile phone or a smartphone having a camera function, a PDA (Personal Digital Assistant), a portable game machine Etc.
  • a smartphone will be described as an example, and will be described in detail with reference to the drawings.
  • FIG. 27 is a perspective view showing an example of the appearance of the smartphone 500.
  • a smartphone 500 illustrated in FIG. 27 includes a flat housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. Part 520.
  • the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541. Note that the configuration of the housing 502 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent, or a configuration having a folding structure or a slide structure may be employed.
  • FIG. 28 is a block diagram showing an example of the configuration of the smartphone 500 shown in FIG.
  • the main components of the smartphone 500 include a wireless communication unit 510, a display input unit 520, a call unit 530, an operation unit 540, a camera unit 541, a storage unit 550, and an external input / output. Part 560.
  • the smartphone 500 includes a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501.
  • GPS Global Positioning System
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 510 performs wireless communication with a base station apparatus accommodated in the mobile communication network in accordance with an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 520 is a so-called touch panel, and includes a display panel 521 and an operation panel 522. For this reason, the display input unit 520 displays images (still images and moving images), character information, and the like visually by controlling the main control unit 501, and visually transmits information to the user, and performs user operations on the displayed information. To detect. Note that when viewing the generated 3D, the display panel 521 is preferably a 3D display panel.
  • the display panel 521 uses an LCD, OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus. When such a device is operated by a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects an operation position (coordinates) on the display panel 521 based on the received detection signal.
  • the display panel 521 and the operation panel 522 of the smartphone 500 integrally form the display input unit 520, but the operation panel 522 is disposed so as to completely cover the display panel 521. ing.
  • the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521.
  • the operation panel 522 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 521 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 521. May be included).
  • the operation panel 522 may include two sensitive regions of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like.
  • examples of the position detection method employed in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. You can also
  • the call unit 530 includes a speaker 531 and a microphone 532.
  • the call unit 530 converts the user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501 and outputs the voice data to the main control unit 501. Further, the call unit 530 decodes the audio data received by the wireless communication unit 510 or the external input / output unit 560 and outputs it from the speaker 531.
  • the speaker 531 can be mounted on the same surface as the display input unit 520 and the microphone 532 can be mounted on the side surface of the housing 502.
  • the operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 540 is mounted on the side surface of the housing 502 of the smartphone 500 and is turned on when pressed with a finger or the like, and is turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.
  • the storage unit 550 stores the control program and control data of the main control unit 501, application software, address data that associates the name and telephone number of the communication partner, and transmitted / received e-mail data.
  • the storage unit 550 stores Web data downloaded by Web browsing and downloaded content data.
  • the storage unit 550 temporarily stores streaming data and the like.
  • the storage unit 550 includes an external storage unit 552 having an internal storage unit 551 built in the smartphone and a removable external memory slot.
  • Each of the internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 is realized using a storage medium such as a flash memory type (hard memory type) or a hard disk type (hard disk type).
  • multimedia card micro type multimedia card micro type
  • card type memory for example, MicroSD (registered trademark) memory
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and is used to connect directly or indirectly to other external devices through communication or the like or a network. is there. Examples of communication with other external devices include universal serial bus (USB), IEEE 1394, and the like. Examples of the network include the Internet, wireless LAN, Bluetooth (Bluetooth (registered trademark)), RFID (Radio Frequency Identification), and infrared communication (Infrared Data Association: IrDA (registered trademark)). Other examples of the network include UWB (Ultra Wideband (registered trademark)) and ZigBee (registered trademark).
  • Examples of the external device connected to the smartphone 500 include a wired / wireless headset, wired / wireless external charger, wired / wireless data port, and a memory card connected via a card socket.
  • Other examples of external devices include SIM (Subscriber Identity Module Card) / UIM (User Identity Module Card) cards, and external audio / video devices connected via audio / video I / O (Input / Output) terminals. Can be mentioned.
  • an external audio / video device that is wirelessly connected can be used.
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 500, or may allow data inside the smartphone 500 to be transmitted to the external device. it can.
  • the GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 501, performs positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 500 Detect the position consisting of longitude and altitude.
  • the GPS reception unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN), the GPS reception unit 570 can also detect the position using the position information.
  • the motion sensor unit 580 includes a triaxial acceleration sensor, for example, and detects the physical movement of the smartphone 500 in accordance with an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.
  • the power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 in accordance with an instruction from the main control unit 501.
  • the main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the storage unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 510.
  • the application processing function is realized by the main control unit 501 operating according to the application software stored in the storage unit 550.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 560 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 501 has an image processing function such as displaying video on the display input unit 520 based on image data (still image data or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.
  • the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.
  • the main control unit 501 By executing the display control, the main control unit 501 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar
  • the scroll bar refers to a software key for accepting an instruction to move a display portion of an image, such as a large image that does not fit in the display area of the display panel 521.
  • the main control unit 501 detects a user operation through the operation unit 540, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 522. Or, by executing the operation detection control, the main control unit 501 accepts a display image scroll request through a scroll bar.
  • the main control unit 501 causes the operation position with respect to the operation panel 522 to overlap with the display panel 521 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 521.
  • a touch panel control function for controlling the sensitive area of the operation panel 522 and the display position of the software key is provided.
  • the main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 541 is a digital camera that captures an image using an image sensor such as a CMOS or a CCD, and has the same function as the image capturing apparatus 100 shown in FIG.
  • the camera unit 541 can switch between a manual focus mode and an autofocus mode.
  • the photographing lens 16 of the camera unit 541 can be focused by operating a focus icon button or the like displayed on the operation unit 540 or the display input unit 520.
  • the manual focus mode the live view image obtained by combining the split images is displayed on the display panel 521 so that the in-focus state during the manual focus can be confirmed.
  • the camera unit 541 converts the image data obtained by imaging into compressed image data such as JPEG (Joint Photographic coding Experts Group) under the control of the main control unit 501.
  • the converted image data can be recorded in the storage unit 550 or output through the external input / output unit 560 or the wireless communication unit 510.
  • the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this, and the camera unit 541 may be mounted on the back surface of the display input unit 520.
  • a plurality of camera units 541 may be mounted. Note that when a plurality of camera units 541 are mounted, the camera unit 541 used for imaging may be switched and imaged alone, or a plurality of camera units 541 may be used simultaneously for imaging. it can.
  • the camera unit 541 can be used for various functions of the smartphone 500.
  • an image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of operation inputs of the operation panel 522.
  • the GPS receiving unit 570 detects the position, the position can also be detected with reference to an image from the camera unit 541.
  • the optical axis direction of the camera unit 541 of the smartphone 500 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 541 can be used in the application software.
  • various kinds of information can be added to still image or moving image data and recorded in the storage unit 550 or output through the external input / output unit 560 or the wireless communication unit 510.
  • the “various information” herein include, for example, position information acquired by the GPS receiving unit 570 and image information of the still image or moving image, audio information acquired by the microphone 532 (sound text conversion by the main control unit or the like). May be text information).
  • posture information acquired by the motion sensor unit 580 may be used.
  • the image pickup device 20 having the first to third pixel groups is illustrated, but the present invention is not limited to this, and only the first pixel group and the second pixel group.
  • An image sensor made of A digital camera having this type of image sensor generates a three-dimensional image (3D image) based on the first image output from the first pixel group and the second image output from the second pixel group. 2D images (2D images) can also be generated. In this case, the generation of the two-dimensional image is realized, for example, by performing an interpolation process between pixels of the same color in the first image and the second image. Moreover, you may employ
  • the split image 300 is displayed in the display area of the normal image 301.
  • the present invention is not limited to this, and the normal image 301 is displayed on the display device.
  • the split image 300 may be displayed without displaying it.
  • the split image 300 is displayed in a part of the display area of the display device.
  • the present invention is not limited to this, and the split image 300 may be displayed in the entire display area of the display device.
  • the present invention is not limited to a mode in which both the normal image 301 and the split image 300 are simultaneously displayed on the same screen of the display device.
  • the display control unit 36 when the display instruction of the normal image 301 is canceled while the display of the split image 300 is instructed, the display control unit 36 does not display the normal image 301 on the display device, and the split image is displayed. Control for displaying 300 may be performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Computing Systems (AREA)
  • Automatic Focus Adjustment (AREA)
  • Theoretical Computer Science (AREA)
  • Focusing (AREA)
  • Viewfinders (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)

Abstract

 画像処理装置は、被写体像が瞳分割されて結像される第1及び第2の画素群を有する撮像素子からの画像信号に基づいて第1の表示用画像、及び合焦確認に使用する第2の表示用画像を生成する生成手段と、第1の画像の各画素と第2の画像の各画素との視差を算出する視差算出手段と、画像を表示する表示手段と、第1の表示用画像の表示領域内に第2の表示用画像を表示させる制御を行う表示制御手段と、を備え、生成手段は、第1の画像の一部である第1の分割画像、及び第2の画像の第1の分割画像に対応する領域を除く第2の分割画像を、視差に応じた量だけ分割方向とは交差する交差方向に対して相反する方向にずらして配置した第2の表示用画像を生成する。

Description

画像処理装置、撮像装置、プログラム及び画像処理方法
 本発明は、画像処理装置、撮像装置、プログラム及び画像処理方法に係り、特に、被写体像の合焦状態を確認するための画像を生成して表示する画像処理装置、上記合焦状態を確認するための画像と被写体像とを表示する撮像装置、上記画像処理装置により実行されるプログラム、及び上記合焦状態を確認するための画像を生成して表示する画像処理方法に関する。
 従来、デジタルカメラやカメラ付きの携帯電話機等の撮像装置のユーザから、被写体像の合焦状態を確認しつつ焦点調整を行うことができる技術の開発が要望されていた。この要望を満たすために、被写体像において焦点を合わせたい箇所を撮像装置の表示手段に拡大して表示させ、合焦状態の確認を行いやすくする手法が用いられている。
 ところが、この手法を用いた場合には、合焦状態の確認を行っている際に被写体像全体を視認することができないため、被写体像全体を参照しながら合焦状態を確認することが困難となる。
 一方、これらの撮像装置において、手動で焦点調整を行う作業を容易にするために、スプリットイメージをライブビュー画像(スルー画像)内に表示する技術が用いられるようになってきた。なお、スプリットイメージとは、所定領域に対応する左目画像の一部と右目画像の一部とを合成した画像である。このスプリットイメージにおいては、合焦状態に応じて、左目画像と右目画像との間で視差発生方向に対するずれが発生する。この技術を利用し、ユーザは、スプリットイメージにおける左目画像と右目画像とのずれを視認することで合焦状態を確認する。
 この技術を用いた撮像装置として、特開2001-309210号公報には、光学系を介して被写体の像を画像信号として取得する撮影部と、光学系における被写体に対する像面と撮像部の受光面との間の距離に相当するずれ量を検出する検出部と、撮像部により取得された画像信号に基づいて被写体の画像を表示画面に表示する表示手段と、表示画面の一部の領域である表示変更領域の表示内容を被写体の画像を利用しつつずれ量に応じて変更する表示変更手段とを備えた撮像装置が開示されている。この撮像装置によれば、手動で焦点調整を行う際に、スプリットイメージを利用する焦点調整と同様の感覚で焦点調整を行うことが可能になる。
 また、特開2009-147665号公報には、撮像光学系からの光束のうち、瞳分割手段によって分割された光束により形成された第1の被写体像及び第2の被写体像をそれぞれ光電変換して第1の画像及び第2の画像を生成するとともに、瞳分割手段によって分割されない光束により形成された第3の被写体像を光電変換して第3の画像を生成する画像取得手段と、第3の画像を表示する表示手段と、第3の画像内に表示するスプリットイメージを生成するスプリットイメージ生成手段とを有する撮像装置が開示されている。この撮像装置は、スプリットイメージ生成手段により第1及び第2の画像を用いてスプリットイメージを生成し、第3の画像から抽出した色情報をスプリットイメージに付加する撮像装置である。この撮像装置によれば、手動で焦点調整を行う際の使い勝手を向上させることが可能になる。
 また、特開2009-163220号公報には、撮像光学系からの光束のうち、瞳分割手段によって分割された光束により形成された第1の被写体像及び第2の被写体像をそれぞれ光電変換して第1の画像及び第2の画像を生成する画像取得手段と、画像を表示する表示手段と、前記第1及び第2の画像を重畳させた重畳画像を前記表示手段に表示させる処理手段とを有する撮像装置が開示されている。この撮像装置によれば、スプリットイメージの視認性を向上させることが可能になる。
 しかしながら、特開2001-309210号公報、特開2009-147665号公報、及び特開2009-163220号公報に開示されている技術では、被写体像によっては、スプリットイメージを表示するための予め定められた表示領域内にスプリットイメージのみを表示させている。その場合、ユーザがスプリットイメージにおける上記ずれのずれ量を正しく判断できない場合がある。この場合には、ユーザが焦点調整を高精度に行うことができない可能性があった。
 本発明は、手動での焦点調整を高精度に行うことができる画像処理装置、撮像装置、プログラム及び画像処理方法を提供する。
 上記目的を達成するために、本発明に係る画像処理装置は、撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、かつ前記第1及び第2の画素群から出力された画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成手段と、前記第1の画像の各画素と前記第2の画像の対応する各画素とのずれ量を示す視差を算出する視差算出手段と、画像を表示する表示手段と、前記表示手段に対して前記生成手段により生成された前記第1の表示用画像を表示し、かつ該第1の表示用画像の表示領域内に前記生成手段により生成された前記第2の表示用画像を表示させる制御を行う表示制御手段とを備え、前記生成手段は、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像の一部である第1の分割画像、及び第2の画像を前記第1の画像と同様に分割して得られた複数の分割画像の前記第1の分割画像に対応する領域を除く画像である第2の分割画像を、前記視差に応じた量だけ前記分割方向とは交差する交差方向に対して相反する方向にずらして配置した前記第2の表示用画像を生成する。
 本発明に係る画像処理装置によれば、生成手段により、撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像が生成され、かつ前記第1及び第2の画素群から出力された画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像が生成される。また、視差算出手段により、前記第1の画像の各画素と前記第2の画像の対応する各画素とのずれ量を示す視差が算出される。さらに、表示制御手段により、表示手段に対して前記生成手段により生成された前記第1の表示用画像を表示し、かつ該第1の表示用画像の表示領域内に前記生成手段により生成された前記第2の表示用画像を表示させる制御が行われる。
 ここで、本発明では、前記生成手段により、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像の一部である第1の分割画像、及び第2の画像を前記第1の画像と同様に分割して得られた複数の分割画像の前記第1の分割画像に対応する領域を除く画像である第2の分割画像を、前記視差に応じた量だけ前記分割方向とは交差する交差方向に対して相反する方向にずらして配置した前記第2の表示用画像が生成される。
 このように、本発明に係る画像処理装置は、第1の画像の一部及び第2の画像の一部を相反する方向にずらして配置した第1の表示用画像(上記合焦状態を確認するための画像に対応)を生成する。そのため、本発明に係る画像処理装置によれば、第1の画像及び第2の画像のずれを視認することが容易になるので、本発明を適用しない場合に比較して、手動での焦点調整を高精度に行うことができる。
 なお、本発明に係る画像処理装置において、前記生成手段は、前記第1の分割画像と前記第2の分割画像とを前記分割方向に交互に配置して前記第1の表示用画像を生成するようにしても良い。これにより、第1の表示用画像に対する視認性を向上させることができる。
 また、本発明に係る画像処理装置において、前記視差算出手段は、前記第1の分割画像及び前記第2の分割画像の境界を含む予め定められた領域における前記視差を算出するようにしても良い。これにより、ずらす位置に応じたずれ量で上記第1の画像及び第2の画像をずらすことができる。
 また、本発明に係る画像処理装置において、前記生成手段は、前記第1の画像及び前記第2の画像の少なくとも一方において隣接する画素間の画素値の差分が予め定められた第1の閾値以上となり、かつ同一方向に予め定められた第2の閾値以上連続して配置された画素群を抽出し、抽出した画素群において各画素が連続して配置された方向の何れか1つを前記分割方向として前記第2の表示用画像を生成するようにしても良い。これにより、より高精度に、手動での焦点調整を行うことができる。
 また、本発明に係る画像処理装置において、前記生成手段は、前記視差算出手段により算出された前記視差に予め定められた1より大きい係数を乗算した値を、前記視差に応じた量として前記第2の表示用画像を生成するようにしても良い。これにより、第1の画像及び第2の画像の視差の視差量が小さい場合にも、ずれを視認しやすくすることができる。
 また、本発明に係る画像処理装置において、前記生成手段は、前記視差算出手段により算出された前記視差に、前記視差が大きくなるほど大きくなる係数であって、前記視差が大きくなるほど大きくなる度合いが小さくなる1より大きい係数を乗算した値を、前記視差に応じた量として前記第2の表示用画像を生成するようにしても良い。これにより、第1の画像及び第2の画像の視差の視差量が小さい場合にも、ずれをより視認しやすくすることができる。
 また、本発明に係る画像処理装置において、前記生成手段は、前記第1の画像及び前記第2の画像の少なくとも一方において隣接する画素間の画素値の差分が予め定められた閾値より大きい画素群を抽出し、予め定められたサイズの領域であって、当該領域内に含まれる前記画素群の面積の総和が最も大きい領域を、前記第2の表示用画像の生成対象とする領域として前記第2の表示用画像を生成するようにしても良い。これにより、より高精度に、手動での焦点調整を行うことができる。
 また、本発明に係る画像処理装置において、前記第1の画像及び前記第2の画像の少なくとも一方から顔に対応する顔領域を抽出する顔領域抽出手段を更に備え、前記生成手段は、前記顔領域抽出手段により抽出された顔領域を、前記第2の表示用画像の生成対象とする領域として前記第2の表示用画像を生成するようにしても良い。これにより、一般に焦点を合わせたい領域である顔の領域を用いて焦点を合わせることができる。
 また、本発明に係る画像処理装置において、前記生成手段は、被写体像が瞳分割されずに結像され、第3の画像を示す画像信号を出力する第3の画素群から出力された前記画像信号に基づく前記第3の画像を、前記分割方向に分割して得られた複数の分割画像の一部である第3の分割画像、及び該複数の分割画像のうちの前記第3の分割画像に対応する領域を除く画像である第4の分割画像を、前記視差に応じた距離だけ前記交差方向に対して相反する方向にずらして配置することで前記第2の表示用画像を生成するようにしても良い。これにより、被写体像が瞳分割されずに結像されて得られた画像を用いて焦点を合わせることができる。
 また、本発明に係る記載の画像処理装置において、前記生成手段は、被写体像が瞳分割されずに結像され、第3の画像を示す画像信号を出力する第3の画素群から出力された前記画像信号に基づく前記第3の画像を前記第2の表示用画像として生成する。これにより、被写体像が瞳分割されずに結像されて得られた画像を表示させることができる。
 また、本発明に係る画像処理装置において、前記表示制御手段は、前記第2の表示用画像の前記交差方向の端部を示す画像を前記表示手段に更に表示する制御を行うようにしても良い。これにより、より高精度に第1の画像及び第2の画像のずれを視認することができる。
 また、本発明に係る画像処理装置において、前記表示制御手段は、前記表示手段の表示領域のうちの前記第2の表示用画像を表示する予め定められた第1の表示用領域を除いた表示領域である第2の表示用領域に、前記第2の表示用画像を当該第1の表示用画像に重畳させて表示する場合、前記第1の分割画像及び前記第2の分割画像をずらして配置したことによって前記第1の表示用領域において前記第2の表示用画像に対応する画素が存在しない領域の画素の画素値を、前記第1の表示用画像において当該領域に対応する画素の画素値として前記第2の表示用画像を表示するようにしても良い。これにより、第1の表示用画像の美観を向上させることができる。
 さらに、上記目的を達成するために、本発明に記載の撮像装置は、本発明の画像処理装置と、前記撮影レンズと、前記撮影レンズを介して被写体像を画像信号として取得する撮像素子と、を備えている。
 従って、本発明に係る撮像装置によれば、本発明に係る画像処理装置と同様に作用するので、本発明に係る画像処理装置と同様に、本発明を適用しない場合に比較して、手動での焦点調整を高精度に行うことができる。
 一方、上記目的を達成するために、本発明に係るプログラムは、コンピュータを、撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、かつ前記第1及び第2の画素群から出力された画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成手段と、
 前記第1の画像の各画素と前記第2の画像の対応する各画素とのずれ量を示す視差を算出する視差算出手段と、前記生成手段により生成された前記第1の表示用画像を表示手段に表示させ、かつ該第1の表示用画像の表示領域内に前記生成手段により生成された前記第2の表示用画像を表示させる制御を行う表示制御手段と、として機能させるためのプログラムであって、前記生成手段は、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像の一部である第1の分割画像、及び第2の画像を前記第1の画像と同様に分割して得られた複数の分割画像の前記第1の分割画像に対応する領域を除く画像である第2の分割画像を、前記視差に応じた量だけ前記分割方向とは交差する交差方向に対して相反する方向にずらして配置した前記第2の表示用画像を生成するプログラムである。
 従って、本発明に係るプログラムによれば、コンピュータを本発明に係る画像処理装置と同様に作用させるので、本発明に係る画像処理装置と同様に、本発明を適用しない場合に比較して、手動での焦点調整を高精度に行うことができる。
 さらに、上記目的を達成するために、本発明に係る画像処理方法は、撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、かつ前記第1及び第2の画素群から出力された画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成ステップと、前記第1の画像の各画素と前記第2の画像の対応する各画素とのずれ量を示す視差を算出する視差算出ステップと、前記生成ステップにより生成された前記第1の表示用画像を表示手段に表示させ、かつ該第1の表示用画像の表示領域内に前記生成手段により生成された前記第2の表示用画像を表示させる制御を行う表示制御ステップと、を有し、前記生成ステップにて、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像の一部である第1の分割画像、及び第2の画像を前記第1の画像と同様に分割して得られた複数の分割画像の前記第1の分割画像に対応する領域を除く画像である第2の分割画像を、前記視差に応じた量だけ前記分割方向とは交差する交差方向に対して相反する方向にずらして配置した前記第2の表示用画像を生成する。
 従って、本発明に係る画像処理方法によれば、本発明に係る画像処理装置と同様に作用するので、本発明に係る画像処理装置と同様に、本発明を適用しない場合に比較して、手動での焦点調整を高精度に行うことができる。
 本発明によれば、手動での焦点調整を高精度に行うことができる。
第1実施形態に係るレンズ交換式カメラである撮像装置の外観の一例を示す斜視図である。 第1実施形態に係る撮像装置の背面側を示す背面図である。 第1実施形態に係る撮像装置の電気系の構成の一例を示すブロック図である。 実施形態に係る撮像装置に含まれる撮像素子に設けられているカラーフィルタの配置の一例を示す概略配置図である。 実施形態に係るカラーフィルタに含まれる2×2画素のG画素の画素値から相関方向を判別する方法の説明に供する図である。 実施形態に係るカラーフィルタに含まれる基本配列パターンの概念を説明するための図である。 実施形態に係る撮像装置の撮像素子に設けられている遮光部材の配置の一例を示す概略配置図である。 実施形態に係る撮像装置の撮像素子の位相差画素(第1の画素及び第2の画素)の構成の一例を示す概略構成図である。 実施形態に係る撮像装置の要部機能の一例を示すブロック図である。 実施形態に係る通常画像及びスプリットイメージの表示態様の一例を示す正面図である。 実施形態に係る確認画像表示処理プログラムの処理の流れを示すフローチャートである。 実施形態に係るスプリットイメージの表示領域の一例を示す正面図である。 実施形態に係るスプリットイメージの表示領域の分割方法の一例を示す正面図である。 実施形態に係る撮像装置におけるレンズ駆動とずらし量との関係の一例を示すグラフである。 実施形態に係る撮像装置におけるレンズ駆動とずらし量との関係の一例を示すグラフである。 実施形態に係るスプリットイメージの表示態様の一例を示す正面図である。 実施形態に係るスプリットイメージの表示態様の一例を示す正面図である。 実施形態に係るスプリットイメージの表示態様の一例を示す正面図である。 実施形態に係るスプリットイメージの表示態様の一例を示す正面図である。 実施形態に係るスプリットイメージの表示態様の一例を示す正面図である。 実施形態に係るスプリットイメージの表示態様の一例を示す正面図である。 実施形態に係るスプリットイメージの表示態様の一例を示す正面図である。 実施形態に係るスプリットイメージの表示領域の分割方法の一例を示す正面図である。 実施形態に係るスプリットイメージの表示領域の分割画像の一例を示す正面図である。 実施形態に係るスプリットイメージの表示領域の分割画像の一例を示す正面図である。 実施形態に係るスプリットイメージの表示領域の分割画像の一例を示す正面図である。 実施形態に係るスプリットイメージの表示領域の分割画像の一例を示す正面図である。 実施形態に係る撮像装置の撮像素子に設けられているカラーフィルタの配列及び遮光部材の配置の一例を示す概略配置図である。 第2実施形態に係るスマートフォンの外観の一例を示す斜視図である。 第2実施形態に係るスマートフォンの電気系の要部構成の一例を示すブロック図である。
 以下、添付図面に従って本発明に係る撮像装置の実施の形態の一例について説明する。
 [第1実施形態]
 本実施形態に係る撮像装置100は、レンズ交換式カメラであり、図1に示すように、カメラ本体200と、カメラ本体200に交換可能に装着される交換レンズ258(撮影レンズ、フォーカスレンズ260)と、を含み、レフレックスミラーが省略されたデジタルカメラである。また、カメラ本体200には、ハイブリッドファインダー(登録商標)220が設けられている。ここで言うハイブリッドファインダー220とは、例えば光学ビューファインダー(以下、「OVF」という)及び電子ビューファインダー(以下、「EVF」という)が選択的に使用されるファインダーを指す。
 カメラ本体200と交換レンズ258とは、カメラ本体200に備えられたマウント256と、マウント256に対応する交換レンズ258側のマウント346(図3参照)とが結合されることにより交換可能に装着される。また、交換レンズ258の鏡筒にはフォーカスリング260が設けられ、フォーカスリング260の回転操作に伴ってフォーカスレンズを光軸方向に移動させ、被写体距離に応じた合焦位置で後述の撮像素子20(図3参照)に被写体光を結像させることができる。
 カメラ本体200の前面には、ハイブリッドファインダー220に含まれるOVFのファインダー窓241が設けられている。また、カメラ本体200の前面には、ファインダー切替えレバー214が設けられている。ファインダー切替えレバー214を矢印SW方向に回動させると、OVFで視認可能な光学像とEVFで視認可能な電子像(ライブビュー画像)との間で切り換わるようになっている(後述)。なお、OVFの光軸L2は、交換レンズ258の光軸L1とは異なる光軸である。また、カメラ本体200の上面には、主としてレリーズスイッチ211及び撮影モードや再生モード等の設定用のダイヤル212が設けられている。
 レリーズスイッチ211は、待機位置から中間位置(半押し位置)まで押下される状態と、中間位置を超えた最終押下位置(全押し位置)まで押下される状態と、の2段階の押圧操作が検出可能に構成されている。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。本第1実施形態に係る撮像装置100では、レリーズスイッチ211を半押し状態にすることにより後述する確認画像表示処理が実行され、その後、引き続き全押し状態にすると露光(撮影)が行われる。
 図2に示すように、カメラ本体200の背面には、OVFのファインダー接眼部242、表示部213、十字キー222、MENU/OKキー224、BACK/DISPボタン225が設けられている。
 十字キー222は、メニューの選択、ズームやコマ送り等の各種の指令信号を出力するマルチファンクションのキーとして機能する。MENU/OKキー224は、表示部213の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。BACK/DISPボタン225は、選択項目など所望の対象の消去や指定内容の取消、あるいは1つ前の操作状態に戻すときなどに使用される。
 表示部213は、例えばLCDにより実現され、撮影モード時に連続フレームで撮像されて得られた連続フレーム画像の一例であるライブビュー画像(スルー画像)の表示に用いられる。また、表示部213は、静止画撮影の指示が与えられた場合に単一フレームで撮像されて得られた単一フレーム画像の一例である静止画像の表示にも用いられる。更に、表示部213は、再生モード時の再生画像の表示やメニュー画面等の表示にも用いられる。
 撮像装置100は、撮影した静止画像や動画像を記録するデジタルカメラであり、カメラ全体の動作は、図3に示されるCPU(Central Processing Unit:中央処理装置)12によって統括制御されている。同図に示すように、撮像装置100は、CPU12の他に、操作部14、インタフェース部24、メモリ26及びエンコーダ34を含む。また、撮像装置100は、本発明に係る表示制御手段の一例である表示制御部36、接眼検出部37及び外部インタフェース(I/F)39を含む。また、撮像装置100は、本発明に係る生成手段及び視差算出手段の一例である画像処理部28を含む。
 CPU12、操作部14、インタフェース部24、メモリ26、画像処理部28、エンコーダ34、表示制御部36、接眼検出部37及び外部インタフェース(I/F)39は、バス40を介して相互に接続されている。なお、メモリ26は、パラメータやプログラムなどが記憶された不揮発性の記憶領域(一例としてEEPROMなど)と画像などの各種情報が一時的に記憶される揮発性の記憶領域(一例としてSDRAMなど)とを有する。
 なお、本第1実施形態に係る撮像装置100では、CPU12が、撮像によって得られた画像のコントラスト値が最大となるように焦点調整モータを駆動制御することによって合焦制御を行う。また、CPU12は、撮像によって得られた画像の明るさを示す物理量であるAE情報を算出する。CPU12は、レリーズスイッチ211が半押し状態とされたときには、AE情報により示される画像の明るさに応じたシャッタースピード及びF値を導出する。そして、導出したシャッタースピード及びF値となるように関係各部を制御することによって露出状態の設定を行う。
 操作部14は、撮像装置100に対して各種指示を与える際に操作者によって操作されるユーザインタフェースである。操作部14によって受け付けられた各種指示は操作信号としてCPU12に出力され、CPU12は、操作部14から入力された操作信号に応じた処理を実行する。
 操作部14は、レリーズスイッチ211、ダイヤル212、表示部213、ファインダー切替えレバー214、十字キー222、MENU/OKキー224及びBACK/DISPボタン225を含む。
 ダイヤル212により撮影モードが設定されると、被写体を示す画像光は、手動操作により移動可能なフォーカスレンズを含む撮影レンズ16及びシャッタ18を介してカラーの撮像素子(一例としてCMOSセンサ)20の受光面に結像される。撮像素子20に蓄積された信号電荷は、デバイス制御部22から加えられる読出し信号によって信号電荷(電圧)に応じたデジタル信号として順次読み出される。撮像素子20は、いわゆる電子シャッタ機能を有しており、電子シャッタ機能を働かせることで、読出し信号のタイミングによって各フォトセンサの電荷蓄積時間(シャッタスピード)を制御する。なお、本第1実施形態に係る撮像素子20は、CMOS型のイメージセンサであるが、これに限らず、CCDイメージセンサでもよい。
 撮像素子20には一例として図4に示すカラーフィルタ21が設けられている。なお、図4に示す例では、画素数の一例として(4896×3264)画素を採用し、アスペクト比として3:2を採用しているが、画素数及びアスペクト比はこれに限られるものではない。一例として図4に示すように、カラーフィルタ21は、輝度信号を得るために最も寄与するG(緑)に対応する第1のフィルタG、R(赤)に対応する第2のフィルタR及びB(青)に対応する第3のフィルタBを含む。第1のフィルタG(以下、Gフィルタと称する)、第2のフィルタR(以下、Rフィルタと称する)及び第3のフィルタB(以下、Bフィルタと称する)の配列パターンは、第1の配列パターンAと第2の配列パターンBとに分類される。
 第1の配列パターンAにおいて、Gフィルタは、3×3画素の正方配列の四隅及び中央の画素上に配置されている。第1の配列パターンAにおいて、Rフィルタは、正方配列の水平方向における中央の垂直ライン上に配置されている。第1の配列パターンAにおいて、Bフィルタは、正方配列の垂直方向における中央の水平ライン上に配置されている。第2の配列パターンBは、第1の基本配列パターンAとGフィルタの配置が同一で且つRフィルタの配置とBフィルタの配置とを入れ替えたパターンである。カラーフィルタ21は、6×6画素に対応する正方配列パターンからなる基本配列パターンCを含む。基本配列パターンCは、第1の配列パターンAと第2の配列パターンBとが点対称で配置された6×6画素のパターンであり、カラーフィルタ21は、基本配列パターンCが水平方向及び垂直方向に繰り返し配置されている。すなわち、カラーフィルタ21では、R,G,Bの各色のフィルタ(Rフィルタ、Gフィルタ及びBフィルタ)が所定の周期性をもって配列されている。そのため、撮像素子20から読み出されるR,G,B信号の同時化(補間)処理等を行う際に、繰り返しパターンにしたがって処理を行うことができる。
 また、基本配列パターンCの単位で間引き処理して画像を縮小する場合、間引き処理した縮小画像のカラーフィルタ配列は、間引き処理前のカラーフィルタ配列と同じにすることができ、共通の処理回路を使用することができる。
 カラーフィルタ21は、輝度信号を得るために最も寄与する色(本第1実施形態では、Gの色)に対応するGフィルタが、カラーフィルタ配列の水平、垂直、及び斜め方向の各ライン内に配置されている。そのため、高周波となる方向によらず高周波領域での同時化処理の再現精度を向上させることができる。
 カラーフィルタ21は、上記Gの色以外の2色以上の他の色(本第1実施形態では、R,Bの色)に対応するRフィルタ及びBフィルタが、カラーフィルタ配列の水平方向及び垂直方向の各ライン内に配置されている。そのため、色モワレ(偽色)の発生が抑制され、これにより、偽色の発生を抑制するための光学ローパスフィルタを光学系の入射面から撮像面までの光路に配置しないようにすることができる。また、光学ローパスフィルタを適用する場合でも、偽色の発生を防止するための高周波数成分をカットする働きの弱いものを適用することができ、解像度を損なわないようにすることができる。
 基本配列パターンCは、破線の枠で囲んだ3×3画素の第1の配列パターンAと、一点鎖線の枠で囲んだ3×3画素の第2の配列パターンBとが、水平、垂直方向に交互に並べられた配列となっていると捉えることもできる。
 第1の配列パターンA及び第2の配列パターンBは、それぞれ輝度系画素であるGフィルタが4隅と中央に配置され、両対角線上に配置されている。また、第1の配列パターンAは、中央のGフィルタを挟んでBフィルタが水平方向に配列され、Rフィルタが垂直方向に配列される。一方、第2の配列パターンBは、中央のGフィルタを挟んでRフィルタが水平方向に配列され、Bフィルタが垂直方向に配列されている。すなわち、第1の配列パターンAと第2の配列パターンBとは、RフィルタとBフィルタとの位置関係が逆転しているが、その他の配置は同様になっている。
 また、第1の配列パターンAと第2の配列パターンBの4隅のGフィルタは、一例として図5に示すように第1の配列パターンAと第2の配列パターンBとが水平、垂直方向に交互に配置されることにより、2×2画素に対応する正方配列のGフィルタが形成される。一例として図5に示すように取り出されたGフィルタからなる2×2画素については、水平方向のG画素の画素値の差分絶対値、垂直方向のG画素の画素値の差分絶対値、斜め方向(右上斜め、左上斜め)のG画素の画素値の差分絶対値が算出される。これにより、水平方向、垂直方向、及び斜め方向のうち、差分絶対値の小さい方向に相関があると判断することができる。すなわち、水平方向、垂直方向、及び斜め方向のうちの相関の高い方向が最小画素間隔のG画素の情報を使用して判別される。この判別結果は、周囲の画素から補間する処理(同時化処理)に使用することができる。
 カラーフィルタ21の基本配列パターンCは、その基本配列パターンCの中心(4つのGフィルタの中心)に対して点対称に配置されている。また、基本配列パターンC内の第1の配列パターンA及び第2の配列パターンBも、それぞれ中心のGフィルタに対して点対称に配置されている。従って、後段の処理回路の回路規模を小さくしたり、簡略化したりすることが可能になる。
 一例として図6に示すように基本配列パターンCにおいて、水平方向の第1から第6のラインのうちの第1及び第3のラインのカラーフィルタ配列は、GRGGBGである。第2のラインのカラーフィルタ配列は、BGBRGRである。第4及び第6のラインのカラーフィルタ配列は、GBGGRGである。第5のラインのカラーフィルタ配列は、RGRBGBである。図6に示す例では、基本配列パターンC,C’,C”が示されている。
 本実施形態に係る撮像装置100は、位相差AF機能を有する。また、本実施形態に係る撮像素子20は、位相差AF機能を働かせた場合に用いられる複数の位相差検出用の画素を含む。この複数の位相差検出用の画素は予め定めたパターンで配置されている。
 一例として図7に示すように、位相差検出用の画素は、水平方向の左半分が遮光された第1の画素L及び水平方向の右半分が遮光された第2の画素Rの何れかである。なお、以下では、第1の画素L及び第2の画素Rを区別して説明する必要がない場合は「位相差画素」と称する。
 一例として図8に示すように、第1の画素Lは遮光部材20Aを有し、第2の画素Rは遮光部材20Bを有する。遮光部材20Aは、フォトダイオードPDの前面側(マイクロレンズM側)に設けられており、受光面の左半分を遮光する。一方、遮光部材20Bは、フォトダイオードPDの前面側に設けられており、受光面の右半分を遮光する。
 マイクロレンズM及び遮光部材20A,20Bは瞳分割部として機能し、第1の画素Lは、撮影レンズ16の射出瞳を通過する光束の光軸の左側のみを受光し、第2の画素Rは、撮影レンズ16の射出瞳を通過する光束の光軸の右側のみを受光する。このように、射出瞳を通過する光束は、瞳分割部であるマイクロレンズM及び遮光部材20A,20Bにより左右に分割され、それぞれ第1の画素Lおよび第2の画素Rに入射する。
 また、撮影レンズ16の射出瞳を通過する光束のうちの左半分の光束に対応する被写体像と、右半分の光束に対応する被写体像のうち、焦点が合っている(合焦状態である)部分は、撮像素子20上の同じ位置に結像する。これに対し、被写体より前に焦点が合っている前ピン又は被写体より後ろに焦点が合っている後ピンの部分は、それぞれ撮像素子20上の異なる位置に入射する(位相がずれる)。これにより、左半分の光束に対応する被写体像と右半分の光束に対応する被写体像とは、視差が異なる視差画像(左目画像、右目画像)として取得することができる。
 本実施形態に係る撮像装置100は、第1の画素Lの画素値と第2の画素Rの画素値とに基づいて位相のずれ量を検出する。そして、検出した位相のずれ量を提示することによって、ユーザ操作による撮影レンズ16の焦点位置の調整を補助する。なお、以下では、遮光部材20A,20Bを区別して説明する必要がない場合は符号を付さずに「遮光部材」と称する。
 本実施形態に係る撮像素子20は、第1の画素群、第2の画素群及び第3の画素群に分類される。第1の画素群とは、例えば複数の第1の画素Lを指す。第2の画素群とは、例えば複数の第2の画素Rを指す。第3の画素群とは、例えば複数の通常画素を指す。ここで言う「通常画素」とは、例えば位相差画素以外の画素(例えば遮光部材20A,20Bを有しない画素)を指す。なお、以下では、第1の画素群から出力される画像信号により示されるRAW画像を「第1の画像」と称する。また、第2の画素群から出力される画像信号により示されるRAW画像を「第2の画像」と称する。さらに、第3の画素群から出力される画像信号により示されるRAW画像を「第3の画像」と称する。
 第1の画素群及び第2の画素群に含まれる各画素は、第1の画素群と第2の画素群との間で水平方向についての位置が1画素内で揃う位置に配置されている。また、第1の画素群及び第2の画素群に含まれる各画素は、第1の画素群と第2の画素群との間で垂直方向についての位置も1画素内で揃う位置に配置されている。図7に示す例では、水平方向及び垂直方向の各々について直線状に第1の画素Lと第2の画素Rとが複数画素分の間隔を空けて交互に配置されている。
 図7に示す例では、第1及び第2の画素群に含まれる各画素の位置を水平方向及び垂直方向の各々について1画素内で揃う位置としているが、水平方向及び垂直方向の少なくとも一方について所定画素数内(例えば2画素以内)に収まる位置としてもよい。なお、ピントずれ以外の要因で画像ずれが発生するのを最大限に抑制するためには、一例として図7に示すように第1及び第2の画素群に含まれる各画素の位置を水平方向及び垂直方向の各々について1画素内で揃う位置とすることが好ましい。
 位相差画素は、一例として図7に示すように、2×2画素に対応する正方配列のGフィルタの画素に対して設けられている。すなわち、図7に示す例では、2×2画素のGフィルタの図7の正面視右下角の画素が位相差画素に対して割り当てられている。
 このように、カラーフィルタ21では、2×2画素のGフィルタの右下角部の画素に対して遮光部材が設けられており、垂直方向及び水平方向ともに複数画素分の間隔を空けて位相差画素が規則的に配置されている。このため、位相差画素の周囲に通常画素が比較的多く配置されるので、通常画素の画素値から位相差画素の画素値を補間する場合における補間精度を向上させることができる。しかも、位相差画素間で補間に利用する通常画素が重複しないように第1乃至第3の画素群に含まれる各画素が配置されているので、補間精度のより一層の向上が期待できる。
 図3に戻って、撮像素子20は、第1の画素群から第1の画像を示す画像信号(各第1の画素の画素値を示すデジタル信号)を出力し、第2の画素群から第2の画像を示す画像信号(各第2の画素の画素値を示すデジタル信号)を出力する。また、撮像素子20は、第3の画素群から第3の画像を示す画像信号(各通常画素の画素値を示すデジタル信号)を出力する。なお、上記第3の画像は有彩色の画像であり、例えば通常画素の配列と同じカラー配列のカラー画像である。また、上記第1の画像、上記第2の画像及び上記第3の画像を示す画像データは、インタフェース部24を介してメモリ26における揮発性の記憶領域に一時記憶される。
 また、画像処理部28は、通常処理部30を有する。通常処理部30は、第3の画素群に対応するR,G,B信号を処理することで第1の表示用画像の一例である有彩色の通常画像を生成する。また、画像処理部28は、スプリットイメージ処理部32を有する。スプリットイメージ処理部32は、第1の画素群及び第2の画素群に対応するG信号を処理することで第2の表示用画像の一例である無彩色のスプリットイメージを生成する。なお、本第1実施形態に係る画像処理部28は、一例として、画像処理に係る複数の機能を実現する回路を1つにまとめた集積回路であるASIC(Application Specific Integrated Circuit)により実現される。ここで、CPU12は、後述する確認画像表示処理プログラムを実行し、スプリットイメージ処理部32にスプリットイメージを生成させ、生成されたスプリットイメージを表示部213に表示させる制御を行う。しかし、画像処理部28のハードウェア構成はASICに限定されるものではなく、例えばプログラマブルロジックデバイスやCPU、ROM及びRAMを含むコンピュータなどの他のハードウェア構成であっても良い。
 一方、エンコーダ34は、入力された信号を別の形式の信号に変換して出力する。また、ハイブリッドファインダー220は、電子像を表示するLCD247を有する。LCD247における所定方向の画素数(一例として視差発生方向である水平方向の画素数)は、表示部213における同方向の画素数よりも少ない。表示制御部36は表示部213及びLCD247に各々接続されており、LCD247及び表示部213が選択的に制御されることによりLCD247又は表示部213により画像が表示される。なお、以下では、表示部213及びLCD247を区別して説明する必要がない場合は「表示装置」と称する。
 なお、本第1実施形態に係る撮像装置100は、ダイヤル212によりマニュアルフォーカスモードとオートフォーカスモードとを切り替え可能に構成されている。何れかのフォーカスモードが選択されると、表示制御部36は、スプリットイメージが合成されたライブビュー画像を表示装置に表示させる。また、ダイヤル212によりオートフォーカスモードが選択されると、CPU12は、位相差検出部及び自動焦点調整部として動作する。位相差検出部は、第1の画素群から出力された第1の画像と第2の画素群から出力された第2の画像との位相差を検出する。自動焦点調整部は、検出された位相差に基づいて撮影レンズ16のデフォーカス量をゼロにするように、デバイス制御部22からマウント256,346を介してレンズ駆動部(図示省略)を制御し、撮影レンズ16を合焦位置に移動させる。なお、上記の「デフォーカス量」とは、例えば第1の画像及び第2の画像の位相ずれ量を指す。
 また、接眼検出部37は、ユーザがファインダー接眼部242を覗き込んだことを検出し、検出結果をCPU12に出力する。従って、CPU12は、接眼検出部37での検出結果に基づいてファインダー接眼部242が使用されているか否かを把握することができる。
 さらに、外部I/F39は、LAN(Local Area Network)やインターネットなどの通信網に接続され、通信網を介して、外部装置(例えばプリンタ)とCPU12との間の各種情報の送受信を司る。従って、撮像装置100は、外部装置としてプリンタが接続されている場合、撮影した静止画像をプリンタに出力して印刷させることができる。また、撮像装置100は、外部装置としてディスプレイが接続されている場合は、撮影した静止画像やライブビュー画像をディスプレイに出力して表示させることができる。
 図9に示すように、通常処理部30及びスプリットイメージ処理部32は、それぞれWBゲイン部、ガンマ補正部及び同時化処理部を有し(図示省略)、メモリ26に一時記憶された元のデジタル信号(RAW画像)に対して各処理部で順次信号処理を行う。すなわち、WBゲイン部は、R,G,B信号のゲインを調整することによりホワイトバランス(WB)を実行する。ガンマ補正部は、WBゲイン部でWBが実行された各R,G,B信号をガンマ補正する。同時化処理部は、撮像素子20のカラーフィルタ21の配列に対応した色補間処理を行い、同時化したR,G,B信号を生成する。なお、通常処理部30及びスプリットイメージ処理部32は、撮像素子20により1画面分のRAW画像が取得される毎に、そのRAW画像に対して並列に画像処理を行う。
 通常処理部30は、インタフェース部24からR,G,BのRAW画像が入力され、第3の画素群のR,G,B画素における位相差画像で遮光されている画素に対して、第1の画素群及び第2の画素群のうちの同色の周辺画素(例えば隣接するG画素)で補間することにより得られる画像を、表示用の通常画像及び記録用の通常画像として生成しても良い。
 また、通常処理部30は、生成した記録用の通常画像の画像データをエンコーダ34に出力する。通常処理部30により処理されたR,G,B信号は、エンコーダ34により記録用の信号に変換(エンコーディング)され、記録部42(図9参照)に記録される。また、通常処理部30は、生成した表示用の通常画像の画像データを表示制御部36に出力する。なお、以下では、説明の便宜上、上記の「記録用の通常画像」及び「表示用の通常画像」を区別して説明する必要がない場合は「記録用の」との文言及び「表示用の」との文言を省略して「通常画像」と称する。
 撮像素子20は、第1の画素群及び第2の画素群の各々の露出条件(一例として電子シャッタによるシャッタ速度)を変えることができ、これにより露出条件の異なる画像を同時に取得することができる。従って、画像処理部28は、露出条件の異なる画像に基づいて広ダイナミックレンジの画像を生成することができる。また、同じ露出条件で複数の画像を同時に取得することができ、これら画像を加算することによりノイズの少ない高感度の画像を生成し、あるいは高解像度の画像を生成することができる。
 一方、スプリットイメージ処理部32は、メモリ26に一旦記憶されたRAW画像から第1の画素群及び第2の画素群のG信号を抽出し、第1の画素群及び第2の画素群のG信号に基づいて無彩色のスプリットイメージを生成する。RAW画像から抽出される第1の画素群及び第2の画素群の各々は、上述したようにGフィルタの画素による画素群である。そのため、スプリットイメージ処理部32は、第1の画素群及び第2の画素群のG信号に基づいて、無彩色の左の視差画像及び無彩色の右の視差画像を生成することができる。なお、以下では、説明の便宜上、上記の「無彩色の左の視差画像」を「左目画像」と称し、上記の「無彩色の右の視差画像」を「右目画像」と称する。
 スプリットイメージ処理部32は、第1の画素群から出力された第1の画像に基づく左目画像と、第2の画素群から出力された第2の画像に基づく右目画像とを合成することによりスプリットイメージを生成する。生成したスプリットイメージの画像データは表示制御部36に出力される。
 表示制御部36は、通常処理部30から入力された第3の画素群に対応する記録用の画像データと、スプリットイメージ処理部32から入力された第1、第2の画素群に対応するスプリットイメージの画像データとに基づいて表示用の画像データを生成する。例えば、表示制御部36は、通常処理部30から入力された第3の画素群に対応する記録用の画像データにより示される通常画像の表示領域内に、スプリットイメージ処理部32から入力された画像データにより示されるスプリットイメージを合成する。そして、合成して得た画像データを表示装置に出力する。
 スプリットイメージ処理部32により生成されるスプリットイメージは、左目画像の一部と右目画像の一部とを合成した複数分割の画像である。ここで言う「複数分割の画像」としては、例えば図10に示すスプリットイメージ300が挙げられる。図10に示すスプリットイメージ300は、左目画像300Aを図10の正面視上下方向に2つに分割した分割画像のうちの上半分の分割画像と、右目画像300Bを同様に分割した分割画像のうちの下半分の分割画像とを合成した画像である。スプリットイメージ300は、左目画像300A及び右目画像300Bの各分割画像間が合焦状態に応じた量だけ予め定められた方向(本実施形態では、図10の正面視左右方向)にずれた画像である。
 本実施形態では、通常画像301にスプリットイメージ300を合成する際、通常画像の一部の画像に代えてスプリットイメージ300を嵌め込むことで合成するが、合成方法はこれに限定されない。例えば、通常画像301の上にスプリットイメージ300を重畳させる合成方法であってもよい。また、スプリットイメージ300を重畳する際に、スプリットイメージ300が重畳される領域に対応する通常画像301の一部の画像とスプリットイメージ300との透過率を適宜調整して重畳させる合成方法であってもよい。あるいは、通常画像301及びスプリットイメージ300を各々異なるレイヤで表示させても良い。これにより、ライブビュー画像における通常画像の表示領域内に、スプリットイメージ300を表示させることができる。なお、ライブビュー画像とは、連続的に撮影している被写体像を表示装置の画面上に連続的に表示させる際の、被写体像を示す画像である。
 ハイブリッドファインダー220は、OVF240及びEVF248を含む。OVF240は、対物レンズ244と接眼レンズ246とを有する逆ガリレオ式ファインダーであり、EVF248は、LCD247、プリズム245及び接眼レンズ246を有する。
 また、対物レンズ244の前方には、液晶シャッタ243が配設されており、液晶シャッタ243は、EVF248を使用する際に、対物レンズ244に光学像が入射しないように遮光する。
 プリズム245は、LCD247に表示される電子像又は各種の情報を反射させて接眼レンズ246に導くと共に、光学像とLCD247に表示される情報(電子像、各種の情報)とを合成する。
 ここで、ファインダー切替えレバー214を図1に示す矢印SW方向に回動させると、回動させる毎にOVF240により光学像を視認することができるOVFモードと、EVF248により電子像を視認することができるEVFモードとが交互に切り替えられる。
 表示制御部36は、OVFモードの場合、液晶シャッタ243が非遮光状態になるように制御し、ファインダー接眼部242から光学像が視認できるようにする。また、LCD247には、スプリットイメージ300のみを表示させる。これにより、光学像の一部にスプリットイメージ300が重畳されたファインダー像を表示させることができる。
 一方、表示制御部36は、EVFモードの場合、液晶シャッタ243が遮光状態になるように制御し、ファインダー接眼部242からLCD247に表示される電子像のみが視認できるようにする。なお、LCD247には、表示部213に出力されるスプリットイメージ300が合成された画像データと同等の画像データが入力され、これにより、表示部213と同様に通常画像301の一部にスプリットイメージ300が合成された電子像を表示させることができる。
 表示装置に通常画像301及びスプリットイメージ300の各々を示す画像信号が入力されたとする。この場合、表示装置は、一例として図10に示すように、入力された画像信号によって示されるスプリットイメージ300を画面中央部の矩形状とされたスプリットイメージ300の表示領域302に表示する。また、表示装置は、入力された画像信号が示す通常画像301をスプリットイメージ300の外周領域に表示する。また、表示装置は、スプリットイメージ300を示す画像信号が入力されずに通常画像301を示す画像信号のみが入力された場合、入力された画像信号によって示される通常画像301を表示装置の表示領域の全域に表示する。また、表示装置は、通常画像301を示す画像信号が入力されずにスプリットイメージ300を示す画像信号が入力された場合、入力された画像信号によって示されるスプリットイメージ300を表示領域302に表示し、外周領域を空白領域とする。なお、表示領域302を表す枠は実際には表示されないが、図10では説明の便宜上示している。
 ここで、本実施形態に係る撮像装置100は、左目画像300Aと右目画像300Bとを合成したスプリットイメージ300を生成し、生成したスプリットイメージ300を表示領域302内に収まるように表示させる。この際、例えば左目画像300A及び右目画像300Bの表示内容によっては、左目画像300Aと右目画像300Bとのずれの視認性が低下し、ユーザが被写体像の合焦状態を正しく認識できない場合がある。
 そこで、本実施形態に係る撮像装置100は、左目画像300Aと右目画像300Bとを各々相反する方向に表示領域302から食み出させつつずらして配置したスプリットイメージ300を生成して表示する確認画像表示処理を行う。
 次に、図11を参照して、本実施形態に係る撮像装置100の作用を説明する。なお、図11は、撮像装置100がマニュアルフォーカシングに設定されていて、かつレリーズスイッチ211が半押し状態にされた際にCPU12によって実行される確認画像表示処理プログラムの処理の流れを示すフローチャートである。当該プログラムは、所定の記憶領域(本実施形態では、メモリ26)に予め記憶されている。
 なお、ここでは、確認画像表示処理がCPU12で行われる場合を例示するが、本発明はこれに限定されるものではなく、例えば画像処理部28が確認画像表示処理プログラムを実行することにより確認画像表示処理が行われるものとしてもよい。また、撮像装置100は、通常画像301及びスプリットイメージ300を表示部213及びLCD247の少なくとも1つに表示させるが、本実施形態では、スプリットイメージ300を表示部213に表示させる。
 まず、ステップS401では、第1の画素群から出力された画像信号に基づく左目画像300Aを示す画像データ、及び第2の画素群から出力された画像信号に基づく右目画像300Bを示す画像データを、インタフェース部24を介して取得する。なお、取得した各画像データはCPU12により所定の記憶領域(例えばメモリ26)に記憶される。
 次のステップS403では、第3の画素群から出力された画像信号に基づく通常画像301を示す画像データを、インタフェース部24を介して取得する。この際、CPU12は、第3の画素群から出力された画像信号に基づく通常画像301を示す画像データを取得するが、通常画像301を示す画像データの取得方法はこれに限定されない。すなわち、取得した左目画像300A及び第右目画像300Bの各々を示す画像データに基づいて通常画像301を示す画像データを生成しても良い。通常画像301を示す画像データを生成する方法としては、例えば、左目画像300Aまたは右目画像300Bをそのまま通常画像301とする方法が例示される。また、左目画像300Aまたは右目画像300Bにおいて隣接する各画素の間に補完画素を配置させ、当該補完画素を囲む画素の画素値の平均値を当該補完画素の画素値として通常画像301を示す画像データを生成する方法であっても良い。さらに、通常画像301を生成する方法は、左目画像300A及び右目画像300Bを合成することにより通常画像301を生成する方法であっても良い。
 次のステップS405では、通常画像301を表示部213に表示させる制御を行う。なお、本実施形態では、通常画像301を表示部213に表示させるが、これに限定されず、LCD247に表示させても良い。また、接眼検出部37によってユーザがファインダー接眼部242を覗き込んだことを検出した場合には、通常画像301をLCD247に表示させ、それ以外の場合には、通常画像301を表示部213に表示させても良い。
 次のステップS407では、表示部213における表示領域302を示す情報(以下。「表示領域情報」という。)をメモリ26から読み出す。本実施形態では、メモリ26に、上記表示領域情報として、各表示装置の表示領域内における予め定められた座標系によって示される、表示領域302の範囲を示す情報が予め記憶されている。
 なお、CPU12は、表示領域情報を読み出す代わりに、左目画像300A、右目画像300B、及び通常画像301の少なくとも1つに基づいて、表示領域302を決定しても良い。この場合、CPU12は、まず、左目画像300A、右目画像300B及び通常画像301の少なくとも1つの画像において隣接する画素間の画素値の差が予め定められた第1の閾値以上の画素群を抽出する。なお、本実施形態では、当該第1の閾値は、画素値のダイナミックレンジの10分の1である。また、CPU12は、抽出した画素群のうち同一方向に予め定められた第2の閾値以上連続して配置された画素群を更に抽出する。なお、本実施形態では、当該第2の閾値は、左目画像300A及び右目画像300Bの分割画像の分割方向における長さの3分の1である。そして、CPU12は、表示装置の表示領域内における表示領域302として予め定められたサイズの領域であって、当該領域に含まれている上記画素群の面積の総和が大きい領域を、表示領域302とする。これにより、被写体における各物体の輪郭線が多く表示されている領域が表示領域302とされ、左目画像300A及び右目画像300Bのずれの視認が容易になる。
 次のステップS409では、左目画像300A及び右目画像300Bの各々の分割方向を決定する。本実施形態では、上記分割方向を示す情報(以下、「分割方向情報」という。)がメモリ26に予め記憶されており、当該分割方向情報を読み出すことにより、上記分割方向を決定する。
 なお、CPU12は、分割方向情報を読み出す代わりに、左目画像300A、右目画像300B、及び通常画像301の少なくとも1つに基づいて、上記分割方向を決定しても良い。この際、CPU12は、まず、左目画像300A、右目画像300B及び通常画像301の少なくとも1つの画像において隣接する画素間の画素値の差が予め定められた第3の閾値以上の画素群を抽出する。なお、本実施形態では、当該第3の閾値は、画素値のダイナミックレンジの10分の1である。また、CPU12は、抽出した画素群のうち同一方向に予め定められた第4の閾値以上連続して配置された画素群を更に抽出する。なお、本実施形態では、当該第2の閾値は、左目画像300A及び右目画像300Bの分割画像の分割方向における長さの2分の1である。そして、CPU12は、抽出した画素群において各画素が連続している方向を上記分割方向する。なお、抽出した画素群が複数あった場合には、各画素群における各画素が連続している方向のうち、上記画素値の差が最も大きい画素群における各画素が連続している方向、あるいは連続している画素が最も多い画素群における各画素が連続している方向を上記分割方向としても良い。
 次のステップS411では、左目画像300A及び右目画像300Bの各々の分割数を示す情報(以下、「分割数情報」という。)をメモリ26から読み出す。本実施形態では、メモリ26に、当該分割数情報が予め記憶されている。
 一例として図12に示すように、表示領域302が表示部213の表示領域の一部(例えば中央部)であったとする。また、上記分割方向が図13の正面視上下方向であり、上記分割数が4であったとする。この場合、一例として図13に示すように、CPU12は、左目画像300A及び右目画像300Bの各々を、図13の正面視上下方向に4つの領域に分割する。
 次のステップS413では、スプリットイメージ300を構成した際の左目画像300Aと右目画像300Bとの境界を含む予め定められた領域における、左目画像300Aと右目画像300Bとの視差の視差量を導出する。この際、CPU12は、左目画像300A及び右目画像300Bの上記境界の領域に対応する対応点を抽出する。また、CPU12は、抽出した各対応点の座標位置の左目画像300A及び右目画像300B間のずれ量の平均値を、左目画像300A及び右目画像300Bの視差の視差量とする。また、本実施形態では、上記境界を含む予め定められた領域は、上記境界からの距離が予め定められた画素数以内の画素からなる領域であるが、これに限定されない。例えば、上記境界に何らかの物体が存在する場合には、当該物体に対応する領域を検出し、検出した領域を、上記境界を含む予め定められた領域としても良い。また、上記境界を含む予め定められた領域は、オートフォーカスモードに設定された場合に位相差の検出の対象とする領域であっても良い。
 次のステップS415では、スプリットイメージ300を生成する際の左目画像300Aと右目画像300Bとのずらし量を導出する。この際、CPU12は、上記ステップS413の処理によって導出した視差量をずらし量として直接用いても良いが、本実施形態では、左目画像300A及び右目画像300Bのずれを視認しやすくするために、ずらし量を強調させる。
 すなわち、下記の(1)式に示すように、左目画像300A及び右目画像300Bの視差の視差量Dに予め定められた1よりも大きい係数αを乗算することで、上記ずらし量D’を導出する。
Figure JPOXMLDOC01-appb-M000001
 すなわち、被写体像の焦点のずれが小さい場合には当該ずれが大きい場合に比較して視差量Dが小さくなるので、視差量Dの分だけ左目画像300A及び右目画像300Bをずらして表示しても、ユーザがずれを認識できない可能性がある。
 そこで、一例として図14に示すように、被写体像の焦点位置のずれ量が大きくなるほど大きくなる1より大きい係数αを、視差量Dに乗算することにより、上記ずらし量D’を大きくする。このずらし量D’に応じて左目画像300A及び右目画像300Bをずらすことにより、左目画像300A及び右目画像300B間のずれが線形的に強調される。
 なお、左目画像300A及び右目画像300B間のずれを強調させる方法はこれに限定されない。例えば、下記の(2)式及び図15に示すように、被写体像の焦点位置のずれ量が大きくなるほど大きくなる係数であって、当該ずれ量が大きくなるほど大きくなる度合いが小さくなる1より大きい係数αを、視差量Dの二乗に乗算することにより、上記ずらし量D’を導出しても良い。
Figure JPOXMLDOC01-appb-M000002
 このずらし量D’に応じて左目画像300A及び右目画像300Bをずらすことにより、左目画像300A及び右目画像300B間のずれが非線形的に強調される。なお、(2)式におけるβは予め定められた係数である。
 なお、上記(1)式及び(2)式における係数α, βは、撮影レンズ16のF値やEVF248と撮像素子20の解像度の関係から決定すると良い。すなわち、ユーザがスプリットイメージ300を視認する際の見えやすさを想定して係数α,βを決定しても良い。例えば、F値が高くなるほどずれ量が少なくなるため、F値が高くなるほど係数αを大きくすると良い。また、表示装置の解像度が高くなるほど左目画像300A及び右目画像300Bをずらすことによる効果が低下するため、表示装置の解像度が高くなるほど係数αを大きくすると良い。
 次のステップS417では、スプリットイメージ300における左目画像300Aと右目画像300Bとの境界であって、上記ステップS413及びS415の処理の対象とされていない境界があるか否かを判定する。ステップS417で肯定判定となった場合はステップS413に戻る一方、否定判定となった場合はステップS419に移行する。
 ステップS419では、スプリットイメージ処理部32に対して以上の処理によって得られた表示領域、分割方向、上分割数、及びずらし量の各々を示す情報、及びスプリットイメージ300の生成を指示する指示情報を出力することによりスプリットイメージ300を生成させる。
 本実施形態では、スプリットイメージ処理部32は、左目画像300Aを上記分割方向に分割して得られた複数の左目画像300Aの一部である第1の分割画像、及び右目画像300Bを左目画像300Aと同様に分割して得られた複数の右目画像300Aの上記第1の分割画像に対応する領域を除く画像である第2の分割画像を配置する。この際、スプリットイメージ処理部32は、左目画像300A及び右目画像300Bを交互に配置させてスプリットイメージ300を生成する。また、一例として図16に示すように、スプリットイメージ処理部32は、左目画像300A及び右目画像300Bを、導出したずらし量D’だけ分割方向と交差する交差方向(本実施形態では、直行方向)に対して相反する方向にずらして配置させる。この際、上記境界の各々に対応するずらし量D’を用いて、上記境界の各々を挟む左目画像300A及び右目画像300Bをずらして表示させる。
 なお、本実施形態では、上記境界毎にずらし量D’を導出するが、これに限定されない。すなわち、一例として図17に示すように、左目画像300A及び右目画像300Bの領域全体における視差の視差量の平均値を導出し、導出した平均値に応じて左目画像300A及び右目画像300Bの領域全体で統一されたずらし量D’を適用して良い。
 次のステップS421では、スプリットイメージ処理部32によって生成されたスプリットイメージ300を表示部213の表示領域302に表示させる制御を行う。
 上述したように、スプリットイメージ300において、左目画像300A及び右目画像300Bの視差の視差量Dが大きいほどずらし量D’が大きくなる。例えば、スプリットイメージ300が図16に示す状態である場合において、フォーカスリング260の操作により左目画像300A及び右目画像300Bの視差の視差量Dが小さくなる方向に焦点位置を移動させたとする。この場合、一例として図18に示すように、スプリットイメージ300における左目画像300A及び右目画像300Bのずれがそれまでの状態と比較して小さくなる。すなわち、ユーザは、スプリットイメージ300を視認しながら、フォーカスリング260の操作により、スプリットイメージ300における左目画像300A及び右目画像300Bのずれ量が低減する方向に焦点位置を移動させることで、被写体像の焦点を合わせることができる。
 次のステップS423では、被写体像の焦点が合っているか否かを判定する。この際、CPU12は、左目画像300A及び右目画像300Bの視差の視差量が、0(零)を含んだ予め定められた範囲内である場合に、被写体像の焦点が合っていると判定する。ステップS423で否定判定となった場合は後述するステップS427に移行する。
 一方、ステップS423で肯定判定となった場合はステップS425に移行し、被写体像の焦点が合っている旨をユーザに報知した後、ステップS427に移行する。本実施形態では、上記報知方法として、一例として図19に示すように、例えばスプリットイメージ300の外周枠304を予め定められた色彩で表示させる方法や、予め定められた音声を出力する方法や、スプリットイメージ300自身の色彩を変化させる方法等を適用することができる。なお、スプリットイメージ300自身の色彩を変化させる方法は、例えばスプリットイメージ300における無彩色の左目画像300A及び右目画像300Bを、通常画像301に置き換えることにより有彩色で表示する方法を適用しても良い。
 ステップS427では、ユーザによるフォーカスリング260の操作により焦点位置が変更されたか否かを判定する。ステップS427で肯定判定となった場合は上述したステップS413に戻る一方、否定判定となった場合はステップS429に移行する。
 ステップS429では、ユーザ操作により撮影指示が入力されたか否かを判定する。この際、CPU12は、レリーズスイッチ211に対する全押し操作が検出された場合に、撮影指示が入力されたと判定する。ステップS429で否定判定となった場合は上述したステップS427に戻る一方、肯定判定となった場合はステップS431に移行する。
 ステップS431では、レリーズスイッチ211が全押し操作がされたタイミングで、通常画像301を示す画像データをメモリ26に記録する撮影処理を行い、本確認画像生成処理プログラムを終了する。なお、上記撮影処理は一般的に行われている撮影処理であるため、ここでの説明を省略する。
 本実施形態において、左目画像300A及び右目画像300Bをずらして表示させた場合であっても、左目画像300A及び右目画像300Bと通常画像301との彩色が類似している場合等には、ユーザが左目画像300A及び右目画像300Bのずれ量を視認できない可能性がある。その場合には、一例として図20に示すように、スプリットイメージ300における左目画像300A及び右目画像300Bの上記交差方向における端部を示す画像306を表示させても良い。画像306は、例えば左目画像300A及び右目画像300Bと通常画像301との境界線を示す線状の画像である。これにより、ユーザがスプリットイメージ300における画像306のずれを視認することで、左目画像300A及び右目画像300Bのずれ量を認識することができる。
 また、本実施形態では、左目画像300A及び右目画像300Bを用いてスプリットイメージ300を生成したが、これに限定されず、被写体像として表示している通常画像301を用いてスプリットイメージ300を生成しても良い。すなわち、一例として図21に示すように、上述した左目画像300A及び右目画像300Bの配置位置に各々通常画像301を配置しても良い。この場合には、スプリットイメージ300が被写体像となる通常画像301と同様の色彩で表示される。
 また、上述したように、表示領域302を除いた領域に通常画像301を表示し、かつ左目画像300A及び右目画像300Bを表示領域302から食み出させつつずらして表示した場合には、図10及び図22の左側等に示すように、非表示領域303が発生する。そこで、一例として図22の左側に示すように、左目画像300A及び右目画像300Bを上記ずらし量に応じてずらしたとする。この非表示領域303において、一例として図22の右側に示すように、通常画像301における対応する画素の画素値を、当該非表示領域303の各画素の画素値とすると良い。
 また、本実施形態では、一例として図23Aに示すように、上記分割方向を図23Aの正面視上下方向に分割したが、分割方向はこれに限定されず、任意の方向として良い。すなわち、一例として図23Bに示すように、上記分割方向を図13の正面視左右方向としても良い。
 また、本実施形態では、一例として図23Aに示すように、上記分割数を4としたが、分割数はこれに限定されず、2以上の任意の自然数として良い。すなわち、一例として図23Cに示すように、上記分割数を2としても良い。
 また、本実施形態では、上述したように、左目画像300A及び右目画像300Bを予め定められた分割方向または導出された分割方向に、予め定められた分割数または導出された分割数で分割する。そして、CPU12がスプリットイメージ300を表示する制御を行った際に、ユーザ操作によって上記分割方向、上記分割数、上記境界の位置等の変更が指示された場合に、上記分割方向、上記分割数、上記境界位置等を変更しても良い。一例として図24の左側に示すように、上記分割方向を図24の正面視上下方向として上記分割数を2としてスプリットイメージ300を生成したとする。この際に、ユーザ操作によって例えば十字キー222の下方向が押圧された場合、一例として図24の右側に示すように、CPU12は、上記境界の位置を図24の正面視下方向に移動させる。
 また、本実施形態に係る撮像装置100は、左目画像300A、右目画像300B及び通常画像301の少なくとも1つの画像から人間の顔を示す顔領域を認識する顔領域認識手段を備えている。そして、撮像装置100は、顔領域認識手段によって認識された顔領域を、スプリットイメージ300の表示領域302としても良い。なお、上記顔領域認識手段は、被写体像から人間の顔を構成する目、鼻、口等に対応する領域を検出し、各領域のサイズや配置に応じて人間の顔の領域を認識する。しかし、顔領域の認識方法はこれに限定されず、一般に用いられている既知の手法を用いることができる。本実施形態では、一例として図25に示すように、顔領域認識手段によって例えば通常画像301において認識された顔領域310を、スプリットイメージ300の表示領域302とする。
 さらに、本実施形態に係る撮像装置100は、カラーフィルタ21のGフィルタに遮光部材20Aまたは遮光部材20Bを設けたが、これに限定されない。すなわち、一例として図26に示すように、位相差画素を、Gフィルタの画素、Rフィルタの画素、Bフィルタの画素の各々に対して設けても良い。図26に示す例では、撮像素子20において、各画素上に配置されているRフィルタ、Gフィルタ、Bフィルタとして、ベイヤ配列であるA面の画素群とB面の画素群が、水平方向及び垂直方向に互いに半ピッチずれて配置されている。なお、上記A面の画素群は第1の画素群を含み、上記B面の画素群は第2の画素群を含む。また、上記A面の画素群及び上記B面の画素群の各々は、それぞれ第3の画素群を含む。このカラーフィルタを用いることで、スプリットイメージ300を有彩色で表示させることができる。
 [第2実施形態]
 上記第1実施形態では、撮像装置100を例示したが、撮像装置100の変形例である携帯端末装置としては、例えばカメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機などが挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
 図27は、スマートフォン500の外観の一例を示す斜視図である。図27に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532と、操作部540と、カメラ部541とを備えている。なお、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド構造を有する構成を採用することもできる。
 図28は、図27に示すスマートフォン500の構成の一例を示すブロック図である。図28に示すように、スマートフォン500の主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、を備える。また、スマートフォン500の主たる構成要素として、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501と、を備える。また、スマートフォン500の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部510は、主制御部501の指示に従って、移動通信網に収容された基地局装置に対して無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部520は、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。そのため、表示入力部520は、主制御部501の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する。なお、生成された3Dを鑑賞する場合には、表示パネル521は、3D表示パネルであることが好ましい。
 表示パネル521は、LCD、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
 図27に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通話部530は、スピーカ531やマイクロホン532を備える。通話部530は、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力する。また、通話部530は、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力する。また、図27に示すように、例えば、スピーカ531を表示入力部520が設けられた面と同じ面に搭載し、マイクロホン532を筐体502の側面に搭載することができる。
 操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図27に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部550は、主制御部501の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータを記憶する。また、記憶部550は、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶する。また、記憶部550は、ストリーミングデータなどを一時的に記憶する。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552を有する。なお、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)などの格納媒体を用いて実現される。格納媒体としては、この他にも、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)が例示できる。
 外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等又はネットワークにより直接的又は間接的に接続するためのものである。他の外部機器に通信等としては、例えば、ユニバーサルシリアルバス(USB)、IEEE1394などが挙げられる。ネットワークとしては、例えば、インターネット、無線LAN、ブルートゥース(Bluetooth(登録商標))、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA(登録商標))が挙げられる。また、ネットワークの他の例としては、UWB(Ultra Wideband(登録商標))、ジグビー(ZigBee(登録商標))などが挙げられる。
 スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)が挙げられる。外部機器の他の例としては、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器が挙げられる。外部オーディオ・ビデオ機器の他にも、無線接続される外部オーディオ・ビデオ機器が挙げられる。また、外部オーディオ・ビデオ機器に代えて、例えば有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなども適用可能である。
 外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1乃至STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
 電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
 更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御とを実行する。
 表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたりする。また、操作検出制御の実行により、主制御部501は、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定する。そして、この判定結果を受けて、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部541は、CMOSやCCDなどの撮像素子を用いて撮像するデジタルカメラであり、図1等に示す撮像装置100と同様の機能を備えている。
 また、カメラ部541は、マニュアルフォーカスモードとオートフォーカスモードとを切り替え可能である。マニュアルフォーカスモードが選択されると、操作部540又は表示入力部520に表示されるフォーカス用のアイコンボタン等を操作することにより、カメラ部541の撮影レンズ16のピント合わせを行うことができる。そして、マニュアルフォーカスモード時には、スプリットイメージが合成されたライブビュー画像を表示パネル521に表示させ、これによりマニュアルフォーカス時の合焦状態を確認できるようにしている。なお、図9に示すハイブリッドファインダー220をスマートフォン500に設けるようにしてもよい。
 また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換する。そして、変換して得た画像データを記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図27に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。なお、複数のカメラ部541が搭載されている場合には、撮像に供するカメラ部541を切り替えて単独にて撮像したり、あるいは、複数のカメラ部541を同時に使用して撮像したりすることもできる。
 また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、静止画又は動画の画像データに各種情報を付加して記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力したりすることもできる。ここで言う「各種情報」としては、例えば、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)が挙げられる。この他にも、モーションセンサ部580により取得した姿勢情報等などであってもよい。
 なお、上記各実施形態では、第1乃至第3の画素群を有する撮像素子20を例示したが、本発明はこれに限定されるものではなく、第1の画素群及び第2の画素群のみからなる撮像素子であってもよい。この種の撮像素子を有するデジタルカメラは、第1の画素群から出力された第1の画像及び第2の画素群から出力された第2の画像に基づいて3次元画像(3D画像)を生成することができるし、2次元画像(2D画像)も生成することができる。この場合、2次元画像の生成は、例えば第1の画像及び第2の画像の相互における同色の画素間で補間処理を行うことで実現される。また、補間処理を行わずに、第1の画像又は第2の画像を2次元画像として採用してもよい。
 上記各実施形態では、通常画像301の表示領域内にスプリットイメージ300が表示される例を挙げて説明したが、本発明はこれに限定されるものではなく、表示装置に対して通常画像301を表示させずにスプリットイメージ300を表示させても良い。また、上記各実施形態では、表示装置の表示領域の一部にスプリットイメージ300を表示させるが、これに限定されず、表示装置の表示領域の全体にスプリットイメージ300を表示させても良い。このように、本発明は、通常画像301とスプリットイメージ300との双方を表示装置の同一画面に同時に表示する態様に限定されるものではない。例えば、本発明は、スプリットイメージ300の表示が指示されている状態で通常画像301の表示指示が解除された場合は表示制御部36が表示装置に対して通常画像301を表示させずにスプリットイメージ300を表示させる制御を行うようにしても良い。
 尚、日本出願特願2012-205869号の開示はその全体が参照により本明細書に取り込まれる。明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
12 CPU
20 撮像素子
26 メモリ
28 画像処理部
30 通常処理部
32 スプリットイメージ処理部
36 表示制御部
100 撮像装置
213 表示部
241 LCD

Claims (15)

  1.  撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、かつ前記第1及び第2の画素群から出力された画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成手段と、
     前記第1の画像の各画素と前記第2の画像の対応する各画素とのずれ量を示す視差を算出する視差算出手段と、
     画像を表示する表示手段と、
     前記表示手段に対して前記生成手段により生成された前記第1の表示用画像を表示し、かつ該第1の表示用画像の表示領域内に前記生成手段により生成された前記第2の表示用画像を表示させる制御を行う表示制御手段と、を備え、
     前記生成手段は、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像の一部である第1の分割画像、及び前記第2の画像を前記第1の画像と同様に分割して得られた複数の分割画像の前記第1の分割画像に対応する領域を除く画像である第2の分割画像を、前記視差に応じた量だけ前記分割方向とは交差する交差方向に対して相反する方向にずらして配置した前記第2の表示用画像を生成する
     画像処理装置。
  2.  前記生成手段は、前記第1の分割画像と前記第2の分割画像とを前記分割方向に交互に配置して前記第2の表示用画像を生成する
     請求項1記載の画像処理装置。
  3.  前記視差算出手段は、前記第1の分割画像及び前記第2の分割画像の境界を含む予め定められた領域における前記視差を算出する
     請求項1または2記載の画像処理装置。
  4.  前記生成手段は、前記第1の画像及び前記第2の画像の少なくとも一方において隣接する画素間の画素値の差分が予め定められた第1の閾値以上となり、かつ同一方向に予め定められた第2の閾値以上連続して配置された画素群を抽出し、抽出した画素群において各画素が連続して配置された方向の何れか1つを前記分割方向として前記第2の表示用画像を生成する
     請求項1乃至3の何れか1項記載の画像処理装置。
  5.  前記生成手段は、前記視差算出手段により算出された前記視差に予め定められた1より大きい係数を乗算した値を、前記視差に応じた量として前記第2の表示用画像を生成する
     請求項1乃至4の何れか1項記載の画像処理装置。
  6.  前記生成手段は、前記視差算出手段により算出された前記視差に、前記視差が大きくなるほど大きくなる係数であって、前記視差が大きくなるほど大きくなる度合いが小さくなる1より大きい係数を乗算した値を、前記視差に応じた量として前記第2の表示用画像を生成する
     請求項5記載の画像処理装置。
  7.  前記生成手段は、前記第1の画像及び前記第2の画像の少なくとも一方において隣接する画素間の画素値の差分が予め定められた閾値より大きい画素群を抽出し、予め定められたサイズの領域であって、当該領域内に含まれる前記画素群の面積の総和が最も大きい領域を、前記第2の表示用画像の生成対象とする領域として前記第2の表示用画像を生成する
     請求項1乃至6の何れか1項記載の画像処理装置。
  8.  前記第1の画像及び前記第2の画像の少なくとも一方から顔に対応する顔領域を抽出する顔領域抽出手段を更に備え、
     前記生成手段は、前記顔領域抽出手段により抽出された顔領域を、前記第2の表示用画像の生成対象とする領域として前記第2の表示用画像を生成する
     請求項1乃至7の何れか1項記載の画像処理装置。
  9.  前記生成手段は、被写体像が瞳分割されずに結像され、第3の画像を示す画像信号を出力する第3の画素群から出力された前記画像信号に基づく前記第3の画像を、前記分割方向に分割して得られた複数の分割画像の一部である第3の分割画像、及び該複数の分割画像のうちの前記第3の分割画像に対応する領域を除く画像である第4の分割画像を、前記視差に応じた距離だけ前記交差方向に対して相反する方向にずらして配置することで前記第2の表示用画像を生成する
     請求項1乃至8の何れか1項記載の画像処理装置。
  10.  前記生成手段は、被写体像が瞳分割されずに結像され、第3の画像を示す画像信号を出力する第3の画素群から出力された前記画像信号に基づく前記第3の画像を前記第2の表示用画像として生成する
     請求項1乃至9の何れか1項記載の画像処理装置。
  11.  前記表示制御手段は、前記第2の表示用画像の前記交差方向の端部を示す画像を前記表示手段に更に表示する制御を行う
     請求項1乃至10の何れか1項記載の画像処理装置。
  12.  前記表示制御手段は、前記表示手段の表示領域のうちの前記第2の表示用画像を表示する予め定められた第1の表示用領域を除いた表示領域である第2の表示用領域に、前記第2の表示用画像を当該第1の表示用画像に重畳させて表示する場合、前記第1の分割画像及び前記第2の分割画像をずらして配置したことによって前記第1の表示用領域において前記第2の表示用画像に対応する画素が存在しない領域の画素の画素値を、前記第1の表示用画像において当該領域に対応する画素の画素値として前記第2の表示用画像を表示する
     請求項1乃至11の何れか1項記載の画像処理装置。
  13.  請求項1乃至12の何れか1項記載の画像処理装置と、
     前記撮影レンズと、
     前記撮影レンズを介して被写体像を画像信号として取得する撮像素子と、
     を備えた撮像装置。
  14.  コンピュータを、
     撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、かつ前記第1及び第2の画素群から出力された画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成手段と、
     前記第1の画像の各画素と前記第2の画像の対応する各画素とのずれ量を示す視差を算出する視差算出手段と、
     前記生成手段により生成された前記第1の表示用画像を表示手段に表示させ、かつ該第1の表示用画像の表示領域内に前記生成手段により生成された前記第2の表示用画像を表示させる制御を行う表示制御手段と、として機能させるためのプログラムであって、
     前記生成手段は、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像の一部である第1の分割画像、及び前記第2の画像を前記第1の画像と同様に分割して得られた複数の分割画像の前記第1の分割画像に対応する領域を除く画像である第2の分割画像を、前記視差に応じた量だけ前記分割方向とは交差する交差方向に対して相反する方向にずらして配置した前記第2の表示用画像を生成する
     プログラム。
  15.  撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づいて第1の表示用画像を生成し、かつ前記第1及び第2の画素群から出力された画像信号に基づく第1及び第2の画像から合焦確認に使用する第2の表示用画像を生成する生成ステップと、
     前記第1の画像の各画素と前記第2の画像の対応する各画素とのずれ量を示す視差を算出する視差算出ステップと、
     前記生成ステップにより生成された前記第1の表示用画像を表示手段に表示させ、かつ該第1の表示用画像の表示領域内に前記生成手段により生成された前記第2の表示用画像を表示させる制御を行う表示制御ステップと、を有し、
     前記生成ステップにて、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像の一部である第1の分割画像、及び前記第2の画像を前記第1の画像と同様に分割して得られた複数の分割画像の前記第1の分割画像に対応する領域を除く画像である第2の分割画像を、前記視差に応じた量だけ前記分割方向とは交差する交差方向に対して相反する方向にずらして配置した前記第2の表示用画像を生成する
     画像処理方法。
PCT/JP2013/069447 2012-09-19 2013-07-17 画像処理装置、撮像装置、プログラム及び画像処理方法 WO2014045689A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014536642A JP5931206B2 (ja) 2012-09-19 2013-07-17 画像処理装置、撮像装置、プログラム及び画像処理方法
CN201380033348.4A CN104782110B (zh) 2012-09-19 2013-07-17 图像处理装置、摄像装置及图像处理方法
US14/576,213 US9485430B2 (en) 2012-09-19 2014-12-19 Image processing device, imaging device, computer readable medium and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-205869 2012-09-19
JP2012205869 2012-09-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/576,213 Continuation US9485430B2 (en) 2012-09-19 2014-12-19 Image processing device, imaging device, computer readable medium and image processing method

Publications (1)

Publication Number Publication Date
WO2014045689A1 true WO2014045689A1 (ja) 2014-03-27

Family

ID=50341015

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/069447 WO2014045689A1 (ja) 2012-09-19 2013-07-17 画像処理装置、撮像装置、プログラム及び画像処理方法

Country Status (4)

Country Link
US (1) US9485430B2 (ja)
JP (1) JP5931206B2 (ja)
CN (1) CN104782110B (ja)
WO (1) WO2014045689A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5747124B2 (ja) * 2012-06-01 2015-07-08 富士フイルム株式会社 撮像装置
WO2014006783A1 (ja) * 2012-07-06 2014-01-09 富士フイルム株式会社 撮像装置及び画像処理方法
CN104487893B (zh) * 2012-07-24 2016-01-20 富士胶片株式会社 相机及其动作控制方法
JP5736514B2 (ja) * 2012-07-24 2015-06-17 富士フイルム株式会社 カメラおよびその動作制御方法
JP5753321B2 (ja) * 2012-09-19 2015-07-22 富士フイルム株式会社 撮像装置及び合焦確認表示方法
WO2014046037A1 (ja) * 2012-09-19 2014-03-27 富士フイルム株式会社 撮像装置及びその制御方法
CN105026976B (zh) * 2013-03-29 2017-05-03 富士胶片株式会社 图像处理装置、摄像装置及图像处理方法
JP6364259B2 (ja) * 2014-07-02 2018-07-25 オリンパス株式会社 撮像装置、画像処理方法、及び画像処理プログラム
US10157032B2 (en) * 2014-12-04 2018-12-18 Henge Docks Llc Method for logically positioning multiple display screens
US20160295122A1 (en) * 2015-04-03 2016-10-06 Canon Kabushiki Kaisha Display control apparatus, display control method, and image capturing apparatus
WO2017057509A1 (ja) 2015-09-30 2017-04-06 富士フイルム株式会社 撮影装置及びその制御方法
JP2017143355A (ja) * 2016-02-08 2017-08-17 キヤノン株式会社 画像符号化装置及び方法及び撮像装置
CN106357967B (zh) * 2016-11-29 2018-01-19 广东欧珀移动通信有限公司 控制方法、控制装置和电子装置
CN110915196B (zh) * 2017-07-24 2023-01-10 索尼公司 成像设备、图像处理方法和程序

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309210A (ja) * 2000-04-27 2001-11-02 Minolta Co Ltd デジタルカメラ
JP2009147665A (ja) * 2007-12-13 2009-07-02 Canon Inc 撮像装置
JP2009163220A (ja) * 2007-12-14 2009-07-23 Canon Inc 撮像装置
JP2009276426A (ja) * 2008-05-13 2009-11-26 Canon Inc 撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8279318B2 (en) * 2007-12-14 2012-10-02 Canon Kabushiki Kaisha Image pickup apparatus and display control method for the same
JP5043730B2 (ja) * 2008-03-24 2012-10-10 キヤノン株式会社 撮像装置、その制御方法、画像処理装置及び画像処理方法
JP5448731B2 (ja) * 2009-11-09 2014-03-19 キヤノン株式会社 焦点検出装置
JP5454424B2 (ja) * 2010-09-03 2014-03-26 ソニー株式会社 撮像方法
JP5829018B2 (ja) * 2010-11-22 2015-12-09 オリンパス株式会社 撮像装置
JP5623254B2 (ja) * 2010-11-29 2014-11-12 キヤノン株式会社 撮像装置およびその制御方法
JP5803095B2 (ja) * 2010-12-10 2015-11-04 ソニー株式会社 撮像素子および撮像装置
CN104169795B (zh) * 2012-03-16 2016-05-18 富士胶片株式会社 图像显示装置、将该图像显示装置作为取景器装置搭载的摄影装置以及图像显示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309210A (ja) * 2000-04-27 2001-11-02 Minolta Co Ltd デジタルカメラ
JP2009147665A (ja) * 2007-12-13 2009-07-02 Canon Inc 撮像装置
JP2009163220A (ja) * 2007-12-14 2009-07-23 Canon Inc 撮像装置
JP2009276426A (ja) * 2008-05-13 2009-11-26 Canon Inc 撮像装置

Also Published As

Publication number Publication date
US9485430B2 (en) 2016-11-01
CN104782110B (zh) 2018-09-14
JPWO2014045689A1 (ja) 2016-08-18
JP5931206B2 (ja) 2016-06-08
CN104782110A (zh) 2015-07-15
US20150103210A1 (en) 2015-04-16

Similar Documents

Publication Publication Date Title
JP5931206B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5960286B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5901801B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5901781B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5889441B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5901782B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5753323B2 (ja) 撮像装置及び画像表示方法
JP5740045B2 (ja) 画像処理装置及び方法並びに撮像装置
JP5833254B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6086975B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6000446B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5923595B2 (ja) 画像処理装置及び方法並びに撮像装置
JP5687803B2 (ja) 画像処理装置及び方法並びに撮像装置
JP5955417B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5901780B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
WO2015111269A1 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5934844B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
WO2014045741A1 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13839018

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014536642

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13839018

Country of ref document: EP

Kind code of ref document: A1