WO2013047220A1 - デジタルカメラ - Google Patents

デジタルカメラ Download PDF

Info

Publication number
WO2013047220A1
WO2013047220A1 PCT/JP2012/073453 JP2012073453W WO2013047220A1 WO 2013047220 A1 WO2013047220 A1 WO 2013047220A1 JP 2012073453 W JP2012073453 W JP 2012073453W WO 2013047220 A1 WO2013047220 A1 WO 2013047220A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus
subject
phase difference
imaging
lens
Prior art date
Application number
PCT/JP2012/073453
Other languages
English (en)
French (fr)
Inventor
佳津男 河村
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2013047220A1 publication Critical patent/WO2013047220A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming

Definitions

  • the present invention relates to a digital camera that picks up a parallax image for stereoscopic viewing by performing focusing by a phase difference method.
  • Digital cameras that have a solid-state image sensor such as a CCD image sensor or a CMOS image sensor and capture a digital image are widely used.
  • Digital cameras have an autofocus (hereinafter simply referred to as AF) function that automatically adjusts the focus of an imaging optical system.
  • AF autofocus
  • a digital camera that automatically adjusts the focus of an imaging optical system by a phase difference method using some pixels of a solid-state imaging device for AF (see Patent Document 1).
  • a solid-state imaging device including a plurality of sets of two types of pixels (hereinafter, referred to as a first phase difference pixel and a second phase difference pixel) having a thickness of 2 is used (see Patent Document 2).
  • the first phase difference pixel receives light incident through the first eccentric opening that is decentered in the first direction with respect to the center position of the light receiving surface of the PD, and the second phase difference pixel is the center position of the light receiving surface of the PD.
  • the light incident through the second eccentric opening decentered in the second direction opposite to the first direction is received.
  • the first and second eccentric openings are formed in a light shielding film covering the semiconductor substrate on which the PD is formed.
  • the first phase difference pixel becomes more sensitive to incident light from the right direction, and the second position.
  • the phase difference pixel has high sensitivity to incident light from the left direction.
  • the distance between the image constituted by the first phase difference pixels and the image constituted by the second phase difference pixels varies depending on the in-focus state of the imaging optical system.
  • the shift amount between the two images corresponds to the focus shift amount of the imaging optical system, and the shift amount is zero when the imaging optical system is in focus.
  • the two images are deviated from each other according to the defocus amount, and the direction of the deviation is determined according to the direction of defocus (front pin / rear pin). .
  • the focus adjustment amount of the imaging optical system can be obtained based on the focal length of the imaging optical system at the time and the subject distance in the focused state.
  • Patent Document 3 a solid-state imaging device in which only the first phase difference pixel and the second phase difference pixel described above are arranged on the imaging surface is also known (Patent Document 3). From this solid-state image sensor, an R viewpoint image (first viewpoint image) constituted by an output signal output from each first phase difference pixel and an output signal outputted from each second phase difference pixel are constituted. A two-viewpoint parallax image composed of the L-viewpoint image (second viewpoint image) can be acquired. In general, in order to acquire a parallax image, it is necessary to prepare two sets of an imaging optical system and a solid-state imaging device, and arrange them in parallel to perform imaging (see Patent Documents 4 to 6).
  • an area for distance measurement is set in a specific area (for example, a central area) of an imaging surface of a solid-state imaging device, and from the first and second phase difference pixels included in the area
  • phase difference AF is performed based on the output signal. For this reason, it is possible to obtain R and L viewpoint images in which the subject in the central area is in focus, but it is difficult to focus in other areas.
  • the R and L viewpoint images focused by the phase difference AF parallax does not occur in the subject that is in focus, and parallax occurs in the subject that is not in focus.
  • L viewpoint image is stereoscopically viewed on a 3D monitor of a digital camera, for example, the focused area in the R, L viewpoint image appears to be located on the monitor screen in the depth direction, and conversely, The area that does not fit is projected from the monitor screen or is retracted to the back side of the monitor screen and observed.
  • the live view image is displayed on the 3D monitor.
  • the subject A is farther from the digital camera than the subject B.
  • FIG. 19 when the imaging optical system of the digital camera 100 is focused on the subject B, the subject B appears to be positioned on the monitor screen 105, but the subject A is larger than the monitor screen 105. Looks like it ’s retracted to the back.
  • Reference numeral Fs denotes a focusing surface on which the imaging optical system is focused
  • reference numerals La and Lb denote distances from the digital camera 100 to the subject A and the subject B, respectively.
  • the subject A may be in focus due to phase difference AF. is there. Then, as shown in FIG. 20, the subject A appears to be positioned on the monitor screen 105, and the subject B appears to protrude forward from the monitor screen 105. Therefore, although the distances La and Lb to the actual subjects A and B are different, the sense of distance to the subject B in the first state where the subject B is in focus and the subject in the second state where the subject A is in focus It becomes easy to recognize that the sense of distance to A is the same.
  • An object of the present invention is to provide a digital camera that can suppress unnatural fluctuations in distance that occur when a focused subject is switched when a live view image is captured or a moving image is captured. .
  • the digital camera of the present invention includes an imaging optical system, an imaging device, a zoom drive unit, a focus drive unit, a first determination unit, and a zoom control unit.
  • the imaging optical system includes a variable power lens and a focus lens.
  • the imaging apparatus captures a plurality of viewpoint images with parallax by imaging subject light that has passed through different regions of the imaging optical system that is divided into pupils.
  • the zoom drive unit moves the zoom lens to change the image magnification of the imaging optical system, and the focus drive unit moves the focus lens to focus the imaging optical system.
  • the first determination unit determines whether the focusing of the imaging optical system is performed in the direction of the infinity position side or the closest position side while the imaging apparatus performs imaging a plurality of times.
  • the zoom control unit controls the operation of the zoom drive unit according to the determination result in the first determination unit, and sets the focal length of the imaging optical system when the focusing direction of the imaging optical system is the infinity position side.
  • the imaging magnification is increased by increasing the length, and the focal length is shortened and the imaging magnification is decreased when the distance is close.
  • the imaging device uses a solid-state imaging device having an imaging surface on which a plurality of types of pixels that photoelectrically convert subject light that has been divided into pupils through different regions of the imaging optical system are arranged.
  • the plurality of types of pixels in the imaging surface include a first pixel and a second pixel that photoelectrically convert subject light that has passed through a region that is symmetrical with respect to the optical axis of the imaging optical system.
  • the first focus detection unit moves the focus lens for focusing the imaging optical system by the phase difference detection method. And the amount of movement.
  • the focus control unit is activated and the focus drive unit moves the focus lens to the focus position.
  • the first output signal from the first pixel and the second output from the second pixel are moved while the focus lens is moved to the infinity position side or the closest position side by the focus driving unit.
  • a second focus detection unit that positions the focus lens at a focus position by a contrast detection method based on at least one of the two output signals may be used.
  • a phase difference detection unit When the imaging optical system is focused by the phase difference method, a phase difference detection unit is provided.
  • the phase difference detection unit evaluates the first output signals output from the plurality of first pixels and the second output signals output from the plurality of second pixels, and determines the first and second output signals.
  • the first output A shift amount of a signal pattern corresponding to the image of the second subject between the signal and the second output signal is detected as a phase difference.
  • the phase difference obtained in this way is used when the imaging magnification of the imaging optical system is changed by the zoom control unit.
  • the first and second output signals are obtained during a specific horizontal scanning period of the solid-state imaging device. Further, it is preferable that the zoom control unit increases the amount of change in imaging magnification as the phase difference detected by the phase difference detection unit increases.
  • the imaging optical system It is desirable to return the imaging magnification of the original to the original imaging magnification before the change.
  • the present invention can be applied not only to a digital camera having an optical zoom function but also to an electronic zoom digital camera that obtains a zoom function by processing image data.
  • the imaging optical system is focused while the imaging apparatus performs imaging a plurality of times, and the first determination unit determines whether the focusing direction is the infinity position side or the closest position side.
  • the zoom control unit is operated according to the determination result of the first determination means, and when it is determined that the focusing direction is the infinity position side, the parallax image is enlarged by electronic zoom, and conversely the closest position side When it is determined that the parallax image is determined, the parallax image may be reduced.
  • a digital camera with an electronic zoom function does not require an optical scaling function, and the zoom control unit electronically zooms the image data of the parallax image obtained from the imaging device and enlarges or reduces the parallax image as a whole. It differs from an optical zoom digital camera in that it is converted into a digital camera.
  • the focus driving unit that moves the focus lens to focus
  • the first determination unit that determines the focusing direction
  • the first and second focus detection units described above and the focusing unit.
  • the configuration of the focus control unit or the like can be used in common.
  • the second determination unit that determines that the focus lens has been stopped for a certain period of time, and the process of returning the image magnification of the parallax image to the magnification before the change in accordance with the determination result of the second determination unit is exactly the same. It is possible to use.
  • the imaging magnification is increased or decreased, and the size of the subject that is out of focus is adjusted to an appropriate size.
  • the parallax of the other subject that is not the focus target is not unnaturally emphasized with respect to the one subject that is the focus target, and the other subject moves greatly back and forth.
  • the illusion is also suppressed, and a stereoscopic image can be displayed without a sense of incongruity.
  • FIG. 3 is a schematic plan view of a CMOS type image sensor.
  • FIG. 3 is a sectional view taken along line III-III in FIG. 2. It is explanatory drawing for demonstrating the specific horizontal scanning period of an image sensor. It is explanatory drawing for demonstrating the output waveform of the output signal of the 1st, 2nd pixel when the to-be-photographed object B is focused. It is explanatory drawing for demonstrating the output waveform of the output signal of the 1st, 2nd pixel when the to-be-photographed object A is focused. It is a functional block diagram of CPU.
  • FIG. 6 is an explanatory diagram showing imaging magnifications of subjects A and B when a focused subject is subject B.
  • FIG. 6 is an explanatory diagram illustrating imaging magnifications of subjects A and B when a focused subject moves from subject B to subject A. It is a block diagram which shows the electric constitution of the digital camera of 2nd Embodiment. It is a flowchart which shows the flow of the automatic zoom control process of 2nd Embodiment. It is a block diagram which shows the electric constitution of the digital camera of 3rd Embodiment. It is a functional block diagram of CPU of 3rd Embodiment. It is a block diagram which shows the electric constitution of the digital camera of 4th Embodiment. It is a block diagram which shows the electric constitution of the digital camera of other embodiment which performs the focus detection of a contrast detection system.
  • the CPU 11 of the digital camera 10 sequentially executes various programs and data read from a memory (not shown) based on a control signal from the operation unit 12 to comprehensively control each unit of the digital camera 10. To do.
  • the digital camera 10 acquires 2-viewpoint parallax image data including R-viewpoint image data captured from the right viewpoint and L-viewpoint image data captured from the left viewpoint.
  • the digital camera 10 has a plurality of operation modes including a still image capturing mode for capturing still images, a moving image capturing mode for capturing moving images, and a playback mode for reproducing and displaying still images and moving images obtained by capturing images. is doing.
  • the operation mode is switched by the mode switch 12a of the operation unit 12.
  • the operation unit 12 is provided with a shutter button 12b, a zoom switch 12c for performing a zoom operation, and the like.
  • the imaging optical system 13 uses a zoom lens, and includes a variable power lens 14 and a focus lens 15.
  • a mechanical shutter 16 is also incorporated in the imaging optical system 13.
  • the zoom lens 14 is moved on the optical axis O1 between the wide end (wide angle end) and the tele end (telephoto end) by the zoom drive unit 17 when a zoom operation is performed.
  • the focus lens 15 is driven by the focus driving unit 18 at the time of focusing, and moves between an infinity position that focuses on infinity on the optical axis O1 and a close position that focuses on the closest imaging distance.
  • the illustration of the variable power lens 14 and the focus lens 15 included in the imaging optical system 13 is a schematic diagram for explaining the function, and does not specifically represent the shape or the number of lenses.
  • the mechanical shutter 16 has movable shutter blades, and opens / blocks the optical path from the lenses 14 and 15 to the image sensor 20.
  • the mechanical shutter 16 includes a diaphragm that controls the amount of subject light incident on the image sensor 20.
  • the mechanical shutter 16, the zoom drive unit 17, and the focus drive unit 18 are controlled by the CPU 11 via the lens driver 21.
  • a neutral density (ND) filter 19a attenuates subject light incident on the image sensor 20.
  • the LP filter 19b blocks subject light having a spatial frequency higher than a predetermined value.
  • the image sensor 20 converts subject light from the zoom lens into an electrical signal and outputs it.
  • the CMOS driver 23 controls driving of the image sensor 20 under the control of the CPU 11.
  • the image processing circuit 22 includes a parallax image generation unit 23.
  • the parallax image generation unit 23 performs various processing such as gradation conversion, white balance correction, and ⁇ correction processing on the signal input from the image sensor 20 to generate R and L viewpoint image data.
  • the R and L viewpoint image data is stored in the VRAM 24.
  • the “parallax image” here refers to a collection of a plurality of viewpoint images when the subject is viewed from different viewpoints.
  • the image processing circuit 22 also generates R and L focus detection image data for focus detection of the imaging optical system 13 by the phase difference method.
  • the focus detection unit (first focus detection means) 26 obtains a focus adjustment amount for matching the focus of the imaging optical system 13 to the subject based on the L and R focus detection image data.
  • the compression / decompression processing circuit 29 performs compression processing on the R and L viewpoint image data processed by the image processing circuit 22 when an imaging instruction is given, and generates an image file in a predetermined file format.
  • a still image file composed of R and L viewpoint image data for one frame is generated.
  • a moving image file including R and L viewpoint image data hereinafter referred to as R and L frame image data for a plurality of frames is generated.
  • the compression / decompression processing circuit 29 performs decompression processing on the image file obtained from the memory card 31 via the media I / F 30.
  • the media I / F 30 performs recording and reading of an image file with respect to the memory card 31.
  • the monitor 32 displays a live view image (also referred to as a through image), a reproduced image, and the like.
  • a live view image also referred to as a through image
  • various monitors capable of observing a stereoscopic image based on R viewpoint image data and L viewpoint image data are used.
  • various known methods such as a lenticular method, a parallax barrier method, a parallax barrier method, an anaglyph method, a frame sequential method, and a light direction method may be used as a stereoscopic image display method.
  • the display circuit 33 performs predetermined signal processing on the R and L viewpoint image data stored in the VRAM 24 or the R and L viewpoint image data expanded by the compression / decompression processing circuit 29 to generate a signal for image display. This is output to the monitor 32 at a fixed timing. A live view image is displayed on the monitor 32 so as to be stereoscopically viewed in the still image and moving image capturing mode. The monitor 32 can also display the R and L viewpoint images read from the memory card 31 in the playback mode so as to be stereoscopically viewable.
  • the image sensor 20 has an imaging surface 20a on which subject light divided through pupils through different regions of the zoom lens is imaged. All the pixels on the imaging surface 20 a are configured by a set of a first phase difference pixel (hereinafter simply referred to as a first pixel) 35 and a second phase difference pixel (hereinafter simply referred to as a second pixel) 36. On the imaging surface 20a, a plurality of pixel lines 37 in which the first pixels 35 and the second pixels 36 are alternately arranged in the horizontal direction in the figure are arranged in the vertical direction in the figure.
  • the first pixel 35 has high sensitivity to incident light incident from the upper right side with respect to the imaging surface 20a
  • the second pixel 36 has sensitivity to incident light incident from the upper left side with respect to the imaging surface 20a. Becomes higher.
  • a pixel circuit 38 is provided for the first and second pixels 35 and 36.
  • the pixel circuit 38 amplifies the signal charges stored in the PDs of the first and second pixels 35 and 36 and outputs the amplified signal charges as signal voltages.
  • the pixel circuit 38 includes, for example, a read transistor, an amplifier transistor, a switch transistor, a reset transistor, and the like.
  • the read transistor reads signal charges accumulated in the PD / photoelectric conversion film.
  • the amplifier transistor amplifies the signal charge read by the read transistor and outputs it as a signal voltage.
  • the switch transistor controls reading of the signal voltage by the signal line.
  • the reset transistor clears signal charges accumulated in the PD / photoelectric conversion film.
  • the image sensor 20 also has a plurality of drive lines 39 for driving the pixel circuits 38 of the first and second pixels 35 and 36, and a signal voltage for reading the signal voltages of the first and second pixels 35 and 36.
  • a plurality of signal lines 40 are formed.
  • the drive line 39 extends long in the vertical direction in the drawing, and is provided for each vertical column of the first and second pixels 35 and 36.
  • a CMOS driver 23 is connected to each drive line 39.
  • the CMOS driver 23 drives each of the first and second pixels 35 and 36 via each drive line 39.
  • the signal lines 40 extend long in the horizontal direction in the figure, and one signal line 40 is provided for each pixel line 37.
  • the signal voltage of each of the first and second pixels 35 and 36 is read out to the signal line 40 for each pixel line 37.
  • the signal voltage read out to each signal line 40 is output to the image processing circuit 22 as an output signal through an output circuit and an amplifier (not shown).
  • N-type PDs 43 constituting the first and second pixels 35 and 36 are formed on the surface layer of a semiconductor substrate 42 (Psub) made of P-type silicon.
  • the semiconductor substrate 42 is provided with a pixel circuit 38, a drive line 39, a signal line 40, and the like.
  • a light-transmissive insulating film 44 made of, for example, silicon oxide (SiO 2 ) is provided on the semiconductor substrate 42 .
  • a light shielding film 45 made of, for example, tungsten is provided on the insulating film 44.
  • the light shielding film 45 includes a first eccentric opening 45 a formed on the PD 43 of the first pixel 35 and a second eccentric opening 45 b formed on the PD 43 of the second pixel 36.
  • the first eccentric opening 45a is formed at a position shifted in the left direction in the figure with respect to the center of the PD 43 of the first pixel 35.
  • the substantially right half area (hereinafter simply referred to as the right area) of the PD 43 of the first pixel 35 is covered with the light shielding film 45, and conversely, the substantially left half area (hereinafter simply referred to as the left area) is exposed.
  • the second eccentric opening 45b is formed at a position shifted in the right direction in the drawing with respect to the center of the PD 43 of the second pixel 36.
  • the left region of the PD 43 of the second pixel 36 is covered with the light shielding film 45, and conversely, the right region is exposed.
  • a light-transmitting flattening layer 47 having a flat surface is provided on the light shielding film 45.
  • a color filter 48 is provided for each of the first and second pixels 35 and 36. In the first and second pixels 35 and 36 of the same set, the color of the color filter 48 is the same color.
  • microlenses 49 are provided above the first and second pixels 35 and 36, respectively. Note that the symbol O2 in the figure is the optical axis of the microlens 49.
  • the incident light 50L incident on the microlens 49 on the first pixel 35 from the left direction in the drawing is shielded by the light shielding film 45. For this reason, the incident light 50 ⁇ / b> L does not enter the right region of the PD 43 of the first pixel 35. Conversely, incident light 50R that has entered the microlens 49 from the right in the drawing enters the left region of the PD 43 of the first pixel 35 through the first eccentric opening 45a by the microlens 49. Thereby, the sensitivity of the first pixel 35 is increased with respect to the incident light 50R from the right direction in the drawing.
  • Incident light 50R incident on the microlens 49 on the second pixel 36 from the right in the drawing is shielded by the light shielding film 45. For this reason, the incident light 50 ⁇ / b> R does not enter the left region of the PD 43 of the second pixel 35. Conversely, incident light 50L incident on the microlens 49 from the left direction in the drawing is incident on the right region of the PD 43 of the second pixel 36 via the second eccentric opening 45b by the microlens 49. Thereby, the sensitivity of the second pixel 36 is increased with respect to the incident light 50L from the left direction.
  • the image processing circuit 22 further includes a focus detection image generation unit 52, a signal output detection unit 53, and a phase difference detection unit 54.
  • the focus detection image generating unit 52 operates in the still image capturing mode and the moving image capturing mode.
  • the focus detection image generation unit 52 for example, R focus detection used for the phase difference AF based on the output signals from the first and second pixels 35 and 36 in the central region set as the distance measurement area on the imaging surface 20a.
  • Image data and L focus detection image data are generated.
  • the R and L focus detection image data is sent to the focus detection unit 26.
  • the signal output detector 53 individually detects output signals from the first and second pixels 35 and 36 arranged on a specific horizontal scanning line Ht passing through the distance measuring area 20b.
  • the specific horizontal scanning line Ht corresponds to the pixel row 37 composed of the first and second pixels arranged on the horizontal line passing through substantially the center of the distance measuring area 20b, and within a common specific horizontal scanning period.
  • the output signal is read out.
  • the respective output signals are sequentially discriminated and read out from the column in which the plurality of first pixels 35 are arranged and the column in which the plurality of second pixels 36 are arranged, and the output waveform WR from the column of the first pixels 35 is read out.
  • the output waveform WL from the example of the second pixel 36 is obtained.
  • the output waveforms WR and WL include signal patterns corresponding to the luminance distributions of the subjects A and B, respectively, and have peaks PA and PB, respectively.
  • the phase difference detection unit 54 calculates a phase difference amount that is a shift amount of the peak PA of both the output waveforms WR and WL and a phase difference amount that is a shift amount of the peak PB of the both output waveforms WR and WL.
  • FIG. 5 is an example of output waveforms WR and WL when the subject B is in focus and the subject A is not in focus. In such a case, almost no phase difference is detected at the peak PB of both output waveforms WR and WL, but the phase difference corresponding to the distance from the subject B to the subject A is detected at the peak PA of both output waveforms WR and WL. Is detected. Note that the symbol “ ⁇ ” in the figure is the phase difference amount of the peak PA of both output waveforms WR and WL.
  • the peaks PA and PB of both output waveforms WR and WL do not match and a phase difference occurs in both.
  • the focus lens 15 is moved to the infinity position side for focusing while continuing the imaging, the phase difference of the peak PA between the output waveforms WR and WL becomes smaller, and the position of the peak PB becomes smaller. If the phase difference increases, it can be seen that the moving direction of the focus lens 15 is the direction in which the subject A is focused, and the direction in which the subject B is out of focus.
  • the focal length of the imaging optical system and the subject distance on which the current focus lens 15 is focused are calculated. Can do. Therefore, based on the phase difference of the peak PA between the output waveforms WR and WL, it is calculated how much the focus lens 15 can be moved to the infinity position side to focus on the subject A. I can do it.
  • the focus lens 15 When the focus lens 15 is moved to the infinity position side, if the phase difference of the peak PA decreases between the output waveforms WR and WL and the phase difference of the peak PB increases, the current focus is achieved. It can be seen that the subject B is at the front pin position with respect to the subject distance, and the current moving direction of the focus lens 15 is opposite to the subject B.
  • the symbol “ ⁇ ” in the figure is the phase difference amount of the peak PB of both output waveforms WR and WL.
  • the phase difference detection unit 54 detects the phase difference amount of the peak PA obtained based on the waveform patterns of the output waveforms WR and WL, and the peak PB.
  • the phase difference amount detection result is sent to the CPU 11.
  • the detection of the phase difference amount is not necessarily limited to the peaks PA and PB. If the phase difference between the waveform patterns of the subjects A and B is detected, the phase difference amount is detected between specific pattern portions such as the rising portions of the output waveforms WR and WL. The phase difference amount may be detected.
  • the CPU 11 sequentially executes various programs read from a ROM (not shown), thereby achieving a focus control unit 55, a subject position coordinate detection unit (hereinafter referred to as a position coordinate detection unit) 56, and a zoom control unit. 58 functions.
  • the focus detection unit 26 is the current focal length of the imaging optical system calculated based on the position of the variable magnification lens 14, the current focused subject distance calculated based on the position of the focus lens 15, and the above-described focus distance.
  • the focus adjustment amount for the subject A or the subject B is calculated from the phase difference amounts ⁇ and ⁇ obtained based on the output waveforms WR and WL that are sequentially output and the changes thereof.
  • the focus control unit 55 then drives the focus drive unit 18 via the lens driver 21 based on the focus adjustment amount obtained by the focus detection unit 26 and executes AF processing.
  • the position coordinate detection unit 56 operates in a moving image capturing mode in which autofocus is performed in parallel or when a live view image is displayed.
  • the position coordinate detection unit 56 analyzes the R viewpoint image data stored in the VRAM 24 (either L viewpoint image data or both R and L viewpoint image data are acceptable), and an in-focus subject (hereinafter referred to as in-focus).
  • the position coordinates (X, Y) of the object are detected.
  • the position coordinate detection unit 56 detects all subjects included in the R viewpoint image data using a known pattern matching method or face detection method. Next, based on the detection result of the phase difference detection unit 54, the position coordinate detection unit 56 focuses the subject corresponding to the peak at which the phase difference amount is minimum, particularly on the subject included in the central region of the imaging surface 20a. It is determined that the subject is. Then, the position coordinate detection unit 56 detects, for example, the center coordinates (other coordinates are acceptable) of the subject that is the focus target in the R viewpoint image as the position coordinates (X, Y). The position coordinate detection unit 56 detects position coordinates each time new R viewpoint image data is stored in the VRAM 24, and sequentially sends the detection results to the zoom control unit 58.
  • the zoom control unit 58 controls the zoom drive unit 17 via the lens driver 21 when the zoom switch 12c is operated, and the zoom lens 14 according to the operation position (T position / W position) of the zoom switch 12c. Is moved to the tele end side or wide end side. Further, the zoom control unit 58 moves the zoom lens 14 to the tele end side or the wide end side only when the subject to be focused is moved to another subject in the moving image capturing mode or the live view image display. The automatic zoom control process that automatically moves the camera is performed.
  • the zoom control unit 58 is provided with a determination unit (first determination means) 60, a lens movement amount determination unit 61, and an automatic zoom control unit 62.
  • the determination unit 60 satisfies the following first to third conditions in order to check whether or not the subject to be focused is changed every time new R, L image data is stored in the VRAM 24. To check.
  • the determination unit 60 determines whether the amount of change in the position coordinates (X, Y) of the focused subject extracted by the position coordinate detection unit 56 exceeds a prescribed value. Specifically, whether or not
  • the determination unit 60 monitors the AF control by the focus control unit 55 and determines whether or not the focus lens 15 has moved to the infinity position side or the closest position side. When the focus lens 15 is not moved, the determination unit 60 determines that the second condition is not satisfied and the in-focus subject has not changed to another subject. The determination unit 60 determines that the second condition is satisfied when the focus lens 15 is moved.
  • the determination unit 60 determines whether the peak at which the phase difference amount is minimum has changed based on the detection result of the phase difference detection unit 54.
  • the determination unit 60 determines that the third condition is not satisfied and the in-focus subject has not changed to another subject when the peak at which the phase difference amount is minimum does not change.
  • the determination part 60 determines with the 3rd condition being satisfy
  • the determination unit 60 determines that the in-focus subject has changed to another subject when all of the first to third conditions are satisfied, and includes the movement direction of the focus lens 15 and uses this determination result as the lens movement amount determination unit. 61 and the automatic zoom control unit 62 respectively.
  • the lens movement amount determination unit 61 operates when the determination result from the determination unit 60 is input.
  • the lens movement amount determination unit 61 determines the movement direction and movement amount of the zoom lens 14 and sends the result to the automatic zoom control unit 62.
  • the lens movement amount determination unit 61 determines the movement direction of the zoom lens 14 based on the movement direction of the focus lens 15. Specifically, when the focus lens 15 is moved to the infinity position side, the moving direction of the zoom lens 14 is determined to be the tele end side where the imaging magnification is increased. On the contrary, when the focus lens 15 moves to the closest position side, the moving direction of the zoom lens 14 is determined to the wide end side where the imaging magnification is reduced.
  • the lens movement amount determination unit 61 determines the peak corresponding to the out-of-focus subject that is out of focus (the previous focused subject when there are two subjects) based on the detection result of the phase difference detection unit 54.
  • the amount of movement of the zoom lens 14 is obtained from the phase difference amount.
  • the amount of movement of the variable magnification lens 14 is obtained by multiplying a peak phase difference amount corresponding to the out-of-focus subject by a predetermined coefficient.
  • the predetermined coefficient can be determined according to the optical characteristics of the imaging optical system 13, such as zoom magnification and F value, or can be determined through experiments.
  • the larger the phase difference amount of the peak corresponding to the out-of-focus subject the greater the movement amount of the variable magnification lens 14.
  • the automatic zoom control unit 62 operates when the determination result from the determination unit 60 is input.
  • the automatic zoom control unit 62 controls the zoom drive unit 17 via the lens driver 21 based on the determination result of the moving direction and the moving amount of the variable magnification lens 14 input from the lens movement amount determination unit 61 to change the variable magnification lens. 14 is moved.
  • the mode switch 12a is switched to the moving image capturing mode.
  • the CPU 11 controls the operation of the mechanical shutter 16 via the lens driver 21 and drives the image sensor 20 via the CMOS driver 23.
  • the mechanical shutter 16 is opened and closed at a predetermined shutter speed, and signal charges are accumulated in the PD 43 of each of the first and second pixels 35 and 36 of the image sensor 20.
  • the signal charges accumulated in the PDs 43 are read out as signal voltages to the signal lines 40 by the pixel circuits 38 of the first and second pixels 35 and 36, respectively.
  • Each signal voltage is output to the image processing circuit 22 as an output signal.
  • the parallax image generation unit 23 generates R viewpoint image data based on the output signal from each first pixel 35, and generates L viewpoint image data based on the output signal from each second pixel 36.
  • the image processing circuit 22 stores these R and L viewpoint image data in the VRAM 24.
  • the display circuit 33 performs predetermined signal processing on the R and L viewpoint image data stored in the VRAM 24 to generate an image display signal, and outputs the signal to the monitor 32. As a result, a live view image that can be viewed stereoscopically is displayed on the monitor 32.
  • the focus detection image generation unit 52 generates R focus detection image data and L focus detection image data based on output signals from the first pixel 35 and the second pixel 36 included in the central region of the imaging surface 20a. Generate. The R focus detection image and the L focus detection image are shifted in the left-right direction in accordance with the in-focus state of the imaging optical system 13. The R and L focus detection image data is output to the focus detection unit 26.
  • the focus detection unit 26 analyzes the R and L focus detection image data, and detects the shift direction between the R focus detection image and the L focus detection image and the shift amount between the two images, thereby taking an imaging optical system. 13 focus adjustment amounts (also referred to as defocus amounts) are obtained. Based on the focus adjustment amount, the focusing control unit 55 controls the lens driver 21 and moves the focus lens 15 by the focus driving unit 18.
  • the focus lens 15 has been moved to a lens position where the subject B is focused (hereinafter referred to as a B lens position).
  • phase difference AF processing is described in detail in, for example, Japanese Patent No. 2959142, Japanese Patent Application Laid-Open No. 2009-128892, Japanese Patent Application Laid-Open No. 2007-158597, and the description thereof is omitted here.
  • the automatic zoom control process is executed according to the flowchart shown in FIG.
  • the signal output detection unit 53, the phase difference detection unit 54, the position coordinate detection unit 56, and the determination unit 60 operate.
  • the signal output detection unit 53 detects the output value of the output signal from each of the first and second pixels 35 and 36 on a specific horizontal scanning line Ht of the image sensor 20.
  • output waveforms WR and WL during horizontal scanning of the distance measuring area 20b are also obtained.
  • the phase difference detection unit 54 calculates a phase difference amount ⁇ and a phase difference amount ⁇ from both output waveforms WR and WL, and sends the calculation results to the CPU 11. Since the subject B is a focused subject, the phase difference amount ⁇ is detected, but the phase difference amount ⁇ is almost zero.
  • the position coordinate detection unit 56 determines that the subject B is a focused subject based on the analysis result of the R viewpoint image data newly stored in the VRAM 24 and the detection result of the phase difference detection unit 54. Next, the position coordinate detection unit 56 detects the position coordinate (X, Y) of the subject B and sends the detection result to the zoom control unit 58.
  • the determination unit 60 determines whether the first to third conditions are satisfied based on the monitoring result of the movement of the focus lens 15, the detection result of the phase difference detection unit 54, and the detection result of the position coordinate detection unit 56. Determine. Based on the detection result of the position coordinate detection unit 56, the determination unit 60 firstly satisfies the first condition that the change amount ( ⁇ X, ⁇ Y) of the position coordinate (X, Y) is
  • the determination unit 60 determines whether or not the second condition for moving the focus lens 15 is satisfied. Furthermore, when the second condition is satisfied, the determination unit 60 determines whether the third condition that minimizes the phase difference amount ⁇ of the peak PA corresponding to the subject A is satisfied based on the detection result of the phase difference detection unit 54. Determine whether.
  • the determination unit 60 determines that the in-focus subject has changed from the subject B to the subject A unless all of the first to third conditions are satisfied.
  • the R, L viewpoint image data generation processing, the live view image generation processing, and the AF processing are repeatedly executed until the determination unit 60 determines that the focused subject has changed to the subject A.
  • the subject A may move to the center area of the R and L viewpoint images due to a change in the posture of the user or camera shake.
  • the focus lens 15 may be moved to a lens position that focuses on the subject A (hereinafter referred to as A lens position) by the phase difference AF process, and the focused subject may change to the subject A.
  • the change amount ( ⁇ X, ⁇ Y) of the position coordinates (X, Y) of the subject B is
  • the focus lens 15 moves from the B lens position toward the A lens position toward the infinity position side, the second condition is also satisfied.
  • the output waveforms WR and WL of the signals sequentially read out along the specific horizontal scanning line Ht in the distance measuring area 20b are changed from the state shown in FIG. It changes to the state shown in. That is, as shown in the figure, the subject A between the output waveforms WR and WL has a significant phase difference amount ⁇ , and the subject B has a phase difference amount ⁇ of almost zero. Changes to a state where the subject B has a significant amount of phase difference ⁇ , and as a result, the third condition is also satisfied.
  • the determination unit 60 determines that the in-focus subject has changed from the subject B to the subject A, and uses the determination result as the lens movement amount determination unit 61 and the automatic zoom. Each is sent to the control unit 62. As a result, the lens movement amount determination unit 61 and the automatic zoom control unit 62 operate.
  • the lens movement amount determination unit 61 determines the moving direction of the zoom lens 14 to the tele end side. Then, the lens movement amount determination unit 61 sets the phase difference amount ⁇ of the subject B that is the previous focused subject to a negative value ( ⁇ ). Next, the lens movement amount determination unit 61 obtains the movement amount of the zoom lens 14 by multiplying “ ⁇ ” by a predetermined coefficient, and sends the result to the automatic zoom control unit 62.
  • the zoom lens movement amount is a negative value, this indicates that the zoom lens 14 is moved to the tele end side. Conversely, when the zoom lens is a positive value, the zoom lens 14 is moved to the wide end side. It shows moving.
  • the automatic zoom control unit 62 controls the zoom drive unit 17 via the lens driver 21 to move the zoom lens 14 toward the tele end side by the movement amount determined by the lens movement amount determination unit 61. This increases the imaging magnification.
  • the size of the subjects A and B in the distance measuring area 20b of the monitor 32 also changes from the state shown in FIG. 11A to the state shown in FIG.
  • the image is enlarged as a whole.
  • the parallax of subject B becomes almost zero and the subject A has parallax, so subject B appears to be located on the monitor screen, and conversely subject A Appears to be retracted into the back of the monitor screen.
  • the determination unit 60 determines that the first to third conditions are satisfied.
  • the lens movement amount determination unit 61 determines the moving direction of the zoom lens 14 to the wide end side where the imaging magnification becomes small, and the previous focused subject
  • the phase difference amount ⁇ of the subject A is a positive value (+ ⁇ ).
  • the lens movement amount determination unit 61 obtains the movement amount of the zoom lens 14 by multiplying “+ ⁇ ” by a predetermined coefficient, and sends the result to the automatic zoom control unit 62.
  • the automatic zoom control unit 62 controls the zoom drive unit 17 via the lens driver 21 to move the zoom lens 14 toward the wide end side by the movement amount determined by the lens movement amount determination unit 61. As a result, the focal length of the imaging optical system 13 is changed so that the imaging magnification is reduced.
  • an output signal for one frame is output from the first and second pixels 35 and 36 to the image processing circuit 22 at a constant frame rate (for example, 30 frames / second).
  • the circuit 22 sequentially generates R and L frame image data.
  • the R and L frame image data is sequentially stored in the VRAM 24. As a result, a live view image that can be viewed stereoscopically is displayed on the monitor 32 as described above.
  • the compression / decompression processing circuit 29 sequentially performs data compression processing on the R and L frame image data sequentially stored in the VRAM 24.
  • the compressed frame image data subjected to the data compression processing is sequentially recorded in a predetermined file format on the memory card 31. Further, the phase difference AF process and the automatic zoom control process shown in FIG. 9 are executed. Thereafter, the above-described processes are repeatedly executed until the shutter button 12b is pressed again.
  • each compressed frame image data obtained by moving image capturing is recorded in the memory card 31 as one moving image file. Since the automatic zoom control process is executed even when moving images are captured, it is possible to suppress discomfort caused by the illusion caused by the change of the in-focus subject when the image obtained by moving image capturing is viewed stereoscopically.
  • the above-described series of processing is repeatedly executed.
  • the process flow until the shutter button 12b is pressed is the same as that of the moving image capturing mode.
  • an output signal for one frame is output from the image sensor 20, and R and L viewpoint image data is generated.
  • the R and L viewpoint image data is compressed and then recorded as a still image file on the memory card 31.
  • a digital camera 70 according to the second embodiment of the present invention will be described with reference to FIG.
  • the sense of incongruity caused by the change of the focused subject is suppressed by changing the imaging magnification when the focused subject is changed.
  • the difference between the actual imaging magnification and the imaging magnification when the user performs a zoom operation increases, and the user may feel uncomfortable. Therefore, in the digital camera 70, after the imaging magnification is changed by the automatic zoom control process, if the focused subject does not change for a certain period, the imaging magnification is returned to the original magnification.
  • the digital camera 70 has basically the same configuration as the digital camera 10 of the first embodiment, except that the CPU 71 functions as a zoom control unit 72 different from the zoom control unit 58 of the first embodiment.
  • the same code is attached and the description is abbreviate
  • the zoom control unit 72 includes a lens position return determination unit (second determination unit) 73 and a lens position return control unit 74. It has been.
  • the automatic zoom control unit 62 is provided with a lens position storage unit 62a.
  • the automatic zoom control unit 62 stores information on the original position of the variable magnification lens 14 (hereinafter simply referred to as pre-movement position information) in the lens position storage unit 62a before moving the variable magnification lens 14.
  • the lens position return determination unit 73 operates after the focus lens 15 is set at a lens position at which a new in-focus subject is focused, and the zoom lens 14 is moved and the imaging magnification is changed by the automatic zoom control process.
  • the lens position return determination unit 73 determines whether or not the in-focus subject remains unchanged for a certain period. Specifically, similarly to the determination unit 60, each time new R, L image data is stored in the VRAM 24, it is determined whether or not the first to third conditions are satisfied.
  • the lens position return determination unit 73 is provided with a counter 75.
  • the lens position return determination unit 73 increases the count value of the counter 75 by +1 when any of the first to third conditions is not satisfied. Then, when the count value of the counter 75 reaches a predetermined upper limit value, the lens position return determination unit 73 determines that the in-focus subject has not changed for a certain period and determines the determination result to the lens position return control unit 74. send. At the same time, the lens position return determination unit 73 resets the count value of the counter 75.
  • the lens position return control unit 74 operates when the determination result from the lens position return determination unit 73 is input.
  • the lens position return control unit 74 controls the zoom drive unit 17 via the lens driver 21 based on the pre-movement position information stored in the lens position storage unit 62a to return the variable magnification lens 14 to the original lens position. .
  • the lens position return control unit 74 adjusts the moving speed of the zoom lens 14 to a slow speed that is difficult for the user to notice when returning the zoom lens 14 to the original lens position.
  • the automatic zoom control unit 62 stores the pre-movement position information in the lens position storage unit 62a before moving the zoom lens 14.
  • the lens position return determination unit 73 When the zoom lens 14 is moved by the automatic zoom control process after the focus lens 15 is set to a lens position that focuses on a new subject, the lens position return determination unit 73 operates.
  • the lens position return determination unit 73 stores new R and L image data in the VRAM 24 based on the monitoring result of the movement of the focus lens 15, the detection result of the phase difference detection unit 54, and the detection result of the position coordinate detection unit 56. Each time it is stored, it is determined whether or not the first to third conditions are satisfied.
  • the lens position return determination unit 73 increases the count value of the counter 75 by +1 when any of the first to third conditions is not satisfied. When the state in which any of the first to third conditions is not satisfied continues, the count value of the counter 75 increases. If the in-focus subject does not change even after a certain period of time and any of the first to third conditions is not satisfied, the count value of the counter 75 reaches a predetermined upper limit value.
  • the lens position return determination unit 73 determines that the focused subject has not changed for a certain period and sends the determination result to the lens position return control unit 74. Further, the lens position return determination unit 73 resets the count value of the counter 75.
  • the lens position return control unit 74 operates in response to an input of a determination result from the lens position return determination unit 73. First, the lens position return control unit 74 reads the pre-movement position information stored in the lens position storage unit 62a. Next, the lens position return control unit 74 controls the zoom driving unit 17 via the lens driver 21 based on the pre-movement position information, and does not give the user a sense of incongruity with the zoom lens 14 directed toward the original lens position. Return slowly.
  • the zoom lens 14 is returned to the original lens position, so that when the automatic zoom control process is repeatedly executed, the actual imaging magnification and user It is possible to prevent the difference from the imaging magnification due to the zoom operation from becoming large. As a result, user discomfort can be reduced.
  • the processing after returning the variable magnification lens 14 to the original position is basically the same as that in the first embodiment, and thus the description thereof is omitted here.
  • a digital camera 80 according to a third embodiment of the present invention will be described with reference to FIGS.
  • the imaging magnification is changed by performing an optical zoom that moves the variable magnification lens 14 in the direction of the optical axis O1, but the digital camera 80 has a single focal point in the imaging optical system.
  • electronic zoom is performed to change the image magnification by signal processing image data.
  • the digital camera 80 is basically the same configuration as the digital camera 10 of the first embodiment except that an electronic zoom unit 82 is provided instead of the zoom lens 14 and the zoom drive unit 17 of the first embodiment. It is.
  • an electronic zoom unit 82 is provided instead of the zoom lens 14 and the zoom drive unit 17 of the first embodiment. It is.
  • symbol is attached
  • the electronic zoom unit 82 reads the R and L viewpoint images newly stored in the VRAM 24 and performs a scaling process on the R and L viewpoint images. Specifically, normal imaging is performed on a screen that is smaller than the effective imaging screen imaged by the imaging optical system in consideration of the reduction magnification of the electronic zoom, and the image magnification of the electronic zoom specified by the zoom control unit 58 is determined.
  • the R and L viewpoint image data are generated by electronically enlarging or reducing a part of each of the R and L viewpoint images. As a result, the sizes of the subjects A and B in the R and L viewpoint images change.
  • the R and L viewpoint image data after scaling is stored again in the VRAM 24.
  • the display circuit 33 performs predetermined signal processing on the scaled R and L viewpoint image data stored in the VRAM 24 to generate an image display signal, and outputs the signal to the monitor 32 at a fixed timing. As a result, the live view image is displayed on the monitor 32 in a stereoscopic manner. Further, the compression / decompression processing circuit 29 performs compression processing on the scaled R and L viewpoint image data processed by the electronic zoom unit 82 when an imaging instruction is given, and an image file in a predetermined file format. Is generated.
  • the zoom control unit 58 controls the electronic zoom unit 82 to generate R and L viewpoint image data that has been scaled at the image magnification specified by the zoom operation.
  • the zoom control unit 58 is provided with an image magnification determination unit 84 and an automatic zoom control unit 85 instead of the lens movement amount determination unit 61 and the automatic zoom control unit 62 of the first embodiment.
  • the image magnification determination unit 84 operates when a determination result from the determination unit 60 is input, as in the previous embodiment.
  • the image magnification determination unit 84 determines the image magnification with reference to the data table 86 based on the moving direction of the focus lens 15 and the detection result of the phase difference detection unit 54, and sends the result to the automatic zoom control unit 85.
  • the peak phase difference amount corresponding to the unfocused subject (the previous focused subject), the image magnification when the focus lens 15 is moved to the infinity position side, and the focus lens 15 are in the closest position.
  • the image magnification when moving to the side is stored in association with each other.
  • the image magnification is set to increase when the focus lens 15 moves to the infinity position side, and conversely, the image magnification decreases to move when the focus lens 15 moves to the close position side. Yes.
  • the automatic zoom control unit 85 operates when a determination result from the determination unit 60 is input.
  • the automatic zoom control unit 85 controls the electronic zoom unit 82 on the basis of the determination result of the image magnification determination unit 84 to generate scaled R and L viewpoint image data.
  • the operation of the digital camera 80 configured as described above is basically the same as that of the digital camera 10 of the first embodiment except that electronic zoom is performed instead of optical zoom.
  • the image magnification determination unit 84 refers to the data table 86 based on the moving direction of the focus lens 15 and the detection result of the phase difference detection unit 54 when the determination unit 60 determines that the in-focus subject has changed. Determine the magnification.
  • the automatic zoom control unit 85 controls the electronic zoom unit 82 to generate R and L viewpoint image data scaled at the image magnification determined by the image magnification determination unit 84.
  • the zoom magnification of the electronic zoom has changed, and the occurrence of a sense of incongruity due to an illusion can be suppressed as in the first embodiment.
  • a digital camera 90 according to a fourth embodiment of the present invention will be described with reference to FIG.
  • the digital camera 90 changes the image magnification by the electronic zoom as in the digital camera 80 of the third embodiment, and further prevents unnatural increase or decrease of the image magnification by the electronic zoom.
  • the same magnification return function is also provided.
  • the digital camera 90 includes an electronic zoom unit 82, an image magnification determination unit 84, and an automatic zoom control unit 91, and further includes a zoom magnification return determination unit 92 and an image magnification return control unit 93. ing.
  • the same functions and configurations as those in the first to third embodiments are denoted by the same reference numerals, and the description thereof is omitted.
  • the automatic zoom control unit 91 is basically the same as the automatic zoom control unit 85 of the third embodiment. However, the automatic zoom control unit 91 is provided with an image magnification storage unit 90a.
  • the automatic zoom control unit 91 stores information on the original image magnification (hereinafter simply referred to as pre-magnification magnification information) in the image magnification storage unit 90a before the electronic zoom unit 82 is controlled to change the image magnification.
  • the image magnification return determination unit 92 is basically the same as the lens position return determination unit 73 of the second embodiment.
  • the image magnification return determination unit 92 determines whether or not the in-focus subject remains unchanged for a certain period after the image magnification is changed by the automatic zoom control process. Specifically, when any of the first to third conditions is not satisfied, the count value of the counter 75 is incremented by +1, and the focused subject is detected when the count value reaches a predetermined upper limit value. It is determined that it has not changed for a certain period.
  • the image magnification return control unit 93 controls the electronic zoom unit 82 based on the pre-magnification magnification information stored in the image magnification storage unit 90a. Return the image magnification to the original magnification. Further, the image magnification return control unit 93 adjusts the speed at which the image magnification is returned to the original zoom magnification to a slow speed that is difficult for the user to notice.
  • the operation of the digital camera 90 configured as described above is basically the same as that of the digital camera 70 of the second embodiment except that electronic zoom is performed instead of optical zoom.
  • the image magnification is changed when the in-focus subject changes, and if the in-focus subject does not change for a certain period after this enlargement, the image magnification is gradually returned to the original magnification. Thereby, the effect similar to 2nd Embodiment is acquired.
  • the lens movement amount determination unit 61 of the first to second embodiments obtains the movement amount of the variable magnification lens 14 by multiplying the peak phase difference amount corresponding to the previous focused subject by a predetermined coefficient.
  • the movement amount of the variable magnification lens 14 may be determined by referring to a data table or the like associated with the amount of phase difference and the movement amount of the variable magnification lens 14.
  • the image magnification determination unit 84 of the third to fourth embodiments may obtain the image magnification by multiplying the phase difference amount detected by the phase difference detection unit 54 by a predetermined coefficient.
  • the first and second eccentric openings 45a and 45b are formed in the light shielding film 45, whereby the first pixel 35 has higher sensitivity to the incident light 54R and the second pixel. 36 has higher sensitivity to the incident light 54L.
  • the microlens 49 may be formed at a position shifted from the center of the PD 43 below (for example, Japanese Patent No. 2959142). reference).
  • the magnification of the optical zoom or electronic zoom is changed when the focus lens 15 moves from one of the A lens position and the B lens position to the other.
  • the magnification may be changed. Specifically, when the focus lens 15 moves from the first position, which is the previous focus position, to the second position, which is the next focus position, the movement direction and amount of movement from the first position to the second position The direction of zooming and the amount of zooming change may be determined.
  • the magnification is increased when the focus lens 15 is moved to the infinity position side, and the magnification is decreased when the focus lens 15 is moved to the closest position side.
  • the magnification of the optical zoom or the electronic zoom is changed when the focusing position of the imaging optical system is moved.
  • the magnification may be changed in the same manner when manual focus adjustment is performed. Good.
  • a digital camera having a phase difference AF function has been described.
  • the present invention can also be applied to a digital camera that performs focus detection and focus adjustment by a known contrast detection method.
  • the digital camera 100 includes an AF lens movement control unit (hereinafter simply referred to as a lens movement control unit) 101 for performing focus detection by a contrast detection method, and a focus detection unit (second Focusing detection means) 102.
  • the digital camera 100 has basically the same configuration as the digital camera 10 of the first embodiment except that the focus detection by the contrast detection method is performed. For this reason, the same reference numerals are given to the same functions and configurations as those in the first embodiment, and the description thereof is omitted.
  • the lens movement control unit 101 moves the focus lens 15 from one of the infinity position or the closest position to the other side when detecting focus.
  • the focus detection unit 102 detects the AF contrast value of the subject image from the output signal output from at least one of the first pixel 35 and the second pixel 36 at each lens position. AF evaluation value) is calculated. Then, the focus detection unit 102 determines the position (peak position) where the contrast is highest as the focus lens position, and sends the result to the focus control unit 55.
  • the focus control unit 55 operates the focus drive unit 18 via the lens driver 21 to set the focus lens 15 at the focus lens position. Note that the AF control for performing the focus detection in the contrast detection method is described in detail in, for example, Japanese Patent Application Laid-Open No. 2008-262001, and the detailed description thereof is omitted here.
  • automatic zoom control in which the imaging magnification of the imaging optical system 103 is changed in accordance with the AF processing is performed, so the same effect as in the first embodiment can be obtained.
  • the automatic zoom control is performed after the focus lens 15 is moved, for example. Further, the AF process and the automatic zoom control may be repeatedly executed alternately.
  • the focus detection using the contrast detection method may be performed instead of the focus detection using the phase difference method.
  • hybrid focus detection may be performed by combining phase difference focus detection and contrast detection focus detection (see, for example, Japanese Patent No. 4646709).
  • a total of two types of phase difference pixels, the first to second pixels 35 and 36, are arranged on the imaging surface 20a.
  • incident light from a different direction from the diagonally upper right and left directions incident light from a different direction from the diagonally upper right and left directions
  • two or more types of phase difference pixels including phase difference pixels with high sensitivity may be arranged. In this case, two or more viewpoint images are obtained.
  • the signal output detection unit 53 and the phase difference detection unit 54 are provided in the image processing circuit 22, but these may be provided in addition to the image processing circuit 22 such as the image sensor 20 or the CPU.
  • the pixel arrangement pattern of the image sensor 20 is not limited to the pattern shown in FIG. 2 and may be arranged in various arrangement patterns such as a honeycomb arrangement pattern.
  • a digital camera provided with a CMOS image sensor has been described, the present invention can also be applied to a digital camera using a CCD image sensor as a solid-state imaging device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

 立体画像の観察時に、被写体がモニタ画面に対して前後に移動して表示される違和感を抑える。 イメージセンサ(20)の全画素を第1位相差画素(35)と第2位相差画素(36)との組で構成する。イメージセンサ(20)の撮像面(20a)の中央領域に含まれる第1~第2位相差画素(35,36)からの出力信号に基づき、R,L焦点検出用画像データを生成する。R,L焦点検出用画像データに基づき位相差方式による合焦検出を行い、この結果に基づいてAF処理を実行する。ライブビュー画像表示時に、ピントの合う合焦被写体が手前側に位置する被写体Bから奥側に位置する被写体Aに変わった場合には、変倍レンズ(14)をテレ端側に移動させて撮像倍率を大きくする。逆にピントの合う合焦被写体が被写体Aから被写体Bに変わった場合には、変倍レンズ(14)をワイド端側に移動させて撮像倍率を小さくする。

Description

デジタルカメラ
 本発明は、位相差方式によるピント合わせを行って立体視用の視差画像を撮像するデジタルカメラに関する。
 CCDイメージセンサやCMOSイメージセンサなどの固体撮像素子を備え、デジタル画像を撮像するデジタルカメラが普及している。デジタルカメラは、撮像光学系のピントを自動的に調節するオートフォーカス(以下、単にAFという)機能を備えている。特に、固体撮像素子の一部の画素をAFに利用して位相差方式で撮像光学系のピントを自動調節するデジタルカメラが知られている(特許文献1参照)。
 瞳分割方式の位相差AFを行うデジタルカメラには、通常の撮像に用いられる画素のほかに、AF用に互いに異なった方向からの入射光を識別して受光できるように、入射角に選択性をもたせた2種類の画素(以下、第1位相差画素、第2位相差画素という)の組を複数組備えた固体撮像素子が用いられている(特許文献2参照)。第1位相差画素は、PDの受光面の中心位置に対し第1の方向に偏心した第1偏心開口部を通して入射した光を受光し、第2位相差画素は、PDの受光面の中心位置に対し第1の方向とは反対側の第2の方向に偏心した第2偏心開口部を通して入射した光を受光する。第1及び第2偏心開口部は、PDが形成された半導体基板上を覆う遮光膜に形成されている。これにより、第1及び第2偏心開口部のある画素を撮像光軸に関して左右に配置しておけば、第1位相差画素は右方向からの入射光に対して感度が高くなり、第2位相差画素は左方向からの入射光に対して感度が高くなる。
 各第1位相差画素によって構成される画像と各第2位相差画素によって構成される画像とは、撮像光学系の合焦状態に応じて互いの間隔が変化する。この2つの画像の間のずれ量は撮像光学系の焦点のずれ量に対応しており、撮像光学系が合焦しているときはずれ量は零である。撮像光学系の焦点がずれている場合には、その焦点のずれ量に応じて2つの画像は互いにずれることになり、ずれの方向は焦点ズレ(前ピン/後ピン)の方向に応じて決まる。従って、撮像光学系に組み込まれているピント合わせ用のレンズを光軸方向に移動したとき、レンズの移動方向と画像ずれが変化する方向との対応がつけば、各画像のずれ量と、その時点における撮像光学系の焦点距離と合焦状態の被写体距離に基づいて撮像光学系のフォーカス調整量を求めることができる。
 一方、上述した第1位相差画素と第2位相差画素だけを撮像面に並べた固体撮像素子も知られている(特許文献3)。この固体撮像素子からは、各第1位相差画素から出力される出力信号によって構成されるR視点画像(第1視点画像)と、各第2位相差画素から出力される出力信号によって構成されるL視点画像(第2視点画像)とにより構成される2視点の視差画像を取得することができる。一般に、視差画像を取得するためには、撮像光学系と固体撮像素子とを2組用意し、これらを平行に配置して撮像を行う必要がある(特許文献4ないし6参照)。これに対して、撮像面に第1及び第2位相差画素のみを並べた固体撮像素子を備えた視差画像撮像用のデジタルカメラを用いれば、単レンズの一台のカメラでも2枚の視点画像からなる視差画像を撮像することができる。
特開2010-252277号公報 特開2008-312073号公報 特開2007-317951号公報 特開2010-109785号公報 特開2011-119995号公報 特開2011-114382号公報
 視差画像撮像用のデジタルカメラでは、固体撮像素子の撮像面の特定の領域(例えば中央領域)に測距用のエリアが設定され、そのエリア内に含まれる第1及び第2位相差画素からの出力信号に基づいて位相差AFを実行する場合が多い。このため、中央領域の被写体にピントがあったR,L視点画像は得られるが、他の領域ではピントが合わせにくい。一方、位相差AFでピント合わせしたR,L視点画像では、ピントがあった被写体には視差が生ぜず、ピントが合っていない被写体には視差が生じる。このようなR,L視点画像を、例えばデジタルカメラの3Dモニタで立体視すると、R,L視点画像内のピントの合う領域は奥行き方向に関してモニタ画面上に位置するように見え、逆にピントの合わない領域はモニタ画面から飛びだし、あるいはモニタ画面の奥側に引っ込んで観察される。
 このため、図18に示すように、例えばモニタ画面105の中に2つの被写体A,Bが含まれる同一のシーンを連続して撮像するライブビュー画像の撮像時において、このライブビュー画像を3Dモニタで立体視すると、以下に説明するような違和感が生じる場合がある。なお、被写体Aは被写体Bよりもデジタルカメラに対して遠い位置にある。図19に示すように、デジタルカメラ100の撮像光学系のピントが被写体Bに合っている場合には、被写体Bがモニタ画面105上に位置するように見えるが、被写体Aはモニタ画面105よりも奥側に引っ込んでいるように見える。なお、符号Fsは撮像光学系のピントが合っている合焦面であり、符号La,Lbはデジタルカメラ100からそれぞれ被写体A、被写体Bまでの距離である。
 ライブビュー画像の撮像中に、ユーザの姿勢の僅かな変化や手ブレなどにより、R,L視点画像の中央領域に被写体Aが入ってくると、位相差AFにより被写体Aにピントが合う場合がある。すると、図20に示すように被写体Aがモニタ画面105上に位置するように見え、被写体Bはモニタ画面105よりも手前側に飛び出しているように見える。このため、実際の被写体A,Bまでの距離La,Lbは異なるものの、被写体Bにピントが合った第1状態における被写体Bまでの距離感と、被写体Aにピントが合った第2状態における被写体Aまでの距離感とが同じものと認識されやすくなる。
 従って、第1状態から第2状態に切り替わると、先にモニタ画面105上に位置していた被写体Bがモニタ画面の手前側に飛び出したように見える。その結果、実際には被写体Bが移動していないにも関わらず、被写体Bが手前側に移動したような錯覚が生じ、ユーザに強い違和感を与える。また、逆に第2状態から第1状態に切り替わった場合には、先にモニタ画面105上に位置していた被写体Aがモニタ画面105の奥側に引っ込むように見える。その結果、実際には被写体Aが移動していないにも関わらず、被写体Aが奥側に移動したような錯覚が生じ、ユーザには同様に強い違和感を与えることになる。
 本発明の目的は、ライブビュー画像の撮像時や動画撮像時などの際に、合焦被写体が切り替わったときに生じる不自然な距離感の変動を抑えることができるデジタルカメラを提供することにある。
 本発明のデジタルカメラは、撮像光学系と、撮像装置と、ズーム駆動部と、フォーカス駆動部と、第1判定部、ズーム制御部とを備えている。撮像光学系は変倍レンズとフォーカスレンズとを含む。撮像装置は、瞳分割された撮像光学系の異なる領域を通過してきた被写体光を撮像して視差のある複数の視点画像を撮像する。ズーム駆動部は変倍レンズを移動して撮像光学系の像倍率を変更し、フォーカス駆動部はフォーカスレンズを移動して撮像光学系のピント合わせを行う。第1判定部は撮像装置により複数回の撮像が行われる間に撮像光学系のピント合わせが無限遠位置側または至近位置側のいずれの方向に行われたのかを判定する。そしてズーム制御部は、第1判定部での判定結果に応じてズーム駆動部の作動を制御し、撮像光学系のピント合わせの方向が無限遠位置側であったときには撮像光学系の焦点距離を長くして撮像倍率を大きくし、至近位置側であったときには焦点距離を短くして撮像倍率を小さくする。
 前記撮像装置には、撮像光学系の異なる領域を通過して瞳分割された被写体光をそれぞれ光電変換する複数種類の画素が配列された撮像面を有する固体撮像素子が用いられる。撮像面内の複数種類の画素には、撮像光学系の光軸に対して対称な領域をそれぞれ透過した被写体光を光電変換する第1画素及び第2画素が含まれる。第1画素からの第1出力信号と、第2画素からの第2出力信号に基づいて、第1合焦検出部は位相差検出方式により撮像光学系を合焦させるためのフォーカスレンズの移動方向とその移動量を検出する。第1合焦検出部による検出結果に基づいて合焦制御部が作動してフォーカス駆動部がフォーカスレンズを合焦位置に移動させる。
 また、撮像光学系のピント合わせを行う際に、フォーカス駆動部によりフォーカスレンズを無限遠位置側あるいは至近位置側に移動させる間に、第1画素からの第1出力信号と第2画素からの第2出力信号の少なくともいずれかに基づいて、コントラスト検出方式によりフォーカスレンズを合焦位置に位置決めする第2合焦検出部を用いてもよい。
 撮像光学系のピント合わせを位相差方式で行う場合には位相差検出部が設けられる。位相差検出部は、複数の前記第1画素から出力された第1出力信号と、複数の前記第2画素から出力された第2出力信号とを評価し、前記第1及び第2出力信号に被写体距離が異なる第1及び第2の被写体の像による信号パターンが含まれ、前記フォーカスレンズが前記第1の被写体に合焦した位置に移動していることが識別されたときには、前記第1出力信号と第2出力信号との間における前記第2の被写体の像に対応する信号パターンのずれ量を位相差として検出する。こうして得られた位相差は、ズーム制御部で撮像光学系の撮像倍率を変更するときに用いられる。
 第1及び第2出力信号は、固体撮像装置の特定の水平走査期間中に得られるものであることが好ましい。また、ズーム制御部は位相差検出部で検出された位相差が大きいほど撮像倍率の変化量を大きくすることが好ましい。撮像光学系のピント合わせが行われ、これに応じて撮像光学系の撮像倍率が変更された後、フォーカスレンズが一定期間停止状態にあることが第2判定部で判定されたときには、撮像光学系の撮像倍率を変更前の元の撮像倍率に戻すのが望ましい。
 本発明は光学ズーム機能をもつデジタルカメラだけでなく、画像データの処理でズーム機能を得る電子ズーム式のデジタルカメラにも適用できる。撮像装置により複数回の撮像が行われる間に撮像光学系のピント合わせが行われ、そのピント合わせの方向が無限遠位置側と至近位置側のいずれであったかを第1判定手段で判定する。そして、第1判定手段の判定結果に応じてズーム制御部を作動させ、ピント合わせの方向が無限遠位置側であることが判定されたときには電子ズームにより視差画像を拡大し、逆に至近位置側であることが判定されたときには視差画像を縮小するように制御すればよい。
 電子ズーム機能をもつデジタルカメラは光学的な変倍機能を不要とし、撮像装置から得られた視差画像の画像データをズーム制御部により電子ズーム処理し、視差画像を全体的に拡大あるいは縮小したデータに変換する点で光学ズーム式のデジタルカメラとは異なる。しかし、本発明を適用するに際しては、フォーカスレンズを移動してピント合わせを行うフォーカス駆動部や、ピント合わせの方向を判定する第1判定部、上述した第1,第2合焦検出部や合焦制御部などの構成は共通に用いることができる。また、フォーカスレンズが一定期間停止していることを判定する第2判定部、そして第2判定部の判定結果に応じて視差画像の画像倍率を変更前の倍率に戻すなどの処理も全く同様に用いることが可能である。
 本発明によれば、視差画像を撮像するにあたり、連続して撮像される一画面内に遠・近被写体が含まれ、オートフォーカスによるピント合わせの対象が遠・近被写体の間で切り替わったときには自動的に撮像倍率が増減され、ピント合わせの対象から外れた被写体の大きさが適切な大きさに調節される。この結果、ピント合わせの対象になった一方の被写体に対し、ピント合わせの対象から外れた他方の被写体の視差が不自然に強調されることがなく、他方の被写体が前後に大きく移動したような錯覚も抑制され、違和感のない立体画像の表示を行うことができる。
第1実施形態のデジタルカメラの電気的構成を示すブロック図である。 CMOS型のイメージセンサの平面的な模式図ある。 図2中のIII-III線に沿った断面図である。 イメージセンサの特定の水平走査期間を説明するための説明図である。 被写体Bにピントが合っているときの第1,第2画素の出力信号の出力波形を説明するための説明図である。 被写体Aにピントが合っているときの第1,第2画素の出力信号の出力波形を説明するための説明図である。 CPUの機能ブロック図である。 デジタルカメラの撮像処理の流れを示したフローチャートである。 第1実施形態の自動ズーム制御処理の流れを示したフローチャートである。 被写体Bに合焦したときにおける、第1,第2画素の出力信号の出力波形の変化を説明するための説明図である。 被写体BA合焦したときにおける、第1,第2画素の出力信号の出力波形の変化を説明するための説明図である。 合焦被写体が被写体Bであるときの被写体A,Bの撮像倍率を示す説明図である。 合焦被写体が被写体Bから被写体Aに移ったときの被写体A, Bの撮像倍率を示す説明図である。 第2実施形態のデジタルカメラの電気的構成を示すブロック図である。 第2実施形態の自動ズーム制御処理の流れを示すフローチャートである。 第3実施形態のデジタルカメラの電気的構成を示すブロック図である。 第3実施形態のCPUの機能ブロック図である。 第4実施形態のデジタルカメラの電気的構成を示すブロック図である。 コントラスト検出方式の合焦検出を行う他実施形態のデジタルカメラの電気的構成を示すブロック図である。 複数の被写体が含まれる撮像シーンの概略図である。 手前側の被写体Bにピントが合っている状態の説明図である。 手前側の被写体Aにピントが合っている状態の説明図である。
 図1に示すように、デジタルカメラ10のCPU11は、操作部12からの制御信号に基づき、図示しないメモリから読み出した各種プログラムやデータを逐次実行して、デジタルカメラ10の各部を統括的に制御する。デジタルカメラ10は、右視点で撮像されたR視点画像データと左視点で撮像されたL視点画像データとを含む2視点の視差画像データを取得する。
 デジタルカメラ10は、静止画像を撮像する静止画撮像モードと、動画を撮像する動画撮像モードと、撮像により得られた静止画像や動画像を再生表示する再生モードとを含む複数の動作モードを有している。この動作モードの切り替えは操作部12のモード切替スイッチ12aで行われる。また、操作部12には、シャッタボタン12b、ズーム操作を行うためのズームスイッチ12cなどが設けられている。
 撮像光学系13にはズームレンズが用いられ、変倍レンズ14とフォーカスレンズ15を備えている。撮像光学系13にはメカシャッタ16も組み込まれている。変倍レンズ14は、ズーム操作が行われたとき、ズーム駆動部17によって光軸O1上をワイド端(広角端)とテレ端(望遠端)との間で移動する。フォーカスレンズ15は、ピント合わせに際してフォーカス駆動部18により駆動され、光軸O1上を無限遠に合焦する無限遠位置と至近撮像距離に合焦する至近位置との間で移動する。なお、撮像光学系13に含まれる変倍レンズ14とフォーカスレンズ15の図示は機能を説明するための模式的なもので、レンズの形状や枚数などを具体的に表すものではない。
 メカシャッタ16は可動のシャッタ羽根を有し、各レンズ14,15からイメージセンサ20へと至る光路を開放/遮断する。なお、メカシャッタ16には、イメージセンサ20に入射する被写体光の光量を制御する絞りが含まれている。メカシャッタ16、ズーム駆動部17、及びフォーカス駆動部18は、レンズドライバ21を介してCPU11によって動作制御される。
 撮像光学系13の背後には、減光(ND)フィルタ19a、ローパス(LP)フィルタ19b、本発明の固体撮像素子に相当するCMOS型のイメージセンサ20などが配置されている。NDフィルタ19aは、イメージセンサ20に入射する被写体光を減光する。LPフィルタ19bは、空間周波数が所定値よりも高い被写体光を遮る。イメージセンサ20は、ズームレンズからの被写体光を電気的な信号に変換して出力する。CMOSドライバ23は、CPU11の制御の下でイメージセンサ20の駆動を制御する。
 画像処理回路22は視差画像生成部23を備える。視差画像生成部23は、イメージセンサ20から入力される信号に対して階調変換、ホワイトバランス補正、γ補正処理などの各種処理を施してR,L視点画像データを生成する。R,L視点画像データはVRAM24に格納される。なお、ここでいう「視差画像」とは、被写体を異なる視点から見たときの複数の視点画像の集まりをいう。画像処理回路22は、位相差方式による撮像光学系13の焦点検出用のR,L焦点検出用画像データの生成も行う。
 合焦検出部(第1合焦検出手段)26は、L,R焦点検出用画像データに基づき、被写体に撮像光学系13のピントを合致させるためのフォーカス調整量を求める。
 圧縮伸長処理回路29は、撮像指示がなされたときに画像処理回路22で処理されたR,L視点画像データに対して圧縮処理を施して、所定のファイル形式の画像ファイルを生成する。静止画撮像モード時には、1フレーム分のR,L視点画像データで構成される静止画像ファイルが生成される。また、動画撮像モード時には、複数フレーム分のR,L視点画像データ(以下、R,Lフレーム画像データという)で構成される動画像ファイルが生成される。
 また、圧縮伸長処理回路29は、メディアI/F30を介してメモリカード31から得られた画像ファイルに対して伸長処理を施す。メディアI/F30は、メモリカード31に対する画像ファイルの記録及び読み出しなどを行う。
 モニタ32はライブビュー画像(スルー画像ともいう)や再生画像などを表示する。このモニタ32としては、R視点画像データ及びL視点画像データに基づき立体画像の観察が可能な各種モニタが用いられる。なお、立体画像の表示方式は、レンチキュラ方式、視差バリア方式、パララックスバリア方式、アナグリフ方式、フレームシーケンシャル方式、ライトディレクション方式などの周知の各種方式を用いてよい。
 表示回路33は、VRAM24に格納されたR,L視点画像データまたは圧縮伸長処理回路29で伸張されたR,L視点画像データに対し所定の信号処理を施して画像表示用の信号を生成し、これを一定のタイミングでモニタ32へ出力する。モニタ32には、静止画及び動画撮像モード時にライブビュー画像が立体視可能に表示される。また、モニタ32には、再生モード時にメモリカード31から読み出されたR,L視点画像を立体視可能に表示させることもできる。
 図2に示すように、イメージセンサ20は、ズームレンズの異なる領域を通過して瞳分割された被写体光がそれぞれ結像される撮像面20aを有する。撮像面20a上の全画素は、第1位相差画素(以下、単に第1画素という)35と第2位相差画素(以下、単に第2画素という)36との組で構成されている。撮像面20a上には、第1画素35と第2画素36とを図中水平方向に交互に配列した画素ライン37が図中垂直方向に複数配列されている。第1画素35は撮像面20aに対して右斜め上から入射する入射光に対して感度が高くなり、第2画素36は撮像面20aに対して左斜め上から入射する入射光に対して感度が高くなる。
 第1,第2画素35,36には、画素回路38が設けられている。画素回路38は、第1,第2画素35,36のPDにそれぞれ蓄積された信号電荷を増幅して信号電圧として出力する。
 画素回路38は、例えば、読み出しトランジスタ、アンプトランジスタ、スイッチトランジスタ、リセットトランジスタ等を有する。読み出しトランジスタは、PD・光電変換膜に蓄積された信号電荷を読み出す。アンプトランジスタは、読み出しトランジスタにより読み出された信号電荷を増幅し、信号電圧として出力する。スイッチトランジスタは、信号線による信号電圧の読み出しを制御する。リセットトランジスタは、PD・光電変換膜に蓄積された信号電荷をクリアする。
 また、イメージセンサ20には、第1,第2画素35,36の画素回路38等を駆動するための複数の駆動線39と、第1~第2画素35,36の信号電圧を読み出すための複数の信号線40とが形成されている。
 駆動線39は、図中垂直方向に長く延びており、各第1~第2画素35,36の垂直方向の列毎にそれぞれ設けられている。各駆動線39には、CMOSドライバ23が接続している。これにより、CMOSドライバ23は、各駆動線39を介して各第1~第2画素35,36の駆動を行う。信号線40は、図中水平方向に長く延びており、画素ライン37毎にそれぞれ1本ずつ設けられている。これにより、画素ライン37毎に、各第1~第2画素35,36の信号電圧が信号線40に読み出される。各信号線40に読み出された信号電圧は、図示しない出力回路やアンプを経て出力信号として画像処理回路22へ出力される。
 図3に示すように、P型シリコンで形成された半導体基板42(Psub)の表層に、各第1,第2画素35,36をそれぞれ構成するN型層のPD43が形成されている。半導体基板42には、図示は省略するが画素回路38、駆動線39、信号線40などが設けられている。
 半導体基板42上には、例えば酸化シリコン(SiO)で形成された光透過性の絶縁膜44が設けられている。絶縁膜44上には、例えばタングステンで形成された遮光膜45が設けられている。遮光膜45は、第1画素35のPD43上に形成された第1偏心開口45aと、第2画素36のPD43上に形成された第2偏心開口45bとを有する。
 第1偏心開口45aは、第1画素35のPD43の中心に対して図中左方向にずれた位置に形成されている。これにより、第1画素35のPD43の略右半分の領域(以下、単に右領域という)は遮光膜45で覆われ、逆に略左半分の領域(以下、単に左領域という)は露呈している。一方、第2偏心開口45bは、第2画素36のPD43の中心に対して図中右方向にずれた位置に形成されている。これにより、第2画素36のPD43の左領域は遮光膜45で覆われ、逆に右領域は露呈している。
 遮光膜45上には、表面が平坦な光透過性の平坦化層47が設けられている。平坦化層47上には、第1~第2画素35,36毎にそれぞれカラーフィルタ48が設けられている。同じ組の第1,第2画素35,36では、カラーフィルタ48の色が同色となる。カラーフィルタ48上には、各第1,第2画素35,36の上方位置にそれぞれマイクロレンズ49が設けられている。なお、図中の符号O2はマイクロレンズ49の光軸である。
 第1画素35上のマイクロレンズ49に図中の左方向から入射した入射光50Lは、遮光膜45により遮光される。このため、入射光50Lは、第1画素35のPD43の右領域には入射しない。逆にマイクロレンズ49に図中の右方向から入射した入射光50Rは、マイクロレンズ49により第1偏心開口45aを介して、第1画素35のPD43の左領域に入射する。これにより、第1画素35は図中の右方向からの入射光50Rに対して感度が高くなる。
 第2画素36上のマイクロレンズ49に図中の右方向から入射した入射光50Rは、遮光膜45により遮光される。このため、入射光50Rは、第2画素35のPD43の左領域には入射しない。逆にマイクロレンズ49に図中の左方向から入射した入射光50Lは、マイクロレンズ49により第2偏心開口45bを介して、第2画素36のPD43の右領域に入射する。これにより、第2画素36は左方向からの入射光50Lに対して感度が高くなる。
 図1に戻って、画像処理回路22には、さらに焦点検出用画像生成部52と、信号出力検出部53と、位相差検出部54とが設けられている。焦点検出用画像生成部52は、静止画像撮像モード及び動画像撮像モードの時に作動する。焦点検出用画像生成部52は、例えば撮像面20aに測距エリアとして設定された中央領域内の第1,第2画素35,36からの出力信号に基づき、位相差AFに用いられるR焦点検出用画像データ、L焦点検出用画像データをそれぞれ生成する。R,L焦点検出用画像データは、合焦検出部26に送られる。
 図4に示すように、信号出力検出部53は、測距エリア20bを通る特定の水平走査線Ht上に並んだ第1,第2画素35,36からの出力信号を個別に検出する。特定の水平走査線Htとは、測距エリア20bのほぼ中心を通る水平線上に並んだ第1及び第2画素で構成される画素列37に相当し、共通する特定の一水平走査期間内で出力信号の読出しがなされる。これにより、第1画素35が複数個並んだ列と、第2画素36が複数個並んだ列からそれぞれの出力信号が順次に弁別して読み出され、第1画素35の列からの出力波形WRと、第2画素36の例からの出力波形WLとが得られる。出力波形WR,WLには、それぞれ被写体A,Bの輝度分布に対応する信号パターンが含まれ、それぞれピークPA,PBをもつ。
 位相差検出部54は、両出力波形WR,WLのピークPAのずれ量である位相差量と、両出力波形WR,WLのピークPBのずれ量である位相差量とを算出する。なお、図5は被写体Bにピントが合い、かつ被写体Aにピントが合わない場合の出力波形WR,WLの一例である。このような場合には、両出力波形WR,WLのピークPBには位相差がほぼ検出されないが、両出力波形WR,WLのピークPAには被写体Bから被写体Aまでの距離に応じた位相差が検出される。なお、図中の符号「α」は、両出力波形WR,WLのピークPAの位相差量である。
 また、図6に示すように、被写体Aにピントが合って被写体Bにはピントが合わない場合には、両出力波形WR,WLのピークPAには位相差がほぼ検出されないが、両出力波形WR,WLのピークPBには被写体Aから被写体Bまでの距離に応じた位相差が検出される。
 被写体A,被写体Bのいずれにもピントが合っていない場合には、両出力波形WR,WLのピークPA,PBとも合致せず両方に位相差が生じる。撮像を継続させながら、ピント合わせのためにフォーカスレンズ15を仮に無限遠位置側に移動したとき、出力波形WR,WL相互間のピークPAの方の位相差が小さくなり、ピークPBの方の位相差が大きくなったとすると、フォーカスレンズ15の移動方向は被写体Aにピントを合わせる方向であり、被写体Bからはピントが外れてゆく方向であることが分かる。
 さらに、変倍レンズ14及びフォーカスレンズ15の現在位置はそれぞれの位置センサから識別することができるから、撮像光学系の焦点距離及び現在のフォーカスレンズ15が合焦している被写体距離は算出することができる。従って、出力波形WR,WL相互間のピークPAの方の位相差に基づいて、フォーカスレンズ15をどの程度無限遠位置側に移動させれば被写体Aに合焦させることができるかを算出することかできる。
 なお、フォーカスレンズ15を無限遠位置側に移動させたとき、出力波形WR,WL相互間でピークPAの位相差が小さくなり、ピークPBの位相差が大きくなったとすれば、現在合焦している被写体距離に対して被写体Bは前ピン位置にあり、現在のフォーカスレンズ15の移動方向は被写体Bに対しては逆方向であることが分かる。
 また、図中の符号「β」は、両出力波形WR,WLのピークPBの位相差量である。位相差検出部54は、以上のように撮像を継続しながらフォーカスレンズ15を移動したとき、出力波形WR,WLの波形パターンに基づいて得られるピークPAの位相差量の検出結果、及びピークPBの位相差量の検出結果をCPU11に送る。なお、位相差量の検出は必ずしもピークPA,PBに限られず、被写体A,Bによる波形パターン相互の位相差であれば、各出力波形WR,WLの立ち上がり部分など特異なパターン部分の相互間で位相差量を検出してもよい。
 図7に示すように、CPU11は、図示しないROMから読み出した各種プログラムを逐次実行することで、合焦制御部55、被写体位置座標検出部(以下、位置座標検出部という)56、ズーム制御部58として機能する。
 合焦検出部26は、変倍レンズ14の位置に基づいて算出される撮像光学系の現時点における焦点距離と、フォーカスレンズ15の位置に基づいて算出される現時点における合焦被写体距離、さらに前述したように逐次出力されてくる出力波形WR,WLに基づいて得られる位相差量α,β及びその変化から、被写体Aあるいは被写体Bに対するフォーカス調整量を算出する。そして合焦制御部55は、合焦検出部26が求めたフォーカス調整量に基づき、レンズドライバ21を介しフォーカス駆動部18を駆動してAF処理を実行する。
 位置座標検出部56は、オートフォーカスが並行して行われる動画撮像モード時やライブビュー画像表示時に作動する。位置座標検出部56は、VRAM24に格納されたR視点画像データ(L視点画像データ、あるいはR,L視点画像データの両方でも可)を解析して、ピントが合っている被写体(以下、合焦被写体という)の位置座標(X,Y)を検出する。
 例えば位置座標検出部56は、周知のパターンマッチング法や顔検出法などを用いてR視点画像データに含まれる全ての被写体を検出する。次いで、位置座標検出部56は、位相差検出部54の検出結果に基づき、特に撮像面20aの中央領域に含まれる被写体に関し、位相差量が最小となるピークに対応する被写体をピント合わせの対象となる被写体であると判別する。そして、位置座標検出部56は、R視点画像内で合焦対象となっている被写体の例えば中心座標(他の座標でも可)を位置座標(X,Y)として検出する。位置座標検出部56は、VRAM24に新たなR視点画像データが格納される度に位置座標の検出を行い、この検出結果をズーム制御部58に逐次送る。
 ズーム制御部58は、ズームスイッチ12cが操作されたときに、レンズドライバ21を介してズーム駆動部17を制御し、ズームスイッチ12cの操作位置(T位置/W位置)に応じて変倍レンズ14をテレ端側あるいはワイド端側に移動させる。また、ズーム制御部58は、動画撮像モード時やライブビュー画像表示時に合焦対象となっている被写体が別の被写体に移ったときに限って、変倍レンズ14をテレ端側あるいはワイド端側に自動的に移動させる自動ズーム制御処理を行う。
 この自動ズーム制御処理のために、ズーム制御部58には判定部(第1判定手段)60と、レンズ移動量決定部61と、自動ズーム制御部62とが設けられている。判定部60は、新たなR,L画像データがVRAM24に格納される度に、合焦対象となっている被写体が変更されたか否かを確認するために、以下の第1~第3条件をチェックする。
 第1条件として、判定部60は、位置座標検出部56が抽出した合焦被写体の位置座標(X,Y)の変化量が規定の値を超えるかを判定する。具体的には、位置座標(X,Y)の変化量(ΔX,ΔY)の上限値をそれぞれX0、Y0としたときに、|ΔX|>X0または|ΔY|>Y0が満たされたか否かを判定する。判定部60は、上記2式のいずれも満たされていない場合には、第1条件が満たされず、合焦被写体が別の被写体に変わっていないと判定する。また、判定部60は、上記2式のいずれかが満たされた場合には、第1条件が満たされたと判定する。
 第2条件として、判定部60は、合焦制御部55によるAF制御を監視してフォーカスレンズ15が無限遠位置側あるいは至近位置側に移動したか否かを判定する。判定部60は、フォーカスレンズ15が移動していない場合には、第2条件が満たされず、合焦被写体が別の被写体に変わっていないと判定する。また、判定部60は、フォーカスレンズ15が移動した場合には、第2条件が満たされたと判定する。
 第3条件として、判定部60は、位相差検出部54の検出結果に基づき、位相差量が最小となるピークが変わったか否かを判定する。判定部60は、位相差量が最小となるピークが変わらない場合には、第3条件が満たされず、合焦被写体が別の被写体に変わっていないと判定する。また、判定部60は、位相差量が最小となるピークが変わった場合には、第3条件が満たされたと判定する。
 判定部60は、第1~第3条件の全てが満たされたときに合焦被写体が別の被写体に変わったと判定し、フォーカスレンズ15の移動方向を含め、この判定結果をレンズ移動量決定部61、自動ズーム制御部62にそれぞれ送る。
 レンズ移動量決定部61は、判定部60からの判定結果が入力されたときに作動する。レンズ移動量決定部61は、変倍レンズ14の移動方向及び移動量を決定し、その結果を自動ズーム制御部62に送る。レンズ移動量決定部61は、フォーカスレンズ15の移動方向に基づいて変倍レンズ14の移動方向を決定する。具体的には、フォーカスレンズ15が無限遠位置側に移動した場合には、変倍レンズ14の移動方向を撮像倍率が大きくなるテレ端側に決定する。逆にフォーカスレンズ15が至近位置側に移動した場合には、変倍レンズ14の移動方向を撮像倍率が小さくなるワイド端側に決定する。
 また、レンズ移動量決定部61は、位相差検出部54の検出結果に基づき、ピントが合っていない非合焦被写体(被写体が2つの場合には、先の合焦被写体)に対応するピークの位相差量から、変倍レンズ14の移動量を求める。具体的には、非合焦被写体に対応するピークの位相差量に所定の係数を乗じることにより、変倍レンズ14の移動量を求める。ここで所定の係数とは、撮像光学系13の光学特性、例えばズーム倍率やF値などに応じて定め、あるいは実験などにより定めることができる。これにより、非合焦被写体に対応するピークの位相差量が大きいほど、変倍レンズ14の移動量も大きくなる。
 自動ズーム制御部62は、判定部60からの判定結果が入力されたときに作動する。自動ズーム制御部62は、レンズ移動量決定部61から入力される変倍レンズ14の移動方向及び移動量の決定結果に基づき、レンズドライバ21を介してズーム駆動部17を制御して変倍レンズ14を移動させる。
 次に、図8を用いて上記構成のデジタルカメラ10の作用について説明を行う。なお、以下の説明では図4、図18に示した被写体A,Bを含む撮像シーンを動画撮像するものとする。まず、モード切替スイッチ12aが動画撮像モードに切り替えられる。CPU11は、レンズドライバ21を介してメカシャッタ16の動作を制御するとともに、CMOSドライバ23を介してイメージセンサ20を駆動する。所定のシャッタ速度でメカシャッタ16が開閉され、イメージセンサ20の各第1~第2画素35,36のPD43に信号電荷が蓄積される。
 次いで、CMOSドライバ23の制御の下、各第1~第2画素35,36の画素回路38によって、各PD43に蓄積された信号電荷が信号電圧として信号線40にそれぞれ読み出される。各信号電圧はそれぞれ出力信号として画像処理回路22へ出力される。
 視差画像生成部23は、各第1画素35からの出力信号に基づきR視点画像データを生成し、各第2画素36からの出力信号に基づきL視点画像データを生成する。画像処理回路22はこれらR,L視点画像データをVRAM24に格納する。表示回路33は、VRAM24に格納されたR,L視点画像データに対し所定の信号処理を施して画像表示用の信号を生成し、これをモニタ32へ出力する。これにより、モニタ32に立体視可能なライブビュー画像が表示される。
 また、焦点検出用画像生成部52は、撮像面20aの中央領域に含まれる第1画素35及び第2画素36からの出力信号に基づき、R焦点検出用画像データ、L焦点検出用画像データを生成する。R焦点検出用画像とL焦点検出用画像とは、撮像光学系13の合焦状態に応じて左右方向にシフトする。R,L焦点検出用画像データは合焦検出部26に出力される。
 合焦検出部26は、R,L焦点検出用画像データを解析して、R焦点検出用画像とL焦点検出用画像とのずれ方向及び両画像間のずれ量を検知することで撮像光学系13のフォーカス調整量(デフォーカス量ともいう)を求める。このフォーカス調整量に基づき、合焦制御部55はレンズドライバ21を制御して、フォーカス駆動部18によりフォーカスレンズ15を移動させる。ここでは被写体Bにピントを合わせるために、フォーカスレンズ15が被写体Bに合焦するレンズ位置(以下、Bレンズ位置という)に移動されたものとする。なお、このような位相差AF処理については、例えば特許第2959142号、特開2009-128892号、特開2007-158597号などに詳細に説明されているので、ここでは説明を省略する。
 自動ズーム制御処理は図9に示すフローチャートにしたがって実行される。動画撮像モードに設定されているときには、信号出力検出部53と位相差検出部54と位置座標検出部56と判定部60とが作動している。信号出力検出部53は、図5に示すように、イメージセンサ20の特定の水平走査線Htにおける各第1~第2画素35,36からの出力信号の出力値を検出する。これにより、測距エリア20bを水平走査する間の出力波形WR,WLも得られる。次いで、位相差検出部54は、両出力波形WR,WLから位相差量αと位相差量βとをそれぞれ算出して、算出結果をCPU11に送る。被写体Bが合焦被写体であるので、位相差量αは検出されるが位相差量βはほぼゼロとなる。
 位置座標検出部56は、VRAM24に新たに格納されたR視点画像データの解析結果及び位相差検出部54の検出結果に基づき、被写体Bが合焦被写体であると判別する。次いで、位置座標検出部56は、被写体Bの位置座標(X,Y)を検出し、この検出結果をズーム制御部58に送る。
 判定部60は、フォーカスレンズ15の移動の監視結果と、位相差検出部54の検出結果と、位置座標検出部56の検出結果とに基づき、第1~第3条件が満たされている否かを判定する。判定部60は、最初に位置座標検出部56の検出結果に基づき、位置座標(X,Y)の変化量(ΔX,ΔY)が|ΔX|>X0または|ΔY|>Y0となる第1条件が満たされるか否かを判定する。
 第1条件が満たされる場合に判定部60は、フォーカスレンズ15が移動する第2条件が満たされたか否かを判定する。さらに、第2条件が満たされる場合に判定部60は、位相差検出部54の検出結果に基づき、被写体Aに対応するピークPAの位相差量αが最小となる第3条件が満たされるか否かを判定する。
 合焦被写体が被写体Bのままである場合には、少なくとも第3条件が満たされない。また、第1条件及び第2条件が満たされない限り、第3条件が満たされることはない。このため、判定部60は、第1~第3条件の全てが満たされない限り、合焦被写体が被写体Bから被写体Aに変わったとは判定しない。以下、判定部60により合焦被写体が被写体Aに変わったとは判定されるまで、R,L視点画像データの生成処理、ライブビュー画像の生成処理、AF処理が繰り返し実行される。
 一方、ユーザの姿勢の変化や手ブレなどにより被写体AがR,L視点画像の中央領域に移動してしまうことがある。その結果、位相差AF処理によってフォーカスレンズ15が被写体Aに合焦するレンズ位置(以下、Aレンズ位置という)に移動され、合焦被写体が被写体Aに変わる場合がある。このような場合には、被写体Bの位置座標(X,Y)の変化量(ΔX,ΔY)が|ΔX|>X0または|ΔY|>Y0となるので、第1条件が満たされる。また、フォーカスレンズ15がBレンズ位置からAレンズ位置に向けて無限遠位置側に移動するので第2条件も満たされる。
 さらに、合焦被写体が被写体Bから被写体Aに切り替わると、測距エリア20b内の特定の水平走査線Htに沿って順次に読み出される信号の出力波形WR,WLが図10Aに示す状態から図10Bに示す状態へと変化する。すなわち、図示のように出力波形WR,WLの相互間における被写体Aについては有意の位相差量αがあり、被写体Bについては位相差量βがほぼゼロという状態から、被写体Aの位相差量αがほぼゼロで、被写体Bには有意の位相差量βがあるという状態に変化し、この結果、第3条件も満たされるようになる。判定部60は、第1~第3条件の全てが満たされた場合には、合焦被写体が被写体Bから被写体Aに変わったと判定して、その判定結果をレンズ移動量決定部61、自動ズーム制御部62にそれぞれ送る。これにより、レンズ移動量決定部61及び自動ズーム制御部62が作動する。
 図9に戻って、レンズ移動量決定部61は、フォーカスレンズ15が無限遠位置側に移動した場合に、変倍レンズ14の移動方向をテレ端側に決定する。そして、レンズ移動量決定部61は、先の合焦被写体である被写体Bの位相差量βを負の値(-β)とする。次いで、レンズ移動量決定部61は、「-β」に所定の係数を乗じることで変倍レンズ14の移動量を求め、その結果を自動ズーム制御部62に送る。なお、ズームレンズの移動量が負の値である場合には変倍レンズ14をテレ端側に移動させることを示し、逆に正の値である場合には変倍レンズ14をワイド端側に移動させることを示している。
 自動ズーム制御部62は、レンズドライバ21を介してズーム駆動部17を制御し、レンズ移動量決定部61が決定した移動量だけ変倍レンズ14をテレ端側に向けて移動させる。これにより、撮像倍率が大きくなる。
 撮影倍率が大きくなると、モニタ32の測距エリア20b内における被写体A,Bの大きさも図11Aに示す状態から図11Bに示す状態へと変化し、モニタ32に立体視可能に表示されたライブビュー画像も全体的に拡大される。合焦被写体が被写体Bから被写体Aに変わる前には、被写体Bの視差がほぼゼロとなり被写体Aに視差が生じているので、被写体Bはモニタ画面上に位置するように見え、逆に被写体Aはモニタ画面の奥側に引っ込むように見える。
 合焦被写体が被写体Bから被写体Aに変わると、被写体Aの視差がほぼゼロとなり被写体Bに視差が生じるので、被写体Aはモニタ画面上に位置するように見え、逆に被写体Bはモニタ画面から飛びだすように見える。この際に、撮像倍率を大きくして被写体A,Bを拡大表示するので、ユーザにはモニタ画面上に位置していた被写体Bが手前側に飛び出すように移動したのではなく、ズームミングによる画角の変化として認識させることができる。その結果、被写体Bが手前側に移動してきたような錯覚を生じさせることがなく、違和感のない立体画像の観察ができるようになる。
 一方、合焦被写体が被写体Aから被写体Bに変わった場合には、位置座標検出部56により検出される被写体Aの位置座標が変わり、さらにフォーカスレンズ15がAレンズ位置からBレンズ位置に移動するので、判定部60は第1~第3条件が満たされたと判定する。この場合にはフォーカスレンズ15が至近位置側に移動するので、レンズ移動量決定部61は、変倍レンズ14の移動方向を撮像倍率が小さくなるワイド端側に決定して、先の合焦被写体である被写体Aの位相差量αを正の値(+α)とする。次いで、レンズ移動量決定部61は、「+α」に所定の係数を乗じることで変倍レンズ14の移動量を求め、その結果を自動ズーム制御部62に送る。
 自動ズーム制御部62は、レンズドライバ21を介してズーム駆動部17を制御して、レンズ移動量決定部61が決定した移動量だけ変倍レンズ14をワイド端側に向けて移動させる。これにより、撮像光学系13の焦点距離は撮像倍率が小さくなるように変更される。
 合焦被写体が被写体Aから被写体Bに変わると、被写体Bの視差がほぼゼロとなり逆に被写体Aに視差が生じる。このため、被写体Bはモニタ画面上に位置するように見え、逆にモニタ画面上に位置していた被写体Aがモニタ画面の奥側に引っ込んだように見える。この際に、撮像倍率を小さくして被写体A,Bは縮小表示されているので、ユーザにはモニタ画面上に位置していた被写体Aがモニタ画面の奥側に引っ込むように移動したのではなく、ワイド側へのズーミングに伴う画角の変化と同様な印象を与えることができる。その結果、被写体Aが手前側に移動してきたような錯覚が生じることなくなり、この錯覚による違和感の発生を抑えることができる。
 図8に戻って、シャッタボタン12bが押下操作されるまで、上述の位相差AF処理や自動ズーム制御処理などの各処理が繰り返し実行される。
 シャッタボタン12bが押下操作されると、第1~第2画素35,36から1フレーム分の出力信号が一定のフレームレート(例えば、30フレーム/秒)で画像処理回路22に出力され、画像処理回路22にてR,Lフレーム画像データが逐次生成される。R,Lフレーム画像データは、順次VRAM24に格納される。これにより、上述のようにモニタ32に立体視可能なライブビュー画像が表示される。
 圧縮伸長処理回路29は、VRAM24に順次格納されるR,Lフレーム画像データに対してデータ圧縮処理を逐次施す。データ圧縮処理が施された圧縮フレーム画像データは、メモリカード31に所定のファイル形式で逐次記録される。また、上記の位相差AF処理と、図9に示した自動ズーム制御処理とが実行される。以下、シャッタボタン12bが再度押下操作されるまで、上述の各処理が繰り返し実行される。
 シャッタボタン12bが再度押下操作されると、動画撮像で得られた各圧縮フレーム画像データは、1つの動画像ファイルとしてメモリカード31に記録される。動画撮像時にも自動ズーム制御処理を実行しているので、動画撮像により得られた画像を立体視したときに、合焦被写体が変わることにより生じる錯覚に起因する違和感が抑えられる。
 引き続き他の動画撮像を行う場合には、上述の一連の処理が繰り返し実行される。なお、デジタルカメラ10が静止画撮像モードに設定された場合には、シャッタボタン12bが押下操作されるまでの処理の流れは動画撮像モードと同じである。そして、シャッタボタン12bが押下されたときにイメージセンサ20から1フレーム分の出力信号が出力され、R,L視点画像データが生成される。R,L視点画像データは圧縮処理が施された後、静止画像ファイルとしてメモリカード31に記録される。
[第2実施形態]
 次に、図12を用いて本発明の第2実施形態のデジタルカメラ70について説明を行う。上記第1実施形態では、合焦被写体が変わったときに撮像倍率を変えることで、合焦被写体の変更に伴って生じる違和感を抑えている。しかしながら、これが繰り返されると、実際の撮像倍率とユーザがズーム操作したときの撮像倍率との差が大きくなり、ユーザが不快に感じるおそれがある。そこで、デジタルカメラ70では、自動ズーム制御処理により撮像倍率が変更された後に、合焦被写体が一定期間変わらなかった場合には撮像倍率を元の倍率に戻すようにしている。
 デジタルカメラ70は、CPU71が第1実施形態のズーム制御部58とは異なるズーム制御部72として機能する点を除けば、第1実施形態のデジタルカメラ10と基本的に同じ構成である。なお、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 ズーム制御部72には、判定部60、レンズ移動量決定部61、及び自動ズーム制御部62の他に、レンズ位置戻し判定部(第2判定手段)73とレンズ位置戻し制御部74とが設けられている。また、自動ズーム制御部62には、レンズ位置記憶部62aが設けられている。自動ズーム制御部62は、変倍レンズ14を移動させる前に、この変倍レンズ14の元の位置に関する情報(以下、単に移動前位置情報という)をレンズ位置記憶部62aに記憶させる。
 レンズ位置戻し判定部73は、フォーカスレンズ15が新たな合焦被写体に合焦するレンズ位置にセットされ、自動ズーム制御処理により変倍レンズ14が移動して撮像倍率が変更された後に作動する。レンズ位置戻し判定部73は、合焦被写体が一定期間変わらないか否かを判定する。具体的には、判定部60と同様に、新たなR,L画像データがVRAM24に格納される度に、第1~第3条件が満たされているか否かを判定する。また、レンズ位置戻し判定部73にはカウンタ75が設けられている。
 レンズ位置戻し判定部73は、第1~第3条件のいずれかが満たされていないときは、カウンタ75のカウント値を+1増加させる。そして、レンズ位置戻し判定部73は、カウンタ75のカウント値が所定の上限値に達したときに、合焦被写体が一定期間変わっていないと判定してその判定結果をレンズ位置戻し制御部74に送る。また、これと同時にレンズ位置戻し判定部73は、カウンタ75のカウント値をリセットする。
 レンズ位置戻し制御部74は、レンズ位置戻し判定部73からの判定結果が入力されたときに作動する。レンズ位置戻し制御部74は、レンズ位置記憶部62aに記憶された移動前位置情報に基づき、レンズドライバ21を介してズーム駆動部17を制御して、変倍レンズ14を元のレンズ位置に戻す。また、レンズ位置戻し制御部74は、変倍レンズ14を元のレンズ位置に戻す際に、変倍レンズ14の移動速度をユーザが気づきにくい緩慢な速度に調整する。
 図13を用いて上記構成のデジタルカメラ70の作用について説明を行う。なお、自動ズーム制御処理以外の処理、及び自動ズーム制御処理による変倍レンズ14の移動が行われるまでの処理は、第1実施形態と同じであるので説明は省略する。ただし、自動ズーム制御部62は、変倍レンズ14を移動させる前にその移動前位置情報をレンズ位置記憶部62aに記憶させる。
 フォーカスレンズ15が新たな被写体に合焦するレンズ位置にセットされた後、自動ズーム制御処理により変倍レンズ14が移動されると、レンズ位置戻し判定部73が作動する。レンズ位置戻し判定部73は、フォーカスレンズ15の移動の監視結果と、位相差検出部54の検出結果と、位置座標検出部56の検出結果とに基づき、新たなR,L画像データがVRAM24に格納される度に第1~第3条件が満たされている否かを判定する。
 レンズ位置戻し判定部73は、第1~第3条件のいずれかが満たされない場合には、カウンタ75のカウント値を+1増加させる。第1~第3条件のいずれかが満たされない状態が継続すると、カウンタ75のカウント値が増加する。そして、一定期間が経過しても合焦被写体が変わらず、第1~第3条件のいずれかが満たされない場合には、カウンタ75のカウント値が所定の上限値に達する。
 レンズ位置戻し判定部73は、カウンタ75のカウント値が所定の上限値に達したときに、合焦被写体が一定期間変わっていないと判定してその判定結果をレンズ位置戻し制御部74に送る。また、レンズ位置戻し判定部73はカウンタ75のカウント値をリセットする。
 レンズ位置戻し制御部74は、レンズ位置戻し判定部73からの判定結果の入力を受けて作動する。最初にレンズ位置戻し制御部74は、レンズ位置記憶部62aに記憶された移動前位置情報を読み出す。次いで、レンズ位置戻し制御部74は、移動前位置情報に基づき、レンズドライバ21を介してズーム駆動部17を制御して、変倍レンズ14を元のレンズ位置に向けてユーザに違和感を与えないようにゆっくりと戻す。
 このように一定期間が経過しても合焦被写体が変わらない場合には変倍レンズ14を元のレンズ位置に戻すことで、自動ズーム制御処理が繰り返し実行されたときに実際の撮像倍率とユーザのズーム操作による撮像倍率との差が大きくなることが防止される。その結果、ユーザの不快感を軽減させることができる。なお、変倍レンズ14を元の位置に戻した後の処理は、第1実施形態と基本的に同じであるのでここでは説明を省略する。
[第3実施形態]
 次に、図14及び図15を用いて本発明の第3実施形態のデジタルカメラ80について説明を行う。上記第1実施形態のデジタルカメラ10は、変倍レンズ14を光軸O1方向に移動させる光学ズームを行うことで撮像倍率を変化させているが、デジタルカメラ80では撮像光学系に単焦点のものが用いられ、光学的なズームの代わりに画像データを信号処理して画像倍率を変更する電子ズームを行う。
 デジタルカメラ80は、第1実施形態の変倍レンズ14及びズーム駆動部17の代わりに電子ズーム部82が設けられている点を除けば、第1実施形態のデジタルカメラ10と基本的に同じ構成である。なお、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 電子ズーム部82は、VRAM24に新たに格納されたR,L視点画像を読み出して、これらR,L視点画像に対して変倍処理を施す。具体的には、撮像光学系で結像された有効撮像画面よりも電子ズームの縮小倍率を考慮した小さめの画面で通常の撮像が行われ、ズーム制御部58により指定された電子ズームの画像倍率でR,L視点画像のそれぞれの一部を電子的に拡大し、あるいは縮小させてR,L視点画像データを生成する。これにより、R,L視点画像中の被写体A,Bの大きさが変化する。変倍後のR,L視点画像データは、VRAM24に再び格納される。
 表示回路33は、VRAM24に格納された変倍後のR,L視点画像データに対し所定の信号処理を施して画像表示用の信号を生成し、これを一定のタイミングでモニタ32へ出力する。これにより、モニタ32にはライブビュー画像が立体視可能に表示される。また、圧縮伸長処理回路29は、撮像指示がなされたときに電子ズーム部82で処理された変倍後のR,L視点画像データに対して圧縮処理を施して、所定のファイル形式の画像ファイルを生成する。
 ズーム制御部58は、ズームスイッチ12cがズーム操作されたときに、電子ズーム部82を制御してズーム操作で指定された画像倍率で変倍したR,L視点画像データを生成する。このズーム制御部58には、第1実施形態のレンズ移動量決定部61、自動ズーム制御部62の変わりに画像倍率決定部84、自動ズーム制御部85が設けられている。
 画像倍率決定部84は、先の実施形態と同様に、判定部60からの判定結果が入力されたときに作動する。画像倍率決定部84は、フォーカスレンズ15の移動方向や位相差検出部54の検出結果に基づき、データテーブル86を参照して画像倍率を決定し、その結果を自動ズーム制御部85に送る。
 データテーブル86には、非合焦被写体(先の合焦被写体)に対応するピークの位相差量と、フォーカスレンズ15が無限遠位置側に移動した場合の画像倍率と、フォーカスレンズ15が至近位置側に移動した場合の画像倍率とが対応付けて格納されている。データテーブル86では、フォーカスレンズ15が無限遠位置側に移動した場合には画像倍率が増加し、逆にフォーカスレンズ15が至近位置側に移動した場合には画像倍率が減少するように設定されている。また、データテーブル86では、非合焦被写体に対応するピークの位相差量(X1<X2<X3・・・)が大きいほど、画像倍率の増減量(|Z1|<|Z2|<|Z3|・・・)が大きくなるように設定されている。
 自動ズーム制御部85は、判定部60からの判定結果が入力されたときに作動する。自動ズーム制御部85は、画像倍率決定部84の決定結果に基づき、電子ズーム部82を制御し、変倍したR,L視点画像データを生成させる。
 上記構成のデジタルカメラ80の作用は、光学ズームの代わりに電子ズームを行う点を除けば基本的に第1実施形態のデジタルカメラ10と同じである。ただし、画像倍率決定部84は、合焦被写体が変わったと判定部60が判定したときに、フォーカスレンズ15の移動方向や位相差検出部54の検出結果に基づき、データテーブル86を参照して画像倍率を決定する。
 自動ズーム制御部85は、電子ズーム部82を制御して画像倍率決定部84が決定した画像倍率で変倍したR,L視点画像データを生成させる。これにより、合焦被写体が被写体Bから被写体Aに変わったときには画像倍率が大きくなるので、ユーザにはモニタ画面上に位置していた被写体Bが手前側に飛び出すように移動したのではなく、電子ズームによる画像倍率の変化であると認識させることができ、被写体が手前側に移動するときのような違和感は生じない。
 また、合焦被写体が被写体Aから被写体Bに変わったときには画像倍率が小さくなるので、ユーザにはモニタ画面上に位置していた被写体Aがモニタ画面の奥側に引っ込むように移動したのではなく、電子ズームのズーム倍率の変化であると認識させることができ、第1実施形態と同様に、錯覚による違和感の発生を抑えることができる。
[第4実施形態]
 次に、図16を用いて本発明の第4実施形態のデジタルカメラ90について説明を行う。このデジタルカメラ90は、第3実施形態のデジタルカメラ80と同様に電子ズームによる画像倍率の変更を行い、さらに電子ズームによる画像倍率の不自然な増大や減少を防ぐために、先の第2実施形態と同様の倍率戻し機能も備えている。
 デジタルカメラ90は、実施形態3と同様に、電子ズーム部82、画像倍率決定部84、自動ズーム制御部91を有し、さらにズーム倍率戻し判定部92、及び画像倍率戻し制御部93が設けられている。なお、上記第1~第3実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 自動ズーム制御部91は、基本的には第3実施形態の自動ズーム制御部85と同じものである。ただし、自動ズーム制御部91には、画像倍率記憶部90aが設けられている。自動ズーム制御部91は、電子ズーム部82を制御して画像倍率を変える前に、元の画像倍率に関する情報(以下、単に変倍前倍率情報という)を画像倍率記憶部90aに記憶させる。
 画像倍率戻し判定部92は、基本的には第2実施形態のレンズ位置戻し判定部73と同じものである。画像倍率戻し判定部92は、自動ズーム制御処理により画像倍率が変更された後で、合焦被写体が一定期間変わらないか否かを判定する。具体的には、第1~第3条件のいずれかが満たされていないときは、カウンタ75のカウント値を+1増加させて、このカウント値が所定の上限値に達したときに合焦被写体が一定期間変わっていないと判定する。
 画像倍率戻し制御部93は、画像倍率戻し判定部92からの判定結果が入力されたときに、画像倍率記憶部90aに記憶された変倍前倍率情報に基づき電子ズーム部82を制御して、画像倍率を元の倍率に戻す。また、画像倍率戻し制御部93は、画像倍率を元のズーム倍率に戻す際の速度をユーザが気づきにくいゆっくりとした速度に調整する。
 上記構成のデジタルカメラ90の作用は、光学ズームの代わりに電子ズームを行う点を除けば基本的に第2実施形態のデジタルカメラ70と同じである。ただし、デジタルカメラ90では、合焦被写体が変わったときに画像倍率を変え、この変倍後に合焦被写体が一定期間変わらなかった場合には、画像倍率を元の倍率に少しずつ戻してゆく。これにより、第2実施形態と同様の効果が得られる。
 上記第1~第2実施形態のレンズ移動量決定部61は、先の合焦被写体に対応するピークの位相差量に所定の係数を乗じることで変倍レンズ14の移動量を求めている。この際に、例えば第3実施形態と同様に、位相差量と変倍レンズ14の移動量と対応づけたデータテーブル等を参照することで変倍レンズ14の移動量を決定してもよい。また、逆に第3~第4実施形態の画像倍率決定部84が、位相差検出部54が検出した位相差量に所定の係数を乗じることで画像倍率を求めるようにしてもよい。
 上記各実施形態のイメージセンサ20では、遮光膜45に第1~第2偏心開口45a,45bを形成することで、第1画素35が入射光54Rに対して感度が高くなり、かつ第2画素36が入射光54Lに対して感度が高くなる。このように遮光膜45に第1~第2偏心開口45a,45bを形成する代わりに、マイクロレンズ49をその下方のPD43の中心に対してずれた位置に形成してもよい(例えば特許2959142号参照)。
 上記各実施形態では、フォーカスレンズ15がAレンズ位置とBレンズ位置の一方から他方に移動した場合に光学ズームまたは電子ズームの倍率を変えているが、被写体とは無関係に光学ズームまたは電子ズームの倍率を変えてもよい。具体的には、フォーカスレンズ15が先の合焦位置である第1位置から次の合焦位置である第2位置に移動したとき、第1位置から第2位置への移動方向と移動量とから変倍の方向と変倍の変化量を決めてもよい。もちろん、この場合でもフォーカスレンズ15が無限遠位置側に移動した場合には倍率を増加させ、フォーカスレンズ15が至近位置側に移動した場合には倍率を減少させることになる。
 上記各実施形態では撮像光学系の合焦位置が移動したときに光学ズームまたは電子ズームの倍率変更が行われるが、手動でフォーカス調整を行った場合にも同様にして倍率を変えるようにしてもよい。また、上記各実施形態では、位相差AF機能を有するデジタルカメラについて説明したが、周知のコントラスト検出方式による合焦検出、及び焦点調整を行うデジタルカメラにも本発明を適用することができる。
 例えば図17に示すように、デジタルカメラ100は、コントラスト検出方式の合焦検出を行うためのAF用レンズ移動制御部(以下、単にレンズ移動制御部という)101と、合焦検出部(第2合焦検出手段)102とを備えている。なお、デジタルカメラ100は、コントラスト検出方式の合焦検出を行う点を除けば上記第1実施形態のデジタルカメラ10と基本的に同じ構成である。このため、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する。
 レンズ移動制御部101は、合焦検出時にフォーカスレンズ15を無限遠位置または至近位置の一方から他方側に向けて移動させる。合焦検出部102は、フォーカスレンズ15が移動される際に、その各レンズ位置において第1画素35及び第2画素36の少なくともいずれか一方より出力される出力信号から被写体像のAFコントラスト値(AF評価値ともいう)を算出する。そして、合焦検出部102は、コントラストが最も高くなる位置(ピーク位置)を合焦レンズ位置と判断し、その結果を合焦制御部55に送る。合焦制御部55は、レンズドライバ21を介しフォーカス駆動部18を作動させ、フォーカスレンズ15を合焦レンズ位置にセットする。なお、コントラスト検出方式の合焦検出を行うAF制御については、例えば特開2008-262001号などに詳細に説明されているので、ここでは詳細な説明は省略する。
 デジタルカメラ100においても、第1実施形態と同様にAF処理に伴い撮像光学系103の撮像倍率が変倍される自動ズーム制御が行われるので、第1実施形態と同様の効果が得られる。この際に、自動ズーム制御は、例えばフォーカスレンズ15の移動後に行う。また、AF処理と自動ズーム制御とを交互に繰り返し実行してもよい。
 なお、上記第2~第4実施形態についても、位相差方式の合焦検出の代わりにコントラスト検出方式の合焦検出を行ってもよい。また、位相差方式の合焦検出とコントラスト検出方式の合焦検出とを組み合わせて行うハイブリッド方式の合焦検出を行ってもよい(例えば特許4646709号参照)。
 上記各実施形態では、撮像面20a上に第1~第2画素35,36の計2種類の位相差画素が配列されているが、例えば右・左斜め上とは異なる方向からの入射光に対して感度が高くなる位相差画素を含む2種類以上の位相差画素が配列されていてもよい。この場合には2視点以上の視点画像が得られる。
 上記各実施形態では、ライブビュー画像表示時や動画撮像時になどに撮像される同一の撮像シーン内に2つの被写体A,Bが含まれる場合について説明したが、3以上の被写体が含まれる場合にも本発明を適用することができる。
 上記各実施形態では、信号出力検出部53や位相差検出部54が画像処理回路22に設けられているが、これらがイメージセンサ20やCPUなどの画像処理回路22以外に設けられていてもよい。また、イメージセンサ20の画素配列パターンは、図2に示したパターンに限定されるものではなく、例えばハニカム配列パターンなどの各種配列パターンで配列されていてもよい。さらに、CMOS型のイメージセンサを備えたデジタルカメラについて説明したが、固体撮像装置としてCCD型のイメージセンサをデジタルカメラにも本発明を適用することができる。
 10,70,80,90,100 デジタルカメラ
 14 変倍レンズ
 15 フォーカスレンズ
 17 ズーム駆動部
 18 フォーカス駆動部
 20 イメージセンサ
 22 画像処理回路
 35 第1位相差画素
 36 第2位相差画素
 53 信号出力検出部
 54 位相差検出部
 56 被写体位置座標検出部
 58,72 ズーム制御部
 60 判定部
 61 レンズ移動量決定部
 62,85,91 自動ズーム制御部
 73 レンズ位置戻し判定部
 74 レンズ位置戻し制御部
 82 電子ズーム部
 84 画像倍率決定部
 86 データテーブル
 92 画像倍率戻し判定部
 93 画像倍率戻し制御部

Claims (17)

  1.  変倍レンズとフォーカスレンズとを有する撮像光学系と、
     前記撮像光学系の光軸に関して対称な領域をそれぞれ通過して瞳分割された被写体光を撮像して、視差のある複数の視点画像を得る撮像装置と、
     前記変倍レンズを移動して撮像光学系の撮像倍率を変化させるズーム駆動部と、
     前記フォーカスレンズを光軸方向に移動させて撮像光学系のピントを合わせるフォーカス駆動部と、
     前記撮像装置で複数回の撮像が行われる間に、前記撮像光学系のピント合わせ位置が無限遠位置側または至近位置側のいずれに変更されたかを判定する第1判定部と、
     前記第1判定部の判定結果に基づいて前記ズーム駆動部を作動させ、前記撮像光学系のピント位置が無限遠位置側に変更されたときには撮像光学系の撮像倍率を大きくし、前記撮像光学系のピント位置が至近位置側に変更されたときには撮像光学系の撮像倍率を小さくするズーム制御部と、
     を備えることを特徴とするデジタルカメラ。
  2.  前記撮像装置は、瞳分割された被写体光をそれぞれ受光して光電変換する複数の第1画素及び第2画素が配列された撮像面を備えた固体撮像装置であり、
     前記複数の第1画素から出力された第1出力信号と、前記複数の第2画素から出力された第2出力信号に基づき、位相差検出方式により撮像光学系の合焦検出を行う第1合焦検出部と、
     前記第1合焦検出部の合焦検出結果に基づき、前記フォーカス駆動部により前記フォーカスレンズを合焦位置に移動させる合焦制御部、
     を備える請求の範囲第1項記載のデジタルカメラ。
  3.  前記撮像装置は、瞳分割された被写体光をそれぞれ受光して光電変換する複数の第1画素及び第2画素が配列された撮像面を備えた固体撮像装置であり、
     前記フォーカス駆動部により前記フォーカスレンズが無限遠位置側または至近位置側に移動される間に、複数の前記第1画素から出力された第1出力信号と、複数の前記第2画素から出力された第2出力信号との少なくともいずれかに基づいてコントラスト検出方式により前記フォーカスレンズを合焦位置に移動させる第2合焦検出部、
     を備える請求の範囲第1項記載のデジタルカメラ。
  4.  複数の前記第1画素から出力された第1出力信号と、複数の前記第2画素から出力された第2出力信号とを評価し、前記第1及び第2出力信号に被写体距離が異なる第1及び第2の被写体の像による信号パターンが含まれ、前記フォーカスレンズが前記第1の被写体に合焦した位置に移動していることが識別されたときには、前記第1出力信号と第2出力信号との間における前記第2の被写体の像に基づく信号パターンのずれ量を位相差として検出する位相差検出部を備え、
     前記ズーム制御部は、前記位相差検出部で検出された位相差に応じて撮像光学系の撮像倍率を変更する請求の範囲第2項記載のデジタルカメラ。
  5.  前記第1及び第2出力信号が、前記固体撮像素子の特定の水平走査期間に出力される請求の範囲第4項記載のデジタルカメラ。
  6.  前記ズーム制御部は、前記位相差検出部で検出された位相差が大きいほど撮像倍率の変化量を大きくする請求の範囲第5項記載のデジタルカメラ。
  7.  前記撮像光学系のピント合わせ位置が変更された後、前記フォーカスレンズが停止状態にあることを判定する第2判定部を備え、
     前記ズーム制御部は、第2判定部により前記フォーカスレンズが一定期間停止状態にあることが判定されたときには、撮像倍率をピント合わせ位置変更前の撮像倍率に戻すようにした請求の範囲第1項記載のデジタルカメラ。
  8.  フォーカスレンズを含む撮像光学系と、
     前記撮像光学系の光軸に関して対称な領域をそれぞれ通過して瞳分割された被写体光を撮像して、視差のある複数の視点画像を得る撮像装置と、
     前記複数の視点画像を拡大・縮小処理する電子ズームによって前記複数の視点画像全体の大きさを変更する電子ズーム部と、
     前記フォーカスレンズを光軸方向に移動させて撮像光学系のピントを合わせるフォーカス駆動部と、
     前記撮像装置で複数回の撮像が行われる間に、前記撮像光学系のピント合わせが無限遠位置側または至近位置側のいずれに変更されたかを判定する第1判定部と、
     前記第1判定部の判定結果に基づいて前記電子ズーム部を作動させ、前記撮像光学系のピント合わせが無限遠位置側に変更されたときには前記複数の視点画像を拡大し、至近位置側に変更されたときには前記複数の視点画像を縮小するズーム制御部と、
     を備えたことを特徴とするデジタルカメラ。
  9.  前記撮像装置は、瞳分割された被写体光をそれぞれ受光して光電変換する複数の第1画素及び第2画素が配列された撮像面を備えた固体撮像装置であり、
     前記複数の第1画素から出力された第1出力信号と、前記複数の第2画素から出力された第2出力信号に基づき、位相差検出方式により前記撮像光学系の合焦検出を行う第1合焦検出部と、
     前記第1合焦検出部の合焦検出結果に基づき、前記フォーカス駆動部により前記フォーカスレンズを合焦位置に移動させる合焦制御部と、
     を備えることを特徴とする請求の範囲第8項記載のデジタルカメラ。
  10.  前記撮像装置は、瞳分割された被写体光をそれぞれ受光して光電変換する複数の第1画素及び第2画素が配列された撮像面を備えた固体撮像装置であり、
     前記フォーカス駆動部により前記フォーカスレンズが無限遠位置側または至近位置側に移動される間に、前記第1画素から出力された第1出力信号と前記第2画素から出力された第2出力信号との少なくともいずれかを監視しながらコントラスト検出方式により前記フォーカスレンズを合焦位置に移動させる第2合焦検出部、
     を備える請求の範囲第8項記載のデジタルカメラ。
  11.  前記複数の第1画素から出力された第1出力信号と、前記複数の第2画素から出力された第2出力信号とを評価し、前記第1及び第2出力信号に被写体距離が異なる第1及び第2の被写体の像による信号パターンが含まれ、前記フォーカスレンズが前記第1の被写体に合焦した位置に移動していることが識別されたときには、前記第1出力信号と第2出力信号相互間の前記第2の被写体の像に基づく信号パターンのずれ量を位相差として検出する位相差検出部を備え、
     前記ズーム制御部は、前記位相差検出部で検出された位相差に応じて前記複数の視点画像の大きさの変化量を調整する請求の範囲第9項記載のデジタルカメラ。
  12.  前記第1及び第2出力信号が、前記固体撮像素子の特定の水平走査期間に出力される請求の範囲第11項記載のデジタルカメラ。
  13.  前記ズーム制御部は、前記位相差検出部で検出された位相差が大きいほど前記複数の視点画像の大きさの変化量を大きくする請求の範囲第11項記載のデジタルカメラ。
  14.  前記撮像光学系のピント合わせが変更された後、前記フォーカスレンズが停止状態にあることを判定する第2判定部を備え、
     前記ズーム制御部は、第2判定部により前記フォーカスレンズが一定期間停止状態にあることが判定されたときには、前記被写体像の大きさを変化前の元の大きさに戻すことを特徴とする請求項第8項記載のデジタルカメラ。
  15.  前記位相差検出部は、前記第1出力信号と第2出力信号に含まれる前記第1の被写体の像による信号パターンが、前記第1出力信号と第2出力信号相互間でのずれ量が略ゼロであることをもって前記フォーカスレンズが前記第1の被写体に合焦した位置に移動していることを識別する請求の範囲第4項または第11項記載のデジタルカメラ。
  16.  前記位相差検出部は、前記第1出力信号と第2出力信号に含まれる前記第1または第2の被写体の像による信号パターンのずれ量を、それぞれの信号パターンのもつピーク相互間のずれ量で検出する請求の範囲第15項記載のデジタルカメラ。
  17.  前記複数の視点画像を立体視可能に表示するモニタを備えた請求の範囲第1項ないし第16項のいずれか記載のデジタルカメラ。
PCT/JP2012/073453 2011-09-28 2012-09-13 デジタルカメラ WO2013047220A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011212505A JP2014238425A (ja) 2011-09-28 2011-09-28 デジタルカメラ
JP2011-212505 2011-09-28

Publications (1)

Publication Number Publication Date
WO2013047220A1 true WO2013047220A1 (ja) 2013-04-04

Family

ID=47995253

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/073453 WO2013047220A1 (ja) 2011-09-28 2012-09-13 デジタルカメラ

Country Status (2)

Country Link
JP (1) JP2014238425A (ja)
WO (1) WO2013047220A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110770622A (zh) * 2017-06-21 2020-02-07 富士胶片株式会社 摄像装置及移动摄像装置
WO2023210940A1 (ko) * 2022-04-26 2023-11-02 삼성전자 주식회사 렌즈형 악세사리 착용에 따른 카메라 사용을 위한 전자 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06160944A (ja) * 1992-09-22 1994-06-07 Nikon Corp 被写体追尾装置を有するカメラ及び 自動ズーム装置を有するカメラ
JP2003007994A (ja) * 2001-06-27 2003-01-10 Konica Corp 固体撮像素子、立体カメラ装置及び測距装置
JP2007317951A (ja) * 2006-05-26 2007-12-06 Nikon Corp 光検出素子および撮像装置
JP2010139563A (ja) * 2008-12-09 2010-06-24 Nikon Corp 焦点検出装置、焦点調節装置、撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06160944A (ja) * 1992-09-22 1994-06-07 Nikon Corp 被写体追尾装置を有するカメラ及び 自動ズーム装置を有するカメラ
JP2003007994A (ja) * 2001-06-27 2003-01-10 Konica Corp 固体撮像素子、立体カメラ装置及び測距装置
JP2007317951A (ja) * 2006-05-26 2007-12-06 Nikon Corp 光検出素子および撮像装置
JP2010139563A (ja) * 2008-12-09 2010-06-24 Nikon Corp 焦点検出装置、焦点調節装置、撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110770622A (zh) * 2017-06-21 2020-02-07 富士胶片株式会社 摄像装置及移动摄像装置
WO2023210940A1 (ko) * 2022-04-26 2023-11-02 삼성전자 주식회사 렌즈형 악세사리 착용에 따른 카메라 사용을 위한 전자 장치 및 방법

Also Published As

Publication number Publication date
JP2014238425A (ja) 2014-12-18

Similar Documents

Publication Publication Date Title
US8599245B2 (en) Image processing apparatus, camera, and image processing method
JP5640143B2 (ja) 撮像装置及び撮像方法
JP5368350B2 (ja) 立体撮像装置
US20110234767A1 (en) Stereoscopic imaging apparatus
JP5469258B2 (ja) 撮像装置および撮像方法
JP5269252B2 (ja) 単眼立体撮像装置
JP5788518B2 (ja) 単眼立体撮影装置、撮影方法及びプログラム
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
US20110109727A1 (en) Stereoscopic imaging apparatus and imaging control method
JP5433109B2 (ja) 立体撮像装置および立体撮像方法
JP5371845B2 (ja) 撮影装置及びその表示制御方法並びに3次元情報取得装置
JP2005167310A (ja) 撮影装置
TW201200959A (en) One-eyed stereo photographic device
US20130107019A1 (en) Imaging device, image processing device and image processing method
JP5647740B2 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
US9310672B2 (en) Stereoscopic image capturing device and method of controlling thereof
JP5449551B2 (ja) 画像出力装置、方法およびプログラム
WO2013047220A1 (ja) デジタルカメラ
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP6004741B2 (ja) 画像処理装置およびその制御方法、撮像装置
JP2012015620A (ja) 立体撮像装置
JP2012124650A (ja) 撮像装置および撮像方法
JP2017163412A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
WO2015163350A1 (ja) 画像処理装置、撮像装置及び画像処理プログラム
JPWO2012001958A1 (ja) 画像処理装置および方法並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12836261

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12836261

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP