WO2011142422A1 - 立体撮像装置及び立体撮像装置の自動焦点調節方法 - Google Patents

立体撮像装置及び立体撮像装置の自動焦点調節方法 Download PDF

Info

Publication number
WO2011142422A1
WO2011142422A1 PCT/JP2011/060946 JP2011060946W WO2011142422A1 WO 2011142422 A1 WO2011142422 A1 WO 2011142422A1 JP 2011060946 W JP2011060946 W JP 2011060946W WO 2011142422 A1 WO2011142422 A1 WO 2011142422A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
focus
lens position
imaging
unit
Prior art date
Application number
PCT/JP2011/060946
Other languages
English (en)
French (fr)
Inventor
毅 潘
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201180024063.5A priority Critical patent/CN102893196B/zh
Priority to JP2012514830A priority patent/JP5571179B2/ja
Priority to EP11780679.4A priority patent/EP2570838B1/en
Publication of WO2011142422A1 publication Critical patent/WO2011142422A1/ja
Priority to US13/675,553 priority patent/US9118906B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording

Definitions

  • the present invention relates to a stereoscopic imaging device and a method for automatically adjusting a stereoscopic imaging device, and more particularly to a technique for efficiently searching for a focusing position of two imaging units and increasing focusing accuracy.
  • the stereoscopic imaging apparatus can perform stereoscopic imaging of imaging the same subject from different viewpoints using two imaging units, and perform super-wide-angle panoramic imaging, imaging with different sensitivities in the two imaging units, and the like. Can do.
  • the two imaging units are provided side by side with parallax at positions corresponding to the right eye and the left eye.
  • the signal processing unit at the subsequent stage Based on the output image signal, the signal processing unit at the subsequent stage generates an image signal for the right eye and an image signal for the left eye.
  • the display screen A stereoscopic image is displayed on the screen.
  • an automatic focus adjustment unit when performing focus adjustment, that is, adjustment of a focus position, moves a focus lens in an imaging optical system within a predetermined search range, and focus is adjusted.
  • contrast AF Auto Focus
  • the contrast AF is performed by only one of the imaging units because the two imaging units capture the same subject, and the result of the contrast AF is used as the other imaging unit.
  • the time required for the contrast AF of the imaging apparatus having two imaging units is shortened.
  • the stereoscopic imaging device of Patent Document 2 performs an AF search for moving the focus lenses included in both imaging units in opposite directions, and the in-focus position is detected first in both imaging units.
  • a technique has been proposed in which the in-focus position of both imaging units is determined using the AF search result of the imaging unit.
  • the two imaging units inevitably have variations in the lens diameter of the focus lens, the diameter of the lens barrel, the light receiving sensitivity of the imaging device, and the like (in the following description, these are collectively referred to as individual differences). For this reason, when it is set as the structure which reflects the focusing position of one imaging part on the other imaging part like the said patent documents 1 and 2, the problem that the focusing position of the other imaging part will shift
  • An object of the present invention is to provide a stereoscopic imaging apparatus capable of performing the above and an automatic focus adjustment method thereof.
  • a stereoscopic imaging apparatus forms an image through a first photographing optical system including a first focus lens and the first photographing optical system.
  • a first imaging unit having a first imaging element that photoelectrically converts subject light to be output and outputs a first viewpoint image; a second imaging optical system that includes a second focus lens; and
  • a second imaging unit having a second imaging element that photoelectrically converts subject light imaged via the imaging optical system and outputs a second viewpoint image
  • a search operation within a search range of the first imaging unit;
  • a first lens position that focuses on the subject is searched based on the first viewpoint image acquired from the first viewpoint image, the first focus lens is moved to the first lens position, and the second imaging optical system
  • a second lens position that focuses on the subject is searched based on the second viewpoint image acquired from the second imaging unit, and the second focus lens is located at the second lens position.
  • a focus adjustment unit that moves the second focus lens when the in-focus position of the first lens position is not found within the first search range.
  • First A search operation within the search range a second lens position that focuses on the subject is searched based on the second viewpoint image acquired from the second imaging unit, and the second lens position is located at the second lens position. 2 is moved, the first lens position is calculated based on the searched second lens position and the focus position shift amount stored in the storage unit, and the first lens position is calculated. The first focus lens is moved.
  • the first focus lens is caused to perform a search operation within a predetermined first search range, and the first lens position for focusing on the subject is determined.
  • the second focus lens is searched within a second search range that is narrower than the first search range before and after the position to search for a second lens position that focuses on the subject, and this second lens position
  • the second focus lens is moved. For this reason, it is possible to perform focusing that is not affected by individual differences between the first and second imaging units.
  • the second search range of the second focus lens is made narrower than the first search range by using the in-focus position (first lens position) searched for first, so that the second focus lens The in-focus position (second lens position) can be searched in a short time.
  • the second focus lens is caused to perform a search operation within the first search range, and the second The second lens position that focuses on the subject is searched based on the second viewpoint image acquired from the imaging unit, and the second focus lens is moved to the searched second lens position. For this reason, the second focus lens can be accurately moved to the in-focus position. Further, for the first focus lens for which the in-focus position of the first lens position is not found, based on the searched second lens position and the focus position shift amount stored in the storage unit. The first lens position is calculated, and the first focus lens is moved to the calculated first lens position. For this reason, even if there is an individual difference between the first and second imaging units, it is possible to perform focus adjustment with high accuracy.
  • the focus adjustment unit cannot search for the first lens position within the first search range, and When the second lens position can be searched, the second narrower than the first search range before and after the lens position of the first focus lens corresponding to the searched second lens position.
  • the searched second lens The location and the storage Calculating a first lens position based on the ⁇ been the focus position deviation amount is obtained by so as to move the first focus lens to a lens position of the first.
  • the first focus lens is caused to perform a search operation (re-search) within the second search range based on the search result of the first search range of the second focus lens.
  • re-search a search operation within the second search range based on the search result of the first search range of the second focus lens.
  • the focus adjustment unit finds a focus position of the second lens position within the second search range. If not, the second lens position is calculated based on the searched first lens position and the focus position shift amount stored in the storage unit, and the second lens position is calculated based on the second lens position. The second focus lens is moved.
  • the second lens position corresponding to the second focus lens is changed to the first lens position. Even if there is an individual difference in the second imaging unit, it can be obtained with high accuracy.
  • the focus adjustment unit includes an optical axis of the first photographing optical system and the second photographing optical.
  • a lens position storage unit that stores a focus lens position that focuses on a subject at a subject distance corresponding to a cross point at which the optical axis of the system intersects, and the first lens position and the first lens position within the first search range
  • the first focus lens and the second focus lens are moved to the focus lens position stored in the lens position storage unit.
  • the subject image located at the distance of the cross point does not generate an excessive three-dimensional effect because the amount of parallax hardly occurs. For this reason, it is rare for the user to feel uncomfortable when stereoscopically viewing the subject image at the distance of the cross point. Therefore, when the first and second lens positions cannot be searched within the first search range, the first focus lens and the second focus lens are moved so that the distance between the cross points is in focus. It is preferable to make it.
  • a stereoscopic imaging apparatus in any one of the first to third aspects, includes a first viewpoint image acquired from each of the first imaging unit and the second imaging unit, and A parallax adjustment unit that adjusts the parallax by relatively shifting the second viewpoint image, an optical axis of the first imaging optical system based on the shift amount of the image shift by the parallax adjustment unit, and the second A distance calculation unit that calculates a subject distance corresponding to a cross point after a virtual optical axis change with respect to the optical axis of the imaging optical system, and the focus adjustment unit subjects the subject distance to each subject distance.
  • a lens position storage unit that stores a focus lens position that is focused on, and when neither of the first lens position and the second lens position can be searched within the first search range, the calculation is performed. Subject distance It reads the lens position to respond from the lens position storage unit, in which the first focus lens and the second focus lens to be moved to the read lens position above.
  • the distance calculation unit calculates a distance of a virtual cross point that has changed due to the image shift, and the focus adjustment unit determines a lens position that focuses on the subject at the calculated distance, as the lens position storage unit. And the first and second focus lenses are moved to the read lens positions.
  • the lens positions to be read are read out from the first and second imaging units according to individual differences, respectively, or one of the first and second focus lenses, A focus position shift amount corresponding to the lens position is read out.
  • a stereoscopic imaging apparatus is the fifth aspect, wherein the first viewpoint image and the second viewpoint image respectively obtained from the first imaging section and the second imaging section are obtained.
  • a stereoscopic display unit configured to display a stereoscopic image on the basis of which the parallax adjustment unit includes an operation member for manually adjusting the parallax, and the first viewpoint image and the second viewpoint image according to an operation of the operation member.
  • a first image shift unit that relatively shifts the image of the display position in the stereoscopic display unit.
  • the stereoscopic imaging apparatus is the stereoscopic imaging apparatus according to the fifth or sixth aspect, wherein the parallax adjustment unit is acquired from the first imaging unit and the second imaging unit, respectively.
  • a detection unit that detects a position shift of the subject in the focus area of the viewpoint image and the second viewpoint image, and the first viewpoint image and the second viewpoint image are relative to each other so that the detected position shift becomes zero.
  • a second image shift unit for shifting the image.
  • each of the first photographing optical system and the second photographing optical system includes a zoom lens
  • the storage unit Is the focus position between the first lens position of the first focus lens and the second lens position of the second focus lens when focusing on a subject at the same distance for each zoom position of the zoom lens
  • a shift amount is stored in advance
  • the focus adjustment unit reads a focus position shift amount corresponding to a zoom position of the zoom lens from the storage unit when calculating the first lens position, and the focus position
  • the first lens position is calculated based on a shift amount and the searched second lens position.
  • the amount of focus position shift of the first and second focus lenses when focusing on the same subject caused by individual differences between the first and second imaging units varies depending on the zoom position. Therefore, in the eighth aspect, when calculating the first lens position, a focus position shift amount corresponding to the zoom position is read from the storage unit, and the focus position shift amount and the second lens position are read. Based on the above, the first lens position is calculated.
  • each of the first photographing optical system and the second photographing optical system includes a zoom lens
  • the storage unit For each zoom position of the zoom lens, the amount of focus position deviation between the first lens position of the first focus lens and the second lens position of the second focus lens when focusing on a subject at the same distance is calculated.
  • the focus adjustment unit reads a focus position shift amount corresponding to the zoom position of the zoom lens from the storage unit, and calculates the focus position shift amount. The second lens position is calculated based on the searched first lens position.
  • the focus position deviation amount corresponding to the zoom position is read from the storage unit, and the focus position deviation amount and the The second lens position is calculated based on the first lens position.
  • a first photographing optical system including a first focus lens, and a first viewpoint image obtained by photoelectrically converting subject light imaged through the first photographing optical system.
  • a first imaging unit having a first imaging element that outputs a second imaging optical system including a second focus lens, and subject light imaged through the second imaging optical system.
  • a second imaging unit having a second imaging element that performs photoelectric conversion and outputs a second viewpoint image; and a first lens position of the first focus lens when focusing on a subject at the same distance;
  • An automatic focus adjustment method for a stereoscopic imaging apparatus comprising: a storage unit that stores in advance a focus position shift amount from a second lens position of the second focus lens, wherein the first focus lens is The search operation is performed within the first search range, and the search operation is performed.
  • a step of determining a second search range narrower than the range, and a search operation of the second focus lens within the determined second search range, which is acquired from the second imaging unit during the search operation A step of searching for a second lens position of the second focus lens that focuses on the subject based on a second viewpoint image; and a second lens position searched within the second search range at the second lens position.
  • the step of moving the second focus lens to the second lens position searched within the range, and the second lens position searched within the first search range and stored in the storage unit A step of calculating the first lens position based on a focus position shift amount; and a step of moving the first focus lens to the calculated first lens position.
  • the first lens position cannot be searched within the first search range, and When the second lens position can be searched, a second narrower than the first search range before and after the lens position of the first focus lens corresponding to the searched second lens position.
  • a step of determining a search range, and a search operation of the first focus lens within the determined second search range, and based on a first viewpoint image acquired from the first imaging unit during the search operation And searching for the first lens position of the first focus lens that focuses on the subject, and moving the first focus lens to the first lens position searched within the second search range. And a that process.
  • the in-focus position of the second lens position is not found within the second search range.
  • the step of calculating the second lens position based on the searched first lens position and the focus position shift amount stored in the storage unit, and the calculated second lens Moving the second focus lens to a position is not found within the second search range.
  • the stereoscopic imaging device includes an optical axis of the first imaging optical system and the optical axis.
  • a lens position storage unit that stores a focus lens position that focuses on a subject at a subject distance corresponding to a cross point at which the optical axis of the second imaging optical system intersects;
  • the stereoscopic imaging device focuses on a subject at the subject distance for each subject distance.
  • a lens position storage unit that stores a focus lens position to perform, and relatively shifts the first viewpoint image and the second viewpoint image acquired from the first imaging unit and the second imaging unit, respectively.
  • the AF search is performed by narrowing the search range of the second imaging unit using the AF search result in the first imaging unit, the total AF search time is shortened. And focusing can be performed without being affected by individual differences between the first and second imaging units.
  • the second image pickup unit performs an AF search on the same search range, and the focus of the second focus lens acquired by the AF search is obtained. Since the in-focus position of the first focus lens is calculated based on the position and the focus position shift amount of the first and second focus lenses stored in advance, the first focus lens is It can be obtained with high accuracy without being affected by individual differences in the second imaging unit.
  • FIG. 1 is a front perspective view of a stereoscopic imaging apparatus according to an embodiment of the present invention.
  • 1 is a rear perspective view of a stereoscopic imaging apparatus according to an embodiment of the present invention.
  • the block diagram which shows the internal structure of the three-dimensional imaging device of FIG.
  • the flowchart which shows 1st Embodiment of the automatic focus adjustment method which concerns on this invention.
  • Flowchart showing the first embodiment of the automatic focus adjustment method according to the present invention continuously The figure which shows the relationship between the 1st search range of a 1st focus lens, each search position (horizontal axis), and AF evaluation value (vertical axis).
  • Flowchart showing a second embodiment of the automatic focusing method according to the present invention (continued)
  • FIG. 1A and 1B are external views of a stereoscopic imaging apparatus according to an embodiment of the present invention.
  • FIG. 1A is a perspective view of the stereoscopic imaging device 1 as viewed obliquely from above
  • FIG. 1B is a perspective view of the stereoscopic imaging device 1 as viewed from the back.
  • the stereoscopic imaging apparatus 1 is provided with two imaging units 1A and 1B.
  • these two image pickup units will be described as the first image pickup unit 1A and the second image pickup unit 1B.
  • the first imaging unit 1A and the second imaging unit 1B are arranged side by side so as to be able to acquire an image signal for stereoscopic viewing. These imaging units 1A and 1B generate image signals indicating two viewpoint images (first viewpoint image and second viewpoint image) of the right eye and the left eye, respectively.
  • the shooting mode dial 10B is set to a mode called, for example, a stereoscopic mode, and the shutter button 10C is operated, both stereoscopic image data are displayed. It is generated by the imaging units 1A and 1B.
  • the shutter button 10C provided in the stereoscopic imaging device 1 of this embodiment has two operation modes of half-pressing and full-pressing.
  • exposure adjustment is performed when the shutter button 10C is half-pressed.
  • focus adjustment is performed, and shooting is performed when the button is fully pressed.
  • a flash light emission window WD for emitting a flash toward the subject when the field luminance is dark is provided above the imaging unit 1B.
  • a liquid crystal monitor DISP capable of three-dimensional display is provided on the back surface of the stereoscopic imaging device 1, and both the imaging units 1A and 1B capture the same liquid crystal monitor DISP.
  • the subject is displayed as a stereoscopic image.
  • the LCD monitor DISP uses a lenticular lens or a parallax barrier, and can display a right-eye image and a left-eye image separately by wearing dedicated glasses such as polarized glasses or liquid crystal shutter glasses. Is applicable.
  • operators such as a zoom switch 10D, a menu / OK button 10E, and a cross key 10F are also provided.
  • the power switch 10A, the mode dial 10B, the shutter button 10C, the zoom switch 10D, the menu / OK button 10E, the cross key 10F, and the like may be collectively referred to as the operation unit 10.
  • FIG. 2 is a block diagram showing an internal configuration of the stereoscopic imaging apparatus 1 of FIG. The internal configuration of the stereoscopic imaging apparatus 1 will be described with reference to FIG.
  • the operation of the stereoscopic imaging apparatus 1 is comprehensively controlled by a main CPU (central processing unit) 100.
  • a ROM (read-only memory) 101 is connected to the main CPU 100 via a bus Bus.
  • the ROM 101 stores a program necessary for the operation of the stereoscopic imaging apparatus 1.
  • the main CPU 100 comprehensively controls the operation of the stereoscopic imaging apparatus 1 according to the procedure of this program.
  • the main CPU 100 controls the power control unit 1001 to supply the power from the battery BT to each unit in FIG. 2 through the power control unit 1001.
  • the stereoscopic imaging apparatus 1 is shifted to the operating state.
  • the main CPU 100 starts the photographing process.
  • the AF detection unit 120, the search range setting unit 121, the AE / AWB detection unit 130, the image input controller 114A, the digital signal processing unit 116A, and the 3D image generation unit 117 are configured by a processor such as a DSP (Digital Signal Processor).
  • DSP Digital Signal Processor
  • each component of the first imaging unit 1A is described with the word “first”, and each component of the second imaging unit 1B is described with the word “second”. .
  • the first imaging unit 1A includes a first imaging optical system 110A including a first focus lens FLA and a first focus lens driving unit (hereinafter referred to as an optical axis direction) that moves the first focus lens FLA.
  • 104A (referred to as a first F lens driving unit) and a first image sensor 111A that receives subject light formed by the subject being imaged by the first photographing optical system and generates an image signal representing the subject. Is provided.
  • the first photographing optical system 110A is further provided with a first diaphragm IA and a first diaphragm driver 105A that changes the aperture diameter of the first diaphragm IA.
  • the first photographing optical system 100A is a zoom lens, and a Z lens driving unit 103A for performing control to make the zoom lens a predetermined focal length is provided.
  • a single lens ZL schematically shows that the entire photographing optical system is a zoom lens.
  • the second imaging unit 1B also includes a photographic optical system including the second focus lens FLB and a second focus lens FLB that moves the second focus lens FLB in the optical axis direction.
  • the focus lens driving unit hereinafter referred to as the second F lens driving unit
  • the subject light formed by the subject being imaged by the second photographing optical system are received, and an image signal representing the subject is generated.
  • a second image sensor 111B is provided.
  • the first imaging unit 1A and the second imaging unit 1B generate a stereoscopic image signal, that is, the first imaging unit 1A generates a right-eye image signal, and the second imaging unit 1B generates a left image signal. Eye image signals are respectively generated.
  • the configuration of the first imaging unit 1A and the second imaging unit 1B is the same only in the difference between generating an image signal for the right eye or an image signal for the left eye.
  • the signal processing after the image signals of both imaging units are converted into digital signals by the first A / D conversion unit 113A and the second A / D conversion unit 113B and guided to the bus Bus is the same. Therefore, hereinafter, the configuration of the first imaging unit 1A will be described along the flow of the image signal.
  • the main CPU 100 controls the power supply control unit 1001 to supply power from the battery BT to each unit to shift the stereoscopic imaging device 1 to the operating state. .
  • the main CPU 100 first controls the F lens driving unit 104A and the aperture driving unit 105A to start adjusting exposure and focus. Further, the timing generator (TG) 106A is instructed to cause the image sensor 111A to set the exposure time by the electronic shutter, and for example, the image signal is output from the image sensor 111A to the analog signal processing unit 112A every 1/60 seconds.
  • TG timing generator
  • the timing signal is supplied from the TG 106A, the image signal is supplied every 1/60 seconds from the image sensor 111A, and noise reduction processing is performed, and the noise reduction processing is performed.
  • the received analog image signal is supplied to the A / D converter 113A in the next stage.
  • the A / D converter 113A also performs conversion processing from an analog image signal to a digital image signal every 1/60 seconds in synchronization with the timing signal from the TG 106A.
  • the digital image signal converted and output by the A / D conversion unit 113A is guided to the bus Bus every 1/60 seconds by the image input controller 114A, and the image signal guided to the bus Bus is SDRAM (synchronous). dynamic random access memory) 115. Since an image signal is output from the image sensor 111A every 1/60 seconds, the contents of the SDRAM 115 are rewritten every 1/60 seconds.
  • the image signals stored in the SDRAM 115 are read out every 1/60 seconds by the DSP constituting the AF detection unit 120, the AE / AWB detection unit 130, and the digital signal processing unit 116A.
  • the main CPU 100 controls the F lens driving unit 104A to move the focus lens FLA, and the high frequency component of the image signal in the focus area (AF area) is obtained every 1/60 seconds.
  • An AF evaluation value indicating the contrast of the image is calculated by extracting and integrating the high-frequency components.
  • the main CPU 100 acquires the AF evaluation value calculated by the AF detection unit 120, and moves the first focus lens FLA to the lens position (focus position) where the AF evaluation value is maximized via the F lens driving unit 104A. Let For this reason, the focus is immediately adjusted no matter which direction the first imaging unit 1A is directed, and the focused subject is displayed almost always on the liquid crystal monitor DISP.
  • the AE / AWB detection unit 130 detects the subject luminance and calculates the gain set in the white balance amplifier in the digital signal processing unit 116A every 1/60 seconds.
  • the main CPU 100 changes the aperture diameter of the diaphragm IA by controlling the diaphragm driver 105A according to the luminance detection result of the AE / AWB detector 130.
  • the digital signal processing unit 116A receives the detection result from the AE / AWB detection unit 130 and sets the gain of the white balance amplifier.
  • the digital signal processing unit 116A processing is performed so as to obtain an image signal suitable for display.
  • the image signal converted into a signal suitable for display by the signal processing of the digital signal processing unit 116A is supplied to the 3D image generation unit 117, and the 3D image generation unit 117 converts the image signal for the right eye for display. Generated.
  • the generated right-eye image signal is stored in a VRAM (video Random Access Memory) 118.
  • the VRAM 118 stores two types of image signals for the right eye and for the left eye.
  • the main CPU 100 transfers the image signal for the right eye and the image signal for the left eye in the VRAM 118 to the display control unit 119 to display an image on the liquid crystal monitor DISP.
  • the image signal for the right eye and the image signal for the left eye are displayed on the liquid crystal monitor DISP in FIG. 1, the image on the liquid crystal monitor DISP can be seen stereoscopically by human eyes.
  • image signals are output from the first and second imaging elements 111A and 111B every 1/60 seconds.
  • the image signal in the VRAM 118 is rewritten every 1/60 seconds, for example, and the stereoscopic image on the liquid crystal monitor DISP is switched and displayed every 1/60 seconds, and the stereoscopic image is displayed as a moving image. .
  • the main CPU 100 immediately before the shutter button 10C is fully pressed by the AE / AWB detection unit 130.
  • the detected AE value is received, the first and second diaphragms IA and IB are made to have a diaphragm diameter corresponding to the AE value via the first and second diaphragm driving units 105A and 105B, and the first F lens.
  • An AF evaluation value is calculated by the AF detection unit 120 while moving the first focus lens FLA within the first search range via the drive unit 104A.
  • the main CPU 100 detects the lens position of the first focus lens FLA (hereinafter referred to as “first lens position P1”) that maximizes the AF evaluation value based on the AF evaluation value calculated by the AF detection unit 120. Then, the first focus lens FLA is moved to the first lens position Pl.
  • first lens position P1 the lens position of the first focus lens FLA
  • the main CPU 100 moves the second focus lens FLB within a second search range narrower than the first search range, and calculates an AF evaluation value by the AF detection unit 120. Let The main CPU 100 receives the AF evaluation value from the AF detection unit 120, detects the lens position of the second focus lens FLB (hereinafter referred to as “second lens position P2”) where the AF evaluation value is maximized, and this first The second focus lens FLB is moved to the second lens position P2.
  • second lens position P2 the lens position of the second focus lens FLB
  • the AF detection unit 120 causes the search range setting unit 121 to display data indicating the first lens position P1 of the first focus lens FLA and the search range read from the flash ROM 102 (near side). Based on the deviation N and the far side deviation F), a second search range narrower than the first search range is calculated around the lens position corresponding to the first lens position P1 of the first focus lens. Then, the main CPU 100 receives the calculation result of the second search range, and searches for the second lens position P2 (focus position) within the second search range via the second F lens driving unit 104B. Make a search.
  • the focus lens FLA of the first imaging unit 1A performs the AF search as before, and the second imaging unit 1B includes the first position including the lens position corresponding to the lens position of the first focus lens.
  • the AF search is performed in the second search range narrower than the search range. Thereby, the AF search using the second focus lens FLB can be shortened.
  • the main CPU 100 When the shutter button 10C is fully pressed, the main CPU 100 causes the first image sensor 111A and the second image sensor 111B to be exposed at a predetermined shutter speed via the first and second TGs 106A and 106B. Have a still image shot.
  • the main CPU 100 outputs image signals from the first and second imaging elements 111A and 111B to the first and second analog signal processing units 112A and 112B at the timing when the electronic shutter is turned off, so that the first and second analog signals are output.
  • the signal processing units 112A and 112B are caused to perform noise reduction processing. Thereafter, the first and second A / D converters 113A and 113B convert the analog image signal into a digital image signal.
  • the first and second image input controllers 114A and 114B convert the digital image signals converted by the first and second A / D converters 113A and 113B to the bus Bus. It is temporarily stored in the SDRAM 115 via Thereafter, the digital signal processing units 116A and 116B read out the image signal of the SDRAM 115, and interpolate the spatial shift of the color signals such as R, G, and B accompanying the white balance correction, the gamma correction, and the color filter arrangement of the single-plate CCD. Then, image processing including synchronization processing for aligning the position of each color signal, contour correction, luminance / color difference signal (YC signal) generation, etc. is performed, and the result is sent to the 3D image generation unit 117.
  • YC signal luminance / color difference signal
  • the main CPU 100 supplies the image signal for the right eye and the image signal for the left eye in the 3D image generation unit 117 to the compression / decompression processing unit 150 using the bus Bus.
  • the main CPU 100 causes the compression / decompression processing unit 150 to compress the image data, and then transfers the compressed image data to the media control unit 160 using the bus Bus.
  • the information is supplied to the media control unit 160, and the media control unit 160 generates an image file of a predetermined format (for example, a 3D still image is an MP (multi-picture) format image file), and the memory card 161 stores the image file. Let me record.
  • the first lens position P1 and the second lens position that are focused by performing an AF search are moved to the lens position P2. For this reason, the individual difference is eliminated, and the AF processing time including the AF search of the second focus lens FLB of the second photographing optical system can be shortened.
  • FIG. 2 also shows a flash control unit 180 and a flash unit 181 that emits a flash from the light emission window WD of FIG. 1 in response to an instruction from the flash control unit 180, and a clock unit W for detecting the current time. Further, an attitude detection sensor 190 for detecting the attitude of the stereoscopic imaging apparatus 1 is shown.
  • the main CPU 100 determines whether or not the shutter button 10C is half-pressed (step S10). If the main CPU 100 determines in step S10 that the shutter button 10C is not half-pressed, the process proceeds to No and repeats the process in step S10. If it is determined in step S10 that the shutter button 10C is half-pressed, the Yes side Proceed to Then, when proceeding to the Yes side, the AE / AWB detection unit 130 in the DSP starts the AE operation in response to a shooting preparation instruction from the main CPU 100 in step S12, and further proceeds to step S14, where the AF detection unit in the DSP 120 starts the AF operation.
  • the main CPU 100 first sets the first search range of the first focus lens FLA in step S16 with the start of the AF operation in step S14.
  • FIG. 4A is a diagram showing the relationship between the first search range of the first focus lens FLA, each search position (each lens position of the first focus lens FLA), and the AF evaluation value (vertical axis).
  • the first search range is, for example, from the closest end (Pn) to the infinity end (Pf). Since the moving range of the focus lens varies depending on the zoom magnification, the search range is set differently depending on the zoom magnification.
  • step S18 the main CPU 100 moves the first focus lens FLA of the first imaging optical system within the first search range, and every time the first focus lens FLA reaches a predetermined lens position (When the focus lens FLA is pulse-driven, every time the focus lens FLA is driven by a predetermined number of pulses), an AF evaluation value is acquired via the AF detector 120.
  • Step S20 it is determined whether or not the first focus position (lens position) P1 of the first focus lens FLA that focuses on the subject in the AF area can be detected. For example, when the contrast of the image is low and, as a result, none of the acquired AF evaluation values reaches a predetermined threshold value, or when it is monotonously increasing or monotonously decreasing (when there is no peak), focusing is performed. It is determined that the position cannot be detected.
  • the AF evaluation that passes through each AF evaluation value based on a plurality of front and rear lens positions including the lens position where the acquired AF evaluation value is maximized and the AF evaluation value.
  • An approximate curve of values is obtained, and the lens position P1 at which the approximate curve becomes a maximum value is acquired as the first focus position (step S22). If the AF evaluation value decreases after the AF evaluation value increases during the AF search within the first search range, the search operation is stopped and the AF evaluation value becomes the maximum value as described above.
  • the lens position P1 may be calculated.
  • the AF detection unit 120 supplies the lens position P 1 to the search range setting unit 121 and reads the search start position data N and the search end position data F from the flash ROM 102 to search the search range setting unit 121.
  • the search range setting unit 121 sets a second search range narrower than the first search range around the lens position P1.
  • the second search range is set as shown in the following equation where the search start position is Pn ′ and the search end position is Pf ′ as shown in FIG. 4B.
  • step S20 determines whether the in-focus position cannot be detected. If it is determined in step S20 that the in-focus position cannot be detected, the process proceeds to step S30 shown in FIG. 3B.
  • step S30 as shown in FIG. 5, the first search range of the second focus lens FLB (for example, the closest end (Pn) to the infinite end (Pf)) is set.
  • This first search range is the same as the first search range of the first focus lens FLA set in step S16.
  • step S32 the main CPU 100 moves the second focus lens FLB of the second photographing optical system within the first search range, and every time the second focus lens FLB reaches a predetermined lens position, AF is performed.
  • An AF evaluation value is acquired via the detection unit 120.
  • an approximate curve of AF evaluation values passing through each AF evaluation value is obtained based on the front and rear lens positions including the lens position where the acquired AF evaluation value is maximum and the AF evaluation value, and the approximate curve is maximum.
  • the lens position P2 as a value is acquired as the second focus position (step S34).
  • a focus position deviation amount Df (for example, a second focus lens) between the lens position of the first focus lens FLA and the lens position of the second focus lens FLB when focusing on a subject at the same distance from the flash ROM 102.
  • a value obtained by subtracting the number of pulses corresponding to the lens position of the first focus lens FLA from the number of pulses corresponding to the lens position of the FLB is read (step S36).
  • the flash ROM 102 stores a focus position deviation amount Df between the lens position of the first focus lens FLA and the lens position of the second focus lens FLB when focusing on a subject at the same distance in advance during adjustment before shipment. It is assumed that the detected value is stored.
  • the focus position shift amount Df also varies depending on the zoom magnification (zoom position) of the zoom lens, and is detected for each zoom position and stored in the flash ROM 102. Therefore, in step S36, the corresponding focus position deviation amount Df is read based on the current zoom position of the zoom lens.
  • the focus position (first lens position) P1 of the first focus lens FLA is calculated (step S38).
  • step S40 when the first lens position P1 of the first focus lens FLA is searched from the first search range, the first lens position P1 and the second lens position acquired in step S22 and step S28.
  • the first focus lens FLA and the second focus lens FLB are moved to the lens position P2, respectively, while the first lens position P1 of the first focus lens FLA cannot be searched from the first search range. Moves the first focus lens FLA and the second focus lens FLB to the first lens position P1 calculated in step S38 and the second lens position P2 acquired in step S34, respectively.
  • the operation is terminated (step S42).
  • step S44 the main CPU 100 determines whether or not the shutter button 10C has been fully pressed. If the main CPU 100 determines in step S44 that the shutter button 10C is not fully pressed, the process proceeds to No and repeats the process in step S44. If it is determined that the shutter button 10C is fully pressed, the process proceeds to Yes and the shooting process is executed. (Step S46), the process of this flow is terminated.
  • the second search range set to N and F before and after the first lens position P1 of the first embodiment is, for example, between the first focus lens FLA and the second focus lens FLB. This can be determined in consideration of the focus position shift amount Df and the amount of change (search margin) due to temperature, posture, or the like.
  • the search range is set around the first lens position P1, but the first lens position P1 (second lens position P2) corrected by the focus position deviation amount Df is used.
  • the second search range may be set centering on this. According to this, the second search range can be further narrowed.
  • FIGS. 6A and 6B a second embodiment of the automatic focus adjustment method according to the present invention will be described with reference to the flowcharts shown in FIGS. 6A and 6B.
  • the same step numbers are assigned to portions common to the flowchart of the first embodiment shown in FIG. 3A and FIG. 3B, and detailed description thereof is omitted.
  • step S50, step S52, step S54, and step S56 are added after step S34. This is different from the process of FIG. 3B.
  • step S50 when the in-focus position (second lens position) P2 of the second focus lens FLB is acquired in step S34 of FIG. 6B, thereafter, as in the process of step S24, the first search range is set. A narrow second search range is set (step S50).
  • the second search range is set as shown in the following equation, where Pn ′ is the search start position and Pf ′ is the search end position (see FIG. 4B).
  • the main CPU 100 determines each AF evaluation value based on the front and rear lens positions including the lens position where the acquired AF evaluation value is maximized and the AF evaluation value. An approximate curve of the AF evaluation value passing through is obtained, and the lens position P1 at which the approximate curve becomes the maximum value is acquired as the first focus position (step S56).
  • step S20 Even if it is determined in step S20 that the first in-focus position cannot be detected during AF search within the first search range, the first in-focus position is detected by re-searching within the second search range. There are cases where it is possible. This is because temporally different image signals are acquired from the first imaging unit 1A during the re-search, and as a result, the AF evaluation values are also different. In addition, since there is a high possibility that the first focus position of the first focus lens FLA exists in the second search range, the focus position can be detected during the re-search within the second search range. It may be possible to set a threshold value for determining whether or not to be lower than that in the first search range.
  • step S54 if it is determined in step S54 that the first in-focus position of the first focus lens FLA cannot be detected during the re-search within the second search range, the process proceeds to step S36 and the first implementation is performed.
  • the first in-focus position (lens position P1) is calculated in the same manner as in the embodiment.
  • FIG. 7 is a main part flowchart showing a modification of the second embodiment. Only differences from the second embodiment will be described below.
  • step S60 is added between step S26 and step S28 in FIG. 6A, and steps S62 and S64 branched from step S60 are added. Has been.
  • step S60 it is determined whether the second focus position (lens position) P2 of the second focus lens FLB that focuses on the subject in the AF area can be detected based on the AF evaluation value acquired in step S26. Determine. If it is determined that the second focus position can be detected, the process proceeds to step S28. If it is determined that the second focus position cannot be detected, the process proceeds to step S62.
  • step S62 the focus position deviation amount Df between the lens position of the first focus lens FLA and the lens position of the second focus lens FLB when the subject at the same distance is focused from the flash ROM 102 is read. Then, based on the first lens position P1 searched by the AF search of the first focus lens FLA and the focus position shift amount Df read from the flash ROM 102 corresponding to the first lens position P1.
  • the in-focus position (second lens position) P2 of the second focus lens FLB is calculated by the following equation (step S64).
  • the second lens position P2 can be calculated by the above [Equation 4]. .
  • FIGS. 8A and 8B a third embodiment of the automatic focus adjustment method according to the present invention will be described with reference to the flowcharts shown in FIGS. 8A and 8B.
  • FIG. 8A and FIG. 8B the same step numbers are assigned to the parts common to the flowchart of the first embodiment shown in FIG. 3A and FIG. 3B, and detailed description thereof is omitted.
  • step S70 is added after step S32, and step S72 branched from step S70 is added. This is different from the process of FIG. 3B.
  • step S70 whether or not the second focus position (lens position) P2 of the second focus lens FLB that focuses on the subject in the AF area can be detected based on the AF evaluation value acquired in step S32 of FIG. 8B. Is determined (step S70).
  • step S70 If it is determined in step S70 that the second in-focus position can be detected, the process proceeds to step S34, and the same processing as in the first embodiment is performed.
  • step S70 if it is determined in step S70 that the second in-focus position cannot be detected, the process proceeds to step S72 where the first focus lens FLA and the second focus lens FLB are moved to the subject corresponding to the cross point.
  • the lens is moved to a first lens position P1 and a second lens position P2 set in advance so as to focus on a subject at a distance.
  • the cross point is a point (convergence point) where the optical axis of the first imaging optical system 110A and the optical axis of the second imaging optical system 110B intersect.
  • the distance to the cross point is adjusted to 2000 mm.
  • the flash ROM 102 detects the lens position of the first focus lens FLA and the lens position of the second focus lens FLB when the cross-point subject is focused in advance at the time of adjustment before shipment. It is assumed that the obtained lens position is stored. Further, only the lens position of either the first focus lens FLA or the second focus lens FLB is stored, and the other lens position is the stored lens position and the focus position shift amount corresponding to the lens position. You may make it obtain
  • the subject at the cross-point position is focused. Since the first focus lens FLA and the second focus lens FLB are moved, when the main subject is present at and near the cross point, the left-eye image focused on the main subject and suitable for stereoscopic viewing And an image for the right eye can be acquired. It should be noted that the subject image of the subject at the distance of the cross point hardly generates a parallax amount, so that an excessive stereoscopic effect does not occur. For this reason, the subject image of the subject at the distance of the cross point can be less likely to feel uncomfortable when the user stereoscopically views.
  • FIG. 9 is a main part flowchart showing a modification of the third embodiment. Only the differences between the modification of the third embodiment and the third embodiment will be described below.
  • the modification of the third embodiment is different from the third embodiment in that the process shown in FIG. 9 is performed instead of the process shown in FIG. 8B of the third embodiment.
  • steps S80 and S82 are added to the flowchart shown in FIG. 8B.
  • step S80 of FIG. 9 it is determined whether or not parallax adjustment is performed between the left image and the right image for stereoscopic viewing.
  • FIGS. 10A to 10C are diagrams for explaining parallax adjustment.
  • FIG. 10A when the subject exists at the cross point position, the parallax between the subject on the left image and the right image hardly occurs.
  • FIG. 10B when the subject is located farther from the cross point position (INF side), the subject position on the right image is on the right side than the subject position on the left image. shift. Conversely, when the subject is located closer to the cross point position, the subject position on the right image is shifted to the left than the subject position on the left image.
  • parallax adjustment according to the subject distance is indispensable for appropriate stereoscopic viewing.
  • parallax adjustment manual parallax adjustment for adjusting the cut-out position (offset value) between the left image and the right image and shifting the image by operating the parallax adjustment button in the operation unit 10 and the parallax amount of the main subject are detected.
  • offset value is set so that the parallax amount becomes zero and the image is shifted.
  • Manual parallax adjustment is performed by operating the parallax adjustment button while viewing the left and right images (stereoscopic images) displayed as a through image on the liquid crystal monitor DISP as shown in FIG. 10C.
  • This manual adjustment is not limited to the parallax adjustment so that the position of the main subject is aligned, but can be adjusted as appropriate according to the user's preference for stereoscopic viewing.
  • the automatic parallax adjustment extracts feature points of an image (subject) in the AF area of the left image as shown in FIG. 11A, detects feature points on the right image corresponding to the extracted feature points, and detects these feature points.
  • a disparity vector between corresponding feature points is obtained (FIG. 11B).
  • the representative value (average value, median value, mode value, etc.) of the obtained parallax vector is used as the parallax amount, and an image shift is performed so that the parallax amount is zero by setting an offset value at which the parallax amount is zero.
  • step S80 whether or not the parallax adjustment is performed based on whether or not the parallax adjustment is performed by the manual parallax adjustment or the automatic parallax adjustment (that is, whether or not the offset value is zero). Determined.
  • the first focus lens FLA and the second focus lens FLB are moved to the lens position where the subject whose parallax amount is substantially zero is focused (step S82).
  • the subject distance (virtual cross point distance) Dv at which the parallax amount after parallax adjustment becomes substantially zero is It can be obtained by an expression.
  • the corresponding lens positions are read from the flash ROM 102 in which the lens positions of the first focus lens FLA and the second focus lens FLB to be focused are stored, and the first focus lens FLA and the second focus are read at the read lens positions.
  • the lens FLB is moved.
  • neither the first focus lens FLA nor the second focus lens FLB can search the focus position, and the parallax adjustment is performed. Can focus on a subject whose parallax amount is the target of parallax adjustment.
  • SYMBOLS 1 Stereoscopic imaging device, 1A ... 1st imaging part, 1B ... 2nd imaging part, 10 ... Operation part, 100 ... Main CPU, 101 ... ROM, 102 ... Flash ROM, 104A ... 1st focus lens drive part , 104B, second focus lens driving unit, 110A, first imaging optical system, 110B, second imaging optical system, 111A, first imaging element, 111B, second imaging element, 120, AF detection unit. 121, search range setting section, FLA, first focus lens, FLB, second focus lens.

Abstract

 本発明の一態様に係る立体撮像装置の自動焦点調節方法は、第1の撮影光学系の第1のフォーカスレンズを第1のサーチ範囲内でサーチ動作させたときに第1のレンズ位置(合焦位置)が見つからなかった場合に、第2の撮影光学系の第2のフォーカスレンズを前記第1のサーチ範囲内でサーチ動作させ、該サーチ動作時に前記第2の撮像部から取得される第2の視点画像に基づいて前記第2のフォーカスレンズが被写体に合焦する第2のレンズ位置を探索する工程と、前記第1のサーチ範囲内で探索された前記第2のレンズ位置に前記第2のフォーカスレンズを移動させる工程と、前記第1のサーチ範囲内で探索された前記第2のレンズ位置と記憶部に予め記憶されたフォーカス位置ずれ量とに基づいて前記第1のレンズ位置を算出する工程と、前記算出した第1のレンズ位置に前記第1のフォーカスレンズを移動させる工程とを含む。

Description

立体撮像装置及び立体撮像装置の自動焦点調節方法
 本発明は立体撮像装置及び立体撮像装置の自動焦点調節方法に係り、特に2つの撮像部の合焦位置を効率よく探索し、かつ合焦精度も高くする技術に関する。
 従来から2つの撮像部を備えた立体撮像装置が数多く提案されている(特許文献1、2参照)。立体撮像装置は、2つの撮像部を使って同一被写体を異なる視点から撮像する立体撮像を行うことができるとともに、超広角のパノラマ撮像や2つの撮像部各々で異なる感度での撮像等を行うことができる。
 2つの撮像部で上記立体撮像を行うものにあっては、2つの撮像部が、右眼、左眼に相当する位置に視差を持たせて並べられて設けられており、双方の撮像部から出力された画像信号に基づいて後段の信号処理部で右眼用の画像信号と左眼用の画像信号とが各々生成される。こうして立体撮像装置の信号処理部で生成された右眼用の画像信号と左眼用の画像信号とが、3次元表示が可能な表示画面を有する表示装置に入力されると、その表示画面上に立体画像が表示される。
 ところで、デジタルカメラにおいては、ピント調整、つまり合焦位置の調整を行うにあたって、内部に配備されている自動焦点調節手段が、撮像光学系内のフォーカスレンズを所定のサーチ範囲内で移動させ、フォーカスレンズを移動させている期間に撮像している画像のコントラストを検出し、コントラストが最大となる合焦位置(レンズ位置)にフォーカスレンズを移動させる、いわゆるコントラストAF(Auto Focus)を行っているものが多い。
 上記特許文献1の立体撮像装置においては、2つの撮像部が同じ被写体を捉えているということを理由に、一方の撮像部のみでコントラストAFを実施し、そのコントラストAFの結果を他方の撮像部に反映させることで、2つの撮像部を有する撮像装置のコントラストAFに要する時間の短縮化が図られている。また特許文献2の立体撮像装置には、双方の撮像部が備えるフォーカスレンズを相互に逆の方向にそれぞれ移動させるAFサーチを行わせ、双方の撮像部のうち、先に合焦位置を検出した撮像部の方のAFサーチ結果を使って双方の撮像部の合焦位置を決定するという技術が提案されている。
特開2005-45511号公報 特開2006-162990号公報
 しかしながら、2つの撮像部には、フォーカスレンズのレンズ径やレンズ鏡胴の径や撮像素子の受光感度のばらつき等がどうしても存在する(以降の記載においてはこれらを総称して個体差という)。このため、上記特許文献1、2のように一方の撮像部の合焦位置を他方の撮像部に反映させる構成にすると、その個体差により他方の撮像部の合焦位置がずれてしまうという問題がある。
 一方、それぞれの撮像部で個別にAF動作を行わせると、2つの撮像部の個体差の問題を解決することができるが、効率が悪いという問題がある。
 本発明はこのような事情に鑑みてなされたもので、2つの撮像部でのAF動作を効率よく行うことができ、かつ2つの撮像部に個体差があっても合焦精度の高い焦点調節を行うことができる立体撮像装置及びその自動焦点調節方法を提供することを目的とする。
 前記目的を達成するために、本発明の第1の態様に係る立体撮像装置は、第1のフォーカスレンズを含む第1の撮影光学系と、該第1の撮影光学系を介して結像される被写体光を光電変換して第1の視点画像を出力する第1の撮像素子とを有する第1の撮像部と、第2のフォーカスレンズを含む第2の撮影光学系と、該第2の撮影光学系を介して結像される被写体光を光電変換して第2の視点画像を出力する第2の撮像素子とを有する第2の撮像部と、同一距離の被写体に合焦するときの前記第1のフォーカスレンズの第1のレンズ位置と前記第2のフォーカスレンズの第2のレンズ位置とのフォーカス位置ずれ量が予め記憶された記憶部と、前記第1のフォーカスレンズを所定の第1のサーチ範囲内でサーチ動作させ、前記第1の撮像部から取得される第1の視点画像に基づいて被写体に合焦する第1のレンズ位置を探索し、該第1のレンズ位置に前記第1のフォーカスレンズを移動させ、前記第2の撮影光学系については、前記探索された前記第1のレンズ位置に対応する前記第2のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲内で前記第2のフォーカスレンズをサーチ動作させ、前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する第2のレンズ位置を探索し、該第2のレンズ位置に前記第2のフォーカスレンズを移動させる焦点調節部とを備え、前記焦点調節部は、前記第1のサーチ範囲内で前記第1のレンズ位置の合焦位置が見つからなかった場合には、前記第2のフォーカスレンズを前記第1のサーチ範囲内でサーチ動作させ、前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する第2のレンズ位置を探索し、該第2のレンズ位置に前記第2のフォーカスレンズを移動させ、前記探索された前記第2のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第1のレンズ位置を算出し、該第1のレンズ位置に前記第1のフォーカスレンズを移動させるようにしたものである。
 上記第1の態様によれば、前記第1の撮影光学系については、前記第1のフォーカスレンズを所定の第1のサーチ範囲内でサーチ動作させ、被写体に合焦する第1のレンズ位置を探索し、その第1のレンズ位置に第1のフォーカスレンズを移動させ、一方、前記第2の撮影光学系については、前記探索された第1のレンズ位置に対応する第2のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲内で第2のフォーカスレンズをサーチ動作させ、被写体に合焦する第2のレンズ位置を探索し、この第2のレンズ位置に第2のフォーカスレンズを移動させるようにした。このため、第1、第2の撮像部の個体差の影響を受けない焦点合わせを行うことができる。更に、最初に探索した合焦位置(第1のレンズ位置)を利用して第2のフォーカスレンズの第2のサーチ範囲を第1のサーチ範囲よりも狭くすることで、第2のフォーカスレンズの合焦位置(第2のレンズ位置)の探索を短時間で行うことができる。
 また、前記第1のサーチ範囲内で第1のレンズ位置の合焦位置が見つからなかった場合には、前記第2のフォーカスレンズを前記第1のサーチ範囲内でサーチ動作させ、前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する第2のレンズ位置を探索し、この探索した第2のレンズ位置に第2のフォーカスレンズを移動させるようにした。このため、第2のフォーカスレンズを精度よく合焦位置に移動させることができる。更に、前記第1のレンズ位置の合焦位置が見つからなかった第1のフォーカスレンズについては、前記探索された前記第2のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第1のレンズ位置を算出し、この算出した第1のレンズ位置に第1のフォーカスレンズを移動させるようにした。このため、前記第1、第2の撮像部に個体差があっても精度よく焦点調節を行うことができる。
 本発明の第2の態様に係る立体撮像装置は、上記第1の態様において、前記焦点調節部は、前記第1のサーチ範囲内で前記第1のレンズ位置を探索することができず、かつ前記第2のレンズ位置が探索できた場合には、前記探索された前記第2のレンズ位置に対応する前記第1のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲内で前記第1のフォーカスレンズをサーチ動作させ、前記第1の撮像部から取得される第1の視点画像に基づいて被写体に合焦する第1のレンズ位置を探索し、該第1のレンズ位置に前記第1のフォーカスレンズを移動させ、前記第2のサーチ範囲内で前記第1のレンズ位置の合焦位置が見つからなかった場合には、前記探索された前記第2のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第1のレンズ位置を算出し、該第1のレンズ位置に前記第1のフォーカスレンズを移動させるようにしたものである。
 上記第2の態様によれば、前記第2のフォーカスレンズの第1のサーチ範囲のサーチ結果に基づいて第1のフォーカスレンズを第2のサーチ範囲内でサーチ動作(再サーチ)させるようにしたため、合成精度を高めることができる。
 本発明の第3の態様に係る立体撮像装置は、上記第1又は第2の態様において、前記焦点調節部は、前記第2のサーチ範囲内で前記第2のレンズ位置の合焦位置が見つからなかった場合には、前記探索された前記第1のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第2のレンズ位置を算出し、該第2のレンズ位置に前記第2のフォーカスレンズを移動させるようにしたものである。
 これにより、前記第2のサーチ範囲内で第2のフォーカスレンズの第2のレンズ位置の合焦位置が見つからなかった場合でも、第2のフォーカスレンズに対応する第2のレンズ位置を、第1、第2の撮像部に個体差があっても精度よく求めることができる。
 本発明の第4の態様に係る立体撮像装置は、上記第1から第3のいずれかの態様において、前記焦点調節部は、前記第1の撮影光学系の光軸と前記第2の撮影光学系の光軸とが交差するクロスポイントに対応する被写体距離の被写体に合焦するフォーカスレンズ位置を記憶するレンズ位置記憶部を有し、前記第1のサーチ範囲内で前記第1のレンズ位置及び第2のレンズ位置がいずれも探索できない場合には、前記レンズ位置記憶部に記憶されたフォーカスレンズ位置に前記第1のフォーカスレンズ及び第2のフォーカスレンズを移動させるようにしたものである。
 クロスポイントの距離にある被写体像は、視差量がほとんど発生しないことから、過度な立体感が生じない。このため、ユーザがクロスポイントの距離にある被写体像を立体視する際に不快感をおぼえることが少ない。したがって、前記第1のサーチ範囲内で第1、第2のレンズ位置が探索できない場合には、前記クロスポイントの距離にピントが合うように前記第1のフォーカスレンズ及び第2のフォーカスレンズを移動させることが好ましい。
 本発明の第5の態様に係る立体撮像装置は、上記第1から第3のいずれかの態様において、前記第1の撮像部及び第2の撮像部からそれぞれ取得される第1の視点画像及び第2の視点画像を相対的に画像シフトすることにより視差を調整する視差調整部と、前記視差調整部による画像シフトのシフト量に基づいて前記第1の撮影光学系の光軸と前記第2の撮影光学系の光軸との仮想的な光軸の変化後のクロスポイントに対応する被写体距離を算出する距離算出部とを備え、前記焦点調節部は、被写体距離ごとに該被写体距離の被写体に合焦するフォーカスレンズ位置を記憶するレンズ位置記憶部を有し、前記第1のサーチ範囲内で前記第1のレンズ位置及び第2のレンズ位置がいずれも探索できない場合には、前記算出された被写体距離に対応するレンズ位置を前記レンズ位置記憶部から読み出し、前記第1のフォーカスレンズ及び第2のフォーカスレンズを前記読み出したレンズ位置に移動させるようにしたものである。
 前記第1の視点画像及び第2の視点画像を相対的に画像シフトすることにより、第1、第2の撮影光学系の光軸のクロスポイントを仮想的に移動させることができる。そして、前記距離算出部は、前記画像シフトすることにより変化した仮想のクロスポイントの距離を算出し、前記焦点調節部は、前記算出した距離の被写体に合焦するレンズ位置を前記レンズ位置記憶部から読み出し、その読み出したレンズ位置に前記第1、第2のフォーカスレンズを移動させる。尚、読み出されるレンズ位置は、第1、第2の撮像部に個体差に応じてそれぞれ別々のレンズ位置が読み出され、又は第1、第2のフォーカスレンズのいずれか一方のレンズ位置と、そのレンズ位置に対応するフォーカス位置ずれ量とが読み出される。
 本発明の第6の態様に係る立体撮像装置は、上記第5の態様において、前記第1の撮像部及び第2の撮像部からそれぞれ取得される第1の視点画像及び第2の視点画像に基づいて立体画像を表示させる立体表示部を備え、前記視差調整部は、視差をマニュアル調整するための操作部材と、該操作部材の操作に応じて前記第1の視点画像及び第2の視点画像の前記立体表示部における表示位置を相対的に画像シフトさせる第1の画像シフト部とを有する。
 本発明の第7の態様に係る立体撮像装置は、上記第5又は第6の態様において、前記視差調整部は、前記第1の撮像部及び第2の撮像部からそれぞれ取得される第1の視点画像及び第2の視点画像のフォーカスエリアにおける被写体の位置ずれを検出する検出部と、前記検出された位置ずれがゼロになるように前記第1の視点画像及び第2の視点画像を相対的に画像シフトさせる第2の画像シフト部とを有する。
 本発明の第8の態様に係る立体撮像装置は、上記第1又は第2の態様において、前記第1の撮影光学系及び第2の撮影光学系はそれぞれズームレンズを含んでおり、前記記憶部は、前記ズームレンズのズーム位置ごとに、同一距離の被写体に合焦するときの前記第1のフォーカスレンズの第1のレンズ位置と前記第2のフォーカスレンズの第2のレンズ位置とのフォーカス位置ずれ量を予め記憶しており、前記焦点調節部は、前記第1のレンズ位置を算出する際に、前記ズームレンズのズーム位置に対応するフォーカス位置ずれ量を前記記憶部から読み出し、該フォーカス位置ずれ量と前記探索された前記第2のレンズ位置とに基づいて前記第1のレンズ位置を算出するようにしたものである。
 前記第1、第2の撮像部の個体差により生じる同一被写体に合焦するときの第1、第2のフォーカスレンズのフォーカス位置ずれ量は、ズーム位置により異なる。このため、上記第8の態様では、前記第1のレンズ位置を算出する際に、ズーム位置に対応するフォーカス位置ずれ量を前記記憶部から読み出し、このフォーカス位置ずれ量と前記第2のレンズ位置とに基づいて前記第1のレンズ位置を算出するようにしている。
 本発明の第9の態様に係る立体撮像装置は、上記第3の態様において、前記第1の撮影光学系及び第2の撮影光学系はそれぞれズームレンズを含んでおり、前記記憶部は、前記ズームレンズのズーム位置ごとに、同一距離の被写体に合焦するときの前記第1のフォーカスレンズの第1のレンズ位置と前記第2のフォーカスレンズの第2のレンズ位置とのフォーカス位置ずれ量を予め記憶しており、前記焦点調節部は、前記第2のレンズ位置を算出する際に、前記ズームレンズのズーム位置に対応するフォーカス位置ずれ量を前記記憶部から読み出し、該フォーカス位置ずれ量と前記探索された前記第1のレンズ位置とに基づいて前記第2のレンズ位置を算出するようにしたものである。
 上記第9の態様では、第8の態様と同様に、前記第2のレンズ位置を算出する際に、ズーム位置に対応するフォーカス位置ずれ量を前記記憶部から読み出し、このフォーカス位置ずれ量と前記第1のレンズ位置とに基づいて前記第2のレンズ位置を算出するようにしている。
 本発明の第10の態様は、第1のフォーカスレンズを含む第1の撮影光学系と、該第1の撮影光学系を介して結像される被写体光を光電変換して第1の視点画像を出力する第1の撮像素子とを有する第1の撮像部と、第2のフォーカスレンズを含む第2の撮影光学系と、該第2の撮影光学系を介して結像される被写体光を光電変換して第2の視点画像を出力する第2の撮像素子とを有する第2の撮像部と、同一距離の被写体に合焦するときの前記第1のフォーカスレンズの第1のレンズ位置と前記第2のフォーカスレンズの第2のレンズ位置とのフォーカス位置ずれ量が予め記憶された記憶部とを備えた立体撮像装置の自動焦点調節方法であって、前記第1のフォーカスレンズを所定の第1のサーチ範囲内でサーチ動作させ、該サーチ動作時に前記第1の撮像部から取得される第1の視点画像に基づいて被写体に合焦する前記第1のフォーカスレンズの第1のレンズ位置を探索する工程と、前記第1のサーチ範囲内で探索した第1のレンズ位置に前記第1のフォーカスレンズを移動させる工程と、前記探索された前記第1のレンズ位置に対応する前記第2のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲を決定する工程と、前記決定した第2のサーチ範囲内で前記第2のフォーカスレンズをサーチ動作させ、該サーチ動作時に前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する前記第2のフォーカスレンズの第2のレンズ位置を探索する工程と、前記第2のサーチ範囲内で探索された第2のレンズ位置に前記第2のフォーカスレンズを移動させる工程と、前記第1のサーチ範囲内で前記第1のレンズ位置が見つからなかった場合に、前記第2のフォーカスレンズを前記第1のサーチ範囲内でサーチ動作させ、該サーチ動作時に前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する前記第2のフォーカスレンズの第2のレンズ位置を探索する工程と、前記第1のサーチ範囲内で探索された前記第2のレンズ位置に前記第2のフォーカスレンズを移動させる工程と、前記第1のサーチ範囲内で探索された前記第2のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第1のレンズ位置を算出する工程と、前記算出した第1のレンズ位置に前記第1のフォーカスレンズを移動させる工程とを含む。
 本発明の第11の態様に係る立体撮像装置の自動焦点調節方法は、上記第10の態様において、前記第1のサーチ範囲内で前記第1のレンズ位置を探索することができず、かつ前記第2のレンズ位置が探索できた場合には、前記探索された前記第2のレンズ位置に対応する前記第1のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲を決定する工程と、前記決定した第2のサーチ範囲内で前記第1のフォーカスレンズをサーチ動作させ、該サーチ動作時に前記第1の撮像部から取得される第1の視点画像に基づいて被写体に合焦する前記第1のフォーカスレンズの第1のレンズ位置を探索する工程と、前記第2のサーチ範囲内で探索された第1のレンズ位置に前記第1のフォーカスレンズを移動させる工程とを含む。
 本発明の第12の態様に係る立体撮像装置の自動焦点調節方法は、上記第10又は第11の態様において、前記第2のサーチ範囲内で前記第2のレンズ位置の合焦位置が見つからなかった場合には、前記探索された前記第1のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第2のレンズ位置を算出する工程と、前記算出した第2のレンズ位置に前記第2のフォーカスレンズを移動させる工程とを含む。
 本発明の第13の態様に係る立体撮像装置の自動焦点調節方法は、上記第10から第12のいずれかの態様において、前記立体撮像装置は、前記第1の撮影光学系の光軸と前記第2の撮影光学系の光軸とが交差するクロスポイントに対応する被写体距離の被写体に合焦するフォーカスレンズ位置を記憶するレンズ位置記憶部を有し、前記第1のサーチ範囲内で前記第1のレンズ位置及び第2のレンズ位置がいずれも探索できない場合には、前記レンズ位置記憶部に記憶されたフォーカスレンズ位置に前記第1のフォーカスレンズ及び第2のフォーカスレンズを移動させる工程を含む。
 本発明の第14の態様に係る立体撮像装置の自動焦点調節方法は、上記第10から第12のいずれかの態様において、前記立体撮像装置は、被写体距離ごとに該被写体距離の被写体に合焦するフォーカスレンズ位置を記憶するレンズ位置記憶部を有し、前記第1の撮像部及び第2の撮像部からそれぞれ取得される第1の視点画像及び第2の視点画像を相対的に画像シフトすることにより視差を調整する工程と、前記視差調整部による画像シフトのシフト量に基づいて前記第1の撮影光学系の光軸と前記第2の撮影光学系の光軸との仮想的な光軸の変化後のクロスポイントに対応する被写体距離を算出する工程と、前記第1のサーチ範囲内で前記第1のレンズ位置及び第2のレンズ位置がいずれも探索できない場合には、前記算出された被写体距離に対応するレンズ位置を前記レンズ位置記憶部から読み出し、前記第1のフォーカスレンズ及び第2のフォーカスレンズを前記読み出したレンズ位置に移動させる工程とを含む。
 本発明によれば、第1の撮像部でのAFサーチの結果を利用して、第2の撮像部のサーチ範囲を狭くしてAFサーチを行うようにしたため、トータルのAFサーチの時間の短縮化、効率化を図ることができるとともに、第1、第2の撮像部の個体差の影響を受けない焦点合わせを行うことができる。
 また、前記第1の撮像部の合焦位置を探索することができない場合には、第2の撮像部で同じサーチ範囲をAFサーチし、このAFサーチで取得した第2のフォーカスレンズの合焦位置と予め記憶された第1、第2のフォーカスレンズのフォーカス位置ずれ量とに基づいて第1のフォーカスレンズの合焦位置を算出するようにしたため、前記第1のフォーカスレンズを、第1、第2の撮像部の個体差の影響を受けずに精度よく求めることができる。
本発明の一実施形態に係る立体撮像装置の正面斜視図 本発明の一実施形態に係る立体撮像装置の背面斜視図 図1の立体撮像装置の内部構成を示すブロック図 本発明に係る自動焦点調節方法の第1の実施形態を示すフローチャート 本発明に係る自動焦点調節方法の第1の実施形態を示すフローチャート(つづき) 第1のフォーカスレンズの第1のサーチ範囲及び各サーチ位置(横軸)とAF評価値(縦軸)との関係を示す図 第2のフォーカスレンズの第2のサーチ範囲及び各サーチ位置(横軸)とAF評価値(縦軸)との関係を示す図 第2のフォーカスレンズの合焦位置P2から第1のフォーカスレンズの合焦位置P1を算出する方法を説明するために用いた図 本発明に係る自動焦点調節方法の第2の実施形態を示すフローチャート 本発明に係る自動焦点調節方法の第2の実施形態を示すフローチャート(つづき) 本発明に係る自動焦点調節方法の第2の実施形態の変形例を示す要部フローチャート 本発明に係る自動焦点調節方法の第3の実施形態を示すフローチャート 本発明に係る自動焦点調節方法の第3の実施形態を示すフローチャート(つづき) 本発明に係る自動焦点調節方法の第3の実施形態の変形例を示す要部フローチャート 視差調整を説明するために用いた図 視差調整を説明するために用いた図 視差調整を説明するために用いた図 視差量の自動検出を説明するために用いた図 視差量の自動検出を説明するために用いた図 視差調整した場合の仮想的なクロスポイントを説明するために用いた図
 以下、添付図面に従って本発明に係る立体撮像装置及び立体撮像装置の自動焦点調節方法の実施の形態について説明する。
 [立体撮像装置の外観]
 図1A及び図1Bは本発明の一実施形態に係る立体撮像装置の外観図である。図1Aは立体撮像装置1を斜め上方から見た斜視図であり、図1Bは立体撮像装置1を背面から見た斜視図である。
 図1Aに示すように立体撮像装置1には、2つの撮像部1A,1Bが設けられている。以下、これらの2つの撮像部を第1の撮像部lAと第2の撮像部1Bと記載して区別することにする。
 第1の撮像部1Aと第2の撮像部1Bとは、立体視用の画像信号を取得することが可能なように並べて配置されている。これらの撮像部1A,1Bにより右眼と左眼の2視点の視点画像(第1の視点画像と第2の視点画像)を示す画像信号がそれぞれ生成される。図1の立体撮像装置1の上面にある電源スイッチ10Aが操作され、撮影モードダイヤル10Bが例えば立体モードというモードにセットされてシャッタボタン10Cが操作されると、立体視用の画像データが双方の撮像部1A,1Bで生成される。
 この実施形態の立体撮像装置1が備えるシャッタボタン10Cは半押しと全押しとの2つの操作態様を有しており、この立体撮像装置1では、シャッタボタン10Cが半押しされたときに露出調整やピント調整が実施され、全押しされたときに撮影が実施される。また、被写界輝度が暗いときには被写体に向けてフラッシュを発光するフラッシュ発光窓WDが撮像部1Bの上方に設けられている。
 また、図1Bに示すように、立体撮像装置1の背面には3次元表示が可能な液晶モニタDISPが設けられており、この液晶モニタDISPには双方の撮像部1A,1Bが捉えている同一の被写体が立体画像となって表示される。尚、液晶モニタDISPとしては、レンチキュラレンズやパララックスバリアを使用するもの、偏光メガネ、液晶シャッタメガネなどの専用メガネをかけることで右目用画像と左目用画像とを個別に見ることができるものなどが適用できる。更に、ズームスイッチ10D、メニュー/OKボタン10E、十字キー10Fなどの操作子も配設されている。以降においては、電源スイッチ10A、モードダイヤル10B、シャッタボタン10C、ズームスイッチ10D、メニュー/OKボタン10E、十字キー10Fなどを総称して操作部10と記載することがある。
 [立体撮像装置の内部構成]
 図2は図1の立体撮像装置1の内部構成を示すブロック図である。図2を参照して立体撮像装置1の内部の構成を説明する。
 この立体撮像装置1の動作は、メインCPU(central processing unit)100によって統括的に制御される。
 メインCPU100にはバスBusを介してROM(read-only memory)101が接続されている。そのROM101の中にはこの立体撮像装置1が動作するのに必要なプログラムが格納されている。このプログラムの手順にしたがってメインCPU100は、この立体撮像装置1の動作を統括的に制御する。
 まず、図1に示した操作部10内の電源スイッチ10Aが操作されると、メインCPU100は、電源制御部1001を制御してバッテリBTからの電力を電源制御部1001を通して図2の各部に供給させ、この立体撮像装置1を動作状態に移行させる。こうしてメインCPU100は撮影処理を開始する。尚、AF検出部120、サーチ範囲設定部121、AE/AWB検出部130、画像入力コントローラ114A、デジタル信号処理部116A、3D画像生成部117は、DSP(Digital Signal Processor)等のプロセッサで構成されているとし、メインCPU100はそのDSPと連携して処理を実行するとする。
 ここで、先に図1で説明した第1の撮像部1Aと第2の撮像部1Bの内部の構成を、図2を参照して説明する。尚、第1の撮像部1Aの各構成部材には‘第1の’という文言を付し、第2の撮像部1Bの各構成部材には‘第2’のという文言を付して説明する。
 第1の撮像部1Aには、第1のフォーカスレンズFLAを含む第1の撮影光学系110Aと、その第1のフォーカスレンズFLAを光軸方向に移動させる第1のフォーカスレンズ駆動部(以降、第1のFレンズ駆動部という)104Aと、被写体が第1の撮影光学系で結像されてなる被写体光を受光して、その被写体を表わす画像信号を生成する第1の撮像素子111Aとが設けられている。この第1の撮影光学系110Aには、他に第1の絞りIAと、この第1の絞りIAの開口径を変更する第1の絞り駆動部105Aとが設けられている。
 また、第1の撮影光学系100Aはズームレンズになっており、そのズームレンズを所定の焦点距離にする制御を行うZレンズ駆動部103Aが設けられている。尚、図2には、撮影光学系全体がズームレンズであることが1枚のレンズZLで模式的に示されている。
 一方、第2の撮像部1Bにも上記第1の撮像部1Aと同じように、第2のフォーカスレンズFLBを含む撮影光学系と、第2のフォーカスレンズFLBを光軸方向に移動させる第2のフォーカスレンズ駆動部(以降、第2のFレンズ駆動部という)104Bと、被写体が第2の撮影光学系で結像されてなる被写体光を受光して、その被写体を表わす画像信号を生成する第2の撮像素子111Bとが設けられている。
 これらの第1の撮像部1Aと第2の撮像部1Bとで立体視用の画像信号、つまり第1の撮像部1Aでは右眼用の画像信号が生成され、第2の撮像部1Bでは左眼用の画像信号がそれぞれ生成される。
 第1の撮像部1Aと第2の撮像部1Bとは右眼用の画像信号を生成するか、左眼用の画像信号を生成するかの違いだけで構成が同じである。第1のA/D変換部113Aと第2のA/D変換部113Bで双方の撮像部の画像信号がデジタル信号に変換されてバスBusに導かれた後の信号処理も同じである。したがって、以下、第1の撮像部1Aについて画像信号の流れに沿ってその構成を説明する。
 まず、第1の撮像部1Aと第2の撮像部1Bが捉えている被写体をそのままスルー画として液晶モニタDISP上に表示する際の動作から説明する。
 操作部10内の電源スイッチ10Aが操作されたことを受けてメインCPU100は、電源制御部1001を制御し、各部にバッテリBTからの電力を供給させてこの立体撮像装置1を動作状態に移行させる。
 メインCPU100は、まず、Fレンズ駆動部104Aと絞り駆動部105Aとを制御して露出及びピントの調整を開始する。更に、タイミングジェネレータ(TG)106Aに指示して撮像素子111Aに電子シャッタによる露光時間を設定させ、例えば1/60秒ごとに撮像素子111Aからアナログ信号処理部112Aに画像信号を出力させる。
 アナログ信号処理部112Aでは、TG106Aからのタイミング信号の供給を受け、撮像素子111Aからの1/60秒ごとの画像信号の供給を受けてノイズの低減処理等が行われ、ノイズの低減処理が行われたアナログの画像信号が次段のA/D変換部113Aへと供給される。このA/D変換部113AにおいてもTG106Aからのタイミング信号に同期して、1/60秒ごとにアナログの画像信号からデジタルの画像信号への変換処理が行われる。こうしてA/D変換部113Aで変換され出力されてくるデジタルの画像信号が、画像入力コントローラ114Aによって1/60秒ごとにバスBusに導かれ、このバスBusに導かれた画像信号はSDRAM(synchronous dynamic random access memory)115に記憶される。撮像素子111Aからは1/60秒ごとに画像信号が出力されるので、このSDRAM115の内容は1/60秒ごとに書き換えられることになる。
 このSDRAM115に記憶された画像信号は、AF検出部120、AE/AWB検出部130、及びデジタル信号処理部116Aを構成するDSPによって1/60秒ごとにそれぞれ読み出される。
 AF検出部120では、メインCPU100がFレンズ駆動部104Aを制御してフォーカスレンズFLAを移動させている最中の1/60秒ごとに、フォーカスエリア(AFエリア)内の画像信号の高周波成分を抽出し、その高周波成分を積算して画像のコントラストを示すAF評価値を算出する。メインCPU100は、AF検出部120により算出されたAF評価値を取得し、AF評価値が最大になるレンズ位置(合焦位置)にFレンズ駆動部104Aを介して第1のフォーカスレンズFLAを移動させる。このため、第1の撮像部1Aがどの方向に向けられてもすぐにピントが調整されて、液晶モニタDISP上には、ほぼいつでもピントのあった被写体が表示される。
 また、AE/AWB検出部130では、被写体輝度の検出とデジタル信号処理部116A内のホワイトバランスアンプに設定するゲインの算出が1/60秒ごとに行われる。メインCPU100は、このAE/AWB検出部130の輝度の検出結果に応じて絞り駆動部105Aを制御して絞りIAの開口径を変更させる。またデジタル信号処理部116Aは、AE/AWB検出部130からの検出結果を受けてホワイトバランスアンプのゲインを設定する。
 このデジタル信号処理部116Aでは、表示に適した画像信号になるように処理が行われる。そのデジタル信号処理部116Aの信号処理により表示に適したものに変換された画像信号が、3D画像生成部117へと供給されてその3D画像生成部117で表示用の右眼用の画像信号が生成される。生成された右眼用の画像信号がVRAM(video Random Access Memory)118に記憶される。
 ここまでの動作と同じ動作が、同じタイミングで第2の撮像部1Bによっても行われる。したがって、VRAM118には、右眼用と左眼用との2種類の画像信号が記憶されることになる。
 メインCPU100は、表示制御部119にVRAM118内の右眼用の画像信号と左眼用の画像信号とを転送して液晶モニタDISP上に画像を表示させる。図1の液晶モニタDISPに右眼用の画像信号と左眼用の画像信号とが表示されると、人の眼には液晶モニタDISP上の画像が立体的に見えるようになる。第1、第2の撮像素子111A,111Bからは一例で1/60秒ごとに画像信号が出力される。これにより、VRAM118内の画像信号は一例で1/60秒ごとに書き換えられ、液晶モニタDISP上の立体画像も1/60秒ごとに切り替えられて表示され、立体画像が動画となって表示される。
 ここで、液晶モニタDISP上の被写体が参照され操作部10の中のシャッタボタン10Cが半押し操作されると、メインCPU100は、AE/AWB検出部130でシャッタボタン10Cが全押しされる直前に検出されたAE値を受け取り、第1、第2の絞り駆動部105A,105Bを介して第1、第2の絞りIA、IBをAE値に応じた絞り径にさせるとともに、第1のFレンズ駆動部104Aを介して第1のフォーカスレンズFLAを第1のサーチ範囲で移動させながら、AF検出部120によりAF評価値の算出を行わせる。
 メインCPU100は、AF検出部120により算出されたAF評価値に基づいてAF評価値が最大になる第1のフォーカスレンズFLAのレンズ位置(以下、「第1のレンズ位置P1」という)を検出し、この第1のレンズ位置Plに第1のフォーカスレンズFLAを移動させる。
 一方、第2の撮影光学系については、メインCPU100は、第1のサーチ範囲よりも狭い第2のサーチ範囲内で第2のフォーカスレンズFLBを移動させ、AF検出部120によりAF評価値を算出させる。メインCPU100はAF検出部120からのAF評価値を受け取り、AF評価値が最大になる第2のフォーカスレンズFLBのレンズ位置(以下、「第2のレンズ位置P2」という)を検出し、この第2のレンズ位置P2に第2のフォーカスレンズFLBを移動させる。
 詳細は後述するが、このときには、AF検出部120が、サーチ範囲設定部121に、第1のフォーカスレンズFLAの第1のレンズ位置P1と、フラッシュROM102から読み出したサーチ範囲を示すデータ(近傍側偏差Nと遠方側偏差F)とに基づいて第1のフォーカスレンズの第1のレンズ位置P1に対応したレンズ位置を中心に第1のサーチ範囲よりも狭い第2のサーチ範囲を算出させる。そして、メインCPU100がその第2のサーチ範囲の算出結果を受け取り、第2のFレンズ駆動部104Bを介して第2のサーチ範囲内で第2のレンズ位置P2(合焦位置)を探索するAFサーチを行わせる。
 このように第1の撮像部1AのフォーカスレンズFLAには従来どおりのAFサーチを行わせ、第2の撮像部1Bには第1のフォーカスレンズのレンズ位置に対応したレンズ位置を含む第1のサーチ範囲よりも狭い第2のサーチ範囲でAFサーチを行わせる。これにより、第2のフォーカスレンズFLBによるAFサーチの短縮化を図ることができる。
 そして、シャッタボタン10Cが全押しされると、メインCPU100は、第1、第2のTG106A,106Bを介して第1の撮像素子111A,第2の撮像素子111Bに所定のシャッタ速度だけ露光させ、静止画の撮影を行わせる。メインCPU100は、電子シャッタのオフタイミングで第1、第2の撮像素子111A,111Bから画像信号を第1、第2のアナログ信号処理部112A,112Bへと出力させ、第1、第2のアナログ信号処理部112A,112Bにノイズの低減処理を行わせる。その後、第1、第2のA/D変換部113A,113Bでアナログの画像信号をデジタルの画像信号に変換させる。
 ここで、メインCPU100の指示にしたがって、第1、第2の画像入力コントローラ114A,114Bが、第1、第2のA/D変換部113A,113Bで変換されたデジタルの画像信号をバスBusを経由して一旦SDRAM115に記憶させる。その後、デジタル信号処理部116A,116BがSDRAM115の画像信号を読み出し、ホワイトバランス補正、ガンマ補正、単板CCDのカラーフィルタ配列に伴うR,G,Bなどの色信号の空間的なズレを補間して各色信号の位置を合わせる同時化処理、輪郭補正、輝度・色差信号(YC信号)生成等を含む画像処理を行い、3D画像生成部117に送出する。
 続いて、メインCPU100は、3D画像生成部117内の右眼用の画像信号と左目用の画像信号を、バスBusを使って圧縮・伸張処理部150に供給する。メインCPU100は、この圧縮・伸張処理部150に画像データの圧縮を行わせた後、その圧縮された画像データをメディア制御部160にバスBusを使って転送するとともに、その圧縮や撮影に係るヘッダ情報をメディア制御部160に供給してメディア制御部160に所定形式の画像ファイル(例えば、3Dの静止画は、MP(マルチピクチャ)フォーマットの画像ファイル)を生成させメモリカード161にその画像ファイルを記録させる。
 この実施形態の構成では、第1の撮像部1Aと第2の撮像部1Bとの間に個体差があっても、それぞれAFサーチを行って合焦する第1のレンズ位置P1,第2のレンズ位置P2に第1、第2のフォーカスレンズFLA,FLBを移動させる。このため、その個体差が解消され、また、第2の撮影光学系の第2のフォーカスレンズFLBのAFサーチを含むAF処理の時間を短縮することができる。
 尚、図2には、他にフラッシュ制御部180とそのフラッシュ制御部180からの指示を受けて図1の発光窓WDからフラッシュを発光するフラッシュ181や現在の時刻を検知するための時計部W、更にはこの立体撮像装置1の姿勢を検出する姿勢検出センサ190が図示されている。
 [第1の実施形態]
 次に、本発明に係る自動焦点調節方法の第1の実施形態について、図3A及び図3Bに示すフローチャートを参照しながら説明する。
 図3Aにおいて、メインCPU100が、シャッタボタン10Cが半押しされたかどうかを判別する(ステップS10)。このステップS10でメインCPU100が、シャッタボタン10Cが半押しされていないと判別すると、No側へ進んでステップS10の処理を繰り返し、このステップS10でシャッタボタン10Cが半押しされたと判別すると、Yes側へ進む。そして、Yes側へ進むと、ステップS12でメインCPU100からの撮影準備指示を受けてDSP内のAE/AWB検出部130がAE動作を開始し、更にステップS14へ進んで、DSP内のAF検出部120がAF動作を開始する。
 ステップS14のAF動作の開始に伴ってステップS16で、メインCPU100が、まず第1のフォーカスレンズFLAの第1のサーチ範囲を設定する。
 図4Aは、第1のフォーカスレンズFLAの第1のサーチ範囲と、各サーチ位置(第1のフォーカスレンズFLAの各レンズ位置)とAF評価値(縦軸)との関係を示す図である。
 図4Aに示すように第1のサーチ範囲は、例えば至近端(Pn)から無限遠端(Pf)である。尚、ズーム倍率に応じてフォーカスレンズの移動範囲が異なるため、前記サーチ範囲は、ズーム倍率に応じて異なる範囲が設定される。
 続いて、メインCPU100は、ステップS18で第1撮影光学系の第1のフォーカスレンズFLAを上記第1のサーチ範囲内で移動させ、第1のフォーカスレンズFLAが所定のレンズ位置に達するごとに(フォーカスレンズFLAをパルス駆動する場合には、所定のパルス数だけ駆動するごとに)、AF検出部120を介してAF評価値を取得する。
 次に、前記取得したAF評価値に基づいてAFエリアの被写体に合焦する第1のフォーカスレンズFLAの第1合焦位置(レンズ位置)P1を検出することができるか否かを判別する(ステップS20)。例えば、画像のコントラストが低く、その結果、上記取得したAF評価値がいずれも所定の閾値に達しない場合、あるいは単調増加又は単調減少している場合(ピークが存在しない場合)には、合焦位置が検出できないと判別する。
 第1合焦位置が検出できると判別されると、前記取得したAF評価値が最大になるレンズ位置を含む前後の複数のレンズ位置とそのAF評価値に基づいて各AF評価値を通るAF評価値の近似曲線を求め、その近似曲線が極大値となるレンズ位置P1を第1合焦位置として取得する(ステップS22)。尚、上記第1のサーチ範囲内でのAFサーチ時に、AF評価値が増加したのちAF評価値が減少した場合には、サーチ動作を停止して上記のようにAF評価値が極大値となるレンズ位置P1を演算するようにしてもよい。
 次のステップS24では、AF検出部120がそのレンズ位置P1をサーチ範囲設定部121に供給するとともに、フラッシュROM102からサーチの開始位置データNとサーチの終了位置データFを読み出してサーチ範囲設定部121に供給し、サーチ範囲設定部121によりレンズ位置P1を中心に第1のサーチ範囲よりも狭い第2のサーチ範囲を設定させる。
 この第2のサーチ範囲は、図4Bに示すようにサーチ開始位置をPn′、サーチ終了位置をPf′とすると、次式に示すように設定される。
 [数1]
 Pn′=P1+N、Pf′=P1-F
 続いて、メインCPU100は、前記設定された第2のサーチ範囲で第2のフォーカスレンズFLBを移動させ、第2のフォーカスレンズFLBが所定のレンズ位置に達するごとにAF検出部120を介してAF評価値を取得する(ステップS26)。そして、第1のレンズ位置P1の取得と同様にして、ステップS26で取得したAF評価値が最大になるレンズ位置を含む前後の複数のレンズ位置とそのAF評価値に基づいて各AF評価値を通るAF評価値の近似曲線を求め、その近似曲線の極大値に対応する第2のレンズ位置P2を合焦位置として取得する(ステップS28)。
 一方、ステップS20で合焦位置が検出できないと判別されると、図3Bに示すステップS30に遷移させる。
 ステップS30では、図5に示すように第2のフォーカスレンズFLBの第1のサーチ範囲(例えば、至近端(Pn)から無限遠端(Pf))を設定する。この第1のサーチ範囲は、ステップS16で設定された第1のフォーカスレンズFLAの第1のサーチ範囲と同じである。
 続いて、メインCPU100は、ステップS32で第2撮影光学系の第2のフォーカスレンズFLBを上記第1のサーチ範囲内で移動させ、第2のフォーカスレンズFLBが所定のレンズ位置に達するごとにAF検出部120を介してAF評価値を取得する。その後、前記取得したAF評価値が最大になるレンズ位置を含む前後の複数のレンズ位置とそのAF評価値に基づいて各AF評価値を通るAF評価値の近似曲線を求め、その近似曲線が極大値となるレンズ位置P2を第2合焦位置として取得する(ステップS34)。
 次に、フラッシュROM102から同一距離の被写体に合焦するときの第1のフォーカスレンズFLAのレンズ位置と第2のフォーカスレンズFLBのレンズ位置とのフォーカス位置ずれ量Df(例えば、第2のフォーカスレンズFLBのレンズ位置に対応するパルス数から第1のフォーカスレンズFLAのレンズ位置に対応するパルス数を減算した値)を読み出す(ステップS36)。
 尚、フラッシュROM102には、出荷前の調整時に予め同一距離の被写体に合焦するときの第1のフォーカスレンズFLAのレンズ位置と第2のフォーカスレンズFLBのレンズ位置とのフォーカス位置ずれ量Dfが検出され、この検出された値が記憶されているものとする。
 また、このフォーカス位置ずれ量Dfは、ズームレンズのズーム倍率(ズーム位置)によっても異なるため、各ズーム位置ごとに検出されてフラッシュROM102に記憶されている。したがって、ステップS36では、現在のズームレンズのズーム位置に基づいて対応するフォーカス位置ずれ量Dfを読み出す。
 次に、図5に示すように第2のフォーカスレンズFLBのAFサーチにより探索された第2のレンズ位置P2と、ステップS36で取得されたフォーカス位置ずれ量Dfとに基づいて、次式により第1のフォーカスレンズFLAの合焦位置(第1のレンズ位置)P1を算出する(ステップS38)。
 [数2]
 P1=P2-Df
 ステップS38の処理が終了すると、図3AのステップS40に遷移する。
 ステップS40では、第1のフォーカスレンズFLAの第1のレンズ位置P1が第1のサーチ範囲から探索された場合には、ステップS22及びステップS28により取得された第1のレンズ位置P1及び第2のレンズ位置P2にそれぞれ第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBを移動させ、一方、第1のフォーカスレンズFLAの第1のレンズ位置P1が第1のサーチ範囲から探索できなかった場合には、ステップS38により算出された第1のレンズ位置P1、及びステップS34に取得された第2のレンズ位置P2にそれぞれ第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBを移動させ、これによりAF動作を終了させる(ステップS42)。
 上記AF動作が終了した後、メインCPU100はシャッタボタン10Cの全押しがされたか否かを判別する(ステップS44)。このステップS44でメインCPU100が、シャッタボタン10Cが全押しされないと判別するとNo側へ進んでステップS44の処理を繰り返し、シャッタボタン10Cが全押しされたと判別すると、Yes側へ進んで撮影処理を実行し(ステップS46)、このフローの処理を終了する。
 尚、第1の実施形態の第1のレンズ位置P1を中心に前後のN、Fに設定される第2のサーチ範囲としては、例えば第1のフォーカスレンズFLAと第2のフォーカスレンズFLBとのフォーカス位置ずれ量Dfと、温度や姿勢等による変化量(サーチ余裕分)とを考慮して決定することができる。また、第1の実施形態では、第1のレンズ位置P1を中心にサーチ範囲を設定するようにしたが、フォーカス位置ずれ量Dfにより補正された第1のレンズ位置P1(第2のレンズ位置P2に相当)を中心に第2のサーチ範囲を設定するようにしてもよい。これによれば、第2のサーチ範囲をより狭くすることができる。
 [第2の実施形態]
 次に、本発明に係る自動焦点調節方法の第2の実施形態について、図6A及び図6Bに示すフローチャートを参照しながら説明する。尚、図6A及び図6Bにおいて、図3A及び図3Bに示した第1の実施形態のフローチャートと共通する部分には同一のステップ番号を付し、その詳細な説明は省略する。
 図6A及び図6Bに示す第2の実施形態は、図6Bの処理が図3Bの処理と相違し、特にステップS34の後段にステップS50、ステップS52、ステップS54及びステップS56の処理が追加されている点で、図3Bの処理と相違する。
 即ち、図6BのステップS34で、第2のフォーカスレンズFLBの合焦位置(第2のレンズ位置)P2が取得されると、その後、ステップS24の処理と同様に、第1のサーチ範囲よりも狭い第2のサーチ範囲を設定する(ステップS50)。
 この第2のサーチ範囲は、サーチ開始位置をPn′、サーチ終了位置をPf′とすると、次式に示すように設定される(図4B参照)。
 [数3]
 Pn′=P2+N、Pf′=P2-F
 続いて、メインCPU100は、前記設定された第2のサーチ範囲で第1のフォーカスレンズFLAを移動させ、第1のフォーカスレンズFLAが所定のレンズ位置に達するごとにAF検出部120を介してAF評価値を取得する(ステップS52)。そして、メインCPU100は、前記取得したAF評価値に基づいてAFエリアの被写体に合焦する第1のフォーカスレンズFLAの第1合焦位置(レンズ位置)P1を検出することができるか否かを判別する(ステップS54)。
 第1合焦位置が検出できると判別されると、メインCPU100は、前記取得したAF評価値が最大になるレンズ位置を含む前後の複数のレンズ位置とそのAF評価値に基づいて各AF評価値を通るAF評価値の近似曲線を求め、その近似曲線が極大値となるレンズ位置P1を第1合焦位置として取得する(ステップS56)。
 尚、ステップS20において、第1のサーチ範囲内でのAFサーチ時に第1合焦位置が検出できないと判別されても、前記第2のサーチ範囲内での再サーチにより第1合焦位置が検出できる場合がある。これは、再サーチ時に第1の撮像部lAから時間的に異なる画像信号が取得され、その結果、AF評価値も異なるからである。また、第2のサーチ範囲には、第1のフォーカスレンズFLAの第1合焦位置が存在する可能性が高いため、この第2のサーチ範囲内での再サーチ時には、合焦位置が検出できるか否かを判定するための閾値を第1のサーチ範囲のときよりも低く設定するようにしてもよい。
 一方、ステップS54において、第2のサーチ範囲内で再サーチ時に第1のフォーカスレンズFLAの第1合焦位置を検出することができないと判別されると、ステップS36に遷移し、第1の実施形態と同様に第1の合焦位置(レンズ位置P1)を算出する。
 [第2の実施形態の変形例]
 図7は第2の実施形態の変形例を示す要部フローチャートである。以下、第2の実施形態との相違点のみ説明する。
 図6A及び図6Bに示す第2の実施形態では、ステップS28により第2のフォーカスレンズFLBの第2合焦位置が取得される場合のみが示されているが、図7に示す第2の実施形態の変形例では、第2のフォーカスレンズFLBの第2合焦位置を探索することができない場合の処理が追加されている。
 即ち、図7に示すように第2の実施形態の変形例では、図6AのステップS26とステップS28との間に、ステップS60が追加され、更にステップS60から分岐するステップS62及びステップS64が追加されている。
 ステップS60では、ステップS26で取得したAF評価値に基づいてAFエリアの被写体に合焦する第2のフォーカスレンズFLBの第2合焦位置(レンズ位置)P2を検出することができるか否かを判別する。第2合焦位置が検出できると判別されると、ステップS28に遷移し、検出できないと判別されると、ステップS62に遷移する。
 ステップS62では、フラッシュROM102から同一距離の被写体に合焦するときの第1のフォーカスレンズFLAのレンズ位置と第2のフォーカスレンズFLBのレンズ位置とのフォーカス位置ずれ量Dfを読み出す。そして、第1のフォーカスレンズFLAのAFサーチにより探索された第1のレンズ位置P1と、この第1のレンズ位置P1に対応してフラッシュROM102から読み出されたフォーカス位置ずれ量Dfとに基づいて、次式により第2のフォーカスレンズFLBの合焦位置(第2のレンズ位置)P2を算出する(ステップS64)。
 [数4]
 P2=P1+Df
 ステップS64の処理が終了すると、ステップS40に遷移する。
 これにより、第2のサーチ範囲内で第2のレンズ位置の合焦位置が見つからなかった場合には、上記[数4]式により第2のレンズ位置P2を算出することができるようにしている。
 [第3の実施形態]
 次に、本発明に係る自動焦点調節方法の第3の実施形態について、図8A及び図8Bに示すフローチャートを参照しながら説明する。尚、図8A及び図8Bにおいて、図3A及び図3Bに示した第1の実施形態のフローチャートと共通する部分には同一のステップ番号を付し、その詳細な説明は省略する。
 図8A及び図8Bに示す第3の実施形態は、図8Bの処理が図3Bの処理と相違し、特にステップS32の後段にステップS70が追加され、更にステップS70から分岐するステップS72が追加されている点で、図3Bの処理と相違する。
 即ち、図8BのステップS32により取得したAF評価値に基づいてAFエリアの被写体に合焦する第2のフォーカスレンズFLBの第2合焦位置(レンズ位置)P2を検出することができるか否かを判別する(ステップS70)。
 ステップS70で第2合焦位置が検出できると判別されると、ステップS34に遷移し、第1の実施形態と同様の処理が行われる。
 一方、ステップS70で第2合焦位置が検出できないと判別されると、ステップS72に遷移させ、ここで、第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBを、それぞれクロスポイントに対応する被写体距離の被写体に合焦する、予め設定された第1のレンズ位置P1及び第2のレンズ位置P2に移動させる。
 ここで、クロスポイントとは、第1の撮影光学系110Aの光軸と第2の撮影光学系110Bの光軸とが交差するポイント(輻輳点)であり、この立体撮像装置1の場合には、クロスポイントまでの距離が2000mmになるように調整されている。
 尚、フラッシュROM102には、出荷前の調整時に予めクロスポイントの被写体に合焦するときの第1のフォーカスレンズFLAのレンズ位置と第2のフォーカスレンズFLBのレンズ位置とが検出され、これらの検出されたレンズ位置が記憶されているものとする。また、第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBのうちのいずれか一方のレンズ位置のみを記憶し、他方のレンズ位置は、記憶したレンズ位置とそのレンズ位置に対応するフォーカス位置ずれ量Dfとに基づいて求めるようにしてもよい。
 この第3の実施形態によれば、第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBのいずれも合焦位置を探索することができない場合には、クロスポイント位置の被写体に合焦するように第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBを移動させるようにしたため、このクロスポイント及びその近傍に主要被写体が存在する場合に、主要被写体に合焦した、立体視に適した左目用画像及び右目用画像を取得することができる。尚、クロスポイントの距離にある被写体の被写体像は、視差量がほとんど発生しないことから、過度な立体感が生じない。このため、クロスポイントの距離にある被写体の被写体像については、ユーザが立体視する際に不快感を感じることが少ないことができる。
 [第3の実施形態の変形例]
 図9は第3の実施形態の変形例を示す要部フローチャートである。以下、第3の実施形態の変形例と第3の実施形態との相違点のみ説明する。
 第3の実施形態の変形例は、第3の実施形態の図8Bに示す処理の代わりに、図9に示す処理を行う点で、第3の実施形態と相違する。
 即ち、図9に示すフローチャートでは、図8Bに示すフローチャートに対してステップS80及びステップS82が追加されている。
 図9のステップS80では、立体視用の左画像と右画像との間の視差調整が行われているか否かが判別される。
 図10Aから図10Cは、視差調整を説明するための図である。図10Aに示すようにクロスポイント位置に被写体が存在する場合には、左画像と右画像上の被写体の視差はほとんど発生しない。一方、図10Bに示すようにクロスポイント位置よりも遠側(INF側)に被写体が位置している場合には、右画像上の被写体の位置は、左画像上の被写体の位置よりも右側にシフトする。逆にクロスポイント位置よりも近側に被写体が位置している場合には、右画像上の被写体の位置は、左画像上の被写体の位置よりも左側にシフトする。
 即ち、被写体がクロスポイント位置から遠ざかり、又は近づくと、その距離に応じて左画像と右画像上の被写体の水平視差が大きくなっていき、立体像の過度の奥まり、又は飛び出しが生じる。したがって、適切な立体視には、被写体距離に応じた視差調整が不可欠である。
 この視差調整には、操作部10における視差調整ボタンの操作により、左画像と右画像との切り出し位置(オフセット値)を調整して画像シフトさせるマニュアル視差調整と、主要被写体の視差量を検出し、その視差量がゼロになるようにオフセット値を設定して画像シフトさせる自動視差調整とがある。
 マニュアル視差調整は、図10Cに示すように液晶モニタDISP上にスルー画として表示されている左右の画像(立体画像)を見ながら、視差調整ボタンを操作することにより行う。尚、このマニュアル調整は、必ずしも主要被写体の位置を合わせるように視差調整する場合に限らず、ユーザの立体視の好みにより適宜調整することができる。
 また、自動視差調整は、図11Aに示すように左画像のAFエリア内の画像(被写体)の特徴点を抽出し、抽出された特徴点に対応する右画像上の特徴点を検出し、これらの対応する特徴点間の視差ベクトルを求める(図11B)。求めた視差ベクトルの代表値(平均値、中央値、最頻値等)を視差量とし、その視差量がゼロになるオフセット値を設定することで視差量がゼロとなる画像シフトを行う。
 図9に戻って、ステップS80では、上記マニュアル視差調整又は自動視差調整により視差調整が行われたか否か(即ち、オフセット値がゼロか否か)により、視差調整が行われているか否かが判別される。
 視差調整が行われていないと判別されると、第3の実施形態と同様に、予め設定されているクロスポイント(2000mmの距離)の被写体に合焦するレンズ位置に第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBを移動させる(ステップS72)。
 一方、視差調整が行われていると判別されると、視差量が略ゼロの被写体に合焦するレンズ位置に第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBを移動させる(ステップS82)。
 いま、図12に示すようにクロスポイントCPよりも被写体が遠側に位置している場合、視差調整後の視差量が略ゼロになる被写体距離(仮想的なクロスポイントの距離)Dvは、次式により求めることができる。
 [数5]
 Dv=SB×tan{90°-atan(SB/CP)+atan(P/(f×1000))}
 ここで、
 CP:クロスポイントの距離(単位mm)
 SB:ステレオベース(撮像系光軸の水平距離:単位mm)
 f:焦点距離(単位mm)
 P:視差調整量=(画像シフト画素数×画素ピッチ:単位μm)
 Dv:仮想的なクロスポイントの距離(単位:mm)
 ステップS82では、上記[数5]式により算出した仮想的なクロスポイントの距離Dv及びズームレンズのズーム位置(焦点距離f)に基づいて、予め被写体距離及びズーム位置ごとにその被写体距離の被写体に合焦する第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBのレンズ位置が記憶されているフラッシュROM102から対応するレンズ位置を読み出し、読み出したレンズ位置に第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBを移動させる。
 この第3の実施形態の変形例によれば、第1のフォーカスレンズFLA及び第2のフォーカスレンズFLBのいずれも合焦位置を探索することができず、また、視差調整が行われている場合には、その視差調整の対象となっている視差量が略ゼロの被写体に合焦させることができる。
 尚、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であり、また、各実施形態を適宜組み合わせたものでもよいことは言うまでもない。
 1…立体撮像装置、1A…第1の撮像部、1B…第2の撮像部、10…操作部、100…メインCPU、101…ROM、102…フラッシュROM、104A…第1のフォーカスレンズ駆動部、104B…第2のフォーカスレンズ駆動部、110A…第1の撮影光学系、110B…第2の撮影光学系、111A…第1の撮像素子、111B…第2の撮像素子、120…AF検出部、121…サーチ範囲設定部、FLA…第1のフォーカスレンズ、FLB…第2のフォーカスレンズ

Claims (14)

  1.  第1のフォーカスレンズを含む第1の撮影光学系と、該第1の撮影光学系を介して結像される被写体光を光電変換して第1の視点画像を出力する第1の撮像素子とを有する第1の撮像部と、
     第2のフォーカスレンズを含む第2の撮影光学系と、該第2の撮影光学系を介して結像される被写体光を光電変換して第2の視点画像を出力する第2の撮像素子とを有する第2の撮像部と、
     同一距離の被写体に合焦するときの前記第1のフォーカスレンズの第1のレンズ位置と前記第2のフォーカスレンズの第2のレンズ位置とのフォーカス位置ずれ量が予め記憶された記憶部と、
     前記第1のフォーカスレンズを所定の第1のサーチ範囲内でサーチ動作させ、前記第1の撮像部から取得される第1の視点画像に基づいて被写体に合焦する第1のレンズ位置を探索し、該第1のレンズ位置に前記第1のフォーカスレンズを移動させ、前記第2の撮影光学系については、前記探索された前記第1のレンズ位置に対応する前記第2のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲内で前記第2のフォーカスレンズをサーチ動作させ、前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する第2のレンズ位置を探索し、該第2のレンズ位置に前記第2のフォーカスレンズを移動させる焦点調節部とを備え、
     前記焦点調節部は、前記第1のサーチ範囲内で前記第1のレンズ位置の合焦位置が見つからなかった場合には、前記第2のフォーカスレンズを前記第1のサーチ範囲内でサーチ動作させ、前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する第2のレンズ位置を探索し、該第2のレンズ位置に前記第2のフォーカスレンズを移動させ、前記探索された前記第2のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第1のレンズ位置を算出し、該第1のレンズ位置に前記第1のフォーカスレンズを移動させる、立体撮像装置。
  2.  前記焦点調節部は、前記第1のサーチ範囲内で前記第1のレンズ位置を探索することができず、かつ前記第2のレンズ位置が探索できた場合には、前記探索された前記第2のレンズ位置に対応する前記第1のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲内で前記第1のフォーカスレンズをサーチ動作させ、前記第1の撮像部から取得される第1の視点画像に基づいて被写体に合焦する第1のレンズ位置を探索し、該第1のレンズ位置に前記第1のフォーカスレンズを移動させ、前記第2のサーチ範囲内で前記第1のレンズ位置の合焦位置が見つからなかった場合には、前記探索された前記第2のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第1のレンズ位置を算出し、該第1のレンズ位置に前記第1のフォーカスレンズを移動させる、請求項1に記載の立体撮像装置。
  3.  前記焦点調節部は、前記第2のサーチ範囲内で前記第2のレンズ位置の合焦位置が見つからなかった場合には、前記探索された前記第1のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第2のレンズ位置を算出し、該第2のレンズ位置に前記第2のフォーカスレンズを移動させる、請求項1又は2に記載の立体撮像装置。
  4.  前記焦点調節部は、前記第1の撮影光学系の光軸と前記第2の撮影光学系の光軸とが交差するクロスポイントに対応する被写体距離の被写体に合焦するフォーカスレンズ位置を記憶するレンズ位置記憶部を有し、前記第1のサーチ範囲内で前記第1のレンズ位置及び第2のレンズ位置がいずれも探索できない場合には、前記レンズ位置記憶部に記憶されたフォーカスレンズ位置に前記第1のフォーカスレンズ及び第2のフォーカスレンズを移動させる、請求項1から3のいずれかに記載の立体撮像装置。
  5.  前記第1の撮像部及び第2の撮像部からそれぞれ取得される第1の視点画像及び第2の視点画像を相対的に画像シフトすることにより視差を調整する視差調整部と、
     前記視差調整部による画像シフトのシフト量に基づいて前記第1の撮影光学系の光軸と前記第2の撮影光学系の光軸との仮想的な光軸の変化後のクロスポイントに対応する被写体距離を算出する距離算出部とを備え、
     前記焦点調節部は、被写体距離ごとに該被写体距離の被写体に合焦するフォーカスレンズ位置を記憶するレンズ位置記憶部を有し、前記第1のサーチ範囲内で前記第1のレンズ位置及び第2のレンズ位置がいずれも探索できない場合には、前記算出された被写体距離に対応するレンズ位置を前記レンズ位置記憶部から読み出し、前記第1のフォーカスレンズ及び第2のフォーカスレンズを前記読み出したレンズ位置に移動させる、請求項1から3のいずれかに記載の立体撮像装置。
  6.  前記第1の撮像部及び第2の撮像部からそれぞれ取得される第1の視点画像及び第2の視点画像に基づいて立体画像を表示させる立体表示部を備え、
     前記視差調整部は、視差をマニュアル調整するための操作部材と、該操作部材の操作に応じて前記第1の視点画像及び第2の視点画像の前記立体表示部における表示位置を相対的に画像シフトさせる第1の画像シフト部とを有する、請求項5に記載の立体撮像装置。
  7.  前記視差調整部は、前記第1の撮像部及び第2の撮像部からそれぞれ取得される第1の視点画像及び第2の視点画像のフォーカスエリアにおける被写体の位置ずれを検出する検出部と、前記検出された位置ずれがゼロになるように前記第1の視点画像及び第2の視点画像を相対的に画像シフトさせる第2の画像シフト部とを有する、請求項5又は6に記載の立体撮像装置。
  8.  前記第1の撮影光学系及び第2の撮影光学系はそれぞれズームレンズを含んでおり、
     前記記憶部は、前記ズームレンズのズーム位置ごとに、同一距離の被写体に合焦するときの前記第1のフォーカスレンズの第1のレンズ位置と前記第2のフォーカスレンズの第2のレンズ位置とのフォーカス位置ずれ量を予め記憶しており、
     前記焦点調節部は、前記第1のレンズ位置を算出する際に、前記ズームレンズのズーム位置に対応するフォーカス位置ずれ量を前記記憶部から読み出し、該フォーカス位置ずれ量と前記探索された前記第2のレンズ位置とに基づいて前記第1のレンズ位置を算出する、請求項1又は2に記載の立体撮像装置。
  9.  前記第1の撮影光学系及び第2の撮影光学系はそれぞれズームレンズを含んでおり、
     前記記憶部は、前記ズームレンズのズーム位置ごとに、同一距離の被写体に合焦するときの前記第1のフォーカスレンズの第1のレンズ位置と前記第2のフォーカスレンズの第2のレンズ位置とのフォーカス位置ずれ量を予め記憶しており、
     前記焦点調節部は、前記第2のレンズ位置を算出する際に、前記ズームレンズのズーム位置に対応するフォーカス位置ずれ量を前記記憶部から読み出し、該フォーカス位置ずれ量と前記探索された前記第1のレンズ位置とに基づいて前記第2のレンズ位置を算出する、請求項3に記載の立体撮像装置。
  10.  第1のフォーカスレンズを含む第1の撮影光学系と、該第1の撮影光学系を介して結像される被写体光を光電変換して第1の視点画像を出力する第1の撮像素子とを有する第1の撮像部と、
     第2のフォーカスレンズを含む第2の撮影光学系と、該第2の撮影光学系を介して結像される被写体光を光電変換して第2の視点画像を出力する第2の撮像素子とを有する第2の撮像部と、
     同一距離の被写体に合焦するときの前記第1のフォーカスレンズの第1のレンズ位置と前記第2のフォーカスレンズの第2のレンズ位置とのフォーカス位置ずれ量が予め記憶された記憶部と、
     を備えた立体撮像装置の自動焦点調節方法であって、
     前記第1のフォーカスレンズを所定の第1のサーチ範囲内でサーチ動作させ、該サーチ動作時に前記第1の撮像部から取得される第1の視点画像に基づいて被写体に合焦する前記第1のフォーカスレンズの第1のレンズ位置を探索する工程と、
     前記第1のサーチ範囲内で探索した第1のレンズ位置に前記第1のフォーカスレンズを移動させる工程と、
     前記探索された前記第1のレンズ位置に対応する前記第2のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲を決定する工程と、
     前記決定した第2のサーチ範囲内で前記第2のフォーカスレンズをサーチ動作させ、該サーチ動作時に前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する前記第2のフォーカスレンズの第2のレンズ位置を探索する工程と、
     前記第2のサーチ範囲内で探索された第2のレンズ位置に前記第2のフォーカスレンズを移動させる工程と、
     前記第1のサーチ範囲内で前記第1のレンズ位置が見つからなかった場合に、前記第2のフォーカスレンズを前記第1のサーチ範囲内でサーチ動作させ、該サーチ動作時に前記第2の撮像部から取得される第2の視点画像に基づいて被写体に合焦する前記第2のフォーカスレンズの第2のレンズ位置を探索する工程と、
     前記第1のサーチ範囲内で探索された前記第2のレンズ位置に前記第2のフォーカスレンズを移動させる工程と、
     前記第1のサーチ範囲内で探索された前記第2のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第1のレンズ位置を算出する工程と、
     前記算出した第1のレンズ位置に前記第1のフォーカスレンズを移動させる工程と、
     を含む立体撮像装置の自動焦点調節方法。
  11.  前記第1のサーチ範囲内で前記第1のレンズ位置を探索することができず、かつ前記第2のレンズ位置が探索できた場合には、前記探索された前記第2のレンズ位置に対応する前記第1のフォーカスレンズのレンズ位置の前後の前記第1のサーチ範囲よりも狭い第2のサーチ範囲を決定する工程と、
     前記決定した第2のサーチ範囲内で前記第1のフォーカスレンズをサーチ動作させ、該サーチ動作時に前記第1の撮像部から取得される第1の視点画像に基づいて被写体に合焦する前記第1のフォーカスレンズの第1のレンズ位置を探索する工程と、
     前記第2のサーチ範囲内で探索された第1のレンズ位置に前記第1のフォーカスレンズを移動させる工程と、
     を含む請求項10に記載の立体撮像装置の自動焦点調節方法。
  12.  前記第2のサーチ範囲内で前記第2のレンズ位置の合焦位置が見つからなかった場合には、前記探索された前記第1のレンズ位置と前記記憶部に記憶されたフォーカス位置ずれ量とに基づいて前記第2のレンズ位置を算出する工程と、
     前記算出した第2のレンズ位置に前記第2のフォーカスレンズを移動させる工程と、
     を含む請求項10又は11に記載の立体撮像装置の自動焦点調節方法。
  13.  前記立体撮像装置は、前記第1の撮影光学系の光軸と前記第2の撮影光学系の光軸とが交差するクロスポイントに対応する被写体距離の被写体に合焦するフォーカスレンズ位置を記憶するレンズ位置記憶部を有し、
     前記第1のサーチ範囲内で前記第1のレンズ位置及び第2のレンズ位置がいずれも探索できない場合には、前記レンズ位置記憶部に記憶されたフォーカスレンズ位置に前記第1のフォーカスレンズ及び第2のフォーカスレンズを移動させる工程を含む請求項10から12のいずれかに記載の立体撮像装置の自動焦点調節方法。
  14.  前記立体撮像装置は、被写体距離ごとに該被写体距離の被写体に合焦するフォーカスレンズ位置を記憶するレンズ位置記憶部を有し、
     前記第1の撮像部及び第2の撮像部からそれぞれ取得される第1の視点画像及び第2の視点画像を相対的に画像シフトすることにより視差を調整する工程と、
     前記視差調整部による画像シフトのシフト量に基づいて前記第1の撮影光学系の光軸と前記第2の撮影光学系の光軸との仮想的な光軸の変化後のクロスポイントに対応する被写体距離を算出する工程と、
     前記第1のサーチ範囲内で前記第1のレンズ位置及び第2のレンズ位置がいずれも探索できない場合には、前記算出された被写体距離に対応するレンズ位置を前記レンズ位置記憶部から読み出し、前記第1のフォーカスレンズ及び第2のフォーカスレンズを前記読み出したレンズ位置に移動させる工程と、
     を含む請求項10から12のいずれかに記載の立体撮像装置の自動焦点調節方法。
PCT/JP2011/060946 2010-05-14 2011-05-12 立体撮像装置及び立体撮像装置の自動焦点調節方法 WO2011142422A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201180024063.5A CN102893196B (zh) 2010-05-14 2011-05-12 三维成像装置和三维成像装置的自动聚焦调节方法
JP2012514830A JP5571179B2 (ja) 2010-05-14 2011-05-12 立体撮像装置及び立体撮像装置の自動焦点調節方法
EP11780679.4A EP2570838B1 (en) 2010-05-14 2011-05-12 Three-dimensional imaging device and autofocus adjustment method for three-dimensional imaging device
US13/675,553 US9118906B2 (en) 2010-05-14 2012-11-13 Three-dimensional imaging device and autofocus adjustment method for three-dimensional imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010112092 2010-05-14
JP2010-112092 2010-05-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/675,553 Continuation US9118906B2 (en) 2010-05-14 2012-11-13 Three-dimensional imaging device and autofocus adjustment method for three-dimensional imaging device

Publications (1)

Publication Number Publication Date
WO2011142422A1 true WO2011142422A1 (ja) 2011-11-17

Family

ID=44914474

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/060946 WO2011142422A1 (ja) 2010-05-14 2011-05-12 立体撮像装置及び立体撮像装置の自動焦点調節方法

Country Status (5)

Country Link
US (1) US9118906B2 (ja)
EP (1) EP2570838B1 (ja)
JP (1) JP5571179B2 (ja)
CN (1) CN102893196B (ja)
WO (1) WO2011142422A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022032611A1 (en) * 2020-08-14 2022-02-17 Qualcomm Incorporated Automatic focus control accounting for lens movement during image capture
JP7355213B2 (ja) 2020-02-28 2023-10-03 日本電気株式会社 画像取得装置、画像取得方法および画像処理装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103986877B (zh) * 2014-05-29 2017-09-26 宇龙计算机通信科技(深圳)有限公司 一种图像获取终端和图像获取方法
TWI554098B (zh) * 2014-10-07 2016-10-11 緯創資通股份有限公司 錄影裝置與錄影方法
CN108780209B (zh) 2016-03-18 2021-01-26 富士胶片株式会社 对焦位置检测装置及对焦位置检测方法
KR102636272B1 (ko) * 2016-07-26 2024-02-14 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템
CN108924415B (zh) * 2018-06-27 2021-02-02 亿嘉和科技股份有限公司 对变倍相机个体聚焦差异进行一致性校准的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102135A (ja) * 2002-09-12 2004-04-02 Canon Inc オートフォーカス装置、方法および撮像装置
JP2005045511A (ja) 2003-07-28 2005-02-17 Fuji Photo Film Co Ltd 立体撮影装置及びその制御方法
JP2006162990A (ja) 2004-12-07 2006-06-22 Fuji Photo Film Co Ltd 立体画像撮影装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1419147A (zh) * 2001-11-13 2003-05-21 中国科学院力学研究所 三维物体的倍率可变光学成像系统的自动调焦方法和装置
JP4198449B2 (ja) * 2002-02-22 2008-12-17 富士フイルム株式会社 デジタルカメラ
JP2005070077A (ja) * 2003-08-21 2005-03-17 Fuji Photo Film Co Ltd デジタルカメラ
CN100378487C (zh) * 2003-08-26 2008-04-02 索尼株式会社 自动聚焦控制方法、自动聚焦控制器和图像处理器
JP2007041046A (ja) * 2005-07-29 2007-02-15 Eastman Kodak Co 撮像装置
US7307790B1 (en) * 2006-11-10 2007-12-11 Genie Lens Technologies, Llc Ultrathin lens arrays for viewing interlaced images
JP4656046B2 (ja) * 2006-11-22 2011-03-23 パナソニック電工株式会社 撮像素子のピント調整機構
JP4980748B2 (ja) * 2007-02-28 2012-07-18 日本放送協会 立体像および平面像表示装置
US20090091566A1 (en) * 2007-10-05 2009-04-09 Turney Stephen G System and methods for thick specimen imaging using a microscope based tissue sectioning device
JP4995175B2 (ja) * 2008-10-29 2012-08-08 富士フイルム株式会社 立体撮像装置及び合焦制御方法
CN101630061B (zh) * 2009-08-17 2012-03-07 公安部物证鉴定中心 工具痕迹光学共聚焦三维数据采集方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102135A (ja) * 2002-09-12 2004-04-02 Canon Inc オートフォーカス装置、方法および撮像装置
JP2005045511A (ja) 2003-07-28 2005-02-17 Fuji Photo Film Co Ltd 立体撮影装置及びその制御方法
JP2006162990A (ja) 2004-12-07 2006-06-22 Fuji Photo Film Co Ltd 立体画像撮影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7355213B2 (ja) 2020-02-28 2023-10-03 日本電気株式会社 画像取得装置、画像取得方法および画像処理装置
WO2022032611A1 (en) * 2020-08-14 2022-02-17 Qualcomm Incorporated Automatic focus control accounting for lens movement during image capture

Also Published As

Publication number Publication date
US20130070061A1 (en) 2013-03-21
EP2570838B1 (en) 2020-01-22
CN102893196A (zh) 2013-01-23
EP2570838A1 (en) 2013-03-20
JPWO2011142422A1 (ja) 2013-07-22
EP2570838A4 (en) 2018-01-03
JP5571179B2 (ja) 2014-08-13
CN102893196B (zh) 2014-05-28
US9118906B2 (en) 2015-08-25

Similar Documents

Publication Publication Date Title
JP5232330B2 (ja) 立体撮像装置及び立体撮像装置の自動焦点調節方法
JP5571179B2 (ja) 立体撮像装置及び立体撮像装置の自動焦点調節方法
JP5185097B2 (ja) 撮影装置および合焦位置決定方法
JP5450200B2 (ja) 撮像装置、方法およびプログラム
US9077976B2 (en) Single-eye stereoscopic image capturing device
JP4995175B2 (ja) 立体撮像装置及び合焦制御方法
WO2012002046A1 (ja) 立体パノラマ画像合成装置及び複眼撮像装置並びに立体パノラマ画像合成方法
JP5368350B2 (ja) 立体撮像装置
US8823778B2 (en) Imaging device and imaging method
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
US8760567B2 (en) Photographing apparatus and method to reduce auto-focus time
JP2011022501A (ja) 複眼撮像装置
US20130093848A1 (en) Image output device, method and program
CN103782234B (zh) 立体图像捕捉设备和方法
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
KR20120068696A (ko) 촬상 장치 및 촬상 방법
JP6057627B2 (ja) 立体画像撮像装置、カメラシステム、立体画像撮像装置の制御方法、プログラム、記憶媒体
JP5351298B2 (ja) 複眼撮像装置
JP2013046395A (ja) 撮像装置及びその制御方法、プログラム、及び記録媒体
US20230254470A1 (en) Stereoscopic image pickup apparatus, control method, storage medium, and control apparatus
JP2013008045A (ja) 撮像装置、その制御方法、プログラム及び記憶媒体
JP2013101380A (ja) 撮影装置および合焦位置決定方法
JP2003121949A (ja) 立体撮影光学装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180024063.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11780679

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012514830

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2011780679

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE