WO2011152168A1 - 立体撮像ディジタル・カメラおよびその動作制御方法 - Google Patents

立体撮像ディジタル・カメラおよびその動作制御方法 Download PDF

Info

Publication number
WO2011152168A1
WO2011152168A1 PCT/JP2011/060497 JP2011060497W WO2011152168A1 WO 2011152168 A1 WO2011152168 A1 WO 2011152168A1 JP 2011060497 W JP2011060497 W JP 2011060497W WO 2011152168 A1 WO2011152168 A1 WO 2011152168A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye image
detected
detection device
object detection
focus
Prior art date
Application number
PCT/JP2011/060497
Other languages
English (en)
French (fr)
Inventor
内田 亮宏
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2012518301A priority Critical patent/JPWO2011152168A1/ja
Priority to CN2011800277042A priority patent/CN102934002A/zh
Publication of WO2011152168A1 publication Critical patent/WO2011152168A1/ja
Priority to US13/692,445 priority patent/US20130093856A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/285Systems for automatic generation of focusing signals including two or more different focus detection devices, e.g. both an active and a passive focus detecting device
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Definitions

  • the present invention relates to a stereoscopic imaging digital camera and its operation control method.
  • the stereoscopic imaging digital camera includes a left-eye image capturing device and a right-eye image capturing device.
  • a left-eye image that forms a stereoscopic image is captured using the left-eye image capturing device
  • a right-eye image that configures a stereoscopic image is captured using the right-eye image capturing device.
  • an imaging process is performed using an imaging apparatus different from the imaging apparatus that has performed AE, AF, etc. (Japanese Patent Laid-Open No. 2007-110498)
  • AE is performed by one imaging apparatus
  • There is one that performs AF with the other imaging apparatus Japanese Patent Laid-Open No. 2007-110500.
  • Japanese Patent Laid-Open No. 2007-110500 Japanese Patent Laid-Open No.
  • a stereoscopic imaging digital camera includes a left-eye imaging device that captures a left-eye image constituting a stereoscopic image, a first focus lens that is movable in the optical axis direction of the left-eye imaging device, and a stereoscopic image.
  • a right-eye image capturing device that captures a right-eye image, a second focus lens that is movable in the optical axis direction of the right-eye image capturing device, a left-eye image captured by the left-eye image capturing device, and An object detection device (object detection means) for detecting an object to be focused from each image of the right eye image picked up by the right eye image pickup device, an object detected from the left eye image by the object detection device, and the above Both objects detected from the right eye image by the object detection device
  • a determination device determination means for determining whether both sizes are equal to or greater than the first threshold value, and the size of both the images are determined to be equal to or greater than the first threshold value by the determination device.
  • the first focus lens is positioned using the object detected from the left-eye image by the object detection device so that the object detected from the left-eye image by the object detection device is in focus.
  • the second focus lens is positioned using the object detected from the right-eye image by the object detection device so that the object detected from the right-eye image by the object detection device is in focus.
  • the determination device determines that at least one of both objects has a first threshold. As a result of the determination, the object detected from the left eye image by the object detection device is detected from the right eye image by the first focus lens positioning process or the object detection device so that the object is in focus.
  • One of the second focus lens positioning processes is performed so that the object is in focus, and the first focus is positioned at a position corresponding to the position determined by the one positioning process.
  • a focusing control device focusing control means that performs positioning processing of a lens and a focus lens that has not been subjected to positioning processing among the second focus lens is provided.
  • the present invention also provides an operation control method suitable for the stereoscopic imaging digital camera.
  • a left-eye image pickup device that picks up a left-eye image that forms a stereoscopic image, a first focus lens that is movable in the optical axis direction of the left-eye image pickup device, and a right-eye image that forms a three-dimensional image
  • the object detection device is for the left-eye
  • An object to be focused is detected from each of the left-eye image captured by the image capturing device and the right-eye image captured by the right-eye image capturing device, and the determination device detects the left-eye image by the object detecting device.
  • the focus control device determines that both of the image sizes are greater than or equal to the first threshold value by the determination device.
  • the first focus lens is positioned using the object detected from the left-eye image by the object detection device so that the object detected from the left-eye image by the object detection device is in focus.
  • the second focus lens positioning process is performed using the object detected from the right-eye image by the object detection device so that the object detected from the right-eye image by the object detection device is in focus. And at least one of the two objects is the first one by the determination device.
  • the object detected from the left-eye image by the object detection device is detected from the right-eye image by the first focus lens positioning process or the object detection device.
  • One of the positioning processes of the second focus lens is performed so that the selected object is in focus, and the first focus is positioned at a position corresponding to the position determined by either positioning process.
  • the focus lens and the second focus lens the focus lens that has not been subjected to positioning processing is subjected to positioning processing.
  • objects to be focused objects such as faces and flowers
  • the distance from the stereoscopic imaging digital camera to the object represented by the object is considered to be short. .
  • the object detection device detects from the left eye image so that the object detected from the left eye image is in focus.
  • the first focus lens is positioned using the detected object, and the object detected from the right eye image is detected by the object detecting device so that the object detected from the right eye image is focused by the object detecting device.
  • the positioning process of the second focus lens is performed using the object that has been set. Both the object included in the left-eye image and the object included in the right-eye image are brought into focus. For example, when the determination device determines that the size of both images is equal to or greater than the first threshold value, the focus control device can detect the object detected from the left-eye image by the object detection device. And based on the position of the object detected from the right eye image by the object detection device, the object detection device detects the left eye image from the left eye image so that the object detected from the left eye image is in focus.
  • the first focus lens is positioned using the detected object, and the object detected from the right eye image is detected by the object detecting device so that the object detected from the right eye image by the object detecting device is in focus.
  • the first focus lens positioning process, and the first focus lens positioning process or the object detection device so that the object detected from the left-eye image by the object detection device is in focus.
  • the positioning processing of either one of the second focus / lens positioning processing is performed so that the object detected from the right-eye image is in focus, and the position determined by either positioning processing
  • the position is switched between the first focus lens and the second positioning process that performs the positioning process of the focus lens that has not been positioned among the second focus lens.
  • the focus control device is configured to detect the object detected from the left-eye image by the object detection device and the object detection when both sizes of the both images are determined to be equal to or larger than the first threshold by the determination device.
  • the object detected from the right-eye image by the apparatus is separated from the center of the image in the horizontal direction from the second threshold value, the object detected from the left-eye image by the object detection apparatus is in focus.
  • the first focus lens is positioned using the object detected from the left-eye image by the object detection device so that the object detected from the right-eye image by the object detection device is in focus.
  • the right eye image is The detected object is used to position the second focus lens, and the determination device determines that at least one of the two objects is equal to or higher than the first threshold value, and the object detection device detects the left eye. Neither the object detected from the image for detection nor the object detected from the image for the right eye by the object detection device is separated from the center of the image in the horizontal direction by the second threshold value.
  • the first focus / lens positioning process so that the object detected from the left-eye image is in focus or the object detected from the right-eye image by the object detection device is in focus.
  • the object detection device causes the left-eye image
  • Positioning processing of the second focus lens is performed using an object detected from an image, and at least one of the two objects is determined to be less than a first threshold by the determination device, and the object detection device Neither the object detected from the image for the left eye nor the object detected from the image for the right eye by the object detection device is separated from the center of the image in the horizontal direction from the second threshold value. Detected from images The absolute value of the sum of the horizontal shift amount from the center of the image and the horizontal shift amount from the center of the object detected from the right eye image by the object detection device is less than the third threshold value, The first focus / lens positioning process so that the object detected from the left eye image by the object detection device is in focus or the object detected from the right eye image by the object detection device is in focus.
  • any one of the positioning processes of the second focus lens is performed, and the first focus lens and the second focus are positioned at positions corresponding to the positions determined by the positioning process of either one.
  • ⁇ Focus lens that has not been positioned It may be what performs.
  • a first zoom lens provided in front of the left-eye image pickup device and a second zoom lens provided in front of the right-eye image pickup device may be further provided.
  • at least one of the first threshold, the second threshold, and the third threshold is, for example, the position of the first zoom lens and the second threshold. It will be determined based on the zoom lens position.
  • FIG. 1 is a block diagram showing an electrical configuration of a stereoscopic imaging digital camera.
  • Fig. 2a shows the positional relationship between the camera and the subject
  • Fig. 2b shows an example of a left-eye image
  • Fig. 2c shows an example of a right-eye image
  • Fig. 3a shows the positional relationship between the camera and the subject
  • Fig. 3b shows an example of a left-eye image
  • Fig. 3c shows an example of a right-eye image.
  • FIG. 4 is a flowchart showing a processing procedure of the stereoscopic imaging digital camera.
  • FIG. 5 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 6 shows the electrical configuration of the AF execution switching device.
  • FIG. 1 is a block diagram showing an electrical configuration of a stereoscopic imaging digital camera.
  • Fig. 2a shows the positional relationship between the camera and the subject
  • Fig. 2b shows an example of a left-
  • FIG. 7 shows the face size comparison threshold.
  • FIG. 8a shows the positional relationship between the camera and the subject
  • FIG. 8b shows an example of the left-eye image
  • FIG. 8c shows an example of the right-eye image.
  • FIG. 9a shows the positional relationship between the camera and the subject
  • FIG. 9b shows an example of the image for the left eye
  • FIG. 9c shows an example of the image for the right eye.
  • FIG. 10 is a flowchart showing a processing procedure of the stereoscopic imaging digital camera.
  • FIG. 11 shows the electrical configuration of the AF execution switching device.
  • FIG. 12 shows the face position comparison threshold.
  • FIG. 13a shows the positional relationship between the camera and the subject
  • FIG. 13b shows an example of the image for the left eye
  • FIG. 13c shows an example of the image for the right eye.
  • FIG. 14a shows the positional relationship between the camera and the subject
  • FIG. 14b shows an example of the image for the left eye
  • FIG. 14c shows an example of the image for the right eye.
  • FIG. 15 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 16 shows the electrical configuration of the AF execution switching device.
  • FIG. 17 shows the face position symmetry determination threshold.
  • FIG. 18a shows the positional relationship between the camera and the subject,
  • FIG. 18b shows an example of the image for the left eye
  • FIG. 18c shows an example of the image for the right eye.
  • FIG. 19 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 19 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 20a shows the positional relationship between the camera and the subject
  • FIG. 20b shows an example of the image for the left eye
  • FIG. 20c shows an example of the image for the right eye
  • FIG. 21a shows the positional relationship between the camera and the subject
  • FIG. 21b shows an example of the image for the left eye
  • FIG. 21c shows an example of the image for the right eye.
  • FIG. 22 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 23 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 24 shows the electrical configuration of the AF execution switching device.
  • FIG. 25 shows the flower size comparison threshold.
  • FIG. 26a shows the positional relationship between the camera and the subject, FIG.
  • FIG. 26b shows an example of the left-eye image
  • FIG. 26c shows an example of the right-eye image
  • FIG. 27a shows the positional relationship between the camera and the subject
  • FIG. 27b shows an example of the image for the left eye
  • FIG. 27c shows an example of the image for the right eye
  • FIG. 28a shows the positional relationship between the camera and the subject
  • FIG. 28b shows an example of the image for the left eye
  • FIG. 28c shows an example of the image for the right eye
  • FIG. 29a shows the positional relationship between the camera and the subject
  • FIG. 29b shows an example of the image for the left eye
  • FIG. 29c shows an example of the image for the right eye.
  • FIG. 30 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 31 shows the electrical configuration of the AF execution switching device.
  • FIG. 32 shows the flower position comparison threshold.
  • FIG. 33a shows the positional relationship between the camera and the subject
  • FIG. 33b shows an example of the left-eye image
  • FIG. 33c shows an example of the right-eye image.
  • FIG. 34a shows the positional relationship between the camera and the subject
  • FIG. 34b shows an example of the left-eye image
  • FIG. 34c shows an example of the right-eye image.
  • FIG. 35a shows the positional relationship between the camera and the subject
  • FIG. 35b shows an example of the image for the left eye
  • FIG. 35c shows an example of the image for the right eye.
  • FIG. 36a shows the positional relationship between the camera and the subject
  • FIG. 36a shows the positional relationship between the camera and the subject
  • FIG. 36b shows an example of the image for the left eye
  • FIG. 36c shows an example of the image for the right eye
  • FIG. 37 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 38 shows the electrical configuration of the AF execution switching device.
  • FIG. 39 shows the flower position symmetry determination threshold.
  • FIG. 40a shows the positional relationship between the camera and the subject
  • FIG. 40b shows an example of the left-eye image
  • FIG. 40c shows an example of the right-eye image.
  • FIG. 41 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 1 shows an embodiment of the present invention and is a block diagram showing an electrical configuration of a stereoscopic imaging digital camera.
  • the overall operation of the stereoscopic imaging digital camera is controlled by the main CPU 1.
  • Stereoscopic digital cameras include various buttons such as mode setting buttons for imaging mode and playback mode, video buttons for specifying the start and end of stereoscopic video recording, and a two-stroke shutter release button.
  • An operating device 8 is provided.
  • An operation signal output from the operation device 8 is input to the main CPU 1.
  • the stereoscopic imaging digital camera includes a left-eye image capturing device 10 and a right-eye image capturing device 30. When the imaging mode is set, the subject is imaged continuously (periodically) by the left-eye image imaging device 10 and the right-eye image imaging device 30.
  • the left-eye image capturing device 10 outputs image data representing a left-eye image constituting a stereoscopic moving image by capturing a subject.
  • the left-eye image pickup device 10 includes a first CCD 16.
  • a first zoom lens 12, a first focus lens 13, and a diaphragm 15 are provided in front of the first CCD 16.
  • the first zoom lens 12, the first focus lens 13, and the aperture 15 are driven by a zoom lens control device 17, a focus lens control device 18, and an aperture control device 20, respectively.
  • the imaging mode is set and a left-eye image is formed on the light receiving surface of the first CCD 16
  • the left-eye video signal representing the left-eye image is displayed on the first CCD 16 based on the clock pulse supplied from the timing generator 21. Is output from.
  • the left-eye video signal output from the first CCD 16 is subjected to predetermined analog signal processing in the analog signal processing device 22 and converted into digital left-eye image data in the analog / digital conversion device 23.
  • the left-eye image data is input from the image input controller 24 to the digital signal processing device 25.
  • predetermined digital signal processing is performed on the image data for the left eye.
  • the left-eye image data output from the digital signal processing device 25 is input to the 3D image generation device 59.
  • the right-eye image capturing device 30 includes a second CCD 36. In front of the second CCD 36, a second zoom lens 32, a second focus lens 33 and an aperture 35 which are driven by a zoom lens control device 37, a focus lens control device 38 and an aperture control device 40, respectively.
  • the right-eye video signal representing the right-eye image is displayed on the second CCD 36 based on the clock pulse supplied from the timing generator 41. Is output from.
  • the right-eye video signal output from the second CCD 36 is subjected to predetermined analog signal processing in the analog signal processing device 42 and converted into digital right-eye image data in the analog / digital conversion device 43.
  • the image data for the right eye is input from the image input controller 44 to the digital signal processor 45.
  • the digital signal processor 45 performs predetermined digital signal processing on the right-eye image data.
  • the right-eye image data output from the digital signal processing device 45 is input to the 3D image generation device 59.
  • image data representing a stereoscopic image is generated from the left-eye image data and the right-eye image data and is input to the display control device 53.
  • a stereoscopic image is displayed on the display screen of the monitor display device 54.
  • the object detection device 61 a face is detected from each of the left-eye image represented by the left-eye image data and the right-eye image represented by the right-eye image data.
  • the object detection device 61 detects a face, but in the embodiment described later, the object detection device 61 detects a flower. In this manner, the object detection device 61 detects an object corresponding to the object to be detected.
  • the shutter release button is depressed in the first stage, the left-eye image data and the right-eye image data are also input to the AF detector 62.
  • the focus control amounts of the first focus lens 13 and the second focus lens 33 are calculated. In accordance with the calculated focus control amount, the first focus lens 13 and the second focus lens 33 are positioned at the focus position.
  • Such switching of the focus control is performed by the AF execution switching device 63.
  • the left-eye image data is input to the AE / AWB detection device 62, and the AE / AWB detection device 62 uses the data representing the face detected from the left-eye image (or the right-eye image) to capture the left-eye image.
  • the exposure amounts of the device 10 and the right-eye image capturing device 30 are calculated.
  • the aperture value of the first aperture 15 and the electronic shutter time of the first CCD 16, the aperture value of the second aperture 35 and the electronic shutter time of the second CCD 36 are determined so that the calculated exposure amount is obtained.
  • the white balance adjustment amount is also calculated from the data representing the face detected from the input left-eye image (or right-eye image). Based on the calculated white balance adjustment amount, the white signal adjustment is performed in the analog signal processing device 22 for the right-eye video signal, and the white balance adjustment is performed in the analog signal processing device 42 for the left-eye video signal.
  • image data left-eye image data and right-eye image data
  • the compression / decompression processing device 60 compresses image data representing a stereoscopic image.
  • the compressed image data is recorded on the memory card 52 by the media control device 51.
  • the stereoscopic imaging digital camera also includes a VRAM 55, SDRAM 56, flash ROM 57, and ROM 58 for storing various data.
  • the stereoscopic imaging digital camera includes a battery 2, and power supplied from the battery 2 is supplied to the power supply control device 3. Power is supplied from the power supply control device 3 to each device constituting the stereoscopic imaging digital camera.
  • the stereoscopic imaging digital camera also includes a flash 6 and an attitude detection sensor 7 controlled by the flash control device 5.
  • FIG. 2a shows the positional relationship between the subject and the stereoscopic imaging digital camera when the face (object, object) is close to the stereoscopic imaging digital camera
  • FIG. 2a shows the positional relationship between the subject and the stereoscopic imaging digital camera when the face (object, object) is close to the stereoscopic imaging digital camera
  • FIG. 2a shows the positional relationship between the subject and the stereoscopic imaging digital camera when the face (object,
  • FIG. 2b shows the left-eye image obtained by imaging.
  • FIG. 2c shows a right-eye image obtained by imaging.
  • a subject 71 is located relatively close to the front of the stereoscopic imaging digital camera 70.
  • the subject 71 is imaged by the left-eye image capturing device 10 of the stereoscopic imaging digital camera 70, and a left-eye image is obtained.
  • the subject 71 is imaged by the right-eye image capturing device 30 of the stereoscopic imaging digital camera 70, and a right-eye image is obtained.
  • FIG. 2b is an example of a left-eye image obtained by imaging.
  • the left-eye image 80L includes a subject image 81L representing the subject 71.
  • the face 82L is detected by performing face detection processing on the left-eye image 80L.
  • a face frame 83L is displayed so as to surround the face 82L.
  • FIG. 2c is an example of a right eye image obtained by imaging.
  • the right-eye image 80R includes a subject image 81R representing the subject 71.
  • the face 82R is detected by performing face detection processing on the right-eye image 80R.
  • a face frame 83R is displayed so as to surround the face 82R. Referring to FIG. 2a, the distance from the left-eye image pickup device 10 to the subject (face) 71 is L1, and the distance from the right-eye image pickup device 30 to the subject (face) 71 is L2. To do.
  • on the distance L1 or the distance L2 is large.
  • the control is performed in common, the left-eye image obtained by the left-eye image capturing device 10 is focused relatively accurately, but the right-eye image obtained by the right-eye image capturing device 30 is not focused very accurately. .
  • the focus control of the left-eye image capturing device 10 and the right-eye image capturing device 30 is performed in common using the distance L2, the right-eye image obtained by the right-eye image capturing device 30 is relatively accurately aligned. Although the image is in focus, the left-eye image obtained by the left-eye image capturing device 10 is not focused very accurately.
  • both the size Sx1 of the face 82L detected from the left-eye image 80L and the size Sx2 of the face 82R detected from the right-eye image 80R are greater than or equal to the first threshold value.
  • the focus control of the left-eye image capturing device 10 is performed based on the distance L1 from the left-eye image capturing device 10 to the subject (based on the face detected from the left-eye image), and the right-eye image is detected.
  • Focus control of the right-eye image capturing device 30 is performed based on the distance L2 from the image capturing device 30 to the subject (based on the face detected from the right-eye image). Both the left-eye image and the right-eye image are focused relatively accurately.
  • FIG. 3a shows the positional relationship between the subject and the stereoscopic imaging digital camera when the face (object) is far from the stereoscopic imaging digital camera
  • FIG. 3b shows the image for the left eye obtained by imaging
  • FIG. 3c shows a right-eye image obtained by imaging.
  • the subject 71 is at a far position in front of the stereoscopic imaging digital camera 70.
  • the subject 71 is imaged by the left-eye image capturing device 10 of the stereoscopic imaging digital camera 70, and a left-eye image is obtained.
  • the subject 71 is imaged by the right-eye image capturing device 30 of the stereoscopic imaging digital camera 70, and a right-eye image is obtained.
  • FIG. 3a shows the positional relationship between the subject and the stereoscopic imaging digital camera when the face (object) is far from the stereoscopic imaging digital camera
  • FIG. 3b shows the image for the left eye obtained by imaging
  • FIG. 3c shows a right-eye image obtained by imaging.
  • FIG. 3b is an example of a left-eye image obtained by imaging.
  • the left-eye image 90L includes a subject image 91L representing the subject 71.
  • the face detection process is performed on the left-eye image 90L, whereby the face 92L is detected.
  • a face frame 93L is displayed so as to surround the face 92L.
  • FIG. 3c is an example of a right-eye image obtained by imaging.
  • the right-eye image 90R includes a subject image 91R representing the subject 71.
  • the face 92R is detected by performing the face detection process on the right-eye image 90R.
  • a face frame 93R is displayed so as to surround the face 92R. Referring to FIG.
  • the distance L11 from the left-eye image pickup device 10 to the subject (face) 71 and the distance from the right-eye image pickup device 30 to the subject (face) 71 are L12. .
  • on the distance L11 or the distance L12 is small. Therefore, using either the distance L11 or the distance L12, the left-eye imaging device 10 and the right-eye Even if the focus control of the image pickup device 30 is performed in common, both the left-eye image and the right-eye image are focused relatively accurately.
  • the subject when the shutter release button is depressed in the first stage, the subject is imaged by the left-eye image capturing device 10 after the depression, and the face is detected from the left-eye image obtained by the imaging (Ste 101).
  • the subject is imaged by the right-eye image capturing device 30, and a face is detected from the right-eye image obtained by the imaging (step 102).
  • the same face is identified between the face detected from the left-eye image and the face detected from the right-eye image (step 103). Needless to say, the same face can be identified using the size and orientation of the image.
  • focus control is performed so that the center of the image is focused.
  • one type of face is specified depending on whether it is the largest or closest to the center position.
  • the size Sx1 of the face in the horizontal direction (which may be horizontal) specified from the left-eye image and the size Sx2 in the horizontal direction of the face specified from the right-eye image are respectively calculated (step 104).
  • exposure of the left-eye image capturing device 10 is performed from left-eye image data (or data representing a detected face) obtained from the left-eye image capturing device 10 in order to perform photometry using the left-eye image capturing device 10.
  • the amount is determined and set to the determined exposure amount (step 105).
  • the right-eye image pickup device 30 is also set so that the exposure amount is the same as the exposure amount of the left-eye image pickup device 10 (step 106).
  • Photometry may be performed using the right-eye image capturing device 30, and the determined exposure amount may be set in both the right-eye image capturing device 30 and the left-eye image capturing device 10. It is determined whether or not the face size Sx1 detected from the left-eye image is greater than or equal to the first threshold value Sxth (step 107). If the size Sx1 is greater than or equal to the first threshold value Sxth (YES in step 107), it is determined whether or not the size Sx2 of the face detected from the right eye image is greater than or equal to the first threshold value Sxth. (Step 108).
  • Focus control positioning of the first focus lens 13 of the left-eye image pickup device 10 is performed using (the distance from the left-eye image pickup device 10 to the face, the left-eye image) (step 109). . Further, using the face detected from the right-eye image (the distance from the right-eye image pickup device 10 to the face, the right-eye image), the focus control (second focus lens 33) of the right-eye image pickup device 30 is performed. Positioning is performed (step 110).
  • the face size Sx1 detected from the left-eye image is less than the first threshold value (NO in step 107), or the face size Sx2 detected from the right-eye image is less than the first threshold value (step 108).
  • NO using the face detected from the left-eye image (the distance from the left-eye image capturing device 10 to the face, the right-eye image), the focus control (first step) of the left-eye image capturing device 10 is performed. 1 focusing lens 13 is positioned (step 111). Since the distance to the subject is considered to be long, even if focus control (positioning of the second focus lens 33) of the right-eye image pickup device 30 is performed using the face detected from the left-eye image, it is relatively accurate. Focus control is possible.
  • the focus control of the right-eye image capturing device 30 is performed using the face detected from the left-eye image.
  • Focus control of the right-eye image pickup device 30 is performed using the face (distance from the right-eye image pickup device 30 to the subject, right-eye image) detected from the right-eye image, and the left-eye image is used using the right-eye image.
  • Focus control of the image pickup apparatus may be performed.
  • FIGS. 6 to 10 show another embodiment. In this embodiment, a zoom lens is used. In the embodiment described above, the first threshold value is determined based on the size of the face, but in this embodiment, the threshold value is determined with reference to the zoom position.
  • FIG. 6 shows the electrical configuration of the AF execution switching device 63A.
  • the AF execution switching device 63A includes a face size determination device 65 and a face size determination threshold value calculation device 66.
  • Data representing the face size (size) Sx1 found from the left-eye image and data representing the face size (size) Sx2 found from the right-eye image are input to the face size determination device 65.
  • the face size determination threshold calculator 66 includes the zoom position Z of the first zoom lens 12, the reference zoom position (any one of the zoom positions), Z0, the face size threshold Sx0 and the zoom position at the reference zoom position.
  • Data representing the focal length table f (Z) for each is input. Based on these input data, a face size comparison threshold calculation device 66 calculates a face size comparison threshold. Data representing the calculated threshold value is input to the face size determination device 65.
  • the face size determination device 65 if both of the face sizes Sx1 and Sx2 are equal to or larger than the determined threshold, the left-eye image (the distance from the left-eye image pickup device 10 to the face) is used as described above. Thus, the focus control of the left-eye image pickup device 10 (positioning of the first focus lens 13) is performed, and the right-eye image (the distance from the right-eye image pickup device 10 to the face) is used. Data indicating the AF method selection result in which the focus control (positioning of the second focus lens 33) of the image pickup apparatus 30 is performed is output.
  • FIG. 7 shows the relationship between the zoom position and the face size comparison threshold value Sxlimit (first threshold value). Corresponding to each zoom position Z, a face size comparison threshold Sxlimit is determined.
  • the relationship table shown in FIG. 8 may be stored in advance in the face size determination threshold value calculation device 63A.
  • the threshold value is calculated simply by inputting the zoom position Z to the face size determination threshold value calculation device 66.
  • Sx0 Sxd ⁇ d / f (Z0)
  • Sxd is the reference zoom position Z0
  • the distance d to the subject is Is the size of the face (horizontal width).
  • FIG. 8a shows the positional relationship between a stereoscopic imaging digital camera and a subject
  • FIG. 8b shows an example of a left-eye image obtained by imaging
  • FIG. 8c shows a right-eye image obtained by imaging.
  • the subject 71 is at a distance L in front of the stereoscopic imaging digital camera 70.
  • both the zoom lens 12 of the left-eye image pickup device 10 and the zoom lens 32 of the right-eye image pickup device 30 are set to the telephoto zoom position.
  • the angle of view of the left-eye image pickup device 10 and the angle of view of the right-eye image pickup device 30 are both ⁇ 1.
  • a left-eye image 120L is obtained by the left-eye image capturing device 10.
  • the left-eye image 120L includes a subject image 121L representing the subject 71.
  • the subject image 121L includes a face 122L and is surrounded by a face frame 123L.
  • right-eye image 120R is obtained by right-eye image pickup device 30.
  • the right-eye image 120R also includes a subject image 121R representing the subject 71.
  • the face 122R is surrounded by a face frame 123R.
  • FIG. 9a shows the positional relationship between a stereoscopic imaging digital camera and a subject
  • FIG. 9b shows an example of a left-eye image obtained by imaging
  • FIG. 9c shows a right-eye image obtained by imaging. It is an example.
  • a subject 71 is at a distance L in front of the stereoscopic imaging digital camera 70.
  • a left-eye image 130L is obtained by the left-eye image capturing device 10.
  • the left-eye image 130L includes a subject image 131L representing the subject 71.
  • the subject image 131L includes a face 132L and is surrounded by a face frame 133L.
  • the right-eye image 130R is obtained by the right-eye image pickup device 30.
  • the right-eye image 130R also includes a subject image 131R representing the subject 71.
  • a face 132R is surrounded by a face frame 133R.
  • FIGS. 8b and 8c show that even if the distance from the stereoscopic imaging digital camera 70 to the subject 71 is equal to the distance L, the distance is far away on the telephoto side. However, the face gets bigger and the face gets smaller on the wide-angle side. Thus, the size of the face varies depending on the zoom position of the zoom lens. Therefore, in this embodiment, as described above, a threshold value corresponding to the zoom position is used.
  • FIG. 10 is a flowchart showing a processing procedure of the stereoscopic imaging digital camera.
  • the zoom position (the first zoom lens 12 and the second zoom lens 32 are interlocked and any lens 12 or 32 may be positioned).
  • Is read step 100.
  • calculation processing of the face size Sx1 of the left-eye image and the face size Sx2 of the right-eye image is performed (steps 101 to 106 in FIG. 5).
  • step 107A If the face size Sx1 is greater than or equal to the face size comparison threshold Sxlimit (YES in step 107A), whether or not the face size Sx2 of the right-eye image is greater than or equal to the face size comparison threshold Sxlimit corresponding to the read zoom position. Determination is made (step 108A).
  • the distance from the stereoscopic imaging digital camera 70 to the subject is considered to be relatively close, and as described above, from the image for the left eye Focus control of the left-eye image capturing device 10 using the detected face (step 109) and focus control of the right-eye image capturing device 30 using the face detected from the right-eye image (step 110) are performed. .
  • the distance from the stereoscopic imaging digital camera 70 to the subject is considered to be relatively long, and as described above, the focus control of the left-eye image capturing device 10 using the face detected from the left-eye image is performed.
  • the focus control of the right-eye image pickup device 30 is performed at the focus position of the left-eye image pickup device 10 (step 112).
  • FIG. 11 to FIG. 15 show another embodiment. In this embodiment, the position of the face is also taken into consideration.
  • the AF switching device 63B includes a face position determination device 141, a face position determination threshold value calculation device 142, and an AF method selection device 143.
  • the face position determination device 141 includes data representing a face position Lx1 indicating a horizontal shift amount of the face from the center of the left-eye image and a face position Lx2 indicating a horizontal shift amount of the face from the center of the right-eye image. Enter. Further, data indicating the zoom position is input to the face position determination threshold value calculation device 142.
  • data indicating a determination result indicating whether both the face size Sx1 of the left-eye image and the face size Sx2 of the right-eye image are equal to or larger than the face size comparison threshold Sxlimit is output.
  • the face position determination device 141 outputs data indicating a determination result indicating whether both the face position Lx1 of the left-eye image and the face position Lx2 of the right-eye image are less than the face position determination threshold, and AF Input to the method selection device 143.
  • Both the face size Sx1 of the left-eye image and the face size Sx2 of the right-eye image are equal to or larger than the face size comparison threshold Sxlimit, and the face position Lx1 of the left-eye image or the face position Lx2 of the right-eye image Is less than the face position determination threshold, as described above, focusing control of the left-eye image capturing device 10 using the left-eye image and focusing of the right-eye image capturing device 30 using the right-eye image are performed. Control is performed.
  • FIG. 12 shows the relationship between the zoom position and the face position comparison threshold Lxlimit (second threshold). A face position comparison threshold Lxlimit is defined for each zoom position.
  • the face position comparison threshold value is obtained by dividing the face position determination coefficient Kn defined corresponding to the zoom position by the face size Sx (Sx1 or Sx2).
  • Sx face size
  • the face position comparison threshold Lxlimit is obtained by dividing the face position determination coefficient Kn by the face size.
  • FIG. 13a shows the positional relationship between the stereoscopic imaging digital camera 70 and the subject
  • FIG. 13b is an example of a left-eye image
  • FIG. 13c is an example of a right-eye image. As shown in FIG.
  • the left-eye image 150L includes a subject image 151L representing the subject 71.
  • a face frame 153L surrounding the face 152L is also displayed.
  • the right-eye image 150R also includes a subject image 151R representing the subject 71.
  • a face frame 153R surrounding the face 152R is also displayed. The faces 152L and 152R are both displayed at the approximate center of the image.
  • FIG. 13b the left-eye image 150L includes a subject image 151L representing the subject 71.
  • a face frame 153L surrounding the face 152L is also displayed.
  • the faces 152L and 152R are both displayed at the approximate center of the image.
  • FIG. 14a shows the positional relationship between the stereoscopic imaging digital camera 70 and the subject
  • FIG. 14b shows an example of a left-eye image
  • FIG. 14c shows an example of a right-eye image.
  • the left-eye image 160L includes a subject image 161L representing the subject 71.
  • a face frame 163L surrounding the face 162L is also displayed. The face 162L is shifted from the left-eye image 160L by the left (negative) distance Lx1.
  • FIG. 15 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera, and corresponds to FIG. In the process shown in FIG. 15, the same processes as those shown in FIG.
  • step 171 whether or not the absolute value
  • of the horizontal displacement amount of the right-eye image face is equal to or greater than the face position comparison threshold Lxlimit. For example (YES in step 171 or 172), since the face is shifted from the center of the image, the focus control of the left-eye image pickup device 10 using the left-eye image (step 109), the right eye using the right-eye image Focus control (step 110) of the image pickup apparatus 30 is performed.
  • the AF execution switching device 63C shown in FIG. 16 includes a face position objectivity determination device 144 and a face position objectivity determination threshold value calculation device 145 in addition to the device 64B shown in FIG.
  • Data representing the face position Lx1 of the left-eye image and the face position Lx2 of the right-eye image are input to the face position symmetry determination device 144, respectively.
  • Data representing the zoom position is input to the face position objectivity determination threshold value calculation device 145.
  • the symmetry of the face position is greater than or equal to the threshold value calculated by the face position symmetry determination threshold value calculation device 145 determined for each zoom position, the symmetry is the distance from the left-eye image pickup device 10 to the subject and the right-eye image. Since the influence on the difference between the imaging device 30 and the distance from the subject is large, the focus control of the left-eye image imaging device 10 using the left-eye image and the focusing of the right-eye image imaging device 30 using the right-eye image are performed. Control is performed. Conversely, if the symmetry of the face position is less than the threshold value calculated by the face position symmetry determination threshold value calculation device 145 determined for each zoom position, the symmetry is the distance from the left-eye image capturing device 10 to the subject.
  • FIG. 17 shows the relationship between the zoom position and the face position symmetry determination threshold value Lxsym (third threshold value).
  • a face position symmetry determination threshold Lxsym is defined for each zoom position.
  • FIG. 18a shows the positional relationship between the stereoscopic imaging digital camera 70 and the subject
  • FIG. 18b is an example of a left-eye image
  • FIG. 18c is an example of a right-eye image.
  • the left-eye image 180L includes a subject image 181L representing the subject 71.
  • a face frame 183L surrounding the face 182L is also displayed.
  • FIG. 19 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera. In this figure, the same processes as those shown in FIG. 16 are denoted by the same reference numerals and description thereof is omitted.
  • the symmetry of the face is represented by the absolute value
  • the focus control of the left-eye image capturing device 10 using the left-eye image is performed (step 111), and the right-eye image capturing device 30 is focused at the in-focus position of the left-eye image capturing device 10.
  • Focus control (step 112) is performed.
  • a face is detected.
  • the present invention is not limited to a face, and other target images such as a human image may be detected to perform the above-described processing.
  • the face position comparison threshold Lxlimit and the face position symmetry determination threshold Lxsym are defined for each zoom position of the zoom lens.
  • the above embodiment can be realized without using a zoom lens.
  • one kind of face position comparison threshold Lxlimit and face position symmetry determination threshold Lxsym are defined.
  • 20a, 20b, and 20c to 41 show another embodiment.
  • a flower is detected instead of a face, and focusing control is performed according to the size of the flower.
  • the effect of this embodiment is particularly high since flowers are often macro-photographed.
  • the size of the face does not change much depending on the person, but when the object is a flower, the size of the flower ranges from several millimeters to several tens of centimeters depending on the type of flower. change.
  • a relatively small value for example, about 5 mm is used as a threshold value for comparing the size of flowers.
  • FIGS. 20a, 20b and 20c to 23 correspond to FIGS. 2a, 2b and 2c to 5 described above.
  • FIG. 20a shows the positional relationship between the subject and the stereoscopic imaging digital camera when the flower (object, object) is close to the stereoscopic imaging digital camera
  • FIG. 20b shows the left-eye image obtained by imaging
  • FIG. 20c shows a right-eye image obtained by imaging.
  • FIG. 20a there is a flower 201 as a subject at a relatively close position in front of the stereoscopic imaging digital camera 70.
  • the flower 201 is imaged by the left-eye image capturing device 10 of the stereoscopic imaging digital camera 70, and a left-eye image is obtained.
  • the flower 201 is imaged by the right-eye image capturing device 30 of the stereoscopic imaging digital camera 70, and a right-eye image is obtained.
  • FIG. 20b is an example of an image for the left eye obtained by imaging.
  • the left eye image 210L includes a flower 212L, and the flower 212L is detected by performing a flower detection process on the left eye image 210L.
  • a flower frame 213L is displayed so as to surround the flower 212L.
  • FIG. 20c is an example of a right eye image obtained by imaging.
  • the right eye image 210R also includes a flower 212R, and the flower 212R is detected by performing a flower detection process on the right eye image 210R.
  • a flower frame 213R is displayed so as to surround the flower 212R. Referring to FIG. 20a, it is assumed that the distance from the left-eye image capturing device 10 to the face 210 is Lf1, and the distance from the right-eye image capturing device 30 to the flower 201 is Lf2. When the distance Lf1 and the distance Lf2 are short, the distance difference
  • the left-eye image obtained by the left-eye image capturing device 10 is focused relatively accurately, but the right-eye image obtained by the right-eye image capturing device 30 is not focused very accurately. .
  • the focus control of the left-eye image capturing device 10 and the right-eye image capturing device 30 is performed in common using the distance Lf2
  • the right-eye image obtained by the right-eye image capturing device 30 is relatively accurately aligned.
  • the left-eye image obtained by the left-eye image capturing device 10 is not focused very accurately.
  • both the size Sxf1 of the flower 212L detected from the image 210L for the left eye and the size Sfx2 of the flower 212R detected from the image 210R for the right eye are both greater than or equal to the first threshold value.
  • focusing control of the left-eye image capturing device 10 is performed based on the distance Lf1 from the left-eye image capturing device 10 to the flower 201, and based on the distance Lf2 from the right-eye image capturing device 30 to the flower.
  • Focus control of the right-eye image capturing device 30 is performed. Both the left-eye image and the right-eye image are focused relatively accurately.
  • FIG. 21a shows the positional relationship between the flower and the stereoscopic imaging digital camera when the flower is far from the stereoscopic imaging digital camera
  • FIG. 21b shows the image for the left eye obtained by imaging
  • FIG. The image for right eyes obtained by imaging is shown.
  • FIG. 21a there is a flower 201 at a far position in front of the stereoscopic imaging digital camera 70.
  • the flower 201 is imaged by the left-eye image capturing device 10 of the stereoscopic imaging digital camera 70, and a left-eye image is obtained.
  • the flower 201 is imaged by the right-eye image capturing device 30 of the stereoscopic imaging digital camera 70, and a right-eye image is obtained.
  • FIG. 21b is an example of a left-eye image obtained by imaging.
  • the left-eye image 220L includes a flower 222L, and the flower 222L is detected by performing a flower detection process on the left-eye image 220L.
  • a flower frame 223L is displayed so as to surround the flower 222L.
  • FIG. 21c is an example of an image for the right eye obtained by imaging.
  • the right eye image 220R also includes a flower 222R, and the flower 222R is detected by performing a flower detection process on the right eye image 220R.
  • a flower 223R is displayed so as to surround the flower 222R. Referring to FIG.
  • the distance from the left-eye image capturing device 10 to the flower 201 is a distance Lf11
  • the distance from the right-eye image capturing device 30 to the flower 201 is Lf12.
  • Lf11 and the distance Lf12 are long, the influence of the distance difference
  • FIGS. 22 and 23 correspond to FIGS. 4 and 5 and are flowcharts showing the processing procedure of the stereoscopic imaging digital camera. In FIG. 22 or FIG. 23, the same processes as those shown in FIG. 4 or FIG.
  • the stereoscopic imaging digital camera is set to an imaging mode (for example, a macro imaging mode), and a subject is periodically imaged.
  • an imaging mode for example, a macro imaging mode
  • a subject is periodically imaged.
  • an imaging mode for example, a macro imaging mode
  • flowers can be detected by template matching or other methods using the color and shape of the flowers.
  • a flower is imaged by the right-eye image capturing device 30, and a flower is detected from the right-eye image obtained by the imaging (step 102A). The same flower is identified between the flower detected from the left-eye image and the flower detected from the right-eye image (step 103A).
  • focus control is performed so that the center of the image is focused.
  • one flower is identified depending on whether it is the largest or closest to the center position.
  • the horizontal size Sxf2 of the flower specified from the left-eye image and the horizontal size Sxf2 of the flower specified from the right-eye image are respectively calculated (step 104A).
  • the exposure amount of the left-eye image pickup device 10 is determined and set to the determined exposure amount (step 105).
  • the right-eye image pickup device 30 is also set so that the exposure amount is the same as the exposure amount of the left-eye image pickup device 10 (step 106).
  • Step 107A It is determined whether or not the flower size Sxf1 detected from the left-eye image is equal to or greater than a first threshold value Sxfth (for example, 5 mm as described above) (step 107A). If the flower size Sx1 is greater than or equal to the first threshold value Sxfth (YES in step 107A), it is determined whether or not the face size Sxf2 detected from the right-eye image is greater than or equal to the first threshold value Sxfth. (Step 108A).
  • a first threshold value Sxfth for example, 5 mm as described above
  • the flower detected for the left eye image (for the left eye)
  • Focus control of the left-eye image pickup device 10 (positioning of the first focus lens 13) is performed using the distance from the image pickup device 10 to the flower and the left-eye image (step 109). Further, focusing control (second focus lens 33) of the right-eye image pickup device 30 is performed using a flower (distance from the right-eye image pickup device 10 to the flower, right-eye image) detected from the right-eye image. Positioning is performed (step 110).
  • the flower size Sxf1 detected from the left-eye image is less than the first threshold value (NO in step 107A) or the flower size Sxf2 detected from the right-eye image is less than the first threshold value (step 108A).
  • the focus control of the left-eye image capturing device 10 (the first image capturing device 10) is performed using the flower detected from the left-eye image (the distance from the left-eye image capturing device 10 to the flower, the right-eye image).
  • 1 focusing lens 13 is positioned (step 111). Since the distance to the flower is considered to be long, even if the focus control (positioning of the second focus lens 33) of the right-eye image pickup device 30 is performed using the flower detected from the left-eye image, it is relatively accurate. Focus control is possible.
  • focus control of the right-eye image capturing device 30 is performed using the flowers detected from the left-eye image.
  • Focus control of the right-eye image pickup device 30 is performed using the flower detected from the right-eye image (distance from the right-eye image pickup device 30 to the flower, right-eye image), and the left-eye image is used using the right-eye image.
  • Focus control of the image pickup apparatus may be performed.
  • 24 to 30 show another embodiment and correspond to the embodiment shown in FIGS. 6 to 10 described above. In this embodiment, a zoom lens is used.
  • the first threshold value is determined based on the size of the face, but in this embodiment, the threshold value is determined with reference to the zoom position.
  • FIG. 24 shows an electrical configuration of the AF execution switching device 63D.
  • the AF execution switching device 63D includes a flower size determination device 65A and a flower size determination threshold value calculation device 66A.
  • Data representing the size (size) Sxf1 of the flower found from the left-eye image and data representing the size (size) Sxf2 of the flower found from the right-eye image are input to the flower size determination device 65A.
  • the flower size determination threshold calculation device 66A includes the zoom position Z of the first zoom lens 12, the reference zoom position (any one of the zoom positions), Z0, the flower size threshold Sxf0 and the zoom position at the reference zoom position. Data representing the focal length table f (Z) for each is input. Based on these input data, the flower size comparison threshold calculation device 66A calculates the flower size comparison threshold.
  • Data representing the calculated threshold value is input to the flower size determination device 65A.
  • the flower size determination device 65A if both the flower sizes Sxf1 and Sxf2 are equal to or larger than the determined threshold, the left-eye image (the distance from the left-eye image capturing device 10 to the flower) is used as described above.
  • the focus control of the left-eye image pickup device 10 positioning of the first focus lens 13
  • the right-eye image the distance from the right-eye image pickup device 10 to the flower
  • FIG. 25 shows the relationship between the zoom position and the flower size comparison threshold value Sxflimit (first threshold value).
  • the flower size comparison threshold Sxflimit is determined.
  • the relationship table shown in FIG. 25 may be stored in advance in the flower size determination threshold value calculation device 63D described above.
  • the threshold value is calculated simply by inputting the zoom position Z to the flower size determination threshold value calculation device 66A.
  • Sxf0 Sxd ⁇ d / f (Z0)
  • Sxd is the reference zoom position Z0
  • the distance d to the flower It is the size of the flower (horizontal width).
  • FIG. 26a shows the positional relationship between the stereoscopic imaging digital camera and the subject when the flower is at a relatively far position when the focal length is long (set to the telephoto side), and corresponds to FIG. 8a. is there.
  • FIG. 26b is an example of a left-eye image obtained by imaging
  • FIG. 26c is an example of a right-eye image obtained by imaging.
  • FIG. 26a there is a flower 201 at a distance Lf1 in front of the stereoscopic imaging digital camera 70. Assume that both the zoom lens 12 of the left-eye image pickup device 10 and the zoom lens 32 of the right-eye image pickup device 30 are set to the telephoto zoom position. Referring to FIG.
  • a left-eye image 230L is obtained by the left-eye image capturing device 10.
  • the left-eye image 230L includes a flower 232L and is surrounded by a flower frame 233L.
  • the right-eye image 230R is obtained by the right-eye image capturing device 30.
  • the right-eye image 230R also includes a flower 232R and is surrounded by a flower frame 233R.
  • FIG. 27a shows the positional relationship between the stereoscopic imaging digital camera and the subject when the flower is relatively close when the focal length is long (set to the telephoto side), and FIG. 27b is obtained by imaging.
  • FIG. 27c is an example of the right-eye image obtained by imaging. Referring to FIG.
  • a flower 202 smaller than the flower 201 at a distance Lf2 (Lf1 ⁇ Lf2) in front of the stereoscopic imaging digital camera 70.
  • the zoom position of both the zoom lens 12 of the left-eye image pickup device 10 and the zoom lens 32 of the right-eye image pickup device 30 is set to the telephoto position.
  • a left-eye image 240L is obtained by the left-eye image capturing device 10.
  • the left-eye image 240L includes a flower 242L and is surrounded by a flower frame 243L.
  • right-eye image 240R is obtained by right-eye image capturing device 30.
  • the right-eye image 240R also includes a flower 242R and is surrounded by a flower frame 243R.
  • FIGS. 26a, 26b and 26c and FIGS. 27a, 27b and 27c when the focal length is set long (when set to the telephoto side), The ratio of flowers to the captured image increases. Since the percentage of flowers increases, the flowers are judged to be nearby.
  • FIG. 28a shows the positional relationship between the stereoscopic imaging digital camera and the subject when the flower is far away when the focal length is short (wide angle), and corresponds to FIG. 9a.
  • FIG. 28b is an example of a left-eye image obtained by imaging
  • FIG. 28c is an example of a right-eye image obtained by imaging. Referring to FIG.
  • a flower 201 there is a flower 201 at a distance Lf1 in front of the stereoscopic imaging digital camera 70.
  • the zoom positions of both the zoom lens 12 of the left-eye image pickup device 10 and the zoom lens 32 of the right-eye image pickup device 30 are set to a wide angle.
  • a left-eye image 250L is obtained by the left-eye image capturing device 10.
  • the left-eye image 250L includes a flower 252L and is surrounded by a flower frame 253L.
  • right-eye image 250R is obtained by right-eye image pickup device 30.
  • the right-eye image 250R also includes a flower 252R and is surrounded by a flower frame 253R.
  • FIG. 29a shows the positional relationship between the stereoscopic imaging digital camera and the subject when the flower is close when the focal length is short (wide angle).
  • FIG. 29b is an example of a left-eye image obtained by imaging
  • FIG. 29c is an example of a right-eye image obtained by imaging.
  • FIG. 29a there is a relatively small flower 202 at a distance Lf2 in front of the stereoscopic imaging digital camera 70.
  • the zoom positions of both the zoom lens 12 of the left-eye image pickup device 10 and the zoom lens 32 of the right-eye image pickup device 30 are set to a wide angle.
  • a left-eye image 260L is obtained by the left-eye image capturing device 10.
  • the left-eye image 260L includes a flower 262L and is surrounded by a flower frame 263L.
  • right-eye image 260R is obtained by right-eye image pickup device 30.
  • the right-eye image 260R also includes a flower 262R and is surrounded by a flower frame 263R.
  • FIGS. 26a, 26b and 26c if the zoom lens is set to the wide angle side, the position of the flower does not change. , The ratio of the flower of the image obtained by photography becomes small. Therefore, in this embodiment, as described above, a threshold value corresponding to the zoom position is used.
  • FIG. 30 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 30 corresponds to FIG. 10, and the same processes as those shown in FIG. 10 and FIG.
  • the zoom position (the first zoom lens 12 and the second zoom lens 32 are interlocked and any lens 12 or 32 may be positioned). Is read (step 100).
  • the calculation processing of the flower size Sxf1 of the left-eye image and the flower size Sxf2 of the right-eye image is performed (steps 101A to 106 in FIG. 22).
  • step 107B it is determined whether or not the flower size Sxf1 of the left-eye image is equal to or larger than the flower size comparison threshold Sxflimit (first threshold) corresponding to the read zoom position. If the flower size Sxf1 is greater than or equal to the flower size comparison threshold Sxflimit (YES in step 107B), whether or not the flower size Sxf2 of the right-eye image is greater than or equal to the flower size comparison threshold Sxflimit corresponding to the read zoom position. Determination is made (step 108B).
  • the flower size Sxf2 is also equal to or greater than the flower size comparison threshold Sxflimit (YES in step 108B), it is considered that the distance from the stereoscopic imaging digital camera 70 to the subject is relatively short. Focus control of the left-eye image pickup device 10 using the detected flower (step 109) and focus control of the right-eye image pickup device 30 using the flower detected from the right-eye image (step 110) are performed. .
  • step 107B If the flower size Sxf1 of the left-eye image is less than the flower size comparison threshold Sxflimit (NO in step 107B), or if the flower size Sxf2 of the right-eye image is less than the flower size comparison threshold Sxflimit (in step 108B) NO), the distance from the stereoscopic imaging digital camera 70 to the subject is considered to be relatively long, and as described above, the focus control of the left-eye image capturing device 10 using the flowers detected from the left-eye image is performed. In step 111, the focus control of the right-eye image pickup device 30 is performed at the focus position of the left-eye image pickup device 10 (step 112).
  • FIGS. 31 to 37 show another embodiment, which corresponds to the embodiment shown in FIGS. 11 to 15. FIG.
  • FIG. 31 is a block diagram showing an electrical configuration of the AF switching device 63E.
  • the AF switching device 63E includes a flower position determination device 141A, a flower position determination threshold value calculation device 142A, and an AF method selection device 143.
  • the flower position determination device 141A includes data representing a flower position Lxf1 indicating the amount of horizontal displacement of the flower from the center of the left eye image and a flower position Lxf2 indicating the amount of horizontal displacement of the flower from the center of the right eye image. Enter. Further, data indicating the zoom position is input to the flower position determination threshold value calculation device 142A.
  • the flower size determination device 65A From the flower size determination device 65A, data indicating a determination result indicating whether both the flower size Sxf1 of the left-eye image and the flower size Sxf2 of the right-eye image are equal to or larger than the flower size comparison threshold Sxflimit is output. Input to the AF method selection device 143.
  • the flower position determination device 141A outputs data indicating a determination result indicating whether both the flower position Lxf1 of the left-eye image and the flower position Lxf2 of the right-eye image are less than the flower position determination threshold. Input to the method selection device 143.
  • Both the left eye image flower size Sxf1 and the right eye image flower size Sxf2 are equal to or larger than the flower size comparison threshold Sxflimit, and the left eye image flower position Lxf1 or the right eye image flower position Lxf2 Is less than the flower position determination threshold, as described above, the focus control of the left-eye image pickup device 10 using the left-eye image and the focus of the right-eye image pickup device 30 using the right-eye image are performed. Control is performed.
  • FIG. 32 shows the relationship between the zoom position and the flower position comparison threshold Lxflimit (second threshold), and corresponds to FIG.
  • a flower position comparison threshold Lxflimit is defined for each zoom position.
  • the flower position comparison threshold value is obtained by dividing the flower position determination coefficient Kn defined corresponding to the zoom position by the flower size Sxf (Sxf1 or Sxf2).
  • Sxf flower size
  • the flower position comparison threshold Lxflimit is obtained by dividing the flower position determination coefficient Kn by the size of the flower.
  • FIG. 33a shows the positional relationship between the stereoscopic imaging digital camera 70 and the subject when a relatively large flower 201 is near the center of the angle of view
  • FIG. 33b is an example of the image for the left eye
  • FIG. It is an example of the image for right eyes.
  • FIG. 33a when the flower 201 is near the center of the angle of view, the distance from the left-eye image pickup device 10 to the flower 201 and the distance from the right-eye image pickup device 30 to the flower 201 are almost the same. It is considered equal.
  • the position of the flower 201 is the intersection of the optical axis of the left-eye image capturing device 10 and the optical axis of the right-eye image capturing device 30 (optical axis cross point, for example, It is often positioned and imaged in the vicinity of a distance C) of 2 m from the camera 70.
  • FIG. 33a when the flower 201 is near the center of the angle of view, the distance from the left-eye image pickup device 10 to the flower 201 and the distance from the right-eye image pickup device 30 to the flower 201 are almost the same. It is considered equal.
  • the position of the flower 201 is the intersection of the optical
  • the left-eye image 270L includes a flower 272L, and a flower frame 273L is also displayed.
  • the right-eye image 270R also includes a flower 272R, and a flower frame 273R surrounding the flower 272R is also displayed. Flowers 272L and 272R are both displayed at the approximate center of the image.
  • FIG. 34a shows the positional relationship between the stereoscopic imaging digital camera 70 and the subject when the relatively small flower 202 is near the center of the angle of view
  • FIG. 34b is an example of the image for the left eye
  • FIG. It is an example of the image for right eyes. As shown in FIG.
  • FIG. 34a when a relatively small flower 202 is imaged, the image is often imaged away from the cross point C of the optical axis, unlike when a relatively large flower is imaged.
  • the left-eye image 280L includes a flower 282L, and a flower frame 283L is also displayed.
  • the right-eye image 280R also includes a flower 282R, and a flower frame 283R surrounding the flower 282R is also displayed. Flowers 282L and 282R are both displayed at the approximate center of the image.
  • FIG. 35a shows the positional relationship between the stereoscopic imaging digital camera 70 and the subject when imaging a relatively large flower 201. Unlike FIG.
  • the flower 201 is the end of the angle of view (periphery).
  • the left-eye image 290L includes a flower 292L, and a flower frame 292L surrounding the flower 292L is also displayed.
  • the flower 292L is displaced from the center in the horizontal direction of the left-eye image 290L by the left (negative) distance Lxf1.
  • the right-eye image 290R also includes a flower 292R, and a flower frame 293R surrounding the flower 292R is also displayed.
  • the flower 292R is shifted from the horizontal center of the right-eye image 290R by the distance Lxf2 to the left (negative side).
  • FIG. 36a shows the positional relationship between the stereoscopic imaging digital camera 70 and the subject when a relatively small flower 202 is imaged.
  • the flower 202 is located toward the end (periphery) of the angle of view.
  • the left-eye image 300L includes a flower 302L, and a flower frame 302L surrounding the flower 302L is also displayed.
  • the flower 292L is shifted from the center in the horizontal direction of the left-eye image 290L by the left (negative) distance Lxf11.
  • the right eye image 300R also includes a flower 302R, and a flower frame 303R surrounding the flower 302R is also displayed.
  • the flower 302R is shifted by a distance Lxf12 from the horizontal center of the right-eye image 300R to the left (negative side).
  • FIG. 37 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera, and corresponds to FIGS. 10 and 15. In the process shown in FIG. 37, the same processes as those shown in FIGS. 10 and 15 are denoted by the same reference numerals, and the description thereof is omitted.
  • of the horizontal displacement amount of the right-eye image flower is equal to or greater than the flower position comparison threshold Lxflimit. For example (YES in step 171A or 172A), since the flower is displaced from the center of the image, the focus control of the left-eye image pickup device 10 using the left-eye image (step 109), the right eye using the right-eye image Focus control (step 110) of the image pickup apparatus 30 is performed.
  • the focus control of the left-eye image pickup device 10 using the left-eye image is performed (step 111).
  • Focus control (step 112) of the right-eye image pickup device 30 is performed at the focus position of the image pickup device 10.
  • 38 to 41 show still another embodiment and correspond to the embodiment of FIGS. 16 to 19. This embodiment further considers the symmetry between the left eye image flower and the right eye image flower.
  • FIG. 38 corresponds to FIG.
  • the AF execution switching device 63F shown in FIG. 38 includes a flower position target property determination device 144A and a flower position target property determination threshold value calculation device 145A.
  • Data representing the position Lxf1 of the flower for the left eye and the position Lxf2 of the flower for the right eye are input to the flower position symmetry determination device 144A.
  • Data representing the zoom position is input to the flower position objectivity determination threshold value calculation device 145A.
  • the symmetry of the flower position is equal to or greater than the threshold calculated by the flower position symmetry determination threshold value calculation device 145A determined for each zoom position, the symmetry is the distance from the left-eye image pickup device 10 to the subject and the right-eye image. Since the influence on the difference between the imaging device 30 and the distance from the subject is large, the focus control of the left-eye image imaging device 10 using the left-eye image and the focusing of the right-eye image imaging device 30 using the right-eye image are performed. Control is performed. Conversely, if the symmetry of the flower position is less than the threshold value calculated by the flower position symmetry determination threshold value calculation device 145A determined for each zoom position, the symmetry is the distance from the left-eye image capturing device 10 to the subject.
  • FIG. 39 corresponds to FIG. 17 and shows the relationship between the zoom position and the flower position symmetry determination threshold Lxfsym (third threshold).
  • a flower position symmetry determination threshold Lxfsym is defined for each zoom position.
  • FIG. 40a shows the positional relationship between the stereoscopic imaging digital camera 70 and the subject
  • FIG. 40b is an example of a left-eye image
  • FIG. 40c is an example of a right-eye image.
  • the flower 201 is at the center of the angle of view and close to the stereoscopic imaging digital camera 70.
  • the left-eye image 310L includes a flower 312L.
  • a flower frame 313L surrounding the flower 312L is also displayed.
  • FIG. 41 corresponds to FIG. 19 and is a flowchart showing the processing procedure of the stereoscopic imaging digital camera. In this figure, the same processes as those shown in FIG. 37 are denoted by the same reference numerals and the description thereof is omitted.
  • the symmetry of the flower is represented by the absolute value
  • the focus control of the left-eye image capturing device 10 using the left-eye image is performed (step 111), and the right-eye image capturing device 30 is focused at the in-focus position of the left-eye image capturing device 10. Focus control (step 112) is performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

 顔を正確に合焦させる。左目用画像撮像装置および右目用画像撮像装置で左目用画像および右目用画像が撮像される。それぞれの画像において顔が検出される。検出された顔の大きさがいずれも大きい場合には,撮像している顔はカメラから近いと考えられる。顔がカメラから近いと,撮像装置から顔までの距離と撮像装置から顔までの距離との距離差が,撮像装置から顔までの距離および撮像装置から顔までの距離のそれぞれに与える影響が大きい。撮像装置から顔までの距離(左目用画像)にもとづいて撮像装置の合焦制御が行われ,撮像装置から顔までの距離(右目用画像)にもとづいて撮像装置の合焦制御が行われる。

Description

立体撮像ディジタル・カメラおよびその動作制御方法
 この発明は,立体撮像ディジタル・カメラおよびその動作制御方法に関する。
 立体撮像ディジタル・カメラでは,左目用画像撮像装置と右目用画像撮像装置とが含まれている。左目用画像撮像装置を用いて立体画像を構成する左目用画像が撮像され,右目用画像撮像装置を用いて立体画像を構成する右目用画像が撮像される。このような立体撮像ディジタル・カメラでは,AE,AF等を行った撮像装置と異なる撮像装置を用いて撮像処理を行うもの(特開2007−110498号公報),一方の撮像装置でAEを行い,他方の撮像装置でAFを行うもの(特開2007−110500号公報)などがある。
 しかしながら,左目用画像撮像装置から被写体までの距離と右目用画像撮像装置から被写体までの距離とが異なると,両方の画像とも正確に合焦させることはできないことがある。
 この発明は,左目用画像装置から被写体までの距離と右目用画像撮像装置から被写体までの距離とが異なる場合であっても,両方の画像とも正確に合焦させることを目的とする。
 この発明による立体撮像ディジタル・カメラは,立体画像を構成する左目用画像を撮像する左目用画像撮像装置,上記左目用画像撮像装置の光軸方向に移動自在な第1のフォーカス・レンズ,立体画像を構成する右目用画像を撮像する右目用画像撮像装置,上記右目用画像撮像装置の光軸方向に移動自在な第2のフォーカス・レンズ,上記左目用画像撮像装置によって撮像された左目用画像および上記右目用画像撮像装置によって撮像された右目用画像のそれぞれの画像から合焦対象のオブジェクトを検出するオブジェクト検出装置(オブジェクト検出手段),上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの両方のオブジェクトの大きさがいずれも第1のしきい値以上かどうかを判定する判定装置(判定手段),ならびに上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定されたことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行い,上記判定装置により上記両方のオブジェクトの少なくとも一方が第1のしきい値未満と判定されたことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行う合焦制御装置(合焦制御手段)を備えていることを特徴とする。
 この発明は,上記立体撮像ディジタル・カメラに適した動作制御方法も提供している。すなわち,立体画像を構成する左目用画像を撮像する左目用画像撮像装置,上記左目用画像撮像装置の光軸方向に移動自在な第1のフォーカス・レンズ,立体画像を構成する右目用画像を撮像する右目用画像撮像装置,および上記右目用画像撮像装置の光軸方向に移動自在な第2のフォーカス・レンズを備えた立体撮像ディジタル・カメラの動作制御方法において,オブジェクト検出装置が,上記左目用画像撮像装置によって撮像された左目用画像および上記右目用画像撮像装置によって撮像された右目用画像のそれぞれの画像から合焦対象のオブジェクトを検出し,判定装置が,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの両方のオブジェクトの大きさがいずれも第1のしきい値以上かどうかを判定し,合焦制御装置が,上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定されたことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行い,上記判定装置により上記両方のオブジェクトの少なくとも一方が第1のしきい値未満と判定されたことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行うものである。
 この発明によると,撮像によって得られた左目用画像および右目用画像のそれぞれから合焦対象のオブジェクト(顔,花などの対象物)がそれぞれ検出される。左目用画像のオブジェクトおよび右目用画像のオブジェクトの大きさがいずれも第1のしきい値以上の場合には,立体撮像ディジタル・カメラからオブジェクトによって表される対象物までの距離が近いと考えられる。対象物までの距離が近いほど,左目用画像撮像装置から対象物までの距離と右目用画像撮像装置から対象物までの距離との距離差が合焦制御に影響を与える。この発明においてはオブジェクトの大きさが第1のしきい値よりも大きい場合には,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理が行われ,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理が行われる。左目用画像に含まれるオブジェクトも右目用画像に含まれるオブジェクトもいずれも合焦するようになる。
 上記合焦制御装置は,たとえば,上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定された場合において,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの位置にもとづいて,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,かつ上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行う第1の位置決め処理と,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行う第2の位置決め処理と,を切り換えるものである。
 上記合焦制御装置は,上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定され,かつ上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの少なくとも一方が画像の中心から第2のしきい値より水平方向に離れていることにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行い,上記判定装置により上記両方のオブジェクトの少なくとも一方が第1のしきい値以上と判定され,かつ上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトのいずれもが画像の中心から第2のしきい値より水平方向に離れていないことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行うものでもよい。
 上記合焦制御装置は,上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定され,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの少なくとも一方が画像の中心から第2のしきい値より水平方向に離れており,かつ上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトの中心から水平方向のずれ量と上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの水平方向のずれ量との和の絶対値が第3のしきい値以上であることにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行い,上記判定装置により上記両方のオブジェクトの少なくとも一方が第1のしきい値未満と判定され,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトのいずれもが画像の中心から第2のしきい値より水平方向に離れていず,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトの中心から水平方向のずれ量と上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの中心から水平方向のずれ量との和の絶対値が第3のしきい値未満であることにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行うものでもよい。
 上記左目用画像撮像装置の前方に設けられた第1のズーム・レンズ,および上記右目用画像撮像装置の前方に設けられた第2のズーム・レンズをさらに備えてもよい。この場合,上記第1のしきい値,上記第2のしきい値および上記第3のしきい値の少なくとも一つのしきい値は,たとえば,上記第1のズーム・レンズの位置および上記第2のズーム・レンズの位置にもとづいて決定されているものとなろう。
 第1図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
 第2a図は,カメラと被写体との位置関係を示し,第2b図は,左目用画像の一例を示し,第2c図は,右目用画像の一例を示している。
 第3a図は,カメラと被写体との位置関係を示し,第3b図は,左目用画像の一例を示し,第3c図は,右目用画像の一例を示している。
 第4図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第5図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第6図はAF実施切換装置の電気的構成を示している。
 第7図は顔サイズ比較閾値を示している。
 第8a図は,カメラと被写体との位置関係を示し,第8b図は,左目用画像の一例を示し,第8c図は,右目用画像の一例を示している。
 第9a図は,カメラと被写体との位置関係を示し,第9b図は,左目用画像の一例を示し,第9c図は,右目用画像の一例を示している。
 第10図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第11図はAF実施切換装置の電気的構成を示している。
 第12図は顔位置比較閾値を示している。
 第13a図は,カメラと被写体との位置関係を示し,第13b図は,左目用画像の一例を示し,第13c図は,右目用画像の一例を示している。
 第14a図は,カメラと被写体との位置関係を示し,第14b図は,左目用画像の一例を示し,第14c図は,右目用画像の一例を示している。
 第15図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第16図はAF実施切換装置の電気的構成を示している。
 第17図は顔位置対称性判定閾値を示している。
 第18a図は,カメラと被写体との位置関係を示し,第18b図は,左目用画像の一例を示し,第18c図は,右目用画像の一例を示している。
 第19図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第20a図は,カメラと被写体との位置関係を示し,第20b図は,左目用画像の一例を示し,第20c図は,右目用画像の一例を示している。
 第21a図は,カメラと被写体との位置関係を示し,第21b図は,左目用画像の一例を示し,第21c図は,右目用画像の一例を示している。
 第22図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第23図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第24図はAF実施切換装置の電気的構成を示している。
 第25図は花サイズ比較閾値を示している。
 第26a図は,カメラと被写体との位置関係を示し,第26b図は,左目用画像の一例を示し,第26c図は,右目用画像の一例を示している。
 第27a図は,カメラと被写体との位置関係を示し,第27b図は,左目用画像の一例を示し,第27c図は,右目用画像の一例を示している。
 第28a図は,カメラと被写体との位置関係を示し,第28b図は,左目用画像の一例を示し,第28c図は,右目用画像の一例を示している。
 第29a図は,カメラと被写体との位置関係を示し,第29b図は,左目用画像の一例を示し,第29c図は,右目用画像の一例を示している。
 第30図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第31図はAF実施切換装置の電気的構成を示している。
 第32図は花位置比較閾値を示している。
 第33a図は,カメラと被写体との位置関係を示し,第33b図は,左目用画像の一例を示し,第33c図は,右目用画像の一例を示している。
 第34a図は,カメラと被写体との位置関係を示し,第34b図は,左目用画像の一例を示し,第34c図は,右目用画像の一例を示している。
 第35a図は,カメラと被写体との位置関係を示し,第35b図は,左目用画像の一例を示し,第35c図は,右目用画像の一例を示している。
 第36a図は,カメラと被写体との位置関係を示し,第36b図は,左目用画像の一例を示し,第36c図は,右目用画像の一例を示している。
 第37図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第38図はAF実施切換装置の電気的構成を示している。
 第39図は花位置対称性判定閾値を示している。
 第40a図は,カメラと被写体との位置関係を示し,第40b図は,左目用画像の一例を示し,第40c図は,右目用画像の一例を示している。
 第41図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第1図は,この発明の実施例を示すもので,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
 立体撮像ディジタル・カメラの全体の動作は,メインCPU1によって統括される。立体撮像ディジタル・カメラには,撮像モード,再生モードなどのモード設定ボタン,立体動画記録の開始および終了を指定する動画ボタン,二段ストローク・タイプのシャッタ・レリーズ・ボタンなどの各種ボタン類が含まれている操作装置8が設けられている。操作装置8から出力される操作信号は,メインCPU1に入力する。
 立体撮像ディジタル・カメラには,左目用画像撮像装置10と右目用画像撮像装置30とが含まれている。撮像モードが設定されると,これらの左目用画像撮像装置10と右目用画像撮像装置30とによって被写体が連続的に(周期的に)撮像される。
 左目用画像撮像装置10は,被写体を撮像することにより,立体動画を構成する左目用画像を表す画像データを出力するものである。左目用画像撮像装置10には,第1のCCD16が含まれている。第1のCCD16の前方には,第1のズーム・レンズ12,第1のフォーカス・レンズ13,および絞り15が設けられている。これらの第1のズーム・レンズ12,第1のフォーカス・レンズ13,および絞り15は,それぞれズーム・レンズ制御装置17,フォーカス・レンズ制御装置18,および絞り制御装置20によって駆動させられる。撮像モードが設定され,第1のCCD16の受光面に左目用画像が結像すると,タイミング・ジェネレータ21から与えられるクロック・パルスにもとづいて,左目用画像を表す左目用映像信号が第1のCCD16から出力される。
 第1のCCD16から出力された左目用映像信号は,アナログ信号処理装置22において,所定のアナログ信号処理が行われ,アナログ/ディジタル変換装置23においてディジタルの左目用画像データに変換される。左目用画像データは,画像入力コントローラ24からディジタル信号処理装置25に入力する。ディジタル信号処理装置25において左目用画像データに対して所定のディジタル信号処理が行われる。ディジタル信号処理装置25から出力された左目用画像データは3D画像生成装置59に入力する。
 右目用画像撮像装置30には,第2のCCD36が含まれている。第2のCCD36の前方には,ズーム・レンズ制御装置37,フォーカス・レンズ制御装置38および絞り制御装置40によってそれぞれ駆動させられる第2のズーム・レンズ32,第2のフォーカス・レンズ33および絞り35が設けられている。撮像モードが設定され,第2のCCD36の受光面に右目用画像が結像すると,タイミング・ジェネレータ41から与えられるクロック・パルスにもとづいて,右目用画像を表す右目用映像信号が第2のCCD36から出力される。
 第2のCCD36から出力された右目用映像信号は,アナログ信号処理装置42において,所定のアナログ信号処理が行われ,アナログ/ディジタル変換装置43においてディジタルの右目用画像データに変換される。右目用画像データは,画像入力コントローラ44からディジタル信号処理装置45に入力する。ディジタル信号処理装置45において右目用画像データに対して所定のディジタル信号処理が行われる。ディジタル信号処理装置45から出力された右目用画像データは3D画像生成装置59に入力する。
 3D画像生成装置59において,左目用画像データと右目用画像データとから,立体画像を表す画像データが生成されて表示制御装置53に入力する。表示制御装置53においてモニタ表示装置54が制御されることにより,モニタ表示装置54の表示画面に立体画像が表示される。
 シャッタ・レリーズ・ボタンの第一段階の押し下げがあると,上述のようにして得られる左目用画像データおよび右目用画像データはオブジェクト検出装置61に入力する。オブジェクト検出装置61において,左目用画像データによって表される左目用画像および右目用画像データによって表される右目用画像のそれぞれの画像から顔が検出される。この実施例では,オブジェクト検出装置61において顔が検出されるが,後述する実施例では,オブジェクト検出装置61において花が検出される。このように,検出するオブジェクトに応じたオブジェクトがオブジェクト検出装置61において検出される。
 シャッタ・レリーズ・ボタンの第一段階の押し下げがあると,左目用画像データおよび右目用画像データは,AF検出装置62にも入力する。AF検出装置61において,第1のフォーカス・レンズ13および第2のフォーカス・レンズ33の合焦制御量が算出される。算出された合焦制御量に応じて,第1のフォーカス・レンズ13および第2のフォーカス・レンズ33が合焦位置に位置決めされる。とくに,この実施例においては詳しくは後述するように,検出された顔の大きさ(画像に対する顔の比率)が大きい場合には左目用画像から検出された顔を表わすデータ(または左目用画像データ)を用いて左目用画像撮像装置10の合焦制御が行われ,かつ右目用画像から検出された顔を表わすデータ(または右目用画像データ)を用いて右目用画像撮像装置30の合焦制御が行われるのに対し,検出された顔の大きさが小さい場合には左目用画像から検出された顔を表わすデータ(または左目用画像データ)を用いて左目用画像撮像装置10の合焦制御と右目用画像撮像装置30の合焦制御の両方が行われる。このような合焦制御の切り換えは,AF実施切り換え装置63によって行われる。
 左目用画像データは,AE/AWB検出装置62に入力し,そのAE/AWB検出装置62において,左目用画像(右目用画像でもよい)から検出された顔を表わすデータを用いて左目用画像撮像装置10および右目用画像撮像装置30のそれぞれの露出量が算出される。算出された露出量となるように,第1の絞り15の絞り値および第1のCCD16の電子シャッタ時間ならびに第2の絞り35の絞り値および第2のCCD36の電子シャッタ時間が決定される。また,AE/AWB検出装置62において,入力した左目用画像(右目用画像でもよい)から検出された顔を表わすデータから白バランス調整量も算出される。算出された白バランス調整量にもとづいて,右目用映像信号がアナログ信号処理装置22において白バランス調整が行われ,左目用映像信号がアナログ信号処理装置42において白バランス調整が行われる。
 シャッタ・レリーズ・ボタンの第二段階の押し下げがあると,3D画像生成装置59において生成された立体画像を表す画像データ(左目用画像データ,右目用画像データ)は圧縮/伸長処理装置60に入力する。圧縮/伸長処理装置60において立体画像を表す画像データが圧縮される。圧縮された画像データがメディア制御装置51によってメモリ・カード52に記録される。
 さらに,立体撮像ディジタル・カメラには,各種データ類を記憶するVRAM55,SDRAM56,フラッシュROM57およびROM58も含まれている。また,立体撮像ディジタル・カメラには,バッテリィ2が含まれており,このバッテリィ2から供給される電源が電源制御装置3に与えられる。電源制御装置3から立体撮像ディジタル・カメラを構成する各装置に電源が供給される。さらに,立体撮像ディジタル・カメラには,フラッシュ制御装置5によって制御されるフラッシュ6および姿勢検出センサ7も含まれている。
 第2a図は,顔(オブジェクト,対象物)が立体撮像ディジタル・カメラに近い場合の被写体と立体撮像ディジタル・カメラとの位置関係を示し,第2b図は,撮像により得られた左目用画像を示し,第2c図は,撮像により得られた右目用画像を示している。
 第2a図を参照して,立体撮像ディジタル・カメラ70の前方の比較的近い位置に被写体71がいる。立体撮像ディジタル・カメラ70の左目用画像撮像装置10によって被写体71が撮像され,左目用画像が得られる。同様に,立体撮像ディジタル・カメラ70の右目用画像撮像装置30によって被写体71が撮像され,右目用画像が得られる。
 第2b図は,撮像により得られた左目用画像の一例である。
 左目用画像80Lには,被写体71を表す被写体像81Lが含まれている。左目用画像80Lにおいて顔検出処理が行われることにより,顔82Lが検出される。顔82Lを囲むように顔枠83Lが表示されている。
 第2c図は,撮像により得られた右目用画像の一例である。
 右目用画像80Rには,被写体71を表す被写体像81Rが含まれている。右目用画像80Rにおいて顔検出処理が行われることにより,顔82Rが検出される。顔82Rを囲むように顔枠83Rが表示されている。
 第2a図を参照して,左目用画像撮像装置10から被写体(顔)71までの距離はL1であり,右目用画像撮像装置30から被写体(顔)71までの距離がL2であったものとする。距離L1および距離L2が短い場合,距離差|L1−L2|が距離L1または距離L2に与える影響が大きいので,距離L1を用いて左目用画像撮像装置10および右目用画像撮像装置30の合焦制御が共通に行われると,左目用画像撮像装置10により得られる左目用画像は比較的正確に合焦するが,右目用画像撮像装置30により得られる右目用画像はあまり正確には合焦しない。同様に,距離L2を用いて左目用画像撮像装置10および右目用画像撮像装置30の合焦制御が共通に行われると,右目用画像撮像装置30により得られる右目用画像は比較的正確に合焦するが,左目用画像撮像装置10により得られる左目用画像はあまり正確には合焦しない。このために,この実施例では,左目用画像80Lから検出された顔82Lの大きさSx1および右目用画像80Rから検出された顔82Rの大きさSx2のいずれもが第1のしきい値以上の場合には,左目用画像撮像装置10から被写体までの距離L1にもとづいて(左目用画像から検出された顔にもとづいて)左目用画像撮像装置10の合焦制御が行われ,かつ右目用画像撮像装置30から被写体までの距離L2にもとづいて(右目用画像から検出された顔にもとづいて)右目用画像撮像装置30の合焦制御が行われる。左目用画像も右目用画像も比較的正確に合焦することとなる。
 第3a図は,顔(対象物)が立体撮像ディジタル・カメラから遠い場合の被写体と立体撮像ディジタル・カメラとの位置関係を示し,第3b図は,撮像により得られた左目用画像を示し,第3c図は,撮像により得られた右目用画像を示している。
 第3a図を参照して,立体撮像ディジタル・カメラ70の前方の遠い位置に被写体71がいる。立体撮像ディジタル・カメラ70の左目用画像撮像装置10によって被写体71が撮像され,左目用画像が得られる。同様に,立体撮像ディジタル・カメラ70の右目用画像撮像装置30によって被写体71が撮像され,右目用画像が得られる。
 第3b図は,撮像により得られた左目用画像の一例である。
 左目用画像90Lには,被写体71を表す被写体像91Lが含まれている。左目用画像90Lにおいて顔検出処理が行われることにより,顔92Lが検出される。顔92Lを囲むように顔枠93Lが表示されている。
 第3c図は,撮像により得られた右目用画像の一例である。
 右目用画像90Rには,被写体71を表す被写体像91Rが含まれている。右目用画像90Rにおいて顔検出処理が行われることにより,顔92Rが検出される。顔92Rを囲むように顔枠93Rが表示されている。
 第3a図を参照して,左目用画像撮像装置10から被写体(顔)71までの距離L11であり,右目用画像撮像装置30から被写体(顔)71までの距離がL12であったものとする。距離L11および距離L12が長い場合,距離差|L11−L12|が距離L11または距離L12に与える影響が小さいので,距離L11または距離L12のいずれか一方を用いて左目用画像撮像装置10および右目用画像撮像装置30の合焦制御が共通に行われたとしても左目用画像および右目用画像のいずれの画像も比較的正確に合焦する。このために,この実施例では,左目用画像90Lから検出された顔92Lの大きさおよび右目用画像90Rから検出された顔92Rの大きさのいずれかが第1のしきい値未満の場合には,左目用画像撮像装置10から被写体までの距離L11(左目用画像から検出された顔)または右目用画像撮像装置30から被写体までの距離L12(右目用画像から検出された顔)にもとづいて左目用画像撮像装置10と右目用画像撮像装置30との両方の合焦制御が行われる。
 第4図および第5図は,立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 立体撮像ディジタル・カメラは撮像モードが設定されており,周期的に被写体が撮像されているものとする。
 上述のように,シャッタ・レリーズ・ボタンの第一段階の押し下げがあると,その押し下げ後に左目用画像撮像装置10によって被写体が撮像され,撮像により得られた左目用画像から顔が検出される(ステップ101)。同様に,右目用画像撮像装置30によって被写体が撮像され,撮像により得られた右目用画像から顔が検出される(ステップ102)。左目用画像から検出された顔と右目用画像から検出された顔との間で同一の顔が特定される(ステップ103)。同一の顔の特定は,画像の大きさ,向きの一致などを利用できるのはいうまでもない。同一の顔が見つからなかった場合には画像の中心が合焦するように合焦制御される。同一の顔が複数見つかった場合には,もっとも大きいかどうか,中心位置にもっとも近いかどうかなどにより,一種類の顔が特定される。
 つづいて,左目用画像から特定された顔の水平方向(水平方向でもよい)の大きさSx1,右目用画像から特定された顔の水平方向の大きさSx2がそれぞれ算出される(ステップ104)。
 さらに,左目用画像撮像装置10を用いて測光を行うために左目用画像撮像装置10から得られた左目用画像データ(または検出された顔を表わすデータ)から,左目用画像撮像装置10の露出量が決定され,その決定された露出量に設定される(ステップ105)。つづいて,左目用画像撮像装置10の露出量と同じ露出量となるように右目用画像撮像装置30も設定される(ステップ106)。右目用画像撮像装置30を用いて測光し,決定された露出量を右目用画像撮像装置30と左目用画像撮像装置10との両方を設定してもよい。
 左目用画像から検出された顔の大きさSx1が第1のしきい値Sxth以上かどうかが判定される(ステップ107)。その大きさSx1が第1のしきい値Sxth以上であると(ステップ107でYES),右目用画像から検出された顔の大きさSx2が第1のしきい値Sxth以上かどうかが判定される(ステップ108)。その大きさSx2も第1のしきい値Sxth以上であると(ステップ108でYES),被写体(顔)までの距離が近いと考えられるので,上述のように,左目用画像から検出された顔(左目用画像撮像装置10から顔までの距離,左目用画像)を利用して,左目用画像撮像装置10の合焦制御(第1のフォーカス・レンズ13の位置決め)が行われる(ステップ109)。さらに,右目用画像から検出された顔(右目用画像撮像装置10から顔までの距離,右目用画像)を利用して,右目用画像撮像装置30の合焦制御(第2のフォーカス・レンズ33の位置決め)が行われる(ステップ110)。
 左目用画像から検出された顔の大きさSx1が第1のしきい値未満(ステップ107でNO)または右目用画像から検出された顔の大きさSx2が第1のしきい値未満(ステップ108でNO)の場合には,左目用画像から検出された顔(左目用画像撮像装置10から顔までの距離,右目用画像)を利用して,左目用画像撮像装置10の合焦制御(第1のフォーカス・レンズ13の位置決め)が行われる(ステップ111)。被写体までの距離は遠いと考えられるので,左目用画像から検出された顔を用いて右目用画像撮像装置30の合焦制御(第2のフォーカス・レンズ33の位置決め)を行っても比較的正確に合焦制御ができる。このために,左目用画像から検出された顔を用いて右目用画像撮像装置30の合焦制御が行われる。右目用画像から検出された顔(右目用画像撮像装置30から被写体までの距離,右目用画像)を用いて右目用画像撮像装置30の合焦制御を行い,かつ右目用画像を用いて左目用画像撮像装置の合焦制御を行うようにしてもよい。
 第6図から第10図は,他の実施例を示している。この実施例は,ズーム・レンズが利用されている場合のものである。上述した実施例では,第1のしきい値は顔の大きさにもとづいて決定されているが,この実施例ではしきい値はズーム位置も参照されて決定される。
 第6図は,AF実施切換装置63Aの電気的構成を示している。
 AF実施切換装置63Aには,顔サイズ判定装置65および顔サイズ判定閾値算出装置66が含まれている。顔サイズ判定装置65には,左目用画像から見つけられた顔の大きさ(サイズ)Sx1を表すデータおよび右目用画像から見つけられた顔の大きさ(サイズ)Sx2を表すデータが入力する。顔サイズ判定閾値算出装置66には,第1のズーム・レンズ12のズーム位置Z,基準ズーム位置(ズーム・ポジションのいずれかの位置),Z0,基準ズーム位置での顔サイズ閾値Sx0およびズーム位置ごとの焦点距離テーブルf(Z)をそれぞれ表すデータが入力する。これらの入力したデータにもとづいて,顔サイズ判定閾値算出装置66において顔サイズ比較閾値が算出される。算出された閾値を表すデータは顔サイズ判定装置65に入力する。
 顔サイズ判定装置65において,顔サイズSx1およびSx2の両方ともが,決定された閾値以上であれば,上述のように,左目用画像(左目用画像撮像装置10から顔までの距離)を利用して,左目用画像撮像装置10の合焦制御(第1のフォーカス・レンズ13の位置決め)が行われ,かつ右目用画像(右目用画像撮像装置10から顔までの距離)を利用して,右目用画像撮像装置30の合焦制御(第2のフォーカス・レンズ33の位置決め)が行われるAF方式選択結果を示すデータが出力される。
 第7図は,ズーム位置と顔サイズ比較閾値Sxlimt(第1のしきい値)との関係を示している。
 ズーム位置Zのそれぞれに対応して,顔サイズ比較閾値Sxlimitが決定している。上述した顔サイズ判定閾値算出装置63Aに,図8に示す関係のテーブルがあらかじめ記憶されていてもよい。顔サイズ判定閾値算出装置66に,ズーム位置Zが入力するだけで閾値が算出される。
 但し,立体撮像ディジタル・カメラ70から被写体までの距離dをAF切り換え点とする場合,Sx0=Sxd×d/f(Z0)であり,Sxdは基準ズーム位置Z0であり,被写体までの距離dのときの顔の大きさ(水平方向の幅)である。
 第8a図は,立体撮像ディジタル・カメラと被写体との位置関係を示し,第8b図は,撮像により得られた左目用画像の一例であり,第8c図は,撮像により得られた右目用画像の一例である。
 第8a図を参照して,立体撮像ディジタル・カメラ70の前方の距離Lに被写体71がいる。左目用画像撮像装置10のズーム・レンズ12および右目用画像撮像装置30のズーム・レンズ32の両方とも望遠にズーム位置が設定されているものとする。左目用画像撮像装置10の画角および右目用画像撮像装置30の画角は,いずれもθ1である。
 第8b図を参照して,左目用画像撮像装置10により左目用画像120Lが得られる。左目用画像120Lには,被写体71を表す被写体像121Lが含まれている。被写体像121Lに顔122Lが含まれており,顔枠123Lで囲まれている。
 第8c図を参照して,右目用画像撮像装置30により右目用画像120Rが得られる。右目用画像120Rにも,被写体71を表す被写体像121Rが含まれている。顔122Rが顔枠123Rで囲まれている。
 第9a図は,立体撮像ディジタル・カメラと被写体との位置関係を示し,第9b図は,撮像により得られた左目用画像の一例であり,第9c図は,撮像により得られた右目用画像の一例である。
 第9a図を参照して,立体撮像ディジタル・カメラ70の前方の距離Lに被写体71がいる。左目用画像撮像装置10のズーム・レンズ12および右目用画像撮像装置30のズーム・レンズ32の両方とも広角にズーム位置が設定されているものとする。左目用画像撮像装置10の画角および右目用画像撮像装置30の画角は,いずれもθ2である。
 第9b図を参照して,左目用画像撮像装置10により左目用画像130Lが得られる。左目用画像130Lには,被写体71を表す被写体像131Lが含まれている。被写体像131Lに顔132Lが含まれており,顔枠133Lで囲まれている。
 第9c図を参照して,右目用画像撮像装置30により右目用画像130Rが得られる。右目用画像130Rにも,被写体71を表す被写体像131Rが含まれている。顔132Rが顔枠133Rで囲まれている。
 第8b図および第8c図と第9a図および第9c図とを比べればわかるように,立体撮像ディジタル・カメラ70から被写体71までの距離が距離Lで等しい場合でも,望遠側では距離が離れていても顔は大きくなり,広角側では顔は小さくなる。このように,ズーム・レンズのズーム位置によって顔の大きさが異なる。したがって,この実施例では,上述のように,ズーム位置に応じた閾値が利用される。
 第10図は,立体撮像ディジタル・カメラの処理手順を示すフローチャートである。この図において,第4図または第5図に示す処理と同一の処理については同一符号を付して説明を省略する。
 シャッタ・レリーズ・ボタンの第1段階の押し下げがあるとズーム位置(第1のズーム・レンズ12と第2のズーム・レンズ32とは連動しており,いずれのレンズ12または32の位置でもよい)が読み取られる(ステップ100)。その後上述のように,左目用画像の顔の大きさSx1および右目用画像の顔の大きさSx2の算出処理などが行われる(第5図ステップ101−106)。
 つづいて,左目用画像の顔の大きさSx1が,読み取られたズーム位置に対応した顔サイズ比較閾値Sxlimit(第1のしきい値)以上かどうかが判定される(ステップ107A)。顔の大きさSx1が顔サイズ比較閾値Sxlimit以上であれば(ステップ107AでYES),右目用画像の顔の大きさSx2が,読み取られたズーム位置に対応した顔サイズ比較閾値Sxlimit以上かどうかが判定される(ステップ108A)。顔の大きさSx2も顔サイズ比較閾値Sxlimit以上であれば(ステップ108AでYES),立体撮像ディジタル・カメラ70から被写体までの距離は比較的近いと考えられ,上述のように,左目用画像から検出された顔を利用した左目用画像撮像装置10の合焦制御(ステップ109),右目用画像から検出された顔を利用した右目用画像撮像装置30の合焦制御(ステップ110)が行われる。
 左目用画像の顔の大きさSx1が顔サイズ比較閾値Sxlimit未満であるか(ステップ107AでNO),右目用画像の顔の大きさSx2が顔サイズ比較閾値Sxlimit未満の場合には(ステップ108AでNO),立体撮像ディジタル・カメラ70から被写体までの距離は比較的遠いと考えられ,上述のように,左目用画像から検出された顔を利用した左目用画像撮像装置10の合焦制御が行われ(ステップ111),左目用画像撮像装置10の合焦位置に右目用画像撮像装置30の合焦制御(ステップ112)が行われる。
 第11図から第15図は,他の実施例を示している。この実施例は,顔の位置も考慮するものである。
 第11図は,AF切り換え装置63Bの電気的構成を示すブロック図である。この図において,第6図に示すものと同一物については同一符号を付して説明を省略する。
 AF切り替え装置63Bには,顔位置判定装置141,顔位置判定閾値算出装置142およびAF方式選択装置143が含まれている。
 顔位置判定装置141には,左目用画像の中心からの顔の水平方向のずれ量を示す顔位置Lx1および右目用画像の中心からの顔の水平方向のずれ量を示す顔位置Lx2を表すデータが入力する。また,顔位置判定閾値算出装置142にはズーム位置を示すデータが入力する。
 顔サイズ判定装置65からは,左目用画像の顔の大きさSx1および右目用画像の顔の大きさSx2のいずれもが顔サイズ比較閾値Sxlimit以上かどうかを示す判定結果を示すデータが出力され,AF方式選択装置143に入力する。また,顔位置判定装置141からは,左目用画像の顔の位置Lx1および右目用画像の顔の位置Lx2のいずれもが顔位置判定閾値未満かどうかを示す判定結果を示すデータが出力され,AF方式選択装置143に入力する。左目用画像の顔の大きさSx1および右目用画像の顔の大きさSx2のいずれもが顔サイズ比較閾値Sxlimit以上であり,かつ左目用画像の顔の位置Lx1または右目用画像の顔の位置Lx2のいずれかが顔位置判定閾値未満であれば,上述のように,左目用画像を利用した左目用画像撮像装置10の合焦制御,右目用画像を利用した右目用画像撮像装置30の合焦制御が行われる。
 第12図は,ズーム位置と顔位置比較閾値Lxlimit(第2のしきい値)との関係を示している。
 ズーム位置ごとに顔位置比較閾値Lxlimitが規定されている。顔位置比較閾値は,ズーム位置に対応して規定されている顔位置判定係数Knを,顔の大きさSx(Sx1またはSx2)で除したものである。顔が小さい場合には,画角内での顔の移動量が左目用画像撮像装置10から被写体までの距離と右目用画像撮像装置30から被写体までの距離との距離差に与える影響が小さく,顔が大きいほどその影響が大きいので,顔位置比較閾値Lxlimitは顔位置判定係数Knを顔の大きさで除したものとなっている。
 第13a図は,立体撮像ディジタル・カメラ70と被写体との位置関係を示し,第13b図は左目用画像の一例であり,第13c図は右目用画像の一例である。
 第13a図に示すように,被写体71が画角の中心近傍にいる場合には,左目用画像撮像装置10から被写体71までの距離と右目用画像撮像装置30から被写体71までの距離とはほぼ等しいと考えられる。
 第13b図を参照して,左目用画像150Lには被写体71を表す被写体像151Lが含まれている。顔152Lを囲む顔枠153Lも表示されている。
 第13c図を参照して,右目用画像150Rにも被写体71を表す被写体像151Rが含まれている。顔152Rを囲む顔枠153Rも表示されている。
 顔152Lと152Rとはいずれも画像のほぼ中心に表示されている。
 第14a図は,立体撮像ディジタル・カメラ70と被写体との位置関係を示し,第14b図は左目用画像の一例であり,第14c図は右目用画像の一例である。
 第14a図に示すように,被写体71が画角の端部にいる場合には,左目用画像撮像装置10から被写体71までの距離と右目用画像撮像装置30から被写体71までの距離とはほぼ等しいとは考えられない。
 第14b図を参照して,左目用画像160Lには被写体71を表す被写体像161Lが含まれている。顔162Lを囲む顔枠163Lも表示されている。顔162Lは左目用画像160Lから左側(負側)距離Lx1だけずれている。
 第14図(C)を参照して,右目用画像160Rにも被写体71を表す被写体像161Rが含まれている。顔162Rを囲む顔枠163Rも表示されている。顔162Rは右目用画像160Rから左側(負側)に距離Lx2だけずれている。
 第15図は,立体撮像ディジタル・カメラの処理手順を示すフローチャートであり,第10図に対応するものである。第15図に示す処理において第10図に示す処理と同一の処理については同一符号を付して説明を省略する。
 上述のように,左目用画像の顔の大きさSx1および右目用画像の顔の大きさSx2のいずれもが顔サイズ比較閾値Sxlimt(第1のしきい値)以上であると(ステップ108AでYES),上述のように,左目用画像の顔の水平方向の位置ずれ量の絶対値|Lx1|が顔位置比較閾値Lxlimit以上かどうか(ステップ171),右目用画像顔の水平方向の位置ずれ量の絶対値|Lx2|が,顔位置比較閾値Lxlimit(第2のしきい値)以上かどうかが判定される(ステップ172)。
 左目用画像の顔の水平方向の位置ずれ量の絶対値|Lx1|または右目用画像顔の水平方向の位置ずれ量の絶対値|Lx2|のいずれか一方でも,顔位置比較閾値Lxlimit以上であれば,(ステップ171または172でYES),顔が画像の中心からずれているので,左目用画像を利用した左目用画像撮像装置10の合焦制御(ステップ109),右目用画像を利用した右目用画像撮像装置30の合焦制御(ステップ110)が行われる。
 左目用画像の顔の水平方向の位置ずれ量の絶対値|Lx1|および右目用画像顔の水平方向の位置ずれ量の絶対値|Lx2|のいずれも,顔位置比較閾値Lxlimit未満であれば(ステップ171および172のいずれもNO),顔が画像の中心にあるので,上述のように,左目用画像を利用した左目用画像撮像装置10の合焦制御が行われ(ステップ111),左目用画像撮像装置10の合焦位置に右目用画像撮像装置30の合焦制御(ステップ112)が行われる。
 第16図から第19図は,さらに他の実施例を示している。この実施例は,さらに,左目用画像の顔と右目用画像の顔との対称性を考慮したものである。
 第16図は,AF実施切り換え装置63Cの電気的構成を示すブロック図である。この図において,第11図に示すものと同一物については同一符号を付して説明を省略する。
 第16図に示すAF実施切り換え装置63Cには,第11図に示す装置64Bに加えて顔位置対象性判定装置144および顔位置対象性判定閾値算出装置145が含まれている。
 顔位置対称性判定装置144には,左目用画像の顔の位置Lx1および右目用画像の顔の位置Lx2をそれぞれ表すデータが入力する。顔位置対象性判定閾値算出装置145にはズーム位置を表すデータが入力する。
 顔位置の対称性がズーム位置ごとに決められた顔位置対称性判定閾値算出装置145において算出される閾値以上であれば,対称性が左目用画像撮像装置10から被写体までの距離と右目用画像撮像装置30から被写体までの距離との差に与える影響が大きいので,左目用画像を利用した左目用画像撮像装置10の合焦制御,右目用画像を利用した右目用画像撮像装置30の合焦制御が行われる。逆に,顔位置の対称性がズーム位置ごとに決められた顔位置対称性判定閾値算出装置145において算出される閾値未満であれば,対称性が左目用画像撮像装置10から被写体までの距離と右目用画像撮像装置30から被写体までの距離との差に与える影響は小さいので,左目用画像を利用した左目用画像撮像装置10の合焦制御が行われ,左目用画像撮像装置10の合焦位置に右目用画像撮像装置30の合焦制御が行われる。
 第17図は,ズーム位置と顔位置対称性判定閾値Lxsym(第3のしきい値)との関係を示している。
 ズーム位置ごとに顔位置対称性判定閾値Lxsymが規定されている。顔が小さい場合は,顔の対称性が小さくとも上述した距離差に与える影響が小さいが,顔が大きい場合は顔の対称性が上述した距離差に与える影響が大きいので,所定の係数である顔位置対称性判定係数Mnを顔の大きさSx(Sx1またはSx2)で除したものが顔位置対称性判定閾値Lxsymとされている。
 第18a図は,立体撮像ディジタル・カメラ70と被写体との位置関係を示し,第18b図は左目用画像の一例であり,第18c図は右目用画像の一例である。
 第18a図に示すように,被写体71が画角の中心であっても立体撮像ディジタル・カメラ70の近くにいるものとする。
 第18b図を参照して,左目用画像180Lには被写体71を表す被写体像181Lが含まれている。顔182Lを囲む顔枠183Lも表示されている。顔182Lは左目用画像180Lから右側(正側)距離Lx1だけずれている。
 第18c図を参照して,右目用画像180Rにも被写体71を表す被写体像181Rが含まれている。顔182Rを囲む顔枠183Rも表示されている。顔182Rは右目用画像180Rから左側(負側)に距離Lx2だけずれている。
 第19図は,立体撮像ディジタル・カメラの処理手順を示すフローチャートである。この図において,第16図に示す処理と同一の処理ついては同一符号を付して説明を省略する。
 顔の対称性は,顔の画像の中心からのずれ量の和の絶対値|Lx1+Lx2|によって表される。この絶対値が顔位置対称性判定閾値Lxsym(第3のしきい値)以上であれば(ステップ173でYES),上述のように対称性が距離差に与える影響が大きいので,左目用画像を利用した左目用画像撮像装置10の合焦制御(ステップ109),右目用画像を利用した右目用画像撮像装置30の合焦制御(ステップ110)が行われる。
 顔の画像の中心からのずれ量の和の絶対値|Lx1+Lx2|が顔位置対称性判定閾値Lxsym未満であれば(ステップ173でNO),上述のように対称性が距離差に与える影響が小さいので,上述のように,左目用画像を利用した左目用画像撮像装置10の合焦制御が行われ(ステップ111),左目用画像撮像装置10の合焦位置に右目用画像撮像装置30の合焦制御(ステップ112)が行われる。
 上述の実施例では,顔が検出されているが,顔に限らず,人物像など他の対象画像を検出して上述の処理を行うようにしてもよい。また上記の実施例においては,ズーム・レンズのズーム位置ごとに顔位置比較閾値Lxlimit,顔位置対称性判定閾値Lxsymが規定されているが,ズーム・レンズを使用しなくとも上記実施例を実現でき,その場合には,1種類の顔位置比較閾値Lxlimit,顔位置対称性判定閾値Lxsymが規定されることとなる。
 第20a図,第20b図および第20c図から第41図は,他の実施例を示すものである。この実施例は,顔の代わりに花を検出して,花の大きさ等に応じて合焦制御を行うものである。花はマクロ撮影が行われることが多いので,この実施例による効果が特に高い。上述したようにオブジェクトが顔の場合,顔の大きさは人によってあまり変化が無いが,オブジェクトが花の場合,花の大きさは数mmから数十cm程度のものまであり,花の種類によって変わる。このために,花の大きさを比較するしきい値は比較的小さい値(たとえば,5mm程度)が利用される。これらの実施例においても上述した実施例と同様に,第1図に示す電気的構成をもつ立体撮像ディジタル・カメラが利用される。
 第20a図,第20b図および第20c図から第23図は,上述した第2a図,第2b図および第2c図から第5図に対応するものである。
 第20a図は,花(オブジェクト,対象物)が立体撮像ディジタル・カメラに近い場合の被写体と立体撮像ディジタル・カメラとの位置関係を示し,第20b図は,撮像により得られた左目用画像を示し,第20c図は,撮像により得られた右目用画像を示している。
 第20a図を参照して,立体撮像ディジタル・カメラ70の前方の比較的近い位置に被写体である花201がある。立体撮像ディジタル・カメラ70の左目用画像撮像装置10によって花201が撮像され,左目用画像が得られる。同様に,立体撮像ディジタル・カメラ70の右目用画像撮像装置30によって花201が撮像され,右目用画像が得られる。
 第20b図は,撮像により得られた左目用画像の一例である。
 左目用画像210Lには,花212Lが含まれており,左目用画像210Lにおいて花検出処理が行われることにより,花212Lが検出される。花212Lを囲むように花枠213Lが表示されている。
 第20c図は,撮像により得られた右目用画像の一例である。
 右目用画像210Rにも,花212Rが含まれており,右目用画像210Rにおいて花検出処理が行われることにより,花212Rが検出される。花212Rを囲むように花枠213Rが表示されている。
 第20a図を参照して,左目用画像撮像装置10から顔210までの距離はLf1であり,右目用画像撮像装置30から花201までの距離がLf2であったものとする。距離Lf1および距離Lf2が短い場合,距離差|Lf1−Lf2|が距離Lf1または距離Lf2に与える影響が大きいので,距離Lf1を用いて左目用画像撮像装置10および右目用画像撮像装置30の合焦制御が共通に行われると,左目用画像撮像装置10により得られる左目用画像は比較的正確に合焦するが,右目用画像撮像装置30により得られる右目用画像はあまり正確には合焦しない。同様に,距離Lf2を用いて左目用画像撮像装置10および右目用画像撮像装置30の合焦制御が共通に行われると,右目用画像撮像装置30により得られる右目用画像は比較的正確に合焦するが,左目用画像撮像装置10により得られる左目用画像はあまり正確には合焦しない。このために,この実施例では,左目用画像210Lから検出された花212Lの大きさSxf1および右目用画像210Rから検出された花212Rの大きさSfx2のいずれもが第1のしきい値以上の場合には,左目用画像撮像装置10から花201までの距離Lf1にもとづいて左目用画像撮像装置10の合焦制御が行われ,かつ右目用画像撮像装置30から花までの距離Lf2にもとづいて右目用画像撮像装置30の合焦制御が行われる。左目用画像も右目用画像も比較的正確に合焦することとなる。
 第21a図は,花が立体撮像ディジタル・カメラから遠い場合の花と立体撮像ディジタル・カメラとの位置関係を示し,第21b図は,撮像により得られた左目用画像を示し,第21c図は,撮像により得られた右目用画像を示している。
 第21a図を参照して,立体撮像ディジタル・カメラ70の前方の遠い位置に花201がある。立体撮像ディジタル・カメラ70の左目用画像撮像装置10によって花201が撮像され,左目用画像が得られる。同様に,立体撮像ディジタル・カメラ70の右目用画像撮像装置30によって花201が撮像され,右目用画像が得られる。
 第21b図は,撮像により得られた左目用画像の一例である。
 左目用画像220Lには,花222Lが含まれており,左目用画像220Lにおいて花検出処理が行われることにより,花222Lが検出される。花222Lを囲むように花枠223Lが表示されている。
 第21c図は,撮像により得られた右目用画像の一例である。
 右目用画像220Rにも,花222Rが含まれており,右目用画像220Rにおいて花検出処理が行われることにより,花222Rが検出される。花222Rを囲むように花223Rが表示されている。
 第21a図を参照して,左目用画像撮像装置10から花201までの距離は距離Lf11であり,右目用画像撮像装置30から花201までの距離がLf12であったものとする。距離Lf11および距離Lf12が長い場合,距離差|Lf11−Lf12|が距離Lf11または距離Lf12に与える影響が小さいので,距離Lf11または距離Lf12のいずれか一方を用いて左目用画像撮像装置10および右目用画像撮像装置30の合焦制御が共通に行われたとしても左目用画像および右目用画像のいずれの画像も比較的正確に合焦する。このために,この実施例では,左目用画像220Lから検出された花222Lの大きさおよび右目用画像220Rから検出された花222Rの大きさのいずれかが第1のしきい値未満の場合には,左目用画像撮像装置10から花201までの距離Lf11または右目用画像撮像装置30から花201までの距離Lf12にもとづいて左目用画像撮像装置10と右目用画像撮像装置30との両方の合焦制御が行われる。
 第22図および第23図は,第4図および第5図に対応するもので,立体撮像ディジタル・カメラの処理手順を示すフローチャートである。第22図または第23図において,第4図または第5図に示す処理と同一の処理については同一符号を付して説明を省略する。
 立体撮像ディジタル・カメラは撮像モード(たとえば,マクロ撮像モード)が設定されており,周期的に被写体が撮像されているものとする。
 上述のように,シャッタ・レリーズ・ボタンの第一段階の押し下げがあると,その押し下げ後に左目用画像撮像装置10によって花が撮像され,撮像により得られた左目用画像から花が検出される(ステップ101A)。花の色,形状などを利用したテンプレート・マッチングその他の手法により花を検出できるのはいうまでもない。同様に,右目用画像撮像装置30によって花が撮像され,撮像により得られた右目用画像から花が検出される(ステップ102A)。左目用画像から検出された花と右目用画像から検出された花との間で同一の花が特定される(ステップ103A)。同一の花が見つからなかった場合には画像の中心が合焦するように合焦制御される。同一の花が複数見つかった場合には,もっとも大きいかどうか,中心位置にもっとも近いかどうかなどにより,一つの花が特定される。
 つづいて,左目用画像から特定された花の水平方向の大きさSxf1,右目用画像から特定された花の水平方向の大きさSxf2がそれぞれ算出される(ステップ104A)。
 さらに,左目用画像データ(または検出された花を表わすデータ)から,左目用画像撮像装置10の露出量が決定され,その決定された露出量に設定される(ステップ105)。つづいて,左目用画像撮像装置10の露出量と同じ露出量となるように右目用画像撮像装置30も設定される(ステップ106)。
 左目用画像から検出された花の大きさSxf1が第1のしきい値Sxfth(上述したように,たとえば,5mm)以上かどうかが判定される(ステップ107A)。花の大きさSx1が第1のしきい値Sxfth以上であると(ステップ107AでYES),右目用画像から検出された顔の大きさSxf2が第1のしきい値Sxfth以上かどうかが判定される(ステップ108A)。その大きさSx2も第1のしきい値Sxfth以上であると(ステップ108AでYES),花までの距離が近いと考えられるので,上述のように,左目用画像から検出された花(左目用画像撮像装置10から花までの距離,左目用画像)を利用して,左目用画像撮像装置10の合焦制御(第1のフォーカス・レンズ13の位置決め)が行われる(ステップ109)。さらに,右目用画像から検出された花(右目用画像撮像装置10から花までの距離,右目用画像)を利用して,右目用画像撮像装置30の合焦制御(第2のフォーカス・レンズ33の位置決め)が行われる(ステップ110)。
 左目用画像から検出された花の大きさSxf1が第1のしきい値未満(ステップ107AでNO)または右目用画像から検出された花の大きさSxf2が第1のしきい値未満(ステップ108AでNO)の場合には,左目用画像から検出された花(左目用画像撮像装置10から花までの距離,右目用画像)を利用して,左目用画像撮像装置10の合焦制御(第1のフォーカス・レンズ13の位置決め)が行われる(ステップ111)。花までの距離は遠いと考えられるので,左目用画像から検出された花を用いて右目用画像撮像装置30の合焦制御(第2のフォーカス・レンズ33の位置決め)を行っても比較的正確に合焦制御ができる。このために,左目用画像から検出された花を用いて右目用画像撮像装置30の合焦制御が行われる。右目用画像から検出された花(右目用画像撮像装置30から花までの距離,右目用画像)を用いて右目用画像撮像装置30の合焦制御を行い,かつ右目用画像を用いて左目用画像撮像装置の合焦制御を行うようにしてもよい。
 第24図から第30図は,他の実施例を示すもので,上述した第6図から第10図の実施例に対応している。この実施例は,ズーム・レンズが利用されている場合のものである。上述した実施例では,第1のしきい値は顔の大きさにもとづいて決定されているが,この実施例ではしきい値はズーム位置も参照されて決定される。
 第24図は,AF実施切換装置63Dの電気的構成を示している。
 AF実施切換装置63Dには,花サイズ判定装置65Aおよび花サイズ判定閾値算出装置66Aが含まれている。花サイズ判定装置65Aには,左目用画像から見つけられた花の大きさ(サイズ)Sxf1を表すデータおよび右目用画像から見つけられた花の大きさ(サイズ)Sxf2を表すデータが入力する。花サイズ判定閾値算出装置66Aには,第1のズーム・レンズ12のズーム位置Z,基準ズーム位置(ズーム・ポジションのいずれかの位置),Z0,基準ズーム位置での花サイズ閾値Sxf0およびズーム位置ごとの焦点距離テーブルf(Z)をそれぞれ表すデータが入力する。これらの入力したデータにもとづいて,花サイズ判定閾値算出装置66Aにおいて花サイズ比較閾値が算出される。算出された閾値を表すデータは花サイズ判定装置65Aに入力する。
 花サイズ判定装置65Aにおいて,花サイズSxf1およびSxf2の両方ともが,決定された閾値以上であれば,上述のように,左目用画像(左目用画像撮像装置10から花までの距離)を利用して,左目用画像撮像装置10の合焦制御(第1のフォーカス・レンズ13の位置決め)が行われ,かつ右目用画像(右目用画像撮像装置10から花までの距離)を利用して,右目用画像撮像装置30の合焦制御(第2のフォーカス・レンズ33の位置決め)が行われるAF方式選択結果を示すデータが出力される。
 第25図は,ズーム位置と花サイズ比較閾値Sxflimt(第1のしきい値)との関係を示している。第7図に対応している。
 ズーム位置Zのそれぞれに対応して,花サイズ比較閾値Sxflimitが決定している。上述した花サイズ判定閾値算出装置63Dに,図25に示す関係のテーブルがあらかじめ記憶されていてもよい。花サイズ判定閾値算出装置66Aに,ズーム位置Zが入力するだけで閾値が算出される。
 但し,立体撮像ディジタル・カメラ70から被写体までの距離dをAF切り換え点とする場合,Sxf0=Sxd×d/f(Z0)であり,Sxdは基準ズーム位置Z0であり,花までの距離dのときの花の大きさ(水平方向の幅)である。
 第26a図は,焦点距離が長い(望遠側に設定)場合において,花が比較的遠い位置にあるときの立体撮像ディジタル・カメラと被写体との位置関係を示し,第8a図に対応するものである。第26b図は,撮像により得られた左目用画像の一例であり,第26c図は,撮像により得られた右目用画像の一例である。
 第26a図を参照して,立体撮像ディジタル・カメラ70の前方の距離Lf1に花201がある。左目用画像撮像装置10のズーム・レンズ12および右目用画像撮像装置30のズーム・レンズ32の両方とも望遠にズーム位置が設定されているものとする。
 第26b図を参照して,左目用画像撮像装置10により左目用画像230Lが得られる。左目用画像230Lには,花232Lが含まれており,花枠233Lで囲まれている。
 第26c図を参照して,右目用画像撮像装置30により右目用画像230Rが得られる。右目用画像230Rにも,花232Rが含まれており,花枠233Rで囲まれている。
 第27a図は,焦点距離が長い(望遠側に設定)場合において,花が比較的近い位置にあるときの立体撮像ディジタル・カメラと被写体との位置関係を示し,第27b図は,撮像により得られた左目用画像の一例であり,第27c図は,撮像により得られた右目用画像の一例である。
 第27a図を参照して,立体撮像ディジタル・カメラ70の前方の距離Lf2(Lf1<Lf2)に花201よりも小さな花202がある。左目用画像撮像装置10のズーム・レンズ12および右目用画像撮像装置30のズーム・レンズ32の両方とも望遠にズーム位置が設定されている。
 第27b図を参照して,左目用画像撮像装置10により左目用画像240Lが得られる。左目用画像240Lには,花242Lが含まれており,花枠243Lで囲まれている。
 第27c図を参照して,右目用画像撮像装置30により右目用画像240Rが得られる。右目用画像240Rにも,花242Rが含まれており,花枠243Rで囲まれている。
 第26a図,第26b図および第26c図ならびに第27a図,第27b図および第27c図を比較するとわかるように,焦点距離が長く設定されていると(望遠側に設定されていると),撮像された画像に対して花の割合は大きくなる。花の割合が大きくなるので,花は近くにあると判断される。
 第28a図は,焦点距離が短い(広角)場合に花が遠くにあるときの立体撮像ディジタル・カメラと被写体との位置関係を示しており,第9a図に対応している。第28b図は,撮像により得られた左目用画像の一例であり,第28c図は,撮像により得られた右目用画像の一例である。
 第28a図を参照して,立体撮像ディジタル・カメラ70の前方の距離Lf1に花201がある。左目用画像撮像装置10のズーム・レンズ12および右目用画像撮像装置30のズーム・レンズ32の両方とも広角にズーム位置が設定されている。
 第28b図を参照して,左目用画像撮像装置10により左目用画像250Lが得られる。左目用画像250Lには,花252Lが含まれており,花枠253Lで囲まれている。
 第28c図を参照して,右目用画像撮像装置30により右目用画像250Rが得られる。右目用画像250Rにも,花252Rが含まれており,花枠253Rで囲まれている。
 第29a図は,焦点距離が短い(広角)場合に花が近くにあるときの立体撮像ディジタル・カメラと被写体との位置関係を示している。第29b図は,撮像により得られた左目用画像の一例であり,第29c図は,撮像により得られた右目用画像の一例である。
 第29a図を参照して,立体撮像ディジタル・カメラ70の前方の距離Lf2に比較的小さな花202がある。左目用画像撮像装置10のズーム・レンズ12および右目用画像撮像装置30のズーム・レンズ32の両方とも広角にズーム位置が設定されている。
 第29b図を参照して,左目用画像撮像装置10により左目用画像260Lが得られる。左目用画像260Lには,花262Lが含まれており,花枠263Lで囲まれている。
 第29c図を参照して,右目用画像撮像装置30により右目用画像260Rが得られる。右目用画像260Rにも,花262Rが含まれており,花枠263Rで囲まれている。
 第26a図,第26b図および第26c図から第29a図,第29b図および第29c図を参照すればわかるように,ズーム・レンズが広角側に設定されていると花の位置が変わらなくとも,撮影により得られた画像の花の割合は小さくなる。したがって,この実施例では,上述のように,ズーム位置に応じた閾値が利用される。
 第30図は,立体撮像ディジタル・カメラの処理手順を示すフローチャートである。第30図は,第10図に対応するもので,第10図,第22図に示す処理と同一の処理については同一符号を付して説明を省略する。
 シャッタ・レリーズ・ボタンの第1段階の押し下げがあるとズーム位置(第1のズーム・レンズ12と第2のズーム・レンズ32とは連動しており,いずれのレンズ12または32の位置でもよい)が読み取られる(ステップ100)。その後上述のように,左目用画像の花の大きさSxf1および右目用画像の花の大きさSxf2の算出処理などが行われる(第22図ステップ101A−106)。
 つづいて,左目用画像の花の大きさSxf1が,読み取られたズーム位置に対応した花サイズ比較閾値Sxflimit(第1のしきい値)以上かどうかが判定される(ステップ107B)。花の大きさSxf1が花サイズ比較閾値Sxflimit以上であれば(ステップ107BでYES),右目用画像の花の大きさSxf2が,読み取られたズーム位置に対応した花サイズ比較閾値Sxflimit以上かどうかが判定される(ステップ108B)。花の大きさSxf2も花サイズ比較閾値Sxflimit以上であれば(ステップ108BでYES),立体撮像ディジタル・カメラ70から被写体までの距離は比較的近いと考えられ,上述のように,左目用画像から検出された花を利用した左目用画像撮像装置10の合焦制御(ステップ109),右目用画像から検出された花を利用した右目用画像撮像装置30の合焦制御(ステップ110)が行われる。
 左目用画像の花の大きさSxf1が花サイズ比較閾値Sxflimit未満であるか(ステップ107BでNO),右目用画像の花の大きさSxf2が花サイズ比較閾値Sxflimit未満の場合には(ステップ108BでNO),立体撮像ディジタル・カメラ70から被写体までの距離は比較的遠いと考えられ,上述のように,左目用画像から検出された花を利用した左目用画像撮像装置10の合焦制御が行われ(ステップ111),左目用画像撮像装置10の合焦位置に右目用画像撮像装置30の合焦制御(ステップ112)が行われる。
 第31図から第37図は,他の実施例を示すもので,第11図から第15図に示す実施例に対応している。この実施例は,画角における花の位置も考慮するものである。
 第31図は,AF切り換え装置63Eの電気的構成を示すブロック図である。この図において,第24図に示すものと同一物については同一符号を付して説明を省略する。
 AF切り替え装置63Eには,花位置判定装置141A,花位置判定閾値算出装置142AおよびAF方式選択装置143が含まれている。
 花位置判定装置141Aには,左目用画像の中心からの花の水平方向のずれ量を示す花位置Lxf1および右目用画像の中心からの花の水平方向のずれ量を示す花位置Lxf2を表すデータが入力する。また,花位置判定閾値算出装置142Aにはズーム位置を示すデータが入力する。
 花サイズ判定装置65Aからは,左目用画像の花の大きさSxf1および右目用画像の花の大きさSxf2のいずれもが花サイズ比較閾値Sxflimit以上かどうかを示す判定結果を示すデータが出力され,AF方式選択装置143に入力する。また,花位置判定装置141Aからは,左目用画像の花の位置Lxf1および右目用画像の花の位置Lxf2のいずれもが花位置判定閾値未満かどうかを示す判定結果を示すデータが出力され,AF方式選択装置143に入力する。左目用画像の花の大きさSxf1および右目用画像の花の大きさSxf2のいずれもが花サイズ比較閾値Sxflimit以上であり,かつ左目用画像の花の位置Lxf1または右目用画像の花の位置Lxf2のいずれかが花位置判定閾値未満であれば,上述のように,左目用画像を利用した左目用画像撮像装置10の合焦制御,右目用画像を利用した右目用画像撮像装置30の合焦制御が行われる。
 第32図は,ズーム位置と花位置比較閾値Lxflimit(第2のしきい値)との関係を示しており,第12図に対応している。
 ズーム位置ごとに花位置比較閾値Lxflimitが規定されている。花位置比較閾値は,ズーム位置に対応して規定されている花位置判定係数Knを,花の大きさSxf(Sxf1またはSxf2)で除したものである。花が小さい場合には,画角内での花の移動量が左目用画像撮像装置10から被写体までの距離と右目用画像撮像装置30から被写体までの距離との距離差に与える影響が小さく,花が大きいほどその影響が大きいので,花位置比較閾値Lxflimitは花位置判定係数Knを花の大きさで除したものとなっている。
 第33a図は,比較的大きな花201が画角中心付近にある場合の立体撮像ディジタル・カメラ70と被写体との位置関係を示し,第33b図は左目用画像の一例であり,第33c図は右目用画像の一例である。
 第33a図に示すように,花201が画角の中心近傍にいる場合には,左目用画像撮像装置10から花201までの距離と右目用画像撮像装置30から花201までの距離とはほぼ等しいと考えられる。比較的大きな花201を撮像する場合には,その花201の位置は,左目用画像撮像装置10の光軸と右目用画像撮像装置30の光軸との交点(光軸クロス・ポイント,例えば,カメラ70から2mの距離)C近傍に位置決めされて撮像されることが多い。
 第33b図を参照して,左目用画像270Lには花272Lが含まれており,花枠273Lも表示されている。
 第33c図を参照して,右目用画像270Rにも花272Rが含まれており,花272Rを囲む花枠273Rも表示されている。
 花272Lと272Rとはいずれも画像のほぼ中心に表示されている。
 第34a図は,比較的小さな花202が画角中心付近にある場合の立体撮像ディジタル・カメラ70と被写体との位置関係を示し,第34b図は左目用画像の一例であり,第34c図は右目用画像の一例である。
 第34a図に示すように,比較的小さな花202を撮像する場合には,比較的大きな花を撮像する場合と異なり,光軸のクロス・ポイントCよりも離れて撮像されることが多い。
 第34b図を参照して,左目用画像280Lには花282Lが含まれており,花枠283Lも表示されている。
 第34c図を参照して,右目用画像280Rにも花282Rが含まれており,花282Rを囲む花枠283Rも表示されている。
 花282Lと282Rとはいずれも画像のほぼ中心に表示されている。
 第35a図は,比較的大きな花201を撮像する場合の立体撮像ディジタル・カメラ70と被写体との位置関係を示すもので,第33a図に示すものと異なり,花201が画角の端(周辺)の方に位置している。
 第35b図を参照して,左目用画像290Lには花292Lが含まれており,花292Lを囲む花枠292Lも表示されている。花292Lは左目用画像290Lの横方向の中心から左側(負側)距離Lxf1だけずれている。
 第35c図を参照して,右目用画像290Rにも花292Rが含まれており,花292Rを囲む花枠293Rも表示されている。花292Rは右目用画像290Rの横方向の中心から左側(負側)に距離Lxf2だけずれている。
 比較的大きな花を撮像する場合には,上述したように光軸のクロス・ポイントC近傍に花が位置決めされて撮像されるので,左目用画像290Lに含まれる花292Lの位置ずれLxf1と右目用画像290Rに含まれる花292Rの位置ずれLxf2ともに同じ方向に一緒に画像の横方向の中心からずれる。
 第36a図は,比較的小さな花202を撮像する場合の立体撮像ディジタル・カメラ70と被写体との位置関係を示すもので,花202が画角の端(周辺)の方に位置している。
 第36b図を参照して,左目用画像300Lには花302Lが含まれており,花302Lを囲む花枠302Lも表示されている。花292Lは左目用画像290Lの横方向の中心から左側(負側)距離Lxf11だけずれている。
 第36c図を参照して,右目用画像300Rにも花302Rが含まれており,花302Rを囲む花枠303Rも表示されている。花302Rは右目用画像300Rの横方向の中心から左側(負側)に距離Lxf12だけずれている。
 比較的小さな花を撮像する場合には,上述したように光軸のクロス・ポイントCから離れた位置に花が位置決めされて撮像されることが多いので,左目用画像300Lに含まれる花302Lの位置ずれLxf11と右目用画像300Rに含まれる花302Rの位置ずれLxf12とは位置ずれ量が比較的異なってしまう。
 第37図は,立体撮像ディジタル・カメラの処理手順を示すフローチャートであり,第10図,第15図に対応するものである。第37図に示す処理において第10図,第15図に示す処理と同一の処理については同一符号を付して説明を省略する。
 上述のように,左目用画像の花の大きさSxf1および右目用画像の花の大きさSxf2のいずれもが花サイズ比較閾値Sxflimt(第1のしきい値)以上であると(ステップ108BでYES),上述のように,左目用画像の花の水平方向の位置ずれ量の絶対値|Lxf1|が花位置比較閾値Lxflimit以上かどうか(ステップ171A),右目用画像花の水平方向の位置ずれ量の絶対値|Lxf2|が,花位置比較閾値Lxflimit(第2のしきい値)以上かどうかが判定される(ステップ172A)。
 左目用画像の花の水平方向の位置ずれ量の絶対値|Lxf1|または右目用画像花の水平方向の位置ずれ量の絶対値|Lxf2|のいずれか一方でも,花位置比較閾値Lxflimit以上であれば,(ステップ171Aまたは172AでYES),花が画像の中心からずれているので,左目用画像を利用した左目用画像撮像装置10の合焦制御(ステップ109),右目用画像を利用した右目用画像撮像装置30の合焦制御(ステップ110)が行われる。
 左目用画像の花の水平方向の位置ずれ量の絶対値|Lxf1|および右目用画像花の水平方向の位置ずれ量の絶対値|Lxf2|のいずれも,花位置比較閾値Lxflimit未満であれば(ステップ171Aおよび172AのいずれもNO),花が画像の中心にあるので,上述のように,左目用画像を利用した左目用画像撮像装置10の合焦制御が行われ(ステップ111),左目用画像撮像装置10の合焦位置に右目用画像撮像装置30の合焦制御(ステップ112)が行われる。
 第38図から第41図は,さらに他の実施例を示すもので,第16図から第19図の実施例に対応している。この実施例は,さらに,左目用画像の花と右目用画像の花との対称性を考慮したものである。
 第38図は,第16図に対応するもので,AF実施切り換え装置63Fの電気的構成を示すブロック図である。この図において,第31図に示すものと同一物については同一符号を付して説明を省略する。
 第38図に示すAF実施切り換え装置63Fには,花位置対象性判定装置144Aおよび花位置対象性判定閾値算出装置145Aが含まれている。
 花位置対称性判定装置144Aには,左目用画像の花の位置Lxf1および右目用画像の花の位置Lxf2をそれぞれ表すデータが入力する。花位置対象性判定閾値算出装置145Aにはズーム位置を表すデータが入力する。
 花位置の対称性がズーム位置ごとに決められた花位置対称性判定閾値算出装置145Aにおいて算出される閾値以上であれば,対称性が左目用画像撮像装置10から被写体までの距離と右目用画像撮像装置30から被写体までの距離との差に与える影響が大きいので,左目用画像を利用した左目用画像撮像装置10の合焦制御,右目用画像を利用した右目用画像撮像装置30の合焦制御が行われる。逆に,花位置の対称性がズーム位置ごとに決められた花位置対称性判定閾値算出装置145Aにおいて算出される閾値未満であれば,対称性が左目用画像撮像装置10から被写体までの距離と右目用画像撮像装置30から被写体までの距離との差に与える影響は小さいので,左目用画像を利用した左目用画像撮像装置10の合焦制御が行われ,左目用画像撮像装置10の合焦位置に右目用画像撮像装置30の合焦制御が行われる。
 第39図は,第17図に対応するもので,ズーム位置と花位置対称性判定閾値Lxfsym(第3のしきい値)との関係を示している。
 ズーム位置ごとに花位置対称性判定閾値Lxfsymが規定されている。花が小さい場合は,花の対称性が小さくとも上述した距離差に与える影響が小さいが,花が大きい場合は花の対称性が上述した距離差に与える影響が大きいので,所定の係数である花位置対称性判定係数Mnを花の大きさSxf(Sxf1またはSxf2)で除したものが花位置対称性判定閾値Lxfsymとされている。
 第40a図は,立体撮像ディジタル・カメラ70と被写体との位置関係を示し,第40b図は左目用画像の一例であり,第40c図は右目用画像の一例である。
 第40a図に示すように,花201が画角の中心であり,かつ立体撮像ディジタル・カメラ70の近くにあるものとする。
 第40b図を参照して,左目用画像310Lには花312Lが含まれている。花312Lを囲む花枠313Lも表示されている。花313Lは左目用画像310Lから右側(正側)距離Lxf1だけずれている。
 第40c図を参照して,右目用画像310Rにも花312Rが含まれており,花312Rを囲む花枠312Rも表示されている。花312Rは右目用画像310Rから左側(負側)に距離Lxf2だけずれている。
 第41図は,第19図に対応するもので,立体撮像ディジタル・カメラの処理手順を示すフローチャートである。この図において,第37図に示す処理と同一の処理ついては同一符号を付して説明を省略する。
 花の対称性は,花の画像の中心からのずれ量の和の絶対値|Lxf1+Lxf2|によって表される。この絶対値が花位置対称性判定閾値Lxfsym(第3のしきい値)以上であれば(ステップ173AでYES),上述のように対称性が距離差に与える影響が大きいので,左目用画像を利用した左目用画像撮像装置10の合焦制御(ステップ109),右目用画像を利用した右目用画像撮像装置30の合焦制御(ステップ110)が行われる。
 花の画像の中心からのずれ量の和の絶対値|Lxf1+Lxf2|が花位置対称性判定閾値Lxfsym未満であれば(ステップ173AでNO),上述のように対称性が距離差に与える影響が小さいので,上述のように,左目用画像を利用した左目用画像撮像装置10の合焦制御が行われ(ステップ111),左目用画像撮像装置10の合焦位置に右目用画像撮像装置30の合焦制御(ステップ112)が行われる。

Claims (6)

  1. 立体画像を構成する左目用画像を撮像する左目用画像撮像装置,
     上記左目用画像撮像装置の光軸方向に移動自在な第1のフォーカス・レンズ,
     立体画像を構成する右目用画像を撮像する右目用画像撮像装置,
     上記右目用画像撮像装置の光軸方向に移動自在な第2のフォーカス・レンズ,
     上記左目用画像撮像装置によって撮像された左目用画像および上記右目用画像撮像装置によって撮像された右目用画像のそれぞれの画像から合焦対象のオブジェクトを検出するオブジェクト検出装置,
     上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの両方のオブジェクトの大きさがいずれも第1のしきい値以上かどうかを判定する判定装置,ならびに
     上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定されたことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行い,上記判定装置により上記両方のオブジェクトの少なくとも一方が第1のしきい値未満と判定されたことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行う合焦制御装置,
     を備えた立体撮像ディジタル・カメラ。
  2. 上記合焦制御装置は,
     上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定された場合において,
     上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの位置にもとづいて,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,かつ上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行う第1の位置決め処理と,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行う第2の位置決め処理と,を切り換えるものである,
     請求の範囲第1項に記載の立体撮像ディジタル・カメラ。
  3. 上記合焦制御装置は,
     上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定され,かつ上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの少なくとも一方が画像の中心から第2のしきい値より水平方向に離れていることにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行い,上記判定装置により上記両方のオブジェクトの少なくとも一方が第1のしきい値未満と判定され,かつ上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトのいずれもが画像の中心から第2のしきい値より水平方向に離れていないことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行うものである,
     請求の範囲第2項に記載の立体撮像ディジタル・カメラ。
  4. 上記合焦制御装置は,
     上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定され,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの少なくとも一方が画像の中心から第2のしきい値より水平方向に離れており,かつ上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトの中心から水平方向のずれ量と上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの水平方向のずれ量との和の絶対値が第3のしきい値以上であることにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行い,上記判定装置により上記両方のオブジェクトの少なくとも一方が第1のしきい値未満と判定され,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトのいずれもが画像の中心から第2のしきい値より水平方向に離れていず,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトの中心から水平方向のずれ量と上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの中心から水平方向のずれ量との和の絶対値が第3のしきい値未満であることにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行うものである,
     請求の範囲第3項に記載の立体撮像ディジタル・カメラ。
  5. 上記左目用画像撮像装置の前方に設けられた第1のズーム・レンズ,および
     上記右目用画像撮像装置の前方に設けられた第2のズーム・レンズをさらに備え,
     上記第1のしきい値,上記第2のしきい値および上記第3のしきい値の少なくとも一つのしきい値が,上記第1のズーム・レンズの位置および上記第2のズーム・レンズの位置にもとづいて決定されているものである,
     請求の範囲第4項に記載の立体撮像ディジタル・カメラ。
  6. 立体画像を構成する左目用画像を撮像する左目用画像撮像装置,上記左目用画像撮像装置の光軸方向に移動自在な第1のフォーカス・レンズ,立体画像を構成する右目用画像を撮像する右目用画像撮像装置,および上記右目用画像撮像装置の光軸方向に移動自在な第2のフォーカス・レンズを備えた立体撮像ディジタル・カメラの動作制御方法において,
     オブジェクト検出装置が,上記左目用画像撮像装置によって撮像された左目用画像および上記右目用画像撮像装置によって撮像された右目用画像のそれぞれの画像から合焦対象のオブジェクトを検出し,
     判定装置が,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトおよび上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトの両方のオブジェクトの大きさがいずれも第1のしきい値以上かどうかを判定し,
     合焦制御装置が,上記判定装置により上記両方の画像の大きさがいずれも第1のしきい値以上と判定されたことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトを用いて上記第1のフォーカス・レンズの位置決め処理を行い,上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトを用いて上記第2のフォーカス・レンズの位置決め処理を行い,上記判定装置により上記両方のオブジェクトの少なくとも一方が第1のしきい値未満と判定されたことにより,上記オブジェクト検出装置によって左目用画像から検出されたオブジェクトが合焦するように上記第1のフォーカス・レンズの位置決め処理または上記オブジェクト検出装置によって右目用画像から検出されたオブジェクトが合焦するように上記第2のフォーカス・レンズの位置決め処理のいずれか一方の位置決め処理を行い,かついずれか一方の位置決め処理により決定された位置に対応する位置に,上記第1のフォーカス・レンズおよび上記第2のフォーカス・レンズのうち位置決め処理が行われていないフォーカス・レンズの位置決め処理を行う,
     立体撮像ディジタル・カメラの動作制御方法。
PCT/JP2011/060497 2010-06-04 2011-04-22 立体撮像ディジタル・カメラおよびその動作制御方法 WO2011152168A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012518301A JPWO2011152168A1 (ja) 2010-06-04 2011-04-22 立体撮像ディジタル・カメラおよびその動作制御方法
CN2011800277042A CN102934002A (zh) 2010-06-04 2011-04-22 立体成像数字相机和控制其操作的方法
US13/692,445 US20130093856A1 (en) 2010-06-04 2012-12-03 Stereoscopic imaging digital camera and method of controlling operation of same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-128381 2010-06-04
JP2010128381 2010-06-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/692,445 Continuation US20130093856A1 (en) 2010-06-04 2012-12-03 Stereoscopic imaging digital camera and method of controlling operation of same

Publications (1)

Publication Number Publication Date
WO2011152168A1 true WO2011152168A1 (ja) 2011-12-08

Family

ID=45066550

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/060497 WO2011152168A1 (ja) 2010-06-04 2011-04-22 立体撮像ディジタル・カメラおよびその動作制御方法

Country Status (4)

Country Link
US (1) US20130093856A1 (ja)
JP (1) JPWO2011152168A1 (ja)
CN (1) CN102934002A (ja)
WO (1) WO2011152168A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103179340A (zh) * 2011-12-21 2013-06-26 索尼公司 成像装置、自动聚焦方法及其程序
US10147114B2 (en) 2014-01-06 2018-12-04 The Nielsen Company (Us), Llc Methods and apparatus to correct audience measurement data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109905599A (zh) * 2019-03-18 2019-06-18 信利光电股份有限公司 一种人眼对焦方法、装置及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0363638A (ja) * 1989-08-01 1991-03-19 Sharp Corp 立体撮像装置
JPH08242468A (ja) * 1995-03-01 1996-09-17 Olympus Optical Co Ltd 立体撮影装置
JP2008233205A (ja) * 2007-03-16 2008-10-02 Nikon Corp 測距装置および撮像装置
JP2010107664A (ja) * 2008-10-29 2010-05-13 Fujifilm Corp 立体撮像装置及び合焦制御方法
JP2010114712A (ja) * 2008-11-07 2010-05-20 Fujifilm Corp 複眼撮影装置およびその制御方法並びにプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4845628B2 (ja) * 2006-08-01 2011-12-28 キヤノン株式会社 焦点調節装置、撮像装置、及び焦点調節方法
JP4544282B2 (ja) * 2007-09-14 2010-09-15 ソニー株式会社 データ処理装置、およびデータ処理方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0363638A (ja) * 1989-08-01 1991-03-19 Sharp Corp 立体撮像装置
JPH08242468A (ja) * 1995-03-01 1996-09-17 Olympus Optical Co Ltd 立体撮影装置
JP2008233205A (ja) * 2007-03-16 2008-10-02 Nikon Corp 測距装置および撮像装置
JP2010107664A (ja) * 2008-10-29 2010-05-13 Fujifilm Corp 立体撮像装置及び合焦制御方法
JP2010114712A (ja) * 2008-11-07 2010-05-20 Fujifilm Corp 複眼撮影装置およびその制御方法並びにプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103179340A (zh) * 2011-12-21 2013-06-26 索尼公司 成像装置、自动聚焦方法及其程序
US20130162784A1 (en) * 2011-12-21 2013-06-27 Sony Corporation Imaging device, autofocus method and program of the same
JP2013130674A (ja) * 2011-12-21 2013-07-04 Sony Corp 撮像装置とオートフォーカス方法並びにプログラム
US9729774B2 (en) 2011-12-21 2017-08-08 Sony Corporation Imaging device, autofocus method and program of the same
CN103179340B (zh) * 2011-12-21 2017-12-26 索尼公司 成像装置、自动聚焦方法及其程序
US10147114B2 (en) 2014-01-06 2018-12-04 The Nielsen Company (Us), Llc Methods and apparatus to correct audience measurement data

Also Published As

Publication number Publication date
US20130093856A1 (en) 2013-04-18
JPWO2011152168A1 (ja) 2013-07-25
CN102934002A (zh) 2013-02-13

Similar Documents

Publication Publication Date Title
CN103109536B (zh) 单眼立体摄像装置、单眼立体摄像装置用阴影校正方法
CN102959969B (zh) 单眼立体摄像装置
CN104243800B (zh) 控制装置和存储介质
TWI394435B (zh) 用於測定一成像裝置之移動的方法及系統
EP3054335B1 (en) Focus adjustment device, imaging device and focus adjustment method
JP5963606B2 (ja) 撮像装置及びその制御方法
JP5635584B2 (ja) 撮影機器、カメラシステム及びフォーカス制御のための情報を算出する方法
KR101737085B1 (ko) 3차원 카메라
JP2009060379A (ja) 撮像装置及びそのプログラム
US11353775B2 (en) Image sensor and image-capturing device that selects pixel signal for focal position
JP2009094724A (ja) 撮像装置
CN105472237B (zh) 摄像设备和摄像方法
JP2011259168A (ja) 立体パノラマ画像撮影装置
JP6659100B2 (ja) 撮像装置
JP2011087128A (ja) 複眼カメラ及び被写体判別方法
JP2010109671A (ja) 撮像装置
WO2011152168A1 (ja) 立体撮像ディジタル・カメラおよびその動作制御方法
JP2010114577A (ja) 撮像装置、画像処理装置、撮像装置の制御方法及び画像処理方法
JP5267695B2 (ja) 撮像装置、顔認識方法及びそのプログラム
JP2014178653A (ja) 撮像装置、アクセサリユニット、およびレンズユニット
JP6712506B2 (ja) 焦点検出装置および焦点検出方法
JP6257260B2 (ja) 撮像装置及びその制御方法
WO2011148746A1 (ja) 立体撮像装置および顔検出装置ならびにそれらの動作制御方法
JP4740477B2 (ja) 立体画像撮影用アダプタレンズ及び立体画像撮影システム
JP2017215851A (ja) 画像処理装置および画像処理方法、造形システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180027704.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11789577

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012518301

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11789577

Country of ref document: EP

Kind code of ref document: A1