WO2011152167A1 - 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム - Google Patents

立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム Download PDF

Info

Publication number
WO2011152167A1
WO2011152167A1 PCT/JP2011/060496 JP2011060496W WO2011152167A1 WO 2011152167 A1 WO2011152167 A1 WO 2011152167A1 JP 2011060496 W JP2011060496 W JP 2011060496W WO 2011152167 A1 WO2011152167 A1 WO 2011152167A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
eye
eye image
target
target image
Prior art date
Application number
PCT/JP2011/060496
Other languages
English (en)
French (fr)
Inventor
仁史 桜武
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201180027164.8A priority Critical patent/CN103069818B/zh
Priority to JP2012518300A priority patent/JP5425305B2/ja
Publication of WO2011152167A1 publication Critical patent/WO2011152167A1/ja
Priority to US13/689,040 priority patent/US9357205B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Definitions

  • the present invention relates to a stereoscopic image control apparatus, an operation control method thereof, and an operation control program thereof.
  • Japanese Patent Laid-Open No. 2008-22150 An apparatus for displaying a stereoscopic image is being developed (Japanese Patent Laid-Open No. 2008-22150).
  • stereoscopic image display devices there is a device that adjusts the parallax for each subject image portion included in the stereoscopic image (Japanese Patent Application No. 2007-307225).
  • a digital camera Japanese Patent Laid-Open No. 2001-148800
  • a parallax imaging device that acquires a plurality of depth values of a subject in which a plurality of objects appear to overlap
  • Japanese Patent Laid-Open No. 2001-4370 Publication
  • An object of the present invention is to obtain a relatively natural stereoscopic image.
  • a stereoscopic image control apparatus is a first target image part detection device (first target image) for finding a desired target image part from each of a left-eye image and a right-eye image constituting a stereoscopic image. (Part detection means) and the left-eye image so that the parallax shift between the target image part of the left-eye image and the target image part of the right-eye image, respectively found in the first target image part detection device, is removed.
  • a parallax shift device that shifts the image for the right eye and the image for the right eye, and the object from which the parallax shift is removed by the parallax shift device among the left-eye image and the right-eye image shifted by the parallax shift device
  • Display area determining device (display area determining means) for determining a display area including an image portion, and the left-eye image and the right-eye image shifted by the parallax shifting device Of the image, characterized by comprising a display control unit (display control means) for controlling the display device to display an enlarged image in the display area determined by said display area determining device.
  • the first invention also provides an operation control method of the stereoscopic image control apparatus.
  • the target image portion detection device finds a desired target image portion from each of the left-eye image and the right-eye image constituting the stereoscopic image
  • the parallax shifting device uses the second target image.
  • the left-eye image and the right-eye image are shifted so as to eliminate the parallax shift between the target image portion of the left-eye image and the target image portion of the right-eye image, which are respectively found in the partial detection device, and a display area
  • a determination device determines a display area including a target image portion from which the parallax shift is removed by the parallax shift device among the left-eye image and the right-eye image shifted by the parallax shift device, and the display control device Of the left-eye image and the right-eye image shifted by the parallax shifting device are images in the display region determined by the display region determining device.
  • the first invention also provides an operation program for performing the operation control method of the stereoscopic image control apparatus. Further, a recording medium storing such an operation program may be provided. According to the first invention, a desired target image portion can be found from each of the left-eye image and the right-eye image constituting the stereoscopic image. The parallax shift between the left-eye image and the right-eye image is performed so that the parallax between the target image portion found from the left-eye image and the target image portion found from the right-eye image is removed.
  • a display area (preferably larger than a predetermined minimum display size and smaller than the size of the stereoscopic image) including the target image portion from which the parallax deviation is removed is determined from the left-eye image and the right-eye image.
  • the display device is controlled so that the image in the determined display area is enlarged and displayed.
  • the parallax shift is not performed so that the parallax shift between the central portion of the left-eye image and the central portion of the right-eye image is eliminated, but the parallax shift of the desired target image portion that the viewer pays attention to is eliminated.
  • the parallax is shifted.
  • a natural three-dimensional image can be obtained because there is no parallax shift in the target image portion to which the viewer pays attention.
  • a foreground subject image (a foreground double image) representing a subject existing in front of the object represented by the object image portion detected by the first object image portion detection device is the left eye image and the right eye image.
  • the first determination device for determining whether or not the image is included in each of the left eye image and the right eye image by the first determination device and the first determination device, respectively.
  • a first determination is made as to whether or not the amount of deviation between the near subject image included in the left eye image and the near subject image included in the right eye image is outside an allowable range.
  • the display area determining device determines the display area when the second determining device determines that the display area is outside the allowable range.
  • the target image portion detection apparatus from one of the left-eye image and the right-eye image rather than the size of the target image portion found from both the left-eye image and the right-eye image.
  • the size judging device size judging means for judging whether or not the size of the target image portion found from the other image is larger than the other image. It is determined that the size of the target image portion found from the other image is larger than the size of the target image portion found from both the image and the right-eye image, and the one image Is the left-eye image, or the pair of images found from the other image than the size of the target image portion found from both the left-eye image and the right-eye image.
  • the target image portion that was not found in the one image can be found in the other image. From the other image rather than the size of the target image portion found from both the left-eye image and the right-eye image by the size determination device.
  • a second target image detection device for finding a target image portion that was not found from one image from the left side of the position corresponding to the target image portion that was found in the other image May be further provided.
  • the display area determination device includes, for example, the target image portion in which the parallax shift is removed by the parallax shift device among the left-eye image and the right-eye image shifted by the parallax shift device, A display area including a target image portion found from the other image in one target image portion detection device and a target image portion found from one image in the second target image portion detection device will be determined. .
  • the position of the object represented by the object image portion found only from the other image in the first object image detection device is the center of the other image.
  • the one image when the one image is a left-eye image, or the left-eye image and the right-eye image are located in front of the position of the subject corresponding to the image in FIG.
  • the position of the object represented by the target image portion found only from the other image is behind the position of the subject corresponding to the image at the center of the other image, and the one image is the right eye
  • a target image portion that could not be found in the one image is found from the right side of the position corresponding to the target image portion found in the other image, and Of the image and the right-eye image, an image in which the position of the object represented by the object image portion found only from the other image in the first object image detection device is at the center of the other image
  • the one image is a right-eye image, or the other image in the first target image detection device out of the left-eye image and the right-eye image.
  • the position of the target object represented by the target image portion found only from is behind the position of the subject corresponding to the image in the center of the other image, and the one image is the left eye image.
  • a third target image partial detection that finds the target image portion that was not found from the one image from the left side of the position corresponding to the target image portion that was found in the other image.
  • Apparatus may further comprise a (third image portion detecting means).
  • the display area determination device includes, for example, the target image portion in which the parallax shift is removed by the parallax shift device among the left-eye image and the right-eye image shifted by the parallax shift device, A target image portion found only from the other image in one target image portion detection device and a display area including the target image portion found from one image in the third target image portion detection device are determined. Let's go. A subject existing in front of the object represented by the target image portion detected by the first target image portion detection device is respectively present in the central portion of the left-eye image and the central portion of the right-eye image.
  • a comparison device for comparing the main subject likeness of the central subject image with the main subject likeness of the target image portion detected by the first target image portion detecting device due to the presence of the central subject image to be expressed. May be.
  • the parallax is likely to be shifted, for example, if the main subject likeness of the central subject image is larger than the main subject likeness of the target image portion detected by the first target image portion detecting device by the comparison device.
  • the left-eye image and the right-eye image are shifted so as to eliminate a rhombus shift between the central subject image of the left-eye image and the central subject image of the right-eye image.
  • the display determination device for determining whether or not the target image portion found in the left-eye image detection device is displayed by performing the enlarged display control by the display control device, and the display determination device
  • the parallax shift between the central portion of the left-eye image and the central portion of the right-eye image is removed in response to the determination that the target image portion found in the left-eye image detecting device is not displayed.
  • Left-eye image data representing the left-eye image, right-eye image data representing the right-eye image, and data representing a portion where the parallax shift is removed by the parallax shifting device and the display area determined by the display region determining device May be further provided with a recording control device (recording control means) for recording the information on the portable recording medium.
  • a recording control device recording control means
  • the portion where the parallax shift is removed by the parallax shifting device and the display You may further provide the recording control apparatus (recording control means) which records the data which each represents the display area determined by the area
  • the stereoscopic image control apparatus is a stereoscopic image generating apparatus (stereoscopic image generating means) for generating a stereoscopic image by superimposing a left eye image and a right eye image, and a stereoscopic image generated by the stereoscopic image generating apparatus.
  • a stereoscopic image generating apparatus for generating a stereoscopic image by superimposing a left eye image and a right eye image, and a stereoscopic image generated by the stereoscopic image generating apparatus.
  • a target image detection device for finding a desired target image portion from the above, an electronic zoom region designation device (electronic zoom region) for designating an electronic zoom region from among the stereoscopic images generated by the stereoscopic image generation device
  • a determination unit for determining whether or not the target image detected by the target image detection device is included in the electronic zoom region specified by the electronic zoom region specification unit;
  • a parallax shifting device for shifting the left-eye image and the right-eye image so as to eliminate the parallax shift of the target image
  • a display control device for enlarging and displaying the image in the electronic zoom area Control means.
  • the second invention also provides an operation control method suitable for the stereoscopic image control apparatus. That is, in this method, the stereoscopic image generating device generates a stereoscopic image by superimposing the left-eye image and the right-eye image, and the target image detecting device is selected from the stereoscopic images generated by the stereoscopic image generating device.
  • the electronic zoom region designation device designates an electronic zoom region from the stereoscopic image generated by the stereoscopic image generation device, and the determination device is designated by the electronic zoom region designation device. It is determined whether or not the target image detected by the target image detection device is included in the electronic zoom region, and the parallax shifting device determines that the target image is not included in the electronic zoom region by the determination device. As a result of the determination, the left-eye image and the right-eye image are shifted so that there is no parallax shift in the central portion of the stereoscopic image or the electronic zoom area.
  • the determination device determines that the target image is included in the electronic zoom region
  • the left-eye image and the right-eye image are eliminated so that the target image detected by the target image detection device has no parallax shift.
  • the display control apparatus enlarges and displays the image in the electronic zoom area.
  • the parallax shift is performed so that the parallax shift of the target image portion is eliminated, and the designated electronic zoom region is within the designated electronic zoom region. If the target image portion is not included, the parallax shift is performed so that the parallax shift of the central portion of the stereoscopic image or the electronic zoom area is eliminated. A natural stereoscopic image can be obtained.
  • FIG. 1 shows the positional relationship between a subject and a stereoscopic imaging digital camera.
  • Fig. 2a shows an image for the left eye
  • Fig. 2b shows an image for the right eye.
  • FIG. 3 shows the relationship between the subject image and the stereoscopic imaging digital camera.
  • FIG. 4 is an example of a stereoscopic image.
  • FIG. 5 is an example of a stereoscopic image.
  • FIG. 6 is a block diagram showing the electrical configuration of the stereoscopic imaging digital camera.
  • FIG. 7 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 8 shows the positional relationship between the subject and the stereoscopic imaging digital camera.
  • FIG. 9a shows an image for the left eye
  • FIG. 9b shows an image for the right eye.
  • FIG. 10 shows an example of the detected target image portion.
  • FIG. 11 shows the relationship between the subject image and the stereoscopic imaging digital camera.
  • FIG. 12a shows the image for the left eye
  • FIG. 12b shows the image for the right eye.
  • FIG. 13 shows the relationship between the subject image and the stereoscopic imaging digital camera.
  • FIG. 14a shows a left-eye image
  • FIG. 14b shows a right-eye image.
  • FIG. 15 shows the relationship between the subject image and the stereoscopic imaging digital camera.
  • FIG. 16A shows the left-eye image
  • FIG. 16b shows the right-eye image.
  • FIG. 17 shows the relationship between the subject image and the stereoscopic imaging digital camera.
  • FIG. 18 shows the focus lens position at the center of the image and the focus lens position at the target image portion.
  • FIG. 19a shows an image for the left eye
  • FIG. 19b shows an image for the right eye
  • FIG. 20a shows an image for the left eye
  • FIG. 20b shows an image for the right eye
  • FIG. 21a shows a left-eye image
  • FIG. 21b shows a right-eye image
  • FIG. 22a shows the image for the left eye
  • FIG. 22b shows the image for the right eye.
  • FIG. 23 is an example of a stereoscopic image.
  • FIG. 24 is a block diagram showing the electrical configuration of the stereoscopic imaging digital camera.
  • FIG. 25 is a flowchart showing the display area calculation processing procedure.
  • FIG. 26 shows the positional relationship between the subject and the stereoscopic imaging digital camera.
  • FIG. 27a shows a left-eye image
  • FIG. 27b shows a right-eye image.
  • FIG. 28 shows the relationship between the focus / lens position at the center of the image, the focus / lens position of the target image portion, and the main subject.
  • FIG. 29 shows the relationship between the focus / lens position at the center of the image, the focus / lens position of the target image portion, and the main subject.
  • FIG. 30 shows the relationship between the focus / lens position at the center of the image, the focus / lens position of the target image portion, and the main subject.
  • FIG. 31 is an example of a stereoscopic image.
  • FIG. 32 is a block diagram showing the electrical configuration of the stereoscopic imaging digital camera.
  • FIG. 33 is a flowchart showing the image shift processing procedure.
  • FIG. 34 is an example of a stereoscopic image.
  • FIG. 35 is an example of a stereoscopic image.
  • FIG. 36 is a flowchart showing the processing procedure of the stereoscopic imaging digital camera.
  • FIG. 37 is a flowchart showing the reproduction processing procedure.
  • FIG. 38 shows an example of a stereoscopic image.
  • FIG. 39 is an example of a stereoscopic image.
  • FIG. 40 is an example of a stereoscopic image.
  • FIG. 41 is an example of a stereoscopic image.
  • FIG. 42 is a block diagram showing the electrical configuration of the stereoscopic imaging digital camera.
  • FIG. 1 shows an embodiment of the present invention, and shows the relationship between a stereoscopic imaging digital camera and a subject in a plane.
  • the stereoscopic imaging digital camera 1 is provided with a first imaging device 2 that captures an image for the left eye that the viewer sees with the left eye and a second imaging device 3 that captures the image for the right eye that the viewer sees with the right eye.
  • a tower 11 In front of the stereoscopic imaging digital camera 1, there are a tower 11, a person 12, and a wall 13 in order of distance from the stereoscopic imaging digital camera 1.
  • FIGS. 2a and 2b respectively show a left-eye image and a right-eye image obtained by imaging using the stereoscopic imaging digital camera 1 shown in FIG.
  • FIG. 2a is taken by the first imaging device 2 of the stereoscopic imaging digital camera 1.
  • the right-eye image 10R shown in FIG. 2b is taken by the second imaging device 3 of the stereoscopic imaging digital camera 1.
  • a tower image 11L corresponding to the center tower 11 is displayed in the center.
  • a person image 12L corresponding to the person 12 is displayed on the left side of the tower image 11L.
  • a wall image 13L corresponding to the wall 13 is displayed at the lower right corner of the left-eye image 10L.
  • a tower image 11R is displayed at the center of the right-eye image 10R, and a person image 12R is displayed at the left of the tower image 11R.
  • a wall image 13R is displayed at the lower right corner of the right-eye image 10R.
  • the left-eye image 10L and the right-eye image 10R are included so that the parallax of a certain image portion, which is commonly included in the left-eye image 10L and the right-eye image 10R, is removed (can be eliminated). Need to be shifted horizontally.
  • a desired target image portion is detected from each of the left eye image 10L and the right eye image 10R, and the parallax of the detected target image portion is removed, so that the left eye image 10L and the right eye image are removed.
  • the work image 10R is shifted in the horizontal direction. If a plurality of target image portions are found, the parallax of any one of the plurality of target image portions is removed.
  • the face image of the person 12 is the desired target image portion, but it goes without saying that it may be another image portion. Referring to FIG. 2a, the face image 5L of the person image 12L is detected from the left-eye image 10L, and the face image 5L is detected.
  • FIG. 3 shows the relationship between the subject image and the stereoscopic imaging digital camera 1.
  • the left-eye image 10L so that the parallax between the face image 5L (person image 12L) detected from the left-eye image 10L and the face image 5R (person image 12R) detected from the right-eye image 10R is removed.
  • the right-eye image 10R are shifted, the human image 12 is not shifted.
  • the tower 11 behind the person 12 is represented by a tower image 11L included in the left-eye image 10L and a tower image 11R included in the right-eye image 10R. Deviation occurs between these tower images 11L and 11R (back side double image).
  • the wall 13 in front of the person 12 is represented by a wall image 13L included in the left-eye image 10L and a wall image 13R included in the right-eye image 10R. A shift also occurs between the wall image 13R and the wall image 13L (front double image). Since the tower 11 is behind the person 12 having no parallax deviation, the tower image 11L included in the left-eye image 10L is on the right side of the tower image 11R included in the right-eye image 10R.
  • FIG. 4 is an example of a stereoscopic image obtained by superimposing (shifting) the left-eye image 10L shown in FIG. 2a and the right-eye image 10R shown in FIG. 2b.
  • this stereoscopic image 10 the left-eye image 10L and the right-eye image 10R are shifted so that the parallax between the face image 5L detected from the left-eye image 10L and the face image 5R detected from the right-eye image 10R is removed. It is what.
  • the human image 12 has no parallax shift, but the tower image 11 and the wall image 13 have a parallax shift and are double images.
  • a display area including the detected face image 5 is determined from the stereoscopic image 10, and the image in the display area is enlarged and displayed.
  • FIG. 5 is an example of the stereoscopic image 10. As described above, the display area 17 is determined so as to include the detected face image 5 in the stereoscopic image 10.
  • the display area 17 has the same aspect ratio as that of the stereoscopic image 10 and has parallel sides to the upper, lower, left and right sides of the stereoscopic image 10.
  • the image in the display area 17 is enlarged so as to be displayed on the entire display screen of the display device.
  • the image outside the display area 17 includes a wall image 13 (a wall image 13 representing a wall 13 that is an object in front of the face of the person 12 represented by the detected target image portion (close to the stereoscopic imaging digital camera 1)).
  • the tower image 11 representing the tower 11 that is the object behind the face of the person 12 (far from the stereoscopic imaging digital camera) is double because of the parallax, but such a face image without parallax.
  • FIG. 6 is a block diagram showing an electrical configuration of the stereoscopic imaging digital camera. The overall operation of the stereoscopic imaging digital camera is controlled by the main CPU 20.
  • the stereoscopic imaging digital camera is provided with an operation device 27 including various buttons such as a mode setting button for imaging mode and playback mode, and a moving image button for designating start and end of stereoscopic moving image recording.
  • An operation signal output from the operation device 27 is input to the main CPU 20.
  • the stereoscopic imaging digital camera includes the first imaging device 2 and the second imaging device 3.
  • a subject is imaged by the first imaging device 2 and the second imaging device 3.
  • the first imaging device 2 outputs image data representing a left-eye image constituting a stereoscopic image by imaging a subject.
  • the first imaging device 2 includes a first imaging device (CCD, CMOS, etc.) 34.
  • a zoom lens 31, a focus lens 32, and a diaphragm 33 are provided in front of the first image sensor 34. These zoom lens 31, focus lens 32, and aperture 33 are driven by a zoom lens control device 35, a focus lens control device 36, and an aperture control device 37, respectively.
  • the left-eye video signal representing the left-eye image is first based on the clock pulse supplied from the timing generator 42. Output from the image sensor 34.
  • the left-eye video signal output from the first image sensor 34 is subjected to predetermined analog signal processing in the analog signal processing device 39 and converted into digital left-eye image data in the analog / digital conversion device 40.
  • the left-eye image data is input from the image input controller 41 to the digital signal processing device 62.
  • the digital signal processing device 62 predetermined digital signal processing is performed on the image data for the left eye.
  • the left-eye image data output from the digital signal processing device 62 is input to the AF detection device 76, and an AF evaluation value for determining the lens position of the focus lens 32 is calculated.
  • the focus lens 32 is positioned based on the calculated AF evaluation value.
  • the left-eye image data is also input to the AE / AWB detection device 77, and the exposure amount and white balance adjustment amount are calculated. Based on the calculated exposure amount, the aperture value of the aperture 33 and the shutter speed (electronic shutter) of the first image sensor 34 are determined.
  • the analog signal processing device 39 performs white balance adjustment based on the calculated white balance adjustment amount.
  • the second imaging device 3 includes a second imaging element 54. In front of the second image sensor 54, there are provided a zoom lens 51, a focus lens 52, and an aperture 53, which are driven by a zoom / lens control device 55, a focus / lens control device 56, and an aperture control device 57, respectively. Yes.
  • the imaging mode is set and the right-eye image is formed on the light receiving surface of the second image sensor 54
  • the right-eye video signal representing the right-eye image is second based on the clock pulse supplied from the timing generator 62. Output from the image sensor 54.
  • the right-eye video signal output from the second image sensor 54 is subjected to predetermined analog signal processing in the analog signal processing device 59 and converted into digital right-eye image data in the analog / digital conversion device 60.
  • the image data for the right eye is input from the image input controller 61 to the digital signal processor 62.
  • predetermined digital signal processing is performed on the image data for the right eye.
  • the right-eye image data output from the digital signal processing device 62 is also input to the AF detection device 76, and an AF evaluation value for determining the lens position of the focus lens 52 is calculated.
  • the focus lens 52 is positioned based on the calculated AF evaluation value.
  • the right-eye image data is also input to the AE / AWB detection device 77, and the exposure amount and the white balance adjustment amount are calculated. Based on the calculated exposure amount, the aperture value of the aperture 53 and the shutter speed (electronic shutter) of the second image sensor 54 are determined. Further, the white balance adjustment is performed in the analog signal processing device 59 based on the calculated white balance adjustment amount.
  • the left-eye image data and right-eye image data obtained as described above are also input to the subject detection device 85. In the subject detection device 85, as described above, a desired target image portion (face image) is detected from each of the left-eye image and the right-eye image.
  • the image data for the left eye, the image data for the right eye, and the data indicating the position of the detected target image portion simply pass through the parallax adjustment device 83 and the double image determination device 86 and are input to the positional deviation amount measurement device 88.
  • the displacement amount measuring device 88 the displacement direction and the displacement amount of the image portions corresponding to each other are measured in each of the left-eye image and the right-eye image.
  • the positional deviation amount measuring device 88 the positional deviation of the image (double front image) representing the subject in front of the target object represented by the detected target image portion or the subject behind the target object is detected. A misalignment of the image to be represented (back side double image) is also detected.
  • the left-eye image and the right-eye image are set so that the positional deviation between the target image portion detected in the left-eye image and the target image portion detected in the right-eye image is eliminated (so that the parallax deviation is eliminated).
  • the image is shifted.
  • the left-eye image data and the right-eye image data whose images are shifted in the parallax adjusting device 83 are input to the display control device 81. Further, the data representing the position of the detected target image portion, the left-eye image data, and the right-eye image data are also input to the display area calculation device 87. In the display area calculation device 87, the position and size of the display area are calculated as described above.
  • Data representing the calculated position and size of the display area simply passes through the double image determination device 86 and is provided to the display control device 81.
  • the monitor display device 82 is controlled so that the detected parallax of the target image portion disappears and the image in the display area is enlarged and displayed so as to be displayed on the entire display screen.
  • the stereoscopic imaging digital camera also includes a corresponding point detection device 84 that finds the target image portion from the other image when the target image portion is found from one of the left-eye image and the right-eye image. . Further, as will be described later, the stereoscopic imaging digital camera has a front double image representing a subject in front of the object represented by the target image portion, or the degree of deviation of the front double image is acceptable.
  • a double image determination device 86 is also included for determining whether it is within range.
  • data left-eye image data and right-eye image data
  • the memory card 80 may record left-eye image data and right-eye image data representing an image in the display area, but preferably the right eye obtained by imaging including an image outside the display area. Image data and left-eye image data are recorded in the memory card 80.
  • the stereoscopic imaging digital camera also includes a VRAM 71, SDRAM 72, flash ROM 73 and ROM 74 for storing various data.
  • the stereoscopic imaging digital camera includes a battery 21, and power supplied from the battery 21 is supplied to the power control device 22. Power is supplied from the power supply control device 22 to each device constituting the stereoscopic imaging digital camera. Further, the stereoscopic imaging digital camera also includes a flash 24 controlled by the flash control device 25, a posture detection sensor 26, and a camera shake control device 78.
  • the operation program of the stereoscopic imaging digital camera is stored in the memory card 80 described above, and the stereoscopic imaging digital camera operates by installing the operation program in the stereoscopic imaging digital camera. However, the operation program may be pre-installed in the stereoscopic imaging digital camera, or may be recorded on a portable recording medium other than the memory card 80.
  • FIG. 7 is a flowchart showing a processing procedure of the stereoscopic imaging digital camera.
  • the subject is imaged as described above, and a left-eye image and a right-eye image are obtained as shown in FIGS. 2a and 2b.
  • a target image portion (face image) is detected from each of the obtained left-eye image and right-eye image.
  • the target image portion is detected from either the left-eye image or the right-eye image (YES in step 91)
  • the parallax shift of the target image portion is removed as shown in FIG.
  • the left-eye image and the right-eye image are shifted from each other (step 92).
  • the feature point detection device 84 performs a process of detecting a feature point from the other image, and from the one image An image portion corresponding to the detected target image portion is detected from the other image.
  • the positional deviation measuring device 88 determines whether or not there is a front double image representing the subject in front of the target object represented by the detected target image portion. Determination is made (step 93).
  • step 93 If there is such a front double image (YES in step 93), based on the result of the position shift measured by the position shift measuring device 88, whether or not the shift of the front double image is within an allowable range is determined. A determination is made (step 94). If it is outside the allowable range (NO in step 94), as described above, the display area (for example, smaller than the size of the stereoscopic image and has the same aspect ratio as the stereoscopic image) so as to include the detected target image portion. Is calculated (step 95). When the display area is calculated, it is confirmed whether or not there is a range excluded from the stereoscopic image (left-eye image and right-eye image) (step 96).
  • step 96 it is confirmed whether the calculated display area is larger than the minimum size (for example, VGA: Video Graphic Array) (step 97). If the calculated display area is equal to or larger than the minimum size (YES in step 97), the image in the display area can be displayed over the entire display screen, so the image in the display area is enlarged and displayed. (Step 98). A stereoscopic image from which the double image that is uncomfortable when viewing is removed and from which the front double image is removed is displayed. If the calculated display area is smaller than the minimum size (NO in step 97), the image in the display area cannot be displayed over the entire display screen, so that the image in the display area is not enlarged and displayed.
  • the minimum size for example, VGA: Video Graphic Array
  • the entire stereoscopic image is displayed over the entire display screen (step 99).
  • the target image portion is not detected (NO at step 91)
  • when there is no near double image NO at step 93
  • when the amount of deviation of the near double image is within an allowable range (YES at step 94)
  • NO in step 96 Even when there is no exclusion range (NO in step 96), the image in the display area cannot be displayed over the entire display screen, so the entire stereoscopic image is displayed without enlarging and displaying the image in the display area. It is displayed throughout (step 99).
  • the left-eye image data and the right-eye image data obtained at the time of imaging are performed.
  • a portable recording medium such as the memory card 80 (not necessarily portable).
  • the face image In order to remove the front double image, it is desired to accurately detect the face image (target image) in each of the left-eye image and the right-eye image, but if the face is far from the stereoscopic imaging digital camera 1, the face is When faced diagonally, not in front, the face image cannot be accurately detected when part or all of the face is dark, and can only be detected from one of the right-eye image and the left-eye image. Sometimes. Even in such a case, it is preferable to detect the face image from the other image of the right-eye image and the left-eye image and remove the front double image as described above. In order to detect a face image, the matching process with the face image template is performed on the other image of the right eye image and the left eye image that cannot be detected.
  • the calculation of the display area described above (the process of step 95 in FIG. 7) takes a relatively long time. For this reason, it is preferable to detect the face image relatively quickly from the other image where the face image could not be detected.
  • a face image is detected relatively quickly from the other image from which the face image could not be detected.
  • 8 to 17 show another embodiment.
  • the target image is detected relatively quickly from the other image in which the target image could not be detected among the left-eye image and the right-eye image, and the target image detected only from one image is detected.
  • the display area is determined so that the portion also falls within the display area.
  • each of the left-eye image and the right-eye image includes a plurality of persons, and at least one person includes both the left-eye image and the right-eye image. Processing when a face image is detected from an image will be described. A detection target region for processing to detect a face image, which will be described later, is set after there is no parallax shift between the face images detected in both images.
  • FIG. 8 is a plan view showing the positional relationship between the stereoscopic imaging digital camera 1 and the subject, and corresponds to FIG. In FIG. 8, the same components as those shown in FIG. In FIG. 8, the second person 14 is behind the tower 11 on the right side of the above-described person (referred to as the first person) 12.
  • FIGS. 9a and 9b show the left-eye image and the right-eye image obtained by imaging the subject in the positional relationship shown in FIG. 8 with the first imaging devices 2 and 3 of the stereoscopic imaging device 1, respectively. It is.
  • FIGS. 9a and 9b also correspond to FIGS. 2a and 2b, respectively, and the same components as those shown in FIGS. 2a and 2b are denoted by the same reference numerals and description thereof is omitted.
  • the target image portion is detected, and the face image 5L of the first person 12 and the face image 6L of the second person 14 are detected (a frame surrounding the face image 5L). 15L and a frame 16L surrounding the face image 6L are also displayed).
  • the target image portion is detected in the right-eye image 10R, and the face image 5R of the first person 12 is detected (a frame 15R surrounding the face image 5R is displayed), but the second It is assumed that the face image 6R of the person 14 has not been detected.
  • a face image 6R corresponding to the face image 6L is found from the right-eye image 10R.
  • FIG. 10 shows the size of the face image 5L (5R) detected from both the left-eye image 10L and the right-eye image 10R, and only from one of the left-eye image 10L and the right-eye image 10R.
  • the size of the detected face image 6L is compared.
  • the size of the face image 5L (5R) detected from both images is larger than the size of the face image 6L detected from only one image, it is detected from only one image.
  • the subject represented by the face image 6L is located at a position farther (back side) than the subject represented by the face image 5L detected from both images.
  • the target image 5 The subject that is farther away is the one represented by the left-eye image 10L on the right side and the one represented by the right-eye image 10R on the left side.
  • the target image 5 The subject that is farther away is the one represented by the left-eye image 10L on the right side and the one represented by the right-eye image 10R on the left side.
  • a face image corresponding to the face image 6L on the right side of the position of the right eye image 10R corresponding to the face image 6L detected in the left eye image 10L is found from the right eye image 10R in a relatively short time. It is done.
  • the purpose is to find the face image and adjust the parallax to the face image. However, if the face image is found in each of the left-eye image and the right-eye image, those images are stored in the file.
  • the corresponding point detection range for adjusting the parallax is extremely limited.
  • the image space is brute-forced in a situation where there is insufficient information about where the face image is located.
  • this search range is limited by some means, and corresponding point detection processing is performed at high speed That is the point.
  • the size of the face image (both-eye detection face image) that can be detected from both the left-eye image and the right-eye image, and the face image that can be detected from one of the left-eye image and the right-eye image By comparing the size of the one-eye detection face image), it is determined whether the one-eye detection face image is in front of or behind the both-eye detection face image. Speeding up is achieved by limiting the search range. In this embodiment, if the size of the target image portion found only from the other image is larger than the size of the target image portion found from both the left-eye image 10L and the right-eye image 10R.
  • FIG. 11 shows the face images 5L and 6L and the face image 5R respectively included in the left-eye image 10L and the right-eye image 10R captured using the stereoscopic imaging digital camera 1 as shown in FIGS. 9a and 9b.
  • And 6R are expressed in correspondence with the positional relationship between the face images 5L and 6L and the persons 12 and 14 of the face images 5R and 6R and the stereoscopic imaging digital camera 1.
  • a person close to the stereoscopic imaging digital camera 1 is detected as a face image 5L from the left-eye image 10L and detected as a face image 5R from the right-eye image 10R.
  • a frame 15L is displayed around the face image 5L as shown in FIGS. 9a and 11.
  • a face image 5R is detected from the right-eye image 10R
  • a frame 15R is displayed as shown in FIGS. 9a and 11.
  • the detection target area 210 is located on the right side from the position of the right-eye image 10R corresponding to the left end of the frame 16L surrounding the face image 6L detected in the left-eye image 10L, and the maximum width w1 is the maximum of the parallax deviation.
  • the height is equal to or less than the sum of the detected face widths, and the height h1 corresponds to the height of the face image 6L detected in the left-eye image 10L.
  • the left end of the detection target area 210 is slightly to the left of the left end of the frame 16L surrounding the face image 6L detected in the left eye image 10L, and the height h1 of the detection target area 201 is detected in the left eye image 10L. It may be slightly larger than the height of the face image 6L. Since the face image 6L is detected from the detection target area 210, the face image 6L can be detected relatively quickly.
  • FIG. 12a is an example of a left eye image
  • FIG. 12b is an example of a right eye image.
  • FIG. 13 corresponds to FIG.
  • the face images 5L and 6L and the face images 5R and 6R are expressed corresponding to the positional relationship between the face images 5L and 6L and the persons 12 and 14 of the face images 5R and 6R and the stereoscopic imaging digital camera 1. Is. It is assumed that a person far from the stereoscopic imaging digital camera 1 is detected as a face image 6L from the left-eye image 10L and detected as a face image 6R from the right-eye image 10R.
  • a frame 16L is displayed around the face image 6L as shown in FIGS. 12a and 13.
  • a face image 6R is detected from the right-eye image 10R
  • a frame 16R is displayed as shown in FIGS. 12a and 13. It is assumed that a person close to the stereoscopic imaging digital camera 1 is detected as the face image 5R from the right eye image 10R, but the face image 5L is not detected from the left eye image 10L. Then, in the left-eye image 10L, the right side of the position corresponding to the face image 5R detected from the right-eye image 10R is set as the detection target region 211 for detecting the face image 5L.
  • the detection target area 211 has a maximum width w2 on the left side from the position of the left eye image 10L corresponding to the right end of the frame 15R surrounding the face image 5R detected in the right eye image 10R, and the maximum amount of parallax deviation.
  • the height h2 corresponds to the height of the face image 5R detected in the right-eye image 10R.
  • the left end of the detection target region 211 is also slightly left of the left end of the frame 15R surrounding the face image 5R detected in the right eye image 10R, and the height h1 of the detection target region 211 is detected in the right eye image 10R. It may be slightly larger than the height of the face image 5R.
  • the face image 6L can be detected relatively quickly. Further, it is determined that the size of the target image portion found only from the other image is larger than the size of the target image portion found from both the left-eye image and the right-eye image, and the target image If one of the images that could not be found was the right-eye image, or the target image was found only from the other image rather than the size of the target image found from both the left-eye and right-eye images If it is determined that the size of the part is smaller and one image for which the target image part was not found is a left-eye image, the target image part that was not found from one image is taken as the other image. Find from the left side of the position corresponding to the target image part found in.
  • FIG. 14a is an example of a left eye image
  • FIG. 14b is an example of a right eye image
  • FIG. 15 corresponds to FIG. 11 and FIG. 13, and as shown in FIG. 14a and FIG. 14b, the left-eye image 10L and the right-eye image 10R captured using the stereoscopic imaging digital camera 1 are used.
  • the face images 5L and 6L and the face images 5R and 6R included in FIG. 4 correspond to the positional relationship between the face images 5L and 6L and the persons 12 and 14 of the face images 5R and 6R and the stereoscopic imaging digital camera 1, respectively. It is what you are expressing. As described with reference to FIGS.
  • a person located near the stereoscopic imaging digital camera 1 is detected as the face image 5L from the left-eye image 10L and is used for the right-eye. It is assumed that the face image 5R is detected from the image 10R. It is assumed that a person who is far from the stereoscopic imaging digital camera 1 is detected as the face image 6R from the right-eye image 10R, but the face image 6L is not detected from the left-eye image 10L. Then, in the left-eye image 10L, the left side of the position corresponding to the face image 6R detected from the right-eye image 10R is set as the detection target region 212 for detecting the face image 6L.
  • This detection target area 212 is set to the left from the position of the left eye image 10L corresponding to the right end of the frame 16R surrounding the face image 6R detected in the right eye image 10R.
  • the size of the detection target region 212 is the same as the size of the detection target region 210 described above (which may be most different).
  • FIG. 16a is an example of a left-eye image
  • FIG. 16b is an example of a right-eye image.
  • FIG. 17 corresponds to FIG. 11, FIG. 13, FIG. 15, and as shown in FIG. 16a and FIG.
  • the left-eye image 10L captured using the stereoscopic imaging digital camera 1 and The positional relationship between the face images 5L and 6L and the face images 5R and 6R included in the right-eye image 10R, the face images 5L and 6L, the persons 12 and 14 of the face images 5R and 6R, and the stereoscopic imaging digital camera 1, respectively. It is expressed in correspondence with. It is assumed that a person far from the stereoscopic imaging digital camera 1 is detected as a face image 6L from the left-eye image 10L and detected as a face image 6R from the right-eye image 10R.
  • the detection target area 213 has the same size as the above-described detection target area 211 (see FIG. 12a) (may be different). In the above embodiment, the size of the face image detected from both the left-eye image and the right-eye image, and the size of the face image detected from only one of the left-eye image and the right-eye image.
  • a detection target area for detecting a face image that is detected only from one image and not from the other image is determined, but is detected from both the left-eye image and the right-eye image. If at least one face image does not exist (if the face image cannot be detected stably), the detection target area cannot be determined. In the embodiment described below, even if there is no face image detected from both the left-eye image and the right-eye image, it is detected from only one of the left-eye image and the right-eye image, and the other A detection target area for detecting a face image that is not detected from the first image is determined.
  • FIG. 18 shows the focus lens position.
  • the focus lens position is used to detect the target image portion detected in one image. A portion for detecting a target image portion in the other corresponding image is determined.
  • the focus lens position is P1 when the center of the image where the target image portion is detected is in focus, and the detected target image portion is in focus It is assumed that the position of the focus lens is P2. Then, the positional relationship between the subject existing in the center of the image and the target object represented by the detected target image portion is known from the positional relationship between the positions P1 and P2.
  • the left-eye image and the right-eye image are adjusted so that there is no parallax shift at the center of the image.
  • a subject whose position of the object represented by the target image portion found only from the other image of the left-eye image and the right-eye image corresponds to an image having no parallax shift in the center of the other image If one of the images that are in front of the position and the target image part could not be found is the right-eye image, or the target image part that was found only from the other of the left-eye image and the right-eye image If the position of the object represented by is behind the position of the subject corresponding to the image with no parallax shift in the center of the other image, and one image is the image for the left eye, The target image portion that could not be found from the image in (2) is found from the left side of the position corresponding to the target image portion found in the other image.
  • FIG. 19a is an example of a left-eye image
  • FIG. 19b is an example of a right-eye image.
  • the left-eye image 10L has a tower image 11L at the center
  • the right-eye image 10R also has a tower image 11R at the center.
  • the face image 6L is detected from the left-eye image 10L, but the face image 6R is not detected from the right-eye image 10R.
  • the focus / lens position P2 of the target image (the face image 6L detected from the left-eye image 10L) is closer to the Near side than the focus / lens position P1 of the center (tower 11). It can be seen that the person 14 with the face 6 is in front of the tower 11. Then, since the tower 11 and the person 14 correspond to the positional relationship shown in FIG. 17, the detection target for detecting the face image 6R on the left side from the position corresponding to the detected face image 6L in the right-eye image 10R. Area 210A is set. FIG.
  • FIGS. 20a is an example of an image for the left eye
  • FIG. 20b is an example of an image for the right eye.
  • the same components as those in FIGS. 16a and 16b are designated by the same reference numerals and the description thereof is omitted.
  • the left-eye image 10L and the right-eye image 10R have the parallax shift between the tower images 11L and 11R removed. It is assumed that the face image 5L is detected from the left-eye image 10L, but the face image 5R is not detected from the right-eye image 10R. In this case as well, as shown in FIGS.
  • the detection target region 213 for detecting the face image 5R is set on the left side from the position where the image is to be detected.
  • a subject whose position of the object represented by the target image portion found only from the other image of the left-eye image and the right-eye image corresponds to an image having no parallax shift in the center of the other image If one of the images that are in front of the position and the target image portion could not be found is the left-eye image, or the target image portion that was found only from the other image of the left-eye image and the right-eye image
  • the position of the object represented by is behind the position of the subject corresponding to the image with no parallax shift in the center of the other image, and one image where the target image portion could not be found is the right eye
  • a target image portion that was not found in one image is found from the right side of the position corresponding to the target image portion that was found in the other image.
  • FIG. 21a is an example of an image for the left eye
  • FIG. 21b is an example of an image for the right eye.
  • the same components as those in FIGS. 14a and 14b are denoted by the same reference numerals, and the description thereof is omitted.
  • the left-eye image 10L and the right-eye image 10R have the parallax shift between the tower images 11L and 11R removed.
  • the face image 6R is detected from the right-eye image 10R, but the face image 6L is not detected from the left-eye image 10L. Since the tower 11 and the person 14 correspond to the positional relationship shown in FIG.
  • FIG. 22a is an example of a left-eye image
  • FIG. 22b is an example of a right-eye image.
  • the same components as those in FIGS. 12a and 12b are denoted by the same reference numerals, and description thereof is omitted.
  • FIGS. 22a and 20b it is assumed that the left-eye image 10L and the right-eye image 10R have the parallax shift between the tower images 11L and 11R removed.
  • the face image 5R is detected from the right-eye image 10R, but the face image 5L is not detected from the left-eye image 10L.
  • the person 12 who detects the face image 5R is in front of the tower 11, and therefore corresponds to the detected face image 5R in the left-eye image 10L.
  • the detection target region 211 for detecting the face image 5L is set on the right side from the position where the image is to be detected.
  • the detection target area 210 is set on the right side with reference to the face image 6L detected in the left-eye image 10L, whereas in FIG. 19b, the face image 6L detected in the left-eye image 10L.
  • the detection target area 210A is set on the left side with reference to.
  • the detection target area 212 is set on the left side with respect to the face image 6R detected in the right eye image 10R, whereas in FIG. 21a, the face detected in the right eye image 10R.
  • a detection target area 212A is set on the left side with respect to the image 6R.
  • the direction in which the detection target area is set in this way is different in FIG. 9b and FIG. 14a in that the face image is detected as both the left-eye image 10L and the right-eye image 10R, and the parallax shift of the person 12 is detected.
  • FIG. 23 shows an example of a stereoscopic image obtained by superimposing the left-eye image and the right-eye image, and corresponds to FIG. In FIG. 23, the same components as those shown in FIG.
  • FIG. 24 is a block diagram showing an electrical configuration of the stereoscopic imaging digital camera. In this figure, the same components as those shown in FIG. The stereoscopic imaging digital camera shown in FIG. 24 is provided with a focus position comparison operation device 89. As shown in FIG.
  • the focus position comparison arithmetic unit 89 has a focus / lens position in the center portion and a focus in the detected target image portion in the image in which the target image portion is detected in the left eye image and the right eye image.
  • the lens position is compared, and the positional relationship between the subject existing in the center portion and the target object represented by the detected target image portion is calculated. Based on the calculated positional relationship, a region for finding the target image portion is determined from an image in which the target image portion has not been detected.
  • FIG. 25 is a flowchart showing the display area determination processing procedure (the processing procedure of step 95 in FIG. 7). It is confirmed whether there is a target image portion detected in only one of the left-eye image and the right-eye image (step 101).
  • step 101 If there is a target image portion detected only in one image (YES in step 101), it is confirmed whether there is a target image portion detected in both the left-eye image and the right-eye image (step 102). ). If there is a target image portion detected in both images (YES in step 102), as described with reference to FIG. 10, the size of the target image portion detected in both images is equal to one image. It is determined whether or not the size of the target image portion detected only at is larger (step 103).
  • the target image detected in both images It is considered that the object represented by the target image part detected in only one image is closer to the front than the object represented by the part (the matching direction is the front side).
  • the position in which the target image portion is detected in the other image among the one images in which the target image portion could not be detected due to the image for which the target image portion could not be detected being the left-eye image or the right-eye image.
  • a target image portion that has not been detected is found from the detection target display area set on the right or left side of the position corresponding to (steps 104 and 107).
  • “matching” refers to the detection of corresponding points in the other image as so-called pattern matching when searching for a target image that is found only in one of the left-eye image and right-eye image. This is the meaning of the calculation work to perform. Specifically, as described with reference to FIGS. 8 to 22a and 22b, this is processing for detecting a face image. If the size of the target image portion detected in both images is smaller than the size of the target image portion detected in only one image (NO in step 103), the target image detected in both images It is considered that the object represented by the target image portion detected only in one image is on the back side (the matching direction is the back side) than the object represented by the portion.
  • the target image portion is detected in the other image out of one image in which the target image portion could not be detected depending on whether the image in which the target image portion could not be detected is the left eye image or the right eye image.
  • a target image portion that has not been detected is detected from the detection target region set on the right or left side of the position corresponding to the determined position (steps 105 and 107). If there is no target image portion detected from both images (NO in step 102), as described with reference to FIG. 18, the target image not detected using the position of the focus lens The range to find the part is determined.
  • the position of the focus lens of the target image portion detected from only one image is closer to the front than the position of the focus lens in the center (YES in step 106), It is considered that the object represented by the target image portion detected in only one image is in front (the matching direction is on the front side).
  • a detection target area is set, and an image in which the target image portion cannot be detected is one of the images for which the target image portion cannot be detected depending on whether the image for the left eye or the right eye is detected.
  • An image portion is found from the detection target area (steps 104 and 107).
  • the focus lens position of the target image portion detected only from one image is on the far side (NO in step 106) as compared to the position of the focus lens in the center, it is more than the subject existing in the center.
  • the object detected only in one image and represented by the target image portion is considered to be on the back side (the matching direction is the back side).
  • a detection target area is set, and an image in which the target image portion cannot be detected is one of the images for which the target image portion cannot be detected depending on whether the image for the left eye or the right eye is detected.
  • An image portion is found from the detection target area (steps 105 and 107). If there is no target image portion detected in only one image (NO in step 101), the processing from step 102 to step 107 is skipped.
  • a display area is calculated to include all found (detected) target image portions (step 108).
  • the above embodiment is for accurately detecting the face image and removing the front double image, but it may be preferable not to remove the front double image as in the macro mode. Examples thereof are described below.
  • FIG. 26 to FIG. 33 show another embodiment. In this embodiment, even when the target image portion is detected, when the image portion other than the target image portion is considered to be the main subject, the left-eye image This shifts the image for the right eye.
  • FIG. 19 is a plan view showing the positional relationship between the stereoscopic imaging digital camera and the subject, and corresponds to FIG. In this figure, the same components as those shown in FIG. A person 111 and a flower 112 are in front of the stereoscopic imaging digital camera 1.
  • FIGS. 27a and 27b are examples of the left-eye image 110L and the right-eye image 110R obtained when the person 111 and the flower 112 having the positional relationship shown in FIG. 26 are imaged by the stereoscopic imaging digital camera 1. .
  • a person image 111L representing a person 111 is displayed at the upper left, and a flower image 112L representing a flower 112 is displayed substantially at the center.
  • a face image 115L is detected, and a frame 113L is displayed around the detected face image 115L.
  • a person image 111R representing a person 111 is displayed at the upper left
  • a flower image 112R representing a flower 112 is displayed at the approximate center.
  • a face image 115R is detected, and a frame 113R is displayed around the detected face image 115R.
  • 28 to 30 show the relationship between the focus position of the imaging lens when the target image portion is detected, the focus position of the imaging lens in the center, and the index representing the main subjectness.
  • FIG. 28 shows a graph G1 of the relationship when the zoom lens is set to the wide side
  • FIG. 29 shows the relationship when the zoom lens is set between the wide side and the tele side
  • FIG. 30 shows a graph G3 of the relationship when the zoom lens is set on the telephoto side.
  • the index FP representing the main subjectness is stored in advance for each zoom position corresponding to the zoom position of the zoom lens.
  • the graph G1 is such that the Near side has the maximum value.
  • the graph G2 is such that the intermediate value between the Near side and the Far side is the maximum value.
  • the graph G3 is such that the Far side has the maximum value.
  • the graph showing the relationship between the focus lens position and the index of the main subjectness changes continuously according to the zoom position.
  • a graph showing the relationship between the focus lens position and the index of the main subject is stored in advance (it may be stored in the form of a table), and set from these graphs.
  • the graph corresponding to the zoom position being selected is selected, and the focus position of the imaging lens when the target image portion is detected using the selected graph and the focus position of the central imaging lens are determined.
  • An index FP representing the subjectness is calculated.
  • the zoom position is on the wide side, when the focus lens positions P11 and P12 are extended vertically using the graph G1 shown in FIG. 28, the index of the intersection with the graph G1 is the main subject. It will be likeness.
  • the index representing the main subject likeness of the subject in the central portion is F1
  • the index representing the main subject likeness in the target image portion is F2. Since F1> F2, it is considered that the subject in the central part is more likely to be the main subject than the object represented by the target image part.
  • the index representing the main subject likeness of the subject in the central portion is F3
  • the index representing the likeness of the main subject in the target image portion Is F1. Since F1> F3, it is considered that the object represented by the target image portion is more likely to be the main subject than the subject in the center portion.
  • the index representing the main subject likeness of the subject in the central portion is F4
  • the index representing the likeness of the main subject in the target image portion is F1. is there. Since F1> F4, it is considered that the object represented by the target image portion is more likely to be the main subject than the subject in the center portion.
  • FIG. 31 shows an example of a stereoscopic image 110 in which the left-eye image and the right-eye image shown in FIGS. 27a and 27b are superimposed.
  • the stereoscopic image 110 includes a person image 111 representing the person 111 and a flower image 112 representing the flower 112 (the person image 111 and the flower image 112 have the same reference numerals as the person 111 and the flower 112).
  • a face image 115 is detected from the person image 111, and a frame 113 is displayed around the face image 115.
  • the macro mode is set, and as shown in FIG. 28, the index F1 of the main subject likeness of the flower image 112 is larger than the index F2 of the main subject likeness of the person image 111.
  • the left-eye image 110L and the right-eye image 110L and the right-eye image 110R are not shifted so that the parallax shift does not occur in the image 111, but the parallax shift does not occur in the flower image 112 considered as the main subject. 110R is shifted.
  • the parallax shift is removed from the flower image 112 included in the stereoscopic image 110.
  • FIG. 32 is a block diagram showing an electrical configuration of the stereoscopic imaging digital camera 1. In this figure, the same components as those shown in FIG.
  • the stereoscopic imaging digital camera 1 shown in FIG. 32 is provided with a main subject-likeness determination device 109.
  • the main subject likeness determination device 109 as described above, the main subject likeness index of the image existing in the center of the image is compared with the main subject likeness index of the detected target image portion, and the main subject likeness index is compared.
  • the left-eye image and the right-eye image are shifted so that the parallax shift of the high image is eliminated.
  • FIG. 33 is a flowchart showing a processing procedure for shifting the left-eye image and the right-eye image (the processing procedure in FIG. 7 Step 92).
  • step 121 It is determined whether there is a double image at the center of the stereoscopic image obtained by superimposing the left-eye image and the right-eye image (step 121). If there is a double image at the center (YES in step 121), the index of the likelihood of the main subject of the double image at the center is calculated as described above (step 122). Subsequently, the index of the main subject likeness of the detected target image portion is also calculated (step 123). The calculated main subject index is compared (step 124), and if the main subject index of the double image at the center is larger than the main subject index of the detected target image portion, The left-eye image and the right-eye image are shifted so as to remove the parallax shift of the double image of the part (step 126).
  • Step 125 When there are a plurality of target image portions (step 124), the left-eye image and the right-eye image are shifted so that the parallax shift of the high-priority target image portion is removed (step 127).
  • the priorities are set in advance, such as the order of the size of the detected target image part, the order of the position of the detected target image part close to the center, and the like.
  • step 124 If a plurality of target image portions do not exist (NO in step 124), the left-eye image and right-eye image are shifted so as to eliminate the parallax shift of the detected target image portion (step 128).
  • so-called auto-reproduction is considered, but there are cases where the user reproduces using manual zoom. Even in such a case, it is preferable to reproduce a good image with less parallax shift and less burden on the user's eyes according to the zoom operation.
  • 34 to 37 show another embodiment. This embodiment relates to electronic zoom processing during reproduction.
  • FIGS. 34 and 35 are examples of reproduced stereoscopic images (images in which a left-eye image and a right-eye image are superimposed).
  • FIG. 34 and 35 are examples of reproduced stereoscopic images (images in which a left-eye image and a right-eye image are superimposed).
  • FIG. 34 and 35 are examples of reproduced stereoscopic images (images in which a left-eye image and a right-eye image
  • FIG. 34 is a stereoscopic image from which the parallax shift of the target image portion 5 is removed
  • FIG. 35 is a stereoscopic image from which the parallax shift of the center tower image 11 is removed.
  • the electronic zoom process is performed as described above.
  • the target image portion may deviate from the designated zoom area 131.
  • the enlarged stereoscopic image displays a stereoscopic image that does not include the target image portion from which the parallax deviation is removed. .
  • FIG. 35 when the detected target image portion deviates from the zoom region 131, the parallax shift of the image portion (tower image 11) existing in the center portion is eliminated.
  • FIG. 36 is a block diagram showing the electrical configuration of the stereoscopic imaging digital camera.
  • the stereoscopic imaging digital camera shown in FIG. 36 includes a zoom area determination device 132.
  • the zoom area determination device 132 determines whether or not the target image portion within the designated zoom area is included. When the target image portion is not included in the zoom area, the left-eye image and the right-eye image are shifted so that the parallax of the image at the center of the image or the center of the zoom area is removed, and the zoom area The image of is enlarged.
  • the left-eye image data and the right-eye image data are read from the memory card 80, and the target image portion is detected from each of the left-eye image and the right-eye image represented by the left-eye image data and the right-eye image data, respectively. Done.
  • the target image portion may be detected from either the left-eye image or the right-eye image.
  • a stereoscopic image composed of the left-eye image and the right-eye image is displayed on the display screen of the monitor display device 80, and the electronic zoom area is designated.
  • a zoom operation manual / zoom operation
  • step 142 If there is a target image portion in the stereoscopic image (YES in step 141), it is determined whether or not the detected target image portion is within the designated electronic zoom region (step 142). If the detected target image portion is within the designated electronic zoom region (YES in step 142), it is confirmed whether or not a plurality of target image portions are included in the display region (step 143). If there are a plurality of target image portions (YES in step 143), the left-eye image and the right-eye image are shifted so that the parallax shift of the high-priority target image portion is removed as described above ( Step 145).
  • step 142 If a plurality of target image portions do not exist (NO in step 142), the left-eye image and right-eye image are shifted so that the detected parallax shift of the target image portion is removed (step 146). If the target image portion does not exist in the stereoscopic image (NO in step 141), and if the detected target image portion is not within the designated electronic zoom area (NO in step 142), as described above, The left-eye image and the right-eye image are shifted and displayed so that the parallax shift of the image at the center of the image or at the center of the electronic zoom area is removed (step 144). If there is no zoom operation by the user (NO in step 140), the processing from step 141 to 146 described above is skipped.
  • the parallax shift changing process is not performed. 38 to 42 show another embodiment.
  • it is an obstruction in viewing like a double image in the foreground, and removes a portion that burdens the eyes.
  • data representing a portion from which the amount of parallax deviation is removed and a display area are recorded on the memory card 80.
  • FIG. 38 is an example of the stereoscopic image 10.
  • FIG. 38 corresponds to FIG. 23, and the same components as those shown in FIG. Referring to FIG. 38, when the face image 5 of the first person image 12 included in the stereoscopic image 10 is displayed so as not to have a parallax shift, the upper left corner of the rectangular frame 15 surrounding the face image 5 is displayed.
  • FIG. 39 is an example of the stereoscopic image 10.
  • FIG. 39 also corresponds to FIG. 23, and the same components as those shown in FIG.
  • the face image 5 of the first person image 12 and the face image 6 of the second person image 14 are detected, and a rectangular display area 18 is determined so as to include the face image 5.
  • data indicating the upper left coordinates (x3, y3) and the lower right coordinates (x4, y4) of the display area 18 are data representing the display area 18.
  • These data are recorded on the memory card 80 as data representing a part from which the parallax deviation is removed and a display area (for example, recorded in the header area of the memory card 80).
  • the data representing the portion from which the parallax shift is removed and the display area, and the memory card 80 in which the image data for the left eye and the image data for the right eye are recorded are brought to the photo shop, and the data representing the portion from which the parallax shift is removed
  • an image portion from which the parallax deviation is removed from the stereoscopic image is known. It is possible to print a stereoscopic image that eliminates the parallax shift of the image portion.
  • FIG. 42 is an example of the stereoscopic image 10.
  • FIG. 42 also corresponds to FIG. 23, and the same components as those shown in FIG. Referring to FIG. 40, when the face image 6 of the first person image 12 included in the stereoscopic image 10 is displayed so that there is no parallax shift, the upper left corner of the rectangular frame 16 surrounding the face image 6 is displayed. Data indicating the coordinates (x5, y5) and the lower right coordinates (x6, y7) are data representing a portion from which the amount of parallax deviation is removed.
  • FIG. 40 data indicating the coordinates (x5, y5) and the lower right coordinates (x6, y7) are data representing a portion from which the amount of parallax deviation is removed.
  • FIG. 41 is an example of the stereoscopic image 10.
  • FIG. 41 also corresponds to FIG. 23, and the same components as those shown in FIG.
  • the face image 5 of the first person image 12 and the face image 6 of the second person image 14 are detected, and a rectangular display area 18 is determined so as to include the face image 6.
  • data indicating the upper left coordinates (x7, y7) and the lower right coordinates (x8, y8) of the display area 18 are data representing the display area 18, respectively.
  • These data are recorded on the memory card 80 as data representing a portion from which the parallax deviation is removed and a display area, respectively, as described above.
  • the memory card 80 in which the data representing the portion where the parallax deviation is removed and the display area, the left-eye image data and the right-eye image data are recorded is brought to the photo shop, and the parallax deviation is detected.
  • the data representing the part to be removed it is possible to know the image part from which the parallax deviation is removed from the stereoscopic image. It is possible to print a stereoscopic image that eliminates the parallax shift of the image portion.
  • the display area of the stereoscopic image can be known. Printing can be performed so that the image in the display area becomes one image.
  • FIG. 42 is a block diagram showing the electrical configuration of the stereoscopic imaging digital camera. In this figure, the same components as those shown in FIG. 36 are designated by the same reference numerals and description thereof is omitted.
  • the stereoscopic imaging digital camera shown in FIG. 42 is provided with a print order information generation device 109.
  • the print order information generation device 109 generates information related to printing of a stereoscopic image.
  • a stereoscopic image to be printed is displayed on the monitor display device 82.
  • data for example, frame number data
  • an image portion that eliminates a parallax shift as described above is used.
  • Data indicating the display area and data indicating the display area are generated as print order information.
  • the generated print order information is recorded on the memory card 80, and a stereoscopic image is printed according to the print order information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

自然な立体画像を表示し,かつ目の負担を軽くする。左目用画像と右目用画像とから構成される立体画像のうち,顔画像が検出される。検出された顔画像の視差ずれが除かれるように左目用画像と右目用画像とがずらされる。さらに,顔画像を含む表示領域が算出される。算出された表示領域が表示画面全体にわたって表示されるように拡大される。顔画像より手前に見える二重像は排除されるので観賞者の目の負担が軽くなる。

Description

立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム
 この発明は,立体画像制御装置ならびにその動作制御方法およびその動作制御プログラムに関する。
 立体画像を表示する装置が開発されつつある(特開2008−22150号公報)。このような立体画像の表示装置においては,立体画像に含まれる被写体像部分ごとに視差を調整するものもある(特願2007−307225号)。また,注目部位を抽出するディジタル・カメラ(特開2001−148800号公報),複数の物体が重なって見える被写体の複数の奥行きの値を取得する視差画像撮像装置もある(特開2001−4370号公報)。
 立体画像では,立体画像を構成する左目用画像と右目用画像とに共通に含まれる,ある画像部分の視差が無いようにする必要がある。従来は,左目用画像と右目用画像とのそれぞれのほぼ中央部分の視差が無いようにしているが,表示される立体画像が不自然となってしまうことがある。
 この発明は,比較的自然な立体画像を得ることを目的とする。
 第1の発明による立体画像制御装置は,立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つける第1の対象画像部分検出装置(第1の対象画像部分検出手段),上記第1の対象画像部分検出装置においてそれぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらす視差ずらし装置(視差ずらし手段),上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分を含む表示領域を決定する表示領域決定装置(表示領域決定手段),および上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記表示領域決定装置によって決定された表示領域内の画像を拡大して表示するように表示装置を制御する表示制御装置(表示制御手段)を備えていることを特徴とする。
 第1の発明は,上記立体画像制御装置の動作制御方法も提供している。すなわち,この方法は,対象画像部分検出装置が,立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つけ,視差ずらし装置が,上記第2の対象画像部分検出装置においてそれぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらし,表示領域決定装置が,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分を含む表示領域を決定し,表示制御装置が,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記表示領域決定装置によって決定された表示領域内の画像を拡大して表示するように表示装置を制御するものである。
 第1の発明は,上記立体画像制御装置の動作制御方法を実施するための動作プログラムも提供している。さらに,そのような動作プログラムを格納した記録媒体も提供するようにしてもよい。
 第1の発明によると,立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分が見つけられる。左目用画像から見つけられた対象画像部分と右目用画像から見つけられた対象画像部分との視差が除かれるように,左目用画像と右目用画像との視差ずらしが行われる。左目用画像と右目用画像とのうち,視差ずれが除かれた対象画像部分を含む表示領域(好ましくは所定の最小表示サイズ以上で立体画像の大きさ未満)が決定される。決定された表示領域内の画像が拡大して表示されるように表示装置が制御される。
 単に,左目用画像の中央部分と右目用画像の中央部分との視差ずれが無くなるように視差ずらしが行われるのではなく,観賞者が着目するような所望の対象画像部分の視差ずれが無くなるように視差ずらしが行われる。観賞者が着目する対象画像部分の視差ずれが無いので自然な立体画像が得られる。さらに,そのような対象画像部分を含む表示領域が決定され,決定された表示領域内の画像が拡大して表示されるので,表示領域外の画像部分は表示されない。立体画像表示では,手前の被写体を表わす被写体像は,画像を撮像した装置に含まれる撮像レンズの収差の影響により視差ずれが大きく,目への負担が大きいが,表示領域外の画像部分は表示されないので観賞者の目の負担を軽くできる。
 上記第1の対象画像部分検出装置によって検出された対象画像部分により表される対象物よりも手前に存在する被写体を表す手前被写体像(手前二重像)が上記左目用画像および上記右目用画像のそれぞれに含まれているかどうかを判定する第1の判定装置(第1の判定手段),および上記第1の判定装置によって,上記手前被写体像が上記左目用画像および上記右目用画像のそれぞれに含まれていると判定されたことにより,上記左目用画像に含まれている手前被写体像と上記右目用画像に含まれている手前被写体像とのずれ量が許容範囲外かどうかを判定する第2の判定装置(第2の判定手段)をさらに備えてもよい。この場合,上記表示領域決定装置は,たとえば,上記第2の判定装置により上記許容範囲外と判定されたことに応じて上記表示領域を決定するものである。
 上記対象画像部分検出装置において,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記左目用画像と上記右目用画像とのうちの一方の画像からは見つけられずに他方の画像からは見つけられた対象画像部分の大きさの方が大きいかどうかを判定する大きさ判定装置(大きさ判定手段),および上記大きさ判定装置によって,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が大きいと判定され,かつ上記一方の画像が上記左目用画像の場合,または上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が小さいと判定され,かつ上記一方の画像が上記右目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の右側から見つけ,上記大きさ判定装置によって,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が大きいと判定され,かつ上記一方の画像が上記右目用画像の場合,または上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が小さいと判定され,かつ上記一方の画像が上記左目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける第2の対象画像検出装置(第2の対象画像検出手段)をさらに備えてもよい。この場合,上記表示領域決定装置は,たとえば,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分,上記第1の対象画像部分検出装置において他方の画像から見つけられた対象画像部分および上記第2の対象画像部分検出装置において一方の画像から見つけられた対象画像部分を含む表示領域を決定するものとなろう。
 上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも手前にあり,かつ上記一方の画像が左目用画像の場合,または上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも奥にあり,かつ上記一方の画像が右目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の右側から見つけ,上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも手前にあり,かつ上記一方の画像が右目用画像の場合,または上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも奥にあり,かつ上記一方の画像が左目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける第3の対象画像部分検出装置(第3の対象画像部分検出手段)をさらに備えてもよい。この場合,上記表示領域決定装置は,たとえば,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分,上記第1の対象画像部分検出装置において他方の画像からのみ見つけられた対象画像部分および上記第3の対象画像部分検出装置において一方の画像から見つけられた対象画像部分を含む表示領域を決定するものとなろう。
 上記左目用画像の中央部分と上記右目用画像の中央部分とのそれぞれに,上記第1の対象画像部分検出装置によって検出された対象画像部分によって表される対象物よりも手前に存在する被写体を表す中央被写体像があることにより,上記中央被写体像の主要被写体らしさと上記第1の対象画像部分検出装置によって検出された対象画像部分の主要被写体らしさを比較する比較装置(比較手段)をさらに備えてもよい。この場合,上記視差ずらしそうちは,たとえば,上記比較装置により,上記中央被写体像の主要被写体らしさが上記第1の対象画像部分検出装置によって検出された対象画像部分の主要被写体らしさよりも大きいと判定されたことにより,上記左目用画像の上記中央被写体像と上記右目用画像の上記中央被写体像との菱さずれが除かれるように上記左目用画像と上記右目用画像とをずらすものである。
 上記表示制御装置による拡大表示制御が行われることにより,上記左目用画像検出装置において見つけられた対象画像部分が表示されないかどうかを判定する表示判定装置(表示判定手段),および上記表示判定装置において,上記左目用画像検出装置において見つけられた対象画像部分が表示されないと判定されたことに応じて上記左目用画像の中央部分と上記右目用画像の中央部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらすように上記視差ずらし装置を制御する視差ずらし制御装置(視差ずらし制御手段)を備えてもよい。
 上記左目用画像を表す左目用画像データ,上記右目用画像を表す右目用画像データ,ならびに上記視差ずらし装置によって視差ずれが除かれる部分および上記表示領域決定装置によって決定された表示領域をそれぞれ表すデータを可搬型記録媒体に記録する記録制御装置(記録制御手段)をさらに備えてもよい。
 上記左目用画像を表す左目用画像データ,および上記右目用画像を表す右目用画像データが可搬型記録媒体に記録されている場合には,上記視差ずらし装置によって視差ずれが除かれる部分および上記表示領域決定装置によって決定された表示領域をそれぞれ表すデータを上記可搬型記録媒体に記録する記録制御装置(記録制御手段)をさらに備えてもよい。
 第2の発明による立体画像制御装置は,左目用画像と右目用画像とを重ね合わせて立体画像を生成する立体画像生成装置(立体画像生成手段),上記立体画像生成装置によって生成された立体画像の中から所望の対象画像部分を見つける対象画像検出装置(対象画像検出手段),上記立体画像生成装置によって生成された立体画像の中から電子ズーム領域を指定する電子ズーム領域指定装置(電子ズーム領域指定手段),上記電子ズーム領域指定装置によって指定された電子ズーム領域の中に,上記対象画像検出装置によって検出された対象画像が含まれているかどうかを判定する判定装置(判定手段),上記判定装置によって,電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,上記判定装置によって電子ズーム領域に対象画像が含まれていると判定されたことにより,上記対象画像検出装置によって検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらす視差ずらし装置(視差ずらし手段),および上記電子ズーム領域内の画像を拡大して表示する表示制御装置(表示制御手段)を備えていることを特徴とする。
 第2の発明は,上記立体画像制御装置に適した動作制御方法も提供している。すなわち,この方法は,立体画像生成装置が,左目用画像と右目用画像とを重ね合わせて立体画像を生成し,対象画像検出装置が,上記立体画像生成装置によって生成された立体画像の中から所望の対象画像部分を見つけ,電子ズーム領域指定装置が,上記立体画像生成装置によって生成された立体画像の中から電子ズーム領域を指定し,判定装置が,上記電子ズーム領域指定装置によって指定された電子ズーム領域の中に,上記対象画像検出装置によって検出された対象画像が含まれているかどうかを判定し,視差ずらし装置が,上記判定装置によって,電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,上記判定装置によって電子ズーム領域に対象画像が含まれていると判定されたことにより,上記対象画像検出装置によって検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,表示制御装置が,上記電子ズーム領域内の画像を拡大して表示するものである。
 第2の発明によると,指定された電子ズーム領域内に対象画像部分が含まれていれば,その対象画像部分の視差ずれが無くなるように視差ずらしが行われ,指定された電子ズーム領域内に対象画像部分が含まれていなければ,立体画像または電子ズーム領域の中央部分の視差ずれが無くなるように視差ずらしが行われる。自然な立体画像が得られる。
 第1図は被写体と立体撮像ディジタル・カメラとの位置関係を示している。
 第2a図は左目用画像を,第2b図は右目用画像を示している。
 第3図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
 第4図は立体画像一例である。
 第5図は立体画像の一例である。
 第6図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
 第7図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第8図は被写体と立体撮像ディジタル・カメラとの位置関係を示している。
 第9a図は左目用画像を,第9b図は右目用画像を示している。
 第10図は検出された対象画像部分の一例である。
 第11図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
 第12a図は左目用画像を,第12b図は右目用画像を示している。
 第13図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
 第14a図は左目用画像を,第14b図は右目用画像を示している。
 第15図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
 第16図(A)は左目用画像を,第16b図は右目用画像を示している。
 第17図は被写体像と立体撮像ディジタル・カメラとの関係を示している。
 第18図は画像の中央部のフォーカス・レンズ位置と対象画像部分のフォーカス・レンズ位置とを示している。
 第19a図は左目用画像を,第19b図は右目用画像を示している。
 第20a図は左目用画像を,第20b図は右目用画像を示している。
 第21a図は左目用画像を,第21b図は右目用画像を示している。
 第22a図は左目用画像を,第22b図は右目用画像を示している。
 第23図は立体画像の一例である。
 第24図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
 第25図は表示領域算出処理手順を示すフローチャートである。
 第26図は被写体と立体撮像ディジタル・カメラとの位置関係を示している。
 第27a図は左目用画像を,第27b図は右目用画像を示している。
 第28図は画像の中央部のフォーカス・レンズ位置と対象画像部分のフォーカス・レンズ位置と主要被写体らしさとの関係を示している。
 第29図は画像の中央部のフォーカス・レンズ位置と対象画像部分のフォーカス・レンズ位置と主要被写体らしさとの関係を示している。
 第30図は画像の中央部のフォーカス・レンズ位置と対象画像部分のフォーカス・レンズ位置と主要被写体らしさとの関係を示している。
 第31図は立体画像の一例である。
 第32図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
 第33図は画像ずらしの処理手順を示すフローチャートである。
 第34図は立体画像の一例である。
 第35図は立体画像の一例である。
 第36図は立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 第37図は再生処理手順を示すフローチャートである。
 第38図は立体画像の一例である。
 第39図は立体画像の一例である。
 第40図は立体画像の一例である。
 第41図は立体画像の一例である。
 第42図は立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
 第1図は,この発明の実施例を示すもので,立体撮像ディジタル・カメラと被写体との関係を平面的に表している。
 立体撮像ディジタル・カメラ1には,観賞者が左目で見る左目用画像を撮像する第1の撮像装置2および観賞者が右目で見る右目用画像を撮像する第2の撮像装置3が設けられている。
 立体撮像ディジタル・カメラ1の前方には,立体撮像ディジタル・カメラ1から遠い順に,タワー11,人物12および壁13が存在している。
 第2a図および第2b図は,第1図に示す立体撮像ディジタル・カメラ1を用いて撮像して得られた左目用画像および右目用画像をそれぞれ表している。
 第2a図に示す左目用画像10Lは,立体撮像ディジタル・カメラ1の第1の撮像装置2によって撮像されたものである。第2b図に示す右目用画像10Rは,立体撮像ディジタル・カメラ1の第2の撮像装置3によって撮像されたものである。
 第2a図を参照して,左目用画像10Lには,中央のタワー11に対応するタワー画像11Lが中央に表示されている。このタワー画像11Lの左側に人物12に対応する人物像12Lが表示されている。左目用画像10Lの右下隅には壁13に対応する壁画像13Lが表示されている。
 第2b図を参照して,右目用画像10Rにも,中央にタワー画像11Rが表示され,そのタワー画像11Rの左に人物像12Rが表示されている。右目用画像10Rの右下隅には壁画像13Rが表示されている。
 第2a図に示す左目用画像10Lと第2b図に示す右目用画像10Rとの間には視差がある。立体画像として表示する場合には,左目用画像10Lと右目用画像10Rとに共通に含まれる,ある画像部分の視差が除かれるように(無くなるように),左目用画像10Lと右目用画像10Rとを水平方向にずらす必要がある。この実施例では,左目用画像10Lと右目用画像10Rとのそれぞれの画像から所望の対象画像部分が検出され,その検出された対象画像部分の視差が除かれるように,左目用画像10Lと右目用画像10Rとが水平方向にずらされる。複数の対象画像部分が見つけられた場合には,複数の対象画像部分のうちいずれか1つの対象画像部分の視差が除かれる。
 この実施例では,人物12の顔画像が所望の対象画像部分とされるが,他の画像部分でもよいのはいうまでもない。
 第2a図を参照して,左目用画像10Lから人物像12Lの顔画像5Lの検出処理が行われ,その顔画像5Lが検出される。検出された顔画像5Lを指定する枠15Lが左目用画像10Lに表示される。同様に,第2b図に示す右目用画像10Rにおいても人物像12Rの顔画像5Rの検出処理が行われ,その顔画像5Rが検出される。検出された顔画像5Rを指定する枠15Rが右目用画像10Rに表示される。
 第3図は,被写体像と立体撮像ディジタル・カメラ1との関係を示している。
 上述のように,左目用画像10Lから検出された顔画像5L(人物像12L)と右目用画像10Rから検出された顔画像5R(人物像12R)との視差が除かれるように左目用画像10Lと右目用画像10Rとがずらされると,人物像12には,ずれが無くなる。
 人物12の後方にあるタワー11は,左目用画像10Lに含まれるタワー画像11Lと右目用画像10Rに含まれるタワー画像11Rとによって表される。これらのタワー画像11Lと11Rとの間にずれが生じる(奥側二重像)。また,人物12の前方にある壁13は,左目用画像10Lに含まれる壁画像13Lと右目用画像10Rに含まれる壁画像13Rとによって表される。これらの壁画像13Rと壁画像13Lとの間にもずれが生じる(手前二重像)。
 タワー11は,視差ずれの無い人物12の後方にあるので,左目用画像10Lに含まれるタワー画像11Lは右目用画像10Rに含まれるタワー画像11Rの右側にある。これに対して,壁13は,視差ずれの無い人物12の手前にあるので,左目用画像10Lに含まれる壁画像13Lは右目用画像10Rに含まれる壁画像13Rの左側にある。
 第4図は,第2a図に示す左目用画像10Lと第2b図に示す右目用画像10Rとを重ね合わせる(ずらされる)ことにより得られる立体画像の一例である。
 この立体画像10は,左目用画像10Lから検出された顔画像5Lと右目用画像10Rから検出された顔画像5Rとの視差が除かれるように左目用画像10Lと右目用画像10Rとがずらされているものである。
 立体画像10には,タワー11,人物12および壁13にそれぞれ対応するタワー画像11,人物画像12および壁画像13(これらの符号もタワー11,人物12および壁13の符号と同じ符号を使用する)が含まれている。人物像12には視差ずれが無いが,タワー画像11および壁画像13には,視差ずれがあり二重の画像となっている。この実施例では,立体画像10のうち,検出された顔画像5を含む表示領域を決定し,その表示領域内の画像を拡大して表示するものである。
 第5図は,立体画像10の一例である。
 上述したように,立体画像10において,検出された顔画像5を含むように表示領域17が決定される。表示領域17は,立体画像10のアスペクト比と同じアスペクト比をもち,かつ立体画像10の上下左右の辺にそれぞれ平行な辺を有している。表示領域17内の画像が表示装置の表示画面全体に表示されるように拡大される。表示領域17外の画像には,検出された対象画像部分によって表される人物12の顔よりも手前にある(立体撮像ディジタル・カメラ1に近い)対象物である壁13を表す壁画像13(視差があるため二重である)も含まれている。人物12の顔よりも奥にある(立体撮像ディジタル・カメラから遠い)対象物であるタワー11を表すタワー画像11は,視差があるために二重であるが,このように視差が無い顔画像5によって表される顔5よりも奥にある対象物の画像は立体感を出すために必要であるが,顔5よりも手前にある対象物の画像は観賞者の目の負担を減らすためにも無くした方が好ましい。この実施例では,表示領域17外の画像は表示されないので,顔5よりも手前にある対象物の二重像が表示されなくなることが多い。しかも,顔画像5が含むように表示領域17が決定されているので,観賞者が見たい対象画像部分が表示されない,ということも未然に防止できる。
 第6図は,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。
 立体撮像ディジタル・カメラの全体の動作は,メインCPU20によって統括される。立体撮像ディジタル・カメラには,撮像モード,再生モードなどのモード設定ボタン,立体動画記録の開始および終了を指定する動画ボタンなどの各種ボタン類が含まれている操作装置27が設けられている。操作装置27から出力される操作信号は,メインCPU20に入力する。
 上述したように,立体撮像ディジタル・カメラには,第1の撮像装置2と第2の撮像装置3とが含まれている。これらの第1の撮像装置2と第2の撮像装置3とによって被写体が撮像される。
 第1の撮像装置2は,被写体を撮像することにより,立体画像を構成する左目用画像を表す画像データを出力するものである。第1の撮像装置2には,第1の撮像素子(CCD,CMOSなど)34が含まれている。第1の撮像素子34の前方には,ズーム・レンズ31,フォーカス・レンズ32および絞り33が設けられている。これらのズーム・レンズ31,フォーカス・レンズ32および絞り33は,それぞれズーム・レンズ制御装置35,フォーカス・レンズ制御装置36および絞り制御装置37によって駆動させられる。撮像モードが設定され,第1の撮像素子34の受光面に左目用画像が結像すると,タイミング・ジェネレータ42から与えられるクロック・パルスにもとづいて,左目用画像を表す左目用映像信号が第1の撮像素子34から出力される。
 第1の撮像素子34から出力された左目用映像信号は,アナログ信号処理装置39において,所定のアナログ信号処理が行われ,アナログ/ディジタル変換装置40においてディジタルの左目用画像データに変換される。左目用画像データは,画像入力コントローラ41からディジタル信号処理装置62に入力する。ディジタル信号処理装置62において左目用画像データに対して所定のディジタル信号処理が行われる。ディジタル信号処理装置62から出力された左目用画像データはAF検出装置76に入力し,フォーカス・レンズ32のレンズ位置を決定するAF評価値が算出される。算出されたAF評価値にもとづいてフォーカス・レンズ32が位置決めされる。また,左目用画像データは,AE/AWB検出装置77にも入力し,露出量および白バランス調整量が算出される。算出された露出量にもとづいて絞り33の絞り値および第1の撮像素子34のシャッタ速度(電子シャッタ)が決定される。また,算出された白バランス調整量にもとづいてアナログ信号処理装置39において白バランス調整が行われる。
 第2の撮像装置3には,第2の撮像素子54が含まれている。第2の撮像素子54の前方には,ズーム・レンズ制御装置55,フォーカス・レンズ制御装置56および絞り制御装置57によってそれぞれ駆動させられるズーム・レンズ51,フォーカス・レンズ52および絞り53が設けられている。撮像モードが設定され,第2の撮像素子54の受光面に右目用画像が結像すると,タイミング・ジェネレータ62から与えられるクロック・パルスにもとづいて,右目用画像を表す右目用映像信号が第2の撮像素子54から出力される。
 第2の撮像素子54から出力された右目用映像信号は,アナログ信号処理装置59において,所定のアナログ信号処理が行われ,アナログ/ディジタル変換装置60においてディジタルの右目用画像データに変換される。右目用画像データは,画像入力コントローラ61からディジタル信号処理装置62に入力する。ディジタル信号処理装置62において右目用画像データに対して所定のディジタル信号処理が行われる。ディジタル信号処理装置62から出力された右目用画像データもAF検出装置76に入力し,フォーカス・レンズ52のレンズ位置を決定するAF評価値が算出される。算出されたAF評価値にもとづいてフォーカス・レンズ52が位置決めされる。また,右目用画像データも,AE/AWB検出装置77に入力し,露出量および白バランス調整量が算出される。算出された露出量にもとづいて絞り53の絞り値および第2の撮像素子54のシャッタ速度(電子シャッタ)が決定される。また,算出された白バランス調整量にもとづいてアナログ信号処理装置59において白バランス調整が行われる。
 上述のようにして得られた左目用画像データおよび右目用画像データは,被写体検出装置85にも入力する。被写体検出装置85において,上述のように,所望の対象画像部分(顔画像)が左目用画像および右目用画像のそれぞれから検出される。さらに,左目用画像データおよび右目用画像データならびに検出された対象画像部分の位置を示すデータは,視差調整装置83および二重像判定装置86を単に通過して位置ずれ量測定装置88に入力する。位置ずれ量測定装置88において,左目用画像および右目用画像のそれぞれの画像において,お互いに対応する画像部分のずれ方向およびずれ量が測定される。さらに,位置ずれ量測定装置88において,検出された対象画像部分によって表される対象物よりも手前の被写体を表す画像(手前二重像)の位置ずれか,その対象物よりも奥の被写体を表す画像(奥側二重像)の位置ずれかも検出される。
 左目用画像において検出された対象画像部分と右目用画像において検出された対象画像部分との位置ずれがなくなるように(視差ずれが無くなるように),視差調節装置83において,左目用画像と右目用画像とがずらされる。視差調節装置83において画像がずらされた左目用画像データおよび右目用画像データは表示制御装置81に入力する。
 また,検出された対象画像部分の位置を表すデータならびに左目用画像データおよび右目用画像データは表示領域計算装置87にも入力する。表示領域計算装置87において,上述したように表示領域の位置および大きさが算出される。算出された表示領域の位置および大きさを表すデータは,二重像判定装置86を単に通過して表示制御装置81に与えられる。
 表示制御装置81において,検出された対象画像部分の視差が無くなり,かつ表示領域内の画像が表示画面全体に表示されるように拡大されて表示されるようにモニタ表示装置82が制御される。
 さらに,立体撮像ディジタル・カメラには,左目用画像および右目用画像のうち,対象画像部分が一方から見つけられた場合に他方の画像から対象画像部分を見つける対応点検出装置84も含まれている。また,立体撮像ディジタル・カメラには,後述するように対象画像部分によって表される対象物よりも手前の被写体を表す手前二重像が存在するか,その手前二重像のずれの程度が許容範囲内かどうかを判定する二重像判定装置86も含まれている。
 操作装置27に含まれているシャッタ・レリーズ・ボタンが押されると,上述のようにして得られる立体画像を表すデータ(左目用画像データおよび右目用画像データ)がメディア制御装置79によってメモリ・カード80に記録される。メモリ・カード80には,表示領域内の画像を表す左目用画像データおよび右目用画像データを記録するようにしてもよいが,好ましくは,表示領域外の画像も含めて撮像により得られた右目用画像データおよび左目用画像データがメモリ・カード80に記録される。
 さらに,立体撮像ディジタル・カメラには,各種データ類を記憶するVRAM71,SDRAM72,フラッシュROM73およびROM74も含まれている。また,立体撮像ディジタル・カメラには,バッテリィ21が含まれており,このバッテリィ21から供給される電源が電源制御装置22に与えられる。電源制御装置22から立体撮像ディジタル・カメラを構成する各装置に電源が供給される。さらに,立体撮像ディジタル・カメラには,フラッシュ制御装置25によって制御されるフラッシュ24,姿勢検出センサ26および手振れ制御装置78も含まれている。
 上述したメモリ・カード80に立体撮像ディジタル・カメラの動作プログラムが格納されており,その動作プログラムが立体撮像ディジタル・カメラにインストールされることにより,立体撮像ディジタル・カメラが動作する。もっとも,その動作プログラムは立体撮像ディジタル・カメラにプリ・インストールされていてもよいし,メモリ・カード80以外の可搬型記録媒体に記録されていてもよい。さらに,動作プログラムはネットワークを介して立体撮像ディジタル・カメラに与えられてもよい。その場合には立体撮像ディジタル・カメラには,ネットワークに接続するための通信装置が設けられよう。
 第7図は,立体撮像ディジタル・カメラの処理手順を示すフローチャートである。
 上述のように被写体が撮像され,第2a図および第2b図に示すように左目用画像と右目用画像とが得られる。得られた左目用画像と右目用画像とのそれぞれの画像から,対象画像部分(顔画像)が検出される。左目用画像と右目用画像とのうち,いずれか一方からでも対象画像部分が検出されると(ステップ91でYES),第4図に示したように,対象画像部分の視差ずれが除かれるように左目用画像と右目用画像とがずらされる(ステップ92)。対象画像部分が左目用画像および右目用画像のうち,一方の画像からのみ検出された場合には,特徴点検出装置84において他方の画像から特徴点を検出する処理が行われ,一方の画像から検出された対象画像部分に対応する画像部分が他方の画像から検出される。
 上述したように,位置ずれ測定装置88によって得られる位置ずれの測定結果にもとづいて,検出された対象画像部分によって表される対象物よりも手前の被写体を表す手前二重像があるかどうかが判定される(ステップ93)。そのような手前二重像がある場合には(ステップ93でYES),位置ずれ測定装置88によって測定された位置ずれの結果にもとづいて,その手前二重像のずれが許容範囲内かどうかが判定される(ステップ94)。許容範囲外であれば(ステップ94でNO),上述したように,検出された対象画像部分が含まれるように表示領域(たとえば立体画像の大きさよりも小さく,立体画像と同じアスペクト比をもつ)が計算される(ステップ95)。
 表示領域が計算されると,立体画像(左目用画像および右目用画像)から除外される範囲があるかどうかが確認される(ステップ96)。除外される範囲があると(ステップ96でYES),計算された表示領域が最低のサイズ(たとえばVGA:Video Graphic Array)よりも大きいかどうかが確認される(ステップ97)。
 計算された表示領域が最低のサイズ以上であれば(ステップ97でYES),その表示領域内の画像を表示画面全体にわたって表示させることができるので,表示領域内の画像が拡大されて表示される(ステップ98)。目の負担が少なく,かつ観賞する場合に不快と感じる手前二重像が除去された立体画像が表示されるようになる。計算された表示領域が最低のサイズ未満であれば(ステップ97でNO),表示領域内の画像を表示画面全体にわたって表示させることはできないので,表示領域内の画像を拡大して表示せずに立体画像全体が表示画面全体にわたって表示される(ステップ99)。
 対象画像部分が検出されなかった場合(ステップ91でNO),手前二重像が無い場合(ステップ93でNO),手前二重像のずれ量が許容範囲内の場合(ステップ94でYES),除外範囲が無い場合(ステップ96でNO)にも,表示領域内の画像を表示画面全体にわたって表示させることはできないので,表示領域内の画像を拡大して表示せずに立体画像全体が表示画面全体にわたって表示される(ステップ99)。
 上述の実施例は,撮像時の得られた左目用画像データおよび右目用画像データについて行われているが,撮像時でなく,メモリ・カード80などの可搬型記録媒体(可搬型でなくともよい)に記録された左目用画像データおよび右目用画像データの再生時にも同様の処理を実施できるのはいうまでもない。
 上述の実施例においては,手前二重像が除去された立体画像を表示させることができる。これにより,撮像時,いわゆるライブビューの時,再生時に,撮像した画像のアスペクト比と同じアスペクト比をもち,かつ視差ずれが少ない画像をユーザに見せることができる。上述の実施例では,いわゆるオート再生を考慮するものであり,そのようなオート再生において観賞者の目の負担を軽くできる。
 手前二重像を除去するために,左目用画像および右目用画像のそれぞれの画像において,顔画像(対象画像)を正確に検出したいが,顔が立体撮像ディジタル・カメラ1から遠い場合,顔が正面ではなく斜めを向いている場合,顔の一部または全体が暗い場合などには顔画像が正確に検出できずに,右目用画像と左目用画像とのうち,一方の画像からしか検出できないことがある。そのような場合であっても,右目用画像と左目用画像とのうち他方の画像からも顔画像を検出して上述のように,手前二重像を除去することが好ましい。顔画像を検出するために,右目用画像および左目用画像のうち,顔画像が検出できなかった他方の画像全体に対して顔画像のテンプレートとのマッチング処理を行い,顔画像を検出すると,とくに上述した表示領域の計算(第7図ステップ95の処理)に比較的時間がかかってしまう。このために,顔画像が検出できなかった他方の画像から顔画像を比較的速く検出することが好ましい。以下に述べる実施例は,顔画像が検出できなかった他方の画像から顔画像を比較的速く検出するものである。
 第8図から第17図は,他の実施例を示している。この実施例は,上述のように,左目用画像および右目用画像のうち,対象画像が検出できなかった他方の画像から対象画像を比較的速く検出し,一方の画像からのみ検出された対象画像部分も表示領域内に入るように表示領域を決定するものである。最初に,第8図から第17図を参照して,左目用画像および右目用画像のそれぞれに複数の人物が含まれており,少なくとも一人の人物については左目用画像および右目用画像の両方の画像で顔画像が検出される場合の処理について説明する。両方の画像で検出された顔画像について視差ずれがないようにした上で後述の顔画像を検出する処理の検出対象領域が設定される。
 第8図は,立体撮像ディジタル・カメラ1と被写体との位置関係を平面的に示すもので,第1図に対応している。第8図において第1図に示すものと同一物については同一符号を付して説明を省略する。
 第8図においては,上述した人物(第1の人物とする)12の右側の奥であって,タワー11よりも手前に第2の人物14がいる。上述した実施例では,撮像範囲内に対象画像となる人物像(顔画像)は一人であったが,この実施例においては,第2の人物14が新たに加わっており,撮像範囲内に二人の人物像が含まれている(三人以上であってもよい)。
 第9a図および第9b図は,第8図に示す位置関係にある被写体を,立体撮像装置1の第1の撮像装置2および3においてそれぞれ撮像することにより得られた左目用画像および右目用画像である。これらの第9a図および第9b図も第2a図および第2b図にそれぞれ対応するもので,第2a図および第2b図に示すものと同一物については同一符号を付して説明を省略する。
 左目用画像10Lにおいて,対象画像部分の検出処理が行われ,第1の人物12の顔画像5Lおよび第2の人物14の顔画像6Lがそれぞれ検出されたものとする(顔画像5Lを囲む枠15Lおよび顔画像6Lを囲む枠16Lも表示されている)。同様に,右目用画像10Rにおいて対象画像部分の検出処理が行われ,第1の人物12の顔画像5Rは検出されたが(顔画像5Rを囲む枠15Rが表示されている),第2の人物14の顔画像6Rは検出されなかったものとする。
 左目用画像10Lから検出された顔画像6Lを利用して,その顔画像6Lに対応する顔画像6Rが右目用画像10Rから見つけられる。
 第10図は,左目用画像10Lと右目用画像10Rとの両方の画像から検出された顔画像5L(5R)の大きさと,左目用画像10Lと右目用画像10Rとのうち一方の画像からのみ検出された顔画像6Lの大きさとを比較している。
 この実施例においては,両方の画像から検出された顔画像5L(5R)の大きさが一方の画像からのみ検出された顔画像6Lの大きさよりも大きい場合には,一方の画像のみから検出された顔画像6Lによって表される被写体は,両方の画像から検出された顔画像5Lによって表される被写体よりも遠い(奥側)位置にあるものとされる。
 第3図を参照して説明したように,両方の画像から検出された対象画像5L(第9a図参照)と対象画像5R(第9b図参照)との視差ずれが無くなると,その対象画像5よりも奥にある被写体は,左目用画像10Lによって表されるものが右側に,右目用画像10Rによって表されるものが左側となる。このため,左目用画像10Lに検出された顔画像6Lに対応する右目用画像10Rの位置よりも右側で顔画像6Lに対応する顔画像を右目用画像10Rから見つけると,比較的短時間で見つけられる。
 目的としては,顔画像を見つけて顔画像に視差を合わせたいということであるが,顔画像が左目用画像および右目用画像のそれぞれの画像で見つかっている場合には,それらの画像がファイルに格納されており,そのファイルのヘッダ情報に顔画像の領域を表す座標情報が記録されているときには,視差を調節するために対応点検出する範囲は極めて限られた範囲となる。しかしながら,左目用画像および右目用画像のうち一方の画像でのみ顔画像が検出された場合であって,顔画像がどこにあるのかの情報が不足している状況で画像空間を総当りするようなシステムでは,対となる顔画像を探し出すところに膨大に時間的コストがかかるため,使用時のレスポンスを向上させるためには何らかの手段でこの探索範囲を限定し,高速に対応点検出処理を実施することがポイントとなる。ここでは,左目用画像および右目用画像の両方の画像から検出できた顔画像(両目検出顔画像)の大きさと,左目用画像と右目用画像とのうち一方の画像から検出できた顔画像(片目検出顔画像)の大きさとを比較することで,片目検出顔画像が両目検出顔画像よりも手前か奥かを判断し,手前か奥かの判断情報から手前側で探すか奥側を探すかの探索範囲を限定することで高速化を実現する。
 この実施例では,左目用画像10Lと上記右目用画像10Rとの両方の画像から見つけられた対象画像部分の大きさよりも他方の画像からのみ見つけられた対象画像部分の大きさの方が大きいと判定され,かつ対象画像部分を見つけられなかった一方の画像が左目用画像の場合,または左目用画像と右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも他方の画像からのみ見つけられた対象画像部分の大きさの方が小さいと判定され,かつ対象画像部分を見つけられなかった一方の画像が右目用画像の場合には,一方の画像からは見つけられなかった対象画像部分を,他方の画像において見つけられた対象画像部分に対応する位置の右側から見つける。
 第11図は,第9a図および第9b図に示すように立体撮像ディジタル・カメラ1を用いて撮像された左目用画像10Lおよび右目用画像10Rにそれぞれ含まれる顔画像5Lおよび6Lならびに顔画像5Rおよび6Rを,それらの顔画像5Lおよび6Lならびに顔画像5Rおよび6Rの人物12および14と立体撮像ディジタル・カメラ1との位置関係に対応して表現しているものである。
 第9a図および第9b図も参照して,立体撮像ディジタル・カメラ1に近い位置にいる人物については左目用画像10Lから顔画像5Lとして検出され,右目用画像10Rから顔画像5Rとして検出されたものとする。左目用画像10Lから顔画像5Lが検出されたことにより,第9a図および第11図に示すように枠15Lが顔画像5Lの周りに表示されている。右目用画像10Rから顔画像5Rが検出されたことにより,第9a図および第11図に示すように枠15Rが表示されている。
 立体撮像ディジタル・カメラ1から遠い位置にいる人物については左目用画像10Lから顔画像6Lとして検出されるが,右目用画像10Rからは顔画像6Rが検出されなかったものとする。すると,右目用画像10Rにおいて,左目用画像10Lから検出された顔画像6Lに対応する位置の右側が顔画像6Rを検出する検出対象領域210として設定される。具体的には,この検出対象領域210は,左目用画像10Lにおいて検出された顔画像6Lを囲む枠16Lの左端に対応する右目用画像10Rの位置から右側に,最大幅w1が視差ずれの最大量に検出された顔の幅を加算した値以下となり,高さh1が左目用画像10Lにおいて検出された顔画像6Lの高さに対応する。もっとも,検出対象領域210の左端は,左目用画像10Lにおいて検出された顔画像6Lを囲む枠16Lの左端よりも少し左側とし,検出対象領域201の高さh1は,左目用画像10Lにおいて検出された顔画像6Lの高さよりも上下に少し大きくしてもよい。検出対象領域210から顔画像6Lが検出されるので,比較的迅速に顔画像6Lを検出できる。
 第12a図は左目用画像の一例であり,第12b図は右目用画像の一例である。第13図は,第11図に対応するもので,第12a図および第12b図に示すように立体撮像ディジタル・カメラ1を用いて撮像された左目用画像10Lおよび右目用画像10Rにそれぞれ含まれる顔画像5Lおよび6Lならびに顔画像5Rおよび6Rを,それらの顔画像5Lおよび6Lならびに顔画像5Rおよび6Rの人物12および14と立体撮像ディジタル・カメラ1との位置関係に対応して表現しているものである。
 立体撮像ディジタル・カメラ1から遠くにいる人物については左目用画像10Lから顔画像6Lとして検出され,右目用画像10Rから顔画像6Rとして検出されたものとする。左目用画像10Lから顔画像6Lが検出されたことにより,第12a図および第13図に示すように枠16Lが顔画像6Lの周りに表示されている。右目用画像10Rから顔画像6Rが検出されたことにより,第12a図および第13図に示すように枠16Rが表示されている。
 立体撮像ディジタル・カメラ1から近い位置にいる人物については右目用画像10Rから顔画像5Rとして検出されるが,左目用画像10Lからは顔画像5Lが検出されなかったものとする。すると,左目用画像10Lにおいて,右目用画像10Rから検出された顔画像5Rに対応する位置の右側が顔画像5Lを検出する検出対象領域211として設定される。具体的には,この検出対象領域211は,右目用画像10Rにおいて検出された顔画像5Rを囲む枠15Rの右端に対応する左目用画像10Lの位置から左側に最大幅w2が視差ずれの最大量に検出された顔の幅を加算した値以下となり,高さh2が右目用画像10Rにおいて検出された顔画像5Rの高さに対応する。もっとも,検出対象領域211の左端も,右目用画像10Rにおいて検出された顔画像5Rを囲む枠15Rの左端よりも少し左側とし,検出対象領域211の高さh1は,右目用画像10Rにおいて検出された顔画像5Rの高さよりも上下に少し大きくしてもよい。検出対象領域211から顔画像5Lが検出されるので,比較的迅速に顔画像6Lを検出できる。
 また,左目用画像と右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも他方の画像からのみ見つけられた対象画像部分の大きさの方が大きいと判定され,かつ対象画像部分を見つけられなかった一方の画像が右目用画像の場合,または左目用画像と右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも他方の画像からのみ見つけられた対象画像部分の大きさの方が小さいと判定され,かつ対象画像部分を見つけられなかった一方の画像が左目用画像の場合には,一方の画像からは見つけられなかった対象画像部分を,他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける。
 第14a図は左目用画像の一例であり,第14b図は右目用画像の一例である。第15図は,第11図,第13図に対応するもので,第14a図および第14b図に示すように立体撮像ディジタル・カメラ1を用いて撮像された左目用画像10Lおよび右目用画像10Rにそれぞれ含まれる顔画像5Lおよび6Lならびに顔画像5Rおよび6Rを,それらの顔画像5Lおよび6Lならびに顔画像5Rおよび6Rの人物12および14と立体撮像ディジタル・カメラ1との位置関係に対応して表現しているものである。
 第9a図および第9b図ならびに第11図を参照して説明したのと同様に,立体撮像ディジタル・カメラ1に近い位置にいる人物については左目用画像10Lから顔画像5Lとして検出され,右目用画像10Rから顔画像5Rとして検出されたものとする。
 立体撮像ディジタル・カメラ1から遠い位置にいる人物については右目用画像10Rから顔画像6Rとして検出されるが,左目用画像10Lからは顔画像6Lが検出されなかったものとする。すると,左目用画像10Lにおいて,右目用画像10Rから検出された顔画像6Rに対応する位置の左側が顔画像6Lを検出する検出対象領域212として設定される。この検出対象領域212は,右目用画像10Rにおいて検出された顔画像6Rを囲む枠16Rの右端に対応する左目用画像10Lの位置から左側に設定される。検出対象領域212の大きさは,上述した検出対象領域210の大きさと同じである(もっとも異なってもよい)。
 第16a図は左目用画像の一例であり,第16b図は右目用画像の一例である。第17図は,第11図,第13図,第15図に対応するもので,第16a図および第16b図に示すように立体撮像ディジタル・カメラ1を用いて撮像された左目用画像10Lおよび右目用画像10Rにそれぞれ含まれる顔画像5Lおよび6Lならびに顔画像5Rおよび6Rを,それらの顔画像5Lおよび6Lならびに顔画像5Rおよび6Rの人物12および14と立体撮像ディジタル・カメラ1との位置関係に対応して表現しているものである。
 立体撮像ディジタル・カメラ1から遠くにいる人物については左目用画像10Lから顔画像6Lとして検出され,右目用画像10Rから顔画像6Rとして検出されたものとする。
 立体撮像ディジタル・カメラ1から近い位置にいる人物については左目用画像10Lから顔画像5Lとして検出されるが,右目用画像10Rからは顔画像5Rが検出されなかったものとする。すると,右目用画像10Rにおいて,左目用画像10Lから検出された顔画像5Lに対応する位置の左側が顔画像5Rを検出する検出対象領域213として設定される。検出対象領域213は,上述した検出対象領域211(第12a図参照)の大きさと同じである(異なってもよい)。
 上述の実施例では,左目用画像と右目用画像との両方の画像から検出された顔画像の大きさと,左目用画像と右目用画像とのうち一方の画像からのみ検出された顔画像の大きさとを比較して,一方の画像からのみ検出され,他方の画像からは検出されない顔画像を検出する検出対象領域を決定しているが,左目用画像と右目用画像との両方の画像から検出される顔画像が少なくとも一つは存在しなければ(安定して顔画像が検出できなければ),その検出対象領域を決定できない。次に述べる実施例では,左目用画像と右目用画像との両方の画像から検出される顔画像が存在しなくとも,左目用画像と右目用画像とのうち一方の画像からのみ検出され,他方の画像からは検出されない顔画像を検出する検出対象領域を決定するものである。
 第18図は,フォーカス・レンズ位置を示している。
 左目用画像10Lおよび右目用画像10Rの両方から共通の対象画像部分(顔画像)が検出できなかった場合には,フォーカス・レンズ位置を利用して,一方の画像において検出された対象画像部分に対応する他方の画像における対象画像部分を検出する部分が決定される。
 左目用画像および右目用画像のうち,対象画像部分が検出された方の画像の中央部が合焦するときのフォーカス・レンズの位置がP1であり,検出された対象画像部分が合焦するときのフォーカス・レンズの位置がP2であったものとする。すると,それらの位置P1と位置P2との位置関係から,画像の中央部に存在する被写体と検出された対象画像部分によって表される対象物との位置関係がわかる。この実施例では画像の中央部は視差ずれが無いように左目用画像と右目用画像とが調整される。
 左目用画像と右目用画像とのうち,他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中央部にある視差ずれの無い画像に対応する被写体の位置よりも手前にあり,かつ対象画像部分を見つけられなかった一方の画像が右目用画像の場合,または左目用画像と右目用画像とのうち,他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中央部にある視差ずれの無い画像に対応する被写体の位置よりも奥にあり,かつ一方の画像が左目用画像の場合には,一方の画像からは見つけられなかった対象画像部分を,他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける。
 第19a図は左目用画像の一例であり,第19b図は右目用画像の一例である。これらの図において,第9a図および第9b図と同一物については同一符号を付して説明を省略する。
 左目用画像10Lには中央にタワー画像11Lがあり,右目用画像10Rにも中央にタワー画像11Rがある。上述の実施例と異なり,左目用画像10Lと右目用画像10Rとは中央部にあるタワー画像11Lと11Rとの視差ずれが除去されているものとする。
 また,左目用画像10Lから顔画像6Lが検出されているが,右目用画像10Rからは顔画像6Rが検出されていないものとする。第18図に示すように,中央部(タワー11)のフォーカス・レンズ位置P1よりも対象画像(左目用画像10Lから検出された顔画像6L)のフォーカス・レンズ位置P2がNear側にあるので,タワー11よりも顔6の人物14の方が手前にいることがわかる。すると,タワー11と人物14とは,第17図に示す位置関係に相当するので,右目用画像10Rにおいて,検出された顔画像6Lに対応する位置から左側に,顔画像6Rを検出する検出対象領域210Aが設定される。
 第20a図は左目用画像の一例であり,第20b図は右目用画像の一例である。これらの図において,第16a図および第16b図と同一物については同一符号を付して説明を省略する。第20a図および第20b図においても,上述の実施例と異なり,左目用画像10Lと右目用画像10Rとはタワー画像11Lと11Rとの視差ずれが除去されているものとする。
 左目用画像10Lから顔画像5Lが検出されているが,右目用画像10Rからは顔画像5Rが検出されていないものとする。この場合も,第19a図および第19b図に示すものと同様に,顔画像5Rを検出する人物12はタワー11よりも手前にあるから,右目用画像10Rにおいて,検出された顔画像5Lに対応する位置から左側に,顔画像5Rを検出する検出対象領域213が設定されることは理解できよう。
 左目用画像と右目用画像とのうち,他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中央部にある視差ずれの無い画像に対応する被写体の位置よりも手前にあり,かつ対象画像部分を見つけられなかった一方の画像が左目用画像の場合,または左目用画像と右目用画像とのうち,他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中央部にある視差ずれの無い画像に対応する被写体の位置よりも奥にあり,かつ対象画像部分を見つけられなかった一方の画像が右目用画像の場合には,一方の画像からは見つけられなかった対象画像部分を,他方の画像において見つけられた対象画像部分に対応する位置の右側から見つける。
 第21a図は左目用画像の一例であり,第21b図は右目用画像の一例である。これらの図において,第14a図および第14b図と同一物については同一符号を付して説明を省略する。これらの図においても,左目用画像10Lと右目用画像10Rとはタワー画像11Lと11Rとの視差ずれが除去されているものとする。
 また,右目用画像10Rから顔画像6Rが検出されているが,左目用画像10Lからは顔画像6Lが検出されていないものとする。タワー11と人物14とは,第13図に示す位置関係に相当するので,左目用画像10Lにおいて,検出された顔画像6Rに対応する位置から右側に,顔画像6Lを検出する検出対象領域212Aが設定される。
 第22a図は左目用画像の一例であり,第22b図は右目用画像の一例である。これらの図において,第12a図および第12b図と同一物については同一符号を付して説明を省略する。第22a図および第20b図においても,左目用画像10Lと右目用画像10Rとはタワー画像11Lと11Rとの視差ずれが除去されているものとする。
 右目用画像10Rから顔画像5Rが検出されているが,左目用画像10Lからは顔画像5Lが検出されていないものとする。この場合も,第21a図および第21b図に示すものと同様に,顔画像5Rを検出する人物12はタワー11よりも手前にあるから,左目用画像10Lにおいて,検出された顔画像5Rに対応する位置から右側に,顔画像5Lを検出する検出対象領域211が設定されることは理解できよう。
 第9b図では,左目用画像10Lにおいて検出された顔画像6Lを基準として右側に検出対象領域210が設定されているのに対し,第19b図では,左目用画像10Lにおいて検出された顔画像6Lを基準として左側に検出対象領域210Aが設定されている。また,第14a図では,右目用画像10Rにおいて検出された顔画像6Rを基準として左側に検出対象領域212が設定されているのに対し,第21a図では,右目用画像10Rにおいて検出された顔画像6Rを基準として左側に検出対象領域212Aが設定されている。このように検出対象領域が設定される方向が異なるのは,第9b図および第14a図では,顔画像が左目用画像10Lおよび右目用画像10Rの両方の画像で検出された人物12の視差ずれが除去され,その人物12を基準として顔画像6Rまたは6Lを検出する人物14が人物12よりも奥にいる状況で検出対象領域210および212を設定しているのに対し,第19b図および第21a図では,タワー11の画像11Lおよび11Rの視差ずれが除去され,そのタワー11を基準として顔画像6Rまたは6Lを検出する人物14がタワー11よりも手前にいる状況で検出対象領域210Aおよび212Aが設定されているからである。
 第23図は,左目用画像と右目用画像とを重ねあわせた立体画像の一例であり,第5図に対応する。第23図において第5図に示すものと同一物については同一符号を付して説明を省略する。
 上述のようにして,左目用画像10Lからは検出された顔画像6Lに対応する顔画像が,右目用画像10Rからは検出されなかった場合においても,顔画像6Rが見つけられる。立体画像に含まれる顔画像5および6(枠15および16も表示されている)を囲むように表示領域18が決定される。決定された表示領域内の画像が表示画面全体に表示されるようになる。
 第24図は,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。この図において,第5図に示すものと同一物については同一符号を付して説明を省略する。
 第24図に示す立体撮像ディジタル・カメラには,フォーカス位置比較演算装置89が設けられている。このフォーカス位置比較演算装置89は,図18に示すように,左目用画像および右目用画像のうち対象画像部分が検出された画像において中央部分のフォーカス・レンズ位置と検出された対象画像部分のフォーカス・レンズ位置とを比較して,その中央部分に存在する被写体と検出された対象画像部分によって表される対象物との位置関係を算出するものである。算出された位置関係にもとづいて,対象画像部分が検出されなかった画像から,その対象画像部分を見つける領域が決定される。
 第25図は,表示領域決定処理手順(第7図ステップ95の処理手順)を示すフローチャートである。
 左目用画像および右目用画像のうち,一方の画像でのみ検出された対象画像部分があるかどうかが確認される(ステップ101)。一方の画像でのみ検出された対象画像部分があると(ステップ101でYES),左目用画像および右目用画像の両方の画像で検出された対象画像部分があるかどうかが確認される(ステップ102)。
 両方の画像で検出された対象画像部分があると(ステップ102でYES),第10図を参照して説明したように,両方の画像で検出された対象画像部分の大きさが,一方の画像でのみ検出された対象画像部分の大きさよりも大きいかどうかが判定される(ステップ103)。両方の画像で検出された対象画像部分の大きさが,一方の画像でのみ検出された対象画像部分の大きさよりも大きい場合には(ステップ103でYES),両方の画像で検出された対象画像部分によって表される対象物よりも,一方の画像でのみ検出された対象画像部分によって表される対象物の方が手前にあると考えられる(マッチング方向を手前側にする)。上述したように,対象画像部分が検出できなかった画像が左目用画像か右目用画像によって,対象画像部分が検出できなかった一方の画像のうち,他方の画像において対象画像部分が検出された位置に対応する位置の右側または左側に設定される検出対象表示領域から検出されなかった対象画像部分が見つけられる(ステップ104,107)。ここで,マッチングとは,左目用画像および右目用画像のうち,一方の画像でしか見つかっていない対象画像を探す際に,他方の画像の中を,いわゆるパターン・マッチングのようにして対応点検出を行う演算作業の意味である。具体的には,第8図から第22a図および第22b図を参照して説明したように,顔画像を検出する処理である。
 両方の画像で検出された対象画像部分の大きさが,一方の画像でのみ検出された対象画像部分の大きさよりも小さい場合には(ステップ103でNO),両方の画像で検出された対象画像部分によって表される対象物よりも,一方の画像でのみ検出された対象画像部分によって表される対象物の方が奥側にあると考えられる(マッチング方向を奥側にする)。そのために,上述したように,対象画像部分が検出できなかった画像が左目用画像か右目用画像によって,対象画像部分が検出できなかった一方の画像のうち,他方の画像において対象画像部分が検出された位置に対応する位置の右側または左側に設定される検出対象領域から検出されなかった対象画像部分が見つけられる(ステップ105,107)。
 両方の画像から検出された対象画像部分が無かった場合には(ステップ102でNO),第18図を参照して説明したように,フォーカス・レンズの位置を利用して検出されなかった対象画像部分を見つける範囲が決定される。
 中央部のフォーカス・レンズの位置に比較して,一方の画像からのみ検出された対象画像部分のフォーカス・レンズの位置が手前であると(ステップ106でYES),中央に存在する被写体よりも,一方の画像でのみ検出された対象画像部分によって表される対象物の方が手前にあると考えられる(マッチング方向を手前側にする)。上述したように,検出対象領域を設定し,対象画像部分が検出できなかった画像が左目用画像か右目用画像によって,対象画像部分が検出できなかった一方の画像のうち,検出されなかった対象画像部分が検出対象領域から見つけられる(ステップ104,107)。
 中央部のフォーカス・レンズの位置に比較して,一方の画像からのみ検出された対象画像部分のフォーカス・レンズの位置が奥側であると(ステップ106でNO),中央に存在する被写体よりも,一方の画像でのみ検出され対象画像部分によって表される対象物の方が奥側にあると考えられる(マッチング方向を奥側にする)。上述したように,検出対象領域を設定し,対象画像部分が検出できなかった画像が左目用画像か右目用画像によって,対象画像部分が検出できなかった一方の画像のうち,検出されなかった対象画像部分が検出対象領域から見つけられる(ステップ105,107)。
 一方の画像でのみ検出された対象画像部分が無ければ(ステップ101でNO),ステップ102からステップ107の処理はスキップされる。
 見つけられた(検出された)すべての対象画像部分を含むように表示領域が計算される(ステップ108)。
 上述の実施例は,顔画像を正確に検出し,手前二重像を除去するためのものであるが,マクロ・モードのように手前二重像を除去しないことが好ましい場合もある。その実施例が次に述べるものである。
 第26図から第33図は,他の実施例を示している。この実施例は,対象画像部分が検出された場合であっても対象画像部分以外の画像部分が主要被写体であると考えられる場合に,その画像部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらすものである。
 第19図は,立体撮像ディジタル・カメラと被写体との位置関係を平面的に示すもので,第1図に対応している。この図において,第1図に示すものと同一物については同一符号を付して説明を省略する。
 立体撮像ディジタル・カメラ1の前方には,人物111および花112がある。人物111よりも花112の方が手前にあり,花112は立体撮像ディジタル・カメラ1によって撮像できる撮像範囲のほぼ中心にある。
 第27a図および第27b図は,第26図に示す位置関係にある人物111および花112を立体撮像ディジタル・カメラ1によって撮像した場合に得られる左目用画像110Lおよび右目用画像110Rの一例である。
 第27a図を参照して,左目用画像110Lには,左上に人物111を表す人物像111Lが表示され,ほぼ中心に花112を表す花画像112Lが表示されている。対象画像部分検出処理が行われることにより,顔画像115Lが検出され,その検出された顔画像115Lの周りに枠113Lが表示されている。
 第27b図を参照して,右目用画像110Rには,左上に人物111を表す人物像111Rが表示され,ほぼ中心に花112を表す花画像112Rが表示されている。対象画像部分検出処理が行われることにより,顔画像115Rが検出され,その検出された顔画像115Rの周りに枠113Rが表示されている。
 第28図から第30図は,対象画像部分を検出したときの撮像レンズのフォーカス位置と中央部の撮像レンズのフォーカス位置と,主要被写体らしさを表す指数との関係を示している。第28図は,ズーム・レンズがワイド側に設定されている場合の関係のグラフG1を示し,第29図は,ズーム・レンズがワイド側とテレ側との中間に設定されている場合の関係のグラフG2を示し,第30図は,ズーム・レンズがテレ側に設定されている場合の関係のグラフG3を示している。
 主要被写体らしさを表す指数FPは,ズーム・レンズのズーム・ポジションに対応してそれぞれのズーム・ポジションごとにあらかじめ記憶されている。第28図に示すように,ズーム・レンズがワイド側(広角側)であれば,Near側が最大値となるようなグラフG1となる。第29図に示すように,ズーム・レンズがワイド側とテレ側との中間であれば,Near側とFar側とのほぼ中間が最大値となるようなグラフG2となる。第30図に示すように,ズーム・レンズがテレ側(望遠側)であれば,Far側が最大値となるようなグラフG3となる。これらのフォーカス・レンズ位置と主要被写体らしさの指数との関係を示すグラフはズーム・ポジションに応じて連続的に変化する。ズーム・ポジションに応じて,フォーカス・レンズ位置と主要被写体らしさの指数との関係を示すグラフがあらかじめ記憶されており(実際にはテーブルの形態で記憶されていよう),それらのグラフの中から設定されているズーム・ポジションに対応したグラフが選択され,その選択されたグラフを用いて対象画像部分を検出したときの撮像レンズのフォーカス位置および中央部の撮像レンズのフォーカス位置を決定したときの主要被写体らしさを表す指数FPが算出される。
 対象画像部分を検出したときのフォーカス・レンズの位置はP12であり,中央部分の被写体を合焦するときのフォーカス・レンズの位置はP11であるとする。
 ズーム・ポジションがワイド側の場合には第28図に示すグラフG1を用いて,フォーカス・レンズの位置P11およびP12を垂直に伸ばしたときに,グラフG1との交点の指数がそれぞれの主用被写体らしさとなる。中央部分の被写体の主要被写体らしさを表す指数はF1であり,対象画像部分の主要被写体らしさを表す指数はF2である。F1>F2であるため,中央部分の被写体の方が対象画像部分によって表される対象物よりも主要被写体らしいと考えられる。
 ズーム・ポジションが中間の場合であり,第29図に示すグラフG2が用いられる場合には,中央部分の被写体の主要被写体らしさを表す指数はF3であり,対象画像部分の主要被写体らしさを表す指数はF1である。F1>F3であるため,対象画像部分によって表される対象物の方が中央部分の被写体よりも主要被写体らしいと考えられる。
 ズーム・ポジションがテレ側の場合には第30図に示すグラフG3を用いて,中央部分の被写体の主要被写体らしさを表す指数はF4であり,対象画像部分の主要被写体らしさを表す指数はF1である。F1>F4であるため,対象画像部分によって表される対象物の方が中央部分の被写体よりも主要被写体らしいと考えられる。
 ズーム・レンズがワイド側に設定されるマクロ・モードのように,ユーザが近距離にある被写体を狙って撮像している場合には,その被写体の視差を除去し,手前二重像の除去は行われない。
 第31図は,第27a図および第27b図に示す左目用画像と右目用画像とを重ね合わせた立体画像110の一例である。
 立体画像110には,人物111を表す人物像111および花112を表す花画像112が含まれている(人物像111および花画像112も人物111および花112と同じ符号とする)。人物像111は顔画像115が検出されており,その顔画像115の周りに枠113が表示されている。
 この実施例では,マクロ・モードが設定され,第28図に示したように,人物像111の主要被写体らしさの指数F2よりも花画像112の主要被写体らしさの指数F1の方が大きいので,人物像111に視差ずれが生じないように左目用画像110Lと右目用画像110Rとをずらすのではなく,主要被写体と考えられる花画像112に視差ずれが生じないように左目用画像110Lと右目用画像110Rとがずらされる。立体画像110に含まれる花画像112は視差ずれが除去される。
 第32図は,立体撮像ディジタル・カメラ1の電気的構成を示すブロック図である。この図において,第24図に示すものと同一物については同一符号を付して説明を省略する。
 第32図に示す立体撮像ディジタル・カメラ1には,主要被写体らしさ判定装置109が設けられている。この主要被写体らしさ判定装置109において,上述したように,画像の中央に存在する画像の主要被写体らしさの指数と検出された対象画像部分の主要被写体らしさの指数とが比較され,主要被写体らしさの指数の高い画像の視差ずれが無くなるように,左目用画像と右目用画像とがずらされる。
 第33図は,左目用画像と右目用画像とをずらす処理手順(第7図ステップ92の処理手順)を示すフローチャートである。
 左目用画像と右目用画像とを重ね合わせて得られる立体画像の中央部に二重像があるかどうかが判定される(ステップ121)。中央部に二重像があれば(ステップ121でYES),上述のように中央部にある二重像の主要被写体らしさの指数が算出される(ステップ122)。つづいて,検出された対象画像部分の主要被写体らしさの指数も算出される(ステップ123)。
 算出された主要被写体らしさの指数が比較され(ステップ124),中央部にある二重像の主要被写体らしさの指数の方が検出された対象画像部分の主要被写体らしさの指数よりも大きければ,中央部の二重像の視差ずれを除くように左目用画像と右目用画像とがずらされる(ステップ126)。逆に,検出された対象画像部分の主要被写体らしさの指数よりも中央部にある二重像の主要被写体らしさの指数の方が大きければ,複数の対象画像部分が存在するかどうかが確認される(ステップ125)。複数の対象画像部分が存在する場合には(ステップ124),優先度の高い対象画像部分の視差ずれが除かれるように左目用画像および右目用画像がずらされる(ステップ127)。優先度には,検出された対象画像部分の大きさの大きい順,検出された対象画像部分の位置が中央に近い順などがあり,あらかじめ設定されているのはいうまでもない。複数の対象画像部分が存在しない場合には(ステップ124でNO),検出された対象画像部分の視差ずれが除かれるように,左目用画像と右目用画像とがずらされる(ステップ128)。
 上述の実施例は,いわゆるオート再生を考慮しているものであるが,ユーザがマニアル・ズームを利用して再生する場合もある。そのような場合であっても,ズーム動作に応じて,視差ずれが少なく,ユーザの目に負担の少ない良好の画像を再生することが好ましい。そのような実施例が次に述べるものである。
 第34図から第37図は,他の実施例を示している。この実施例は,再生時における電子ズーム処理についてのものである。
 第34図および第35図は,再生された立体画像(左目用画像と右目用画像とが重ねられた画像)の一例である。第34図は,対象画像部分5の視差ずれが除かれた立体画像であり,第35図は,中央のタワー画像11の視差ずれが除かれた立体画像である。これらの図は,第1図に示す位置関係にある被写体を撮像して得られたものであり,第4図に示すものと同一物については同一符号を付して説明を省略する。
 再生時に電子ズーム処理が行われる場合,第21図および第22図に示すようにズーム領域131が指定される。立体撮像ディジタル・カメラ1に含まれる操作装置27を利用してズーム領域131が指定される。指定されたズーム領域131内の画像が表示画面全体に表示されるように拡大処理が行われる。
 再生時に対象画像部分を検出し,検出された対象画像部分の視差ずれがなくなるように左目用画像と右目用画像とをずらして立体画像を表示する場合において,上述のように電子ズーム処理が行われると,指定されたズーム領域131から対象画像部分が外れることがある。第34図に示すように,そのような状況で電子ズーム処理が行われると拡大された立体画像には視差ずれが除かれた対象画像部分が含まれていない立体画像が表示されることとなる。このために,この実施例では,第35図に示すように,検出された対象画像部分がズーム領域131から外れた場合に中央部に存在する画像部分(タワー画像11)の視差ずれがなくなるように左目用画像と右目用画像とがずらされる。
 第36図は,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。この図において,第32図に示すものと同一物については同一符号を付して説明を省略する。
 第36図に示す立体撮像ディジタル・カメラには,ズーム領域判定装置132が含まれている。ズーム領域判定装置132において,上述のように,指定されたズーム領域内の対象画像部分が含まれているかどうかが判定される。ズーム領域内に対象画像部分が含まれていない場合には,画像の中心またはズーム領域の中心にある画像の視差が除かれるように左目用画像と右目用画像とがずらされて,ズーム領域内の画像が拡大される。
 第37図は,電子ズームによる再生処理手順を示すフローチャートである。
 メモリ・カード80から左目用画像データおよび右目用画像データが読み出され,左目用画像データおよび右目用画像データによってそれぞれ表される左目用画像および右目用画像のそれぞれから対象画像部分の検出処理が行われる。左目用画像または右目用画像のいずれか一方の画像から対象画像部分の検出処理が行われるようにしてもよい。左目用画像および右目用画像から構成される立体画像がモニタ表示装置80の表示画面に表示され,電子ズーム領域が指定される。
 ユーザによりズーム操作(マニアル・ズーム操作)が行われると(ステップ140でYES),立体画像の中に対象画像があるかどうかの判定処理が行われる。立体画像の中に対象画像部分があれば(ステップ141でYES),検出された対象画像部分が,指定された電子ズーム領域内にあるかどうかが判定される(ステップ142)。
 検出された対象画像部分が,指定された電子ズーム領域内にあると(ステップ142でYES),表示領域内に複数の対象画像部分が含まれているかどうかが確認される(ステップ143)。
 複数の対象画像部分が存在する場合には(ステップ143でYES),上述したのと同様に優先度の高い対象画像部分の視差ずれが除かれるように左目用画像および右目用画像がずらされる(ステップ145)。複数の対象画像部分が存在しない場合には(ステップ142でNO),検出された対象画像部分の視差ずれが除かれるように,左目用画像と右目用画像とがずらされる(ステップ146)。
 立体画像に対象画像部分が存在しない場合(ステップ141でNO),検出された対象画像部分が,指定された電子ズーム領域内にない場合には(ステップ142でNO),上述のように,立体画像の中央部分または電子ズーム領域の中央部分の画像の視差ずれが除かれるように左目用画像と右目用画像とがずらされて表示される(ステップ144)。
 ユーザによるズーム操作が無ければ(ステップ140でNO),上述したステップ141から146までの処理はスキップされる。視差ずれの変更処理は行われない。
 第38図から第42図は,他の実施例を示している。立体画像のプリントにおいて,手前二重像のような観賞する上で目障りで,目に負担のかかる部分を除去するものである。これにより,視差ずれが少なく,ユーザの目が疲れないようなプリントを提供するシステムを提供できる。この実施例は,上述のように,視差ずれ量が除かれる部分および表示領域をそれぞれ表すデータが,メモリ・カード80に記録されるものである。視差ずれ量が除かれる部分および表示領域をそれぞれ表すデータは,撮像によって得られた左目用画像データおよび右目用画像データとともにメモリ・カード80に記録されてもよいし,すでに左目用画像データおよび右目用画像データが記録されているメモリ・カード80に記録されるようにしてもよい。
 第38図は,立体画像10の一例である。この第38図は第23図に対応するもので,第23図に示すものと同一物については同一符号を付して説明を省略する。
 第38図を参照して,立体画像10に含まれる第1の人物像12の顔画像5の視差ずれが無くなるように表示される場合には,その顔画像5を囲む矩形枠15の左上の座標(x1,y1)および右下の座標(x2,y2)をそれぞれ示すデータが視差ずれ量が除かれる部分を表すデータとされる。
 第39図は,立体画像10の一例である。この第39図も第23図に対応するもので,第23図に示すものと同一物については同一符号を付して説明を省略する。
 立体画像10には第1の人物像12の顔画像5および第2の人物像14の顔画像6が検出されており,顔画像5を含むように矩形の表示領域18が決定される。すると,表示領域18の左上の座標(x3,y3)および右下の座標(x4,y4)をそれぞれ示すデータが表示領域18を表すデータとされる。
 これらのデータが,視差ずれが除かれる部分および表示領域をそれぞれ表すデータとしてメモリ・カード80に記録される(たとえば,メモリ・カード80のヘッダ領域に記録される)。
 視差ずれが除かれる部分および表示領域をそれぞれ表すデータならびに左目用画像データおよび右目用画像データが記録されているメモリ・カード80を写真店に持っていき,視差ずれが除かれる部分を表すデータが読み出されることにより,立体画像から視差ずれが除かれる画像部分が分かる。その画像部分の視差ずれがなくなるような立体画像をプリントできる。さらに,メモリ・カード80から表示領域を表すデータが読み出されることにより,立体画像のうち表示領域が分かる。その表示領域内の画像が1枚の画像となるようにプリントできる。
 第42図は,立体画像10の一例である。この第42図も第23図に対応するもので,第23図に示すものと同一物については同一符号を付して説明を省略する。
 第40図を参照して,立体画像10に含まれる第1の人物像12の顔画像6の視差ずれが無くなるように表示される場合には,その顔画像6を囲む矩形枠16の左上の座標(x5,y5)および右下の座標(x6,y7)をそれぞれ示すデータが視差ずれ量が除かれる部分を表すデータとされる。
 第41図は,立体画像10の一例である。この第41図も第23図に対応するもので,第23図に示すものと同一物については同一符号を付して説明を省略する。
 立体画像10には第1の人物像12の顔画像5および第2の人物像14の顔画像6が検出されており,顔画像6を含むように矩形の表示領域18が決定される。すると,表示領域18の左上の座標(x7,y7)および右下の座標(x8,y8)をそれぞれ示すデータが表示領域18を表すデータとされる。
 これらのデータが,上述したのと同様に視差ずれが除かれる部分および表示領域をそれぞれ表すデータとしてメモリ・カード80に記録される。
 上述したのと同様に,視差ずれが除かれる部分および表示領域をそれぞれ表すデータならびに左目用画像データおよび右目用画像データが記録されているメモリ・カード80を写真店に持っていき,視差ずれが除かれる部分を表すデータが読み出されることにより,立体画像から視差ずれが除かれる画像部分が分かる。その画像部分の視差ずれがなくなるような立体画像をプリントできる。さらに,メモリ・カード80から表示領域を表すデータが読み出されることにより,立体画像のうち表示領域が分かる。その表示領域内の画像が1枚の画像となるようにプリントできる。
 上述した実施例では,視差ずれが除かれる画像部分および表示領域は立体画像10における座標として捉えているが,実際には立体画像は左目用画像と右目用画像とから構成されるので,左目用画像および右目用画像のそれぞれの画像において視差ずれが無くなる部分を示す座標位置ならびに表示領域を示す座標位置がメモリ・カード80に記録されることとなる。
 第42図は,立体撮像ディジタル・カメラの電気的構成を示すブロック図である。この図において,第36図に示すものと同一物については同一符号を付して説明を省略する。
 第42図に示す立体撮像ディジタル・カメラには,プリント・オーダ情報生成装置109が設けられている。このプリント・オーダ情報生成装置109は,立体画像のプリントに関する情報を生成するものである。プリントする立体画像がモニタ表示装置82に立体画像が表示される。モニタ表示装置82に表示された立体画像(左目用画像および右目用画像)を特定するデータ(例えばフレーム番号データ),プリント枚数を表すデータのほか,上述したように,視差ずれを無くす画像部分を示すデータおよび表示領域を示すデータがプリント・オーダ情報として生成される。生成されたプリント・オーダ情報がメモリ・カード80に記録され,そのプリント・オーダ情報にしたがって,立体画像がプリントされる。

Claims (12)

  1. 立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つける第1の対象画像部分検出装置,
     上記第1の対象画像部分検出装置においてそれぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらす視差ずらし装置,
     上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分を含む表示領域を決定する表示領域決定装置,および
     上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記表示領域決定装置によって決定された表示領域内の画像を拡大して表示するように表示装置を制御する表示制御装置,
     を備えた立体画像制御装置。
  2. 上記第1の対象画像部分検出装置によって検出された対象画像部分により表される対象物よりも手前に存在する被写体を表す手前被写体像が上記左目用画像および上記右目用画像のそれぞれに含まれているかどうかを判定する第1の判定装置,および
     上記第1の判定装置によって,上記手前被写体像が上記左目用画像および上記右目用画像のそれぞれに含まれていると判定されたことにより,上記左目用画像に含まれている手前被写体像と上記右目用画像に含まれている手前被写体像とのずれ量が許容範囲外かどうかを判定する第2の判定装置をさらに備え,
     上記表示領域決定装置は,上記第2の判定装置により上記許容範囲外と判定されたことに応じて上記表示領域を決定するものである,
     請求の範囲第1項に記載の立体画像制御装置。
  3. 上記対象画像部分検出装置において,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記左目用画像と上記右目用画像とのうちの一方の画像からは見つけられずに他方の画像からは見つけられた対象画像部分の大きさの方が大きいかどうかを判定する大きさ判定装置,および
     上記大きさ判定装置によって,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が大きいと判定され,かつ上記一方の画像が上記左目用画像の場合,または上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が小さいと判定され,かつ上記一方の画像が上記右目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の右側から見つけ,上記大きさ判定装置によって,上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が大きいと判定され,かつ上記一方の画像が上記右目用画像の場合,または上記左目用画像と上記右目用画像との両方の画像から見つけられた対象画像部分の大きさよりも上記他方の画像からは見つけられた対象画像部分の大きさの方が小さいと判定され,かつ上記一方の画像が上記左目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける第2の対象画像検出装置をさらに備え,
     上記表示領域決定装置は,
     上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分,上記第1の対象画像部分検出装置において他方の画像から見つけられた対象画像部分および上記第2の対象画像部分検出装置において一方の画像から見つけられた対象画像部分を含む表示領域を決定するものである,
     請求の範囲第2項に記載の立体画像制御装置。
  4. 上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも手前にあり,かつ上記一方の画像が左目用画像の場合,または上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも奥にあり,かつ上記一方の画像が右目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の右側から見つけ,上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも手前にあり,かつ上記一方の画像が右目用画像の場合,または上記左目用画像と上記右目用画像とのうち,上記第1の対象画像検出装置において他方の画像からのみ見つけられた対象画像部分によって表される対象物の位置が,その他方の画像の中心部にある画像に対応する被写体の位置よりも奥にあり,かつ上記一方の画像が左目用画像の場合には,上記一方の画像からは見つけられなかった対象画像部分を,上記他方の画像において見つけられた対象画像部分に対応する位置の左側から見つける第3の対象画像部分検出装置をさらに備え,
     上記表示領域決定装置は,
     上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分,上記第1の対象画像部分検出装置において他方の画像からのみ見つけられた対象画像部分および上記第3の対象画像部分検出装置において一方の画像から見つけられた対象画像部分を含む表示領域を決定するものである,
     請求の範囲第3項に記載の立体画像制御装置。
  5. 上記左目用画像の中央部分と上記右目用画像の中央部分とのそれぞれに,上記第1の対象画像部分検出装置によって検出された対象画像部分によって表される対象物よりも手前に存在する被写体を表す中央被写体像があることにより,上記中央被写体像の主要被写体らしさと上記第1の対象画像部分検出装置によって検出された対象画像部分の主要被写体らしさを比較する比較装置をさらに備え,
     上記視差ずらし装置は,
     上記比較装置により,上記中央被写体像の主要被写体らしさが上記第1の対象画像部分検出装置によって検出された対象画像部分の主要被写体らしさよりも大きいと判定されたことにより,上記左目用画像の上記中央被写体像と上記右目用画像の上記中央被写体像との菱さずれが除かれるように上記左目用画像と上記右目用画像とをずらすものである,
     請求の範囲第4項に記載の立体画像制御装置。
  6. 上記左目用画像を表す左目用画像データ,上記右目用画像を表す右目用画像データ,ならびに上記視差ずらし装置によって視差ずれが除かれる部分および上記表示領域決定装置によって決定された表示領域をそれぞれ表すデータを可搬型記録媒体に記録する記録制御装置,
     をさらに備えた請求の範囲第5項に記載の立体画像制御装置。
  7. 上記左目用画像を表す左目用画像データ,および上記右目用画像を表す右目用画像データが可搬型記録媒体に記録されており,
     上記視差ずらし装置によって視差ずれが除かれる部分および上記表示領域決定装置によって決定された表示領域をそれぞれ表すデータを上記可搬型記録媒体に記録する記録制御装置,
     をさらに備えた請求の範囲第6項に記載の立体画像制御装置。
  8. 左目用画像と右目用画像とを重ね合わせて立体画像を生成する立体画像生成装置,
     上記立体画像生成装置によって生成された立体画像の中から所望の対象画像部分を見つける対象画像検出装置,
     上記立体画像生成装置によって生成された立体画像の中から電子ズーム領域を指定する電子ズーム領域指定装置,
     上記電子ズーム領域指定装置によって指定された電子ズーム領域の中に,上記対象画像検出装置によって検出された対象画像が含まれているかどうかを判定する判定装置,
     上記判定装置によって,電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,上記判定装置によって電子ズーム領域に対象画像が含まれていると判定されたことにより,上記対象画像検出装置によって検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらす視差ずらし装置,および
     上記電子ズーム領域内の画像を拡大して表示する表示制御装置,
     を備えた立体画像制御装置。
  9. 対象画像部分検出装置が,立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つけ,
     視差ずらし装置が,上記第2の対象画像部分検出装置においてそれぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらし,
     表示領域決定装置が,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記視差ずらし装置によって視差ずれが除かれた対象画像部分を含む表示領域を決定し,
     表示制御装置が,上記視差ずらし装置によってずらされた上記左目用画像と上記右目用画像とのうち,上記表示領域決定装置によって決定された表示領域内の画像を拡大して表示するように表示装置を制御する,
     立体画像制御装置の動作制御方法。
  10. 立体画像生成装置が,左目用画像と右目用画像とを重ね合わせて立体画像を生成し,
     対象画像検出装置が,上記立体画像生成装置によって生成された立体画像の中から所望の対象画像部分を見つけ,
     電子ズーム領域指定装置が,上記立体画像生成装置によって生成された立体画像の中から電子ズーム領域を指定し,
     判定装置が,上記電子ズーム領域指定装置によって指定された電子ズーム領域の中に,上記対象画像検出装置によって検出された対象画像が含まれているかどうかを判定し,
     視差ずらし装置が,上記判定装置によって,電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,上記判定装置によって電子ズーム領域に対象画像が含まれていると判定されたことにより,上記対象画像検出装置によって検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,
     表示制御装置が,上記電子ズーム領域内の画像を拡大して表示する,
     立体画像制御装置の動作制御方法。
  11. 立体画像制御装置の動作を制御するコンピュータ読み取り可能なプログラムであって,
     立体画像を構成する左目用画像と右目用画像とのそれぞれの画像から所望の対象画像部分を見つけさせ,
     それぞれ見つけられた,上記左目用画像の対象画像部分と上記右目用画像の対象画像部分との視差ずれが除かれるように上記左目用画像と上記右目用画像とをずらさせ,
     ずらされた上記左目用画像と上記右目用画像とのうち,視差ずれが除かれた対象画像部分を含む表示領域を決定させ,
     ずらされた上記左目用画像と上記右目用画像とのうち,決定された表示領域内の画像を拡大して表示するように表示装置を制御させるように上記立体画像制御装置の動作を制御するプログラム。
  12. 立体画像制御装置の動作を制御するコンピュータ読み取り可能なプログラムであって,
     左目用画像と右目用画像とを重ね合わせて立体画像を生成させ,
     生成された立体画像の中から所望の対象画像部分を見つけさせ,
     生成された立体画像の中から電子ズーム領域を指定させ,
     指定された電子ズーム領域の中に,検出された対象画像が含まれているかどうかを判定させ,
     電子ズーム領域に対象画像が含まれていないと判定されたことにより,上記立体画像または上記電子ズーム領域の中央部分の視差ずれが無くなるように,左目用画像と右目用画像とをずらし,電子ズーム領域に対象画像が含まれていると判定されたことにより,検出された対象画像の視差ずれが無くなるように,左目用画像と右目用画像とをずらさせ,
    上記電子ズーム領域内の画像を拡大して表示させるように立体画像制御装置の動作を制御するプログラム。
PCT/JP2011/060496 2010-05-31 2011-04-22 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム WO2011152167A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201180027164.8A CN103069818B (zh) 2010-05-31 2011-04-22 立体图像控制设备以及控制其操作的方法和程序
JP2012518300A JP5425305B2 (ja) 2010-05-31 2011-04-22 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム
US13/689,040 US9357205B2 (en) 2010-05-31 2012-11-29 Stereoscopic image control apparatus to adjust parallax, and method and program for controlling operation of same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010123669 2010-05-31
JP2010-123669 2010-05-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/689,040 Continuation-In-Part US9357205B2 (en) 2010-05-31 2012-11-29 Stereoscopic image control apparatus to adjust parallax, and method and program for controlling operation of same

Publications (1)

Publication Number Publication Date
WO2011152167A1 true WO2011152167A1 (ja) 2011-12-08

Family

ID=45066549

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/060496 WO2011152167A1 (ja) 2010-05-31 2011-04-22 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム

Country Status (4)

Country Link
US (1) US9357205B2 (ja)
JP (1) JP5425305B2 (ja)
CN (1) CN103069818B (ja)
WO (1) WO2011152167A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4787369B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP5143262B1 (ja) * 2011-08-30 2013-02-13 株式会社東芝 立体映像処理装置、立体映像処理方法
JP5281720B1 (ja) * 2011-09-20 2013-09-04 パナソニック株式会社 立体映像処理装置及び立体映像処理方法
US20140055579A1 (en) * 2012-03-02 2014-02-27 Panasonic Corporation Parallax adjustment device, three-dimensional image generation device, and method of adjusting parallax amount
US9886636B2 (en) * 2013-05-23 2018-02-06 GM Global Technology Operations LLC Enhanced top-down view generation in a front curb viewing system
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US10027883B1 (en) * 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
CN104581115B (zh) * 2014-12-03 2018-05-15 深圳市魔眼科技有限公司 一种基于人脸识别的景深自适应的全息显示方法及其装置
JP2017192086A (ja) * 2016-04-15 2017-10-19 キヤノン株式会社 画像生成装置、画像観察装置、撮像装置および画像処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (ja) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd 立体電子ズーム装置及び立体画質制御装置
JP2004129186A (ja) * 2002-07-31 2004-04-22 Sharp Corp 立体画像データ処理装置ならびに立体画像データ処理用プログラムおよび記録媒体
JP2008022150A (ja) * 2006-07-11 2008-01-31 Fujifilm Corp 撮像装置
JP2009129420A (ja) * 2007-11-28 2009-06-11 Fujifilm Corp 画像処理装置および方法並びにプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6762794B1 (en) * 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
JP2001004370A (ja) 1999-06-23 2001-01-12 Fuji Photo Film Co Ltd 視差画像撮像装置、視差画像処理装置、視差画像撮像方法、及び視差画像処理方法
JP3261115B2 (ja) * 1999-09-22 2002-02-25 富士重工業株式会社 ステレオ画像処理装置
JP2001148800A (ja) 1999-11-18 2001-05-29 Fuji Photo Film Co Ltd デジタルカメラおよび画像処理方法
US7660472B2 (en) * 2004-02-10 2010-02-09 Headplay (Barbados) Inc. System and method for managing stereoscopic viewing
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
JP4431547B2 (ja) * 2006-04-14 2010-03-17 富士フイルム株式会社 画像表示制御装置ならびにそれらの制御方法およびそれらの制御プログラム
JP5022630B2 (ja) 2006-05-19 2012-09-12 Hoya株式会社 電子内視鏡装置
US8587638B2 (en) * 2006-09-25 2013-11-19 Nokia Corporation Supporting a 3D presentation
FR2917845B1 (fr) * 2007-06-19 2011-08-19 Christophe Brossier Procede de visualisation d'une sequence d'images produisant une sensation de relief
KR100918480B1 (ko) * 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
JP4959535B2 (ja) * 2007-12-13 2012-06-27 株式会社日立製作所 撮像装置
WO2009157707A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co,. Ltd. Image processing method and apparatus
CN101562754B (zh) * 2009-05-19 2011-06-15 无锡景象数字技术有限公司 一种改善平面图像转3d图像视觉效果的方法
US20110080466A1 (en) * 2009-10-07 2011-04-07 Spatial View Inc. Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
US20120242803A1 (en) * 2010-01-13 2012-09-27 Kenjiro Tsuda Stereo image capturing device, stereo image capturing method, stereo image display device, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (ja) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd 立体電子ズーム装置及び立体画質制御装置
JP2004129186A (ja) * 2002-07-31 2004-04-22 Sharp Corp 立体画像データ処理装置ならびに立体画像データ処理用プログラムおよび記録媒体
JP2008022150A (ja) * 2006-07-11 2008-01-31 Fujifilm Corp 撮像装置
JP2009129420A (ja) * 2007-11-28 2009-06-11 Fujifilm Corp 画像処理装置および方法並びにプログラム

Also Published As

Publication number Publication date
CN103069818A (zh) 2013-04-24
CN103069818B (zh) 2015-08-26
US20130083174A1 (en) 2013-04-04
US9357205B2 (en) 2016-05-31
JP5425305B2 (ja) 2014-02-26
JPWO2011152167A1 (ja) 2013-07-25

Similar Documents

Publication Publication Date Title
JP5425305B2 (ja) 立体画像制御装置ならびにその動作制御方法およびその動作制御プログラム
JP5214826B2 (ja) 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体
US20170094267A1 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
JP5346266B2 (ja) 画像処理装置、カメラ及び画像処理方法
EP2590421B1 (en) Single-lens stereoscopic image capture device
US20120154551A1 (en) Stereo image display system, stereo imaging apparatus and stereo display apparatus
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
US20130162764A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP5550791B2 (ja) 画像処理装置、撮像装置及び視差量調整方法
US8773506B2 (en) Image output device, method and program
JP5449535B2 (ja) 立体撮像装置及びその制御方法
JPWO2011158573A1 (ja) 立体画像表示制御装置およびその動作制御方法
US20120236126A1 (en) Image pickup device, image pickup method, program, and integrated circuit
CN103339948B (zh) 3d视频再现装置、3d成像装置和3d视频再现方法
JP2014154907A (ja) 立体撮像装置
JPWO2012043003A1 (ja) 立体画像表示装置および立体画像表示方法
US9124866B2 (en) Image output device, method, and recording medium therefor
US9094671B2 (en) Image processing device, method, and recording medium therefor
JP6257260B2 (ja) 撮像装置及びその制御方法
JP2013046343A (ja) 画像撮像装置
WO2013136832A1 (ja) 立体画像表示制御装置および立体画像表示制御方法
JP2005072674A (ja) 三次元画像生成装置および三次元画像生成システム
JP2013070154A (ja) 複眼撮像装置およびその動作制御方法
JP2012099896A (ja) 3d画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180027164.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11789576

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012518300

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11789576

Country of ref document: EP

Kind code of ref document: A1