WO2012077574A1 - 撮像装置および撮像方法 - Google Patents

撮像装置および撮像方法 Download PDF

Info

Publication number
WO2012077574A1
WO2012077574A1 PCT/JP2011/077841 JP2011077841W WO2012077574A1 WO 2012077574 A1 WO2012077574 A1 WO 2012077574A1 JP 2011077841 W JP2011077841 W JP 2011077841W WO 2012077574 A1 WO2012077574 A1 WO 2012077574A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parallax
incident light
unit
imaging
Prior art date
Application number
PCT/JP2011/077841
Other languages
English (en)
French (fr)
Inventor
黒木 義彦
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP11846733.1A priority Critical patent/EP2651114B1/en
Priority to CA2816433A priority patent/CA2816433A1/en
Priority to US13/990,814 priority patent/US9239464B2/en
Priority to BR112013013514A priority patent/BR112013013514A2/pt
Priority to CN201180057985.6A priority patent/CN103238316B/zh
Publication of WO2012077574A1 publication Critical patent/WO2012077574A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor

Definitions

  • the present invention relates to an imaging apparatus and an imaging method, and more particularly to an imaging apparatus and an imaging method that can obtain parallax information without degrading the image quality of an image.
  • the interval between two video cameras may become large, the left and right optical axes may shift during zooming due to individual differences in the lenses of each video camera, and the left and right screen sizes may not be the same.
  • the left and right video cameras may be shifted up and down during the operation of directing the left and right video cameras toward the subject, that is, during the congestion operation.
  • the optical axis shift occurs between the left and right video cameras in this way, the visual system of the user who views the stereoscopic image is forced to perform information processing different from that of daily life, which causes visual fatigue. Furthermore, when the user views the left and right images as they are without using the stereoscopic glasses, the subject looks double, resulting in an unnatural image.
  • an imaging apparatus that captures an image by separating light from a subject into two light beams by a mirror in a region that becomes a pupil of one lens (see, for example, Patent Document 1).
  • this imaging apparatus by imaging each of the two separated light beams, it is possible to obtain parallax information of the subject and at the same time obtain a stereoscopic image presented to the left and right eyes.
  • the parallax information of the subject can be obtained, but the image quality of the image for displaying the stereoscopic image may be deteriorated.
  • the light flux from the subject is separated into two light fluxes for obtaining the left-eye and right-eye images by the mirror, so that the light flux from the subject is separated by the incident angle of the mirror with respect to the mirror.
  • the thickness of each of the two light fluxes changes. If the thicknesses of these two light beams are different, the brightness and resolution of the left and right images will be uneven.
  • the present invention has been made in view of such a situation, and makes it possible to obtain parallax information without degrading the image quality of an image.
  • An imaging apparatus transmits a first light collecting unit that collects incident light from a subject, and the incident light collected by the first light collecting unit into parallel light.
  • a transmission unit a spectroscopic unit configured to transmit the incident light that has been converted into parallel light by the transmission unit with a predetermined transmittance; and to split a part of the incident light that has been converted into the parallel light to the left and right;
  • a second condensing unit that condenses the incident light that has passed through the first condensing unit, and the incident light collected by the second condensing unit is converted into an electrical signal, thereby capturing a basic image of the subject.
  • a first imaging unit a third condensing unit that condenses each of the incident light separated by the spectroscopic unit, and each of the incident light collected by the third condensing unit By converting to signals, parallax detection images with parallax can be taken. And a second imaging means for.
  • the imaging apparatus generates a parallax image for stereoscopic display of the subject by generating an image of the same viewpoint as the parallax detection image based on the basic image for each of the parallax detection images.
  • a generation means can be further provided.
  • the parallax image generation means sets the pixel value of the pixel on the basic image corresponding to the pixel of the parallax detection image at the same position as the target pixel, with the pixel of the parallax image to be generated as the target pixel. Based on this, the parallax image can be generated by obtaining the pixel value of the target pixel.
  • the incident light from the transmission unit is arranged between the transmission unit and the spectroscopic unit so that the distance between the centroids of the incident light that is split into the left and right by the spectroscopic unit changes.
  • a light amount adjusting means for shielding a part of the light can be further provided.
  • the light amount adjusting means can block part of the incident light so that the distance between the centers of gravity is 7 to 65 mm.
  • the first condensing unit is provided with a zoom lens for enlarging the subject image, and a relative parallax between the parallax detection images is controlled by an enlargement magnification of the subject image by the zoom lens. be able to.
  • the first imaging unit and the second imaging unit can capture the basic image and the parallax detection image at a rate of 60 frames or more per second.
  • the first imaging unit and the second imaging unit can capture the basic image and the parallax detection image at a rate of 230 to 250 frames per second.
  • the first imaging unit and the second imaging unit can capture the basic image and the parallax detection image at a rate of 290 to 310 frames per second.
  • the first imaging unit and the second imaging unit can capture the basic image and the parallax detection image at a rate of 590 to 610 frames per second.
  • the imaging apparatus may further include a storage unit that stores the parallax image and a display control unit that stereoscopically displays the subject based on the parallax image stored in the storage unit.
  • incident light from a subject is collected by a first light collecting unit, and the incident light collected by the first light collecting unit is transmitted by a transmission unit in parallel.
  • a spectral means transmits the incident light that has been made parallel light by the transmission means with a predetermined transmittance, and partly splits the incident light that has been made parallel light left and right
  • a condensing unit condenses the incident light transmitted through the spectroscopic unit
  • a first imaging unit converts the incident light collected by the second condensing unit into an electrical signal
  • a basic image of the subject is picked up
  • a third condensing unit condenses each of the incident light separated by the spectroscopic unit
  • a second imaging unit collects the third condensing unit.
  • Each of the incident light that has been emitted is converted into an electric signal, so that each of them has a parallax. Comprising the step of imaging the detection image.
  • incident light from a subject is collected by a first light collecting unit, and the incident light collected by the first light collecting unit is transmitted by a transmission unit to be parallel light.
  • the incident light that has been converted into parallel light by the transmission means passes through the spectroscopic means with a predetermined transmittance, and a part of the incident light that has been converted into parallel light is split left and right by the spectroscopic means.
  • the incident light transmitted through the spectroscopic means is condensed by the second condensing means, and the incident light condensed by the second condensing means is converted into an electric signal by the first imaging means.
  • parallax information can be obtained without degrading the image quality of an image.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of an imaging apparatus to which the present invention is applied. More specifically, FIG. 1 shows a top sectional view of the imaging apparatus.
  • the imaging device 11 receives incident light from a subject and generates right-eye and left-eye parallax images for displaying a stereoscopic image of the subject.
  • the parallax image for the right eye and the parallax image for the left eye refer to images that are displayed so as to be observed with the right eye and the left eye of the user when the subject is stereoscopically displayed.
  • the right-eye and left-eye parallax images are also simply referred to as left and right parallax images.
  • the description is continued assuming that the upper side is the right side from the imaging device 11 toward the subject, and the lower side is the left side from the imaging device 11 toward the subject in the drawing.
  • the imaging device 11 includes an interchangeable lens 21 and a main body 22, and the interchangeable lens 21 is attached to a lens mount 31 provided on the main body 22.
  • the interchangeable lens 21 includes a lens group that collects incident light from a subject, and includes a stop 32 in addition to a lens group such as a focus lens for focusing and a zoom lens for enlarging a subject image. Yes. Incident light collected by the interchangeable lens 21 is imaged inside the lens mount 31 to become an inverted image in which the left and right are reversed, and is incident on a relay lens portion 33 provided in the main body 22.
  • the relay lens unit 33 includes a relay lens that transmits incident light incident from the interchangeable lens 21 to a position of a diaphragm 34 provided at a subsequent stage.
  • the relay lens unit 33 By the relay lens unit 33, the diffused light from the point light source of the subject (objective focal position) becomes parallel light at the position of the stop 34. A part of the incident light from the subject that has been converted into parallel light by the relay lens unit 33 is blocked by the diaphragm 34 and enters the transmission mirror 35-1 and the transmission mirror 35-2. Further, in the imaging device 11, the image of the diaphragm 34 is located inside the interchangeable lens 21 as the entrance pupil PU.
  • the transmission mirror 35-1 and the transmission mirror 35-2 are arranged on the optical axis of the optical system constituting the main body 22 so that one ends thereof are adjacent to each other and inclined in different directions.
  • the transmissive mirror 35-1 and the transmissive mirror 35-2 are orthogonal to each other, and the transmissive mirror 35-1 and the transmissive mirror 35-2 are respectively located with respect to the optical axis of the optical system. They are arranged at an angle of 45 degrees and -45 degrees.
  • the transmissive mirror 35-1 and the transmissive mirror 35-2 reflect a part of incident light incident from the relay lens unit 33 in the upward and downward directions in the drawing, so that the mirror 36-1 and the mirror 36-2 are reflected. And the remaining incident light is transmitted and incident on the condenser lens 37. Further, the mirror 36-1 and the mirror 36-2 reflect the incident light incident from the transmissive mirror 35-1 and the transmissive mirror 35-2, and are reflected on the condenser lens 38-1 and the condenser lens 38-2. Make it incident.
  • the transmission type mirror 35-1 to the mirror 36-2 are disposed at the same position as the stop 34 in the optical axis direction of the optical system of the main body 22, and a part of the collected light is spectrally divided to the left and right.
  • a spectroscopic mirror is configured. That is, when the subject is viewed from the left side toward the subject, the light is reversed left and right, and a part thereof is reflected by the transmission mirror 35-1 and the mirror 36-1. Further, the light when the subject is viewed from the right side toward the subject is reversed left and right, and a part thereof is reflected by the transmission mirror 35-2 and the mirror 36-2.
  • a part of the incident light incident on the imaging device 11 is spectrally divided to the left and right by the spectroscopic mirror including the transmission type mirrors 35-1 to 36-2.
  • the positions where the transmission mirror 35-1 and the transmission mirror 35-2 are disposed are parallel light regions in which the diffused light from the point light source becomes parallel light at the objective focus position (subject position) inside the lens mount 31. It is included in PR11 so that appropriate spectroscopy is performed.
  • the light beam dispersed by the transmission type mirror 35-1 and the mirror 36-1 that is, the light when the subject is viewed from the left side toward the subject is collected by the condenser lens 38-1. Focused. Of the incident light that has passed through the diaphragm 34, the luminous flux dispersed by the transmission type mirror 35-2 and the mirror 36-2, that is, the light when the subject is viewed from the right side toward the subject is collected by the condenser lens 38- 2 is collected. Further, of the incident light that has passed through the diaphragm 34, the light that has passed through the transmissive mirror 35-1 and the transmissive mirror 35-2 is collected by the condenser lens 37.
  • the condensing lens 37, the condensing lens 38-1, and the condensing lens 38-2 convert the incident light to the light receiving surfaces of the image sensor 39, the image sensor 40-1, and the image sensor 40-2, respectively.
  • the image of incident light formed on these light receiving surfaces is an erect image.
  • the image pickup device 39, the image pickup device 40-1, and the image pickup device 40-2 are composed of image sensors such as CCD (Charge Coupled (Devices) and CMOS (Complementary Metal Oxide Semiconductor), for example.
  • CCD Charge Coupled (Devices)
  • CMOS Complementary Metal Oxide Semiconductor
  • the imaging device 39 captures an image of a subject (hereinafter referred to as a basic image) by converting incident light incident from the condenser lens 37 into an electric signal, and the basic image obtained as a result is signal processing unit 41. To supply.
  • the basic image is an image from which a parallax image is generated.
  • the image sensor 40-1 and the image sensor 40-2 convert the incident light incident from the condenser lens 38-1 and the condenser lens 38-2 into an electric signal, thereby obtaining an image of the subject (hereinafter referred to as a parallax detection image). Imaged).
  • the imaging element 40-1 and the imaging element 40-2 supply the parallax detection image obtained by imaging to the signal processing unit 42-1 and the signal processing unit 42-2.
  • the parallax detection image captured by the image sensor 40-1 is an image of the subject viewed from the left side (for example, the left eye) toward the subject.
  • This parallax detection image (hereinafter, particularly referred to as a parallax detection image for the left eye) is used as parallax information when generating a parallax image for the left eye. That is, the image of the subject viewed from the viewpoint of the parallax detection image for the left eye is generated as the parallax image for the left eye.
  • the parallax detection image captured by the image sensor 40-2 is an image of the subject viewed from the right side (for example, the right eye) toward the subject, and this parallax detection image (hereinafter, particularly the right eye). (Referred to as a parallax detection image for use) is used as parallax information when generating a parallax image for the right eye.
  • the left and right parallax detection images and the basic image captured by the imaging device 11 in this way are images having parallax with each other. These basic images and parallax detection images may be still images or moving images.
  • the transmission type mirror 35-1 and the transmission type mirror 35-2 when it is not necessary to distinguish the transmission type mirror 35-1 and the transmission type mirror 35-2 from each other, they are simply referred to as the transmission type mirror 35, and the mirror 36-1 and the mirror 36-2 need not be particularly distinguished from each other. In this case, the mirror 36 is also simply called.
  • the condenser lens 38-1 and the condenser lens 38-2 when it is not necessary to particularly distinguish the condenser lens 38-1 and the condenser lens 38-2, they are also simply referred to as the condenser lens 38, and it is necessary to particularly distinguish the imaging element 40-1 and the imaging element 40-2. When there is no image sensor, it is simply referred to as an image sensor 40.
  • the signal processing unit 41 performs various types of signal processing such as A / D (Analog / Digital) conversion processing, demosaic processing, white balance adjustment processing, and the like on the basic image supplied from the image sensor 39, and the image memory 43. -1 and the image memory 43-2.
  • a / D Analog / Digital
  • the signal processing unit 42-1 and the signal processing unit 42-2 perform A / D conversion processing, demosaic processing, and white balance adjustment on the parallax detection images supplied from the imaging device 40-1 and the imaging device 40-2. Various signal processing such as processing is performed, and the result is supplied to the image memory 43-1 and the image memory 43-2.
  • the signal processing unit 42-1 and the signal processing unit 42-2 are also simply referred to as the signal processing unit 42 when it is not necessary to distinguish between them.
  • the image memory 43-1 and the image memory 43-2 temporarily store the basic image from the signal processing unit 41 and the parallax detection image from the signal processing unit 42-1 and the signal processing unit 42-2.
  • the image memory 43-1 and the image memory 43-2 temporarily store the parallax images supplied from the parallax image generation unit 44-1 and the parallax image generation unit 44-2, and store the parallax images stored therein. Is supplied to the encoding unit 45-1 and the encoding unit 45-2.
  • the image memory 43-1 and the image memory 43-2 are also simply referred to as the image memory 43 when it is not necessary to distinguish between them.
  • the parallax image generation unit 44-1 acquires the parallax detection image and the basic image from the image memory 43-1, generates a parallax image for the left eye based on the parallax detection image and the basic image, and the image memory 43. -1.
  • the parallax image generation unit 44-1 includes a corresponding point search unit 51-1, and the corresponding point search unit 51-1 has a basic function that corresponds to each pixel of the parallax detection image when generating the parallax image. Search for pixels on the image. Note that the corresponding pixels are pixels on which the same subject is displayed, and hereinafter, the pixels on the basic image corresponding to the pixels of the parallax detection image are also referred to as corresponding pixels.
  • the parallax image generation unit 44-2 acquires the parallax detection image and the basic image from the image memory 43-2, generates a parallax image for the right eye based on the parallax detection image and the basic image, and the image memory 43-2.
  • the parallax image generation unit 44-2 includes a corresponding point search unit 51-2, and the corresponding point search unit 51-2 performs basic processing for each pixel of the parallax detection image at the time of generating the parallax image. Search for corresponding pixels on the image.
  • parallax image generation unit 44-1 and the parallax image generation unit 44-2 are also simply referred to as the parallax image generation unit 44, and the corresponding point search unit 51-1 and the corresponding point search unit 51 -2 is also simply referred to as a corresponding point search unit 51 when it is not necessary to distinguish between -2.
  • the encoding unit 45-1 and the encoding unit 45-2 read out the parallax images from the image memory 43-1 and the image memory 43-2, encode them, and output them.
  • the encoding unit 45-1 and the encoding unit 45-2 are also simply referred to as the encoding unit 45 when it is not necessary to distinguish between them.
  • the imaging device 11 that generates a parallax image as described above includes an imaging unit 81 that captures a parallax detection image and a basic image, and a video generation unit that generates a parallax image from the captured parallax detection image and the basic image.
  • 82 can be considered to be composed of two functional blocks.
  • the imaging unit 81 includes the interchangeable lens 21, the lens mount 31, and the relay lens unit 33 through the imaging element 40, and the video generation unit 82 includes the signal processing unit 41 through the encoding unit 45.
  • the imaging device 11 when the user operates the imaging device 11 to instruct generation of left and right parallax images for stereoscopic display of the subject, the imaging device 11 starts a parallax image generation process and generates a parallax image.
  • step S11 the transmission mirror 35 separates the light beam incident from the subject.
  • incident light from the subject is collected by the interchangeable lens 21 and further converted into parallel light by the relay lens unit 33.
  • the incident light emitted from the relay lens unit 33 is partly shielded by the diaphragm 34 and the amount of light is adjusted, and then enters the transmission mirror 35.
  • the transmissive mirror 35 transmits a part of the incident light that is incident and enters the condenser lens 37, and reflects the remaining incident light.
  • the incident light reflected by the transmission mirror 35 is reflected by the mirror 36, further condensed by the condenser lens 38, and incident on the image sensor 40. Further, the incident light transmitted through the transmission type mirror 35 is collected by the condenser lens 37 and enters the image sensor 39.
  • the transmittance of the transmission mirror 35 is 50%, half of the incident light from the subject is incident on the image sensor 39, and the two image sensors 40 each receive incident light. 1/4 of the light will be incident.
  • the basic image captured by the image sensor 39 is an image from which a final parallax image is generated. Therefore, it is desirable that the light transmittance in the transmission mirror 35 be as high as possible.
  • step S12 the image sensor 39 captures a basic image by converting incident light incident from the condenser lens 37 into an electrical signal.
  • the basic image obtained in this manner is used to image a subject with a general imaging device only by reducing the amount of incident light incident on the imaging element 39 as much as the reflectance of the transmission mirror 35. This is the same as the image obtained. Therefore, if the reflectance (transmittance) in the transmissive mirror 35 is set appropriately, the image quality is not deteriorated and a high-quality basic image can be obtained.
  • the image sensor 39 supplies a basic image obtained by imaging to the signal processing unit 41.
  • the signal processing unit 41 performs various types of signal processing such as A / D conversion processing on the basic image from the image sensor 39, supplies the basic image to the image memory 43, and stores it.
  • step S ⁇ b> 13 the imaging device 40 converts the incident light incident from the condenser lens 38 into an electrical signal, thereby capturing a parallax detection image and supplying the obtained parallax detection image to the signal processing unit 42.
  • the signal processing unit 42 performs various types of signal processing such as A / D conversion processing on the parallax detection image supplied from the imaging device 40, and supplies the signal to the image memory 43 for storage.
  • the right and left parallax detection images obtained in this way may not have the same thickness of the light flux incident on each of the two image pickup devices 40, the brightness, resolution, and the like are equal on the left and right. It may not be possible. However, since these parallax detection images contain information on the parallax of the subject viewed from different viewpoints, if the parallax information obtained from the parallax detection images and the high-quality basic image are used, Thus, a high-quality parallax image with uniform brightness and the like can be obtained.
  • step S ⁇ b> 14 the corresponding point search unit 51 searches for a corresponding pixel on the basic image stored in the image memory 43 for each pixel of the parallax detection image stored in the image memory 43.
  • the search for the corresponding pixel is performed by calculating the correlation and the sum of absolute differences between the parallax detection image and the basic image in units of a certain region composed of one or a plurality of pixels.
  • the corresponding point search unit 51 sets one pixel on the parallax detection image as a target pixel and the parallax detection image.
  • a predetermined region centered on the upper target pixel is set as a target region.
  • the corresponding point search unit 51 uses a predetermined area on the basic image having the same size as the attention area as the corresponding attention area, and obtains a difference absolute value of the pixel values of the pixels at the same position in the attention area and the corresponding attention area, The sum of absolute differences of these pixels (sum of absolute differences) is calculated.
  • the corresponding point search unit 51 searches the corresponding attention area that minimizes the difference absolute value sum by calculating the above-described sum of absolute differences while moving the position of the corresponding attention area on the basic image. Then, the corresponding point search unit 51 sets the pixel located at the center of the corresponding attention area where the sum of absolute differences is minimum, that is, the pixel at the same position as the attention pixel as the corresponding pixel for the attention pixel. In this manner, for each pixel on the parallax detection image, the corresponding point search unit 51 searches for a corresponding pixel on the basic image for those pixels.
  • the corresponding attention area having the smallest sum of absolute differences is the area most similar to the attention area on the parallax detection image on the basic image, and therefore, the corresponding pixel displays the same subject as the attention pixel. It can be called an area.
  • the corresponding point search unit 51 sets one pixel on the parallax detection image as a target pixel and centers the target pixel on the parallax detection image.
  • the predetermined area is set as the attention area.
  • the corresponding point search unit 51 calculates a correlation value between the attention area and the corresponding attention area with a predetermined area on the basic image having the same size as the attention area as the corresponding attention area.
  • the attention area and the corresponding attention area are areas composed of N pixels, the pixel value of the i-th pixel (where 1 ⁇ i ⁇ N) of the attention area is x i , and the same position as the i-th pixel.
  • the correlation value C is obtained by the following equation (1).
  • X indicates an average value of pixel values of pixels in the attention area
  • Y indicates an average value of pixel values of pixels in the corresponding attention area.
  • the correlation value C obtained in this way increases as the correlation between the attention area and the corresponding attention area increases.
  • Corresponding point search unit 51 searches for the corresponding attention area where the correlation value C is maximized by calculating the correlation value C while moving the position of the corresponding attention area on the basic image. Then, the corresponding point search unit 51 sets the pixel located at the center of the corresponding attention area where the correlation value C is maximum, that is, the pixel at the same position as the attention pixel as the corresponding pixel for the attention pixel. As described above, by using the correlation value, it is possible to detect the corresponding pixel with high accuracy even when there is a luminance difference between the parallax detection image and the basic image.
  • step S15 the parallax image generation unit 44 generates a parallax image based on the search result of the corresponding pixel, and supplies the obtained parallax image to the image memory 43 for storage.
  • the parallax image generation unit 44 generates a parallax image by moving the corresponding pixel for the pixel to the position of each pixel of the parallax detection image on the basic image or performing interpolation processing using the corresponding pixel. To do.
  • the parallax image generation unit 44 uses a pixel on the parallax image to be generated as a target pixel, and sets the pixel value of the corresponding pixel with respect to the pixel of the parallax detection image at the same position as the target pixel.
  • a parallax image is generated by setting the pixel value of the target pixel.
  • an image obtained by replacing each pixel on the parallax detection image with a corresponding pixel on the basic image corresponding to the pixel is a parallax image.
  • left and right parallax images are generated using a single high-quality basic image in this way, the image quality such as brightness and resolution is reflected in the parallax image as a result of the basic image.
  • a parallax image with uniform image quality such as resolution can be obtained.
  • the parallax image obtained in this way is stored in the image memory 43, encoded by the encoding unit 45, and output to the subsequent stage.
  • the parallax image output to the subsequent stage is displayed on the display unit or stored in the storage unit.
  • the transmissive mirror 35 transmits the incident light with a predetermined transmittance to capture the basic image, and simultaneously splits the remaining incident light to the left and right to capture the left and right parallax detection images.
  • parallax information can be obtained without degrading the image quality of the subject image.
  • FIG. 3 is an image diagram of the entrance pupil PU in the imaging device 11.
  • a pupil is an image of an aperture stop when the lens is viewed from the subject side or the imaging side.
  • the entrance pupil PU is an image of the diaphragm 34.
  • the radius of the circle corresponding to the entrance pupil PU is r, the following equation (2) is established.
  • f is the focal length of the relay lens unit 33
  • F is the F value of the relay lens unit 33. Therefore, when the focal length is fixed, it can be seen that the diameter 2r of the entrance pupil PU and the F value are in an inversely proportional relationship.
  • the circle of the entrance pupil PU is considered as a left semicircle and a right semicircle divided into left and right in FIG.
  • the stereoscopic effect is obtained based on the parallax (relative parallax) between the eyes of the user.
  • the optical axis that determines the parallax passes through the center of gravity of each of the left and right semicircles. Conceivable.
  • the center of gravity of the semicircle with radius r can be obtained geometrically and is located at a distance of 4r / 3 ⁇ from the center of the circle. Therefore, the distance between the center of gravity GL of the left semicircle and the center of gravity GR of the right semicircle (distance D between the centers of gravity) is obtained by the following equation (3).
  • FIG. 4 is a diagram illustrating a relationship between the distance D between the centroids and the baseline length (baseline).
  • the theoretical value of the distance between the centers of gravity and the experimental value of the baseline length are shown for the two types of lenses #A and #B as the interchangeable lens 21.
  • Lens #A is a zoom lens having an open F value of 1.8 and a focal length of 10 to 100 mm.
  • the zoom ratio of this lens #A is 10 times, and the focal length at the wide end (end on the wide angle side) is 10 mm.
  • Lens #B is a zoom lens having an open F value of 2.8 and a focal length of 13.5 to 570 mm.
  • the zoom ratio of this lens #B is 42 times, and the focal length at the wide end (wide-angle end) is 13.5 mm. In both cases, the shooting distance (distance from the subject to the image sensor) is assumed to be 6.5 m.
  • the distances D between the centers of gravity of the lenses #A and #B are calculated to be 23.1 mm and 14.9 mm, respectively.
  • the baseline lengths obtained by experiments in the actual apparatus were 20.0 mm and 12.0 mm for lenses #A and #B, respectively.
  • the distance D between the centers of gravity of the semicircles of the entrance pupil PU which is an image of the stop 34, is substantially equal to the baseline length. I understand. Further, it can be seen from the equation (3) that the distance D between the centers of gravity can be changed by the aperture of the diaphragm 34, and therefore the base line length can also be controlled by the aperture of the diaphragm 34.
  • the imaging device 11 about 7 mm can be assumed as the minimum value of the distance D between the centers of gravity. It is considered that a stereoscopic effect can be felt if the base line length is a value of this level. In particular, when the shooting distance is long, it is considered that the stereoscopic effect cannot be obtained unless the baseline length is long to some extent. When the base line length is increased, the stereoscopic effect becomes clearer at about 32 mm, while the background blur becomes larger. And if the base line length exceeds 65 mm, the miniature garden effect will occur and the image will be unnatural. Therefore, it is considered that the base line length is about 7 to 65 mm as a range that can be seen naturally as a stereoscopic image.
  • FIG. 5 is a diagram illustrating the relationship between the enlargement of the subject image by the zoom and the parallax.
  • the left eye position is L
  • the right eye position is R
  • the points on the subject are A and B. If the angle LAR looking at point A is the convergence angle ⁇ A of point A and the angle LBR looking at point B is the convergence angle ⁇ B of point B, the parallax (relative parallax) d between point A and point B is Is given by equation (4).
  • FIG. 5B is a diagram showing the positional relationship when n-fold enlargement is performed as compared with A in FIG.
  • a dash is added at the end of each symbol for the angle, position, and distance changed after zooming.
  • n-fold parallax occurs due to n-fold enlargement. This means that the stereoscopic effect of the displayed subject increases when zooming to the telephoto end (telephoto end). In other words, in zoom shooting, an appropriate parallax can be obtained even with a short baseline length.
  • the light collected by the single interchangeable lens 21 is split left and right by the transmission type mirror 35 and the mirror 36, so that the parallax of the image presented to both eyes can be appropriately adjusted. Can be small.
  • the parallax obtained in the imaging device 11 can be controlled by the aperture of the diaphragm 34 and the zoom ratio (magnification ratio) in zoom photography. That is, by controlling the aperture of the diaphragm 34 and the zoom magnification by the interchangeable lens 21, a parallax image having an appropriate parallax can be obtained.
  • parallax In general, the sensitivity of the eye to parallax is high, and normal visual acuity is on the order of minutes in terms of viewing angle, whereas parallax has a resolution one order higher (HowardHowI. P., Rogers B. J .: Stereo (See Acuity (Chap. 5), Binocular Vision and Stereopsis, P.162, Oxford University Press, Oxford (1995).). Therefore, appropriately reducing the parallax is important in order to naturally perceive a three-dimensional effect and reduce visual fatigue even under a parallax condition smaller than the above example.
  • the imaging device 11 is configured as shown in FIG. 6, for example.
  • parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
  • the imaging device 11 of FIG. 6 differs from the imaging apparatus 11 of FIG. 1 in that the signal processing unit 41 to the encoding unit 45 are not provided, and the other configurations are the same. That is, the imaging device 11 of FIG. 6 includes only the imaging unit 81, and receives the parallax detection image and the basic image by receiving incident light from the subject, and the obtained parallax detection image and the basic image are obtained. Is output.
  • the parallax detection image and the basic image output from the imaging device 11 are input to the video generation unit 82 at the subsequent stage, and the video generation unit 82 generates and outputs a parallax image based on these images.
  • FIG. 7 is a diagram showing a configuration example of a video storage / playback system to which the present invention is applied.
  • the video storage / playback system includes an imaging unit 81, a video generation unit 82, a video storage unit 83, a video playback unit 84, and a display unit 85.
  • parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
  • the imaging unit 81 captures the basic image and the left and right parallax detection images and supplies them to the video generation unit 82.
  • the video generation unit 82 generates a parallax image using the basic image and the parallax detection image supplied from the imaging unit 81 and stores the parallax image in the video storage unit 83.
  • the video storage unit 83 temporarily stores the parallax image supplied from the video generation unit 82.
  • the video reproduction unit 84 reads out the parallax image from the video storage unit 83 and supplies the parallax image to the display unit 85, and causes the display unit 85 to display a stereoscopic image.
  • the video playback unit 84 includes a decoding unit 151-1, a decoding unit 151-2, a display control unit 152-1, and a display control unit 152-2.
  • the decoding unit 151-1 and the decoding unit 151-2 read out and decodes the left-eye parallax image and the right-eye parallax image from the video storage unit 83, respectively, and the display control unit 152-1 and the display control unit 152. -2.
  • the display control unit 152-1 and the display control unit 152-2 supply the parallax images supplied from the decoding unit 151-1 and the decoding unit 151-2 to the display unit 85 for display.
  • the decoding unit 151 when it is not necessary to particularly distinguish the decoding unit 151-1 and the decoding unit 151-2, they are also simply referred to as the decoding unit 151, and it is necessary to particularly distinguish the display control unit 152-1 and the display control unit 152-2. If not, it is also simply referred to as a display control unit 152.
  • the display unit 85 stereoscopically displays the parallax image supplied from the display control unit 152 by a predetermined display method.
  • a circularly polarized light or linearly polarized light filter is attached to two projectors to display left and right parallax images, respectively, and a user wears circularly polarized light or linearly polarized glasses corresponding to the display.
  • a mode of viewing a parallax image is conceivable.
  • the display unit 85 is configured by a flat panel display with a filter, and the left and right parallax images are simultaneously presented on the flat panel display by a display method that does not require glasses for viewing, such as a lenticular lens method or a parallax barrier method. Also good.
  • the display method in the display unit 85 is a display method in which left and right parallax images are not displayed alternately but these parallax images are displayed simultaneously, it is possible to reduce visual fatigue of the user.
  • the video storage / playback system when the user instructs the video storage / playback system to generate left and right parallax images for stereoscopic display of the subject, the video storage / playback system starts a parallax image generation process to generate a parallax image.
  • the parallax image generation processing performed by the video storage / playback system will be described with reference to the flowchart of FIG.
  • or step S45 is the same as the process of step S11 thru
  • the generated parallax image is supplied to and stored in the image memory 43.
  • step S46 the encoding unit 45 of the video generation unit 82 reads out and encodes the parallax image from the image memory 43, and supplies the encoded parallax image to the video storage unit 83.
  • step S47 the video storage unit 83 stores the parallax image supplied from the encoding unit 45, and the parallax image generation process ends.
  • the transmissive mirror 35 transmits the incident light with a predetermined transmittance to capture the basic image, and simultaneously splits the remaining incident light to the left and right to capture the left and right parallax detection images.
  • parallax information can be obtained without degrading the image quality of the subject image.
  • step S71 the decoding unit 151 reads the parallax image instructed to be reproduced from the video storage unit 83.
  • step S ⁇ b> 72 the decoding unit 151 decodes the read parallax image and supplies the decoded parallax image to the display control unit 152.
  • step S73 the display control unit 152 supplies the parallax image supplied from the decoding unit 151 to the display unit 85 for stereoscopic display, and the parallax image reproduction process ends. As a result, the subject on the parallax image is stereoscopically displayed on the display unit 85.
  • the hold-type display refers to a display method in which video is continuously displayed on a film, a liquid crystal projector, or the like during a frame period.
  • jerkiness refers to the loss of smoothness of the image and the jerky movement. This jerkiness often occurs when an image captured using a high-speed shutter is viewed with a fixed line of sight (fixed vision). Such deterioration in moving image quality involves the frame rate of image pickup and display, the aperture ratio (opening time / frame time) of camera image pickup, visual characteristics, and the like.
  • the standard frame rate is 24 frames per second (24 Hz) for movies and 60 fields per second (60 Hz) for television broadcasting.
  • the parallax detection image and the basic image are transmitted at a rate of 60 frames per second (60 Hz) or more, preferably at a rate of 230 to 250 frames per second (240 Hz ⁇ 10 Hz). Imaging is performed. As a result, the lack of resolution in the time direction can be resolved, and accurate contour information can be obtained for a moving subject.
  • the rate of 590 to 610 frames (600 Hz ⁇ 10 Hz) per second which is a common multiple of the rate of 290 to 310 frames per second (300 Hz ⁇ 10 Hz) plus 24 frames per second (24 Hz) of movies, facilitates image processing. It is important in terms of making it. Accordingly, the parallax detection image and the basic image may be captured at a rate of 290 to 310 frames per second or a rate of 590 to 610 frames per second.
  • the parallax of the image presented to both eyes is set to an appropriate size, and further, the image is captured at a high frame rate, which is close to when a person is looking at the natural world. Therefore, it is possible to capture a high-quality stereoscopic image that is easy to see and has small aberrations. Further, since the optical axis does not change practically depending on the zoom ratio of the interchangeable lens 21 and image processing such as moving the position of the image according to the zoom ratio is not required, a highly accurate zoom effect can be easily realized. .
  • FIG. 7 As an example of the video storage / playback system, a case where a parallax image is generated from a parallax detection image and a basic image subjected to various signal processing has been described. In a state where is a RAW image, a parallax image may be generated from these images.
  • the video storage / playback system is configured as shown in FIG. 10, for example. 10, parts corresponding to those in FIG. 1 or FIG. 7 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the video storage / playback system of FIG. 10 differs from the video storage / playback system of FIG. 7 in that a video generation unit 181 is provided instead of the video generation unit 82 of the video storage / playback system of FIG. Are the same.
  • the parallax detection image and the basic image are supplied from the imaging unit 81 to the video generation unit 181. That is, the basic image output from the image sensor 39 of the imaging unit 81 is supplied to the signal processing unit 42-1 and the signal processing unit 42-2 of the video generation unit 181.
  • the parallax detection images output from the imaging device 40-1 and the imaging device 40-2 of the imaging unit 81 are supplied to the signal processing unit 42-1 and the signal processing unit 42-2 of the video generation unit 181.
  • the signal processing unit 42-1 performs A / D conversion processing on the parallax detection image and the basic image supplied from the imaging unit 81, and supplies them to the parallax image generation unit 44-1.
  • the parallax image generation unit 44-1 generates a parallax image based on the parallax detection image and the basic image supplied from the signal processing unit 42-1, and supplies them to the signal processing unit 42-1.
  • the corresponding point search unit 51-1 provided in the parallax image generation unit 44-1 searches for a corresponding pixel from the basic image for each pixel of the parallax detection image.
  • the signal processing unit 42-1 performs various signal processing such as demosaic processing and white balance adjustment processing on the parallax image supplied from the parallax image generation unit 44-1, and stores it in the image memory 43-1. Supply and memorize.
  • the parallax image supplied to the image memory 43-1 is read and encoded by the encoding 45-1, and is supplied to the video storage unit 83.
  • the signal processing unit 42-2 performs A / D conversion processing on the parallax detection image and the basic image supplied from the imaging unit 81, and supplies them to the parallax image generation unit 44-2.
  • the parallax image generation unit 44-2 generates a parallax image based on the parallax detection image and the basic image supplied from the signal processing unit 42-2, and supplies the parallax image to the signal processing unit 42-2.
  • the corresponding point search unit 51-2 provided in the parallax image generation unit 44-2 searches for a corresponding pixel from the basic image for each pixel of the parallax detection image.
  • the signal processing unit 42-2 performs various signal processing such as demosaic processing and white balance adjustment processing on the parallax image supplied from the parallax image generation unit 44-2, and stores it in the image memory 43-2. Supply and memorize.
  • the parallax image supplied to the image memory 43-2 is read and encoded by the encoding 45-2, and is supplied to the video storage unit 83.
  • imaging device 21 interchangeable lens, 33 relay lens section, 34 aperture, 35-1, 35-2, 35 transmission type mirror, 36-1, 36-2, 36 mirror, 37 condenser lens, 38-1, 38 -2, 38 condenser lens, 39 image sensor, 40-1, 40-2, 40 image sensor, 44-1, 44-2, 44 parallax image generator, 51-1, 51-2, 51 corresponding point search Part

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Abstract

本発明は、画像の画質を劣化させることなく、視差情報を得ることができるようにする撮像装置および撮像方法に関する。 被写体からの入射光は、リレーレンズ部33により平行光とされて、その一部が透過型ミラー35により反射され、残りの入射光は透過型ミラー35を透過する。撮像素子39は、透過型ミラー35を透過した入射光を光電変換して基本画像を撮像し、撮像素子40は、透過型ミラー35で反射された入射光を光電変換して視差検出用画像を撮像する。視差画像生成部44は、視差検出用画像上の各画素の画素値を、それらの画素に対応する基本画像上の画素の画素値に置き換えて左右の視差画像を生成する。このように、高品質な基本画像と、視差情報を有する視差検出用画像を用いれば、適切な視差を有し、高品質な視差画像対を得ることができる。本発明は、カメラに適用することができる。

Description

撮像装置および撮像方法
 本発明は撮像装置および撮像方法に関し、特に、画像の画質を劣化させることなく、視差情報を得ることができるようにした撮像装置および撮像方法に関する。
 従来、共通の被写体を左右2台のビデオカメラによって同時に撮像し、その結果得られた画像を、それぞれ左右の眼に呈示することにより、立体画像を表示するシステムが知られている。しかしながら、このようなシステムは、装置が大きくなるため機動性に欠けるだけでなく、左右のビデオカメラの光軸のずれ等が生じやすく、適切な視差を有する画像を得ることが困難であった。
 例えば、2台のビデオカメラの間隔が大きくなってしまったり、各ビデオカメラのレンズの個体差によりズーム中に左右の光軸がずれたり、左右の画面サイズが同じでなくなったりすることがある。また、フォーカス操作の際に、左右のビデオカメラを被写体に向ける動作、つまり輻輳動作時に、左右のビデオカメラが上下にずれてしまうこともあった。
 このように左右のビデオカメラで光軸のずれ等が生じると、立体画像を視聴するユーザの視覚系に日常とは異なる情報処理を強いることになり、視覚疲労の要因となる。さらに、ユーザが左右の画像を、立体視用の眼鏡を使わずにそのまま重ねて眺めた際に、被写体が二重に見えて不自然な映像になってしまう。
 そこで、1つのレンズの瞳となる領域で、被写体からの光をミラーにより2つの光束に分離させて撮像する撮像装置が提案されている(例えば、特許文献1参照)。この撮像装置では、分離された2つの光束のそれぞれについて撮像を行なうことにより、被写体の視差情報を得ると同時に、左右の眼に呈示する立体視用の画像を得ることができる。
特開2010-81580号公報
 しかしながら、上述した技術では、被写体の視差情報を得ることはできるが、立体画像を表示させるための画像の画質の劣化が生じてしまうことがあった。
 具体的には、例えば被写体からの光束が、ミラーによって左眼用と右眼用の画像を得るための2つの光束に分離されるため、被写体からの光束のミラーに対する入射角度等によって、分離される2つの光束のそれぞれの太さが変化する。これらの2つの光束の太さが異なると、左右の画像の明るさや解像度が不均等になってしまう。
 本発明は、このような状況に鑑みてなされたものであり、画像の画質を劣化させることなく、視差情報を得ることができるようにするものである。
 本発明の一側面の撮像装置は、被写体からの入射光を集光する第1の集光手段と、前記第1の集光手段により集光された前記入射光を伝送して平行光とする伝送手段と、前記伝送手段により平行光とされた前記入射光を所定の透過率で透過させるとともに、前記平行光とされた前記入射光の一部を左右に分光する分光手段と、前記分光手段を透過した前記入射光を集光する第2の集光手段と、前記第2の集光手段により集光された前記入射光を電気信号に変換することで、前記被写体の基本画像を撮像する第1の撮像手段と、前記分光手段により分光された前記入射光のそれぞれを集光する第3の集光手段と、前記第3の集光手段により集光された前記入射光のそれぞれを電気信号に変換することで、互いに視差を有する視差検出画像を撮像する第2の撮像手段とを備える。
 撮像装置には、前記視差検出画像のそれぞれについて、前記基本画像に基づいて、前記視差検出画像と同じ視点の画像を生成することで、前記被写体を立体表示させるための視差画像を生成する視差画像生成手段をさらに設けることができる。
 前記視差画像生成手段には、これから生成しようとする前記視差画像の画素を注目画素として、前記注目画素と同じ位置にある前記視差検出画像の画素に対応する前記基本画像上の画素の画素値に基づいて、前記注目画素の画素値を求めることにより、前記視差画像を生成させることができる。
 撮像装置には、前記伝送手段と前記分光手段との間に配置され、前記分光手段により左右に分光される前記入射光の重心間の距離が変化するように、前記伝送手段からの前記入射光の一部を遮光する光量調整手段をさらに設けることができる。
 前記光量調整手段には、前記重心間の距離が7乃至65mmとなるように、前記入射光の一部を遮光させることができる。
 前記第1の集光手段には、前記被写体の像を拡大させるズームレンズを設け、前記視差検出画像間の相対視差は、前記ズームレンズによる前記被写体の像の拡大倍率により制御されるようにすることができる。
前記第1の撮像手段、および前記第2の撮像手段には、毎秒60フレーム以上のレートで、前記基本画像および前記視差検出画像を撮像させることができる。
 前記第1の撮像手段、および前記第2の撮像手段には、毎秒230乃至250フレームのレートで、前記基本画像および前記視差検出画像を撮像させることができる。
 前記第1の撮像手段、および前記第2の撮像手段には、毎秒290乃至310フレームのレートで、前記基本画像および前記視差検出画像を撮像させることができる。
 前記第1の撮像手段、および前記第2の撮像手段には、毎秒590乃至610フレームのレートで、前記基本画像および前記視差検出画像を撮像させることができる。
 撮像装置には、前記視差画像を記憶する記憶手段と、前記記憶手段に記憶された前記視差画像に基づいて、前記被写体を立体表示させる表示制御手段とをさらに設けることができる。
 本発明の一側面の撮像方法は、被写体からの入射光を第1の集光手段が集光し、前記第1の集光手段により集光された前記入射光を伝送手段が伝送して平行光とし、分光手段が、前記伝送手段により平行光とされた前記入射光を所定の透過率で透過させるとともに、前記平行光とされた前記入射光の一部を左右に分光し、第2の集光手段が、前記分光手段を透過した前記入射光を集光し、第1の撮像手段が、前記第2の集光手段により集光された前記入射光を電気信号に変換することで、前記被写体の基本画像を撮像し、第3の集光手段が、前記分光手段により分光された前記入射光のそれぞれを集光し、第2の撮像手段が、前記第3の集光手段により集光された前記入射光のそれぞれを電気信号に変換することで、互いに視差を有する視差検出画像を撮像するステップを含む。
 本発明の一側面においては、被写体からの入射光が第1の集光手段により集光され、前記第1の集光手段により集光された前記入射光が、伝送手段により伝送されて平行光とされ、前記伝送手段により平行光とされた前記入射光が、分光手段を所定の透過率で透過するとともに、前記平行光とされた前記入射光の一部が前記分光手段で左右に分光され、第2の集光手段により、前記分光手段を透過した前記入射光が集光され、第1の撮像手段により、前記第2の集光手段により集光された前記入射光が電気信号に変換されることで、前記被写体の基本画像が撮像され、第3の集光手段により、前記分光手段により分光された前記入射光のそれぞれが集光され、前記第3の集光手段により集光された前記入射光のそれぞれが電気信号に変換されることで、第2の撮像手段により互いに視差を有する視差検出画像が撮像される。
 本発明の一側面によれば、画像の画質を劣化させることなく、視差情報を得ることができる。
本発明を適用した撮像装置の一実施の形態の構成例を示す図である。 視差画像生成処理を説明するフローチャートである。 撮像装置における入射瞳のイメージ図である。 重心間距離と基長線の関係について説明する図である。 ズームと視差の関係について説明する図である。 撮像装置の他の構成例を示す図である。 本発明を適用した映像記憶再生システムの一実施の形態の構成例を示す図である。 視差画像生成処理を説明するフローチャートである。 視差画像再生処理を説明するフローチャートである。 映像記憶再生システムの他の構成例を示す図である。
 以下、図面を参照して、本発明を適用した実施の形態について説明する。
〈第1の実施の形態〉
[撮像装置の構成例]
 図1は、本発明を適用した撮像装置の一実施の形態の構成例を示す図である。より詳細には、図1は撮像装置の上断面図を示している。
 この撮像装置11は、被写体からの入射光を受けて、被写体の立体画像を表示させるための右眼用および左眼用の視差画像を生成するものである。
 ここで、右眼用の視差画像および左眼用の視差画像とは、それぞれ被写体を立体表示させるときにユーザの右眼および左眼で観察されるように表示される画像をいう。以下では、右眼用および左眼用の視差画像を、単に左右の視差画像とも称する。また、以下、図中、上側が撮像装置11から被写体に向かって右側であり、図中、下側が撮像装置11から被写体に向かって左側であるものとして説明を続ける。
 撮像装置11は、交換レンズ21および本体22から構成され、交換レンズ21は、本体22に設けられたレンズマウント31に取り付けられている。
 交換レンズ21は、被写体からの入射光を集光するレンズ群からなり、焦点を合わせるためのフォーカスレンズや、被写体の像を拡大するためのズームレンズ等のレンズ群の他、絞り32を備えている。交換レンズ21により集光された入射光は、レンズマウント31の内部において結像されて、左右が反転した倒立像となり、本体22内に設けられたリレーレンズ部33に入射する。
 リレーレンズ部33は、交換レンズ21から入射した入射光を、後段に設けられた絞り34の位置まで伝送するリレーレンズから構成される。このリレーレンズ部33により、被写体(対物焦点位置)の点光源からの拡散光は、絞り34の位置において平行光となる。リレーレンズ部33により平行光とされた被写体からの入射光は、絞り34によりその一部が遮光されて透過型ミラー35-1および透過型ミラー35-2に入射する。また、撮像装置11では、絞り34の像が入射瞳PUとして、交換レンズ21内部に位置している。
 透過型ミラー35-1および透過型ミラー35-2は、本体22を構成する光学系の光軸上において、それらの一端が互いに隣接し、かつ互いに異なる方向に傾斜して配置されている。図1の例では、透過型ミラー35-1と透過型ミラー35-2は、互いに直交し、かつ透過型ミラー35-1と透過型ミラー35-2がそれぞれ、光学系の光軸に対して45度および-45度の角度をなすように配置されている。
 透過型ミラー35-1および透過型ミラー35-2は、リレーレンズ部33から入射した入射光の一部を図中、上方向および下方向に反射させて、ミラー36-1およびミラー36-2に入射させるとともに、残りの入射光を透過させて集光レンズ37に入射させる。また、ミラー36-1およびミラー36-2は、透過型ミラー35-1および透過型ミラー35-2から入射した入射光を反射して、集光レンズ38-1および集光レンズ38-2に入射させる。
 ここで、透過型ミラー35-1乃至ミラー36-2は、本体22の光学系の光軸方向において、絞り34と同じ位置に配置されており、集光された光の一部を左右に分光する分光鏡を構成する。すなわち、被写体に向かって左側から被写体を見た際の光は左右反転されて、その一部が透過型ミラー35-1およびミラー36-1に反射される。また、被写体に向かって右側から被写体を見た際の光は左右反転されて、その一部が透過型ミラー35-2およびミラー36-2に反射される。
 このように、撮像装置11に入射した入射光の一部は、透過型ミラー35-1乃至ミラー36-2からなる分光鏡によって、左右に分光される。なお、透過型ミラー35-1および透過型ミラー35-2が配置される位置は、レンズマウント31内部の対物焦点位置(被写体の位置)における点光源からの拡散光が平行光となる平行光領域PR11に含まれ、これにより適切な分光が行われるようになっている。
 絞り34を通過した入射光のうち、透過型ミラー35-1およびミラー36-1により分光された光束、つまり被写体に向かって左側から被写体を見た際の光は、集光レンズ38-1により集光される。また、絞り34を通過した入射光のうち、透過型ミラー35-2およびミラー36-2により分光された光束、つまり被写体に向かって右側から被写体を見た際の光は、集光レンズ38-2により集光される。さらに、絞り34を通過した入射光のうち、透過型ミラー35-1および透過型ミラー35-2を透過した光は、集光レンズ37により集光される。
 このとき、集光レンズ37、集光レンズ38-1、および集光レンズ38-2は、入射した入射光を、それぞれ撮像素子39、撮像素子40-1、および撮像素子40-2の受光面上に結像させる。これらの受光面上に結像された入射光の像は、正立像となる。
 撮像素子39、撮像素子40-1、および撮像素子40-2は、例えば、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサから構成される。
 撮像素子39は、集光レンズ37から入射した入射光を電気信号に変換することにより、被写体の画像(以下、基本画像と称する)を撮像し、その結果得られた基本画像を信号処理部41に供給する。ここで、基本画像は、視差画像を生成するもととなる画像である。
 撮像素子40-1および撮像素子40-2は、集光レンズ38-1および集光レンズ38-2から入射した入射光を電気信号に変換することにより、被写体の画像(以下、視差検出用画像と称する)を撮像する。撮像素子40-1および撮像素子40-2は、撮像により得られた視差検出用画像を、信号処理部42-1および信号処理部42-2に供給する。
 ここで、撮像素子40-1により撮像される視差検出用画像は、被写体に向かって、左側(例えば、左眼)から見た被写体の画像である。この視差検出用画像(以下、特に左眼用の視差検出用画像と称する)は、左眼用の視差画像を生成するときの視差情報として用いられる。つまり、左眼用の視差検出用画像の視点から見た被写体の画像が、左眼用の視差画像として生成される。
 同様に、撮像素子40-2により撮像される視差検出用画像は、被写体に向かって、右側(例えば、右眼)から見た被写体の画像であり、この視差検出用画像(以下、特に右眼用の視差検出用画像と称する)は、右眼用の視差画像を生成するときに視差情報として用いられる。
 このようにして撮像装置11で撮像される左右の視差検出用画像、および基本画像は、互いに視差を有する画像である。これらの基本画像および視差検出用画像は、静止画像であってもよいし、動画像であってもよい。
 なお、以下、透過型ミラー35-1および透過型ミラー35-2を特に区別する必要のない場合、単に透過型ミラー35と称し、ミラー36-1およびミラー36-2を特に区別する必要のない場合、単にミラー36とも称する。また、以下、集光レンズ38-1および集光レンズ38-2を特に区別する必要のない場合、単に集光レンズ38とも称し、撮像素子40-1および撮像素子40-2を特に区別する必要のない場合、単に撮像素子40とも称することとする。
 信号処理部41は、撮像素子39から供給された基本画像に対して、A/D(Analog/Digital)変換処理、デモザイク処理、ホワイトバランス調整処理等の各種の信号処理を施して、画像メモリ43-1および画像メモリ43-2に供給する。
 信号処理部42-1および信号処理部42-2は、撮像素子40-1および撮像素子40-2から供給された視差検出用画像に対して、A/D変換処理、デモザイク処理、ホワイトバランス調整処理等の各種の信号処理を施し、画像メモリ43-1および画像メモリ43-2に供給する。なお、以下、信号処理部42-1および信号処理部42-2を特に区別する必要のない場合、単に信号処理部42とも称する。
 画像メモリ43-1および画像メモリ43-2は、信号処理部41からの基本画像と、信号処理部42-1および信号処理部42-2からの視差検出用画像とを一時的に記憶する。また、画像メモリ43-1および画像メモリ43-2は、視差画像生成部44-1および視差画像生成部44-2から供給された視差画像を一時的に記憶するとともに、記憶している視差画像を、符号化部45-1および符号化部45-2に供給する。
 なお、以下、画像メモリ43-1および画像メモリ43-2を特に区別する必要のない場合、単に画像メモリ43とも称する。
 視差画像生成部44-1は、画像メモリ43-1から視差検出用画像と基本画像を取得して、視差検出用画像と基本画像に基づいて左眼用の視差画像を生成し、画像メモリ43-1に供給する。視差画像生成部44-1は対応点探索部51-1を備えており、対応点探索部51-1は、視差画像生成時において、視差検出用画像の各画素について、その画素に対応する基本画像上の画素を探索する。なお、対応する画素とは、同じ被写体が表示される画素であり、以下、視差検出用画像の画素に対応する基本画像上の画素を、対応画素とも称する。
 視差画像生成部44-2は、画像メモリ43-2から視差検出用画像と基本画像を取得して、視差検出用画像と基本画像に基づいて、右眼用の視差画像を生成し、画像メモリ43-2に供給する。視差画像生成部44-2は対応点探索部51-2を備えており、対応点探索部51-2は、視差画像生成時において、視差検出用画像の各画素について、その画素に対応する基本画像上の対応画素を探索する。
 なお、以下、視差画像生成部44-1および視差画像生成部44-2を特に区別する必要のない場合、単に視差画像生成部44とも称し、対応点探索部51-1および対応点探索部51-2を特に区別する必要のない場合、単に対応点探索部51とも称する。
 符号化部45-1および符号化部45-2は、画像メモリ43-1および画像メモリ43-2から視差画像を読み出して符号化し、出力する。なお、以下、符号化部45-1および符号化部45-2を特に区別する必要のない場合、単に符号化部45とも称する。
 以上のようにして視差画像を生成する撮像装置11は、視差検出用画像および基本画像を撮像する撮像部81と、撮像された視差検出用画像および基本画像から、視差画像を生成する映像生成部82との2つの機能ブロックから構成されると考えることができる。
 ここで、撮像部81は、交換レンズ21、レンズマウント31、およびリレーレンズ部33乃至撮像素子40から構成され、映像生成部82は、信号処理部41乃至符号化部45から構成される。
[視差画像生成処理の説明]
 次に、撮像装置11の動作について説明する。
 例えば、ユーザが撮像装置11を操作して、被写体を立体表示させるための左右の視差画像の生成を指示すると、撮像装置11は視差画像生成処理を開始して、視差画像を生成する。
 ステップS11において、透過型ミラー35は、被写体から入射した光束を分離させる。
 すなわち、ユーザが撮像装置11を操作して撮像を開始させると、被写体からの入射光は、交換レンズ21により集光され、さらにリレーレンズ部33により平行光とされる。そして、リレーレンズ部33から射出された入射光は、絞り34によりその一部が遮光されて光量調整された後、透過型ミラー35に入射する。すると、透過型ミラー35は、入射した入射光の一部を透過させて集光レンズ37に入射させるとともに、残りの入射光を反射させる。
 透過型ミラー35で反射された入射光は、ミラー36で反射され、さらに集光レンズ38で集光されて撮像素子40に入射する。また、透過型ミラー35を透過した入射光は、集光レンズ37により集光されて撮像素子39に入射する。
 例えば、透過型ミラー35における透過率が50%である場合、撮像素子39には、被写体からの入射光のうちの半分が入射することになり、2つの撮像素子40には、それぞれ入射光のうちの1/4の光が入射することになる。なお、撮像素子39で撮像される基本画像は、最終的な視差画像を生成するもととなる画像であるから、透過型ミラー35における光の透過率は、できるだけ高いほうが望ましい。
 ステップS12において、撮像素子39は、集光レンズ37から入射した入射光を電気信号に変換することで、基本画像を撮像する。このようにして得られた基本画像は、透過型ミラー35における反射率の分だけ、撮像素子39に入射する入射光の光量が全体的に低下するだけで、一般的な撮像装置で被写体を撮像して得られる画像と同じである。したがって、透過型ミラー35における反射率(透過率)を適切に設定すれば、画質の劣化は生じず、高画質な基本画像を得ることができる。
 撮像素子39は、撮像により得られた基本画像を信号処理部41に供給する。信号処理部41は、撮像素子39からの基本画像に対して、A/D変換処理等の各種の信号処理を施して画像メモリ43に供給し、記憶させる。
 ステップS13において、撮像素子40は、集光レンズ38から入射した入射光を電気信号に変換することで、視差検出用画像を撮像し、得られた視差検出用画像を信号処理部42に供給する。信号処理部42は、撮像素子40から供給された視差検出用画像に対して、A/D変換処理等の各種の信号処理を施し、画像メモリ43に供給し、記憶させる。
 このようにして得られた左右の視差検出用画像は、2つの撮像素子40のそれぞれに入射する光束の太さが同じとはならない場合もあるため、明るさや解像度等が左右で均等なものとはならない可能性がある。しかし、これらの視差検出用画像には、異なる視点から見た被写体の視差に関する情報が含まれているので、視差検出用画像から得られる視差情報と、高画質な基本画像とを用いれば、左右で明るさ等が均等である高画質な視差画像を得ることができる。
 ステップS14において、対応点探索部51は、画像メモリ43に記憶されている視差検出用画像の各画素について、画像メモリ43に記憶されている基本画像上の対応画素を探索する。例えば対応画素の探索は、視差検出用画像と基本画像との間で、1または複数の画素からなる一定の領域を単位として、相関や差分絶対値和を計算することにより行なわれる。
 具体的には、例えば差分絶対値和を利用して対応画素の探索が行なわれる場合、対応点探索部51は、視差検出用画像上の1つの画素を注目画素とするとともに、視差検出用画像上の注目画素を中心とする所定領域を、注目領域とする。また、対応点探索部51は、注目領域と同じ大きさの基本画像上の所定の領域を対応注目領域として、注目領域と対応注目領域の同じ位置の画素の画素値の差分絶対値を求め、それらの各画素の差分絶対値の和(差分絶対値和)を算出する。
 対応点探索部51は、基本画像上の対応注目領域の位置を移動させながら、上述した差分絶対値和を計算することで、差分絶対値和が最小となる対応注目領域を探索する。そして、対応点探索部51は、差分絶対値和が最小となる対応注目領域の中心に位置する画素、つまり注目画素と同じ位置にある画素を、注目画素に対する対応画素とする。このようにして、対応点探索部51は、視差検出用画像上の各画素に対して、それらの画素に対する基本画像上の対応画素を探索する。
 差分絶対値和が最小となる対応注目領域は、基本画像上において、視差検出用画像上の注目領域と最も類似している領域であるから、対応画素は、注目画素と同じ被写体が表示される領域ということができる。
 また、例えば相関を利用して対応画素の探索が行なわれる場合、対応点探索部51は、視差検出用画像上の1つの画素を注目画素とするとともに、視差検出用画像上の注目画素を中心とする所定領域を、注目領域とする。また、対応点探索部51は、注目領域と同じ大きさの基本画像上の所定の領域を対応注目領域として、注目領域と対応注目領域の相関値を算出する。
 例えば、注目領域と対応注目領域がN個の画素からなる領域であり、注目領域のi番目(但し、1≦i≦N)の画素の画素値をx,このi番目の画素と同じ位置にある対応注目領域の画素の画素値をyとすると、相関値Cは、次式(1)により求められる。
Figure JPOXMLDOC01-appb-M000001
 なお、式(1)において、Xは、注目領域内の画素の画素値の平均値を示しており、Yは、対応注目領域内の画素の画素値の平均値を示している。このようにして求められる相関値Cは、注目領域と対応注目領域の相関が高いほど大きくなる。
 対応点探索部51は、基本画像上の対応注目領域の位置を移動させながら相関値Cを計算することで、相関値Cが最大となる対応注目領域を探索する。そして、対応点探索部51は、相関値Cが最大となる対応注目領域の中心に位置する画素、つまり注目画素と同じ位置にある画素を、注目画素に対する対応画素とする。このように、相関値を利用すれば、視差検出用画像と基本画像とに輝度差がある場合においても、高い精度で対応画素を検出することができる。
 ステップS15において、視差画像生成部44は、対応画素の探索結果に基づいて視差画像を生成し、得られた視差画像を画像メモリ43に供給して記憶させる。視差画像生成部44は、基本画像上において、視差検出用画像の各画素の位置まで、それらの画素に対する対応画素を移動させたり、対応画素を用いた補間処理を行ったりして視差画像を生成する。
 具体的には、例えば、視差画像生成部44は、これから生成しようとする視差画像上の画素を注目画素とし、注目画素と同じ位置にある視差検出用画像の画素に対する対応画素の画素値を、注目画素の画素値とすることで視差画像を生成する。この場合、視差検出用画像上の各画素が、それらの画素に対応する基本画像上の対応画素で置き換えられて得られた画像が、視差画像とされる。
 このように1つの高画質な基本画像を用いて左右の視差画像を生成すれば、明るさや解像度等の画質は、基本画像のものが視差画像に反映されるため、結果として、左右で明るさや解像度等の画質が均等な視差画像を得ることができる。
 このようにして得られた視差画像は、画像メモリ43に記憶された後、符号化部45により符号化されて後段に出力される。後段に出力された視差画像は、表示部に表示されたり、記憶部に記憶されたりする。撮像装置11から視差画像が出力されると、視差画像生成処理は終了する。
 以上のように、透過型ミラー35において、入射光を所定透過率で透過させて基本画像を撮像させると同時に、残りの入射光を左右に分光して、左右の視差検出用画像を撮像させることで、被写体の画像の画質を劣化させることなく、視差情報を得ることができる。
 特に、透過型ミラー35の透過率を適切に設定することにより、撮像素子39および撮像素子40に対して適切な光量配分、つまり適切な画質配分が行なわれる。そして、撮像により得られた基本画像と視差検出用画像を用いれば、基本画像の画質を保ったまま、視差の大きさが適正で左右均等な画質の視差画像を得ることができ、これにより高品位な立体画像を表示することができるようになる。
[入射瞳の分割について]
 次に、左右の視差画像の視差について説明する。図3は、撮像装置11における入射瞳PUのイメージ図である。
 瞳(pupil)とは、レンズを被写体側、または結像側から見たときの開口絞りの像である。撮像装置11では、入射瞳PUは絞り34の像である。ここで、入射瞳PUに相当する円の半径をrとすると、次式(2)が成り立つ。
 2r=f/F   ・・・(2)
 なお、式(2)において、fはリレーレンズ部33の焦点距離であり、Fはリレーレンズ部33のF値である。したがって、焦点距離を固定した場合、入射瞳PUの直径2rとF値は反比例の関係にあることが分かる。
 撮像装置11では、集光された入射光を絞り34の位置で左右に分光するため、入射瞳PUの円を、図3中、左右に分割した左半円および右半円について考察する。立体感は、ユーザの両眼間の視差(相対視差)に基づいて得られるが、入射瞳PUにおいては、視差を決定する光軸は左半円および右半円のそれぞれの重心を通るものと考えられる。
 半径rの半円の重心は、幾何学的に求めることができ、円の中心から4r/3πの距離に位置する。したがって、左半円の重心GLと右半円の重心GRとの距離(重心間距離D)は、次式(3)により求まる。
 D=8r/3π   ・・・(3)
 この式(3)から、重心間距離D、つまり透過型ミラー35で分光される左右の入射光の光束の重心間の距離は、絞り34を絞ると、それに比例して小さくなることが分かる。換言すれば、絞り34の口径を変化させることにより、得られる立体感を調整することができることになる。このような前提を確認するために行った実験の結果を以下に示す。
[重心間距離と基線長(ベースライン)の関係]
 図4は、重心間距離Dと基線長(ベースライン)との関係を示す図である。ここでは、交換レンズ21として#Aおよび#Bの2種類のレンズについて、重心間距離の理論値と基線長の実験値とを示している。
 レンズ#Aは、開放F値が1.8で、焦点距離が10乃至100mmのズームレンズである。このレンズ#Aのズーム比は10倍であり、ワイド端(広角側の端)における焦点距離は10mmである。レンズ#Bは、開放F値が2.8で、焦点距離が13.5乃至570mmのズームレンズである。このレンズ#Bのズーム比は42倍であり、ワイド端(広角側の端)における焦点距離は13.5mmである。両者ともに、撮影距離(被写体から撮像素子までの距離)は6.5mを想定している。
 上述した式(2)および式(3)より、レンズ#Aおよび#Bの重心間距離Dは、それぞれ23.1mmおよび14.9mmであると計算される。一方、実装置において実験により求められた基線長は、レンズ#Aおよび#Bについてそれぞれ20.0mmおよび12.0mmとなった。
 この実験結果から、回折効果によると推測される理論値からの減少が見られるものの、絞り34の像である入射瞳PUの半円の重心間距離Dがほぼ基線長に匹敵するものであることが分かる。また、式(3)より、重心間距離Dは絞り34の口径によって変化させることが可能であり、したがって、基線長も絞り34の口径によって制御可能であることが分かる。
 撮像装置11によれば、重心間距離Dの最小値として、およそ7mm程度を想定することができる。基線長としてもこの程度の値であれば立体感を感じさせることができると考えられる。特に、撮影距離が長い場合、基線長がある程度長くないと立体感が得られなくなると考えられる。基線長を増していくと、およそ32mm程度になると立体感はより明確になり、その反面、背景のぼやけ具合は大きくなっていく。そして、基線長が65mmを超える領域になると、箱庭効果が生じて不自然な画作りになってしまうと考えられる。したがって、立体映像として自然に見える範囲としては、基線長が7乃至65mm程度であると考えられる。
[ズームによる拡大と視差との関係]
 図5は、ズームによる被写体像の拡大と視差との関係を示す図である。図5のAでは、左眼位置をL、右眼位置をRとし、被写体上の点をAおよびBとしている。点Aを見込んだ角LARを点Aの輻輳角θとし、点Bを見込んだ角LBRを点Bの輻輳角θとすると、点Aと点Bの視差(相対視差)dは、次式(4)により与えられる。
 d=θ-θ   ・・・(4)
 ここで、角ALBをh、角ARBをgとすると、輻輳角θはほぼ角hと等しく、輻輳角θはほぼ角gと等しい。したがって、式(4)から次式(5)が得られる。
 d=g-h   ・・・(5)
 また、両眼間距離をD、両眼から点Aまでの距離をD、両眼から点Bまでの距離をDとし、両眼から見た点Aと点Bとの距離をδとすると、g≒D/D,h≒D/D,D=D-δであるから、式(5)からd≒Dδ/(D -δD)が得られる。ここで、D>>δであるから、d≒Dδ/D が成り立つ。
 また、図5のBは、図5のAに比べてn倍の拡大を行った場合の位置関係を示す図である。図5のBでは、ズーム後に変化した角度や位置および距離にはそれぞれの記号の最後にダッシュが付されている。
 図5のBの例では、被写体像がn倍に拡大されるので、g’=ng,h’=nhとなる。このとき、視差d’は、次式(6)のように表される。
 d’=θ’-θ
 =g’-h’
 =n(g-h)
 =nd        ・・・(6)
 式(6)から分かるように、n倍の拡大によりn倍の視差が生じることになる。これは、テレ端側(望遠側の端)へズームしていくと、表示される被写体の立体感が増すことを意味する。換言すれば、ズーム撮影においては、短い基線長でも適正な視差を得ることができることになる。
 このように、撮像装置11によれば、一つの交換レンズ21によって集光された光を透過型ミラー35およびミラー36によって左右に分光することにより、両眼に呈示される画像の視差を適正に小さくすることができる。
 撮像装置11において得られる視差は、絞り34の口径およびズーム撮影におけるズーム比(拡大率)によって制御可能である。つまり、絞り34の口径や交換レンズ21によるズーム倍率を制御することで、適度な視差を有する視差画像を得ることができる。
 一般に、視差に対する眼の感度は高く、通常視力が視角で分オーダであるのに対し、視差については1オーダ高い分解能があるとされている(Howard I. P., Rogers B. J.: Stereo Acuity (Chap.5), Binocular Vision and Stereopsis, P.162, Oxford University Press, Oxford (1995).参照)。したがって、視差を適正に小さくすることは、上記の例よりも小さな視差の条件下であっても、自然に立体感を知覚させ、視覚疲労を軽減するためにも重要である。
[撮像装置の他の構成例]
 なお、以上においては、撮像装置11内部で、視差検出用画像および基本画像から視差画像を生成すると説明したが、撮像装置11の外部で視差画像が生成されるようにしてもよい。
 そのような場合、撮像装置11は、例えば図6に示すように構成される。なお、図6において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図6の撮像装置11は、図1の撮像装置11とは信号処理部41乃至符号化部45が設けられていない点で異なり、他の構成は同じとなっている。すなわち、図6の撮像装置11は、撮像部81のみから構成され、被写体からの入射光を受光することで、視差検出用画像および基本画像を撮像し、得られた視差検出用画像と基本画像を出力する。
 撮像装置11から出力された視差検出用画像および基本画像は、後段の映像生成部82に入力され、映像生成部82は、これらの画像に基づいて視差画像を生成し、出力する。
〈第2の実施の形態〉
[映像記憶再生システムの構成例]
 次に、本発明を適用した他の実施の形態について説明する。図7は、本発明を適用した映像記憶再生システムの構成例を示す図である。この映像記憶再生システムは、撮像部81、映像生成部82、映像記憶部83、映像再生部84、および表示部85から構成される。なお、図7において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 撮像部81は基本画像、および左右の視差検出用画像を撮像して、映像生成部82に供給する。映像生成部82は、撮像部81から供給された基本画像と視差検出用画像とを用いて視差画像を生成し、映像記憶部83に記憶させる。
 映像記憶部83は、映像生成部82から供給された視差画像を一時的に記憶する。映像再生部84は、映像記憶部83から視差画像を読み出して表示部85に供給し、表示部85に立体画像を表示させる。
 映像再生部84は、復号部151-1、復号部151-2、表示制御部152-1、および表示制御部152-2から構成される。復号部151-1および復号部151-2は、映像記憶部83から、それぞれ左眼用の視差画像および右眼用の視差画像を読み出して復号し、表示制御部152-1および表示制御部152-2に供給する。
 表示制御部152-1および表示制御部152-2は、復号部151-1および復号部151-2から供給された視差画像を表示部85に供給して表示させる。なお、以下、復号部151-1および復号部151-2を特に区別する必要のない場合、単に復号部151とも称し、表示制御部152-1および表示制御部152-2を特に区別する必要のない場合、単に表示制御部152とも称する。
 表示部85は、表示制御部152から供給された視差画像を、所定の表示方式で立体表示させる。例えば、表示部85としては、2台のプロジェクタに円偏光または直線偏光のフィルタを取り付けて左右の視差画像をそれぞれ呈示させ、ユーザが、表示に対応した円偏光または直線偏光の眼鏡を装着して、視差画像を視聴するような態様が考えられる。
 また、表示部85をフィルタ付きフラットパネルディスプレイにより構成し、レンチキュラレンズ方式や、パララックスバリア方式等の視聴に眼鏡を必要としない表示方式により、フラットパネルディスプレイに左右の視差画像を同時に呈示させてもよい。特に、表示部85における表示方式を、左右の視差画像を交互に表示させるのではなく、これらの視差画像を同時に表示させる表示方式とすれば、ユーザの視覚疲労を軽減させることができる。
[視差画像生成処理の説明]
 次に、映像記憶再生システムの動作について説明する。
 例えば、ユーザが映像記憶再生システムに対して、被写体を立体表示させるための左右の視差画像の生成を指示すると、映像記憶再生システムは視差画像生成処理を開始して、視差画像を生成する。以下、図8のフローチャートを参照して、映像記憶再生システムにより行われる視差画像生成処理について説明する。
 なお、ステップS41乃至ステップS45の処理は、図2のステップS11乃至ステップS15の処理と同様であるので、その説明は適宜省略する。これらの処理において、視差画像が生成されると、生成された視差画像は、画像メモリ43に供給されて記憶される。
 すると、ステップS46において、映像生成部82の符号化部45は、画像メモリ43から視差画像を読み出して符号化し、映像記憶部83に供給する。そして、ステップS47において、映像記憶部83は、符号化部45から供給された視差画像を記憶して、視差画像生成処理は終了する。
 以上のように、透過型ミラー35において、入射光を所定透過率で透過させて基本画像を撮像させると同時に、残りの入射光を左右に分光して、左右の視差検出用画像を撮像させることで、被写体の画像の画質を劣化させることなく、視差情報を得ることができる。
[視差画像再生処理の説明]
 次に、図9のフローチャートを参照して、視差画像生成処理により映像記憶部83に記憶された視差画像に基づいて、視差画像を再生する視差画像再生処理について説明する。この視差画像再生処理は、ユーザにより視差画像の再生が指示されると、開始される。
 ステップS71において、復号部151は、再生が指示された視差画像を映像記憶部83から読み出す。そして、ステップS72において、復号部151は、読み出した視差画像を復号して表示制御部152に供給する。
 ステップS73において、表示制御部152は、復号部151から供給された視差画像を表示部85に供給して立体表示させ、視差画像再生処理は終了する。これにより、表示部85には、視差画像上の被写体が立体表示されることになる。
 ところで、図7の映像記憶再生システムでは、視差画像の生成から視差画像の表示までを高フレームレート化することにより、動きによるボケ(Blur)やジャーキネス(Jerkiness)の解消が図られている。
 動きによるボケは、撮像時のMTF(Modulation Transfer Function)の低下に加えて、特に、ホールド型表示において移動する被写体を追従して見る際(追従視)、映像の網膜上のスリップにより多く発生する。ここで、ホールド型表示とは、フレーム期間中、フィルムや液晶プロジェクタ等に映像が継続して表示される表示方法をいう。
 また、ジャーキネスは、映像の滑らかさが失われて、動きがギクシャクすることをいう。このジャーキネスは、高速シャッタを用いて撮像された映像を、視線を固定して見る際(固定視)に多く発生する。こうした動画質劣化には、撮像と表示のフレームレートやカメラの撮像の開口率(開口時間/フレーム時間)、視覚特性等が関与する。
 映画では毎秒24フレーム(24Hz)、テレビジョン放送では毎秒60フィールド(60Hz)のフレームレートが標準的に用いられている。映像記憶再生システムでは、動きによるボケやジャーキネスを考慮して、毎秒60フレーム(60Hz)以上のレート、好ましくは毎秒230乃至250フレーム(240Hz±10Hz)のレートで、視差検出用画像および基本画像の撮像が行われる。これにより、時間方向の分解能不足を解消するとともに、動きのある被写体に対しては、正確な輪郭情報を得ることができるようになる。
 さらに、放送方式を考慮すると、ヨーロッパで多く用いられている毎秒50フレーム(50Hz)と日本やアメリカで用いられている毎秒60フレーム(60Hz)の公倍数として、毎秒290乃至310フレーム(300Hz±10Hz)のレートは、画像合成や、レート変換の処理等の画像処理を容易にする点で重用である。
 さらに、この毎秒290乃至310フレーム(300Hz±10Hz)のレートに、さらに映画の毎秒24フレーム(24Hz)を加えた公倍数として、毎秒590乃至610フレーム(600Hz±10Hz)のレートも、画像処理を容易にする点で重用である。したがって、毎秒290乃至310フレームのレートや、毎秒590乃至610フレームのレートで、視差検出用画像および基本画像の撮像が行われるようにしてもよい。
 このように、映像記憶再生システムによれば、両眼に呈示される画像の視差を適正な大きさとし、さらに画像の撮像を高フレームレート化することにより、人が自然界を見ているときに近い、見易く収差の小さい高品質な立体画像を撮像することができる。また、光軸が交換レンズ21のズーム比によって実用上変化せず、像の位置をズーム比によって移動させる等の画像処理を必要としないため、容易に高精度なズーム効果を実現することができる。
[映像記憶再生システムの他の構成例]
 さらに、図7では、映像記憶再生システムの例として、各種の信号処理が施された視差検出用画像と基本画像から、視差画像が生成される場合について説明したが、視差検出用画像と基本画像がRAW画像である状態で、これらの画像から視差画像が生成されるようにしてもよい。
 そのような場合、映像記憶再生システムは、例えば図10に示すように構成される。なお、図10において、図1または図7における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。
 図10の映像記憶再生システムは、図7の映像記憶再生システムとは、図7の映像記憶再生システムの映像生成部82に代えて映像生成部181が設けられている点で異なり、その他の構成は同じとされている。
 図10の映像記憶再生システムでは、撮像部81から映像生成部181には、視差検出用画像および基本画像が供給される。すなわち、撮像部81の撮像素子39から出力された基本画像は、映像生成部181の信号処理部42-1および信号処理部42-2に供給される。また、撮像部81の撮像素子40-1および撮像素子40-2から出力された視差検出用画像は、映像生成部181の信号処理部42-1および信号処理部42-2に供給される。
 信号処理部42-1は、撮像部81から供給された視差検出用画像および基本画像に対して、A/D変換処理を施し、視差画像生成部44-1に供給する。視差画像生成部44-1は、信号処理部42-1から供給された視差検出用画像と基本画像に基づいて、視差画像を生成し、信号処理部42-1に供給する。このとき、視差画像生成部44-1に設けられた対応点探索部51-1は、視差検出用画像の各画素について、基本画像から対応画素を探索する。
 また、信号処理部42-1は、視差画像生成部44-1から供給された視差画像に対して、デモザイク処理やホワイトバランス調整処理等の各種の信号処理を施して、画像メモリ43-1に供給し、記憶させる。画像メモリ43-1に供給された視差画像は、符号化45-1により読み出されて符号化され、映像記憶部83に供給される。
 同様に、信号処理部42-2は、撮像部81から供給された視差検出用画像および基本画像に対して、A/D変換処理を施し、視差画像生成部44-2に供給する。視差画像生成部44-2は、信号処理部42-2から供給された視差検出用画像と基本画像に基づいて、視差画像を生成し、信号処理部42-2に供給する。このとき、視差画像生成部44-2に設けられた対応点探索部51-2は、視差検出用画像の各画素について、基本画像から対応画素を探索する。
 また、信号処理部42-2は、視差画像生成部44-2から供給された視差画像に対して、デモザイク処理やホワイトバランス調整処理等の各種の信号処理を施して、画像メモリ43-2に供給し、記憶させる。画像メモリ43-2に供給された視差画像は、符号化45-2により読み出されて符号化され、映像記憶部83に供給される。
 このように、視差検出用画像と基本画像がRAW画像である状態で、視差画像を生成すれば、より高品質な視差画像を得ることができる。
 なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
 11 撮像装置, 21 交換レンズ, 33 リレーレンズ部, 34 絞り, 35-1,35-2,35 透過型ミラー, 36-1,36-2,36 ミラー, 37 集光レンズ, 38-1,38-2,38 集光レンズ, 39 撮像素子, 40-1,40-2,40 撮像素子, 44-1,44-2,44 視差画像生成部, 51-1,51-2,51 対応点探索部

Claims (12)

  1.  被写体からの入射光を集光する第1の集光手段と、
     前記第1の集光手段により集光された前記入射光を伝送して平行光とする伝送手段と、 前記伝送手段により平行光とされた前記入射光を所定の透過率で透過させるとともに、前記平行光とされた前記入射光の一部を左右に分光する分光手段と、
     前記分光手段を透過した前記入射光を集光する第2の集光手段と、
     前記第2の集光手段により集光された前記入射光を電気信号に変換することで、前記被写体の基本画像を撮像する第1の撮像手段と、
     前記分光手段により分光された前記入射光のそれぞれを集光する第3の集光手段と、
     前記第3の集光手段により集光された前記入射光のそれぞれを電気信号に変換することで、互いに視差を有する視差検出画像を撮像する第2の撮像手段と
     を備える撮像装置。
  2.  前記視差検出画像のそれぞれについて、前記基本画像に基づいて、前記視差検出画像と同じ視点の画像を生成することで、前記被写体を立体表示させるための視差画像を生成する視差画像生成手段をさらに備える
     請求項1に記載の撮像装置。
  3.  前記視差画像生成手段は、これから生成しようとする前記視差画像の画素を注目画素として、前記注目画素と同じ位置にある前記視差検出画像の画素に対応する前記基本画像上の画素の画素値に基づいて、前記注目画素の画素値を求めることにより、前記視差画像を生成する
     請求項2に記載の撮像装置。
  4.  前記伝送手段と前記分光手段との間に配置され、前記分光手段により左右に分光される前記入射光の重心間の距離が変化するように、前記伝送手段からの前記入射光の一部を遮光する光量調整手段をさらに備える
     請求項2に記載の撮像装置。
  5.  前記光量調整手段は、前記重心間の距離が7乃至65mmとなるように、前記入射光の一部を遮光する
     請求項4に記載の撮像装置。
  6.  前記第1の集光手段は、前記被写体の像を拡大させるズームレンズを備え、前記視差検出画像間の相対視差は、前記ズームレンズによる前記被写体の像の拡大倍率により制御される
     請求項2に記載の撮像装置。
  7.  前記第1の撮像手段、および前記第2の撮像手段は、毎秒60フレーム以上のレートで、前記基本画像および前記視差検出画像を撮像する
     請求項2に記載の撮像装置。
  8.  前記第1の撮像手段、および前記第2の撮像手段は、毎秒230乃至250フレームのレートで、前記基本画像および前記視差検出画像を撮像する
     請求項7に記載の撮像装置。
  9.  前記第1の撮像手段、および前記第2の撮像手段は、毎秒290乃至310フレームのレートで、前記基本画像および前記視差検出画像を撮像する
     請求項7に記載の撮像装置。
  10.  前記第1の撮像手段、および前記第2の撮像手段は、毎秒590乃至610フレームのレートで、前記基本画像および前記視差検出画像を撮像する
     請求項7に記載の撮像装置。
  11.  前記視差画像を記憶する記憶手段と、
     前記記憶手段に記憶された前記視差画像に基づいて、前記被写体を立体表示させる表示制御手段と
     をさらに備える請求項2に記載の撮像装置。
  12.  被写体からの入射光を集光する第1の集光手段と、
     前記第1の集光手段により集光された前記入射光を伝送して平行光とする伝送手段と、 前記伝送手段により平行光とされた前記入射光を所定の透過率で透過させるとともに、前記平行光とされた前記入射光の一部を左右に分光する分光手段と、
     前記分光手段を透過した前記入射光を集光する第2の集光手段と、
     前記第2の集光手段により集光された前記入射光を電気信号に変換することで、前記被写体の基本画像を撮像する第1の撮像手段と、
     前記分光手段により分光された前記入射光のそれぞれを集光する第3の集光手段と、
     前記第3の集光手段により集光された前記入射光のそれぞれを電気信号に変換することで、互いに視差を有する視差検出画像を撮像する第2の撮像手段と
     を備える撮像装置の撮像方法であって、
     前記第1の集光手段が前記入射光を集光し、
     前記伝送手段が前記第1の集光手段からの前記入射光を伝送し、
     前記分光手段が前記伝送手段からの前記入射光を透過させるとともに、前記入射光の一部を分光し、
     前記第2の集光手段が前記分光手段を透過した前記入射光を集光し、
     前記第1の撮像手段が前記基本画像を撮像し、
     前記第3の集光手段が分光された前記入射光を集光し、
     前記第2の撮像手段が前記視差検出画像を撮像する
     ステップを含む撮像方法。
PCT/JP2011/077841 2010-12-08 2011-12-01 撮像装置および撮像方法 WO2012077574A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP11846733.1A EP2651114B1 (en) 2010-12-08 2011-12-01 Image capture device and image capture method
CA2816433A CA2816433A1 (en) 2010-12-08 2011-12-01 Imaging apparatus and imaging method
US13/990,814 US9239464B2 (en) 2010-12-08 2011-12-01 Imaging apparatus and imaging method
BR112013013514A BR112013013514A2 (pt) 2010-12-08 2011-12-01 aparelho e método de geração de imagem
CN201180057985.6A CN103238316B (zh) 2010-12-08 2011-12-01 成像设备和成像方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-273648 2010-12-08
JP2010273648A JP2012124704A (ja) 2010-12-08 2010-12-08 撮像装置および撮像方法

Publications (1)

Publication Number Publication Date
WO2012077574A1 true WO2012077574A1 (ja) 2012-06-14

Family

ID=46207064

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/077841 WO2012077574A1 (ja) 2010-12-08 2011-12-01 撮像装置および撮像方法

Country Status (7)

Country Link
US (1) US9239464B2 (ja)
EP (1) EP2651114B1 (ja)
JP (1) JP2012124704A (ja)
CN (1) CN103238316B (ja)
BR (1) BR112013013514A2 (ja)
CA (1) CA2816433A1 (ja)
WO (1) WO2012077574A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469340B (zh) * 2014-12-01 2017-03-15 深圳凯澳斯科技有限公司 一种立体视频共光心成像系统及其成像方法
CN107622741A (zh) * 2017-10-13 2018-01-23 北京眸合科技有限公司 一种空中悬浮显示系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009300268A (ja) * 2008-06-13 2009-12-24 Nippon Hoso Kyokai <Nhk> 3次元情報検出装置
JP2010081580A (ja) 2008-08-29 2010-04-08 Sony Corp 撮像装置および映像記録再生システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE512621C2 (sv) * 1993-12-06 2000-04-10 Nobel Biocare Ab Metod och kamera för stereofotografering av tänder
US20070201859A1 (en) * 2006-02-24 2007-08-30 Logitech Europe S.A. Method and system for use of 3D sensors in an image capture device
DE102006055641B4 (de) * 2006-11-22 2013-01-31 Visumotion Gmbh Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
CN101191878A (zh) * 2006-11-28 2008-06-04 鸿富锦精密工业(深圳)有限公司 立体取像相机模组及电子装置
US9380284B2 (en) * 2008-04-03 2016-06-28 Nlt Technologies, Ltd. Image processing method, image processing device and recording medium
JP2010049134A (ja) * 2008-08-25 2010-03-04 Sony Corp 撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009300268A (ja) * 2008-06-13 2009-12-24 Nippon Hoso Kyokai <Nhk> 3次元情報検出装置
JP2010081580A (ja) 2008-08-29 2010-04-08 Sony Corp 撮像装置および映像記録再生システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HOWARD I. P.; ROGERS B. J.: "Binocular Vision and Stereopsis", 1995, OXFORD UNIVERSITY PRESS, article "Stereo Acuity", pages: 162

Also Published As

Publication number Publication date
EP2651114A4 (en) 2016-11-16
EP2651114B1 (en) 2019-07-17
JP2012124704A (ja) 2012-06-28
US20130258069A1 (en) 2013-10-03
CN103238316A (zh) 2013-08-07
EP2651114A1 (en) 2013-10-16
BR112013013514A2 (pt) 2016-10-11
US9239464B2 (en) 2016-01-19
CN103238316B (zh) 2016-02-10
CA2816433A1 (en) 2012-06-14

Similar Documents

Publication Publication Date Title
JP5531483B2 (ja) 撮像装置および映像記録再生システム
JP5391914B2 (ja) 撮像装置および映像記録再生システム
WO2012029298A1 (ja) 撮影装置および画像処理方法
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
WO2012029301A1 (ja) 撮影装置、再生装置、および画像処理方法
WO2012029299A1 (ja) 撮影装置、再生装置、および画像処理方法
WO2010024270A1 (ja) 撮像装置および映像記録再生システム
JP2010068182A (ja) 3次元撮影装置および方法並びにプログラム
JP5912382B2 (ja) 撮像装置および映像記録再生システム
WO2012077574A1 (ja) 撮像装置および撮像方法
JP4588439B2 (ja) 立体視画像撮影装置および方法
JP2012088549A (ja) 立体画像撮像装置、立体画像表示装置、および立体画像撮像表示装置
JP2004120600A (ja) デジタル双眼鏡
JP6237811B2 (ja) 撮像装置および映像記録再生システム
JP2013046395A (ja) 撮像装置及びその制御方法、プログラム、及び記録媒体
JP2018182470A (ja) 波長選択偏光分離方式を採用した立体撮像装置
JP2011164504A (ja) レンズ鏡筒およびそれを用いた撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11846733

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2816433

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2011846733

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13990814

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013013514

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112013013514

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20130531