WO2011108283A1 - 立体撮像装置および立体撮像方法 - Google Patents

立体撮像装置および立体撮像方法 Download PDF

Info

Publication number
WO2011108283A1
WO2011108283A1 PCT/JP2011/001288 JP2011001288W WO2011108283A1 WO 2011108283 A1 WO2011108283 A1 WO 2011108283A1 JP 2011001288 W JP2011001288 W JP 2011001288W WO 2011108283 A1 WO2011108283 A1 WO 2011108283A1
Authority
WO
WIPO (PCT)
Prior art keywords
stereoscopic
parallax
subject
image
unit
Prior art date
Application number
PCT/JP2011/001288
Other languages
English (en)
French (fr)
Inventor
山下 春生
井東 武志
弘道 小野
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012503025A priority Critical patent/JP5444452B2/ja
Priority to US13/582,052 priority patent/US9049434B2/en
Publication of WO2011108283A1 publication Critical patent/WO2011108283A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Definitions

  • a stereoscopic imaging device (a stereoscopic imaging device) having a two-lens configuration having two optical systems (an optical system for the right eye and an optical system for the left eye) is often used.
  • Some of such binocular stereoscopic imaging devices can change stereoscopic imaging parameters typified by the intersection angle (hereinafter referred to as “convergence angle”) of optical axes of two optical systems.
  • the stereoscopic imaging / display technology has a problem due to visual conditions.
  • a parallax image stereo image
  • a parallax image with a large absolute value of parallax
  • the captured parallax image is displayed on the display.
  • the parallax image is recognized as an image that cannot be fused, that is, a simple double image (an image that cannot be stereoscopically viewed). Even if the parallax image (stereoscopic image) can be stereoscopically viewed, it may be an extremely tired image.
  • the stereoscopic imaging / display technology has a problem in that an inappropriate parallax image (stereoscopic image) is captured and displayed due to human visual characteristics.
  • an inappropriate parallax image stereoscopic image
  • the vertical shift is basically corrected by checking the matching of the two images and shifting the image up and down so as to correct the shift component in the vertical direction. Is possible.
  • it is difficult to correct the lateral displacement because it cannot be distinguished whether the displacement is due to insufficient accuracy of the optical system or the like or the original parallax due to stereoscopic shooting.
  • An object of the present invention is to provide a stereoscopic imaging apparatus, a stereoscopic imaging method, and a program for acquiring a stereoscopic image (stereoscopic video) to be performed.
  • the stereoscopic availability determination unit determines whether or not the generated stereoscopic video is easy to stereoscopically view when shooting the stereoscopic video.
  • the control unit sets a control mode for changing the positional relationship between the own apparatus and the subject.
  • this stereoscopic imaging device when the stereoscopic vision availability determining unit determines that the stereoscopic video is difficult to stereoscopically view (including a case where it is determined that the scene to be stereoscopically photographed is not stereoscopically visible), the control unit A control mode for changing the positional relationship between the own apparatus and the subject is set.
  • the risk of stereoscopic shooting in a state where an appropriate stereoscopic image cannot be acquired is reduced, and an assist function that guides the photographer to a state where an appropriate stereoscopic image can be acquired is easily realized. be able to.
  • 2nd invention is 1st invention, Comprising: When a control mode is distance change mode, a control part does not perform stereoscopic photography. Thereby, in this stereoscopic imaging device, stereoscopic imaging is not performed in a state where an appropriate stereoscopic image cannot be acquired.
  • 3rd invention is 1st or 2nd invention, Comprising: The control part performs the change of the distance of a self-apparatus and a to-be-photographed object, and the scene which is going to perform stereoscopic imaging is stereoscopically viewed by the stereoscopic vision availability determination part. If it is determined that it is easy to perform, the control mode is shifted to a stereoscopic photography enabling mode capable of stereoscopic photography.
  • this stereoscopic imaging device it is ensured that stereoscopic shooting is not executed in a state where an appropriate stereoscopic image cannot be acquired, and a state where a scene to be stereoscopically captured is easily stereoscopically viewed (including a stereoscopically visible state). ),
  • the mode shifts to the 3D shooting enabled mode and 3D shooting can be performed. Therefore, in this stereoscopic imaging device, an appropriate stereoscopic image (stereoscopic video) can always be acquired.
  • the disparity angle of the far subject is ⁇ f
  • the disparity angle of the closest subject at the current position of the own device is ⁇ n
  • the disparity angle of the farthest subject at the rear position after the movement of the own device is ⁇ f ′
  • the rear position after the movement of the own device is ⁇ x
  • a sixth invention is the invention according to any one of the first to fifth inventions, wherein the control unit moves the own device from the current position to the rear position after the movement, whereby the size of the subject to be stereoscopically photographed.
  • the zoom magnification in the image capturing unit that compensates for the amount of decrease is calculated, and zoom processing is performed so that the zoom magnification in the image capturing unit becomes the calculated zoom magnification.
  • zoom processing with the zoom magnification, it is possible to perform stereoscopic shooting without greatly changing the size of the subject on the virtual screen (live view image, viewfinder image, etc.). it can.
  • the reference subject for calculating the zoom magnification is preferably a main subject (for example, a person, a subject in focus, a subject with a convergence point, etc.).
  • the stereoscopic imaging apparatus may calculate the zoom magnification as (Rc + ⁇ R) / Rc.
  • the control unit detects, from the parallax detected by the parallax detection unit, the farthest point subject and the closest point subject included in the scene to be photographed. (2) The control unit obtains the maximum zoom magnification at which the detected farthest point and closest point are within the fusion zone. (3) The control unit limits the wide-angle end of the zoom based on the zoom magnification (determines the field angle adjustment range).
  • a ninth invention is any one of the first to third inventions, and further includes a warning unit for warning the photographer. Then, when the stereoscopic vision determination unit determines that the scene to be stereoscopically photographed is impossible to stereoscopically view, it is determined that there is a foreground subject near the end of the virtual screen in the scene to be stereoscopically photographed. In this case, the warning unit warns the photographer to move his / her own device in the horizontal direction so that the subject in the foreground is excluded from the virtual screen. As a result, in this stereoscopic imaging apparatus, an insignificant foreground subject at the end of the virtual screen can be excluded from the shooting scene, and appropriate stereoscopic shooting can be performed. In addition, it is preferable that a warning part warns the direction to which the own apparatus (stereoscopic imaging apparatus) is moved, and a moving distance.
  • parallax detection step parallax is detected for each pixel block composed of one or a plurality of pixels from the first viewpoint video and the second viewpoint video.
  • stereoscopic availability determination step it is determined based on the parallax and display parameters detected in the parallax detection step whether or not the scene to be stereoscopically taken is easily stereoscopically viewed during stereoscopic shooting.
  • the control mode is a control mode for changing the positional relationship between the own device and the subject. Set to distance change mode.
  • This stereoscopic imaging method includes a parallax detection step, a stereoscopic vision availability determination step, and a control step.
  • parallax detection step parallax is detected for each pixel block composed of one or a plurality of pixels from the first viewpoint video and the second viewpoint video.
  • stereoscopic availability determination step it is determined based on the parallax and display parameters detected in the parallax detection step whether or not the scene to be stereoscopically taken is easily stereoscopically viewed during stereoscopic shooting.
  • the control mode when it is determined in the stereoscopic vision determination step that the scene to be stereoscopically photographed is impossible, the control mode is a control mode for changing the positional relationship between the own device and the subject. Set to distance change mode.
  • a stereoscopic image (which realizes an appropriate stereoscopic effect and / or desired localization without being affected by parallax in the left-right direction caused by insufficient accuracy (particularly, insufficient optical accuracy) of the stereoscopic imaging apparatus ( 3D imaging apparatus, 3D imaging method, and program can be realized.
  • the stereoscopic imaging apparatus 3D imaging apparatus, 3D imaging method, and program
  • it is possible to shoot excellent stereoscopic images in many scenes by determining whether stereoscopic viewing is possible at the time of shooting and viewing without getting tired is made close to the feeling when actually seen by humans.
  • a stereoscopic imaging device, a stereoscopic imaging method, and a program that can be realized can be realized.
  • the flowchart of the parallax correction in the 1st modification of 1st Embodiment The figure which showed the geometrical relationship (positional relationship) of the element at the time of imaging
  • 9 is a flowchart showing a processing flow of a stereoscopic image acquisition method (parallax correction method) executed by a stereoscopic imaging apparatus according to a third modification of the first embodiment.
  • FIG. 2B is a diagram schematically illustrating an adjustment method using a sensor shift method. For example, as shown in FIG.
  • the second imaging unit 100L includes a second optical system 101L and a second imaging element unit 102L.
  • the second imaging unit 100L condenses light from the subject by the second optical system 101L, and acquires the collected light as a second image signal (left-eye image, L image) by the first imaging element unit 102R. . Then, the second imaging unit 100L outputs the acquired second image signal to the second A / D conversion unit 103L.
  • focus control is executed in accordance with an instruction from the focus control unit 123.
  • congestion control is executed in accordance with an instruction from the congestion control unit 124.
  • the second imaging unit 100L has a function capable of adjusting the convergence angle so that the congestion control is executed in accordance with an instruction from the congestion control unit 124.
  • the second A / D conversion unit 103L receives the second image signal (L image) acquired by the second imaging unit 100L, and performs A / D conversion on the input second image signal. Then, the second A / D conversion unit 103L outputs the second image signal converted into the digital signal to the parallax detection unit 104 and the second parallax addition unit 111L.
  • the parallax detection unit 104 receives the first image signal (R image) output from the first A / D conversion unit 103 and the second image signal (L image) output from the second A / D conversion unit 103L.
  • the parallax detection unit 104 performs matching processing on the input R image and L image, and detects the binocular parallax amount. Then, the parallax detection unit 104 outputs information regarding the detected binocular parallax amount to the minimum parallax detection unit 105, the maximum parallax detection unit 106, and the main subject parallax detection unit 107.
  • the minimum parallax detection unit 105 receives the information regarding the binocular parallax amount output from the parallax detection unit 104, and based on the input information regarding the binocular parallax amount, the closest parallax in the shooting scene (in the captured image). The parallax, that is, the minimum parallax (minimum parallax) is detected. Then, the minimum parallax detection unit 105 outputs information regarding the detected minimum parallax to the control unit 110.
  • the main subject parallax detection unit 107 receives the information about the binocular parallax amount output from the parallax detection unit 104, and based on the input information about the binocular parallax amount, the main subject in the shooting scene (in the captured image) The parallax (main subject parallax) is detected. Then, the main subject parallax detection unit 107 outputs information on the detected main subject parallax to the control unit 110. The main subject parallax detection unit acquires information about which subject is focused from the control unit 110, and identifies the main subject based on the information.
  • the photographer uses the display information setting unit 121 and the localization information setting unit 122 to display the display conditions (display information) for viewing the shot image and where the main subject 900 is positioned before and after the display screen. Enter (set) production conditions (localization information) as to whether localization is performed.
  • the control unit 110 performs various controls such as adjustment of parameters (shooting parameters) during shooting of the stereoscopic imaging apparatus 1000 based on the display information and the localization information set in the display information setting unit 121 and the localization information setting unit 122. .
  • the control unit 110 is included in the first optical system 101R and the second optical system 101L using the focus control unit 123 so that the contrast of the main subject 900 is maximized.
  • the “subject distance” is a concept including an approximate distance from the stereoscopic imaging apparatus 1000 to the subject. For example, (1) the entire lens of the optical system of the stereoscopic imaging apparatus 1000 (the first optical system 101R and / or the first one). 2) the distance from the center of gravity of the optical system 101L) to the subject, (2) the imaging device (the first imaging device unit 102R and / or the second imaging device) of the imaging unit (the first imaging unit 100R and / or the second imaging unit 100L). This is a concept including the distance from the imaging element surface of the element unit 102L) to the subject, (3) the distance from the center of gravity (or center) of the stereoscopic imaging apparatus 1000 to the subject, and the like.
  • the angle of convergence is adjusted by changing the direction of the optical axes of the first imaging unit 100R and the second imaging unit 100L by rotating a predetermined angle by the rotation axis).
  • Sensor shift type The control unit 110 moves (parallel) the imaging element surface of the first imaging element unit 102R of the first imaging unit 100R and the imaging element surface of the second imaging element unit 102L of the second imaging unit 100L. Adjust the direction of the central angle of view.
  • the control unit 110 executes congestion control by combining the above (1) and (2).
  • the parallax detection unit 104 stores and holds the parallax determined for each block in association with the block. That is, the parallax detection unit 104 stores a parallax value of a block corresponding to the parallax map memory 181 (memory capable of storing the parallax of each block of the shooting scene) illustrated in FIG.
  • the far disparity is represented by a positive disparity value
  • the foreground is represented by a negative disparity value.
  • the parallax map memory 181 is implement
  • the main subject parallax detection unit 107 detects the parallax value (main subject parallax value) of the block corresponding to the position of the main subject (subject 900) from the parallax map memory 181. Then, the control unit 110 captures the main subject by the main subject parallax value detected by the main subject parallax detection unit 107 and non-distortion shooting (ideal shooting with no error due to camera performance or the like). The corrected parallax is obtained based on the parallax (ideal parallax) acquired at the same time.
  • FIG. 4 is a diagram for explaining non-distortion shooting.
  • FIG. 4A illustrates imaging elements (imaging points for left-eye images (corresponding to the second optical system) and imaging for right-eye images when the stereoscopic imaging apparatus 1000 having ideal accuracy is used. It is a figure which shows typically the geometric relationship (positional relationship) of a point (corresponding to the first optical system 101R), a virtual screen, and a main subject.
  • FIG. 4B is a diagram schematically showing a geometric relationship (positional relationship) of display elements (left eye position, right eye position, display screen, main subject localization position) at the time of display.
  • the subject in front of the virtual screen VS has negative parallax.
  • a subject at a distance R far from the virtual screen VS is photographed to obtain a parallax of x1 (> 0).
  • the stereoscopic image (R image and L image) photographed by the stereoscopic imaging device 1000 in the state of FIG. 4A is displayed on the display (display screen DS) in the state of FIG.
  • the parallax x on the screen is displayed so as to coincide with the parallax x1 at the time of shooting, the triangle (triangle ABC) connecting the two cameras and the subject in FIG. 4A and the binocular and subject in FIG.
  • a stereoscopic imaging apparatus with ideal accuracy can perform distortion-free shooting without performing parallax adjustment, and a stereoscopic image acquired by the distortion-free shooting (for example, shooting in the state of FIG. 4A). Is displayed in a predetermined viewing environment (for example, the viewing environment in the state of FIG. 4B), thereby generating a stereoscopic image that reproduces a sense of distance that retains a linear relationship with the actual subject distance (subject distance at the time of shooting). Can be displayed. In non-distortion shooting, the localization position of the main subject is irrelevant to which position the virtual screen VS is set.
  • FIG. 5 shows a little exaggeration, but in FIG. 5, the congestion is indicated by a dotted line in FIG. 5.
  • the straight line BP2 and the straight line CP1 do not intersect on the virtual screen VS, that is, on the virtual screen VS, the first imaging unit 100R.
  • the optical axis of (first optical system 101R) does not intersect with the optical axis of second imaging unit 100L (second optical system 101L). Therefore, the subject located on the virtual screen VS also has parallax.
  • the parallax of the subject at the distance R is x2 including the error.
  • the stereoscopic imaging apparatus 1000 detects and corrects an error in the parallax on the virtual screen VS caused by an actual error in the stereoscopic imaging apparatus 1000, thereby performing appropriate parallax adjustment. I do.
  • the main subject parallax value (corresponding to parallax on the virtual screen VS) detected by the main subject parallax detection unit 107 by the control unit 110, and distortion-free shooting (for camera performance and the like).
  • the corrected parallax is obtained based on the parallax (ideal parallax) acquired when the main subject is imaged by (ideal shooting with no error caused by it). Then, the obtained corrected parallax is added to the R image and the L image by the first parallax adding unit 111R and the second parallax adding unit 111L.
  • the R image and the L image are shifted in the horizontal direction by the amount corresponding to the corrected parallax.
  • the first trimming unit 112R and the second trimming unit 112L delete a portion that cannot be adopted as a stereoscopic image (delete a useless portion in constructing the stereoscopic image). Thus, the trimming process is executed.
  • the first parallax adding unit 111R and the second parallax adding unit 111L do not perform the process of adding the corrected parallax.
  • information on the corrected parallax is stored in the header portion of a predetermined image format (video format). , May be output. In this case, the process for adding the corrected parallax and the trimming process can be omitted.
  • Step 401 The control unit 110 displays the subject distance R of the main subject in focus from the control amount of the focus control unit 123 and the main subject on the screen (camera through image (camera through R The approximate position of the image and / or L image)) is detected.
  • Step 402 The main subject parallax detection unit 107 uses the parallax map memory 181 generated by the parallax detection unit 104 (for example, the parallax map memory 181 in FIG. 3) to focus the main subject position (for example, the thick line in FIG. 3). The parallax x2 of the block surrounded by () is acquired.
  • the parallax x2 is determined as follows. (1) An average value of a plurality of parallaxes corresponding to the detected block (including a weighted average value (for example, an average value weighted by a distance from the center), a square average value, and the like) is set as a parallax x2. (2) The parallax of an arbitrary block among a plurality of parallaxes corresponding to the detected block is set as a parallax x2. (3) The parallax of one block at the center position among a plurality of parallaxes corresponding to the detected block is set as the parallax x2.
  • Step 403 The control unit 110 uses the distance R to the main subject, as described with reference to FIG. 4A as an example, and in the case of a camera (stereoscopic imaging device) with no error, the parallax x1 (ideal ideal to be taken by the main subject) Parallax x1) is estimated (calculated). Specifically, the control unit 110 determines the virtual screen (display screen) width W, viewing distance L, stereo from the display information (information for determining the viewing environment) set by the display information setting unit 121 of the stereoscopic imaging apparatus 1000.
  • Step 405 Since ⁇ x can be regarded as a parallax error due to the accuracy of the optical system of the stereoscopic imaging apparatus 1000, it is considered that the same error is superimposed not only on the main subject but also on all subjects. Therefore, the first parallax adding unit 111R and the second parallax adding unit 111L add the corrected parallax ⁇ x to all the pixels of the stereoscopic image using the parallax error ⁇ x as a correction error (the R image and the L image are horizontally corrected by the corrected parallax ⁇ x). Shift in the direction).
  • the parallax of the subject on the virtual screen is corrected to the parallax detected by the parallax detection unit 104 and becomes zero parallax.
  • the parallax correction method by the stereoscopic imaging apparatus 1000 the same parallax as that obtained by the ideal optical system shown in FIG. 4A can be obtained, which is equivalent to non-distortion shooting. Stereo shooting can be realized.
  • the stereoscopic imaging apparatus 1000 estimates (calculates) the ideal parallax x1 of the main subject from the preset viewing environment (display conditions) and the subject distance of the main subject, as well as the parallax detection unit 104 and the main subject parallax.
  • the detection unit 107 acquires the main subject parallax (real parallax) x2 that actually occurs on the virtual screen.
  • the stereoscopic imaging apparatus 1000 obtains the corrected parallax ⁇ x from the ideal parallax x1 and the actual parallax x2, and adds the calculated corrected parallax ⁇ x to the stereoscopic image (shifts in the horizontal direction), which is equivalent to non-distorted shooting. Stereo shooting can be realized.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus 1000 is a stereoscopic image with appropriate parallax adjustment.
  • the stereoscopic imaging apparatus 1000 performs appropriate parallax adjustment even when there are camera-specific errors (particularly errors generated by the optical system) (for example, when high-precision congestion control cannot be performed).
  • Can do. ⁇ First modification (variable localization effect of main subject (free localization shooting))
  • the stereoscopic imaging device of this modification is not intended for distortion-free shooting as in the above-described embodiment, but is directed shooting that freely positions the main subject before and after the display screen during display (free-location shooting). The purpose is to do.
  • FIG. 7A is a diagram schematically showing a state at the time of photographing.
  • FIG. 7B is a diagram schematically illustrating a state when a stereoscopic image that is stereoscopically captured in the state of FIG.
  • FIG. 7A shows a state in which the optical axis of the optical system of the stereoscopic imaging apparatus is greatly fluctuated. This is the same as the case described in the above embodiment (in the case of FIG. 5A).
  • description is abbreviate
  • Step 411 The control unit 110 displays the subject distance R of the main subject in focus from the control amount of the focus control unit 123 and the main subject on the screen (camera through image (camera through R The approximate position of the image and / or L image)) is detected.
  • Step 412 The main subject parallax detection unit 107 uses the parallax map memory 181 generated by the parallax detection unit 104 (for example, the parallax map memory 181 in FIG. 3) to focus the main subject position (for example, the thick line in FIG. 3).
  • the parallax x2 (actual parallax x2) of the block surrounded by) is acquired.
  • Step 413 The control unit 110 reads the localization position R3 where the main subject is to be localized as an effect from the localization information setting unit 122 as an effect, and from the geometrical relationship (positional relationship) shown in FIG.
  • the parallax x3 ideal parallax x3 for localizing the main subject at the distance R3 is calculated by the following equation.
  • Step 414) In step 413, the control unit 110 reads “parallax x3 (ideal parallax x3) for localizing the main subject at a predetermined position” and “parallax x2 of the actual main subject obtained in step 412 (real parallax x2)” ) ”Is calculated from the following equation.
  • Step 415) Since ⁇ x can be regarded as a parallax error due to the accuracy of the optical system of the stereoscopic imaging apparatus of the present modification, it is considered that the same error is superimposed not only on the main subject but also on all subjects. Therefore, the first parallax adding unit 111R and the second parallax adding unit 111L add ⁇ x to all pixels of the stereoscopic image using the parallax error ⁇ x as a correction error (the R image and the L image are horizontally corrected by the correction parallax ⁇ x). Shift).
  • the stereoscopic imaging apparatus of this modification by executing the parallax correction method, it is possible to acquire a stereoscopic image that localizes the main subject to a desired distance without being affected by the accuracy of the optical system of the stereoscopic imaging apparatus. .
  • the stereoscopic image acquired by the stereoscopic imaging device of the present modification is less natural than the stereoscopic image acquired by non-distortion shooting.
  • the main subject is desired. Since a stereoscopic image that is localized at the position can be acquired, a free rendering can be performed according to the intention of the photographer.
  • the distance R3 to be localized is smaller than the distance R of the main subject, that is, when the main subject is localized in front of the actual position, the stereoscopic image acquired by the stereoscopic imaging apparatus of the present modification is extremely far away. Therefore, the naturalness of the distant view is deteriorated as compared with a stereoscopic image obtained by non-distortion shooting.
  • the stereoscopic image acquired by the stereoscopic imaging apparatus of the present modification has an effect of making the video easy to see because the perspective is compressed.
  • the subject in front of the main subject is greatly closer to the front, so that the perspective is emphasized and the image tends to be unnatural.
  • the parallax of the nearest point in the parallax map memory 181 created by the parallax detection unit 104 is used.
  • a limit (range) for localizing the main subject forward can be determined.
  • the photographer can freely localize the main subject so that the main subject can be safely positioned in the forward direction within a range that does not fail. Can be realized.
  • the stereoscopic imaging apparatus of this modification has a function of assisting the photographer by displaying an alert by sound or video to the photographer when the latest point exceeds the limit of unnaturalness. May be.
  • the distance R3 to be localized is larger than the distance R of the main subject, that is, when the main subject is localized rearward from the actual position, in the stereoscopic image acquired by the stereoscopic imaging apparatus of the present modification, the distance from the main subject is larger.
  • the rear subject is extremely far away, and the perspective tends to be exaggerated.
  • an object farther than a certain distance causes backward divergence (a phenomenon that geometrically moves away from infinity and becomes a double image and cannot be stereoscopically viewed).
  • the stereoscopic imaging apparatus of this modification can be used only in a scene where there are not many subjects behind the main subject, the farthest point in the parallax map memory 181 created by the parallax detection unit 104 can be used.
  • a limit (range) for localizing the main subject backward can be determined.
  • the photographer can freely localize the main subject so that the main subject can be safely located rearward within a range that does not fail. Can be realized.
  • the stereoscopic imaging apparatus of the present modification enables appropriate parallax correction in any scene where the main subject exists.
  • FIG. 8 shows a schematic configuration diagram of a stereoscopic imaging apparatus 1000A of the present modification.
  • the stereoscopic imaging apparatus 1000 of the first embodiment shown in FIG. 1 is a twin-lens camera having two optical systems and two signal processing systems, but the stereoscopic imaging apparatus 1000A of the present modification is A stereoscopic image is acquired by taking twice with a monocular camera.
  • the stereoscopic imaging apparatus 1000 ⁇ / b> A has a configuration of a monocular still image camera, and performs stereoscopic shooting by taking twice. Differences from the stereoscopic imaging apparatus 1000 of the first embodiment that is a twin-lens camera will be described.
  • the imaging unit 100 is the same as the first imaging unit R (or the second imaging unit 100L).
  • the A / D converter 103 is the same as the first A / D converter 103R (or the second A / D converter 103L).
  • the image memory unit 125 stores an R image or an L image acquired by the imaging unit 100 and A / D converted by the A / D conversion unit 103. Then, the image memory unit 125 outputs the stored R image to the parallax detection unit 104 and the first parallax addition unit 111R at a predetermined timing in accordance with an instruction from the control unit. Further, the image memory unit 125 outputs the stored L image to the parallax detection unit 104 and the second parallax addition unit 111L at a predetermined timing in accordance with an instruction from the control unit.
  • Step 421 In accordance with an instruction from the user IF display unit, the user presses the shutter halfway to focus on the main subject.
  • the control unit 110 detects the subject distance R of the main subject in focus from the control amount of the focus control unit 123 and the approximate position on the screen of the main subject (on the camera through image) in the focused state.
  • Step 422 Next, the user presses the shutter as it is (from the half-pressed state to the fully-pressed state), and takes an image for the left eye (L image).
  • the captured left eye image (L image) is stored in the image memory unit 125.
  • Step 423 The user moves the photographing position to the right by the distance instructed from the user IF display unit, and photographs a right-eye image (R image) by the stereoscopic imaging apparatus 1000A.
  • the captured right eye image (R image) is stored in the image memory unit 125.
  • Step 424 The main subject parallax detection unit 107 uses the parallax map memory 181 generated by the parallax detection unit 104 (for example, the parallax map memory 181 in FIG. 3) to focus the main subject position (for example, the thick line in FIG. 3).
  • the parallax x2 (actual parallax x2) of the block surrounded by) is acquired.
  • Step 425) The control unit 110 estimates (calculates) the parallax x1 (ideal parallax x1) that the main subject should take using the distance R to the main subject.
  • Step 426 The control unit 110 calculates the parallax from the “estimated main subject parallax x1 (ideal parallax x1)” in step 425 and the “actually obtained main subject parallax x2 (real parallax x2)” obtained in step 424.
  • the error ⁇ x is calculated by the following equation.
  • the stereoscopic image after parallax correction is substantially equivalent to the stereoscopic image obtained by non-distortion shooting.
  • the same parallax as that obtained by the ideal optical system shown in FIG. 4A can be obtained, which is equivalent to distortion-free shooting. Stereo shooting can be realized.
  • the stereoscopic imaging apparatus 1000A obtains the ideal parallax x1 with reference to the main subject, appropriate parallax correction can be performed by executing the above-described parallax correction method for any scene as long as the main subject is in the imaging scene. Can be obtained. Therefore, this modification shows a very effective application example.
  • the non-distortion shooting is described as an example.
  • the present modification is not limited to this.
  • the same processing as the process described in the first modification is performed by the stereoscopic imaging apparatus 1000A of the present modification. By performing the above, it is also possible to perform stereoscopic shooting that achieves staging of the main subject.
  • Step 433 It is determined whether or not “localization shooting” is instructed by the localization information setting unit 122.
  • Step 434 When the “location-free shooting” is instructed by the localization information setting unit 122, the control unit 110 displays the distance R4 to the localization position of the main subject (from the line segment including the left viewpoint and the right viewpoint to the localization position of the main subject).
  • Step 436 In the stereoscopic imaging apparatus of the present modification, the control unit 110 determines a parallax x4 for localizing the main subject at a distance of R4 by the following equation.
  • ⁇ x is a difference in parallax from the basic localization of the stereoscopic imaging apparatus (monocular stereoscopic camera) of the present modification, and therefore the same parallax correction is required not only for the main subject but also for all subjects.
  • the first parallax adding unit 111R and the second parallax adding unit 111L add ⁇ x to all the pixels of the stereoscopic image captured by the imaging unit of the stereoscopic imaging apparatus of the present modification (the corrected parallax ⁇ x is added to the R image and the L image). Shift horizontally by the same amount).
  • the same stereoscopic image as that obtained when performing free localization imaging (stereoscopic imaging for acquiring a stereoscopic image in which the main subject position is localized at a desired position) is performed. Can be obtained.
  • this modification by applying this modification to a monocular stereoscopic camera, it is possible to freely produce effects such as distortion-free shooting and free localization of the main subject.
  • the congestion control described in the present embodiment and the modification of the present embodiment may be realized by an electrical process equivalent to it. For example, (1) Processing corresponding to congestion control is performed by adding electrical parallax without adding physical congestion. (2) Processing corresponding to the congestion control is realized by an electrical process equivalent to the congestion control performed by the congestion control unit 124 (a process for electrically adding parallax) using fixed congestion (fixing the convergence angle). To do.
  • the first parallax adding unit 111R and the second parallax adding unit 111L include the amount of parallax generated in the processes (1) and (2). By adding, the processes (1) and (2) may be realized. Also, the addition of parallax by the first parallax adding unit 111R and the second parallax adding unit 111L may be performed only on one of the left image (L image) and the right image (R image), or the left image You may implement
  • the shift due to insufficient accuracy of the optical system and the shift due to the double-shooting technique include a vertical shift, a horizontal shift, a rotational shift, etc., but a vertical shift, a rotational shift, etc. It is possible to detect and correct the deviation with the required accuracy by the matching technique. Therefore, the stereoscopic imaging apparatus of the present invention may also detect and correct vertical shifts, rotational shifts, and the like using matching techniques.
  • the horizontal deviation is originally a deviation superimposed on the deviation as the parallax, the normal matching process does not determine whether the deviation is a parallax or a horizontal deviation, and the horizontal deviation is appropriately performed. Misalignment cannot be detected and corrected.
  • the stereoscopic imaging apparatus of the present invention can realize a perspective effect (effect that moves the main subject away or closes).
  • these shooting parameters can be changed to obtain a good stereoscopic image.
  • the stereoscopic imaging device can capture a natural and easy-to-see stereoscopic image by narrowing the shooting SB, and in a wide-distance shooting such as shooting a building street from the rooftop.
  • the stereoscopic imaging device it is possible to capture a good image (stereoscopic image) having a stereoscopic effect by widening the shooting SB.
  • the imaging parameter adjustment unit is realized by the control unit 110 controlling the focus control unit 123, the congestion control unit 124, the imaging unit (the first imaging unit 100R, the second imaging unit 100L), and the like. Is done.
  • the function of the parallax map image generation unit is realized by the parallax detection unit 104 and the control unit 110.
  • the function of the parallax angle acquisition unit is realized by the control unit 110.
  • the function of the corrected parallax angle calculation unit is realized by the control unit 110.
  • the function of the corrected parallax angle maximum value acquisition unit is realized by the control unit 110.
  • the function of the parallax histogram creation unit is realized by the control unit 110.
  • FIG. 18 is a diagram for explaining the parallax angle when the same scene as in FIG. 3 is displayed on the display.
  • the angle ⁇ s is a convergence angle
  • FIG. 18 shows a state where the optical axes of both eyes intersect on the virtual screen VS.
  • FIG. 14A shows a state at the time of photographing.
  • a screen having a width W1 virtual screen VS
  • L1 the distance between the imaging point of the left eye image and the imaging point of the right eye image.
  • the convergence angle ⁇ 1 is set on the virtual screen VS plane.
  • parallax x1 L1 ⁇ ( ⁇ 1- ⁇ 1) It is calculated by. The above is an approximate solution.
  • the relative parallax angle ( ⁇ 2- ⁇ 2) ( ⁇ 2- ⁇ 2) z ⁇ (W2 / W1) ⁇ (L1 / L2) ⁇ ( ⁇ 1- ⁇ 1) It becomes.
  • the left side of the above formula represents the relative parallax angle that directly affects whether or not fusion is possible. Normally, if this value is not within the range of ⁇ 1 degree, the image cannot be fused and a double image is formed. It will not be possible. Further, if this value is in the range of ⁇ 0.5 degrees, it is said that an easily viewable three-dimensional image that can be fused relatively easily is obtained.
  • this fusion range (relative parallax angle is within ⁇ 0.5 degrees or ⁇ 1 degree) is ⁇ ,
  • FIG. 15 is a flowchart for explaining stereoscopic vision availability determination processing at the time of shooting.
  • S101 to S104 In the stereoscopic imaging device 2000, the corrected parallax ⁇ x is calculated by the same processing as in the first embodiment.
  • the control unit 110 calculates the corrected parallax x3_far of the farthest point and the corrected parallax x3_near of the nearest point from the maximum parallax x2_far and the minimum parallax x2_nea calculated in S201 by the following equations.
  • the control unit 110 calculates the farthest point parallax angle ⁇ 1_far at the time of shooting and the farthest point parallax angle ⁇ 1_near from the parallax x3_far after correction of the farthest point and the parallax x3_near after correction of the nearest point calculated in S202. Is calculated. Note that, as shown in FIG. 14, the control unit 110 has a positional relationship among photographing elements at the time of photographing (subject position, virtual screen size and position, SB, imaging point for right eye image, imaging point for left eye image).
  • the parallax angle ⁇ 1_far of the farthest point at the time of shooting and the parallax angle ⁇ 1_near of the farthest point at the time of shooting are calculated by geometric calculation. calculate.
  • the parallax adjustment is performed based on the calculated parallax adjustment amount ⁇ 1 (the farthest point and the nearest point are shifted by the parallax adjustment amount ⁇ 1).
  • S211 to S215 When the parallax corresponding to ⁇ 1 calculated in S210 is shifted, the control unit 110 determines whether or not the closest point is still within the stereoscopic viewable range (range ⁇ ) (S211). Then, as a result of the determination, if the closest point is still within the stereoscopic viewable range (range ⁇ ), the control unit 110 determines “shooting OK” and ends the process (S214).
  • the control unit 110 performs a shooting parameter adjustment process similar to S206 (S218). Then, after executing the shooting parameter adjustment process of S218, the controller 110 performs the parallax angle ⁇ 1_far at the farthest point in the state after the angle of view adjustment (adjustment of the shooting parameter) is performed in S218, as in S207. It is determined whether or not the closest point parallax angle ⁇ 1_near satisfies the condition of (Equation 7) (S219).
  • the control unit 110 determines “shooting OK” and ends the process (S220).
  • the control unit 110 determines “shooting NG” and ends the process (S221).
  • the stereoscopic imaging apparatus 2000 first adjusts the parallax so that the farthest point becomes the limit (boundary) point in the fusion zone, and then adjusts the nearest point. This is for preferentially securing (guaranteeing) that the farthest point is within the fusion zone.
  • the stereoscopic imaging apparatus 2000 it is relatively easy to perform processing so that the nearest point is also within the fusion zone by adjusting the shooting parameters in a state where the farthest point is within the fusion zone.
  • the stereoscopic imaging device 2000 performs processing as described above.
  • the control unit 110 determines “shooting OK” and performs processing.
  • the process ends (S222).
  • the stereoscopic imaging apparatus 2000 can perform the stereoscopic vision availability determination process at the time of shooting based on the above (Equation 7). From the above (Equation 7), it can be seen that the range of the subject that can be imaged by the stereoscopic imaging apparatus 2000 has the following characteristics. (1) The range of a subject that can be imaged is inversely proportional to the zoom magnification (when the image is enlarged, the range that can be captured becomes narrower).
  • the range of subjects that can be imaged is inversely proportional to the screen size ratio (widens when viewed on a small screen). Note that setting the assumed screen size large and viewing a stereoscopic image on a small screen are equivalent.
  • the range of subjects that can be imaged is proportional to the viewing distance (becomes wider when viewed away). Note that setting the assumed viewing distance close and viewing a stereoscopic image away from the assumed viewing distance are in an equivalent relationship.
  • the range of the subject that can be imaged is widened in the range of the distant view and narrowed in the range of the foreground if positive parallax is given by the parallax adjustment.
  • the stereoscopic imaging apparatus 2000 can determine in advance whether the scene is easy to see or difficult to see at the time of shooting.
  • the determination method (stereoscopic visibility determination process) of the present embodiment it is possible to know at the time of shooting whether or not a distant view or a near view of the subject can be viewed stereoscopically. Therefore, the stereoscopic imaging apparatus 2000 of the present embodiment can eliminate in advance failure shooting that cannot be stereoscopically viewed by performing stereoscopic vision availability determination processing during shooting.
  • the inventors of the present application perform the stereoscopic vision determination in consideration of the distance on the two-dimensional screen (on the virtual screen or the display screen) of subjects having different depths. Thus, it has been found that it is possible to determine whether or not stereoscopic viewing is possible with higher accuracy. Based on this, processing in the stereoscopic imaging device of the present modification will be described below.
  • the farthest point F in the shooting scene (the subject distance of the farthest point is R (F)) and the nearest point N (the subject distance of the nearest point N is R (N)) are both.
  • the distance from the farthest point A (the subject distance R (A) of the far field A is R (A) ⁇ R (F))
  • the foreground B far from the point (assuming that the subject distance R (B) of the foreground B is R (B)> R (N)) is adjacent on the screen, the distant view A and the near view B are adjacent.
  • the part (area) that is present cannot be fused, resulting in an image that is difficult to see.
  • the parallax angles ⁇ 1 and ⁇ 2 of two subjects on a two-dimensional screen (virtual screen or display screen) and the distance h of the two subjects in the two-dimensional screen are obtained.
  • a function f ( ⁇ 1, ⁇ 2, h) as a variable, a corrected parallax angle ⁇ that matches the vision (considering human visual characteristics) is obtained, and based on the corrected parallax angle ⁇ , the subject of the shooting scene is merged Determine whether to enter.
  • the evaluation value (value of function f) is the fusion limit ⁇ , f ( ⁇ 1, ⁇ 2, h) ⁇ Then, it can be determined that the two subjects (the subject with the parallax angle ⁇ 1 and the subject with the parallax angle ⁇ 2) can be fused and stereoscopically viewed.
  • the “predetermined condition” refers to imaging elements at the time of shooting (subject position, size and position of virtual screen, SB, imaging point for right eye image, imaging point for left eye image) and display elements at the time of display ( This is a condition determined by the left eye position, right eye position, display screen, main subject localization position) and shooting parameters (view angle, zoom magnification, shooting SB, etc.).
  • the parallax angles ⁇ 1 and ⁇ 2 may be parallax angles that have been parallax-corrected under the above conditions.
  • (S505): The control unit 110 compares the value of the corrected parallax angle f ( ⁇ 1, ⁇ 2, h) calculated in S504 (this value is assumed to be f0) with fmax held as the maximum value of f, If f_max ⁇ f0, then fmax f0, If f_max ⁇ f0, fmax is held as it is.
  • the above process may be performed only for blocks having a parallax difference of a predetermined level or more.
  • the function for obtaining the corrected parallax angle is not limited to the above function. For example, a larger value is output as the difference in parallax is qualitatively and / or the distance on the two-dimensional screen is larger. As long as the function outputs a small value, a function other than the functions shown above may be used.
  • the function for obtaining the corrected parallax angle may not be a completely monotone function, and may take a constant value within a predetermined range.
  • the distance of the screen due to focus is strong, and thus the convergence (convergence point) tends to be fixed on the screen surface. In particular, the tendency is strong at 2 m or less.
  • the distance of the screen due to the focus is sparse, so that the congestion (convergence point) is not fixed to the screen surface and easily moves back and forth. Therefore, in the case of a display condition with a small screen size (display screen) or viewing at a short distance, a relatively strict fusion condition is set, and a display condition with a large screen size (display screen) or a viewing condition at a long distance is set. In this case, it is possible to set a relatively wide (relaxed) fusion condition.
  • the size of the display screen is grasped at the time of shooting, and the smaller the display screen size (the smaller the screen), the smaller the ⁇ (the fusion range ⁇ ).
  • the larger the display screen size (the larger the screen size), the larger ⁇ is set.
  • actual processing for example, stereoscopic vision availability determination processing at the time of shooting described in “2.2” or “2.3. High-precision stereoscopic vision availability determination process considering the distance of the subject on the two-dimensional screen described in 1) is performed.
  • the fusion range is adjusted by adjusting the parallax by electrically shifting the image for the right eye and / or the image for the left eye constituting the stereoscopic image (stereoscopic image).
  • the fusion range is adjusted by adjusting (shrinking) the shooting SB of the stereoscopic imaging apparatus.
  • the stereoscopic imaging device of the present modification can perform better stereoscopic shooting. That is, in the stereoscopic imaging device of the present modification, an evaluation value close to the actual visibility is acquired by changing the fusion zone in consideration of various elements, and the stereoscopic vision determination process based on the evaluation value is performed. By doing so, it is possible to determine whether or not the user can view stereoscopically when taking a picture without getting tired, in a manner close to the feeling that a person actually sees.
  • the control unit 110 compares the set target area AR1 (B2 to C2 area) for the stereoscopic vision determination process with a stereoscopic area (for example, the stereoscopic area AR0 shown in FIG. 19) and is about to shoot. It is determined whether or not the scene can be stereoscopically viewed (whether or not it is easy to stereoscopically view). That is, if the target area AR1 is included in the stereoscopic viewable area AR0, it is determined that stereoscopic viewing is possible (easy to stereoscopically view).
  • the three-dimensionally possible area AR ⁇ b> 0 is a symmetric area centered on the virtual screen position (an area in which the size of the distant view side region and the close view side region are equal).
  • the control unit 110 creates a parallax histogram (parallax histogram) as shown in FIG. 20 from the parallax map memory 181. Then, the control unit 110 excludes the distant view and the foreground having a predetermined frequency TH or less shown in FIG. 20 in the created parallax histogram, and sets the target area AR2 for the stereoscopic vision determination process from the foreground B2 to the distant view C2. . Then, as illustrated in FIG.
  • the control unit 110 compares the target area AR2 of the stereoscopic vision availability determination process with the stereoscopically viewable area AN1, and determines whether or not the scene to be photographed is stereoscopically visible (whether it is easy to stereoscopically view). Determine. In other words, if the target area AR2 is included in the stereoscopic viewable area AN1 set with emphasis on the distant view, it is determined that stereoscopic viewing is possible (easy to stereoscopically view). ⁇ In the case of FIG. 21 (when the distant view TH and the foreground TH are different (part 1)) >> Next, the case shown in FIG. 21 will be described.
  • the control unit 110 creates a parallax histogram (parallax histogram) as shown in FIG. 21 from the parallax map memory 181. And the control part 110 in the created parallax histogram, (1) On the distant view side, excluding distant views below the predetermined frequency TH_far shown in FIG. (2) On the foreground side, the foreground of the predetermined frequency TH_near or less shown in FIG. 21 is excluded.
  • the control unit 110 sets the stereoscopic view possible area AN2 used for the stereoscopic view availability determination process.
  • the control unit 110 compares the target area AR3 of the stereoscopic vision availability determination process with the stereoscopically viewable area AN2, and determines whether or not the scene to be photographed is stereoscopically visible (whether it is easy to stereoscopically view). Determine. That is, if the target area AR3 is included in the stereoscopic view possible area AN2 set with emphasis on the distant view, it is determined that the stereoscopic view is possible (easy to view stereoscopically). ⁇ In the case of FIG. 22 (when the distant view TH and the foreground TH are different (part 2)) >> Next, the case shown in FIG. 22 will be described.
  • the control unit 110 creates a parallax histogram (parallax histogram) as shown in FIG. 22 from the parallax map memory 181. And the control part 110 in the created parallax histogram, (1) On the distant view side, the distant view below the predetermined frequency TH_far shown in FIG. 22 is excluded, (2) On the foreground side, the foreground of the predetermined frequency TH_near or less shown in FIG. 21 is excluded.
  • the stereoscopically viewable area AN3 is set with reference to the point C3 obtained in (2).
  • the stereoscopically viewable area AN3 is, for example, an area obtained by shifting the stereoscopic viewable area AR0 set around the virtual screen with reference to the point C3.
  • the control unit 110 performs weighting on each cluster using the function weight as described below.
  • Weight (x, y, z) Cent (x), Size (y), Blur (z) Cent (x): A function that increases as the cluster position is closer to the center position on the parallax map memory 181 (the center position of the two-dimensional image (screen) configured by each block of the parallax map memory 181).
  • x is a two-dimensional vector indicating the position of the cluster on the two-dimensional screen, for example.
  • Blur (z) A function that takes a smaller value as the degree of blurring of the cluster (for example, the average degree of blurring) is larger.
  • z is a value representing, for example, the degree of blurring of the cluster (for example, the average degree of blurring).
  • the control unit 110 generates a weighted parallax histogram using the weighting function Weight (x, y, z) as described above. For example, when the cluster CL1 shown in FIG. 23A is a distant cluster, the parallax range is C4 to C5 in FIG.
  • the control part 110 performs this about all the clusters.
  • An example of the parallax histogram generated by weighting in this way is shown in FIG.
  • the control unit 110 uses FIG.
  • the stereoscopically viewable area AN5 and the target area AR6 of the stereoscopic view availability determination process are set.
  • the stereoscopic imaging device can take a more appropriate three-dimensional image taking into consideration the area occupied by the cluster and the degree of blur of the cluster. Visibility determination processing can be performed.
  • the third embodiment relates to a camera assist function for a scene to be photographed for a scene that cannot be stereoscopically viewed by a human.
  • the stereoscopic imaging device and the stereoscopic vision availability determination method that enable determination of ease of viewing (ease of stereoscopic viewing) based on a criterion close to ease of viewing that human eyes can feel have been described. .
  • the stereoscopic imaging device of the above-described embodiment when it is difficult to see a distant view, it is possible to acquire (capture) a stereoscopic image (stereoscopic image) that is easy to view stereoscopically by bringing the distant view close by adjusting parallax or convergence.
  • FIG. 24 is a diagram for explaining the principle of the present embodiment.
  • FIG. 24A shows the positional relationship of shooting scenes (positional relationship of shooting parameters during shooting).
  • the farthest point is a mountain 901 at a distance Rf
  • the nearest point is a flower 902 at a distance Rn.
  • the main subject in this scene is a person 900 at a distance Rc.
  • the parallax angles when shooting with the camera (stereoscopic imaging apparatus) of FIG. 24A are ⁇ f for mountains 901, ⁇ n for flowers 902, and ⁇ c for a person 900.
  • the fusion range obtained by converting the fusion range ⁇ by the fusion region of the Panam to the photographing side is ⁇ x,
  • FIG. 25 shows a schematic configuration of the stereoscopic imaging device 3000 of the present embodiment.
  • the stereoscopic imaging device 3000 of the present embodiment has a configuration in which a warning unit 126 is added to the stereoscopic imaging device 2000 of the second embodiment.
  • the stereoscopic imaging device 3000 of the present embodiment is the same as the stereoscopic imaging device 2000 of the second embodiment.
  • the assist method is realized by the control unit 110 controlling the warning unit 126 and the warning unit 126 issuing a warning to the photographer.
  • the warning unit 126 is a functional unit that performs display display or a functional unit that performs voice guidance.
  • the warning unit 126 performs display display, voice guidance, or the like, thereby causing the stereoscopic imaging device 3000 to execute an assist function.
  • Examples of the assist method include the following methods.
  • a method of telling where to go down (a method of instructing a distance (distance to be moved away) from which the stereoscopic imaging apparatus should be moved in a direction away from the subject from the current position of the stereoscopic imaging apparatus).
  • a photographer holds a camera (stereoscopic imaging device) and looks backward while performing provisional photographing, and the stereoscopic imaging device determines that a fusion of a distant view and a foreground is compatible from the photographed image, and the determination result Is used to determine the camera position (position of the stereoscopic imaging device) by telling the photographer.
  • ⁇ R that satisfies the above equation can be calculated in advance, ⁇ R is calculated by the stereoscopic imaging apparatus, and the stereoscopic imaging apparatus instructs the photographer to take a photograph by moving backward by ⁇ R. Can do.
  • the perspective on the subject changes as follows. In other words, the foreground flower 902 becomes smaller, the middle background person 900 becomes a little smaller, and the distant view mountain 901 hardly changes.
  • zoom processing is performed in conjunction with lowering in order to suppress a change in the size of the main subject.
  • the size of the main subject decreases with a ratio of Rc / (Rc + ⁇ R) as it moves backward. Therefore, in the stereoscopic imaging apparatus of the present embodiment, the zoom magnification is set to (Rc + ⁇ R) / Rc times in order to compensate for the influence of the backward movement. That is, in the stereoscopic imaging apparatus of the present embodiment, control is performed so that the size of the main subject does not change by extending the focal length.
  • the distant view has large eyes and the close view has small eyes, but is good in many scenes if the main subject has a desired size. It is possible to perform proper shooting (stereoscopic shooting). ⁇ First modification ⁇ Next, a first modification of the present embodiment will be described.
  • the stereoscopic imaging apparatus of this modification when shooting is performed at the position shown in FIG. 24A, the focal length of the main subject obtained from the above relational expression is set at the wide-angle end of the zoom change range. Then, even if the zoom is set to the widest angle, the main subject is too large. As a result, the photographer voluntarily falls back and shoots from the position shown in FIG. Therefore, in the stereoscopic imaging apparatus of this modification, the photographer is assisted by limiting the wide angle end of the zoom movable range. Further, when the camera (stereoscopic imaging device) recognizes that the main subject is a person by a standard face detection function, and the main subject is a person, the stereoscopic imaging device of this modification performs the above operation. And good. ⁇ Second modification ⁇ Next, a second modification of the present embodiment will be described.
  • part or all of the processing of each functional block in each of the above embodiments may be realized by a program.
  • a part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in the computer.
  • a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.
  • Each processing of the above embodiment may be realized by hardware, or may be realized by software (including a case where the processing is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware. Needless to say, when the stereoscopic imaging apparatus according to the above-described embodiment is realized by hardware, it is necessary to perform timing adjustment for performing each process. In the above embodiment, for convenience of explanation, details of timing adjustment of various signals that occur in actual hardware design are omitted.
  • the execution order of the processing method in the said embodiment is not necessarily restrict
  • a computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention.
  • examples of the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blue-ray Disc), and a semiconductor memory.
  • the computer program is not limited to the one recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.
  • the present invention is not limited to this, and for example, the left eye image and the right eye image may be alternately acquired in a time-division manner with one image sensor, or one image sensor.
  • the image pickup device surface may be divided into two to obtain a left eye image and a right eye image.
  • the stereoscopic imaging device, the stereoscopic imaging method, and the program according to the present invention enable natural, easy-to-see and safe stereoscopic imaging and stereoscopic display, and are useful in the field of video equipment-related industries. Can be implemented.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

 撮影時に立体視ができ疲れないで見ることかどうかを、実際に人間が見たときの感覚に近づけて判定する。立体撮像装置(3000)では、制御部(110)により、撮影しようとしているシーンが適切な立体視ができる立体映像とならないと判断した場合、警告部(126)により、撮影者にその旨を警告することで、不適切な立体画像(立体映像)が取得されることを防ぐ。

Description

立体撮像装置および立体撮像方法
 本発明は、3次元立体画像(3次元立体映像)を撮像する撮像装置に関し、特に、良好な立体画像(立体映像)表示が可能な左眼用および右眼用の2枚の視差画像(ステレオ画像)を撮像する撮像方法および撮像装置に関する。
 立体画像(左眼用画像および右眼用画像)を、独立して左右の目に投影できる表示装置(以下、「立体表示装置」という。)に表示することにより、立体画像を再現させるために、両眼視差が存在する状態で立体画像(左眼用画像および右眼用画像)を撮像する立体撮像装置が知られている。
 これらの立体撮像装置は、光学系の数やイメージセンサの数に関して多様な構成のものがあり、また、立体撮像装置は、撮像方式に関しても、並列方式や時分割方式(フレームシーケンシャル方式)など様々な撮像方式を採用している。一般的には、2つの光学系(右眼用の光学系および左眼用の光学系)を有する2眼式の構成の立体撮像装置(2眼式立体画像撮像装置)が用いられることが多い。このような2眼式立体撮像装置には、2つの光学系の光軸の交差角(以下、「輻輳角」という。)等に代表される立体撮像パラメータを可変できるものもある。
 また、2つの光学系を用いず1つの光学系を通して左右の視差画像(左眼用画像および右眼用画像)を撮像する立体撮像装置も提案されている(例えば、特許文献3参照)。この立体撮像装置による撮影は、わずかな視差を持たせた2台のカメラによる撮影と等価であり、その撮影原理は、2台のカメラによる撮影(2つの光学系を用いる撮影)原理と同様である。
 また、一台のカメラ(撮像装置)を用いて撮影位置を横(水平方向)にずらして2度撮影することにより立体画像(左眼用画像および右眼用画像)を撮像する技法(以下、「2回撮り技法」という。)もある。この2回撮り技法は、静止被写体の撮影に限られ、横(水平方向)へ移動して正しく撮影するためには経験を要するが、簡便であり広い撮影両眼距離(以下、「撮影SB」、「撮影ステレオベース」、「ステレオベース」あるいは「基線長」という。)による撮影が可能であるため、有効な撮影技法である。2回撮り技法による立体撮影を適切に実行させるために、特殊なリグなどを用いずにフリーハンドでの撮影を支援するための機能、例えば、カメラの液晶ディスプレイにガイドを表示するなどの撮影支援機能を有する撮像装置も提案されている。
 ≪平行法と交差法≫
 上記撮像装置により立体撮影・表示を行う技術として、平行法および交差法と呼ばれる撮像手法が知られている。
 平行法は、2台のカメラを左右に配置し、その2台のカメラの光軸が平行となる状態で、立体画像(立体映像)を撮影する技術である。平行法では、撮影の際、撮影SBを人の両眼間隔に相当する間隔(約6.5cm)に設定して撮影を行い、表示の際、撮像した立体画像(左眼用画像および右眼用画像)を撮影SB分だけ電気的にずらしてスクリーン上(表示装置の表示画面上)に表示させる。これにより、平行法では、撮影時にカメラの位置で直接見た画像と同じ画像をスクリーン上(表示装置の表示画面上)に表示させることができ、さらに、平行法による立体画像では、被写体までの距離・被写体の大きさなどがそのまま表示装置を用いて再現される。つまり、平行法による立体撮影を行うことで、いわゆる「無歪み撮影」を実現させることができる。
 交差法は、2台のカメラ(撮像装置)の光軸に輻輳を付けて撮影する技術である。交差法では、2台のカメラ(撮像装置)の光軸の交差する点(輻輳点)に位置する被写体が表示装置のスクリーン面の位置に定位することを基本として撮影を行う。交差法による立体撮影では、輻輳角を変化させると被写体の定位位置を前後に変化させることが可能である。つまり、交差法による撮影では、所定の被写体を、所定の定位位置に設定しやすいので、交差法による撮影は、映画などの演出等において便利であり、映画界等で広く用いられている。
 立体撮影・表示技術において、幾何学的条件に起因する問題点がある。
 立体撮影・表示技術では、幾何学的条件により、立体撮影された画像(映像)を立体表示した場合、自然な奥行き感が得られないことがある。これは、幾何学的条件により、奥行き領域(仮想スクリーン(表示スクリーン)より奥の領域)が過剰に(不自然に)圧縮された状態で表示されたり、奥行き領域が過剰に(不自然に)広がった状態で表示されたり、後方発散し融像できない状態で表示されたりすることに起因する。
 なお、「幾何学的条件」とは、立体画像撮影時の状態および/または立体画像表示時の状態における立体撮影・表示するための要素の位置関係から幾何学的に決定される条件のことをいう。例えば、幾何学的条件は、以下のものにより決定される。
(A)撮影時
(A1)輻輳角、(A2)レンズの画角(ズーム)、(A3)撮影SB、(A4)焦点距離などの撮影パラメータ。
(B)表示時
(B1)表示装置のサイズ(表示画面サイズ)、(B2)視聴距離。
 このように、立体撮影・表示技術では、幾何学的条件により、適切でない視差画像(立体画像)が撮像・表示されるという問題点がある。
 さらに、立体撮影・表示技術では、視覚的条件に起因する問題点もある。極端な近景や遠景などを立体撮影した場合、視差の絶対値が大きい状態での視差画像(立体画像)が撮像されることになり、その撮像した視差画像(立体画像)をディスプレイに表示すると、多くの人にとって、当該視差画像(立体画像)は、融像出来ない画像、すなわち、単なる二重像の画像(立体視のできない画像)として認識される。また、当該視差画像(立体画像)が立体視できるものであったとしても、極端に疲れる画像になることもある。このように、立体撮影・表示技術では、人間の視覚特性により、適切でない視差画像(立体画像)が撮像・表示されるという問題点がある。
 これらの問題点を解決するために、左右画像(左眼用画像および右眼用画像)から視差を検出し、検出した視差に基づいて視差調整を行い、人間にとって見やすい立体画像を表示する技術が提案されている(例えば、特許文献1、特許文献2参照)。
特許第3157384号公報 特開2004-349736号公報 特公平8-27499号公報
 しかしながら、従来技術には、以下のような課題がある。
 第1に、立体撮像装置の精度不足(特に、光学的な精度不足)により、適切な立体撮影を行うことができない場合があるという課題がある。
 立体撮像において、2つの光学系の間の精度(平行性、輻輳角などの精度)は、極めて重要であり、光学系の精度不足により、例えば、上下にずれたりする(2つの光学系に上下方向のずれが発生する)と前述の融像できる視差の範囲が狭くなり見づらくなる。精度を上げるためには、光学系の機構的な剛性を高める必要があり、大きさ、重量、コストなどの点で課題となる。さらに、立体撮像装置が輻輳角を可変させる構成やズームを備えた構成では、さらに精度確保が困難になる。また、要求される精度の内、上下のずれについては、二枚の画像のマッチングを調べ、ずれの内上下方向のずれ成分を補正するように画像を上下シフトすることにより補正することが原理的に可能である。しかし、左右方向のずれについては、それが、光学系等の精度不足によるずれなのか、それとも、立体撮影による本来の視差なのかを区別できないため、補正は困難である。
 さらに、一台のカメラによる手持ちでの二回撮り技法においては、光軸の精度や輻輳角の精度は、許容範囲から遙かに逸脱することが多く、PC等を用いた画像処理による後工程が必須である。しかし、やはり左右方向のずれについては補正量が不明であるため、人間の判断が行える手作業においても決定が困難であり、試行錯誤で最適な画像に調整を行っているのが現状である。
 また、左右方向の視差に大きな誤差が含まれると、被写体の定位位置が前後に変動し期待通りならないという課題がある。それにより、自然な奥行き感が損なわれる、あるいは、見やすい撮影が安定してできない等の課題もある。
 第2に、撮影時に適切な処理がなされないために、表示時に適切な立体画像(立体映像)の表示ができない(警告しかなされない)という課題がある。
 人間の視覚特性により、視差の絶対値が大きい画像をディスプレイに表示すると、融像出来ずに二重像になり立体視できない。仮に、立体視できたとしても極端に疲れる画像になる可能性が高い。
 これに対して、左右画像から視差を検出し視差調整を行い見やすい立体画像を表示する表示装置の技術が提案されている(例えば、特許文献1、特許文献2参照)。
 これらの技術は、立体画像(立体映像)の表示時に行う処理に関するものであり、表示された立体画像(立体映像)の視差と、それを観察する人間の視覚の融像条件とを用いて、許容される視差範囲に入れる、もしくは、警告するものである。
 しかし、実際には、表示時に融像出来ないことが分かり警告されても対処の方法はなく手遅れであり。
 本来は、撮影すべきシーンを撮影し、それをディスプレイに表示したときに、疲れずに立体視できるかどうかを、撮影するときに予め知ることができるのが望まれる。
 しかし、実際のシーンが撮影されてからそれらがどのように表示され定位されるかは、撮影時の多数のパラメータ(SB、画角、ズーム倍率、輻輳角など)と、表示時のパラメータ(表示のサイズ、視聴距離など)とにより決定されるため、従来、撮影時に表示状態や定位位置を判定することは出来なかった。
 第3に、撮影時に、立体撮影される画像(映像)(立体画像(映像))が、立体視ができ疲れないで見ることができるのかどうかを、実際に人間が見たときの感覚に近づけて判定することができないという課題がある。
 従来技術では、撮影時に、撮影時のパラメータや表示時のパラメータから、表示状態や定位位置を判定できたとしても、撮影シーンによっては、検出した視差を用いて正しく判定できない場合がある。
 これは、異なるシーンにおいて、最遠点と最近点とが、それぞれ、同じであっても、最遠点と最近点との画面上の位置関係によって見やすさが変わることに起因する。
 例えば、最遠点と最近点とが画面上で近接する場合には、融像が困難になる。逆に言えば、最遠点と最近点とが画面上である程度離れている場合、融像できる。
 さらには、実際の最遠点と最近点とは、画面上で離れていたため融像出来る判定されたにもかかわらず、最遠点ではない遠景と最近点でない近景とが、画面上で近接していたため、融像できない場合も存在する。すなわち、このような場合、従来技術では、融像の可否については、誤判定されることになる。
 したがって、最遠点と最近点の距離や角度に従うだけでは、見やすさを正しく判断できないという課題がある。
 また、最遠点と最近点で見やすさが決まるシーンであったとしても、最遠点および最近点のいずれかのみが融像できない場合には、従来の視差調節を用いて双方を融像可能にできる場合もあるが、一般に、両方が融像域外の場合や、一方を融像域内に入れると他方が融像域外になる場合が多く、従来技術では、これらのシーンは、立体視できる条件での撮影はできないと判定されることになる。
 撮影SBを小さくする方法も存在するが、撮影SBを可変にするカメラの構成は複雑となり、また、撮影SBを小さくすると、撮像画像は、遠近感が乏しい画像になりがちである。
 本発明は、上記課題を鑑みて、立体撮像装置の精度不足(特に、光学的な精度不足)に起因する左右方向の視差に影響されずに、適切な立体感および/または所望の定位を実現する立体画像(立体映像)を取得する立体撮像装置、立体撮像方法およびプログラムを提供することを目的とする。
 また、本発明は、上記課題を鑑みて、撮影時に立体視ができ疲れないで見ることかどうかを、実際に人間が見たときの感覚に近づけて判定することにより、多くのシーンで優れた立体画像が撮影できる立体撮像装置、立体撮像方法およびプログラムを提供することを目的とする。
 第1の発明は、被写体像を立体撮影し、第1視点映像及び第2視点映像により形成される立体映像を撮像する立体撮像装置であって、被写体の光学像を形成する光学系と、撮像部と、視差検出部と、パラメータ取得部と、立体視可否判定部と、制御部と、を備える。
 撮像部は、形成した光学像に基づいて、立体映像を生成する。
 視差検出部は、立体映像の視差を検出する。
 表示パラメータ取得部は、立体映像を視聴する環境に関するパラメータである表示パラメータを取得する。
 立体視可否判定部は、検出した視差および前記取得した表示パラメータに基づいて、立体映像の撮影時に、生成する立体映像が立体視し易いか否かを判定する。
 制御部は、立体映像が立体視しにくいと判定した場合、自装置と前記被写体との位置関係を変更する制御モードを設定する。
 この立体撮像装置では、立体視可否判定部により、立体映像が立体視しにくいと判定した場合(立体撮影しようとしているシーンが立体視不可能と判定された場合を含む。)、制御部は、自装置と前記被写体との位置関係を変更する制御モードを設定する。これにより、この立体撮像装置では、適切な立体画像が取得できない状態で立体撮影されるリスクが低減されるとともに、適切な立体画像を取得できる状態へと撮影者を導くアシスト機能を容易に実現させることができる。
 なお、「自装置と被写体との位置関係の変更」とは、自装置(立体撮像装置)が存在する位置と被写体の位置との距離を変化させることを含む概念であり、自装置(立体撮像装置)と被写体との位置関係を前後方向および/または左右方向に変化させることを含む概念である。「自装置と被写体との位置関係の変更」は、例えば、自装置(立体撮像装置)を被写体から遠ざける(後方に移動させる)ことや、自装置(立体撮像装置)を左右方向にずらす(左右方向に移動させる)ことにより、実現させることができる。
 第2の発明は、第1の発明であって、制御部は、制御モードが距離変更モードである場合、立体撮影を実行させない。
 これにより、この立体撮像装置では、適切な立体画像が取得できない状態で立体撮影されることがなくなる。
 第3の発明は、第1または第2の発明であって、制御部は、自装置と被写体との距離の変更が実行され、立体視可否判定部により、立体撮影しようとしているシーンが立体視し易いと判定された場合、制御モードを、立体撮影ができる立体撮影可能モードに移行させる。
 これにより、この立体撮像装置では、適切な立体画像が取得できない状態で立体撮影が実行されないことを保証するとともに、立体撮影しようとしているシーンが立体視し易い状態(立体視可能な状態を含む。)となった時点で、立体撮影可能モードに移行し、立体撮影ができるようになる。したがって、この立体撮像装置では、常に、適切な立体画像(立体映像)を取得することができる。
 第4の発明は、第1または第2の発明であって、立体視可否判定部は、視差検出部により検出された視差に基づいて、立体撮影しようとしているシーンに含まれる被写体距離が最大である最遠被写体の被写体距離である最大被写体距離Rfと、立体撮影しようとしているシーンに含まれる被写体距離が最小である最近被写体の被写体距離である最小被写体距離Rnと、を算出する。
 そして、立体視可否判定部は、自装置の現在位置と、被写体から遠ざかる方向へ自装置を移動させたときの位置である移動後後方位置との距離をΔRとし、自装置の現在位置における最遠被写体の視差角をαfとし、自装置の現在位置における最近被写体の視差角をαnとし、自装置の移動後後方位置における最遠被写体の視差角をαf’とし、自装置の移動後後方位置における最近被写体の視差角をαnとし、立体視可能範囲を示す相対視差角をδxとしたとき、
Figure JPOXMLDOC01-appb-I000001
を満たすか否かにより、前記移動後後方位置において、立体撮影時に、立体撮影しようとしているシーンが立体視し易いか否かを判定する。
 これにより、この立体撮像装置では、自装置(立体撮像装置)を後方へどれだけ移動させれば、立体視が可能となるかを適切に判断することができる。
 なお、「被写体距離」とは、撮像部の撮像素子(例えば、CCD型イメージセンサやCMOS型イメージセンサ)面上に焦点を結んでいる物体からカメラ(立体撮像装置)までの距離をいい、物点距離と、共役距離(物像間距離)を含む概念である。また、「被写体距離」は、立体撮像装置から被写体までの概略の距離を含む概念であり、例えば、(1)立体撮像装置の光学系のレンズ全体(第1視点用レンズおよび/または第2視点用レンズ)の重心位置から被写体までの距離、(2)撮像部の撮像素子の撮像素子面から被写体までの距離、(3)立体撮像装置の重心(あるいは中心)から被写体までの距離、(4)第1視点および第2視点を結ぶ線分から被写体までの距離等を含む概念である。
 また、第4の発明において、実際に自装置(立体撮像装置)を移動させる必要はなく、計算により、現在位置と、被写体から遠ざかる方向へ自装置を移動させたと仮定したときの位置との関係から、上記立体視判定処理を実行するようにしてもよいことは、言うまでもない。
 第5の発明は、第1または第2の発明であって、撮像者に対して警告を行う警告部をさらに備える。
 そして、立体視可否判定部は、
Figure JPOXMLDOC01-appb-I000002
を満たす最小のΔRを最小後方移動距離ΔR_minとして算出する。
 警告部は、撮影者に対して、立体視可否判定部により算出された最小後方移動距離ΔR_min以上の所定の距離だけ、被写体から離れるように警告を行う。
 これにより、この立体撮像装置により立体撮影しようとしている撮影者は、立体撮像装置を、どれだけ後方に移動させれば、適切な立体撮影を行うことができるのかを容易に知ることができる。
 第6の発明は、第1から第5のいずれかの発明であって、制御部は、自装置を、現在位置から移動後後方位置に移動させたことにより、立体撮影される被写体の大きさが小さくなった分を補償する撮像部におけるズーム倍率を算出し、撮像部におけるズーム倍率が、算出した当該ズーム倍率となるようにズーム処理を行う。
 この立体撮像装置では、立体撮像装置の位置を後方に移動させたことにより、被写体が仮想スクリーン(ライブビュー画像、ビューファインダ画像等)上で小さくなった分を補償する(相殺する)ためのズーム倍率を算出する。そして、この立体撮像装置では、そのズーム倍率によるズーム処理を行うので、被写体の仮想スクリーン(ライブビュー画像、ビューファインダ画像等)上での大きさを大きく変化させることなく、立体撮影を行うことができる。
 なお、ズーム倍率を算出するために基準とする被写体は、主被写体(例えば、人物、焦点が合っている被写体、輻輳点が合っている被写体等)とすることが好ましい。
 そして、例えば、主被写体までの被写体距離がRcであり、立体撮像装置を後方へずらした距離がΔRである場合、被写体の仮想スクリーン(ライブビュー画像、ビューファインダ画像等)上での大きさは、Rc/(Rc+ΔR)となるので、立体撮像装置は、ズーム倍率を(Rc+ΔR)/Rcとして、算出すればよい。
 第7の発明は、第1から第6のいずれかの発明であって、制御部は、撮像部におけるズームの広角端を制限する動作モードである広角端制限モードを有している。
 これにより、立体撮像装置では、適切な立体撮影ができるか否かを考慮して、画角調整範囲を制限することができる。
 第8の発明は、第1から第6のいずれかの発明であって、制御部は、制御モードが距離変更モードである場合、撮像部におけるズームの広角端を制限する。
 これにより、立体撮像装置では、適切な立体撮影ができなくなるようなズーム処理を禁止することができる。
 なお、ズームの広角端の制限方法は、例えば、以下のようにすればよい。
(1)制御部が、視差検出部が検出した視差から、撮影しようとしているシーンに含まれる最遠点の被写体および最近点の被写体を検出する。
(2)制御部が、検出した最遠点および最近点が融像域内となる最大のズーム倍率を求める。
(3)制御部が、当該ズーム倍率に基づいて、ズームの広角端を制限する(画角調整範囲を決定する)。
 第9の発明は、第1から第3のいずれかの発明であって、撮像者に対して警告を行う警告部をさらに備える。
 そして、立体視可否判定部により、立体撮影しようとしているシーンが立体視不可能と判定された場合であって、立体撮影しようとしているシーンにおいて、仮想スクリーン端付近に近景の被写体があると判定された場合、警告部は、当該近景の被写体が仮想スクリーンから除外されるように、自装置を横方向に移動させるように、撮影者に対して、警告する。
 これにより、この立体撮像装置では、仮想スクリーン端にある重要でない近景の被写体を撮影シーンから除外し、適切な立体撮影ができる状態とすることができる。
 なお、警告部は、自装置(立体撮像装置)を移動させる方向と、移動距離とを警告することが好ましい。
 第10の発明は、被写体像を立体撮影し、第1視点映像及び第2視点映像により形成される立体映像を撮像する立体撮像方法であって、撮像ステップと、視差検出ステップと、立体視可否判定ステップと、制御ステップと、を備える。
 撮像ステップでは、第1視点から見た被写体像を第1視点映像として撮像し、第1視点映像を形成する第1映像信号を生成するとともに、第1視点とは異なる第2視点から見た被写体像を第2視点映像として撮像し、第2視点影像を形成する第2映像信号を生成する。視差検出ステップでは、第1視点映像および第2視点映像から、1または複数の画素から構成される画素ブロックごとに、視差を検出する。立体視可否判定ステップでは、視差検出ステップにより検出された視差および表示パラメータに基づいて、立体撮影時に、立体撮影しようとしているシーンが立体視し易いか否かを判定する。制御ステップでは、立体視可否判定ステップにより、立体撮影しようとしているシーンが立体視不可能と判定された場合、制御モードを、自装置と被写体との位置関係の変更を行うための制御モードである距離変更モードに設定する。
 これにより、第1の発明と同様の効果を奏する立体撮像方法を実現することができる。
 第11の発明は、被写体像を立体撮影し、第1視点映像及び第2視点映像により形成される立体映像を撮像する立体撮像装置であって、第1視点から見た被写体像を第1視点映像として撮像し、第1視点映像を形成する第1映像信号を生成するとともに、第1視点とは異なる第2視点から見た被写体像を第2視点映像として撮像し、第2視点影像を形成する第2映像信号を生成する撮像部を備える立体撮像装置に用いられる立体撮像方法をコンピュータに実行させるためのプログラムである。この立体撮像方法は、視差検出ステップと、立体視可否判定ステップと、制御ステップと、を備える。
 視差検出ステップでは、第1視点映像および第2視点映像から、1または複数の画素から構成される画素ブロックごとに、視差を検出する。立体視可否判定ステップでは、視差検出ステップにより検出された視差および表示パラメータに基づいて、立体撮影時に、立体撮影しようとしているシーンが立体視し易いか否かを判定する。制御ステップでは、立体視可否判定ステップにより、立体撮影しようとしているシーンが立体視不可能と判定された場合、制御モードを、自装置と被写体との位置関係の変更を行うための制御モードである距離変更モードに設定する。
 これにより、第1の発明と同様の効果を奏する立体撮像方法をコンピュータに実行させるためのプログラムを実現することができる。
 本発明によれば、立体撮像装置の精度不足(特に、光学的な精度不足)に起因する左右方向の視差に影響されずに、適切な立体感および/または所望の定位を実現する立体画像(立体映像)を取得する立体撮像装置、立体撮像方法およびプログラムを実現することができる。
 また、本発明によれば、撮影時に立体視ができ疲れないで見ることかどうかを、実際に人間が見たときの感覚に近づけて判定することにより、多くのシーンで優れた立体画像が撮影できる立体撮像装置、立体撮像方法およびプログラムを実現することができる。
第1実施形態における立体撮像装置のブロック図。 交差式(交差法)およびセンサシフト式による輻輳制御を説明するための図。 第1実施形態における視差検出部の詳細を説明する図。 第1実施形態における撮影と表示の幾何学関係を示す図。 第1実施形態における撮影と表示の幾何学関係を示す図。 第1実施形態における視差補正のフローチャート。 第1実施形態の第1変形例における撮影と表示の幾何学関係を示す図。 第1実施形態の第1変形例における視差補正のフローチャート。 第1実施形態の第3変形例に係る立体撮像装置の撮影時および表示時における要素の幾何学的関係(位置関係)を示した図。 第1実施形態の第3変形例に係る立体撮像装置で実行される立体画像取得方法(視差補正方法)の処理フローを示すフローチャート。 第1実施形態の第2変形例における立体撮像装置のブロック図。 第1実施形態の第2変形例における視差補正のフローチャート。 第2実施形態における立体撮像装置のブロック図。 第2実施形態における撮影と表示の幾何学関係を示す図。 撮影時の立体視可否判定処理のフローチャート。 立体撮影可否判定処理のフローチャート。 高精度立体視可否判定処理のフローチャート。 立体視における画面サイズと視聴距離との関係を説明するための図。 視差ヒストグラムの一例。 視差ヒストグラム(遠景THと近景THとが同じ場合)の一例。 視差ヒストグラム(遠景THと近景THとが異なる場合(その1))の一例。 視差ヒストグラム(遠景THと近景THとが異なる場合(その2))の一例。 クラスタリング処理、視差ヒストグラムを用いた立体視可否判定処理を説明するための図。 第3実施形態の原理を説明するための図。 第3実施形態の立体撮像装置のブロック図。
 以下、本発明の実施形態に係る立体撮像方法および立体撮像装置について、図面を参照しながら説明する。
 [第1実施形態]
 本実施形態では、2眼方式の立体撮像装置を例に、以下、説明する。
 <1.1:立体撮像装置の構成>
 図1に、第1実施形態に係る立体撮像装置1000の概略構成図を示す。
 立体撮像装置1000は、図1に示すように、第1撮像部100Rおよび第2撮像部100Lと、第1A/D変換部103Rおよび第2A/D変換部103Lと、第1視差付加部111Rおよび第2視差付加部111Lと、第1トリミング部112Rおよび第2トリミング部112Lと、を備える。
 また、立体撮像装置1000は、図1に示すように、視差検出部104と、最小視差検出部105と、最大視差検出部106と、主被写体視差検出部107と、制御部110と、フォーカス制御部123と、輻輳制御部124と、表示情報設定部121と、定位情報設定部122と、を備える。
 なお、説明便宜のため、第1撮像部100Rにより右眼用画像(映像)が撮像され、第2撮像部100Lにより左眼用画像(映像)が撮像されるものとして、以下、説明する。
 第1撮像部100Rは、図1に示すように、第1光学系101Rと、第1撮像素子部102Rとを含む。第1撮像部100Rは、被写体からの光を第1光学系101Rにより集光し、集光した光を第1撮像素子部102Rにより第1画像信号(右眼用画像、R画像)として取得する。そして、第1撮像部100Rは、取得した第1画像信号を第1A/D変換部103Rに出力する。
 また、第1撮像部100Rでは、フォーカス制御部123からの指示に従い、フォーカス制御が実行される。また、第1撮像部100Rでは、輻輳制御部124からの指示に従い、輻輳制御が実行される。なお、第1撮像部100Rは、輻輳制御部124からの指示に従い、輻輳制御が実行されるように、輻輳角を調整することができる機能を有している。輻輳制御は、例えば、以下の(1)、(2)により実現することができる。
(1)輻輳角制御方式(交差式)
 第1撮像部100Rおよび第2撮像部100Lの光軸を変更させる(例えば、第1撮像部100Rおよび第2撮像部100Lが所定の回転軸により回転できる機構を有しており、その回転軸により所定の角度を回転させることにより、第1撮像部100Rおよび第2撮像部100Lの光軸の向きを変更させることで輻輳角を調整する)。図2(a)は、輻輳角制御方式(交差式)による調整方法を模式的に示した図である。例えば、図2(a)に示すように、第1撮像部100R(第1光学系101R)の光軸と、第2撮像部100L(第2光学系101L)の光軸とが仮想スクリーンVS上で交差するように輻輳角を調整することで、表示時に、輻輳点に位置する被写体を、表示スクリーン上に定位させることができる。
(2)センサシフト式
 第1撮像部100Rの第1撮像素子部102Rの撮像素子面および第2撮像部100Lの第2撮像素子部102Lの撮像素子面を(平行)移動させることで画角中心軸の方向を調整する。図2(b)は、センサシフト式による調整方法を模式的に示した図である。例えば、図2(b)に示すように、第1撮像素子部102Rの画角中心軸(直線AA’)(A点は、第1撮像素子部102Rの撮像素子面の中心点)と、第2撮像素子部102Lの画角中心軸(直線BB’)(B点は、第2撮像素子部102Lの撮像素子面の中心点)とが仮想スクリーンVS上(C点)で交差するように輻輳角を調整することで、表示時に、輻輳点(C点)に位置する被写体を、表示スクリーン上に定位させることができる。
 なお、立体撮像装置1000において、上記(1)、(2)を組み合わせて、輻輳制御を実行するようにしてもよい。
 第1光学系101Rは、被写体からの光を集光し、第1撮像素子部102Rの撮像素子面に結像させる。第1光学系101Rは、1または複数のレンズから構成され、フォーカスレンズ、ズームレンズ、絞り等を含んで構成される。第1光学系101Rでは、フォーカス制御部123からの指示に従い、フォーカス制御が実行される。
 第1撮像素子部102Rは、第1光学系101Rにより集光された被写体からの光を光電変換により第1画像信号として取得(撮像)する。そして、第1撮像素子部102Rは、取得した第1画像信号を第1A/D変換部103Rに出力する。第1撮像素子部102Rは、例えば、CMOSイメージセンサやCCDイメージセンサにより実現される。
 第2撮像部100Lは、図1に示すように、第2光学系101Lと、第2撮像素子部102Lとを含む。第2撮像部100Lは、被写体からの光を第2光学系101Lにより集光し、集光した光を第1撮像素子部102Rにより第2画像信号(左眼用画像、L画像)として取得する。そして、第2撮像部100Lは、取得した第2画像信号を第2A/D変換部103Lに出力する。
 また、第2撮像部100Lでは、フォーカス制御部123からの指示に従い、フォーカス制御が実行される。また、第2撮像部100Lでは、輻輳制御部124からの指示に従い、輻輳制御が実行される。なお、第2撮像部100Lは、第1撮像部100R同様、輻輳制御部124からの指示に従い、輻輳制御が実行されるように、輻輳角を調整することができる機能を有している。
 第2光学系101Lは、被写体からの光を集光し、第2撮像素子部102Lの撮像素子面に結像させる。第2光学系101Lは、1または複数のレンズから構成され、フォーカスレンズ、ズームレンズ、絞り等を含んで構成される。第2光学系101Lでは、フォーカス制御部123からの指示に従い、フォーカス制御が実行される。
 第2撮像素子部102Lは、第2光学系101Lにより集光された被写体からの光を光電変換により第2画像信号として取得(撮像)する。そして、第2撮像素子部102Lは、取得した第2画像信号を第2A/D変換部103Lに出力する。第2撮像素子部102Lは、例えば、CMOSイメージセンサやCCDイメージセンサにより実現される。
 第1A/D変換部103Rは、第1撮像部100Rにより取得された第1画像信号(R画像)を入力とし、入力された第1画像信号に対して、A/D変換を行う。そして、第1A/D変換部103Rは、デジタル信号に変換した第1画像信号を、視差検出部104および第1視差付加部111Rに出力する。
 第2A/D変換部103Lは、第2撮像部100Lにより取得された第2画像信号(L画像)を入力とし、入力された第2画像信号に対して、A/D変換を行う。そして、第2A/D変換部103Lは、デジタル信号に変換した第2画像信号を、視差検出部104および第2視差付加部111Lに出力する。
 視差検出部104は、第1A/D変換部103から出力される第1画像信号(R画像)および第2A/D変換部103Lから出力される第2画像信号(L画像)を入力とする。視差検出部104は、入力されたR画像およびL画像に対して、マッチング処理を実行し、両眼視差量を検出する。そして、視差検出部104は、検出した両眼視差量に関する情報を、最小視差検出部105、最大視差検出部106、および、主被写体視差検出部107に出力する。
 最小視差検出部105は、視差検出部104から出力された両眼視差量に関する情報を入力とし、入力された両眼視差量に関する情報に基づいて、撮影シーン中(撮像画像中)の最近点の視差、すなわち、最小の視差(最小視差)を検出する。そして、最小視差検出部105は、検出した最小視差に関する情報を制御部110に出力する。
 最大視差検出部106は、視差検出部104から出力された両眼視差量に関する情報を入力とし、入力された両眼視差量に関する情報に基づいて、撮影シーン中(撮像画像中)の最遠点の視差、すなわち、最大の視差(最大視差)を検出する。そして、最大視差検出部106は、検出した最大視差に関する情報を制御部110に出力する。
 主被写体視差検出部107は、視差検出部104から出力された両眼視差量に関する情報を入力とし、入力された両眼視差量に関する情報に基づいて、撮影シーン中(撮像画像中)の主被写体の視差(主被写体視差)を検出する。そして、主被写体視差検出部107は、検出した主被写体視差に関する情報を制御部110に出力する。なお、主被写体視差検出部は、制御部110から、どの被写体に合焦しているかについての情報を取得し、当該情報に基づいて、主被写体を特定する。
 制御部110は、立体撮像装置1000の全体および各機能部を制御する機能部である。制御部110は、フォーカス制御、輻輳制御、主被写体の検出処理、表示情報の取得処理、定位情報の取得処理等を実行する。また、制御部110は、最小視差検出部105により検出された最小視差と、最大視差検出部106により検出された最大視差と、主被写体視差検出部107により検出された被写体視差とに基づいて、補正視差を算出する。そして、制御部110は、算出した補正視差に関する情報を第1視差付加部111Rおよび第2視差付加部111Lに出力する。なお、制御部110は、例えば、CPU(マイクロプロセッサ)、ROM、RAM等により実現される。
 フォーカス制御部123は、制御部110からの指令に基づき、第1光学系101Rおよび第2光学系101Lのピントを調節する(第1光学系101Rおよび第2光学系101Lに対してフォーカス制御を実行する)。
 輻輳制御部124は、制御部110からの指令に基づき、第1撮像部100Rおよび第2撮像部100Lに対して、輻輳制御(例えば、輻輳角の制御)を実行する。
 第1視差付加部111Rは、第1A/D変換部103Rから出力された第1画像信号(R画像)および制御部110により算出された補正視差に関する情報を入力とする。第1視差付加部111Rは、第1画像信号(R画像)に、制御部110により算出された補正視差を付加する。つまり、第1視差付加部111Rは、制御部110により算出された補正視差に相当する分だけR画像を横方向にシフトすることにより視差(補正視差)を付加する。そして、第1視差付加部111Rは、補正視差を付加した第1画像信号(R画像)を第1トリミング部112Rに出力する。
 第2視差付加部111Lは、第2A/D変換部103Lから出力された第2画像信号(L画像)および制御部110により算出された補正視差に関する情報を入力とする。第2視差付加部111Lは、第2画像信号(L画像)に、制御部110により算出された補正視差を付加する。つまり、第2視差付加部111Lは、制御部110により算出された補正視差に相当する分だけL画像を横方向にシフトすることにより視差(補正視差)を付加する。そして、第2視差付加部111Lは、補正視差を付加した第2画像信号(L画像)を第2トリミング部112Lに出力する。
 第1トリミング部112Rは、第1視差付加部111Rから出力された第1画像信号(R画像)を入力とし、入力されたR画像に対してトリミング処理を実行する。そして、第1トリミング部112Rは、トリミング処理を実行したR画像(第1画像信号)を出力する。
 第2トリミング部112Lは、第2視差付加部111Lから出力された第2画像信号(L画像)を入力とし、入力されたL画像(第2画像信号)に対してトリミング処理を実行する。そして、第2トリミング部112Lは、トリミング処理を実行したL画像(第2画像信号)を出力する。
 表示情報設定部121は、立体撮像装置1000で撮影された立体画像(立体映像)を視聴する表示装置(不図示)の表示条件を設定し、設定した表示条件(表示情報)を制御部110に出力する。
 定位情報設定部122は、主被写体を、表示装置のスクリーン面(表示スクリーン面)を基準としてどの位置に定位させるかを設定する。つまり、定位情報設定部122は、主被写体を、表示スクリーン面の前後のどの位置に定位させるかを設定し、設定した情報(定位情報)を制御部110に出力する。
 なお、本実施形態では、図1に示すように、立体撮像装置1000により、主被写体である人物900と、遠景である山901と、近景である草花902とを含むシーンを撮影する場合を例として、説明する。
 また、「距離情報取得部」は、制御部110によりコントラスト検出方式による距離情報取得処理を実行することにより、その機能が実現される。
 「理想視差取得部」は、制御部110により、理想視差(主被写体についての理想視差)を算出することにより、その機能が実現される。
 「撮影条件設定部」は、制御部110の指令に従い、フォーカス制御部123、輻輳制御部124、および、撮像部(第1撮像部100Rおよび第2撮像部100L)が制御されることで、その機能が実現される。
 「現実視差取得部」は、視差検出部104および主被写体視差検出部107により、実現される。
 「補正視差算出部」は、制御部110により、補正視差が算出されることにより、その機能が実現される。
 「視差補正部」は、第1視差付加部111Rおよび第2視差付加部111Lにより実現される。
 <1.2:立体撮像装置の動作>
 以上のように構成された立体撮像装置1000の動作について、以下、説明する。
 撮影者は、撮影前に、表示情報設定部121および定位情報設定部122において、撮影画像を視聴する際の表示条件(表示情報)、および、主被写体900を表示スクリーンに対して前後どの位置に定位されるかという演出条件(定位情報)を入力(設定)する。
 制御部110は、表示情報設定部121および定位情報設定部122に設定された表示情報および定位情報に基づいて、立体撮像装置1000の撮影時のパラメータ(撮影パラメータ)の調整等の各種制御を行う。
 撮影者が立体撮像装置1000を被写体に向けると、制御部110は、主被写体900のコントラストが最大になるようにフォーカス制御部123を用いて第1光学系101Rおよび第2光学系101Lに含まれるフォーカスレンズ(不図示)を光軸方向に前後させ、主被写体900にピント(焦点)を合わせる。主被写体900に焦点があった状態(合焦状態)において、制御部110は、第1光学系101Rおよび/または第2光学系101Lの位置情報(焦点距離等)から主被写体900までの距離(被写体距離)Rcを検出する。つまり、制御部110は、コントラスト検出方式により、主被写体900までの距離Rcを検出する。
 なお、図1では、立体撮像装置1000は、コントラスト値を評価するための画像(コントラスト評価用画像)として、R画像およびL画像の両方を制御部110に入力させる構成であるが、これに限定されることはなく、例えば、立体撮像装置1000は、片方の画像(R画像またはL画像)により、コントラスト値を評価する構成であってもよい。
 また、「被写体距離」とは、撮像部の撮像素子(例えば、CCD型イメージセンサやCMOS型イメージセンサ)面上に焦点を結んでいる物体からカメラ(立体撮像装置1000)までの距離をいい、物点距離と、共役距離(物像間距離)を含む概念である。また、「被写体距離」は、立体撮像装置1000から被写体までの概略の距離を含む概念であり、例えば、(1)立体撮像装置1000の光学系のレンズ全体(第1光学系101Rおよび/または第2光学系101L)の重心位置から被写体までの距離、(2)撮像部(第1撮像部100Rおよび/または第2撮像部100L)の撮像素子(第1撮像素子部102Rおよび/または第2撮像素子部102L)の撮像素子面から被写体までの距離、(3)立体撮像装置1000の重心(あるいは中心)から被写体までの距離等を含む概念である。
 次に、制御部110は、主被写体までの距離Rcと定位情報設定部122の設定値に応じて、適切な光学系の輻輳角を決定する。そして、決定した輻輳角に基づいて、制御部110は、輻輳制御部124を用いて、立体撮像装置1000の左右の光学系の輻輳角を制御する。例えば、制御部110は、以下の(1)、(2)により、輻輳角を制御する。
(1)輻輳角制御方式(交差式)
 制御部110は、第1撮像部100Rおよび第2撮像部100Lの光軸を変更させる(例えば、第1撮像部100Rおよび第2撮像部100Lが所定の回転軸により回転できる機構を有しており、その回転軸により所定の角度を回転させることにより、第1撮像部100Rおよび第2撮像部100Lの光軸の向きを変更させることで輻輳角を調整する)。
(2)センサシフト式
 制御部110は、第1撮像部100Rの第1撮像素子部102Rの撮像素子面および第2撮像部100Lの第2撮像素子部102Lの撮像素子面を(平行)移動させることで画角中心軸の方向を調整する。
(3)制御部110は、上記(1)、(2)を組み合わせて、輻輳制御を実行する。
 そして、上記輻輳制御を行った後(撮影準備が完了した状態で)、立体撮像装置1000により、立体画像(立体映像)(R画像(映像)およびL画像(映像))を撮像する。
 そして、視差検出部104は、撮影シーンを複数のブロックに分割し、各々のブロック毎に、R画像およびL画像から、視差を検出する。
 図3は、視差検出部104で実行される視差検出処理を説明するための図である。
 視差検出部104は、図3に示すように、撮影シーンを複数のブロックに分割し、ブロック毎にL画像およびR画像のマッチングを取り、当該ブロックの視差を決定する。そして、視差検出部104は、ブロックごとに決定した視差をブロックに対応付けて格納・保持する。つまり、視差検出部104は、図3に示す視差マップメモリ181(撮影シーンの各ブロックの視差を格納することができるメモリ)に対応するブロックの視差値を格納する。ここでは、遠方は正の視差値、近景は負の視差値で表すものとする。なお、視差マップメモリ181は、例えば、立体撮像装置1000の各機能部がアクセスできるメモリ(例えば、RAM)を用いて実現される。
 最小視差検出部105は、視差マップメモリ181に格納されている最も小さい視差値(多くの場合、この視差値は負値になる)を検出する。また、最大視差検出部106は、視差マップメモリ181に格納されている最も大きな視差値(通常、この視差値は、正の大きい値になる)を検出する。
 主被写体視差検出部107は、フォーカスを合わせた被写体900を主被写体と判断する(主被写体視差検出部107が制御部110から取得したどの被写体に合焦しているかに関する情報から被写体900を主被写体と判断する)。そして、主被写体視差検出部107は、視差マップメモリ181から、主被写体(被写体900)の位置に対応するブロックの視差値(主被写体視差値)を検出する。
 そして、制御部110は、主被写体視差検出部107により検出された主被写体視差値と、無歪み撮影(カメラ性能等に起因する誤差が全くない理想的な撮影)により主被写体が撮像された場合に取得される視差(理想視差)とに基づいて、補正視差を求める。
 ≪無歪み撮影(理想的な撮影)について≫
 ここで、図4を用いて、最も自然な奥行き感が考えられる「無歪み撮影」を実現する条件について、説明する。
 図4は、無歪み撮影について説明するための図である。
 図4(a)は、理想的な精度を持つ立体撮像装置1000を用いた場合の撮影時における撮影要素(左眼用画像の撮像点(第2光学系に対応)、右眼用画像の撮像点(第1光学系101Rに対応)、仮想スクリーン、主被写体)の幾何学的関係(位置関係)を模式的に示す図である。図4(b)は、表示時における表示要素(左眼の位置、右眼の位置、表示スクリーン、主被写体の定位位置)の幾何学関係(位置関係)を模式的に示す図である。
 図4は、説明を簡単にするために、撮影時のSB(図4の距離S)が人間の眼間距離(約6.5cm)に等しく、かつ、ズームを用いず撮影される場合の撮影要素および表示要素の幾何学的関係を示している。
 図4の例では、表示情報設定部121に表示側の条件として、(表示)スクリーンサイズW、視聴距離Lが設定されており、定位情報設定部122には、無歪み撮影を表すコードが設定されている。そして、立体撮像装置1000では、制御部110により、無歪み撮影を示すコードが設定されたことを検出した場合、無歪み撮影が実行される。
 立体撮像装置1000において無歪み撮影が実行される場合、図4(a)に示すように、輻輳制御部124は、第1撮像部100R(第1光学系101R)の光軸と第2撮像部100L(第2光学系101L)の光軸(図4(a)中の点線)とが距離Lに仮想的に設けた仮想スクリーンVS上(P点)で交差するように輻輳を制御する。このように輻輳制御を行った後、立体撮像装置1000により撮像した場合、撮像された立体画像(R画像およびL画像)において、仮想スクリーンVS上に位置する被写体についての視差はなく、仮想スクリーンVS上に位置する被写体については、L画像およびR画像において同じ画像になる。仮想スクリーンVSより遠い被写体については、第2撮像部100L(左眼用画像取得用の撮像部)による撮影は、第1撮像部100R(右眼用画像取得用の撮像部)の撮影に対して、左にずれた状態で行われる。例えば、図4(a)の場合において、A点に存在する被写体(仮想スクリーンVSより遠い被写体)を撮影する場合、仮想スクリーンVS上において、左方向の視差x1が存在することになる。なお、以下では、この方向(図4の左方向)の視差を「正」とする。
 逆に、仮想スクリーンVSよりも手前の被写体は、負の視差を持つ。
 図4(a)の場合、仮想スクリーンVSより遠い距離Rの被写体を撮影し、x1(>0)の視差を得ている。
 図4(a)の状態で、立体撮像装置1000により撮影した立体画像(R画像およびL画像)を、図4(b)の状態でディスプレイ(表示スクリーンDS)に表示させた場合、つまり、表示スクリーン上の視差xを撮影時の視差x1と一致させて表示させた場合、図4(a)で二つのカメラと被写体を結ぶ三角形(三角形ABC)と、図4(b)で両眼と被写体像を結ぶ三角形(三角形DEF)は、合同になる。このため、図4(b)の状態で表示させたときに感じる距離感Rxは、撮影時の距離Rと一致する。この関係は、全ての距離にある被写体に関して成立するため、近景から無限遠の遠景まで忠実な距離感で表示できる。すなわち、図4(a)の状態で撮影することで、立体撮像装置1000において、無歪み撮影を行うことができる。
 したがって、理想的な精度を持つ立体撮像装置では、視差調整を行わなくても無歪み撮影が可能であり、その無歪み撮影(例えば、図4(a)の状態による撮影)により取得した立体画像を所定の視聴環境(例えば、図4(b)の状態による視聴環境)により表示させることで、実際の被写体距離(撮影時の被写体距離)と線形関係を保持する距離感を再現する立体画像を表示させることができる。
 また、無歪み撮影では、主被写体の定位位置は、仮想スクリーンVSをどの位置に設定するかには無関係であり、無歪み撮影により取得した立体画像を所定の視聴環境により表示させることで、主被写体の定位位置までの距離(視点の中点から主被写体までの距離)を、実際の被写体までの距離(撮影時の被写体距離)に一致させることができる。
 ≪精度の悪い現実的な立体撮像装置での撮影について≫
 次に、精度の悪い現実的な立体撮像装置での撮影した場合に発生する視差について、図5を用いて説明する。
 図5は、少し誇張して描いているが、図5において、輻輳を図5中の点線で示している。図5の場合、立体撮像装置の光軸の精度が不十分であるため、直線BP2と、直線CP1とは、仮想スクリーンVS上で交差しない、つまり、仮想スクリーンVS上で、第1撮像部100R(第1光学系101R)の光軸と第2撮像部100L(第2光学系101L)の光軸とが交差しない。したがって、仮想スクリーンVS上に位置する被写体も視差を持ってしまう。
 図5の例では、距離Rにある被写体の視差は、誤差を含めてx2となる。図5(a)の状態で、立体撮影した立体画像を、図5(b)に示す視聴環境で、表示スクリーンDS上に表示させた場合、すなわち、視差x=x2として、ディスプレイ(表示スクリーンDS)に表示させた場合、図5(b)に示すように、大きな距離感の誤差が発生した立体画像が表示されることになる。つまり、撮影時に、仮想スクリーンVSの後方のA点に存在した被写体が、表示時には、表示スクリーンDSの前方のG点に定位することになり、大きな距離感の誤差が発生した立体画像が表示されることになる。
 図5の例のように、撮影時において、視差の誤差が負方向に発生した場合、表示時において、全ての距離の被写体が近づく方向に距離感が歪む。特に、無限遠は、大きく手前に圧縮される。すなわち、撮影時の無限遠に存在していた被写体は、表示時には、かなり手前に定位されることになる。
 また、撮影時において、視差の誤差が正方向に発生した場合、表示において、全ての距離の被写体は遠ざかる方向に距離感が歪む。このとき、遠景は、無限遠を超えてしまい、後方発散になる可能性がある。そして、このような後方発散する領域の遠景の被写体は、表示時において、融像できない画像として表示されることになる。
 本実施形態の立体撮像装置1000は、上記のように、立体撮像装置1000に現実の誤差に起因して発生する仮想スクリーンVS上の視差の誤差を検出し、補正することで、適切な視差調整を行う。
 具体的には、立体撮像装置1000では、制御部110により、主被写体視差検出部107により検出された主被写体視差値(仮想スクリーンVS上の視差に相当)と、無歪み撮影(カメラ性能等に起因する誤差が全くない理想的な撮影)により主被写体が撮像された場合に取得される視差(理想視差)とに基づいて、補正視差が求められる。
 そして、求められた補正視差が、第1視差付加部111Rおよび第2視差付加部111Lにより、R画像およびL画像に付加される。具体的には、第1視差付加部111Rおよび第2視差付加部111Lでは、補正視差分だけ、R画像およびL画像が水平方向にシフトされる。
 補正視差が付加されたR画像およびL画像は、第1トリミング部112Rおよび第2トリミング部112Lにより、立体画像として採用できない部分を削除(立体画像を構成する上で無駄な部分を削除)することで、トリミング処理が実行される。
 そして、トリミング処理が実行されたR画像(第1画像信号)およびL画像(第2画像信号)は、第1トリミング部112Rおよび第2トリミング部112Lから出力される。
 なお、第1視差付加部111Rおよび第2視差付加部111Lにおいて、補正視差を付加する処理を行わず、例えば、補正視差に関する情報を、所定の画像フォーマット(映像フォーマット)のヘッダ部分に格納して、出力させるようにしてもよい。この場合、補正視差を付加する処理、トリミング処理を省略することができる。
 ≪視差補正方法の処理フロー≫
 次に、本実施形態における視差補正方法について、図6のフローチャートを用いて説明する。
(ステップ401):
 制御部110は、フォーカス制御部123の制御量からピントを合わせた主被写体の被写体距離R、および、主被写体のピントを合わせた状態における、当該主被写体の画面上(カメラスルー画像(カメラスルーR画像および/またはL画像)上)の概略位置を検出する。
(ステップ402):
 主被写体視差検出部107は、視差検出部104により生成された視差マップメモリ181(例えば、図3の視差マップメモリ181)を用いて、ピントを合わせた主被写体位置(例えば、図3中の太線で囲んだブロック)の視差x2を取得する。
 なお、図3の場合のように、主被写体に相当するブロックが複数個検出された場合、例えば、以下のようにして、視差x2を決定する。
(1)検出されたブロックに対応する複数の視差の平均値(重付平均値(例えば、中心からの距離により重み付けした平均値)、2乗平均値等を含む)を視差x2とする。
(2)検出されたブロックに対応する複数の視差の中の任意の1ブロックの視差を視差x2とする。
(3)検出されたブロックに対応する複数の視差の中の中心位置の1ブロックの視差を視差x2とする。
(4)検出されたブロックに対応する複数の視差の中のメディアン値をとる視差を視差x2とする。
(ステップ403):
 制御部110は、主被写体までの距離Rを用いて、図4(a)を例に説明したように、誤差がないカメラ(立体撮像装置)の場合に、主被写体が取るべき視差x1(理想視差x1)を推定(算出)する。具体的には、制御部110は、立体撮像装置1000の表示情報設定部121により設定された表示情報(視聴環境を決定する情報)から、仮想スクリーン(表示スクリーン)幅W、視聴距離L、ステレオベースS(基線長S)を取得する。そして、制御部110は、仮想スクリーン(表示スクリーン)幅W、視聴距離L、ステレオベースS(基線長S)、および、被写体距離Rから、主被写体の理想視差x1を推定(算出)する。
(ステップ404):
 制御部110は、ステップ403により「推定した主被写体の視差x1(理想視差x1)」と、ステップ402により取得した「実際に得られた主被写体の視差x2(現実視差x2)」とから視差の誤差Δxを次式により算出する。
Figure JPOXMLDOC01-appb-M000001
(ステップ405):
 Δxは、立体撮像装置1000の光学系の精度による視差誤差とみなすことができるので、主被写体だけでなく全ての被写体に対して同じ誤差が重畳されていると考えられる。したがって、第1視差付加部111Rおよび第2視差付加部111Lにより、視差誤差Δxを補正誤差として、立体画像の全画素に補正視差Δxを付加する(R画像およびL画像を補正視差Δx分だけ水平方向にシフトさせる)。
 立体撮像装置1000において、上記視差補正方法を実行することにより、視差補正後の立体画像は、理想視差を有する立体画像となる。つまり、視差補正後の立体画像は、無歪み撮影により取得された立体画像とほぼ等価となる。
 例えば、x1=4、x2=-10である場合、Δx=x1-x2=14となるので、補正後の視差x’=x2+Δx=-10+14=4となり、理想視差x1(=4)と一致する。
 また、上記視差補正方法を実行することにより、例えば、仮想スクリーン上の被写体の視差は、視差検出部104が検出した視差が補正され視差ゼロになる。
 このように、立体撮像装置1000により、上記視差補正方法を実行することで、図4(a)に示した理想的な光学系によるものと同じ視差を得ることができ、無歪み撮影と等価な立体撮影を実現することができる。
 以上のように、立体撮像装置1000では、予め設定された視聴環境(表示条件)と主被写体の被写体距離から主被写体の理想視差x1を推定(算出)するとともに、視差検出部104および主被写体視差検出部107により仮想スクリーン上に実際に生じる主被写体の視差(現実視差)x2を取得する。そして、立体撮像装置1000では、理想視差x1と現実視差x2とから補正視差Δxを求め、求めた補正視差Δxを立体画像に付加する(水平方向にシフトする)ことで、無歪み撮影と等価な立体撮影を実現することができる。
 したがって、立体撮像装置1000により取得された立体画像は、適切な視差調整がなされた立体画像となる。すなわち、立体撮像装置1000では、カメラ固有の誤差(特に、光学系により発生する誤差)が存在する場合(例えば、精度の高い輻輳制御ができない場合)であっても、適切な視差調整を行うことができる。
 ≪第1変形例(主被写体の可変定位演出(自由定位撮影))≫
 次に、本実施形態の第1変形例について説明する。
 本変形例の立体撮像装置は、上記実施形態のように無歪み撮影を目的とするのではなく、表示時において、主被写体を表示スクリーンの前後に自由に定位させる演出的撮影(自由定位撮影)を行うことを目的としたものである。
 図7(a)は、撮影時の状態を模式的に示す図である。図7(b)は、図7(a)の状態で立体撮影された立体画像を表示した時の状態を模式的に示す図である。
 図7(a)は、立体撮像装置の光学系の光軸が大きく変動している状態を示している。これは、上記実施形態で説明した場合(図5(a)の場合)と同様である。なお、本変形例において、上記実施形態と同様の部分については、説明を省略する。
 なお、本変形例の立体撮像装置の構成は、第1実施形態の立体撮像装置1000と同様である。
 本変形例における視差補正方法について、図8のフローチャートを用いて説明する。
(ステップ411):
 制御部110は、フォーカス制御部123の制御量からピントを合わせた主被写体の被写体距離R、および、主被写体のピントを合わせた状態における、当該主被写体の画面上(カメラスルー画像(カメラスルーR画像および/またはL画像)上)の概略位置を検出する。
(ステップ412):
 主被写体視差検出部107は、視差検出部104により生成された視差マップメモリ181(例えば、図3の視差マップメモリ181)を用いて、ピントを合わせた主被写体位置(例えば、図3中の太線で囲んだブロック)の視差x2(現実視差x2)を取得する。
(ステップ413):
 制御部110は、演出として主被写体を定位させたい定位位置R3を定位情報設定部122から読み取り、図7(b)に示した幾何学的関係(位置関係)より、誤差がないカメラ(立体撮像装置)で撮影した場合であって、主被写体をR3の距離に定位させるための視差x3(理想視差x3)を次式により算出する。
Figure JPOXMLDOC01-appb-M000002
(ステップ414):
 制御部110は、ステップ413により「所定の位置に主被写体を定位させるための視差x3(理想視差x3)」と、ステップ412により取得した「実際に得られた主被写体の視差x2(現実視差x2)」とから視差の誤差Δxを次式により算出する。
Figure JPOXMLDOC01-appb-M000003
(ステップ415):
 Δxは、本変形例の立体撮像装置の光学系の精度による視差誤差とみなすことができるので、主被写体だけでなく全ての被写体に対して同じ誤差が重畳されていると考えられる。したがって、第1視差付加部111Rおよび第2視差付加部111Lにより、視差誤差Δxを補正誤差として、立体画像の全画素にΔxを付加する(R画像およびL画像を補正視差Δx分だけ水平方向にシフトさせる)。
 本変形例の立体撮像装置において、上記視差補正方法を実行することにより、主被写体を、立体撮像装置の光学系の精度に影響されず、所望の距離に定位させる立体画像を取得することが出来る。本変形例の立体撮像装置により取得される立体画像は、無歪み撮影により取得される立体画像に比べて、遠景の自然さは低下するが、本変形例の立体撮像装置では、主被写体を所望の位置に定位させる立体画像を取得することができるので、撮影者の意図による自由な演出が可能になる。
 また、主被写体の距離Rより定位させる距離R3が小さい場合、即ち、実際の位置よりも主被写体を手前に定位させる場合、本変形例の立体撮像装置により取得される立体画像は、遠方が極端に手前に圧縮されるため、無歪み撮影により取得される立体画像に比べて、遠景の自然さが劣化する。しかし、本変形例の立体撮像装置により取得される立体画像は、遠近感が圧縮されるため、見やすい映像になる効果がある。
 また、本変形例の立体撮像装置により取得される立体画像では、主被写体よりも手前の被写体は、大きく手前に近づくため、遠近感が強調され不自然な画像になりがちである。しかし、主被写体よりも前方の被写体があまりないシーンに限れば、本変形例の立体撮像装置を使用することができるため、視差検出部104により作成される視差マップメモリ181中の最近点の視差(最小視差検出部105により取得される最小視差)に応じて、主被写体を前方に定位させる限度(範囲)を決めることが出来る。そして、本変形例の立体撮像装置において、決定した限度(範囲)内において、撮影者に、主被写体を自由に定位させることで、破綻がない範囲で安全に主被写体を前方に定位させる演出を実現することができる。
 また、本変形例の立体撮像装置は、最近点が不自然になる限度を超える場合、撮影者に対して、音や映像などによるアラートを表示して撮影者をアシストする機能を備えるものであってもよい。
 また、主被写体の距離Rより定位させる距離R3が大きい場合、即ち、実際の位置よりも主被写体を後方に定位させる場合、本変形例の立体撮像装置により取得される立体画像において、主被写体より後方の被写体は、極端に遠方に遠ざけられ、遠近感が誇張されがちである。さらに、ある距離より遠い被写体は、後方発散(幾何学的には無限遠より遠ざかり、二重像になり立体視できなくなる現象)が起こる。しかし、主被写体よりも後方の被写体があまりないシーンに限れば、本変形例の立体撮像装置を使用することができるため、視差検出部104により作成される視差マップメモリ181中の最遠点の視差(最大視差検出部106により取得される最大視差)に応じて、主被写体を後方に定位させる限度(範囲)を決めることが出来る。そして、本変形例の立体撮像装置において、決定した限度(範囲)内において、撮影者に、主被写体を自由に定位させることで、破綻がない範囲で安全に主被写体を後方に定位させる演出を実現することができる。
 また、本変形例の立体撮像装置は、最遠点が不自然になる限度を超える場合、撮影者に対して、音や映像などによるアラートを表示して撮影者をアシストする機能を備えるものであってもよい。
 ≪第2変形例(2回撮り)≫
 次に、本実施形態の第2変形例について説明する。
 本変形例の立体撮像装置は、静止画カメラの手持ちによる二回撮りで立体撮影を行うものである。
 従来、このような撮影では、縦方向も横方向も極めて大きな誤差の発生が避けられないため、カメラ単独での立体画像作成は難しく、PC(パーソナルコンピュータ)を用いたレタッチソフトなどにより、取得した立体画像を手作業で調整する必要があった。
 立体画像の縦方向のずれについては、ずれ量が目視でも容易に見積もれるため、比較的簡単に補正が可能である。
 しかし、立体画像の左右方向のずれについては、本来の両眼視差と誤差とが区別できないため、手作業による調整であっても、左右方向のずれを修正することは困難である。たとえば、立体画像に、山や雲のように無限遠と見なせる遠景があれば、その遠景の被写体を無限遠の被写体であると判断し、その無限遠の被写体を基準にして、手作業で視差を調整することが可能である。しかし、無限遠の被写体が無いシーンでは、たとえ手作業によっても視差を正しく調整することは出来ず、何度も立体表示させながら良好な表示になるよう調整せざるを得ない。
 本変形例の立体撮像装置は、主被写体が存在するシーンであればどんなシーンであっても、適切な視差補正を可能にするものである。
 図8に本変形例の立体撮像装置1000Aの概略構成図を示す。
 図1に示す第1実施形態の立体撮像装置1000は、2つの光学系を有しており、信号処理系も2系統備えた2眼式カメラであるが、本変形例の立体撮像装置1000Aは、単眼のカメラによる2回撮りにより立体画像を取得するものである。
 立体撮像装置1000Aは、単眼式の静止画カメラの構成を有しており、二回撮りにより立体撮影を行う。二眼式カメラである第1実施形態の立体撮像装置1000との相違点について説明する。
 立体撮像装置1000Aは、輻輳制御部124が無く、画像メモリ部125が追加された構成となっている。
 また、立体撮像装置1000Aは、単眼式であるので、1つの撮像部100(光学系101および撮像素子部102)と、1つのA/D変換部103と、を備える。
 また、ユーザは、図示しないユーザIF用表示部に表示される撮影手順に従い、立体撮像装置1000Aにより立体撮影を行う。
 撮像部100は、第1撮像部R(または第2撮像部100L)と同様のものである。
 A/D変換部103は、第1A/D変換部103R(または第2A/D変換部103L)と同様のものである。
 画像メモリ部125は、撮像部100により取得され、A/D変換部103によりA/D変換されたR画像またはL画像を、記憶する。そして、画像メモリ部125は、制御部の指示に従い、所定のタイミングで、記憶しているR画像を視差検出部104および第1視差付加部111Rに出力する。また、画像メモリ部125は、制御部の指示に従い、所定のタイミングで、記憶しているL画像を視差検出部104および第2視差付加部111Lに出力する。
 次に、立体撮像装置1000Aを用いた二回撮りによる立体撮影について、図12の処理フローを用いて、説明する。
(ステップ421):
 ユーザは、ユーザIF用表示部からの指示に従い、シャッタを半押しし主被写体にフォーカスを合わせる。制御部110は、フォーカス制御部123の制御量からピントを合わせた主被写体の被写体距離R、および、ピントを合わせた状態における、当該主被写体の画面上(カメラスルー画像上)の概略位置を検出する。
(ステップ422):
 次に、ユーザは、そのままシャッタを押し(半押し状態から全押し状態にし)、左眼用画像(L画像)を撮影する。撮影された左眼用画像(L画像)は、画像メモリ部125に格納される。
(ステップ423):
 ユーザは、ユーザIF用表示部から指示された距離だけ撮影位置を右に移動させ、立体撮像装置1000Aにより、右眼用画像(R画像)を撮影する。撮影された右眼用画像(R画像)は、画像メモリ部125に格納される。
(ステップ424):
 主被写体視差検出部107は、視差検出部104により生成された視差マップメモリ181(例えば、図3の視差マップメモリ181)を用いて、ピントを合わせた主被写体位置(例えば、図3中の太線で囲んだブロック)の視差x2(現実視差x2)を取得する。
(ステップ425):
 制御部110は、主被写体までの距離Rを用いて、主被写体が取るべき視差x1(理想視差x1)を推定(算出)する。
(ステップ426):
 制御部110は、ステップ425により「推定した主被写体の視差x1(理想視差x1)」と、ステップ424により取得した「実際に得られた主被写体の視差x2(現実視差x2)」とから視差の誤差Δxを次式により算出する。
Figure JPOXMLDOC01-appb-M000004
(ステップ427):
 Δxは、立体撮像装置1000Aの光学系の精度による視差誤差とみなすことができるので、主被写体だけでなく全ての被写体に対して同じ誤差が重畳されていると考えられる。したがって、第1視差付加部111Rおよび第2視差付加部111Lにより、視差誤差Δxを補正誤差として、立体画像の全画素にΔxを付加する(R画像およびL画像を補正視差Δx分だけ水平方向にシフトさせる)。
 立体撮像装置1000Aにおいて、上記視差補正方法を実行することにより、視差補正後の立体画像は、理想視差を有する立体画像となる。つまり、視差補正後の立体画像は、無歪み撮影により取得された立体画像とほぼ等価となる。
 このように、立体撮像装置1000Aにより、上記視差補正方法を実行することで、図4(a)に示した理想的な光学系によるものと同じ視差を得ることができ、無歪み撮影と等価な立体撮影を実現することができる。
 さらに、立体撮像装置1000Aでは、主被写体を基準に理想視差x1を求めるので、撮像シーンに主被写体があれば、どんなシーンであっても、上記視差補正方法を実行することで、適切な視差補正を施した立体画像を取得することができる。
 したがって、本変形例は、極めて有効な応用例を示すものである。上記では、無歪み撮影を例に説明したが、本変形例はこれに限定されることはなく、例えば、本変形例の立体撮像装置1000Aにより、第1変形例で説明した処理と同様の処理を行うことで、主被写体の演出的な定位を実現する立体撮影を行うことも可能である。
 なお、本変形例の立体撮像装置1000Aによる立体撮影では、上下方向にも当然大きな誤差が存在する可能性が高いが、視差マッチングにより、上下方向の誤差(ずれ量)は、容易に検出し補正することができる。そのため、本変形例の立体撮像装置1000Aにより、高精度な立体画像を取得することができる。
 ≪第3変形例(単眼式立体カメラへの応用例)≫
 次に、本実施形態の第3変形例について説明する。
 単眼式立体カメラにより立体撮影を行う従来技術として、単眼レンズの左半分と右半分を実質的に隠して2枚の画像を撮影し、撮影した2枚の画像を立体画像(左眼用画像および右眼用画像)とすることで、比較的狭い基線長(撮影SB)での立体撮影を行う技術がある。
 この従来の単眼式立体カメラにより撮像された立体画像では、ピントの合った主被写体については、左眼用画像(L画像)と右眼用画像(R画像)とが同一になるため、当該主被写体は仮想スクリーン上に定位し、当該主被写体の後方の被写体がぼけながら仮想スクリーン後方に定位し、当該主被写体の前方の被写体が同じくぼけながら仮想スクリーン前方に定位する。この単眼式立体カメラにより立体撮影を行う従来技術では、仮想スクリーン前後の被写体に対して大きなぼけを発生させる必要があるため、単眼式立体カメラに大きなレンズ口径のレンズを装着する必要があるが、簡単に立体撮影ができるというメリットがある。
 しかし、この単眼式立体カメラにより立体撮影を行う従来技術では、フォーカスを合わせた主被写体が自動的に仮想スクリーン面上に配置されるという特性があり、立体撮影の経験の少ないカメラマンでも簡単に立体撮影ができるという特長をもつが、前述のような無歪み撮影や自由な演出(主被写体を所望の位置に定位させる演出)が出来ないという課題がある。
 本変形例では、上記単眼式立体カメラにより取得される立体画像に所定の視差を付加することで、無歪み撮影により取得される立体画像または自由定位撮影により取得される立体画像を取得する方法について説明する。
 なお、本変形例の立体撮像装置(上記単眼式立体カメラと同様の光学系および撮像部を有し、それ以外の部分については、立体撮像装置1000と同様の構成の立体撮像装置)の構成図は省略するが、構成要件とその番号は、図1に準ずるものとする。
 以下、本変形例に係る立体画像取得方法について、図9、図10を用いて、説明する。
 図9は、本変形例に係る立体撮像装置の撮影時および表示時における要素の幾何学的関係(位置関係)を示した図である。
 図10は、本変形例に係る立体撮像装置で実行される立体画像取得方法(視差補正方法)の処理フローを示すフローチャートである。
 以下では、図10のフローチャートに示した手順にしたがって、説明する。
(ステップ431):
 制御部110は、フォーカス制御部123の制御量からピントを合わせた主被写体の被写体距離Rを求める。
(ステップ432):
 本変形例の立体撮像装置では、主被写体の位置が仮想スクリーンVS上となり、かつ、輻輳点が主被写体の位置と一致する。したがって、フォーカスを合わせた主被写体の視差は、「0」になるので、現実視差x2は、x2=0になる。よって、制御部110は、x2=0に設定する。
(ステップ433):
 定位情報設定部122により「無歪み撮影」が指示されているか否かを判定する。
(ステップ434):
 定位情報設定部122により「無歪み撮影」が指示されている場合、制御部110は、主被写体の定位位置までの距離R4(左視点と右視点とを含む線分から主被写体の定位位置までの距離R4)をRに設定する、すなわち、R4=Rに設定する。
(ステップ435):
 定位情報設定部122により「無歪み撮影」が指示されていない場合、制御部110は、演出として主被写体を定位させたい定位位置までの距離R3を定位情報設定部122から読み取り、R4をR3に設定、すなわち、R4=R3に設定する。
(ステップ436):
 制御部110は、本変形例の立体撮像装置において、主被写体をR4の距離に定位させるための視差x4を次式で決定する。
Figure JPOXMLDOC01-appb-M000005
 (無歪み撮影の場合:R4=R)
 (自由定位撮影の場合:R4=R3)
(ステップ434):
 制御部110は、次式により、補正視差Δxを算出する。
Figure JPOXMLDOC01-appb-M000006
 なお、主被写体の視差x2は、「0」であるから、
  Δx=x4-x2=x4
により、視差の補正量Δxは、「主被写体をR4の距離に定位させるための視差x4」と一致する。
(ステップ435):
 Δxは、本変形例の立体撮像装置(単眼式立体カメラ)の原理的な定位との視差の差であるため、主被写体だけでなく全ての被写体に対して同じ視差補正が必要である。したがって、第1視差付加部111Rおよび第2視差付加部111Lにより、本変形例の立体撮像装置の撮像部により撮像した立体画像の全画素にΔxを付加する(R画像およびL画像を補正視差Δx分だけ水平方向にシフトさせる)。
 これにより、本変形例の立体撮像装置では、R4=Rとすることで、無歪み撮影を行った場合と同様の立体画像を取得することができる。つまり、図9に示すように、R4=Rの場合、図9(a)の三角形ABCと図9(b)の三角形DEFとは合同となるので、本変形例の立体撮像装置により、仮想スクリーン位置と表示スクリーン位置とが一致しない場合であっても、無歪み撮影を行った場合と同様の立体画像を取得することができる。
 さらに、本変形例の立体撮像装置では、R4=R3とすることで、自由定位撮影(主被写体位置を所望の位置に定位させる立体画像を取得する立体撮影)を行った場合と同様の立体画像を取得することができる。
 以上のように、本変形例を、単眼式立体カメラに応用することで、無歪み撮影や主被写体の自由な定位などの演出が自由にできる。
 なお、本実施形態および本実施形態の変形例では、輻輳制御部124を用いて物理的に光学系の輻輳角を変化させる動作について説明したが、これに限定されることはない。立体撮像装置において、輻輳角を変化させることと、電気的な視差を変化させること(例えば、立体画像上で視差を付加すること)とは近似的に等価である(「光学的シフト」と「電気的シフト」とは等価の関係である)。
 したがって、本実施形態および本実施形態の変形例で説明した輻輳制御を、それと等価な電気的処理により実現してもよい。例えば、
(1)輻輳制御に相当する処理を、物理的な輻輳は付けずに電気的な視差を付加することで行う。
(2)輻輳制御に相当する処理を、固定の輻輳を用い(輻輳角を固定し)、輻輳制御部124が行う輻輳制御と等価な電気的処理(電気的に視差を付加する処理)に実現する。
 なお、上記(1)、(2)の処理を実行する際、第1視差付加部111Rおよび第2視差付加部111Lにおいて、上記(1)、(2)の処理で発生する視差分も含めて付加させることにより、上記(1)、(2)の処理を実現するようにしてもよい。
 また、第1視差付加部111Rおよび第2視差付加部111Lによる視差の付加は、左画像(L画像)および右画像(R画像)のどちらか一方に対してのみ行ってもよいし、左画像(L画像)および右画像(R画像)の両方に任意のバランスで視差を付加することで実現させてもよい。ただし、この場合、左画像(L画像)と右画像(R画像)とでは付加する視差の極性を反転させる必要がある。
 なお、光学系の精度不足によるずれや2回撮り技法によるずれは、縦方向のずれ、横方向のずれ、回転方向のずれなどが含まれるが、縦方向のずれ、回転方向のずれなどは、マッチング技術により必要な精度で、ずれを検出し補正することが可能である。したがって、本発明の立体撮像装置においてもマッチング技術により、縦方向のずれ、回転方向のずれなどを検出・補正するようにしてもよい。なお、横方向のずれについては、本来視差としてのずれに重畳されたずれであるため、通常のマッチング処理では、視差なのか、横方向のずれなのかの判別が付かず、適切に横方向のずれを検出・補正することはできない。
 回転方向のずれについては、撮像した立体画像の画面全体に対する平均的なマッチング結果により、実用的な補正ができるので、このような補正処理を行い、立体撮像装置において、回転方向のずれを補正するようにしてもよい。
 また、本実施形態および本実施形態の変形例では、説明を簡単にするため、撮影SB(基線長)を人間の両眼間隔に一致している例について説明した。しかし、本発明は、それに限るものではない。図4を例に取ると、撮影ステレオベースが両眼より狭い場合には、同じ比率で仮想スクリーンを近づけるように輻輳を設定することにより、前述の三角形(例えば、図4(a)の三角形ABC)を相似形にすることができる。したがって、この状態で、本発明の立体撮像装置により立体撮影を行うことで、やはり無歪み撮影を実現させることができる。この場合、主被写体を上記比率(上記三角形の相似比に相当)の逆数で遠ざけた演出が可能である。すなわち、撮影SBが小さくなれば、仮想スクリーンが同じ比率(撮影SBの縮小比率)で近づき、撮影SBが大きくなれば、仮想スクリーンが同じ比率(撮影SBの拡大比率)で遠ざかることを考慮することで、本発明の立体撮像装置により、遠近演出(主被写体を遠ざけたり近づけたりする演出)を実現させることができる。
 また、撮影SBを可変出来る立体撮像装置では、これらの撮影パラメータ(撮影SBを調整するための撮影パラメータ)も変更して、良好な立体画像を得ることが出来る。具体的には、主被写体が近景のマクロの場合、立体撮像装置において、撮影SBを狭めることにより自然で見やすい立体画像が撮影でき、また、屋上からビル街を撮影するような広範囲の遠景撮影では、立体撮像装置において、撮影SBを広げることにより、立体感のある良好な画像(立体画像)を撮影することができる。
 また、ズーム倍率が可変出来る立体撮像装置を用いる場合、ズーム倍率を考慮して、無歪み撮影や演出(自由定位撮影)を行うことができる。
 図4、図5、図7の説明では、説明を簡単にするため、撮影SBが両眼間隔に一致し、かつ、ズームも用いない場合について説明したが、これに限定されることはなく、撮影SBが両眼間隔に一致しない場合や、ズームを用いる場合においても、撮影SBおよび/またはズームに関する撮影パラメータを考慮することで、本発明の立体撮像装置による立体撮影を実行できることは言うまでもない。
 また、主被写体に合わせたピントから距離を得る方法として、上記では、画像のコントラストを最大にする方法(コントラスト検出方式)による場合を例に説明したが、これに限定されることはなく例えば、位相差を用いて三角測量から距離を求める方法や、TOF(Time Of Flight)法のように光の到達時間から距離を求める方法や、超音波の反射到達時間から距離を求める方法を用いて主被写体までの距離を測定し、本発明を適用させるようにしてもよい。
 [第2実施形態]
 第2実施形態について、図面を参照しながら、説明する。
 第2実施形態では、撮影時に、立体撮像装置により撮影するシーンが、人間が立体視可能にできるかどうか(立体視し易いか否か)を判定し調整する装置、方法について、説明する。
 図13に、第2実施形態の立体撮像装置2000の概略構成図を示す。
 図13に示すように、本実施形態の立体撮像装置2000の基本構成は、第1実施形態の立体撮像装置1000と同様であり、本実施形態の立体撮像装置2000では、制御部110により実行される処理が、第1実施形態と異なる。
 なお、本実施形態において、第1実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 なお、表示パラメータ取得部は、表示情報設定部121および制御部110により、その機能が実現される。
 視差調整部は、制御部110により、その機能が実現される。
 立体視可否判定部は、制御部110により、その機能が実現される。
 撮影パラメータ調整部は、制御部110により、フォーカス制御部123、輻輳制御部124、および、撮像部(第1撮像部100R、第2撮像部100L)等が制御されることにより、その機能が実現される。
 視差マップ画像生成部は、視差検出部104および制御部110により、その機能が実現される。
 視差角取得部は、制御部110により、その機能が実現される。
 補正視差角算出部は、制御部110により、その機能が実現される。
 補正視差角最大値取得部は、制御部110により、その機能が実現される。
 視差ヒストグラム作成部は、制御部110により、その機能が実現される。
 (2.1:立体視可能条件(融像可能条件))
 一般に、視差の絶対値が大きいときに融像しにくいことが知られている。このことは「パナムの融合域」と呼ばれており、「パナムの融合域」により、輻輳を合わせた距離(輻輳点までの距離)の前後の物体に対して、視差角を基準として融像出来る限界(範囲)を決めることができるとされている。視差角は、正の角度が手前側、負の角度が奥側であり、一般に、人間が立体画像(立体映像)を見たときに融像できる範囲は、視差角が、輻輳点の視差角(輻輳角)±1度程度となる領域(範囲)であると言われている。
 このことから、撮影するシーンの被写体群が狭い奥行きの範囲(仮想スクリーン前後の狭い範囲)に存在する場合には、視差が少なく融像しやすい、即ち、見やすい立体画像が撮影されるのに対し、遠景と近景の差が大きい場合には、融像出来ない場合が生じることが分かる。
 これについて、図18を用いて詳しく説明する。
 図18は、前述の図3と同じシーンをディスプレイに表示したときの視差角について説明するための図である。
 角度αsは、輻輳角であり、図18では、両眼の光軸が仮想スクリーンVS上で交差している状態を示している。このとき、仮想スクリーンVSと同じ距離にある物体(仮想スクリーンVS上に位置する物体)は、左右の視差が「0」になるため、このような物体(被写体)を撮像した立体画像を見たとき、当該物体(被写体)は、2重像にならず左右の画像が重なることになり(表示スクリーン上に定位することになり)、視聴時には、当該物体(被写体)は、表示スクリーン上にあるように見える。なお、図18において、最遠点である山は、視差角αf(αf<αs)であり、最近点である草花は、αn(αn>αs)であるとする。
 前述したパナムの融合域による融像範囲をδとすると、|αf-αs|<δを満たすと遠景が融像でき、立体視できることになる。同様に|αn-αs|<δを満たすと、近景が融像できることになる。
 このように、立体視出来るかどうかは、立体撮影した立体画像をディスプレイ(表示スクリーン)に表示したときにはじめて決定されるものである。表示時には、上記従来の手法を用いて立体視の可否を判定することができるが、これを撮影時に、正確に推定することは困難である。
 図14は、図4のように、撮影時の撮影要素(被写体、仮想スクリーン、左右視点(撮像点))と表示時の表示要素(被写体、表示スクリーン、左右視点)との間に完全な幾何学的合同関係のある無歪み撮影の場合に限った条件ではなく、より一般的に、歪みを伴う場合を含んだ撮影時の撮影要素と表示時の表示要素との間の幾何学条件を説明するための図である。
 図14(a)は、撮影時の状態を表している。図14(a)に示すように、撮像時には、基線(左眼用画像の撮像点および右眼用画像の撮像点を結ぶ線)からL1の距離に幅W1のスクリーン(仮想スクリーンVS)を置くことを想定し、輻輳角α1をその仮想スクリーンVS面上に設定する。このとき、基線から距離R1にある被写体の視差角をβ1とすると仮想スクリーンVS上では、x1の視差が発生する。
 この視差x1は、
 x1=L1・(α1-β1)
により求められる。
 なお、上記は、近似解である。つまり、厳密には、
  x1=2・L1・(tan(α1/2)-tan(β1/2))
であるが、α1およびβ1は、微小であるので、
  tan(α1)=α1
  tan(β1)=β1
と近似することができる。したがって、視差x1は、
  x1=L1・(α1-β1)
と近似により求めることができる。
 また、図14(b)は、表示時の状態を表している。図14(b)に示すように、表示時には、幅W2のディスプレイ(表示スクリーンDS)を基線(右眼視点および左目始点を結ぶ線)からL2の距離で見ることとすると、このときの視差x2は、
 x2=L2・(α2-β2)
により算出される。
 また、仮想スクリーンVSのサイズW1と表示スクリーンDSのサイズDSとが異なる場合、表示される視差も両スクリーンサイズの比率で変化する。すなわち、視差x2は、
 x2=W2/W1・x1
となる。
 以上より、表示時に融像出来るかどうかを定める相対視差角(α2-β2)は、
  (α2-β2)=(W2/W1)・(L1/L2)・(α1-β1)
となる。
 さらに、図示していないが、撮影時にズームを用いた場合、そのズーム倍率をzとすると、相対視差角(α2-β2)は、
  (α2-β2)=z・(W2/W1)・(L1/L2)・(α1-β1)
となる。
 さらに、図示していないが、表示時に画像のシフトによる視差調整を行った場合、視差調整量を角度Δαで表すと、相対視差角(α2-β2)は、
 (α2-β2)=z・(W2/W1)・(L1/L2)・(α1-β1)-Δα
となる。
 したがって、現実の撮影時の状態と表示時の状態との間には、多くの撮影パラメータ、表示パラメータ、調整パラメータが介在することが分かる。
 上式の左辺が、融像出来るかどうかに直接影響する相対視差角を表しており、通常、この値が、±1度の範囲になければ、融像できずに二重像になり立体視できないことになる。また、この値が±0.5度の範囲にあれば、比較的楽に融像出来る見やすい立体像になると言われている。
 この融像範囲(相対視差角が±0.5度の範囲、または、±1度の範囲)をδとすると、
  |α2-β2|<δ
  |z・(W2/W1)・(L1/L2)・(α1-β1)-Δα|<δ
 したがって、
Figure JPOXMLDOC01-appb-M000007
により決定される範囲にある被写体(上式を満たす視差角β1を有する被写体)が融像出来るということがわかる。
 (2.2:撮影時の立体視可否判定処理)
 以上に基づいて、本実施形態の立体撮像装置2000により実行される撮影時の立体視可否判定処理について、説明する。
 図15は、撮影時の立体視可否判定処理について説明するためのフローチャート図である。
 まず、図15のフローチャートを用いて、立体撮像装置2000における撮影時の立体視可否判定処理の準備処理について、説明する。
 (S101~S104):
 立体撮像装置2000において、第1実施形態と同様の処理により、補正視差Δxを算出する。
 (S201):
 最小視差検出部105は、視差検出部104により作成された視差マップメモリ181から最小視差x2_nearを検出する。なお、この最小視差x2_nearが最近点の視差に対応する。
 また、最大視差検出部106は、視差検出部104により作成された視差マップメモリ181から最大視差x2_farを検出する。なお、この最大視差x2_farが最遠点の視差に対応する。
 (S202):
 制御部110は、S201で算出された最大視差x2_farおよび最小視差x2_neaから、最遠点の補正後の視差x3_farおよび最近点の補正後の視差x3_nearを下式により、算出する。
  x3_far=x2_far+Δx
  x3_near=x2_near+Δx
 (S203):
 制御部110は、S202で算出した最遠点の補正後の視差x3_farおよび最近点の補正後の視差x3_nearから、撮影時の最遠点の視差角β1_farおよび撮影時の最遠点の視差角β1_nearを算出する。
 なお、制御部110は、図14に示したように、撮影時の撮影要素(被写体位置、仮想スクリーンのサイズおよび位置、SB、右眼画像用撮像点、左眼画像用撮像点)の位置関係から、幾何学的計算により、最遠点の補正後の視差x3_farおよび最近点の補正後の視差x3_nearから、撮影時の最遠点の視差角β1_farおよび撮影時の最遠点の視差角β1_nearを算出する。
 (S204):
 立体撮像装置2000において、立体撮影可否判定処理を実行する。
 次に、図16のフローチャートを用いて、立体撮像装置2000における撮影時の立体視可否判定処理について、説明する。
 (S205):
 制御部110は、S203で算出した最遠点の視差角β1_farおよび最遠点の視差角β1_nearが、上記(数式7)の条件を満たすか否かを判定する。
 (S206):
 S205の判定の結果、最遠点および最近点が、両方とも、上記(数式7)の条件を満たさない場合(ケース1の場合)、視差調整により、最遠点および最近点を、立体視可能範囲(範囲δ)に入れることはできないと判断し、立体撮像装置2000の画角調整等の撮影パラメータ調整処理を行い、例えば、ズーム倍率zや撮影SBを変更する。
 (S207~S209):
 S206で画角調整(撮影パラメータ調整)を行った後の状態において、制御部110は、最遠点の視差角β1_farおよび最遠点の視差角β1_nearが、上記(数式7)の条件を満たすか否かを判定する(S207)。
 S207での判定の結果、上記(数式7)の条件を満たす場合、制御部110は、「撮影OK」の判定を行い、処理を終了する(S208)。
 一方、S207での判定の結果、上記(数式7)の条件を満たさない場合、制御部110は、「撮影NG」の判定を行い、処理を終了する(S209)。
 (S210):
 S205の判定の結果、最遠点については、上記(数式7)の条件を満たさないが、最近点については、上記(数式7)の条件を満たす場合(ケース2の場合)、制御部110は、視差調整により、最遠点を、立体視可能範囲(範囲δ)に入れる処理を行う。具体的には、制御部110は、最遠点が、範囲δ内となる視差調整量Δα1を算出する。
 そして、その算出した視差調整量Δα1により、視差調整を行う(最遠点および最近点について、当該視差調整量Δα1分ずらす)。
 (S211~S215):
 S210で算出したΔα1に相当する視差をずらした場合、最近点が依然として、立体視可能範囲(範囲δ)内であるか否かを、制御部110が判定する(S211)。
 そして、その判定の結果、最近点が依然として、立体視可能範囲(範囲δ)内である場合、制御部110は、「撮影OK」の判定を行い、処理を終了する(S214)。
 一方、判定の結果、最近点が立体視可能範囲(範囲δ)内ではない場合、制御部110は、S206と同様の撮影パラメータ調整処理を行う(S212)。
 そして、S212の撮影パラメータ調整処理を実行した後、S207と同様に、S212で画角調整(撮影パラメータの調整)を行った後の状態において、制御部110は、最遠点の視差角β1_farおよび最遠点の視差角β1_nearが、上記(数式7)の条件を満たすか否かを判定する(S213)。
 S213での判定の結果、上記(数式7)の条件を満たす場合、制御部110は、「撮影OK」の判定を行い、処理を終了する(S214)。
 一方、S213での判定の結果、上記(数式7)の条件を満たさない場合、制御部110は、「撮影NG」の判定を行い、処理を終了する(S215)。
 (S216):
 S205の判定の結果、最近点については、上記(数式7)の条件を満たさないが、最遠点については、上記(数式7)の条件を満たす場合(ケース3の場合)、制御部110は、視差調整により、最遠点を、立体視可能範囲(範囲δ)内の限界(境界)点に移動させる処理を行う。具体的には、制御部110は、最遠点が、範囲δ内の限界(境界)点となる視差調整量Δα1を算出する。
 そして、その算出した視差調整量Δα1により、視差調整を行う(最遠点および最近点について、当該視差調整量Δα1分ずらす)。
 (S217~S221):
 S216で算出したΔα1に相当する視差をずらした場合、最近点が、立体視可能範囲(範囲δ)内であるか否かを、制御部110が判定する(S217)。
 そして、その判定の結果、最近点が、立体視可能範囲(範囲δ)内である場合、制御部110は、「撮影OK」の判定を行い、処理を終了する(S220)。
 一方、判定の結果、最近点が立体視可能範囲(範囲δ)内ではない場合、制御部110は、S206と同様の撮影パラメータ調整処理を行う(S218)。
 そして、S218の撮影パラメータ調整処理を実行した後、S207と同様に、S218で画角調整(撮影パラメータの調整)を行った後の状態において、制御部110は、最遠点の視差角β1_farおよび最近点の視差角β1_nearが、上記(数式7)の条件を満たすか否かを判定する(S219)。
 S219での判定の結果、上記(数式7)の条件を満たす場合、制御部110は、「撮影OK」の判定を行い、処理を終了する(S220)。
 一方、S219での判定の結果、上記(数式7)の条件を満たさない場合、制御部110は、「撮影NG」の判定を行い、処理を終了する(S221)。
 なお、ケース3の場合、立体撮像装置2000において、上記のように、まず、最遠点を融合域内の限界(境界)点となるように視差調整し、その後、最近点についての調整を行うのは、最遠点が融合域内となることを、優先的に、確保(保証)するためである。言い換えれば、立体撮像装置2000において、最遠点が融合域内となるようにした状態で、撮影パラメータを調整することにより、最近点も融合域内となるように処理を行うことは、比較的容易であるが、撮影パラメータの調整のみで、融合域外の最遠点を融合域内に入れるように調整することは難しい。したがって、立体撮像装置2000では、上記のように、処理を行う。
 (S222):
 S205の判定の結果、最遠点および最近点が、両方とも、上記(数式7)の条件を満たす場合(ケース4の場合)、制御部110は、「撮影OK」の判定を行い、処理を終了する(S222)。
 以上により、立体撮像装置2000では、上記(数式7)に基づいて、撮影時に、立体視可否判定処理を行うことができる。
 なお、上記(数式7)から、立体撮像装置2000により撮像できる被写体の範囲は、以下の特性を有することが分かる。
(1)撮像できる被写体の範囲は、ズーム倍率に反比例する(拡大すると撮影できる範囲が狭くなる)。
(2)撮像できる被写体の範囲は、スクリーンサイズ比に反比例する(小さいスクリーンで見るときは広くなる)。なお、想定スクリーンサイズを大きく設定することと、小さなスクリーンで立体画像を見ることとは等価の関係にある。
(3)撮像できる被写体の範囲は、視聴距離に比例する(離れてみると広くなる)。なお、想定視聴距離を近くに設定することと、想定視聴距離より離れて立体画像をみることとは等価の関係にある。
(4)撮像できる被写体の範囲は、視差調整で正の視差をあたえると、遠景の範囲が広くなり、近景の範囲が狭くなる。
 したがって、人間の視覚によって定まる融像域に対して、撮影時には、
(1)ズーム倍率、
(2)想定スクリーンと実スクリーンのサイズ、
(3)想定視聴距離と実視聴距離、
(4)視差調整量、
に応じて、融像出来る被写体の距離が変わるため、これらの関係を用いることにより、立体撮像装置2000において、撮影時に予め、見やすいシーンか見にくいシーンかの判定が可能になる。
 このように、本実施形態の判定法(立体視可否判定処理)を用いることで、表示した時に被写体の遠景や近景が立体視できるかどうかを、撮影時に知ることができる。したがって、本実施形態の立体撮像装置2000により、撮影時に、立体視可否判定処理を行うことで、立体視できないような失敗撮影を事前に無くすことができる。
 なお、撮影時において、最遠点が融像できない場合、正の視差(上記Δα1>0)を与え(付加し)、逆に、最近点が融像できない場合、負の視差(上記Δα1<0)を与える(付加する)ことにより、撮像しようとしているシーン全体が融像可能な状態となるように調整すればよいことは言うまでもない。
 また、最遠点や最近点あるいは両方が融像出来ないときは、カメラのユーザーインタフェースを用いてアラートを出し、撮影者に撮影シーンの再検討を促すことにより、失敗撮影を回避することが可能である。
 また、視差の方向として、いずれの方向を正と表現するかは、自由であり、上記実施形態において設定した正方向と逆の場合であっても、本発明を適用することができることは、言うまでもない。なお、視差の方向を、上記実施形態において設定した正方向と逆にする場合、上記実施形態(本明細書および図面)の表現(あるいは図示)について、正と負を逆にして読み替えればよい。
 (2.3:第1変形例(高精度立体視可否判定))
 次に、本実施形態に係る第1変形例について、説明する。
 第1変形例に係る立体撮像装置では、より高精度な立体視可否判定(高精度立体視可否判定)処理を実行する。なお、第1変形例に係る立体撮像装置の構成は、第2実施形態の立体撮像装置2000の構成と同様である。
 上記で説明した技術により、撮影時に立体視可能か否か(立体視し易いか否か)を判定することが可能になった。しかし、本願発明者らは、さらに、撮影時の立体視可否判定の精度を上げることを目的として、多数のシーンによる立体撮影・表示を行い、多くの被験者による評価実験を行った結果、上記条件だけでは判断できないシーンを多々発見し、立体視の判定基準は、最遠点と最近点に対する視差だけで決まるのではないことを発見した。
 つまり、本願発明者らは、立体視可否判定を行う場合、奥行きが前後に異なる被写体の2次元の画面上(仮想スクリーン上あるいは表示スクリーン上)での距離を考慮して立体視可否判定を行うことで、より高精度の立体視可否判定を行うことができることを見出した。
 これに基づく、本変形例の立体撮像装置での処理について、以下、説明する。
 (2.3.1:被写体の2次元画面上での距離を考慮した高精度立体視可否判定)
 奥行きが前後に異なる被写体の2次元の画面(仮想スクリーンあるいは表示スクリーン)上での距離を考慮した撮影時の立体視可否判定についての条件は、以下の(1)、(2)の評価結果から見出した。
(1)遠景と近景が画面上で離れた位置にある場合には、遠景と近景の視差の差が比較的大きくても見やすい(立体視しやすい)ことが多い。
(2)逆に、遠景と中景、や中景と近景のように視差の差が比較的小さくても、それらが画面上で近い位置にある場合には、融像が難しくなる(立体視が困難になる)ことが多い。
 したがって、撮影シーン中の最遠点F(最遠点の被写体距離をR(F)とする。)と最近点N(最近点Nの被写体距離をR(N)とする。)は、どちらも立体視可能である場合(立体視し易い場合)であっても、最遠点より近い遠景A(遠景Aの被写体距離R(A)とすると、R(A)<R(F))と最近点より遠い近景B(近景Bの被写体距離R(B)とすると、R(B)>R(N))とが画面上で隣接していると、その遠景Aと近景Bとが隣接している部分(領域)が融像出来ずに見づらい画像になるということが生じる。
 そこで、本変形例の立体撮像装置では、2次元画面(仮想スクリーンあるいは表示スクリーン)上での2つの被写体の視差角α1、α2と、その2つの被写体の2次元画面中での距離hとを変数とする関数f(α1,α2,h)により、視覚に合わせた(人間の視覚特性を考慮した)補正視差角γを求め、その補正視差角γに基づいて、撮影シーンの被写体が融合域に入るかどうかを判定する。
 ここで、補正視差角γを求める関数の例を示す。
  f(α1,α2,h)=g(h)*|α1-α2|
 g(h)は、hの絶対値が「0」に近いほど大きな値をとる単調減少関数である。
 なお、関数g(h)は、所定の値th1から所定の値th2まで単調減少する関数であってもよい(つまり、th1>g(h)>th2)。また、関数g(h)は、表示画面サイズ(表示スクリーンサイズ)や視聴距離等により、変化するものであってもよい。
 上記評価値(関数fの値)が、融像限界δに対して、
  f(α1,α2,h)<δ
であれば、この2つの被写体(視差角α1の被写体と視差角α2の被写体)については、融像でき立体視できると判定することができる。
 そして、上記条件が、撮影しようとしているシーン中の全ての被写体の間で成立すれば、シーン全体として見やすい(立体視可能)と判定できることになる。つまり、上記条件が、撮影しようとしているシーン中の全ての被写体について成立する場合、当該シーンを立体撮影することで取得される立体画像(立体映像)は、人間にとって見やすい(適切に融像できる)立体画像(立体映像)となる。
 ≪高精度立体視可否判定処理の処理フロー≫
 次に、本変形例の立体撮像装置により実行される高精度立体視可否判定処理について、図17のフローチャートを用いて、説明する。この高精度立体視可否判定処理は、上記関数fを用いて、撮影時に、撮影シーンが融像可能(立体視可能)か否か(立体視し易いか否か)を判定する処理である。
(S501):
 制御部110は、視差マップメモリ181から、異なる2つのブロック(視差マップメモリ181の構成するブロック。図3のBK1やBK2がこれに相当。)を選択する。
(S502):
 制御部110は、S501で選んだ2つのブロックの視差を、視差マップメモリ181から求め、所定の条件を用いて、当該2つのブロックの視差を、それぞれ、視差角α1,α2に変換する。なお、「所定の条件」とは、撮影時の撮影要素(被写体位置、仮想スクリーンのサイズおよび位置、SB、右眼画像用撮像点、左眼画像用撮像点)や、表示時における表示要素(左眼の位置、右眼の位置、表示スクリーン、主被写体の定位位置)や、撮影パラメータ(画角、ズーム倍率、撮影SB等)により決定される条件である。そして、視差角α1、α2は、上記条件により視差補正された視差角であってもよい。
(S503):
 選んだ2つのブロック間の2次元画面上の距離hを求める。なお、距離hは、視差マップメモリ181上のブロック間の距離により求め、例えば、隣接ブロックの場合は、h=1とする。
(S504):
 選んだ2つのブロックに関する補正視差角f(α1,α2,h)を算出する。
(S505):
 制御部110は、S504で算出した補正視差角f(α1,α2,h)の値(この値をf0とする)と、fの最大値として保持されているfmaxとを比較し、
 f_max<f0であれば、fmax=f0とし、
 f_max≧f0であれば、そのまま、fmaxを保持する。
 なお、最初に、S505の処理が実行される場合、制御部110は、fmax=f0とする。
(S506):
 制御部110は、全てのブロックの組み合わせについて、上記処理が終了したか否かを判定する。そして、判定の結果、全てのブロックの組み合わせについて終了していなければ、ステップS501に戻り、全てのブロックの組み合わせについて終了していれば、ステップS507に進む。
(S507):
 制御部110は、fmaxとδを比較し、
  fmax<δ
であれば、本変形例の立体撮像装置により立体撮影しようとしているシーンが、立体視可能である(立体視し易い)と判断する。
 なお、高精度立体視可否判定処理では、必ずしも、上記のように、視差マップメモリ181を構成する全ブロック中の全ての2ブロックの組み合わせに対して、上記処理を実施せねばならないものではなく、例えば、視差の差が所定のレベル以上あるブロックについてのみ、上記処理を実施するようにしてもよい。
 また、補正視差角を求める関数は、上記の関数に限られるものではなく、例えば、定性的に視差の差が大きいほど大きな値を出力し、および/または、2次元画面上の距離が大きいほど小さな値を出力する関数であれば、上記で示した関数以外の関数であってもよい。また、補正視差角を求める関数は、完全に単調関数でなくてもよく、所定の範囲において、一定値をとるものであってもよい。
 (2.3.2:画面サイズと視聴距離を考慮した高精度立体視可否判定)
 本願発明者らは、立体視する場合において、立体画像(立体映像)の見やすさに影響を与える要素として、上記以外に、ディスプレイのサイズと、視聴距離によるものがあることを見出した。
 前述の説明では、眼球の輻輳(輻輳点)をスクリーン面に合わせることを前提として説明した。しかし、眼球の輻輳は、常にスクリーン面上から離れないかと言えば、そうではない。人間は、遠景が見にくければ、眼球の輻輳を変化させて遠景を見やすくするよう見方をすることを自然にしている。
 これについて、図18を用いて、説明する。
 例えば、図18の場合において、人間が、人物900を注視し輻輳(輻輳点)を人物900に合わせて見た(立体視した)場合について考える。この場合、山901の融像の条件は、|αf-αs|<δから|αf-αc|<δに変わるため、山901は見やすくなる(立体視しやすくなる)ことになる。
 したがって、この場合、現実の融像範囲は、その分だけ広いと言える。
 ところが、輻輳(輻輳点)を人物900に合わそうとして、人物900を注視するとピントも人物900に合わしてしまい、表示スクリーン上の立体画像(立体映像)を、くっきりと見ることが出来なくなる。うまく見るためには、ピントはスクリーン面に合わせ、かつ、輻輳(輻輳点)は人物900に合わせるという無理な見方が要求される(ピントと輻輳の不一致)。
 人間は、眼球のレンズ(水晶体)の厚みを毛様体筋の収縮により変化させてピントを調節する。この際、ピント調節に要する収縮の変化幅は近距離の物体を見るときは大きく、遠距離の物体を見るときは小さいため、ピント調節による距離感を強く感じるのは、近距離の物体を見るときであり、遠距離の物体を見るとき、人間は、ピント調節によって距離を認識できない。
 したがって、近距離で見る小サイズのディスプレイ(表示スクリーン)では、ピントによるスクリーンの距離感が強固であるため、輻輳(輻輳点)もスクリーン面に固定されがちになる。特に、2m以下では、その傾向が強い。
 逆に、遠距離で見る大サイズのディスプレイでは、ピントによるスクリーンの距離感が希薄であるため、輻輳(輻輳点)は、スクリーン面に固定されず、前後に動きやすいことになる。
 したがって、画面サイズが小さいディスプレイ(表示スクリーン)または近距離で見る視聴条件の場合は、相対的に融像条件を厳しく設定し、画面サイズが大きいディスプレイ(表示スクリーン)または遠距離で見る視聴条件の場合は、相対的に融像条件を広く(緩く)設定することが可能である。
 これに基づいて、本変形例の立体撮像装置では、表示スクリーンのサイズを撮影時に把握しておき、表示スクリーンのサイズが小さい(小画面である)ほど、上記δ(融像範囲δ)を小さく設定し、表示スクリーンのサイズが大きい(画面サイズが大きい)ほど、δを大きく設定する。そして、本変形例の立体撮像装置では、このように設定したδを用いて、実際の処理(例えば、「2.2」で説明した撮影時の立体視可否判定処理や、「2.3.1」で説明した被写体の2次元画面上での距離を考慮した高精度立体視可否判定処理)を行う。これにより、本変形例の立体撮像装置では、撮影時において、より精度の高い立体視可否判定処理を実現することができる。
 また、上記の他にも以下のような場合に、融像条件を緩める(広げる)ことが可能である。
(1)最遠点や最近点の被写体がスクリーン上で占める面積が小面積である場合。
(2)最遠点や最近点の被写体が画面(スクリーン)の端にある場合。
(3)最遠点や最近点の被写体のピントがはずれてぼけている場合。
 上記何れの場合においても、最遠点や最近点の被写体がそのシーンにとって重要でない可能性が高いと判断でき、したがって、人間は、当該最遠点や最近点の被写体を注視することが少ない。つまり、注視されにくい当該最遠点や最近点の被写体の融像状態による影響は少ないので、上記の場合、融像条件を緩める(広げる)ことができる。
 なお、融像範囲を調整するための方法として、例えば、以下のような方法がある。
(1)立体画像(立体映像)を構成する右眼用画像および/または左眼用画像を電気的にシフトさせることで視差を調整することで、融像範囲を調整する。
(2)立体撮像装置の撮影SBの調整(縮める調整)を行うことで、融像範囲の調整をする。
(3)2回撮りにより立体画像(立体映像)を取得する場合、2回撮りを実行する際の立体撮像装置の移動量を調整する。
(4)立体画像(映像)において、オブジェクト(被写体)のデプス(Depth、奥行き情報)を作成(算出あるいは推定)し、電気的に撮影SBの調整を行う。
 これらの様々な要素を加味して融像域を変化させることにより、本変形例の立体撮像装置において、実際の見やすさに近い評価値を取得することができ、この取得した評価値に基づいて、撮影時に立体視可否判定処理を行うことで、本変形例の立体撮像装置において、より良い立体撮影を行うことができる。つまり、本変形例の立体撮像装置では、様々な要素を加味して融像域を変化させることにより、実際の見やすさに近い評価値を取得し、当該評価値に基づく立体視可否判定処理を行うことで、撮影時に立体視ができ疲れないで見ることかどうかを、実際に人間が見たときの感覚に近づけて判定することができる。
 (2.3.3:視差ヒストグラムを用いた処理)
 なお、立体視可否判定を行うために、上記のように融像範囲δの大きさを変化させる方法(融像条件を緩和させる方法)以外に、視差ヒストグラムを用いた方法を採用してもよい。視差ヒストグラムを用いた撮影時の立体視可否判定処理について、以下、説明する。
 ≪図19の場合≫
 まず、図19に示す場合について、説明する。
 本変形例の立体撮像装置において、制御部110は、視差マップメモリ181から、図19に示すような、視差のヒストグラム(視差ヒストグラム)を作成する。そして、制御部110は、作成した視差ヒストグラムにおいて、図19に示す所定の度数A以下の遠景および近景を除外し、立体視可否判定処理の対象領域AR1を近景B2から遠景C2の領域に設定する。
 そして、制御部110は、設定した立体視可否判定処理の対象領域AR1(B2~C2の領域)を、立体可能領域(例えば、図19に示す立体可能領域AR0)と比較し、撮影しようとしているシーンが、立体視可能か否か(立体視し易いか否か)を判定する。つまり、対象領域AR1が立体視可能領域AR0に含まれていれば、立体視可能(立体視し易い)と判定する。なお、図19の場合、立体可能領域AR0は、仮想スクリーン位置を中心とした対称領域(遠景側の領域の大きさと近景側の領域の大きさが等しい領域)である。
 ≪図20の場合(遠景THと近景THとが同じ場合)≫
 次に、図20に示す場合について、説明する。
 本変形例の立体撮像装置において、制御部110は、視差マップメモリ181から、図20に示すような、視差のヒストグラム(視差ヒストグラム)を作成する。そして、制御部110は、作成した視差ヒストグラムにおいて、図20に示す所定の度数TH以下の遠景および近景を除外し、立体視可否判定処理の対象領域AR2を近景B2から遠景C2の領域に設定する。
 そして、制御部110は、図20に示すように、立体可能領域を、上記で設定した立体視可否判定処理の対象領域AR2の遠景側の限界点C2を基準とした領域AN1に設定する。つまり、遠景を重視して立体視可否判定を行うために、仮想スクリーンを中心として設定される立体視可能領域AR0を、対象領域AR2の遠景側の限界点C2を基準とした領域AN1にシフトさせる。このようにして、制御部110は、立体視可否判定処理に使用する立体視可能領域AN1を設定する。
 そして、制御部110は、立体視可否判定処理の対象領域AR2と、立体視可能領域AN1とを比較し、撮影しようとしているシーンが、立体視可能か否か(立体視し易いか否か)を判定する。つまり、対象領域AR2が遠景を重視して設定した立体視可能領域AN1に含まれていれば、立体視可能(立体視し易い)と判定する。
 ≪図21の場合(遠景THと近景THとが異なる場合(その1))≫
 次に、図21に示す場合について、説明する。
 本変形例の立体撮像装置において、制御部110は、視差マップメモリ181から、図21に示すような、視差のヒストグラム(視差ヒストグラム)を作成する。そして、制御部110は、作成した視差ヒストグラムにおいて、
(1)遠景側において、図21に示す所定の度数TH_far以下の遠景を除外し、
(2)近景側において、図21に示す所定の度数TH_near以下の近景を除外する。
 そして、制御部110は、立体視可否判定処理の対象領域AR3を近景B2から遠景C2の領域に設定する。
 なお、上記において、遠景を重視して、立体視可否判定処理を行うために、制御部110は、遠景側を除外するための所定の度数TH_farと、近景側を除外するための所定の度数TH_nearとが、
  TH_far<TH_near
の関係を満たすように、所定の度数TH_farおよびTH_nearを設定することが好ましい。
 制御部110は、図21に示すように、立体可能領域を、上記で設定した立体視可否判定処理の対象領域AR3の遠景側の限界点C2を基準とした領域AN2に設定する。つまり、遠景を重視して立体視可否判定を行うために、仮想スクリーンを中心として設定される立体視可能領域AR0を、対象領域AR3の遠景側の限界点C2を基準とした領域AN2にシフトさせる。このようにして、制御部110は、立体視可否判定処理に使用する立体視可能領域AN2を設定する。
 そして、制御部110は、立体視可否判定処理の対象領域AR3と、立体視可能領域AN2とを比較し、撮影しようとしているシーンが、立体視可能か否か(立体視し易いか否か)を判定する。つまり、対象領域AR3が遠景を重視して設定した立体視可能領域AN2に含まれていれば、立体視可能(立体視し易い)と判定する。
 ≪図22の場合(遠景THと近景THとが異なる場合(その2))≫
 次に、図22に示す場合について、説明する。
 本変形例の立体撮像装置において、制御部110は、視差マップメモリ181から、図22に示すような、視差のヒストグラム(視差ヒストグラム)を作成する。そして、制御部110は、作成した視差ヒストグラムにおいて、
(1)遠景側において、図22に示す所定の度数TH_far以下の遠景を除外し、
(2)近景側において、図21に示す所定の度数TH_near以下の近景を除外する。
 そして、制御部110は、立体視可否判定処理の対象領域AR4を近景B2から遠景C2の領域に設定する。
 なお、上記において、遠景を重視して、立体視可否判定処理を行うために、制御部110は、遠景側を除外するための所定の度数TH_farと、近景側を除外するための所定の度数TH_nearとが、
  TH_far<TH_near
の関係を満たすように、所定の度数TH_farおよびTH_nearを設定することが好ましい。
 また、制御部110は、立体視可否判定処理に用いる立体視可能領域を以下のようにして、求める。
(1)所定の度数TH0(>TH_far)を設定する。
(2)視差ヒストグラムにおいて、その度数が、遠景側から近景側へ向かってトレースしたときに最初に度数TH0を超える点(図22のC3点がこれに相当)を求める。
(3)(2)で求めたC3点を基準として、立体視可能領域AN3を設定する。なお、立体視可能領域AN3は、例えば、仮想スクリーンを中心として設定される立体視可能領域AR0を、C3点を基準としてシフトさせた領域である。
 制御部110は、以上のようにして設定した立体視可能領域AN3と、立体視可否判定処理の対象領域AR4とを比較し、撮影しようとしているシーンが、立体視可能か否か(立体視し易いか否か)を判定する。つまり、対象領域AR4が遠景を重視して設定した立体視可能領域AN3に含まれていれば、立体視可能(立体視し易い)と判定する。
 ≪図23の場合(クラスタリング処理を行う場合)≫
 次に、図23に示す場合について、説明する。
 本変形例の立体撮像装置において、制御部110は、視差マップメモリ181を構成する各ブロック(このブロックは、例えば、8×8画素から構成されるブロックであるが、単独画素から構成されるものであってもよい。)に対して、クラスタリング処理を行う。これにより、例えば、図1.4(a)に示すようにクラスタリングされたとする。なお、図1.4(a)では、クラスタCL1~CL6を模式的に示している。
 そして、制御部110は、例えば、クラスタごとに代表値を設定して、視差ヒストグラムを生成する。具体的には、例えば、クラスタCL1が、視差がC4~C5である視差マップメモリ181のブロックを含むものである場合、制御部110は、当該クラスタCL1の代表値を平均値(=(C4+C5)/2)として、視差ヒストグラムを生成する。
 そして、制御部110は、上記で説明したのと同様の処理により立体視可否判定処理を行う。例えば、図23に示すように、制御部110は、視差ヒストグラムにおいて、遠景側から近景側にトレースしたときに、はじめてしきい値TH_farを超えるC4点を基準として立体視可能領域AN4を設定する。そして、制御部110は、立体視可能領域AN4と立体視可否判定の対象領域AR5とを比較し、立体視可否判定を行う。
 なお、本変形例の立体撮像装置において、上記クラスタリング処理の後、重み付けを行い、立体視可否判定を行うようにしてもよい。これについて、説明する。
 制御部110は、例えば、図23に示すように、各クラスタに対して、以下のような関数Weightによる重み付けを行う。
  Weight(x,y,z)=Cent(x)・Size(y)・Blur(z)
  Cent(x):クラスタの位置が、視差マップメモリ181上の中心位置(視差マップメモリ181の各ブロックにより構成される2次元画像(画面)の中心位置)から近い程、大きな値となる関数。なお、xは、例えば、クラスタの2次元画面上の位置を示す2次元ベクトルである。なお、Cent(x)=1として、クラスタ位置による重み付けをしないようにしてもよい。
  Size(y):クラスタの、視差マップメモリ181の各ブロックにより構成される2次元画像(画面)上の面積が大きい程、大きな値となる関数。なお、yは、例えば、クラスタの、視差マップメモリ181の各ブロックにより構成される2次元画像(画面)上の面積である。また、Size(y)=1として、クラスタの面積による重み付けをしないようにしてもよい。
  Blur(z):クラスタのボケ度合い(例えば、平均のボケ度合い)が大きい程、小さな値となる関数。なお、zは、例えば、クラスタのボケ度合い(例えば、平均のボケ度合い)を表す値である。また、Size(y)=1として、クラスタのボケ度合いによる重み付けをしないようにしてもよい。
 制御部110は、上記のような重み付け関数Weight(x,y,z)を用いて、重み付け後の視差ヒストグラムを生成する。
 例えば、図23(a)に示したクラスタCL1が遠景のクラスタであり、その視差の範囲が図23(b)のC4~C5であり、その度数がH(CL1)であるとき、制御部110は、クラスタCL1について、重み付け関数Weight(x,y,z)の値を求める(これをWeight(CL1)とする)。そして、制御部110は、クラスタCL1の重み付け後の度数HA(CL1)を、
  HA(CL1)=Weight(CL1)・H(CL1)
として求め、重み付け後の度数HA(CL1)により視差ヒストグラムを生成する。
 そして、制御部110は、これを全てのクラスタについて行う。
 このようにして、重み付けして生成された視差ヒストグラムの一例を、図23(c)に示す。
 図23(b)に示す視差ヒストグラムでは、C4点を基準にして、立体視可能領域AN4および立体視可否判定処理の対象領域AR5が設定されている。
 図23(a)に示すように、クラスタCL1は、遠景領域のクラスタであり、視差マップメモリ181の各ブロックにより構成される2次元画像(画面)上に占める面積は大きくないが、その位置が中心付近であるため、立体視可否判定処理において、重要である。したがって、クラスタCL1のWeight(CL1)の値は大きな値となり、
  HA(CL1)=Weight(CL1)・H(CL1)
の値も大きな値となる。
 つまり、図23(c)に示すように、図23(c)の視差C4~C5の度数が多くなり、しきい値TH_farを超えるので、制御部110は、C5点を基準にして、図23(c)に示すように、立体視可能領域AN5および立体視可否判定処理の対象領域AR6を設定する。
 これにより、本変形例の立体撮像装置では、CL1のような画面中心付近に存在する小さい面積の遠景部分の影響を考慮した立体視可否判定処理を行うことができる。
 なお、上記は一例であり、上記に限定されないことは言うまでもない。
 また、クラスタの占める面積、クラスタのボケ程度に関しても、上記と同様の処理を行うことで、本変形例の立体撮像装置において、クラスタの占める面積、クラスタのボケ程度を考慮した、より適切な立体視可否判定処理を行うことができる。
 [第3実施形態]
 次に、第3実施形態について、説明する。
 第3実施形態では、撮影すべきシーンが、人間が立体視できないシーンに対しするカメラのアシスト機能に関する。
 第2実施形態およびその変形例では、人間の視覚が感じる見やすさに近い判定基準で見やすさ(立体視のしやすさ)を判定できるようにする立体撮像装置および立体視可否判定方法について説明した。前述の実施形態の立体撮像装置を用いることで、遠景が見にくいときには視差調節あるいは輻輳の調節により遠景を近づけることにより立体視しやすい立体画像(立体映像)を取得(撮像)することができる、また、近景が見にくいときには視差調節あるいは輻輳の調節により近景を遠ざけることにより立体視しやすい立体画像(立体映像)を取得(撮像)することができる。
 しかし、視差調節や輻輳の調節をむやみに行うと、奥行きのリニアリティーが低下し、取得される立体画像(立体映像)の画質が低下する。また、遠景と近景の融像が両立出来ない撮影条件は、視差調節や輻輳の調節では解決できないことも多い。
 本実施形態では、遠景と近景が両方とも融像出来ない場合に、撮影条件を変更して見やすい撮影ができるように、撮影者に対してアシストする機能に関するものである。
 図24は、本実施形態の原理を説明する図である。
 図24(a)は、撮影シーンの位置関係(撮影時の撮影パラメータの位置関係)を表している。最遠点は、距離Rfにある山901であり、最近点は距離Rnにある草花902である。また、このシーンでの主被写体は、距離Rcにいる人物900である。図24(a)のカメラ(立体撮像装置)で撮影する際の視差角は、山901がαf、草花902がαn、人物900がαcとする。
 ここで前述の実施形態の発明により、パナムの融合域による融像範囲δを撮影側に変換した融像範囲をδxとすると、
  |αn-αf|<2δx
を満たしていれば、適切な視差調整により遠景と近景の両方を見やすい融像域に入れることが可能である。しかし、上記を満たしていなければ、如何に視差調整をしようとも双方(遠景および近景)を融像させることは困難である。
 本実施形態の立体撮像装置では、このように遠景と近景の融像が両立しないことを撮影直前に前述の実施形態の技術により検出し、撮影者に対して、後方に下がって撮影するようにアシストする。
 図25に、本実施形態の立体撮像装置3000の概略構成を示す。
 図25に示すように、本実施形態の立体撮像装置3000は、第2実施形態の立体撮像装置2000に警告部126を追加した構成である。それ以外については、本実施形態の立体撮像装置3000は、第2実施形態の立体撮像装置2000と同様である。
 なお、アシストの方法は、制御部110が警告部126を制御し、警告部126が撮影者に対して警告を出すことにより実現される。例えば、警告部126は、ディスプレイ表示を行う機能部や音声ガイドを行う機能部であり、警告部126により、ディスプレイ表示や音声ガイド等を行うことで、立体撮像装置3000において、アシスト機能を実行させる。このアシストの方法として、例えば、以下の方法がある。
(1)何処まで下がればよいかを伝える方法(現在の立体撮像装置の位置から、被写体から遠ざかる方向に立体撮像装置を移動させるべき距離(遠ざかるべき距離)を指示する方法)。
(2)撮影者がカメラ(立体撮像装置)を構え、仮撮影をしながら後方にさがり、立体撮像装置が、撮影画像から遠景と近景の融像が両立することを判断して、その判断結果を撮影者に伝えることで、カメラ位置(立体撮像装置の位置)を決める方法。
 なお、立体撮像装置3000により上記アシスト機能が実現されている場合であって、立体撮像装置3000により、撮像しようとしているシーンが立体視可能である(立体視し易い)と判定されるまでは、立体撮像装置3000による立体撮影を禁止するようにしてもよい(例えば、立体撮像装置3000のシャッター(不図示)を撮影者が押すことができないように(全押しすることができないように)、シャッターをロックしてもよい)。
 図24(b)は、カメラ位置(立体撮像装置の位置)をΔRだけ後方に下げた状況を図示している。この場合の視差角は、山901がαf‘、草花902がαn’、人物900がαc‘である。
 ここで、遠景の視差角はほとんど変化しない、即ち、αf-αf‘≒0にかかわらず、近景の視差角は大きく減少する。
 したがって、|αn‘-αf’|<|αn-αf|となるため、
  |αn‘-αf’|<2δx
を満たせば、遠景と近景の融像が両立できることになる。
Figure JPOXMLDOC01-appb-M000008
 上式を満たす、ΔRは事前に計算することが可能であり、ΔRを立体撮像装置により算出し、立体撮像装置が、撮影者に対して、ΔRだけ後方に下がって撮影するように指示することができる。
 また、本実施形態では、後方に下がって撮影することにより遠景と近景がともに見やすくなる立体画像(立体映像)が取得できる代わりに、被写体に対するパースペクティブは、次のように変化する。すなわち、近景の草花902は小さくなり、中景の人物900は、少し小さくなり、遠景の山901は、ほとんど変化しない。
 通常、この変化が問題になるのは、主被写体である人物900が望む大きさよりも小さく撮影される場合であり、近景や遠景の大きさ変化はあまり問題にならない。
 そこで、本実施形態の立体撮像装置では、主被写体の大きさ変化を抑えるため、後方に下がるのと連動するズーム処理を行う。
 主被写体の大きさは、後方に下がるとRc/(Rc+ΔR)の比率で小さくなる。
 したがって、本実施形態の立体撮像装置では、後方に下がったことによる影響を補償するために、ズーム倍率を(Rc+ΔR)/Rc倍にする。つまり、本実施形態の立体撮像装置では、焦点距離を伸ばすことにより、主被写体の大きさが変化しないように制御する。
 その結果、本実施形態の立体撮像装置で取得される立体画像(立体映像)において、遠景は大きい目、近景は小さい目になるが、主被写体が所望の大きさになれば多くのシーンでは良好な撮影(立体撮影)ができることになる。
 ≪第1変形例≫
 次に、本実施形態の第1変形例について説明する。
 本変形例の立体撮像装置では、図24(a)の位置で撮影をしようとした場合、前述の関係式から得られる主被写体の焦点距離をズーム変化範囲の広角端に設定するものである。そうすると、ズームを最も広角にしても主被写体が大きすぎることになり、その結果、撮影者は自発的に後方に下がり図24(b)の位置から撮影することになる。したがって、本変形例の立体撮像装置では、撮影者に対して、ズーム可動域の広角端を制限することによるアシストを行う。
 また、主被写体が人物であることをカメラ(立体撮像装置)が標準的に搭載する顔検出機能により認識し、主被写体が人物である場合、本変形例の立体撮像装置において、上記動作を行うと良い。
 ≪第2変形例≫
 次に、本実施形態の第2変形例について説明する。
 撮影すべきシーンの内、重要な被写体が、主被写体と遠景である場合についての変形例(第2変形例)を説明する。
 遠景と近景の融像が両立しないが、その際、近景の被写体が画面上の端(スクリーンの枠の近く)に位置している場合、その被写体は撮影シーンの中で重要度が低い場合が多い。
 したがって、前述のように撮影者が後方に下がるのではなく、撮影者が撮影位置を少し横に移動することにより、重要でない近景を撮影範囲外に追い出すことが可能である。
 本変形例の立体撮像装置では、上記判断基準により近景の重要度が低いと判断した場合に、撮影者に対して、近景を撮影範囲から外すように横に移動して撮影するように、表示や音声でアシストする。
 本変形例の技術では、遠景と主被写体の間の大きさの比率は維持されるため、当初のパースペクティブからの変化が少ない撮影(立体撮影)ができる。
 [他の実施形態]
 なお、上記実施形態で説明した立体撮像装置において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
 なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
 さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
 また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
 また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施形態に係る立体撮像装置をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
 また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
 前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blue-ray Disc)、半導体メモリを挙げることができる。
 上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
 また、上記実施形態では、2つの撮像部により、ステレオ画像(左眼用画像および右眼用画像)を取得(撮像)している場合について説明した。しかし、これに限定されることはなく、例えば、1つの撮像素子により、左眼用画像と右眼用画像とを時分割で交互に取得するようにしてもよいし、また、1つの撮像素子の撮像素子面を2分割して、左眼用画像と右眼用画像とを取得するようにしてもよい。
 なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
 本発明に係る立体撮像装置、立体撮像方法およびプログラムは、自然で見やすく安全な立体撮像と立体表示を可能にするものであり、映像機器関連産業分野において、有用であり、本発明は、当該分野において実施することができる。
1000、1000A、2000、3000 立体撮像装置
100R 第1撮像部
100L 第2撮像部
101R 第1光学系
101L 第2光学系
102R 第1撮像素子部
102L 第2撮像素子部
104 視差検出部
105 最小視差検出部
106 最大視差検出部
107 主被写体視差検出部
110 制御部
111R 第1視差付加部
111L 第2視差付加部
112R 第1トリミング部
112L 第2トリミング部
121 表示情報設定部
122 定位情報設定部
123 フォーカス制御部
124 輻輳制御部
181 視差マップメモリ

Claims (9)

  1.  被写体像を立体撮影し、第1視点映像及び第2視点映像により形成される立体映像を撮像する立体撮像装置であって、
     前記被写体の光学像を形成する光学系と、
     前記形成した光学像に基づいて、前記立体映像を生成する撮像部と、
     前記立体映像の視差を検出する視差検出部と、
     前記立体映像を視聴する環境に関するパラメータである表示パラメータを取得する表示パラメータ取得部と、
     前記検出した視差および前記取得した表示パラメータに基づいて、前記立体映像の撮影時に、前記生成する立体映像が立体視し易いか否かを判定する立体視可否判定部と、
     前記立体映像が立体視しにくいと判定した場合、自装置と前記被写体との位置関係を変更する制御モードを設定する制御部と、
    を備える立体撮像装置。
  2.  前記制御部は、前記制御モードが前記距離変更モードである場合、立体撮影を実行させない、
     請求項1に記載の立体撮像装置。
  3.  前記制御部は、
     自装置と前記被写体との距離の変更が実行され、立体視可否判定部により、立体撮影しようとしているシーンが立体視し易いと判定された場合、制御モードを、立体撮影ができる立体撮影可能モードに移行させる、
     請求項1または2に記載の立体撮像装置。
  4.  前記立体視可否判定部は、
     前記視差検出部により検出された視差に基づいて、立体撮影しようとしているシーンに含まれる被写体距離が最大である最遠被写体の被写体距離である最大被写体距離Rfと、立体撮影しようとしているシーンに含まれる被写体距離が最小である最近被写体の被写体距離である最小被写体距離Rnと、を算出し、
     自装置の現在位置と、被写体から遠ざかる方向へ自装置を移動させたときの位置である移動後後方位置との距離をΔRとし、
     自装置の現在位置における前記最遠被写体の視差角をαfとし、自装置の現在位置における前記最近被写体の視差角をαnとし、
     自装置の前記移動後後方位置における前記最遠被写体の視差角をαf’とし、自装置の前記移動後後方位置における前記最近被写体の視差角をαnとし、
     立体視可能範囲を示す相対視差角をδxとしたとき、
    Figure JPOXMLDOC01-appb-I000003
    を満たすか否かにより、前記移動後後方位置において、立体撮影時に、立体撮影しようとしているシーンが立体視し易いか否かを判定する、
     請求項1から3のいずれかに記載の立体撮像装置。
  5.  撮像者に対して警告を行う警告部をさらに備え、
     前記立体視可否判定部は、
    Figure JPOXMLDOC01-appb-I000004
    を満たす最小のΔRを最小後方移動距離ΔR_minとして算出し、
     前記警告部は、前記撮影者に対して、前記立体視可否判定部により算出された前記最小後方移動距離ΔR_min以上の所定の距離だけ、被写体から離れるように警告を行う、
     請求項4に記載の立体撮像装置。
  6.  前記制御部は、
     自装置を、前記現在位置から前記移動後後方位置に移動させたことにより、立体撮影される被写体の大きさが小さくなった分を補償する前記撮像部におけるズーム倍率を算出し、前記撮像部におけるズーム倍率が、算出した当該ズーム倍率となるようにズーム処理を行う、
     請求項1から5のいずれかに記載の立体撮像装置。
  7.  前記制御部は、前記制御モードが前記距離変更モードである場合、前記撮像部におけるズームの広角端を制限する、
     請求項1から6のいずれかに記載の立体撮像装置。
  8.  撮像者に対して警告を行う警告部をさらに備え、
     立体視可否判定部により、立体撮影しようとしているシーンが立体視不可能と判定された場合であって、立体撮影しようとしているシーンにおいて、仮想スクリーン端付近に近景の被写体があると判定された場合、
     前記警告部は、前記当該近景の被写体が仮想スクリーンから除外されるように、自装置を横方向に移動させるように、前記撮影者に対して、警告する、
     請求項1から3のいずれかに記載の立体撮像装置。
  9.  被写体像を立体撮影し、第1視点映像及び第2視点映像により形成される立体映像を撮像する立体撮像方法であって、
     第1視点から見た被写体像を前記第1視点映像として撮像し、前記第1視点映像を形成する第1映像信号を生成するとともに、前記第1視点とは異なる第2視点から見た被写体像を前記第2視点映像として撮像し、前記第2視点影像を形成する第2映像信号を生成する撮像ステップと、
     前記第1視点映像および前記第2視点映像から、1または複数の画素から構成される画素ブロックごとに、視差を検出する視差検出ステップと、
     前記視差検出ステップが検出した視差および前記表示パラメータに基づいて、立体撮影時に、立体撮影しようとしているシーンが立体視し易いか否かを判定する立体視可否判定ステップと、
     立体視可否判定ステップにより、立体撮影しようとしているシーンが立体視不可能と判定された場合、制御モードを、自装置と前記被写体との位置関係の変更を行うための制御モードである距離変更モードに設定する制御ステップと、
    を備える立体撮像方法。
PCT/JP2011/001288 2010-03-05 2011-03-04 立体撮像装置および立体撮像方法 WO2011108283A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012503025A JP5444452B2 (ja) 2010-03-05 2011-03-04 立体撮像装置および立体撮像方法
US13/582,052 US9049434B2 (en) 2010-03-05 2011-03-04 3D imaging device and 3D imaging method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010049282 2010-03-05
JP2010-049282 2010-03-05

Publications (1)

Publication Number Publication Date
WO2011108283A1 true WO2011108283A1 (ja) 2011-09-09

Family

ID=44541952

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/001288 WO2011108283A1 (ja) 2010-03-05 2011-03-04 立体撮像装置および立体撮像方法

Country Status (3)

Country Link
US (1) US9049434B2 (ja)
JP (1) JP5444452B2 (ja)
WO (1) WO2011108283A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038863A1 (ja) * 2011-09-13 2013-03-21 富士フイルム株式会社 単眼立体撮影装置、撮影方法及びプログラム
WO2016194446A1 (ja) * 2015-06-01 2016-12-08 ソニー株式会社 情報処理装置、情報処理方法、及び生体内撮像システム
WO2016208246A1 (ja) * 2015-06-24 2016-12-29 ソニー・オリンパスメディカルソリューションズ株式会社 医療用立体観察装置、医療用立体観察方法、及びプログラム
JP2022543510A (ja) * 2020-06-28 2022-10-13 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 撮影方法、装置、電子機器及び記憶媒体
WO2023068034A1 (ja) * 2021-10-20 2023-04-27 日立Astemo株式会社 画像処理装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956658B2 (ja) * 2010-10-12 2012-06-20 シャープ株式会社 立体映像変換装置及び立体映像表示装置
US9237331B2 (en) * 2011-01-18 2016-01-12 Disney Enterprises, Inc. Computational stereoscopic camera system
US8952958B1 (en) * 2012-07-31 2015-02-10 Dreamworks Animation Llc Stereoscopic computer-animation techniques based on perceptual constraints
US9070222B2 (en) 2012-08-01 2015-06-30 Dreamworks Animation Llc Techniques for automating stereo settings for stereoscopic computer animation
US20140063206A1 (en) * 2012-08-28 2014-03-06 Himax Technologies Limited System and method of viewer centric depth adjustment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016620A (ja) * 1999-06-30 2001-01-19 Canon Inc 撮像装置、その輻輳距離決定方法、記憶媒体および光学装置
JP2004334833A (ja) * 2003-04-17 2004-11-25 Sony Corp 立体視画像処理装置,情報提供方法,画像表示方法
JP2005167310A (ja) * 2003-11-28 2005-06-23 Sharp Corp 撮影装置
JP2008205758A (ja) * 2007-02-20 2008-09-04 Fujifilm Corp 立体撮影装置および方法並びにプログラム

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0827499B2 (ja) 1987-12-03 1996-03-21 松下電器産業株式会社 立体テレビジョン用撮像装置
JPH06105339A (ja) 1992-07-07 1994-04-15 Toshiba Corp 立体カメラ装置
DE69417824T4 (de) 1993-08-26 2000-06-29 Matsushita Electric Industrial Co., Ltd. Stereoskopischer Abtastapparat
JP3157384B2 (ja) 1994-06-20 2001-04-16 三洋電機株式会社 立体映像装置
JP3539788B2 (ja) 1995-04-21 2004-07-07 パナソニック モバイルコミュニケーションズ株式会社 画像間対応付け方法
JPH08322004A (ja) 1995-05-24 1996-12-03 Olympus Optical Co Ltd 立体視ディスプレイ装置
JPH09224267A (ja) 1996-02-16 1997-08-26 Olympus Optical Co Ltd 立体映像作成装置及び立体映像表示装置並びにシステム
JPH10155104A (ja) 1996-11-22 1998-06-09 Canon Inc 複眼撮像方法及び装置並びに記憶媒体
JP3441911B2 (ja) 1997-02-20 2003-09-02 キヤノン株式会社 情報処理装置及び方法
US6762794B1 (en) 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
JP3976860B2 (ja) 1997-12-03 2007-09-19 キヤノン株式会社 立体映像撮像装置
JPH11187425A (ja) 1997-12-18 1999-07-09 Victor Co Of Japan Ltd 立体映像装置及び方法
US6704048B1 (en) * 1998-08-27 2004-03-09 Polycom, Inc. Adaptive electronic zoom control
US7092003B1 (en) 1999-01-21 2006-08-15 Mel Siegel 3-D imaging arrangements
JP2001016619A (ja) 1999-06-30 2001-01-19 Canon Inc 撮像装置、その輻輳距離決定方法、記憶媒体および光学装置
US6864910B1 (en) 1999-06-30 2005-03-08 Canon Kabushiki Kaisha Optical apparatus
JP3619063B2 (ja) 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
JP2002084555A (ja) 2000-09-11 2002-03-22 Canon Inc 立体映像撮影装置
JP2002232913A (ja) 2001-01-31 2002-08-16 Canon Inc 複眼カメラ及び立体視画像観察システム
JP2003018619A (ja) 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
WO2003005793A2 (en) * 2001-07-04 2003-01-16 Koninklijke Philips Electronics N.V. Choice of reference markings for enabling fast estimating of the position of an imaging device
KR100424287B1 (ko) 2001-09-10 2004-03-24 주식회사 제이앤에이치테크놀러지 비평행 광축 실시간 입체 영상 처리 시스템 및 방법
JP3673217B2 (ja) 2001-12-20 2005-07-20 オリンパス株式会社 映像表示装置
JP2003284093A (ja) 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP4259913B2 (ja) 2003-05-08 2009-04-30 シャープ株式会社 立体画像処理装置、立体画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2005073049A (ja) 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
JP4652727B2 (ja) 2004-06-14 2011-03-16 キヤノン株式会社 立体画像生成システムおよびその制御方法
JP4707368B2 (ja) 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
US20060017834A1 (en) * 2004-07-23 2006-01-26 Konica Minolta Opto, Inc. Imaging optical system and imaging lens device
JP4601073B2 (ja) 2004-10-01 2010-12-22 シャープ株式会社 立体画像形成システム
DE102005063503B4 (de) 2005-03-10 2011-05-19 Inaba, Minoru, Oyama 3D-Display und 3D-Projektor
JP4695912B2 (ja) 2005-04-11 2011-06-08 キヤノン株式会社 ズームレンズ及びそれを有する撮像装置
KR100667810B1 (ko) 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
KR101244911B1 (ko) 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
JP5362189B2 (ja) 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
US7854518B2 (en) 2006-06-16 2010-12-21 Hewlett-Packard Development Company, L.P. Mesh for rendering an image frame
KR101311896B1 (ko) 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
US20080123901A1 (en) 2006-11-29 2008-05-29 D&S Consultants, Inc. Method and System for Comparing Images Using a Pictorial Edit Distance
KR20080076628A (ko) 2007-02-16 2008-08-20 삼성전자주식회사 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법
JP5296337B2 (ja) 2007-07-09 2013-09-25 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システムおよび画像処理方法
WO2009020277A1 (en) 2007-08-06 2009-02-12 Samsung Electronics Co., Ltd. Method and apparatus for reproducing stereoscopic image using depth control
US8390674B2 (en) * 2007-10-10 2013-03-05 Samsung Electronics Co., Ltd. Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image
KR101518531B1 (ko) 2008-05-12 2015-05-07 톰슨 라이센싱 스테레오스코픽 모션 픽쳐들의 잠재적인 아이스트레인을 측정하기 위한 시스템 및 방법
JP2010045584A (ja) 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
US9336624B2 (en) 2008-10-07 2016-05-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for rendering 3D distance fields
US8330802B2 (en) * 2008-12-09 2012-12-11 Microsoft Corp. Stereo movie editing
US7933512B2 (en) 2009-03-24 2011-04-26 Patrick Campbell Stereo camera with controllable pivot point
US9275680B2 (en) 2009-06-16 2016-03-01 Microsoft Technology Licensing, Llc Viewer-centric user interface for stereoscopic cinema
US8624959B1 (en) 2009-09-11 2014-01-07 The Boeing Company Stereo video movies
US8798160B2 (en) 2009-11-06 2014-08-05 Samsung Electronics Co., Ltd. Method and apparatus for adjusting parallax in three-dimensional video
US8963998B2 (en) 2011-04-15 2015-02-24 Tektronix, Inc. Full reference system for predicting subjective quality of three-dimensional video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016620A (ja) * 1999-06-30 2001-01-19 Canon Inc 撮像装置、その輻輳距離決定方法、記憶媒体および光学装置
JP2004334833A (ja) * 2003-04-17 2004-11-25 Sony Corp 立体視画像処理装置,情報提供方法,画像表示方法
JP2005167310A (ja) * 2003-11-28 2005-06-23 Sharp Corp 撮影装置
JP2008205758A (ja) * 2007-02-20 2008-09-04 Fujifilm Corp 立体撮影装置および方法並びにプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013038863A1 (ja) * 2011-09-13 2013-03-21 富士フイルム株式会社 単眼立体撮影装置、撮影方法及びプログラム
CN103874960A (zh) * 2011-09-13 2014-06-18 富士胶片株式会社 单眼立体摄影装置、摄影方法及程序
US20140192162A1 (en) * 2011-09-13 2014-07-10 Fujifilm Corporation Single-eye stereoscopic imaging device, imaging method and recording medium
US9462252B2 (en) 2011-09-13 2016-10-04 Fujifilm Corporation Single-eye stereoscopic imaging device, imaging method and recording medium
WO2016194446A1 (ja) * 2015-06-01 2016-12-08 ソニー株式会社 情報処理装置、情報処理方法、及び生体内撮像システム
WO2016208246A1 (ja) * 2015-06-24 2016-12-29 ソニー・オリンパスメディカルソリューションズ株式会社 医療用立体観察装置、医療用立体観察方法、及びプログラム
JPWO2016208246A1 (ja) * 2015-06-24 2018-04-26 ソニー・オリンパスメディカルソリューションズ株式会社 医療用立体観察装置、医療用立体観察方法、及びプログラム
US10561304B2 (en) 2015-06-24 2020-02-18 Sony Olympus Medical Solutions Inc. Medical stereoscopic observation device, medical stereoscopic observation method, and program
JP2022543510A (ja) * 2020-06-28 2022-10-13 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 撮影方法、装置、電子機器及び記憶媒体
JP7293362B2 (ja) 2020-06-28 2023-06-19 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 撮影方法、装置、電子機器及び記憶媒体
US11736795B2 (en) 2020-06-28 2023-08-22 Baidu Online Network Technology (Beijing) Co., Ltd. Shooting method, apparatus, and electronic device
WO2023068034A1 (ja) * 2021-10-20 2023-04-27 日立Astemo株式会社 画像処理装置

Also Published As

Publication number Publication date
JP5444452B2 (ja) 2014-03-19
JPWO2011108283A1 (ja) 2013-06-20
US9049434B2 (en) 2015-06-02
US20120320048A1 (en) 2012-12-20

Similar Documents

Publication Publication Date Title
JP5432365B2 (ja) 立体撮像装置および立体撮像方法
JP5444452B2 (ja) 立体撮像装置および立体撮像方法
JP5491617B2 (ja) 立体撮像装置、および立体撮像方法
JP5414947B2 (ja) ステレオ撮影装置
JP5140210B2 (ja) 撮影装置および画像処理方法
US8736672B2 (en) Algorithmic interaxial reduction
US20110228051A1 (en) Stereoscopic Viewing Comfort Through Gaze Estimation
EP2812756B1 (en) Method and system for automatic 3-d image creation
JP5565001B2 (ja) 立体映像撮像装置、立体映像処理装置および立体映像撮像方法
JP5204350B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5204349B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5320524B1 (ja) ステレオ撮影装置
JP5510238B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2001142166A (ja) 3dカメラ
KR101270025B1 (ko) 스테레오 카메라의 주시각 제어방법 및 그 스테레오 카메라 장치
JPWO2011070774A1 (ja) 3d映像処理装置および3d映像処理方法
US20120236126A1 (en) Image pickup device, image pickup method, program, and integrated circuit
US20110001798A1 (en) 3-d auto-convergence camera
JP6490107B2 (ja) 立体視ビデオズーミング
JP6608852B2 (ja) 立体視深度調節及び焦点調節

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11750396

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012503025

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13582052

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11750396

Country of ref document: EP

Kind code of ref document: A1