WO2013046886A1 - 立体画像撮像装置及びその合焦状態確認用画像表示方法 - Google Patents

立体画像撮像装置及びその合焦状態確認用画像表示方法 Download PDF

Info

Publication number
WO2013046886A1
WO2013046886A1 PCT/JP2012/068599 JP2012068599W WO2013046886A1 WO 2013046886 A1 WO2013046886 A1 WO 2013046886A1 JP 2012068599 W JP2012068599 W JP 2012068599W WO 2013046886 A1 WO2013046886 A1 WO 2013046886A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
stereoscopic image
focus
state confirmation
Prior art date
Application number
PCT/JP2012/068599
Other languages
English (en)
French (fr)
Inventor
裕子 児玉
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201280048318.6A priority Critical patent/CN103842907A/zh
Priority to JP2013536015A priority patent/JP5640155B2/ja
Publication of WO2013046886A1 publication Critical patent/WO2013046886A1/ja
Priority to US14/229,720 priority patent/US20140210957A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Definitions

  • the present invention relates to a stereoscopic image capturing apparatus such as a stereo camera, and more particularly to a stereoscopic image capturing apparatus that allows a user to easily determine whether or not an image is in focus by looking at an image in a focus area, and its focusing state confirmation.
  • the present invention relates to an image display method.
  • a stereoscopic image capturing device captures a subject image viewed with the right eye and a subject image viewed with the left eye at the same time, and displays each frame on a display unit provided on the back of the stereoscopic camera and attached with a lenticular lens sheet. By alternately displaying the right-eye subject image and the left-eye subject image, a pseudo three-dimensional image of the subject is displayed.
  • the user When a subject is imaged using such a stereoscopic camera, the user displays a through image output from the image sensor (image sensor) on the display unit and determines the composition of the subject while focusing on the subject. It is determined whether an image can be captured. However, with a 3D image, it is difficult to determine whether the focus is on the subject.
  • the subject image displayed on the display unit can be switched to either a stereoscopic image or a planar image, and the user starts manual focus control.
  • the display image is automatically switched to a planar image (two-dimensional image: only one of the left-eye image and the right-eye image) to facilitate focus control.
  • An object of the present invention is to provide a stereoscopic image pickup apparatus and an in-focus state confirmation image display method capable of simultaneously confirming the focus and confirming the appearance of the stereoscopic image.
  • the stereoscopic image capturing apparatus includes a stereoscopic image capturing unit that captures a subject to obtain a plurality of images having different viewpoints, a display unit that displays the plurality of images as a stereoscopic image of the subject, and a plurality of the plurality of images. And a display control unit that superimposes and displays an image of a region including a focus adjustment target region at the time of imaging in any one of the three-dimensional images as an in-focus state confirmation image.
  • the in-focus state confirmation image display method of the present invention includes a stereoscopic image capturing unit that captures a subject to obtain a plurality of images with different viewpoints, and a display unit that displays the plurality of images as a stereoscopic image of the subject.
  • An image display method for in-focus state confirmation of a stereoscopic image capturing apparatus comprising: an image of a region including a focus adjustment target region at the time of image capturing in any one of the plurality of images as an in-focus state confirmation image It is characterized by being displayed superimposed on a part of the stereoscopic image.
  • the present invention since the stereoscopic effect of the stereoscopic image of the subject and the in-focus state confirmation image can be confirmed at the same time, it is possible to capture a high-quality subject stereoscopic image without missing a photo opportunity.
  • FIG. 1 is an external perspective view of a stereoscopic image capturing apparatus (stereoscopic camera) according to an embodiment of the present invention. It is a functional block block diagram of the stereo camera shown in FIG. It is a rear view of the stereoscopic camera shown in FIG. It is explanatory drawing of a stereo image. It is a figure which shows the example of a display of the image for a focus state confirmation which concerns on one Embodiment of this invention. It is a flowchart which shows the display processing procedure of the image for a focus state confirmation which concerns on one Embodiment of this invention. It is resize explanatory drawing of the image for a focus state confirmation which concerns on one Embodiment of this invention.
  • FIG. 1 is an external perspective view of a stereoscopic image capturing apparatus (in this embodiment, a digital camera for photographing a stereoscopic image of two left and right eyes, hereinafter referred to as a stereoscopic camera or simply a camera).
  • This stereoscopic camera 10 includes a box-shaped housing 11, a right-eye imaging unit 12 ⁇ / b> R and a left-eye imaging unit 12 ⁇ / b> L as a stereoscopic image imaging unit provided side by side on the front of the housing 11, and the front left shoulder of the housing 11.
  • a flashlight 13 provided in the unit, and a power switch 14, a shutter button 15, and a mode selection dial 16 provided at appropriate positions on the upper surface of the housing 11 are provided.
  • liquid crystal display unit (monitor) 37 shown in FIG. 2 is provided with a liquid crystal display unit (monitor) 37 shown in FIG. 2, and a through image, a mode selection screen, a menu screen, a guide display, and the like are displayed.
  • the imaging unit 12R includes a photographic lens 21R at the front
  • the imaging unit 12L includes a photographic lens 21L at the front.
  • An angle at which the optical axis 22R of the photographic lens 21R and the optical axis 22L of the photographic lens 21L intersect is called a convergence angle, and an actuator that controls the direction in which each of the imaging units 12R and 12L faces so that the convergence angle becomes a target value.
  • the convergence angle between the photographing lenses 21R and 21LL is fixed, and the stereoscopic effect of the stereoscopic image can be controlled by adjusting the amount of deviation between the left and right captured images using image processing technology. it can.
  • the photographing lenses 21R and 21L can independently adjust the focus position and the zoom magnification. However, in the stereoscopic image photographing mode, the photographing lenses 21R and 21L are interlocked and controlled by a motor driver 38 described later. Both the photographic lens and the other photographic lens are controlled to the same in-focus position.
  • FIG. 2 is a functional block diagram of the stereoscopic camera 10 shown in FIG.
  • the stereoscopic camera 10 includes a right-eye image sensor 25R disposed on the back surface of the photographing lens 21R, an AD conversion unit 26R that converts the output of the image sensor 25R into digital data, and is disposed on the back surface of the photographing lens 21L.
  • the left eye image sensor 25L and an AD conversion unit 26L that converts the output of the image sensor 25L into digital data are provided.
  • the stereoscopic camera 10 further includes a signal processing unit 27 that captures the outputs of the AD conversion units 26R and 26L, a system control unit (CPU) 28 that performs overall control of the entire stereoscopic camera 10, and a resizing unit 29 that resizes the captured image.
  • a work memory 30 such as a frame memory, an AF control unit 31 that processes captured image data and performs AF control, a display control unit 32, a composite image coordinate control unit 33, and an LCD controller 34. are connected to each other via a bus 35 and operate according to instructions from the CPU 28.
  • a liquid crystal display (LCD) 37 provided on the back of the camera 10 is connected to the LCD controller 34, and a motor driver 38 connected to the CPU 28 drives the focus control motors of the photographing lenses 21R and 21L.
  • the CPU 28 is connected to an operation unit including the shutter button 15 and user interface keys 39.
  • the CPU 28 has a main subject area detection function for analyzing a subject image subjected to image processing by the subordinate signal processing unit 27 and detecting an area including at least a part of the main subject.
  • the focus area is set so that the main subject detected by this function is in focus.
  • an external memory such as a memory card that records captured image data is connected to the bus 35 via a memory interface.
  • FIG. 3 is a rear view of the stereoscopic camera 10.
  • a liquid crystal display unit 37 is provided on the back surface of the stereoscopic camera 10, and a captured image is displayed on the display unit 37.
  • the through image output from the image sensors 25R and 25L is displayed as a stereoscopic image.
  • the left-eye image (output image of the image sensor 25L) 41 and the right-eye image (output image of the image sensor 25R) 42 in FIG. 4 are alternately displayed on the display unit 37 for each frame, a lenticular lens sheet (illustrated) From the display unit 37 on which (omitted) is pasted, only the left eye image 41 enters the left eye of the person viewing the display unit 37, and only the right eye image 42 enters the right eye.
  • a three-dimensional image (a three-dimensional image of a bird in the illustrated example) is reproduced by the left-eye image 41 and the right-eye image 42 slightly shifted from this.
  • the AF area 41a in the left-eye image 41 and the AF area 42a in the right-eye image 42 are areas that reflect the bird's head.
  • the display unit 37 has a high possibility that the main subject is not reflected (lower right region in the illustrated example), which is a focus adjustment target region at the time of imaging.
  • the focus state confirmation display area 40 wider than the AF areas 41a and 42a is provided, and the left-eye image of the bird's head part reflected in the AF area 41a or the right-eye of the bird's head part reflected in the AF area 42a Display only images.
  • the user's dominant eye is the left eye and there is a setting instruction to that effect, only the left eye image of the bird's head is displayed in the display area 40 every frame.
  • focusing control of one of the photographing lenses 21L is performed with priority, and focusing control of the other photographing lens 21R is controlled based on a control value of the photographing lens 21L.
  • an AF enlarged image of an image captured by the photographing lens 21L is displayed.
  • the captured images in the AF areas 41a and 42a are displayed as two-dimensional images in the display area 40, it is possible to check whether or not the image is in focus. Moreover, since the stereoscopic image is displayed on the entire screen, the degree of stereoscopic effect can be visually recognized simultaneously with the focus confirmation.
  • the resize unit 29 in FIG. 2 Since there is a difference between the actual image size in the AF areas 41 a and 42 a and the image size displayed in the display area 40, the resize unit 29 in FIG. 2 generates and displays an image in the AF area that matches the display area 40. Will do.
  • the display area 40 is provided in the display unit 37, and the enlarged image for checking the focus state is displayed here.
  • the display image in the focus area in the stereoscopic image is displayed as the focus state check image. It may be displayed as. Since display screens mounted on digital cameras in recent years have become larger, it is possible to confirm the in-focus state even if the in-focus state confirmation image is displayed directly in the focus area in the stereoscopic image.
  • the display area 40 enlarged around the focus area in the stereoscopic image may be provided, and the focus state confirmation image may be displayed here.
  • the display area 40 is provided at the lower right area of the display unit 37 or the like. It is not limited to.
  • FIG. 6 is a flowchart showing a processing procedure for executing the above-described embodiment, and the CPU 28 of FIG. 2 is executed using the subsize resizing unit 29 and the like. It is assumed that the stereoscopic camera 10 is driven in the autofocus mode.
  • step S1 it is determined whether or not the planar image enlarged display of the AF area is turned on according to an instruction from the user. If the determination result is affirmative, that is, if the enlarged display of the image in the AF area is performed, the process proceeds to the next step S2, and an enlarged image of the image in the AF area (focus state confirmation image) is created.
  • FIG. 7 is an explanatory diagram for creating an enlarged image of the image in the AF area.
  • the signal processing unit 27 in FIG. 2 for example, through images of 1280 ⁇ 960 pixels are captured from the image sensors 25R and 25L.
  • the resizing unit 29 reduces the images to images 640 and 480 pixels 41 and 42 and displays them on the display unit 37.
  • step S3 subsequent to step S2 in FIG. 6, a process of combining (superimposing) the enlarged image of the AF area image at a predetermined position (display area 40 position) of the through image display image is performed.
  • This synthesis (superimposition) process is performed as follows.
  • the size of the AF area on the display image (reduced image) shown in FIG. 7 is 160 ⁇ 120 pixels.
  • the AF area image is enlarged to be displayed in the display area 40, but the 160 ⁇ 120 pixel image is not enlarged, but the AF area image 320 ⁇ 240 before reduction is reduced to 240 ⁇ 180 pixel.
  • the image 43 is resized and displayed in the display area 40.
  • the resized image 43 of 240 ⁇ 180 pixels is embedded in each display area 40 position of the display images 41 and 42, and the image 41 in which the image 43 is embedded for each frame, Images 42 embedded with 43 are alternately displayed. Thereby, the focused state confirmation image 43 is displayed in 2D in the stereoscopic image.
  • FIG. 9 is an explanatory diagram of processing using the memory 30 of FIG.
  • the memory 30 temporarily stores image data (captured images) output from the image sensors 25R and 25L.
  • the image data is reduced by the resizing unit 29 to generate display images 41 and 42 and temporarily stored in the memory 30.
  • an enlarged image 43 of the image in the AF area is created, which is also stored in the memory 30. Save temporarily.
  • the display resized images 41 and 42 and the AF area enlarged image 43 are combined and sent to the display control unit 32, whereby the combined image of FIG. 8 is displayed on the display unit 37.
  • the display resized images 41 and 42 and the AF area enlarged image 43 can be generated simultaneously, so that the processing speed can be increased.
  • step S4 after step S3, and waits for half-pressing of the shutter button. If the half-pressed state is not detected, the process returns to step S1. If the half-pressed state is detected, the process proceeds to the next step S5. As a result of the determination in step S1, the process also proceeds to step S5 when it is determined that there is no instruction to display an enlarged image of the image in the AF area.
  • step S5 well-known predetermined AF control such as contrast AF control, phase difference AF method, and mountain climbing method is performed.
  • step S6 the motor driver 38 in FIG. 2 determines whether or not the focus lens has been driven in accordance with the AF value in accordance with an instruction from the CPU 28.
  • step S6 If it is determined in step S6 that the focus lens has been driven, this means that the captured image has been updated, so that the process returns to step S2 to recreate the enlarged image in the AF area and to display the through image on the through image display image. Re-synthesize the enlarged image in the area.
  • step S6 If the result of determination in step S6 is that the focus lens has not been driven, there is no change in the captured image, so processing proceeds to step S7.
  • step S7 the user visually recognizes an enlarged image of the image in the AF area and determines whether or not the image is in focus. If the image is in focus, the process proceeds to step S8 where the shutter release button is fully pressed, the process proceeds to the photographing process (step S9), and this process ends.
  • step S7 determines whether or not there is an instruction to switch to MF (manual focus) based on an input instruction from the user (step S10). If there is no instruction to switch to MF, the process returns to step S4. If there is an instruction to switch to MF, the process proceeds to step S11, and the photographing mode is switched to the MF mode.
  • step S12 the user manually moves the focus lens by adjusting the focus ring.
  • step S13 the same process as step S2
  • step S14 the same process as step S3 in step S14
  • step S7 Since the three-dimensional image and the AF confirmation image on the screen are updated by adjusting the focus ring, if the user who sees the image determines that the image is in focus in step S7, the process proceeds to step S8 and the image is in focus. If it is determined that there is not, the process proceeds to step S10 again.
  • the enlarged image (focus state confirmation image) of the in-focus area image is a 2D image without parallax in a partial area of the display unit on which the stereoscopic image (three-dimensional image) is displayed. Since it is displayed, the stereoscopic image and the in-focus state confirmation image can be visually recognized at the same time, and it is possible to quickly confirm the stereoscopic effect and the focus.
  • the enlarged image in the AF area is displayed as a two-dimensional image in the three-dimensional image so that the user can visually recognize the degree of focusing.
  • This enlarged image in the AF area may be displayed as a zero-parallax image in the three-dimensional image, but may be displayed by jumping out from the screen to the near side, or retracted from the screen and displayed at the back side. . That is, the depth position may be controlled.
  • This display control can be realized by shifting the AF area enlarged image 43 embedded in the display image 42 in the horizontal direction with respect to the AF area enlarged image 43 embedded in the display image 41.
  • this embodiment will be described.
  • FIG. 10 is a diagram for explaining a method for controlling the depth position of the enlarged image 43 in the AF area (control of the jumping amount / drawing amount).
  • FIG. 11 is a diagram for explaining the amount of deviation of the horizontal coordinates of the left and right images with respect to the parallax.
  • the optical axes 22L and 22R of the left and right photographing lenses 21L and 21R of the stereoscopic camera 10 are fixedly installed, and the horizontal shift amount of the left and right photographed images is controlled by an image processing technique, so that the tertiary An original image is generated.
  • the pop-up amount and the retraction amount of the enlarged image (planar image) in the AF area are controlled in this embodiment.
  • FIG. 13 is an explanatory diagram of the shift amount control of the x coordinate of the enlarged image in the AF area. This corresponds to a diagram in which 12 ⁇ 6 pixels in the upper left corner of each of the left and right embedded images 43 in FIG. 10 are cut out.
  • the upper left corner coordinates (4, 3) of the image 43 embedded in the left eye image 41 With respect to the upper left corner coordinates (4, 3) of the image 43 embedded in the left eye image 41, the upper left corner coordinates of the image 43 embedded in the right eye image 42 are (0, 3), and four pixels on the left side, that is, ⁇ 4 It is shifted horizontally by the amount of pixels. That is, as can be seen from FIG. 12, the enlarged image 43 in the AF area is displayed with a parallax amount “ ⁇ 1” jumping forward.
  • the enlarged image 43 in the AF area is displayed in a pop-up manner or withdrawn and displayed, so that the focus can be confirmed in which area in the subject image that is displayed as a three-dimensional image as a whole. It becomes clear at a glance whether it should be. This is not limited to the case where the AF area enlarged image 43 is displayed in the lower right area 40 of the screen in the illustrated example, and the same is true regardless of where the AF area enlarged image 43 is displayed.
  • menu images and information related to imaging are 2D images. Is displayed on the display unit. For this reason, if the depth position (the pop-out amount or the retraction amount) of the enlarged image 43 in the AF area is displayed at the same depth position as the information image other than the stereoscopic image such as a menu image or a display image such as an icon related to imaging, the user The eye burden is reduced and visibility is improved.
  • the AF detection area 50 is provided at a predetermined position in the captured image, for example, as shown in the left diagram of FIG.
  • a moving subject is always focused by a continuous AF (C-AF) function.
  • C-AF continuous AF
  • the AF area enlarged image (composite image) 43 is always fixed and displayed in the display area 40 in the fourth quadrant at the lower right of the screen, the AF detection area 50 moves and the AF area is enlarged. A situation occurs in which the image 43 overlaps.
  • the upper left corner coordinates of the AF detection area 50 are AF-LEFT-TOP (x, y) and the lower right corner coordinates AF-RIGHT-BOTTOM (x, y), and these coordinates are displayed on the screen. It is preferable to control the display position of the enlarged image 43 in the AF area according to where it exists.
  • the AF detection area 50 since the AF detection area 50 moves following the subject, the AF detection area 50 itself may become invisible if it overlaps the display area of the enlarged image 43 in the AF area. There is.
  • a plurality of display areas for the enlarged image 43 in the AF area are provided and switched according to the location where the AF detection area 50 exists. That is, the display control unit 32 switches the display area 40 to an area that does not overlap the focus adjustment target area 50 when the AF detection area 50 that is the focus adjustment target area moves following the subject. As a result, an AF confirmation image can be displayed on the screen where the AF detection area 50 does not overlap.
  • the display area 40 of the enlarged image 43 in the AF area may be frequently switched depending on the movement of the main subject to be photographed.
  • the movement of the main subject is predicted from the movement trajectory of the main subject, a display area 40 that does not need to be switched for as long as possible is determined, and an enlarged image for AF confirmation is displayed in the display area 40. Is good.
  • the user may be able to designate the display area of the AF confirmation image with one touch. By doing so, visibility can be improved.
  • FIG. 16 is an explanatory diagram of a method for displaying an in-focus state confirmation image according to another embodiment of the present invention.
  • the main subject image 60 of the subject images (the focus may be focused on this main subject or the focus may be focused on another main subject) is in focus. It may overlap with the confirmation image 43.
  • This state can be known by using the function of detecting the main subject image existence area of the CPU 28 as the main subject detection unit.
  • the binocular stereoscopic image capturing apparatus has been described.
  • the present invention can also be applied as it is to a monocular stereoscopic image pickup device provided in the image pickup device.
  • the stereoscopic image capturing apparatus of the embodiment includes a stereoscopic image capturing unit that captures a subject to obtain a plurality of images with different viewpoints, and a display unit that displays the plurality of images as a stereoscopic image of the subject.
  • a display control unit that superimposes and displays an image of a region including a focus adjustment target region at the time of imaging in any one of the plurality of images as a focused state confirmation image on a part of the stereoscopic image. It is characterized by that.
  • the display control unit of the stereoscopic image capturing apparatus of the embodiment shifts the overlapping position of the in-focus state confirmation image from each other in the parallax direction and superimposes the images on the plurality of images to check the in-focus state.
  • the depth position of the image is controlled.
  • the display control unit of the stereoscopic image capturing apparatus of the embodiment controls the depth position of the in-focus state confirmation image to the same depth position as information other than the stereoscopic image displayed on the display unit. To do.
  • the information other than the three-dimensional image of the three-dimensional image capturing apparatus of the embodiment is information on a menu image or a display image related to image capturing.
  • the display control unit of the stereoscopic image capturing apparatus is characterized in that the focused state confirmation image is enlarged and displayed in a display area different from the focus adjustment target area.
  • the stereoscopic image capturing apparatus includes a main subject region detection unit that detects a region including at least a part of the main subject in the stereoscopic image, and the focus adjustment is performed on the region including at least a part of the main subject.
  • the target region is characterized.
  • the display control unit of the stereoscopic image capturing apparatus switches the display area to an area that does not overlap the focus adjustment target area when the focus adjustment target area moves following the subject. .
  • the stereoscopic image capturing apparatus includes a main subject region detection unit that detects a region including at least a part of the main subject in the stereoscopic image, and the display control unit includes the focus state confirmation image.
  • the display control unit includes the focus state confirmation image.
  • the image display method for in-focus state confirmation of the stereoscopic image capturing apparatus includes a stereoscopic image capturing unit that captures a subject to obtain a plurality of images with different viewpoints, and the plurality of images as a stereoscopic image of the subject.
  • An in-focus state confirmation image display method of a stereoscopic image capturing apparatus including a display unit for displaying, wherein an image of a region including a focus adjustment target region at the time of imaging in any one of the plurality of images is in focus As a confirmation image, the image is superimposed on a part of the stereoscopic image and displayed.
  • the stereoscopic effect of the subject stereoscopic image and the in-focus state confirmation image can be confirmed at the same time on the same display screen, even a subject that moves without missing a photo opportunity has high quality. It becomes possible to pick up a stereoscopic image.
  • the stereoscopic image capturing apparatus and the focused state confirmation image display method according to the present invention can simultaneously confirm the stereoscopic effect of the subject stereoscopic image and the focused state confirmation image (two-dimensional image), a photo opportunity is missed. This is advantageous in that a high-quality image can be captured even with a moving subject, and it is useful when a stereoscopic camera is configured with a digital camera.
  • Stereoscopic imaging device (stereoscopic camera) 15 Shutter Button 21R Right Eye Shooting Lens 21L Left Eye Shooting Lens 27 Signal Processing Unit (DSP) 28 System controller (CPU) 31 Resize unit 33 Composite image coordinate control unit 37 Liquid crystal display unit 41, 42 Display resize image 41a, 42a, 50 AF detection area 43 AF confirmation image (enlarged image of image in AF area)

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

 被写体を撮像して視点の異なる複数の画像41,42を得る立体画像撮像部と、複数の画像41,42を被写体の立体画像として表示する表示部とを備える立体画像撮像装置において、複数の画像41,42のいずれか1つにおける撮像時の焦点調節対象領域を含む領域の画像41aを、合焦状態確認用の画像43として立体画像中の一部に重畳し表示する。

Description

立体画像撮像装置及びその合焦状態確認用画像表示方法
 本発明は、ステレオカメラ等の立体画像撮像装置に係り、特に、フォーカスエリア内の画像をユーザが見てピントが合っているか否かを容易に判断できる立体画像撮像装置及びその合焦状態確認用画像表示方法に関する。
 立体画像撮像装置(立体カメラ)は、右目で見た被写体画像と、左目で見た被写体画像とを同時に撮像し、立体カメラ背面に設けられレンチキュラレンズシートが貼られた表示部に、1フレーム毎に交互に、右目用被写体画像と左目用被写体画像とを表示することで、被写体の擬似的な立体画像を表示する様になっている。
 この様な立体カメラを用いて被写体を撮像するとき、ユーザは、撮像素子(イメージセンサ)から出力されるスルー画像を表示部に表示させて被写体の構図を決めながら、被写体にピントが合った立体画像が撮像できるか否かを判断することになる。しかし、立体画像のままでは、ピントが被写体に合焦しているか否かの判断は困難である。
 このため、下記の特許文献1に記載されている従来技術では、表示部に表示される被写体画像を、立体画像と平面画像のいずれかに切替表示可能とし、ユーザがマニュアルフォーカス制御を開始したとき自動的に表示画像を平面画像(二次元画像:左目用画像又は右目用画像の一方だけの画像)に切り替えて、フォーカス制御が容易となるようにしている。
日本国特開2011―91482号公報
 上述した特許文献1記載の従来技術の様に、表示部に平面画像を表示すれば、立体画像だけが表示されている場合に比較して、ピントが合っているか否かを判断するのが容易となる。しかし、平面画像でピントを確認しながら、立体画像がどの様に見えるのかその立体感を確認することができず、表示を二次元表示から三次元表示に切り替えないといけないという不便がある。
 特に、ペットや子供,野鳥の撮影など、動く被写体を撮影対象とした場合、立体画像の見え方とピントの合焦程度を短時間に確認できないと、シャッタチャンスを逃してしまう。このため、表示部の表示切替が必要な従来技術では、シャッタチャンスを逃す虞が高いという問題がある。
 本発明の目的は、ピントを確認することと立体画像の見え方の確認とを同時に行うことができる立体画像撮像装置及びその合焦状態確認用画像表示方法を提供することにある。
 本発明の立体画像撮像装置は、被写体を撮像して視点の異なる複数の画像を得る立体画像撮像部と、上記複数の画像を上記被写体の立体画像として表示する表示部と、上記複数の画像のいずれか1つにおける撮像時の焦点調節対象領域を含む領域の画像を合焦状態確認用の画像として上記立体画像中の一部に重畳し表示する表示制御部とを備えることを特徴とする。
 また、本発明の合焦状態確認用画像表示方法は、被写体を撮像して視点の異なる複数の画像を得る立体画像撮像部と、上記複数の画像を上記被写体の立体画像として表示する表示部とを備える立体画像撮像装置の合焦状態確認用画像表示方法であって、上記複数の画像のいずれか1つにおける撮像時の焦点調節対象領域を含む領域の画像を合焦状態確認用の画像として上記立体画像中の一部に重畳し表示することを特徴とする。
 本発明によれば、被写体の立体画像の立体感と、合焦状態確認用の画像とを同時に確認できるため、シャッタチャンスを逃すことなく高品質な被写体立体画像を撮像することが可能となる。
本発明の一実施形態に係る立体画像撮像装置(立体カメラ)の外観斜視図である。 図1に示す立体カメラの機能ブロック構成図である。 図1に示す立体カメラの背面図である。 立体画像の説明図である。 本発明の一実施形態に係る合焦状態確認用画像の表示例を示す図である。 本発明の一実施形態に係る合焦状態確認用画像の表示処理手順を示すフローチャートである。 本発明の一実施形態に係る合焦状態確認用画像のリサイズ説明図である。 本発明の一実施形態に係る合焦状態確認用画像の合成例を説明する図である。 本発明の一実施形態に係る合焦状態確認用画像と表示部への表示画像の生成手順を説明する図である。 合焦状態確認用画像の奥行き位置(飛び出し量/引っ込み量)の説明図である。 立体画像と視差量の説明図である。 視差量と合焦状態確認用画像の奥行き位置(飛び出し量/引っ込み量)との対応関係を示す図である。 合焦状態確認用画像の奥行き位置(飛び出し量/引っ込み量)を画素ズラシで制御する説明図である。 フォーカス検出エリアが移動して合焦状態確認用画像と重なる様子を説明する図である。 合焦状態確認用画像の表示領域の切り替えを行う説明図である。 主要被写体の画像と合焦状態確認用画像とが重なったときの対処方法の説明図である。
 以下、本発明の一実施形態について、図面を参照して説明する。
 図1は、立体画像撮像装置(本実施形態では左右2眼の立体画像撮影用のデジタルカメラ、以下、立体カメラ又は単にカメラという。)の外観斜視図である。この立体カメラ10は、箱状のハウジング11と、ハウジング11の前部に並んで設けられた立体画像撮像部としての右目用の撮像部12R及び左目用の撮像部12Lと、ハウジング11の前面左肩部に設けられたフラッシュライト13と、ハウジング11の上面適宜箇所に設けられた電源スイッチ14,シャッタボタン15,モード選択ダイヤル16とを備える。
 ハウジング11の背面側には、図2に示す液晶表示部(モニタ)37を備え、スルー画像やモード選択画面,メニュー画面,ガイド表示等が表示される。
 撮像部12Rは前部に撮影レンズ21Rを備え、撮像部12Lは前部に撮影レンズ21Lを備える。撮影レンズ21Rの光軸22Rと、撮影レンズ21Lの光軸22Lとが交差する角度を輻輳角といい、輻輳角が目標値となるように各撮像部12R,12Lの向く方向を制御するアクチュエータを立体カメラ10に内蔵することもできるが、撮影レンズ21R,21LL間の輻輳角を固定とし、左右の撮像画像のズレ量を画像処理技術で調整することで立体画像の立体感を制御することもできる。
 撮影レンズ21R,21Lは、夫々独立に焦点位置合わせ,ズーム倍率が調整可能となっているが、立体画像撮影モード時には、これら撮影レンズ21R,21Lは、後述のモータドライバ38によって連動制御され、一方の撮影レンズと他方の撮影レンズの両方が同じ合焦位置に制御される。
 図2は、図1に示す立体カメラ10の機能ブロック図である。立体カメラ10は、撮影レンズ21Rの背面部に配置された右目用イメージセンサ25Rと、イメージセンサ25Rの出力をデジタルデータに変換するAD変換部26Rを備えると共に、撮影レンズ21Lの背面部に配置された左目用イメージセンサ25Lと、イメージセンサ25Lの出力をデジタルデータに変換するAD変換部26Lを備える。
 立体カメラ10は更に、AD変換部26R,26Lの出力を取り込む信号処理部27と、この立体カメラ10の全体を統括制御するシステム制御部(CPU)28と、撮像画像のリサイズを行うリサイズ部29と、フレームメモリ等のワークメモリ30と、撮像画像データを処理してAF制御を行うAF制御部31と、表示制御部32と、合成画像座標制御部33と、LCDコントローラ34とを備え、これらは相互にバス35で接続され、CPU28の指示に従って動作する。
 LCDコントローラ34にはカメラ10の背面に設けられた液晶表示部(LCD)37が接続され、CPU28に接続されたモータドライバ38は、撮影レンズ21R,21Lの焦点制御用モータを駆動する。また、CPU28にはシャッタボタン15を含む操作部やユーザインタフェースキー等39が接続される。
 CPU28は、配下の信号処理部27が画像処理した被写体画像を解析し、その中の主要被写体の少なくとも一部を含む領域を検出する主要被写体領域検出機能を備えている。この機能により検出された主要被写体にピントが合うように、フォーカスエリアが設定される。なお、図示は省略したが、撮像画像データを記録するメモリカード等の外部メモリがバス35にメモリインタフェースを介して接続される。
 図3は、立体カメラ10の背面図である。立体カメラ10の背面には、液晶表示部37が設けられており、この表示部37に撮像画像が表示される。例えば、イメージセンサ25R,25Lから出力されるスルー画像が立体画像として表示される。
 例えば、図4の左目画像(イメージセンサ25Lの出力画像)41と右目画像(イメージセンサ25Rの出力画像)42とが1フレーム毎に交互に表示部37に表示されると、レンチキュラレンズシート(図示省略)が貼られた表示部37から、表示部37を見る人の左目には左目画像41しか入らず、右目には右目画像42しか入らない。これにより、図4右側に表示したように、左目画像41と、これと少しずれた右目画像42とにより立体画像(図示の例では鳥の立体画像)が再生される。
 このとき、図5に示すように、左目画像41中のAFエリア41aと、右目画像42中のAFエリア42aとは、鳥の頭部分を映したエリアとなっている。そして、本実施形態では、図3に示す様に、撮像時の焦点調節対象領域となる、表示部37のうち主要被写体が映っていない可能性の高い領域(図示の例では右下領域)に、AFエリア41a,42aよりも広めの合焦状態確認用の表示領域40を設け、AFエリア41aに映っている鳥の頭部分の左目画像又はAFエリア42aに映っている鳥の頭部分の右目画像だけを表示する。
 仮に、ユーザの利き目が左目の場合でその旨の設定指示がある場合には、鳥の頭部分の左目画像だけを、毎フレーム、表示領域40内に表示する。あるいは、撮影レンズ21L,21Rのうち、一方の例えば撮影レンズ21Lの合焦制御を優先して行い、他方の撮影レンズ21Rの合焦制御を撮影レンズ21Lの制御値に基づいて追従制御させる形式のカメラの場合、撮影レンズ21Lによる撮像画像(この例だと左目画像)のAF拡大画像を表示する。
 これにより、表示領域40にはAFエリア41a,42a内の撮像画像が二次元画像として表示されるため、ピントが合っているか否かを確認することが可能となる。しかも、画面全体では、立体画像が表示されているため、立体感の程度をピント確認と同時に視認することが可能となる。
 実際のAFエリア41a,42a内の画像のサイズと、表示領域40に表示する画像サイズとに違いがあるため、図2のリサイズ部29が表示領域40に合わせたAFエリア内画像を生成し表示することになる。
 なお、上述した説明では、表示領域40を表示部37内に設け、ここに合焦状態確認用の拡大画像を表示したが、立体画像中のフォーカスエリア内の表示画像を合焦状態確認用画像として表示することでも良い。近年のデジタルカメラに搭載される表示画面が大型化しているため、立体画像中のフォーカスエリア内に直接的に合焦状態確認用画像を表示しても、合焦状態の確認は可能である。あるいは、立体画像中のフォーカスエリアを中心に拡大した表示領域40を設け、ここに合焦状態確認用画像を表示しても良く、表示領域40を設ける場所は、表示部37の右下領域等に限るものではない。
 図6は、上述した実施形態を実行するための処理手順を示すフローチャートであり、図2のCPU28が配下のリサイズ部29等を用いて実行される。立体カメラ10は、オートフォーカスモードで駆動しているとする。
 先ず、ステップS1で、ユーザからの指示によりAFエリアの平面画像拡大表示がONになっているのか否かを判定する。この判定結果が肯定すなわちAFエリア内画像の拡大表示を行う場合には次のステップS2に進み、AFエリア内の画像の拡大画像(合焦状態確認用画像)を作成する。
 図7は、AFエリア内画像の拡大画像を作成する説明図である。図2の信号処理部27には、例えば、イメージセンサ25R,25Lから夫々1280×960画素のスルー画像が取り込まれている。このスルー画像を表示部37に表示するため、リサイズ部29は、夫々640×480画素の画像41,42に縮小し、表示部37に表示する。
 図6のステップS2の次のステップS3では、スルー画像の表示用画像の所定位置(表示領域40位置)にAFエリア内画像の拡大画像を合成(重畳)する処理を行う。この合成(重畳)処理は、以下の様にして行う。
 図7に示す表示画像(縮小画像)上のAFエリアのサイズは、160×120画素である。このAFエリアの画像を表示領域40に表示するために拡大するのであるが、160×120画素の画像を拡大するのではなく、縮小前のAFエリア内画像320×240を、240×180画素の画像43にリサイズし、これを表示領域40に表示する。
 このリサイズした240×180画素の画像43を、図8に示す様に、表示画像41,42の夫々の表示領域40位置に埋め込み、1フレーム毎に、画像43が埋め込まれた画像41と、画像43が埋め込まれた画像42とを交互に表示する。これにより、合焦状態確認用画像43が立体画像中に2D表示される。
 図9は、図2のメモリ30を用いた処理の説明図である。メモリ30には、イメージセンサ25R,25Lから出力される画像データ(取り込み画像)が一時的に保存される。この画像データをリサイズ部29が縮小処理して表示用画像41,42を生成してメモリ30に一時的に保存し、次にAFエリア内画像の拡大画像43を作成し、これもメモリ30に一時的に保存する。この表示用リサイズ画像41,42とAFエリア拡大画像43とを合成し、表示制御部32に送ることで、図8の合成画像が表示部37に表示される。
 もし、リサイズ部29を2つ持っていれば、表示用リサイズ画像41,42とAFエリア内拡大画像43とを同時に生成できるため、処理の高速化を図ることが可能となる。
 図6に戻り、ステップS3の次にステップS4に進み、シャッタボタンの半押しを待機する。半押し状態が検出されない場合にはステップS1に戻り、半押し状態となった場合には次のステップS5に進む。ステップS1の判定の結果、AFエリア内画像の拡大画像の表示指示が無いと判定された場合もステップS5に進む。
 ステップS5では、コントラストAF制御や位相差AF方式,山登り方式などの周知の予め決められたAF制御を行う。そして次のステップS6で、図2のモータドライバ38が、CPU28からの指示により、AF値に応じてフォーカスレンズを駆動したか否かを判定する。
 ステップS6でフォーカスレンズが駆動されたと判定された場合には、撮像画像が更新されたことを意味するため、ステップS2に戻り、AFエリア内画像の拡大画像再作成と、スルー画表示画像にAFエリア内画像の拡大画像を再合成する。
 ステップS6の判定の結果、フォーカスレンズが駆動されなかった場合には、撮像画像に変化は無いため、ステップS7に進む。
 ステップS7で、ユーザは、AFエリア内画像の拡大画像を視認してピントが合っているか否かを判定する。ピントが合っている場合にはステップS8に進んでシャッタレリーズボタンを全押し、撮影処理(ステップS9)に進み、この処理を終了する。
 ステップS7の判定の結果、ピントが合っていない場合には、次にカメラはユーザからの入力指示でMF(マニュアルフォーカス)への切替指示があるか否かを判定する(ステップS10)。MFへの切替指示が無い場合にはステップS4に戻り、MFへの切替指示が有る場合にはステップS11に進み、撮影モードをMFモードに切り替える。
 次のステップS12で、ユーザは、フォーカスリングを調整して手動でフォーカスレンズを移動させる。この結果、撮像画像は更新されるため、ステップS13に進んでステップS2と同じ処理を行い、次にステップS14でステップS3と同じ処理を行い、ステップS7に戻る。
 フォーカスリングの調整により画面上の三次元画像及びAF確認用画像が更新されるため、これを見たユーザがステップS7でピントが合っていると判断すれば、ステップS8に進み、ピントが合っていないと判断すれば、再びステップS10に進む。
 以上述べた実施形態によれば、立体画像(三次元画像)が表示されている表示部の一部領域にフォーカスエリア内画像の拡大画像(合焦状態確認用画像)が視差の無い2D画像で表示されるため、立体画像と合焦状態確認用画像とを同時に視認でき、立体感の確認とピントの確認を迅速に行うことが可能となる。
 上述した実施形態では、AFエリア内拡大画像を三次元画像中に二次元画像で表示し、合焦程度をユーザが視認できる様にした。このAFエリア内拡大画像は、三次元画像中の視差ゼロの画像として表示しても良いが、画面から手前側に飛び出して表示させたり、画面から奥側に引っ込めて表示させたりしても良い。つまり、その奥行き位置を制御しても良い。この表示制御は、表示画像41中に埋め込んだAFエリア内拡大画像43に対し、表示画像42中に埋め込んだAFエリア内拡大画像43を水平方向にずらすことで実現できる。
 以下、この実施形態を説明する。
 図10は、AFエリア内拡大画像43の奥行き位置制御(飛出量/引込量の制御)方法を説明する図である。表示画像(左目画像)41の座標原点(0,0)に対して、その埋め込み画像(AFエリア内拡大画像)43の左上隅の左目合成画像座標(x,y)は、
 x=640-240-1=399
 y=480-180-1=299
となり、(x,y)=(399,299)である。
 右目画像(表示画像)42の座標原点(0,0)に対して、その埋め込み画像43の左上隅の右目合成画像座標を、上記と同じ(x,y)=(399,299)とすると、即ち、
 左目合成画像座標=右目合成画像座標
とすると、合成画像(AFエリア内拡大画像)43の画面からの飛び出し量はゼロとなる。〔左目合成画像座標のx値-右目合成画像座標のx値〕=αを調整することで、飛び出し量や引っ込み量すなわち視差量を制御可能となる。この制御は、図2の合成画像座標制御部33が行う。
 図11は、視差に対する左右画像の水平座標のズレ量を説明する図である。本実施形態では、立体カメラ10の左右の撮影レンズ21L,21Rの光軸22L,22Rは固定設置されており、左右の撮影画像の水平方向のズレ量を画像処理技術で制御することで、三次元画像を生成している。この原理を利用して、AFエリア内拡大画像(平面画像)の飛び出し量や引っ込み量を本実施形態では制御している。
 図12は、〔左目合成画像座標のx値-右目合成画像座標のx値〕=αとしたときのαが-12~+12の範囲の視差量を示した図である。視差量がマイナスとなるほど、画面から手前側に飛び出し、視差量がプラスとなるほど、画面から奥側に引っ込むことになる。
 図13は、AFエリア内拡大画像のx座標のズレ量制御の説明図である。図10の左右の夫々の埋め込み画像43の左上隅部分の12×6画素分を切り出した図に相当する。
 左目画像41に埋め込まれた画像43の左上隅座標(4,3)に対して、右目画像42に埋め込んだ画像43の左上隅座標を(0,3)とし、左側に4画素分即ち-4画素分だけ水平方向にずらしている。即ち、図12から分かるように、AFエリア内拡大画像43を視差量“-1”だけ手前側に飛び出して表示させている。
 この様に、AFエリア内拡大画像43を飛び出させて表示したり、引っ込めて表示させることで、全体が三次元画像として表示されている被写体画像中で、どの領域に注目してピントを確認すれば良いのか一目瞭然となる。これは、AFエリア内拡大画像43を図示の例では画面の右下領域40に表示する場合に限らず、画面の何処にAFエリア内拡大画像43を表示しても同様である。
 なお、デジタルカメラ等では、例えばメニュー画像や撮像に関する情報(手振れが起きているか否かを示す情報,フラッシュ発光するか否かの情報など、アイコンで表示されることが多い。)等は2D画像として表示部に表示する。このため、AFエリア内拡大画像43の奥行き位置(飛び出し量や引っ込み量)を、メニュー画像,あるいは撮像に関するアイコン等の表示画像、といった立体画像以外の情報画像と同じ奥行き位置に表示すれば、ユーザの目の負担が軽減し、視認性が向上する。
 上述した実施形態では、撮像画像中の所定位置たとえば図14の左図に示す様に、画面中央位置にAF検出エリア50を設けている。しかし、コンティニュアスAF(C―AF)機能により、動く被写体に常に焦点を合わせる続けるAF方式がある。この場合、図14の右図に示す様に、AF検出エリア50は画面中で移動することになる。
 このため、AFエリア内拡大画像(合成画像)43を、常に、画面右下の第4象限内の表示領域40に固定して表示したのでは、AF検出エリア50が移動してAFエリア内拡大画像43と重なってしまう事態が生じる。
 そこで、図15に示す様に、AF検出エリア50の左上隅座標をAF-LEFT-TOP(x,y)、右下隅座標AF-RIGHT-BOTTOM(x,y)とし、これらの座標が画面上の何処に存在するかに応じて、AFエリア内拡大画像43の表示位置を制御するのが良い。
 図15に示す例では、AF-RIGHT-BOTTOM(x,y)が画面の第1象限にある場合にはAFエリア内拡大画像43を画面の左下領域に配置し、AF-RIGHT-BOTTOM(x,y)が画面の第2象眼にある場合にはAFエリア内拡大画像43を画面の右下領域に配置し、AF-LEFT-TOP(x,y)が画面の第3象限にある揚合にはAFエリア内拡大画像43を画面の右上領域に配置し、AF-LEFT-TOP(x,y)が画面の第4象限にある場合にはAFエリア内拡大画像43を画面の左上領域に配置する。
 C-AF時には、図14で説明した様に、AF検出エリア50が被写体に追従して動くため、AFエリア内拡大画像43の表示領域に重なると、AF検出エリア50自体が見えなくなってしまう虞がある。
 そこで、AFエリア内拡大画像43の表示領域を複数箇所設けておき、AF検出エリア50の存在場所によって切り替える。つまり、表示制御部32は、焦点調節対象領域となるAF検出エリア50が被写体に追従して動く場合に、表示領域40を焦点調節対象領域50と重ならない領域に切り替える。これにより、AF検出エリア50が重ならない場所にAF確認用の画像を画面内に表示することが可能となる。
 なお、撮影対象とする主要被写体の動きによっては、AFエリア内拡大画像43の表示領域40が頻繁に切り替えられてしまう虞がある。この場合には、主要被写体の動きの軌跡から主要被写体の動きを予測し、なるべく長時間、切り替える必要のない表示領域40を決めて、この表示領域40にAF確認用の拡大画像を表示するのが良い。また、タッチパネル式の表示部37を持つ立体カメラであれば、AF確認用画像の表示領域をワンタッチでユーザが指定できるようにしても良い。この様にすることで、視認性を向上させることができる。
 図16は、本発明の別実施形態に係る合焦状態確認用画像の表示方法説明図である。図16(a)に示す様に、被写体画像のうちの主要被写体画像60(この主要被写体にピントを合わせる場合もあるが、別の主要被写体にピントを合わせる場合もある。)が、合焦状態確認用画像43と重なってしまうことがある。この状態は、主要被写体検出部であるCPU28の、主要被写体画像の存在領域を検出する機能を用いて知ることができる。
 この状態が発生したとき、図16(b)に示す様に、合焦状態確認用画像43の奥行き位置の表示制御を行い、主要被写体画像60よりも手前側に合焦状態確認用画像43を表示する。あるいは、図16(c)に示す様に、合焦状態確認用画像43の表示領域を、主要被写体画像60と重ならない位置に移動させる。これにより、ピントの確認が容易となる。
 なお、上述した実施形態では、2眼式の立体画像撮像装置について述べたが、右目用の被写体画像を撮像する第1画素群と左目用の被写体画像と撮像する第2画素群とを1枚の撮像素子に設けた単眼式の立体画像撮像装置にもそのまま適用可能である。
 以上述べた様に、実施形態の立体画像撮像装置は、被写体を撮像して視点の異なる複数の画像を得る立体画像撮像部と、上記複数の画像を上記被写体の立体画像として表示する表示部と、上記複数の画像のいずれか1つにおける撮像時の焦点調節対象領域を含む領域の画像を合焦状態確認用の画像として上記立体画像中の一部に重畳し表示する表示制御部とを備えることを特徴とする。
 また、実施形態の立体画像撮像装置の上記表示制御部は、上記合焦状態確認用の画像の重畳位置を視差方向に互いにずらして上記複数の画像の各々に重畳し該合焦状態確認用の画像の奥行き位置を制御することを特徴とする。
 また、実施形態の立体画像撮像装置の上記表示制御部は、上記表示部に表示する立体画像以外の情報と同じ奥行き位置に上記合焦状態確認用の画像の奥行き位置を制御することを特徴とする。
 また、実施形態の立体画像撮像装置の上記立体画像以外の情報は、メニュー画像あるいは撮像に関する表示画像の情報であることを特徴とする。
 また、実施形態の立体画像撮像装置の上記表示制御部は、上記焦点調節対象領域とは別の表示領域に上記合焦状態確認用の画像を拡大して表示することを特徴とする。
 また、実施形態の立体画像撮像装置は、上記立体画像中の主要被写体の少なくとも一部を含む領域を検出する主要被写体領域検出部を備え、その主要被写体の少なくとも一部を含む領域を上記焦点調節対象領域とすることを特徴とする。
 また、実施形態の立体画像撮像装置の上記表示制御部は、上記焦点調節対象領域が被写体に追従して動く場合に上記表示領域を上記焦点調節対象領域と重ならない領域に切り替えることを特徴とする。
 また、実施形態の立体画像撮像装置は、上記立体画像中の主要被写体の少なくとも一部を含む領域を検出する主要被写体領域検出部を備え、上記表示制御部は、上記合焦状態確認用の画像を表示する表示領域が主要被写体と重なったとき、その合焦状態確認用の画像をその主要被写体の画像よりも手前側の奥行き位置に表示し、あるいは、その合焦状態確認用の画像の表示領域を主要被写体の画像と重ならない位置にする移動させることを特徴とする。
 また、実施形態の立体画像撮像装置の合焦状態確認用画像表示方法は、被写体を撮像して視点の異なる複数の画像を得る立体画像撮像部と、上記複数の画像を上記被写体の立体画像として表示する表示部とを備える立体画像撮像装置の合焦状態確認用画像表示方法であって、上記複数の画像のいずれか1つにおける撮像時の焦点調節対象領域を含む領域の画像を合焦状態確認用の画像として上記立体画像中の一部に重畳し表示することを特徴とする。
 以上述べた実施形態によれば、被写体立体画像の立体感と合焦状態確認用画像(二次元画像)とを同時に同じ表示画面内で確認できるため、シャッタチャンスを逃すことなく動く被写体でも高品質な立体画像を撮像することが可能となる。
 本発明に係る立体画像撮像装置及びその合焦状態確認用画像表示方法は、被写体立体画像の立体感と合焦状態確認用画像(二次元画像)とを同時に確認できるため、シャッタチャンスを逃すことなく動く被写体でも高品質な画像を撮像することができるという効果を奏し、デジタルカメラで立体カメラを構成したとき有用である。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2011年9月30出願の日本特許出願(特願2011-218531)に基づくものであり、その内容はここに参照として取り込まれる。
10  立体画像撮像装置(立体カメラ)
15  シャッタボタン
21R 右目用撮影レンズ
21L 左目用撮影レンズ
27  信号処理部(DSP)
28  システム制御部(CPU)
31  リサイズ部
33  合成画像座標制御部
37  液晶表示部
41,42 表示用リサイズ画像
41a,42a,50 AF検出エリア
43  AF確認用画像(AFエリア内画像の拡大画像)

Claims (9)

  1.  被写体を撮像して視点の異なる複数の画像を得る立体画像撮像部と、前記複数の画像を前記被写体の立体画像として表示する表示部と、前記複数の画像のいずれか1つにおける撮像時の焦点調節対象領域を含む領域の画像を合焦状態確認用の画像として前記立体画像中の一部に重畳し表示する表示制御部とを備える立体画像撮像装置。
  2.  請求項1に記載の立体画像撮像装置であって、前記表示制御部は、前記合焦状態確認用の画像の重畳位置を視差方向に互いにずらして前記複数の画像の各々に重畳し該合焦状態確認用の画像の奥行き位置を制御する立体画像撮像装置。
  3.  請求項1又は請求項2に記載の立体画像撮像装置であって、前記表示制御部は、前記表示部に表示する立体画像以外の情報と同じ奥行き位置に前記合焦状態確認用の画像の奥行き位置を制御する立体画像撮像装置。
  4.  請求項3に記載の立体画像撮像装置であって、前記立体画像以外の情報は、メニュー画像あるいは撮像に関する表示画像の情報である立体画像撮像装置。
  5.  請求項1乃至請求項4のいずれか1項に記載の立体画像撮像装置であって、前記表示制御部は、前記焦点調節対象領域とは別の表示領域に前記合焦状態確認用の画像を拡大して表示する立体画像撮像装置。
  6.  請求項1乃至請求項5のいずれか1項に記載の立体画像撮像装置であって、前記立体画像中の主要被写体の少なくとも一部を含む領域を検出する主要被写体領域検出部を備え、該主要被写体の少なくとも一部を含む領域を前記焦点調節対象領域とする立体画像撮像装置。
  7.  請求項5又は請求項6に記載の立体画像撮像装置であって、前記表示制御部は、前記焦点調節対象領域が被写体に追従して動く場合に前記表示領域を前記焦点調節対象領域と重ならない領域に切り替える立体画像撮像装置。
  8.  請求項1乃至請求項4のいずれか1項に記載の立体画像撮像装置であって、前記立体画像中の主要被写体の少なくとも一部を含む領域を検出する主要被写体領域検出部を備え、前記表示制御部は、前記合焦状態確認用の画像を表示する表示領域が主要被写体と重なったとき、該合焦状態確認用の画像を該主要被写体の画像よりも手前側の奥行き位置に表示し、あるいは、該合焦状態確認用の画像の表示領域を主要被写体の画像と重ならない位置にする移動させる立体画像撮像装置。
  9.  被写体を撮像して視点の異なる複数の画像を得る立体画像撮像部と、前記複数の画像を前記被写体の立体画像として表示する表示部とを備える立体画像撮像装置の合焦状態確認用画像表示方法であって、前記複数の画像のいずれか1つにおける撮像時の焦点調節対象領域を含む領域の画像を合焦状態確認用の画像として前記立体画像中の一部に重畳し表示する立体画像撮像装置の合焦状態確認用画像表示方法。
PCT/JP2012/068599 2011-09-30 2012-07-23 立体画像撮像装置及びその合焦状態確認用画像表示方法 WO2013046886A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201280048318.6A CN103842907A (zh) 2011-09-30 2012-07-23 立体图像摄像装置及其对焦状态确认用图像显示方法
JP2013536015A JP5640155B2 (ja) 2011-09-30 2012-07-23 立体画像撮像装置及びその合焦状態確認用画像表示方法
US14/229,720 US20140210957A1 (en) 2011-09-30 2014-03-28 Stereoscopic imaging apparatus and method of displaying in-focus state confirmation image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011218531 2011-09-30
JP2011-218531 2011-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/229,720 Continuation US20140210957A1 (en) 2011-09-30 2014-03-28 Stereoscopic imaging apparatus and method of displaying in-focus state confirmation image

Publications (1)

Publication Number Publication Date
WO2013046886A1 true WO2013046886A1 (ja) 2013-04-04

Family

ID=47994941

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/068599 WO2013046886A1 (ja) 2011-09-30 2012-07-23 立体画像撮像装置及びその合焦状態確認用画像表示方法

Country Status (4)

Country Link
US (1) US20140210957A1 (ja)
JP (1) JP5640155B2 (ja)
CN (1) CN103842907A (ja)
WO (1) WO2013046886A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104731494A (zh) * 2013-12-23 2015-06-24 中兴通讯股份有限公司 一种预览界面选定区域放大的方法和装置
EP4258678A1 (en) 2022-04-06 2023-10-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and computer readable medium

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104333701B (zh) * 2014-11-28 2017-04-26 广东欧珀移动通信有限公司 一种相机预览画面的显示方法、装置及终端
KR102321364B1 (ko) * 2015-03-05 2021-11-03 삼성전자주식회사 3차원 배경 콘텐트를 합성하는 방법 및 디바이스
JP6750194B2 (ja) 2015-06-19 2020-09-02 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
CN106502693B (zh) * 2016-10-17 2019-07-19 努比亚技术有限公司 一种图像显示方法和装置
CN112584043B (zh) * 2020-12-08 2023-03-24 维沃移动通信有限公司 辅助对焦方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155109A (ja) * 1996-11-22 1998-06-09 Canon Inc 撮像方法及び装置並びに記憶媒体
JP2010130196A (ja) * 2008-11-26 2010-06-10 Fujifilm Corp 撮影装置および信号処理方法
JP2011024021A (ja) * 2009-07-16 2011-02-03 Fujifilm Corp 3次元画像表示装置及び3次元画像表示方法
JP2011048283A (ja) * 2009-08-28 2011-03-10 Nikon Corp 撮影画像合成装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6359649B1 (en) * 1995-04-04 2002-03-19 Canon Kabushiki Kaisa Video camera integrated with still camera
JP2001211351A (ja) * 2000-01-27 2001-08-03 Fuji Photo Film Co Ltd 画像撮像装置およびその動作制御方法
WO2006111893A1 (en) * 2005-04-19 2006-10-26 Koninklijke Philips Electronics N.V. Depth perception
JP2010068182A (ja) * 2008-09-10 2010-03-25 Fujifilm Corp 3次元撮影装置および方法並びにプログラム
CN102150433B (zh) * 2008-09-18 2014-04-09 松下电器产业株式会社 立体视觉影像再现装置及立体视觉影像显示装置
JP4625515B2 (ja) * 2008-09-24 2011-02-02 富士フイルム株式会社 3次元撮影装置および方法並びにプログラム
JP2010250562A (ja) * 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
JP5267421B2 (ja) * 2009-10-20 2013-08-21 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム
KR101661969B1 (ko) * 2009-11-02 2016-10-04 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US20110227911A1 (en) * 2010-03-22 2011-09-22 Lg Electronics Inc. Image display device and method for operating the same
JP2011223126A (ja) * 2010-04-06 2011-11-04 Sharp Corp 立体映像表示装置および立体映像表示方法
US9596453B2 (en) * 2010-06-14 2017-03-14 Lg Electronics Inc. Electronic device and control method thereof
KR101816846B1 (ko) * 2010-08-19 2018-01-12 삼성전자주식회사 디스플레이 장치 및 이에 적용되는 osd 제공방법
US20120044241A1 (en) * 2010-08-20 2012-02-23 Himax Technologies Limited Three-dimensional on-screen display imaging system and method
JP2012085166A (ja) * 2010-10-13 2012-04-26 Sony Corp 映像信号処理装置及び映像信号処理方法、並びにコンピューター・プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10155109A (ja) * 1996-11-22 1998-06-09 Canon Inc 撮像方法及び装置並びに記憶媒体
JP2010130196A (ja) * 2008-11-26 2010-06-10 Fujifilm Corp 撮影装置および信号処理方法
JP2011024021A (ja) * 2009-07-16 2011-02-03 Fujifilm Corp 3次元画像表示装置及び3次元画像表示方法
JP2011048283A (ja) * 2009-08-28 2011-03-10 Nikon Corp 撮影画像合成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104731494A (zh) * 2013-12-23 2015-06-24 中兴通讯股份有限公司 一种预览界面选定区域放大的方法和装置
EP4258678A1 (en) 2022-04-06 2023-10-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and computer readable medium

Also Published As

Publication number Publication date
CN103842907A (zh) 2014-06-04
JP5640155B2 (ja) 2014-12-10
US20140210957A1 (en) 2014-07-31
JPWO2013046886A1 (ja) 2015-03-26

Similar Documents

Publication Publication Date Title
JP5425554B2 (ja) 立体撮像装置及び立体撮像方法
US8199147B2 (en) Three-dimensional display apparatus, method, and program
JP5640155B2 (ja) 立体画像撮像装置及びその合焦状態確認用画像表示方法
JP4625515B2 (ja) 3次元撮影装置および方法並びにプログラム
US8130259B2 (en) Three-dimensional display device and method as well as program
JP2011077900A (ja) 画像処理装置、カメラ及び画像処理方法
JP4895312B2 (ja) 3次元表示装置および方法並びにプログラム
JP2011259168A (ja) 立体パノラマ画像撮影装置
JP2012186612A (ja) 撮像装置
WO2013065543A1 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
JP4991685B2 (ja) 立体画像処理装置および立体画像処理方法
JP5160460B2 (ja) 立体撮像装置および立体撮像方法
JP5987270B2 (ja) 立体画像を表示可能なカメラ
JP5586788B2 (ja) 画像表示装置及び画像撮像装置
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP4852169B2 (ja) 3次元表示装置および方法並びにプログラム
JP5049231B2 (ja) 3次元表示装置および方法並びにプログラム
JP2014155126A (ja) 表示装置、表示方法およびプログラム
US9106899B2 (en) Image pickup apparatus
JP5165742B2 (ja) 3次元撮影装置および方法並びにプログラム
JP5385354B2 (ja) 3次元表示装置および方法並びにプログラム
JP2013054233A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12836816

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013536015

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12836816

Country of ref document: EP

Kind code of ref document: A1