WO2013069437A1 - 撮影装置及びファインダの表示方法 - Google Patents

撮影装置及びファインダの表示方法 Download PDF

Info

Publication number
WO2013069437A1
WO2013069437A1 PCT/JP2012/077179 JP2012077179W WO2013069437A1 WO 2013069437 A1 WO2013069437 A1 WO 2013069437A1 JP 2012077179 W JP2012077179 W JP 2012077179W WO 2013069437 A1 WO2013069437 A1 WO 2013069437A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
optical
vignetting
light
Prior art date
Application number
PCT/JP2012/077179
Other languages
English (en)
French (fr)
Inventor
遠藤 宏
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2013542909A priority Critical patent/JP5530569B2/ja
Publication of WO2013069437A1 publication Critical patent/WO2013069437A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder

Definitions

  • the present invention relates to a photographing apparatus and a finder display method, and more particularly to a photographing apparatus that uses both an optical finder and an electronic viewfinder and a finder display method.
  • Patent Document 1 discloses an imaging apparatus having an optical viewfinder (OVF) for confirming an optical image formed by a photographing lens and an electronic viewfinder (EVF) for displaying an electronic image generated by an imaging element in the viewfinder. It is disclosed.
  • the imaging apparatus described in Patent Document 1 determines which of OVF and EVF is advantageous, and switches to display an EVF without parallax when it is detected that close-up shooting is performed. .
  • Patent Document 1 has a problem that an optical image cannot be confirmed when switching to display EVF is performed.
  • EVF display there is a time lag from shooting to display, and the optical image is clearer than the electronic image, so an optical finder is desired.
  • vignetting Vignetting, Optical vignetting
  • the entire region is electronic even though the region that cannot be seen due to vignetting is a part. It becomes an image.
  • the present invention has been made in view of such circumstances, and provides a photographing apparatus and a finder display method capable of confirming the entire subject using OVF even when a partial optical image cannot be visually recognized due to vignetting. With the goal.
  • An imaging device includes an imaging element that forms an image of subject light that has passed through an imaging lens, an optical viewfinder that guides an optical image of the subject to an eyepiece unit through a different path from the imaging lens, and an imaging element Display means capable of displaying a captured image that is an image formed on the display means, superimposed display means for superimposing and displaying the captured image displayed on the display means on the optical image, and light shielding means disposed in the optical path of the optical viewfinder.
  • the relationship between the light shielding means capable of switching between the light shielding state and the non-light shielding state where the optical image cannot be visually recognized by the eyepiece, the acquisition means for acquiring the subject distance, and the subject distance and the vignetting area of the optical viewfinder Vignetting area of the optical viewfinder based on the relationship between the storage means for storing the subject distance acquired by the acquisition means, and the subject distance stored in the storage means and the vignetting area of the optical viewfinder
  • the vignetting area of the optical finder is based on the subject distance acquired by the acquiring unit and the relationship between the subject distance stored in the storage unit and the vignetting area of the optical finder. Ask for.
  • the vignetting area is set to a light-blocking state where an optical image cannot be visually recognized by a light-blocking unit capable of switching between a light-blocking state and a non-light-blocking state for each area. Thereby, even when vignetting occurs, the entire field of view can be confirmed mainly by an optical image.
  • the storage unit stores the relationship between the focal length and the vignetting area of the optical viewfinder
  • the acquisition unit acquires the focal length of the imaging lens
  • the vignetting area acquisition unit includes: The vignetting area of the optical viewfinder is obtained based on the focal length and subject distance acquired by the acquisition means, the relationship between the subject distance and the vignetting area stored in the storage means, and the relationship between the focal length and the vignetting area of the optical viewfinder. May be.
  • An imaging device includes an imaging element that forms an image of subject light that has passed through an imaging lens, an optical viewfinder that guides an optical image of the subject to an eyepiece unit through a different path from the imaging lens, and an imaging element Display means capable of displaying a captured image that is an image formed on the display means, superimposed display means for superimposing and displaying the captured image displayed on the display means on the optical image, and light shielding means disposed in the optical path of the optical viewfinder
  • a light shielding unit capable of switching between a light shielding state and a non-light shielding state in which an optical image cannot be visually recognized by an eyepiece, an acquisition unit for acquiring a focal length of the imaging lens, and a vignetting of the focal length and the optical finder.
  • Storage means for storing the relationship with the area; the focal length acquired by the acquisition means; and the relationship between the focal length stored in the storage means and the vignetting area of the optical viewfinder.
  • the vignetting area obtaining means for obtaining the vignetting area, the vignetting area obtained by the vignetting area obtaining means are set in a light shielding state, and the light shielding means is controlled so that an area other than the light shielding area is set in a non-light shielding state.
  • Control means for displaying an area corresponding to the area where the captured image is shielded from light.
  • the vignetting area of the optical finder is based on the focal length acquired by the acquiring means and the relationship between the focal length stored in the storage means and the vignetting area of the optical finder. Ask for. Then, the vignetting area is set to a light-blocking state where an optical image cannot be visually recognized by a light-blocking unit capable of switching between a light-blocking state and a non-light-blocking state for each area, and other areas are set to a non-light-blocking state. Thereby, even when vignetting occurs, the entire field of view can be confirmed mainly by an optical image.
  • the storage unit stores the relationship between the subject distance and the vignetting area of the optical viewfinder
  • the acquisition unit acquires the subject distance
  • the vignetting region acquisition unit is The vignetting area of the optical finder may be obtained based on the acquired focal distance and object distance, the relationship between the object distance and the vignetting area stored in the storage unit, and the relationship between the focal distance and the vignetting area of the optical finder.
  • An imaging apparatus includes a contrast calculation unit that calculates a contrast of an area corresponding to a vignetting area of an optical finder in a captured image, and a contrast calculated by the contrast calculation unit is smaller than a predetermined value.
  • a light shielding region determining unit that sets a region corresponding to the region to be a light shielding region, and the control unit may control the light shielding unit so that the light shielding region is in a light shielding state and the other regions are in a non-light shielding state. .
  • the difference between the color of the photographed image and the color of the optical image is minimized based on the image signal for each color in the region corresponding to the vignetting region of the optical finder in the photographed image.
  • white balance adjusting means for adjusting the white balance of the captured image may be provided.
  • the control unit sets the vignetting area obtained by the vignetting area acquisition unit to a light-blocking state, sets the other regions to a non-light-blocking state, and sets all the light-blocking units to a light-blocking state. It may be possible to switch between the states. Thereby, it can be set as the EVF mode which displays only an electronic image as needed.
  • An imaging device includes accessory detection means for detecting whether or not an accessory is attached to the imaging lens, and the control means is configured to block light when it is detected that the accessory is attached. You may switch to the state which makes all means a light-shielding state. Thereby, since it is assumed that vignetting is large when an accessory is attached, in such a case, the EVF mode can be set.
  • An imaging apparatus includes an accessory detection unit that detects whether an accessory is attached to the imaging lens and detects the type of the attached accessory, and the storage unit includes the accessory type and the subject.
  • the relationship between the distance and the vignetting area of the optical finder is stored, and the vignetting area acquiring means includes the subject distance acquired by the acquiring means, the accessory type and the subject distance stored in the recording means, and the vignetting area of the optical finder.
  • the vignetting area of the optical viewfinder may be obtained based on the relationship. Thereby, even when an accessory is attached, the subject can be confirmed mainly by an optical image.
  • the display unit may display a frame indicating a photographing range that is a range of a photographed image. Thereby, the photographing range can be shown to the user.
  • An imaging apparatus may include a frame correction unit that corrects the position of the frame based on the subject distance acquired by the acquisition unit and causes the display unit to display the frame position. This makes it possible to confirm an accurate shooting range on the optical image regardless of the subject distance, and it is clear that an image in this area can be visually recognized even if vignetting occurs.
  • An imaging apparatus may include a correcting unit that corrects the parallax between the optical image and the captured image based on the subject distance acquired by the acquiring unit and causes the display unit to display the captured image. . Thereby, an optical image and an electronic image can be accurately superimposed and displayed.
  • a finder display method includes an imaging element that forms an image of subject light that has passed through an imaging lens, an optical viewfinder that guides an optical image of the subject to an eyepiece through a different path from the imaging lens, Display means for displaying a photographed image that is an image formed on the image sensor, superimposed display means for superimposing and displaying the photographed image displayed on the display means on the optical image, and light shielding means arranged in the optical path of the optical viewfinder
  • the present invention is applied to a photographing apparatus including a light shielding unit that can switch between a light shielding state and a non-light shielding state for each region, and a storage unit that stores the relationship between the subject distance and the vignetting region of the optical viewfinder.
  • An optical distance based on the step of acquiring the object distance, the object distance acquired by the acquisition means, and the relationship between the object distance stored in the storage means and the vignetting area of the optical viewfinder.
  • a step of obtaining a vignetting area of the inda a step of controlling the light shielding means so that the obtained vignetting area is in a light shielding state, and a region other than the light shielding state is in a non-light shielding state; Displaying a region corresponding to the region.
  • a finder display method includes an imaging element that forms an image of subject light that has passed through an imaging lens, an optical viewfinder that guides an optical image of the subject to an eyepiece through a different path from the imaging lens, Display means for displaying a photographed image that is an image formed on the image sensor, superimposed display means for superimposing and displaying the photographed image displayed on the display means on the optical image, and light shielding means arranged in the optical path of the optical viewfinder
  • the present invention is applied to a photographing apparatus including a light shielding unit that can switch between a light shielding state and a non-light shielding state for each region, and a storage unit that stores the relationship between the subject distance and the vignetting region of the optical viewfinder.
  • the step of obtaining the focal length, the focal length obtained by the obtaining means, and the relationship between the focal length stored in the storage means and the vignetting area of the optical viewfinder A step of determining the vignetting area, a step of controlling the light shielding means so that the obtained vignetting area is in a light shielding state, and a region other than the light shielding state is in a non-light shielding state, and a light shielding state of the photographed image on the display means. Displaying a region corresponding to the region.
  • the entire subject can be confirmed using OVF even when some optical images cannot be visually recognized due to vignetting.
  • Front perspective view showing external configuration of digital camera Rear perspective view showing external configuration of digital camera Top view of digital camera 1 is a block diagram showing an electrical configuration of a digital camera according to a first embodiment.
  • Flowchart showing selection processing of finder display Diagram showing the display image of the hybrid finder The figure explaining shading of a liquid crystal shutter
  • the figure explaining the display of the liquid crystal plate Diagram showing the display image of the hybrid finder The flowchart which shows the selection process of the finder display which concerns on 2nd Embodiment 10 is a flowchart showing a finder display selection process according to the third embodiment.
  • the digital camera 10 of the present embodiment includes a camera body 12 and a photographing lens 14 attached to the camera body 12.
  • the photographic lens 14 has a zoom lens group configured so that its focal length can be changed.
  • the photographing lens 14 may be configured to be detachable by a lens side mount and a camera side mount.
  • An AF (Automatic Focus) auxiliary light lamp 16, a finder switching lever 18, a finder objective 20, a grip 22 and the like are provided on the front surface of the camera body 12, and a shutter button (release button) 24 and a power source are provided on the upper surface.
  • a lever 26, an exposure correction dial 30, a shutter speed dial 31, an accessory shoe 34, a strobe 36, and the like are provided.
  • a finder eyepiece 38 On the back of the camera body 12, a finder eyepiece 38, a zoom lever 40, a liquid crystal monitor 32, a cross button 48, a RAW button 50, a back button 52, an AE (Automatic Exposure Adjustment) selection button 54, an AF selection button 56 A playback button 58 and the like are provided.
  • the confirmation of the subject image is performed through the viewfinder eyepiece 38.
  • the shutter button 24 is a two-stage type consisting of full pressing and half pressing. AE and AF operations are performed when the shutter button 24 is half-pressed, and actual shooting is performed when the shutter button 24 is fully pressed.
  • an image (main shooting image) obtained by shooting is recorded on a memory card (240 in FIG. 4).
  • the image recorded on the memory card 240 is reproduced and displayed on the liquid crystal monitor 32 by setting the mode of the digital camera 10 to the reproduction mode (in this embodiment, the reproduction button 58 is pressed).
  • FIG. 3 is a top sectional view of the digital camera 10.
  • a digital camera 10 includes a CCD (Charge Coupled Device) 100, a liquid crystal plate 110, an EVF (Electronic View Finder) lens 112, an objective lens 120, a prism 122, an eyepiece lens 124, a liquid crystal shutter 126, a finder window. 128.
  • CCD Charge Coupled Device
  • EVF Electronic View Finder
  • the subject light transmitted through the photographing lens 14 is incident on the light receiving surface of the CCD 100.
  • the CCD 100 that has received the subject light is converted into a signal charge of an amount corresponding to the amount of incident light by each of the two-dimensionally arranged sensors. From this signal charge, an image signal is generated by various signal processing circuits. Based on the image signal generated in this way, an image obtained by horizontally inverting the subject image is displayed on the liquid crystal plate 110.
  • the liquid crystal plate 110 is a liquid crystal panel having a resolution of 1600 ⁇ 900 pixels, for example.
  • an image obtained by inverting the subject image and a frame indicating the photographing range that is the range of the subject light incident on the light receiving surface of the CCD 100 are displayed based on the focal length (angle of view) of the photographing lens 14. .
  • An EVF lens 112 is provided below the liquid crystal plate 110 in the drawing.
  • a prism 122 is disposed between the EVF lens 112 and the eyepiece lens 124.
  • the prism 122 includes a first prism 122a and a second prism 122b.
  • a half mirror surface 122M is formed at a portion where the first prism 122a and the second prism 122b are joined.
  • the half mirror surface 122M is installed with an inclination of 45 ° with respect to the optical axis of the EVF lens 112.
  • the image displayed on the liquid crystal plate 110 is magnified by the EVF lens 112, and the left and right are reversed by the half mirror surface 122M and reflected in the right direction in the drawing.
  • An image (an erect image) reflected by the half mirror surface 122M enters the eyepiece lens 124.
  • the subject light is incident on the finder objective 20 from a path (optical path) different from that of the photographing lens 114.
  • Subject light enters the viewfinder objective 20 from the viewfinder window 128.
  • a liquid crystal shutter 126 and an objective lens 120 are arranged in this order in the latter stage of the optical path of the finder window 128.
  • the liquid crystal shutter 126 is arranged in parallel with the finder window 128 and the objective lens 120 so as to be perpendicular to the optical axis of the subject light incident from the finder window 128.
  • the liquid crystal shutter 126 is a liquid crystal panel that includes a liquid crystal layer sealed between a pair of substrates, and whose polarization direction is changed by a voltage applied to the liquid crystal layer.
  • the liquid crystal shutter 126 has the same resolution of 1600 ⁇ 900 pixels as the display resolution of the liquid crystal plate 110.
  • the liquid crystal shutter 126 is controlled by the display control circuit 242 (see FIG. 4) for each pixel between a light shielding state in which the subject light incident from the finder window 128 is shielded and a transmission state (non-light shielding state) in which the subject light is transmitted. It is configured to be switchable.
  • the objective lens 120 has a zoom lens group.
  • the focal length of the objective lens 120 is configured to be changeable according to the focal length of the photographic lens 14 and is adjusted so that the photographing range of the photographic lens 14 can be visually recognized.
  • the digital camera 10 includes the optical viewfinder (OVF) that guides the subject light incident from the viewfinder objective unit 20 to the viewfinder eyepiece 38, and displays the image displayed on the liquid crystal plate 110 as the viewfinder eyepiece 38.
  • An electronic viewfinder (EVF) is provided. And both are arrange
  • the EVF imaging unit including the photographing lens 14 and the CCD 100 and the OVF including the finder objective unit 20 and the finder eyepiece 38 have different optical axes and have parallax. ing. Therefore, if the image signal generated based on the subject image received by the CCD 100 is displayed on the liquid crystal plate 110 as it is, the position in the OVF image and the EVF image are different even for the same subject. That is, it is necessary to correct parallax in order to superimpose and display the OVF video and the EVF image so that the positions of the same subject coincide with each other.
  • the distance between the digital camera 10 and each subject In order to correct parallax, it is necessary to measure the distance between the digital camera 10 and each subject.
  • the distance to each subject can be calculated by using AF information described later. Note that the distance to each subject may be measured by a different method.
  • a captured image (an image captured by the CCD 100) generated in advance based on the distance between the digital camera 10 and each subject calculated as described above. Are moved so as to coincide with the position of the same subject in the OVF video.
  • the image taken by the CCD 100 is enlarged or reduced based on the difference in the angle of view.
  • the image may be reduced and displayed on the liquid crystal plate 110.
  • FIG. 4 is a block diagram showing an electrical configuration of the digital camera 10.
  • the digital camera 10 includes a liquid crystal monitor 32, a CCD 100, a liquid crystal plate 110, a liquid crystal shutter 126, a CPU (Central Processing Unit) 210, an operation unit (shutter button, power lever, exposure correction dial, shutter speed dial).
  • a CPU Central Processing Unit
  • ROM Read-Only Memory
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • memory SDRAM (Synchronous Dynamic Random Access Memory) )
  • VRAM Video Random Access Memory
  • TG timing generator 226, analog signal processing circuit 228, A / D converter 230, image input controller 232, image signal processing circuit 234, compression / decompression processing circuit 236 , Media controller 23 , And it includes a memory card 240, the display control circuit 242.
  • the CPU 210 functions as a control unit that performs overall control of the operation of the entire digital camera 10 including the photographing lens 14 mounted on the camera body 12.
  • the CPU 210 controls each unit of the digital camera according to a predetermined control program based on the input from the operation unit 212.
  • the ROM 216 stores a control program executed by the CPU 210 and various data necessary for control.
  • the EEPROM 218 stores various setting information relating to the operation of the digital camera such as user setting information.
  • the memory (SDRAM) 220 is used as a calculation work area for the CPU 210 and also as a temporary storage area for image data.
  • the VRAM 222 is used as a storage area dedicated to image data for display.
  • the focal length of the taking lens 14 is changed by the driver 204.
  • the CPU 210 controls the driver 204 according to the operation of the zoom lever 40 performed by the user, and moves the zoom lens in the photographing lens 14 to change the focal length.
  • the focal length of the objective lens 120 is changed by the zoom driver 206.
  • the CPU 210 controls the zoom driver 206 according to the operation of the zoom lever 40 performed by the user, and changes the focal length of the objective lens 120.
  • the OVF image that can be observed from the viewfinder eyepiece 38 is adjusted to an image corresponding to the focal length of the photographic lens 14.
  • the CCD 100 is arranged at the rear stage of the photographing lens 14 and receives subject light transmitted through the photographing lens 14.
  • the CCD 100 includes a light receiving surface on which a large number of light receiving elements are arranged in a matrix.
  • the subject light that has passed through the photographing lens 14 is imaged on the light receiving surface of the CCD 100 and converted into an electrical signal by each light receiving element.
  • a CMOS Complementary Metal Metal Oxide Semiconductor
  • the CCD 100 outputs the electric charge accumulated in each pixel as a serial image signal line by line in synchronization with the vertical transfer clock and horizontal transfer clock supplied from the timing generator (TG) 226.
  • the CPU 210 controls the drive of the CCD 100 by controlling the TG 226.
  • the charge accumulation time (exposure time) of each pixel is determined by the electronic shutter drive signal given from the TG 226.
  • the CPU 210 instructs the TG 226 about the charge accumulation time.
  • the output of the image signal is started when the digital camera 10 is set to the shooting mode.
  • a live view image through image
  • output of an image signal is started.
  • the output of the image signal for the through image is temporarily stopped when the instruction for the main photographing is given, and is started again when the main photographing is finished.
  • the image signal output from the CCD 100 is an analog signal. This analog image signal is taken into the analog signal processing circuit 228.
  • the analog signal processing circuit 228 includes a correlated double sampling circuit (CDS) and an automatic gain control circuit (AGC). CDS removes noise contained in an image signal.
  • the AGC amplifies the image signal from which noise has been removed with a predetermined gain.
  • the analog image signal that has undergone the required signal processing by the analog signal processing circuit 228 is taken into the A / D converter 230.
  • the A / D converter 230 converts the captured analog image signal into a digital image signal having a gradation width of a predetermined bit.
  • This image signal is so-called RAW data, and has gradation values indicating the density of R, G, and B for each pixel.
  • the image input controller 232 has a built-in line buffer having a predetermined capacity, and stores the image signal for one frame output from the A / D converter 230.
  • the image signal for one frame accumulated in the image input controller 232 is stored in the memory (SDRAM) 220 via the bus 214.
  • the image signal processing circuit 234, compression / expansion processing circuit 236, display control circuit 242, media controller 238, and the like are connected to the bus 214. It is possible to send and receive information to and from each other.
  • the image signal for one frame stored in the memory 220 is taken into the image signal processing circuit 234 in dot order (pixel order).
  • the image signal processing circuit 234 performs predetermined signal processing on the image signals of R, G, and B colors that are captured in a dot-sequential manner, and generates an image signal (Y / C) composed of a luminance signal Y and color difference signals Cr, Cb. Signal).
  • the AF detection circuit 250 fetches R, G, and B image signals stored in the memory 220 in accordance with a command from the CPU 210, and calculates a focus evaluation value necessary for AF (Automatic Focus) control.
  • the AF detection circuit 250 includes a high-pass filter that passes only a high-frequency component of the G signal, an absolute value processing unit, and an AF area extraction unit that extracts a signal within a predetermined focus area (hereinafter referred to as an AF area) set on the screen. And an accumulator for accumulating absolute value data in the AF area.
  • the AF detection circuit 250 outputs the absolute value data in the AF area integrated by the integration unit to the CPU 210 as a focus evaluation value.
  • a control method of the focus lens group (included in the photographing lens 14) based on the focus evaluation value, a method of searching for a position where the focus evaluation value becomes maximum and moving the focus lens to the position via the driver 204, When the focus lens group is moved in the direction in which the focus evaluation value increases and a point at which the focus evaluation value begins to decrease is detected, a hill-climbing method in which the focus lens group is set at that position can be used.
  • a phase difference method may be used in which an image sensor for phase difference AF using a phase difference is separately provided and AF is performed using the phase difference detected by the image sensor for phase difference AF.
  • the AE / AWB detection circuit 252 takes in the R, G, and B image signals stored in the memory 220 and integrates the G signals of the entire screen, or G having different weights in the central portion and the peripheral portion of the screen. Accumulate signals.
  • the AE / AWB detection circuit 252 outputs an integrated value necessary for the AE control to the CPU 210.
  • CPU 210 calculates a luminance value from the integrated value, and obtains an exposure value from the luminance value.
  • the AE / AWB detection circuit 252 determines an aperture value and a shutter speed according to a predetermined program diagram from the exposure value.
  • the AE / AWB detection circuit 252 divides one screen into a plurality of areas (for example, 16 ⁇ 16) as physical quantities necessary for AWB control, and the colors of the R, G, and B image signals for each divided area. Calculate another average integrated value.
  • the CPU 210 obtains the ratio of R / G and B / G for each divided area from the obtained R accumulated value, B accumulated value, and G accumulated value, and R of the obtained R / G and B / G values.
  • the light source type is discriminated based on the distribution in the color space of / G and B / G.
  • the gain value (white balance correction value) for the R, G, and B signals of the white balance adjustment circuit is determined.
  • the AE / AWB detection circuit 252 performs white balance adjustment by applying a digital gain corresponding to the light source type to the image signal for one frame stored in the memory 220, and performs gamma (gradation characteristic) processing and sharpness processing. R, G, and B signals are generated.
  • the compression / decompression processing circuit 236 performs predetermined compression processing on the image data generated by the image signal processing circuit 234 in accordance with a command from the CPU 210 to generate compressed image data.
  • the compression / decompression processing circuit 236 performs a predetermined decompression process on the compressed image data to generate non-compressed image data.
  • the media controller 238 records image data obtained by shooting in the memory card 240 in accordance with a command from the CPU 210, and reads a recorded image from the memory card 240.
  • the display control circuit 242 controls display on the liquid crystal monitor 32 and the liquid crystal plate 110 in accordance with a command from the CPU 210. Although details will be described later, the liquid crystal shutter 126 is controlled.
  • FIG. 5 is a flowchart showing a selection process of finder display (OVF for visually recognizing an optical image of a subject incident from the finder objective unit 20 or EVF for visually recognizing an electronic image of a subject formed on the CCD 100).
  • OVF optical image of a subject incident from the finder objective unit 20
  • EVF electronic image of a subject formed on the CCD 100
  • CPU 210 determines the mode of the finder (step S1). As the finder mode, the OVF mode and the EVF mode are determined based on a signal input based on the position of the finder switching lever 18.
  • the CPU 210 closes the liquid crystal shutter 126 so as to be completely shielded from light so that the optical image of the subject incident from the finder objective 20 cannot be visually recognized (step S2).
  • the subject light that has passed through the photographing lens 14 is continuously imaged on the CCD 100, and the image signal is continuously processed to generate image data for a photographing confirmation image.
  • the CPU 210 sequentially adds the generated image data to the display control circuit 242, and the image data is converted into a monitor display signal format and output to the liquid crystal plate 110 (step S3).
  • the image data for the photographing confirmation image can be visually recognized by the finder eyepiece 38.
  • the CPU 210 may cause the optical image to be visually recognized by the OVF, and at the same time, the frame indicating the photographing range may be superimposed and displayed on the optical image by the EVF.
  • the CPU 210 outputs the frame image to the image signal processing circuit 234, and the image signal processing circuit 234 is photographed by the CCD 100 so that the center of the frame and the center of the liquid crystal plate 110 coincide with each other in the size of the photographed image.
  • a frame F (see FIG. 6) indicating the range (shooting range) of a captured image that is an image is displayed on the liquid crystal plate 110.
  • the CPU 210 acquires the subject distance (step S4).
  • the subject distance can be obtained, for example, by causing the AF detection circuit 250 to calculate a focus evaluation value, moving the focus lens based on the focus evaluation value, and the amount of movement (the number of focus pulses).
  • the image sensor for phase difference AF is provided, the subject distance can be calculated from the phase difference. Since the parallax can be corrected when the subject distance is acquired, when the frame is displayed, the image signal processing circuit 234 matches each subject in the captured image with the position of the same subject in the optical image of the OVF. Move the position of the frame as follows.
  • the CPU210 calculates a focal distance (step S5).
  • the focal length can be calculated based on the position of the zoom lens, for example. Since the parallax can be corrected when the focal length is acquired, when the frame is displayed, the image signal processing circuit 234 matches each subject of the captured image with the position of the same subject in the optical image of the OVF. Move the position of the frame as follows.
  • the CPU 210 determines whether or not vignetting occurs in the OVF based on the subject distance and the focal length calculated in steps S4 and S5 (step S6).
  • vignetting means a phenomenon in which a subject that should be visually recognized is not visually recognized because the photographing lens 14 or the like is reflected in the OVF screen.
  • the first is when the subject distance is short, such as macro photography.
  • the subject distance is short
  • vignetting occurs in a part of the optical image by the photographing lens 14.
  • the parallax between the OVF optical image and the image formed on the CCD 100 increases, and therefore, if the frame position is moved in steps S4 and S5, there is a possibility that vignetting will occur. Get higher.
  • the second is when the taking lens is extended.
  • the photographic lens 14 includes a zoom lens composed of two groups of concave and convex lenses
  • the entire length of the photographic lens 14 extends on the wide angle side.
  • the photographic lens 14 includes a zoom lens including three groups of convex and concave lenses
  • the entire length of the photographic lens 14 extends on the telephoto side.
  • the third is when the focal length is short. Whatever zoom lens is used for the photographic lens 14, the angle of view becomes wider when the focal length is short. For this reason, there is a high possibility that the photographing lens 14 enters the angle of view, that is, there is a high possibility that vignetting will occur in a part of the optical image by the photographing lens 14. Further, when the photographing lens 14 includes an inner focus type zoom lens, even if the zoom lens is fixed, if the focus position is changed, the focal length is shortened, and the photographing lens 14 forms a part of the optical image. Vignetting may occur.
  • the EEPROM 218 stores the relationship between the subject distance and the focal length, the presence / absence of vignetting by the photographing lens 14, and the position of the vignetting area. Therefore, by referring to this relationship, the CPU 210 determines whether or not vignetting occurs in the case of the calculated subject distance and focal length, and determines the position of the vignetting area if vignetting occurs.
  • the vignetting area means an area in which the photographing lens 14 or the like is reflected in the OVF screen, that is, an area in which a subject that is originally viewed is not visible.
  • step S6 If vignetting does not occur (NO in step S6), the CPU 210 opens the liquid crystal shutter 126 to make it non-light-shielded (step S7). As a result, the optical image can be visually recognized by the finder eyepiece 38.
  • the CPU 210 displays the frame F (see FIG. 6) on the liquid crystal plate 110 (step S8).
  • the finder eyepiece 38 displays the frame F (see FIG. 6) on the liquid crystal plate 110 (step S8).
  • step S6 the CPU 210 closes the liquid crystal shutter 126 in the vignetting area determined in step S6 and puts it in a light shielding state (step S9).
  • FIG. 6 shows an example in which vignetting has occurred, and vignetting K has occurred in the lower right of the optical image O visually recognized by the viewfinder eyepiece 38. Since the CCD 100 acquires an image inside the frame F, the EVF can display only the inside of the frame F (shooting range). Therefore, as shown in FIG. 7, the CPU 210 closes the portion of the area K ′ inside the vignetting area K of the liquid crystal shutter 126 and inside the photographing range (frame F) to make it light-shielded. Since the subject distance and the focal length are acquired in steps S4 and S5, the CPU 210 shields the vignetting area based on the position of the captured image after the parallax correction.
  • the CPU 210 causes the liquid crystal plate 110 to display an image of an area corresponding to the area that has been shielded in step S9 of the captured image captured by the CCD 100 (step S10).
  • the CPU 210 causes the liquid crystal plate 110 to display the frame F (see FIG. 6).
  • step S9 as shown in FIG. 7, the area K ′ of the liquid crystal shutter 126 is shielded from light.
  • step S10 only the portion corresponding to the area K ′ is displayed on the liquid crystal plate 110 as shown in FIG.
  • FIG. 8 is horizontally reversed with respect to FIGS.
  • step S9 the liquid crystal shutter 126 in the vignetting area is closed to block light. For this reason, an optical image cannot be visually recognized by OVF in the area.
  • OVF optical image
  • the finder eyepiece 38 an electronic image of EVF is visually recognized in the area K ′ inside the frame F of the vignetting area K, and the optical image O is visually recognized in other parts.
  • the optical image is displayed as it is.
  • an S1 ON signal is input to the CPU 210, and the CPU 210 performs an AE / AF / AWB operation via the AF detection circuit 250 and the AE / AWB detection circuit 252.
  • the CPU 210 When the shutter button 24 is fully pressed and a shooting instruction (S2 ON signal) is input to the CPU 210, the CPU 210 performs necessary shooting control, and the CCD 100 captures an image for one frame.
  • R, G, and B image signals for one frame imaged by the CCD 100 are stored in the memory 220 via the analog signal processing circuit 228, the A / D converter 230, and the image input controller 232, and the image signals are output from the memory 220.
  • the image signal processing circuit 234 performs necessary signal processing on the input image signal to generate image data composed of luminance data and color difference data.
  • the generated image data is temporarily stored in the memory 220, then added to the compression / decompression processing circuit 236, subjected to predetermined compression processing, and then stored again in the memory 220.
  • the CPU 210 generates an image file of a predetermined format in which predetermined shooting information is added to the compressed image data stored in the memory 220 and records the image file on the memory card 240 via the media controller 238.
  • the image data recorded on the memory card 240 in this way is read from the memory card 240 in accordance with the reproduction command and reproduced and displayed on the liquid crystal monitor 32. That is, when a playback instruction is input to the CPU 210 by the playback button, the CPU 210 reads the compressed image data of the image file recorded last on the memory card 240 via the media controller 238.
  • the read compressed image data is added to the compression / decompression processing circuit 236, converted into non-compressed image data, and stored in the VRAM 222.
  • the image file stored in the VRAM 222 is added to the display control circuit 242, converted into a monitor display signal format, and output to the liquid crystal monitor 32. As a result, the image recorded on the memory card 240 is reproduced and displayed on the liquid crystal monitor 32.
  • the present embodiment it is possible to visually recognize the optical image auxiliary-displayed by the EVF only in the vignetting area. As a result, even when vignetting cannot be avoided with OVF, the entire captured image can be confirmed with OVF.
  • the photographed image of the area corresponding to the area where the liquid crystal shutter 126 is shielded in step S10 is displayed on the liquid crystal plate 110.
  • the entire photographed image may be displayed on the liquid crystal plate 110.
  • the photographed image may be displayed on the liquid crystal plate 110 so that the optical image and the electronic image partially overlap each other.
  • the liquid crystal shutter 126 in the vignetting area is closed to be in a light shielding state (step S9).
  • the area to be shielded from light may not be the same area as the vignetting area as long as it includes the vignetting area.
  • the vignetting region K occurs as shown in FIG. 6, a region that is expanded by several pixels from the region K ′ shown in FIG.
  • an accessory for example, a lens hood
  • the accessory may be configured to be attachable to the photographing lens. Since the vignetting increases when the accessory is attached, when the accessory can be attached, a contact that can detect that the accessory is attached to the photographing lens is provided.
  • the CPU 210 detects that an accessory is attached, the CPU 210 preferably sets the finder mode to the EVF mode. However, when there is a CPU or the like on the accessory side and the CPU 210 is configured to be able to discriminate up to the type of accessory, the CPU 210 may set the finder mode to the OVF mode depending on the type of accessory. For example, when the type of accessory (for example, name), the focal length, the subject distance, and the vignetting area are stored in the EEPROM 218 and information about the determined accessory is stored in the storage means, The OVF mode can be set.
  • the type of accessory for example, name
  • the focal length, the subject distance, and the vignetting area are stored in the EEPROM 218 and information about the
  • the photographing lens 14 having the zoom lens group is used, but the zoom lens group is not essential.
  • the focal length of the photographic lens is fixed, so there is no need to obtain the focal length in step S5.
  • the EEPROM 218 may store the relationship between the subject distance, the presence / absence of vignetting caused by the photographing lens, and the position of the vignetting area.
  • vignetting may occur regardless of the subject distance. For example, if step S4 is performed after step S5 of the flowchart shown in FIG. 5 and the acquired focal length is shorter than a predetermined value, vignetting always occurs, so step S4 is not performed. You may do it.
  • the area of the electronic image is changed based on the contrast of the captured image.
  • the digital camera 10-1 according to the second embodiment will be described. Note that description of the same parts as those of the first embodiment is omitted.
  • FIG. 10 is a flowchart showing a selection process for the finder display. Hereinafter, the description of the same process as the finder display selection process shown in FIG. 5 will be omitted.
  • the CPU 210 obtains the contrast of the area corresponding to the vignetting area K in the captured image.
  • the contrast is equal to or higher than a predetermined value
  • the vignetting area K is set as a light shielding area.
  • an area where the contrast is a predetermined value in an area larger than the area corresponding to the vignetting area K in the captured image is set in a light-shielding state (step S11).
  • a method similar to the method in which the AF detection circuit 250 calculates the focus evaluation value in the AF area can be used to calculate the contrast of the region corresponding to the vignetting region K in the captured image.
  • the CPU 210 closes the liquid crystal shutter 126 in the light shielding area obtained in step S11 and sets the light shielding state (step S12). As a result, the optical image cannot be visually recognized in the light shielding area.
  • the CPU 210 causes the liquid crystal plate 110 to display an image of an area corresponding to the light-shielding area of the captured image captured by the CCD 100. Further, the CPU 210 displays a frame F indicating the shooting range on the liquid crystal plate 110 (step S13). As a result, an electronic image is displayed for the light-shielding area, an optical image is displayed for the other areas, and what is displayed with the frame overlapped is visually recognized by the finder eyepiece 38.
  • the joint between the optical image and the electronic image is located in a region having a high contrast, the joint can be made inconspicuous. As a result, an image visually recognized by the finder can be brought close to a natural optical image.
  • the light shielding area is obtained based on the contrast of the area corresponding to the vignetting area K in the captured image in step S11.
  • the light shielding area may be obtained based on the contrast of a predetermined area in the peripheral portion of the vignetting area K in the photographed image, for example, an area having a predetermined width near the joint with the optical image.
  • the light-shielding area is obtained based on the contrast of the photographed image and the joint between the optical image and the electronic image is made inconspicuous, but the joint between the optical image and the electronic image is conspicuous.
  • the method of eliminating is not limited to this.
  • the joint is made inconspicuous by reducing the color difference between the electronic image and the optical image.
  • the digital camera 10-2 according to the third embodiment will be described below. Note that description of the same parts as those of the first embodiment is omitted.
  • FIG. 11 is a flowchart showing the selection process of the finder display. Hereinafter, the description of the same process as the finder display selection process shown in FIG. 5 will be omitted.
  • the CPU 210 issues an instruction to the AE / AWB detection circuit 252, and the AE / AWB detection circuit 252
  • the white balance of the photographed image is adjusted so that the difference from the color is minimized (step S14).
  • the white balance is usually adjusted so that the G ratio is low, but in this step S14, the white balance is adjusted so as to leave some G.
  • This processing can be performed by storing the relationship between the light source type and the white balance adjustment value in the EEPROM 218 or the like.
  • white balance adjustment (for example, about half of the normal white balance adjustment value) may be performed using a white balance adjustment value lower than the normal white balance adjustment value. Further, the white balance adjustment may not be performed depending on the brightness of the subject. Note that the target for white balance adjustment so that the difference between the color of the captured image and the color of the optical image is minimized may be only the captured image output to the liquid crystal plate 110. In this case, normal white balance adjustment may be performed on the image output to the liquid crystal monitor 32 and the image recorded on the memory card 240 in accordance with the light source.
  • the CPU 210 causes the liquid crystal plate 110 to display an image of an area corresponding to the vignetting area of the captured image whose white balance has been adjusted in step S14. Further, the CPU 210 displays a frame F indicating the shooting range on the liquid crystal plate 110 (step S15).
  • the joint since the color difference between the optical image and the electronic image is minimized, the joint can be made inconspicuous.
  • ⁇ Fourth embodiment> In the first embodiment of the present invention, only the vignetting area is superimposed and displayed on the optical image by EVF. However, EVF may be more suitable depending on the size of the vignetting area.
  • the fourth embodiment of the present invention is a mode for switching between OVF and EVF when vignetting occurs.
  • the digital camera 10-3 according to the fourth embodiment will be described below. Note that description of the same parts as those of the first embodiment is omitted.
  • FIG. 12 is a flowchart showing the finder display selection process. Hereinafter, the description of the same process as the finder display selection process shown in FIG. 5 will be omitted.
  • the CPU 210 When vignetting occurs (YES in step S6), the CPU 210 is either the superimposed display mode of OVF and EVF or the EVF mode in which an electronic image of the captured image is displayed by EVF without displaying the OVF optical image. It is determined whether it is suitable (step S16). The CPU 210 can determine that the EVF mode is suitable when the size of the vignetting area is larger than a certain threshold value. Further, the CPU 210 calculates the contrast of the area corresponding to the vignetting area K in the captured image by the same method as in step S11, and determines that the EVF mode is suitable when the contrast is smaller than a predetermined value. You can also.
  • the CPU 210 may display a selection screen on the liquid crystal plate 110 and prompt the user to select either the superimposed display mode or the EVF mode. In this case, the CPU 210 may recognize the result selected by the user via the finder switching lever 18 and determine the mode.
  • step S16 If it is determined in step S16 that the superimposed display mode is suitable, the CPU 210 closes the liquid crystal shutter 126 in the vignetting area to block light (step S9), and blocks the light in step S9 of the captured image taken by the CCD 100. An image of a region corresponding to the state region is displayed on the liquid crystal plate 110. Further, the CPU 210 displays a frame F indicating the shooting range on the liquid crystal plate 110 (step S10).
  • step S16 If it is determined in step S16 that the EVF mode is suitable, the CPU 210 closes the liquid crystal shutter 126 to make it completely shielded from light so that the optical image of the subject incident from the viewfinder objective 20 cannot be viewed (step S16). S2). Then, the CPU 210 sequentially adds the generated image data to the display control circuit 242, and the display control circuit 242 converts the image data into a signal format for monitor display and outputs it to the liquid crystal plate 110 (step S3).
  • the EVF display without the joint can be achieved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)
  • Blocking Light For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

 本発明に係る撮影装置のファインダにおける表示方法は、被写体距離および焦点距離のうちの少なくとも一方を含む制御情報を取得し、この制御情報と光学ファインダのケラレ領域との関係に基づいて光学ファインダのケラレ領域を求め、求めたケラレ領域を遮光状態とし、遮光状態とした領域以外の領域を非遮光状態とし、表示手段により撮影画像のうち遮光状態とした領域に相当する領域を光学ファインダに重畳表示する。

Description

撮影装置及びファインダの表示方法
 本発明は撮影装置及びファインダの表示方法に係り、特に光学ファインダと電子ビューファインダを併用する撮影装置及びファインダの表示方法に関する。
 特許文献1には、撮影レンズにより結像された光学画像を確認する光学ファインダ(OVF)と撮像素子により生成された電子画像をファインダ内に表示する電子ビューファインダ(EVF)とを有する撮像装置が開示されている。特許文献1に記載の撮像装置は、OVFとEVFとの何れが有利であるかを判別し、近距離撮影であることが検知された場合には、パララックスのないEVFの表示を行うよう切り換える。
特開2010-002475号公報
 しかしながら、特許文献1に記載の発明では、EVFの表示を行うよう切り替えられた場合には光学像を確認することができないという問題がある。EVFの表示は、撮影から表示までにタイムラグがある上、電子像より光学像の方がクリアであるため、光学ファインダを使用したい。例えば、撮影レンズ等でケラレ(Vignetting, Optical vignetting)が発生する場合にEVFの表示を行うように切り替えられた場合には、ケラレにより視認できない領域は一部であるにもかかわらず、全体が電子像になってしまう。
 本発明はこのような事情に鑑みてなされたもので、ケラレにより一部光学像が視認できない場合にもOVFを用いて被写体全体を確認することができる撮影装置及びファインダの表示方法を提供することを目的とする。
 本発明の一の態様に係る撮影装置は、撮像レンズを透過した被写体光が結像される撮像素子と、撮像レンズと異なる経路で被写体の光学像を接眼部に導く光学ファインダと、撮像素子に結像された画像である撮影画像が表示可能な表示手段と、表示手段に表示された撮影画像を光学像に重畳表示させる重畳表示手段と、光学ファインダの光路中に配置された遮光手段であって、光学像が接眼部で視認できない遮光状態と非遮光状態とを領域毎に切り替え可能な遮光手段と、被写体距離を取得する取得手段と、被写体距離と光学ファインダのケラレ領域との関係を記憶する記憶手段と、取得手段により取得された被写体距離と、記憶手段に記憶された被写体距離と光学ファインダのケラレ領域との関係に基づいて光学ファインダのケラレ領域を求めるケラレ領域取得手段と、ケラレ領域取得手段により求められたケラレ領域を遮光状態とし、遮光状態とした領域以外の領域を非遮光状態とするように遮光手段を制御し、表示手段に撮影画像の遮光状態とした領域に相当する領域を表示する制御手段とを備える。
 本発明の一の態様に係る撮影装置によれば、取得手段により取得された被写体距離と、記憶手段に記憶された被写体距離と光学ファインダのケラレ領域との関係に基づいて、光学ファインダのケラレ領域を求める。そして、領域毎に遮光状態と非遮光状態とを切り替え可能な遮光手段により、ケラレ領域を光学像が視認できない遮光状態とし、遮光状態とした領域以外の領域を非遮光状態とする。これにより、ケラレが発生した場合にも、視野全体を主に光学像で確認することができる。
 本発明の他の態様に係る撮影装置において、記憶手段は、焦点距離と光学ファインダのケラレ領域との関係を記憶し、取得手段は、撮像レンズの焦点距離を取得し、ケラレ領域取得手段は、取得手段により取得された焦点距離及び被写体距離と、記憶手段に記憶された被写体距離とケラレ領域との関係及び焦点距離と光学ファインダのケラレ領域との関係とに基づいて光学ファインダのケラレ領域を求めてもよい。これにより、ズーム手段を有し焦点距離が変わる場合において、ケラレが発生した場合にも、視野全体を主に光学像で確認することができる。
 本発明の一の態様に係る撮影装置は、撮像レンズを透過した被写体光が結像される撮像素子と、撮像レンズと異なる経路で被写体の光学像を接眼部に導く光学ファインダと、撮像素子に結像された画像である撮影画像が表示可能な表示手段と、表示手段に表示された撮影画像を光学像に重畳表示させる重畳表示手段と、光学ファインダの光路中に配置された遮光手段であって、光学像が接眼部で視認できない遮光状態と非遮光状態とを領域毎に切り替え可能な遮光手段と、前記撮像レンズの焦点距離を取得する取得手段と、焦点距離と光学ファインダのケラレ領域との関係を記憶する記憶手段と、取得手段により取得された焦点距離と、記憶手段に記憶された焦点距離と光学ファインダのケラレ領域との関係に基づいて光学ファインダのケラレ領域を求めるケラレ領域取得手段と、ケラレ領域取得手段により求められたケラレ領域を遮光状態とし、遮光状態とした領域以外の領域を非遮光状態とするように遮光手段を制御し、表示手段に撮影画像の遮光状態とした領域に相当する領域を表示する制御手段とを備える。
 本発明の一の態様に係る撮影装置によれば、取得手段により取得された焦点距離と、記憶手段に記憶された焦点距離と光学ファインダのケラレ領域との関係に基づいて、光学ファインダのケラレ領域を求める。そして、領域毎に遮光状態と非遮光状態とを切り替え可能な遮光手段により、ケラレ領域を光学像が視認できない遮光状態とし、それ以外の領域を非遮光状態とする。これにより、ケラレが発生した場合にも、視野全体を主に光学像で確認することができる。
 本発明の他の態様に係る撮影装置において、記憶手段は、被写体距離と光学ファインダのケラレ領域との関係を記憶し、取得手段は、被写体距離を取得し、ケラレ領域取得手段は、取得手段により取得された焦点距離及び被写体距離と、記憶手段に記憶された被写体距離とケラレ領域との関係及び焦点距離と光学ファインダのケラレ領域との関係とに基づいて光学ファインダのケラレ領域を求めてもよい。これにより、ズーム手段を有し焦点距離が変わる場合において、ケラレが発生した場合にも、視野全体を主に光学像で確認することができる。
 本発明の他の態様に係る撮影装置は、撮影画像における光学ファインダのケラレ領域に相当する領域のコントラストを算出するコントラスト算出手段と、コントラスト算出手段により算出されたコントラストが所定の値より小さい場合には、光学ファインダのケラレ領域に相当する領域よりも大きい領域であって、コントラストが所定の値となる領域を撮影画像から求める領域取得手段と、領域取得手段により求められたコントラストが所定の値となる領域に相当する領域を遮光領域とする遮光領域決定手段とを備え、制御手段は、遮光領域を遮光状態とし、それ以外の領域を非遮光状態とするように遮光手段を制御してもよい。これにより、光学像と電子像とのつなぎ目を目立たなくすることができる。
 本発明の他の態様に係る撮影装置は、撮影画像における光学ファインダのケラレ領域に相当する領域の各色別の画像信号に基づいて、撮影画像の色と光学像の色との差が最小となるように撮影画像のホワイトバランスを調整するホワイトバランス調整手段を備えてもよい。これにより、光学像と電子像とのつなぎ目を目立たなくすることができる。
 本発明の他の態様に係る撮影装置において、制御手段は、ケラレ領域取得手段により求められたケラレ領域を遮光状態とし、それ以外の領域を非遮光状態とする状態と、遮光手段を全て遮光状態とする状態とを切り替え可能としてもよい。これにより、必要に応じて電子像のみが表示されるEVFモードとすることができる。
 本発明の他の態様に係る撮影装置は、撮影レンズにアクセサリがつけられたか否かを検出するアクセサリ検出手段を備え、制御手段は、アクセサリがつけられたことが検出された場合には、遮光手段を全て遮光状態とする状態に切り替えてもよい。これにより、アクセサリがつけられた場合にはケラレが大きいと想定されるので、このような場合にはEVFモードとすることができる。
 本発明の他の態様に係る撮影装置は、撮影レンズにアクセサリがつけられたか否かを検出し、つけられたアクセサリの種類を検出するアクセサリ検出手段を備え、記憶手段は、アクセサリの種類と被写体距離と光学ファインダのケラレ領域との関係を記憶し、ケラレ領域取得手段は、取得手段により取得された被写体距離と、記録手段に記憶されたアクセサリの種類と被写体距離と光学ファインダのケラレ領域との関係に基づいて光学ファインダのケラレ領域を求めてもよい。これにより、アクセサリがつけられた場合にも、主に光学像で被写体を確認できる。
 本発明の他の態様に係る撮影装置において、表示手段は、撮影画像の範囲である撮影範囲を示す枠を表示してもよい。これにより、ユーザに撮影範囲を示すことができる。
 本発明の他の態様に係る撮影装置は、取得手段により取得された被写体距離に基づいて枠の位置を補正して表示手段に表示させる枠補正手段を備えてもよい。これにより、被写体距離に関わらず正確な撮影範囲を光学像上で確認でき、ケラレが発生してもこの領域の画像が視認可能となっていることが明確となる。
 本発明の他の態様に係る撮影装置は、取得手段により取得された被写体距離に基づいて光学像と撮影画像との視差を補正して撮影画像を表示手段に表示させる補正手段を備えてもよい。これにより、光学像と電子像とを正確に重畳表示することができる。
 本発明の一の態様に係るファインダの表示方法は、撮像レンズを透過した被写体光が結像される撮像素子と、撮像レンズと異なる経路で被写体の光学像を接眼部に導く光学ファインダと、撮像素子に結像された画像である撮影画像を表示する表示手段と、表示手段に表示された撮影画像を光学像に重畳表示させる重畳表示手段と、光学ファインダの光路中に配置された遮光手段であって、領域毎に遮光状態と非遮光状態とを切り替え可能な遮光手段と、被写体距離と光学ファインダのケラレ領域との関係を記憶する記憶手段とを備える撮影装置に適用されるものであり、被写体距離を取得するステップと、取得手段により取得された被写体距離と、記憶手段に記憶された被写体距離と光学ファインダのケラレ領域との関係に基づいて光学ファインダのケラレ領域を求めるステップと、求めたケラレ領域を遮光状態とし、遮光状態とした領域以外の領域を非遮光状態とするように遮光手段を制御するステップと、表示手段に撮影画像の遮光状態とした領域に相当する領域を表示するステップとを備える。
 本発明の他の態様に係るファインダの表示方法は、撮像レンズを透過した被写体光が結像される撮像素子と、撮像レンズと異なる経路で被写体の光学像を接眼部に導く光学ファインダと、撮像素子に結像された画像である撮影画像を表示する表示手段と、表示手段に表示された撮影画像を光学像に重畳表示させる重畳表示手段と、光学ファインダの光路中に配置された遮光手段であって、領域毎に遮光状態と非遮光状態とを切り替え可能な遮光手段と、被写体距離と光学ファインダのケラレ領域との関係を記憶する記憶手段とを備える撮影装置に適用されるものであり、焦点距離を取得するステップと、取得手段により取得された焦点距離と、記憶手段に記憶された焦点距離と光学ファインダのケラレ領域との関係に基づいて光学ファインダのケラレ領域を求めるステップと、求めたケラレ領域を遮光状態とし、遮光状態とした領域以外の領域を非遮光状態とするように遮光手段を制御するステップと、表示手段に撮影画像の遮光状態とした領域に相当する領域を表示するステップとを備える。
 本発明によれば、ケラレにより一部光学像が視認できない場合にもOVFを用いて被写体全体を確認することができる。
デジタルカメラの外観構成を示す正面斜視図 デジタルカメラの外観構成を示す背面斜視図 デジタルカメラの上面断面図 第1の実施形態に係るデジタルカメラの電気的構成を示すブロック図 ファインダ表示の選択処理を示すフローチャート ハイブリッドファインダの表示のイメージを示す図 液晶シャッタの遮光について説明する図 液晶板の表示について説明する図 ハイブリッドファインダの表示のイメージを示す図 第2の実施形態に係るファインダ表示の選択処理を示すフローチャート 第3の実施形態に係るファインダ表示の選択処理を示すフローチャート 第4の実施形態に係るファインダ表示の選択処理を示すフローチャート
 以下、添付図面に従って本発明に係る撮影装置を実施するための形態について詳細に説明する。
 <第1の実施の形態>
 [撮像装置の構成の説明]
 図1、図2は、それぞれ本実施形態に係るデジタルカメラ10の外観構成を示す正面斜視図と背面斜視図である。
 図1に示すように、本実施の形態のデジタルカメラ10は、カメラ本体12と、そのカメラ本体12に取り付けられた撮影レンズ14とを備えている。撮影レンズ14は、その焦点距離を変更可能に構成されたズームレンズ群を有している。なお、撮影レンズ14は、レンズ側マウントとカメラ側マウントにより着脱自在に構成してもよい。
 カメラ本体12の正面には、AF(Automatic Focus)補助光ランプ16、ファインダ切り替えレバー18、ファインダ対物部20、グリップ22等が設けられており、上面には、シャッタボタン(レリーズボタン)24、電源レバー26、露出補正ダイヤル30、シャッタスピードダイヤル31、アクセサリーシュー34、ストロボ36等が設けられている。
 また、カメラ本体12の背面には、ファインダ接眼部38、ズームレバー40、液晶モニタ32、十字ボタン48、RAWボタン50、バックボタン52、AE(Automatic Exposure Adjustment)選択ボタン54、AF選択ボタン56、再生ボタン58等が設けられている。
 被写体像の確認は、ファインダ接眼部38を介して行われる。このファインダ接眼部38を覗くことにより、撮影者は被写体像を観察することができる。シャッタボタン24は全押しと半押しからなる2段式となっている。シャッタボタン24の半押し時にAE及びAF動作を行い、全押し時に本撮影を行う。本撮影では、撮影により得られた画像(本撮影画像)がメモリカード(図4の240)に記録される。また、メモリカード240に記録した画像は、デジタルカメラ10のモードを再生モードに設定することにより(本実施の形態では、再生ボタン58の押下)、液晶モニタ32に再生表示される。
 図3は、デジタルカメラ10の上面断面図である。同図に示すように、デジタルカメラ10は、CCD(Charge Coupled Device)100、液晶板110、EVF(Electronic View Finder)レンズ112、対物レンズ120、プリズム122、接眼レンズ124、液晶シャッタ126、ファインダ窓128を備えている。
 撮影レンズ14を透過した被写体光は、CCD100の受光面に入射する。被写体光を受光したCCD100は、2次元配列された各センサにより入射光量に応じた量の信号電荷に変換する。この信号電荷から、各種信号処理回路により画像信号が生成される。このように生成された画像信号に基づいて、被写体像を左右反転した画像が液晶板110に表示される。
 液晶板110は、例えば、1600×900画素の解像度を有する液晶パネルである。液晶板110には、被写体像を反転した画像とともに、撮影レンズ14の焦点距離(画角)に基づいて、CCD100の受光面に入射した被写体光の範囲である撮影範囲を示すフレームが表示される。
 液晶板110の図面下方には、EVFレンズ112が設けられている。また、EVFレンズ112と接眼レンズ124との間には、プリズム122が配置されている。
 プリズム122は、第1プリズム122aと第2プリズム122bとから構成されている。第1プリズム122aと第2プリズム122bとが接合する部分には、ハーフミラー面122Mが形成されている。このハーフミラー面122Mは、EVFレンズ112の光軸に対して45°傾けられて設置される。液晶板110に表示された画像は、EVFレンズ112によって拡大され、ハーフミラー面122Mによって左右が反転されて図面右方向に反射される。ハーフミラー面122Mによって反射された画像(正立正像)は、接眼レンズ124に入射する。
 ファインダ対物部20には、撮影レンズ114とは異なる経路(光路)から被写体光が入射する。ファインダ対物部20には、ファインダ窓128から被写体光が入射する。ファインダ窓128の光路後段には、液晶シャッタ126及び対物レンズ120が順に配置されている。
 液晶シャッタ126は、ファインダ窓128から入射した被写体光の光軸と垂直となるように、ファインダ窓128及び対物レンズ120と平行に配置されている。液晶シャッタ126は、一対の基板間に封止された液晶層を有し、液晶層に印加する電圧により偏光方向が変化する液晶パネルである。
 液晶シャッタ126は、液晶板110の表示解像度と同じ1600×900画素の解像度を有している。液晶シャッタ126は、表示制御回路242(図4参照)の制御により、ファインダ窓128から入射した被写体光を遮光する遮光状態と、被写体光を透過させる透過状態(非遮光状態)とを画素毎に切り替え可能に構成されている。
 対物レンズ120は、ズームレンズ群を有している。対物レンズ120の焦点距離は、撮影レンズ14の焦点距離に応じて変更可能に構成され、撮影レンズ14の撮影範囲を視認可能に調整される。
 上記のように構成された液晶シャッタ126の全領域(全画素)を透過状態とすると、撮影レンズ114とは異なる光路からファインダ対物部20に入射した被写体光は、液晶シャッタ126を介して対物レンズ120に入射し、さらにハーフミラー面122Mを透過し、接眼レンズ124に入射する。対物レンズ120には凹レンズ、接眼レンズ124には凸レンズが用いられており、逆ガリレオタイプのファインダを構成している。
 このように、デジタルカメラ10は、ファインダ対物部20から入射した被写体光をファインダ接眼部38に導く光学ファインダ(OVF)を備えており、液晶板110に表示された映像をファインダ接眼部38に導く電子ファインダ(EVF)を備えている。そして、両者がハーフミラー面122Mにより同一光路上に配置されることで、その映像が重畳されてファインダ接眼部38へ導かれる。
 なお、デジタルカメラ10の場合、撮影レンズ14やCCD100から構成されるEVFの撮像部と、ファインダ対物部20やファインダ接眼部38から構成されるOVFとは、光軸が異なり、視差を有している。したがって、CCD100が受光した被写体像に基づいて生成された画像信号をそのまま液晶板110に表示させると、同一被写体であってもOVFの映像内とEVFの画像内の位置が異なってしまう。即ち、同一被写体の位置が一致するようにOVFの映像とEVFの画像とを重畳表示させるためには、視差の補正を行う必要がある。
 視差の補正を行うためには、デジタルカメラ10と各被写体との距離を測定する必要がある。各被写体との距離は、後述するAFの情報を用いることで算出することができる。なお、異なる方法によって各被写体との距離を測定してもよい。
 次に、画像信号処理回路234(図4参照)において、上記のように算出したデジタルカメラ10と各被写体との距離に基づいて、予め生成しておいた撮影画像(CCD100によって撮影された画像)の各被写体を、OVFの映像の同一被写体の位置と一致するように移動させる。
 このように生成した画像を液晶板110に表示させると、OVFの映像の各被写体の位置とEVFの画像の各被写体の位置とが一致した状態で、ファインダ接眼部38に導かれる。
 また、OVFの光学系(対物レンズ120及び接眼レンズ124)とEVFの光学系(撮影レンズ14)との画角が異なる場合は、画角の差に基づいてCCD100によって撮影された画像を拡大又は縮小して液晶板110に表示すればよい。
 〔カメラの電気的構成〕
 図4は、デジタルカメラ10の電気的構成を示すブロック図である。同図に示すように、デジタルカメラ10は、液晶モニタ32、CCD100、液晶板110、液晶シャッタ126、CPU(Central Processing Unit)210、操作部(シャッタボタン、電源レバー、露出補正ダイヤル、シャッタスピードダイヤル、ズームレバー、十字ボタン、バックボタン、再生ボタン等の各種操作ボタン)212、ROM(Read-Only Memory)216、EEPROM(Electrically Erasable Programmable Read-Only Memory)218、メモリ(SDRAM(Synchronous Dynamic Random Access Memory))220、VRAM(Video Random Access Memory)222、タイミングジェネレータ(TG)226、アナログ信号処理回路228、A/D変換器230、画像入力コントローラ232、画像信号処理回路234、圧縮・伸張処理回路236、メディアコントローラ238、メモリカード240、表示制御回路242を備えている。
 CPU210は、カメラ本体12に装着された撮影レンズ14を含むデジタルカメラ10全体の動作を統括制御する制御部として機能する。CPU210は、操作部212からの入力に基づき所定の制御プログラムに従ってデジタルカメラの各部を制御する。
 ROM216には、このCPU210が実行する制御プログラム及び制御に必要な各種データ等が格納されている。EEPROM218には、ユーザ設定情報等のデジタルカメラの動作に関する各種設定情報等が格納されている。
 メモリ(SDRAM)220は、CPU210の演算作業用領域として利用されると共に、画像データの一時記憶領域として利用される。VRAM222は、表示用の画像データ専用の記憶領域として利用される。
 撮影レンズ14は、ドライバ204により焦点距離が変更される。CPU210は、ユーザが行ったズームレバー40の操作に応じて、ドライバ204を制御し、撮影レンズ14内のズームレンズを移動させて焦点距離を変更する。
 また、対物レンズ120は、ズームドライバ206により焦点距離が変更される。CPU210は、ユーザが行ったズームレバー40の操作に応じて、ズームドライバ206を制御し、対物レンズ120の焦点距離を変更する。これにより、ファインダ接眼部38から観察可能なOVFの映像が、撮影レンズ14の焦点距離に応じた映像に調整される。
 CCD100は、撮影レンズ14の後段に配置されており、撮影レンズ14を透過した被写体光を受光する。CCD100は、多数の受光素子がマトリクス状に配列された受光面を備えている。撮影レンズ14を透過した被写体光は、このCCD100の受光面上に結像され、各受光素子によって電気信号に変換される。なお、撮像素子としては、CCD100に代えて、CMOS(Complementary Metal Oxide Semiconductor)を用いてもよい。
 このCCD100は、タイミングジェネレータ(TG)226から供給される垂直転送クロック及び水平転送クロックに同期して、各画素に蓄積された電荷を1ラインずつシリアルな画像信号として出力する。CPU210は、TG226を制御して、CCD100の駆動を制御する。
 なお、各画素の電荷蓄積時間(露出時間)は、TG226から与えられる電子シャッタ駆動信号によって決められる。CPU210は、TG226に対して電荷蓄積時間を指示する。
 また、画像信号の出力は、デジタルカメラ10が撮影モードにセットされると開始される。すなわち、デジタルカメラ10が撮影モードにセットされると、液晶モニタ32にライブビュー画像(スルー画像)を表示するため、画像信号の出力が開始される。このスルー画像用の画像信号の出力は、本撮影の指示が行われると一旦停止され、本撮影が終了すると再度開始される。
 CCD100から出力される画像信号は、アナログ信号である。このアナログの画像信号は、アナログ信号処理回路228に取り込まれる。
 アナログ信号処理回路228は、相関二重サンプリング回路(CDS)、及び自動ゲインコントロール回路(AGC)を含んでいる。CDSは、画像信号に含まれるノイズの除去を行う。AGCは、ノイズ除去された画像信号を所定のゲインで増幅する。このアナログ信号処理回路228で所要の信号処理が施されたアナログの画像信号は、A/D変換器230に取り込まれる。
 A/D変換器230は、取り込んだアナログの画像信号を所定ビットの階調幅を持ったデジタルの画像信号に変換する。この画像信号は、いわゆるRAWデータであり、画素毎R、G、Bの濃度を示す階調値を有している。
 画像入力コントローラ232は、所定容量のラインバッファを内蔵しており、A/D変換器230から出力された1コマ分の画像信号を蓄積する。この画像入力コントローラ232に蓄積された1コマ分の画像信号は、バス214を介してメモリ(SDRAM)220に格納される。
 バス214には、上記CPU210、メモリ220、画像入力コントローラ232の他、画像信号処理回路234、圧縮・伸張処理回路236、表示制御回路242、メディアコントローラ238等が接続されており、これらはバス214を介して互いに情報を送受信できるようにされている。
 メモリ220に格納された1コマ分の画像信号は、点順次(画素の順番)に画像信号処理回路234に取り込まれる。
 画像信号処理回路234は、点順次に取り込んだR、G、Bの各色の画像信号に対して所定の信号処理を施し、輝度信号Yと色差信号Cr、Cbとからなる画像信号(Y/C信号)を生成する。
 AF検出回路250は、CPU210の指令に従い、メモリ220に格納されたR、G、Bの画像信号を取り込み、AF(Automatic Focus)制御に必要な焦点評価値を算出する。このAF検出回路250は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面に設定された所定のフォーカス領域(以下、AFエリアという)内の信号を切り出すAFエリア抽出部、及び、AFエリア内の絶対値データを積算する積算部を含んでいる。AF検出回路250は、この積算部で積算されたAFエリア内の絶対値データを焦点評価値としてCPU210に出力する。焦点評価値に基づくフォーカスレンズ群(撮影レンズ14に含まれる)の制御方式としては、焦点評価値が極大となる位置をサーチし、その位置にドライバ204を介してフォーカスレンズを移動させる方式や、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出するとその位置にフォーカスレンズ群を設定する山登り方式を用いることができる。また、位相差を用いる位相差AF用の撮像素子を別途配設し、位相差AF用の撮像素子により検出された位相差を用いてAFを行う位相差方式を用いてもよい。
 AE・AWB検出回路252は、メモリ220に格納されたR、G、Bの画像信号を取り込み、画面全体のG信号を積算するか、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算する。AE・AWB検出回路252は、そのAE制御に必要な積算値をCPU210に出力する。CPU210は、積算値から輝度値を算出し、輝度値から露出値を求める。また、AE・AWB検出回路252は、露出値から所定のプログラム線図に従って、絞り値及びシャッタ速度を決定する。
 また、AE・AWB検出回路252は、AWB制御に必要な物理量として、1画面を複数のエリア(例えば、16×16)に分割し、分割したエリア毎にR、G、Bの画像信号の色別の平均積算値を算出する。CPU210は、得られたRの積算値、Bの積算値、Gの積算値から分割エリア毎にR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。そして、判別された光源種に適したホワイトバランス調整値に従って、例えば、各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B=1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を決定する。AE・AWB検出回路252は、メモリ220に格納された1コマ分の画像信号に光源種に応じたデジタルゲインをかけることでホワイトバランス調整を行い、ガンマ(階調特性)処理及びシャープネス処理を行ってR、G、B信号を生成する。
 圧縮・伸張処理回路236は、CPU210からの指令に従って、画像信号処理回路234で生成された画像データに所定の圧縮処理を施し、圧縮画像データを生成する。また、圧縮・伸張処理回路236は、圧縮された画像データに所定の伸張処理を施して、非圧縮の画像データを生成する。
 メディアコントローラ238は、CPU210からの指令に従い、撮影により得られた画像データをメモリカード240に記録し、また、記録済み画像をメモリカード240から読み出す。
 表示制御回路242は、CPU210からの指令に従い液晶モニタ32及び液晶板110への表示を制御する。また、詳細は後述するが、液晶シャッタ126を制御する。
 [撮像装置の動作の説明]
 以上のように構成されたデジタルカメラ10の画像記録の手順について説明する。
 図5は、ファインダ表示(ファインダ対物部20から入射した被写体の光学像を視認するOVF、又はCCD100に結像された被写体の電子像を視認するEVF)の選択処理を示すフローチャートである。
 CPU210は、ファインダのモードを判定する(ステップS1)。ファインダのモードは、ファインダ切り替えレバー18の位置に基づいて入力される信号に基づいてOVFモード、EVFモードを判定される。
 EVFモードの場合(ステップS1でEVF)には、CPU210は、液晶シャッタ126を閉じて全遮光状態とし、ファインダ対物部20から入射した被写体の光学像を視認できないようにする(ステップS2)。CCD100には、撮影レンズ14を透過した被写体光が連続的に結像され、その画像信号が連続的に処理されて、撮影確認画像用の画像データが生成される。CPU210は、生成された画像データを順次表示制御回路242に加え、画像データはモニタ表示用の信号形式に変換されて液晶板110に出力される(ステップS3)。これにより、撮影確認画像用の画像データがファインダ接眼部38で視認可能となる。
 CPU210は、この段階で、光学像をOVFで視認させると同時に、撮影範囲を示す枠をEVFで光学像に重畳表示させてもよい。CPU210は画像信号処理回路234に枠の画像を出力し、画像信号処理回路234は、撮影画像の大きさで、枠の中心と液晶板110の中心とが一致するように、CCD100で撮影される画像である撮影画像の範囲(撮影範囲)を示す枠F(図6参照)を液晶板110に表示させる。
 OVFモードの場合(ステップS1でOVF)には、CPU210は被写体距離を取得する(ステップS4)。被写体距離は、例えば、AF検出回路250に焦点評価値を算出させ、焦点評価値に基づいてフォーカスレンズを移動させ、その移動量(フォーカスパルスの数)に基づいて求めることができる。位相差AF用の撮像素子を有する場合には、位相差から被写体距離を算出することもできる。被写体距離が取得されると視差の補正が可能となるため、枠が表示されている場合には、画像信号処理回路234は撮影画像の各被写体がOVFの光学像の同一被写体の位置と一致するように枠の位置を移動させる。
 CPU210は、焦点距離を算出する(ステップS5)。焦点距離は、例えば、ズームレンズの位置に基づいて算出することができる。焦点距離が取得されると視差の補正が可能となるため、枠が表示されている場合には、画像信号処理回路234は撮影画像の各被写体がOVFの光学像の同一被写体の位置と一致するように枠の位置を移動させる。
 CPU210は、ステップS4、S5で算出された被写体距離及び焦点距離に基づいてOVFにケラレが発生するか否かを判断する(ステップS6)。本実施の形態において、ケラレとは、撮影レンズ14等がOVFの画面内に写り込むことで、本来視認されるべき被写体が視認されない現象を意味する。
 ケラレが発生する場合としては、例えば、以下の場合が考えられる。
 第1は、マクロ撮影などの被写体距離が近い場合である。被写体距離が近い場合には、撮影レンズ14により光学像の一部にケラレが発生する。また、マクロ撮影の場合にはOVFの光学像とCCD100に結像される画像との視差が大きくなるため、ステップS4、S5で枠の位置が移動されると、ケラレが発生する可能性がより高くなる。
 第2は、撮影レンズが繰り出される場合である。撮影レンズ14に凹凸の2グループのレンズ群から構成されるズームレンズが含まれる場合には、広角側で撮影レンズ14の全長が伸びる。撮影レンズ14に凸凹凸の3グループのレンズ群から構成されるズームレンズが含まれる場合には、望遠側で撮影レンズ14の全長が伸びる。撮影レンズ14の全長が伸びる場合には、その分だけ撮影レンズ14により光学像の一部にケラレが発生する可能性が高くなる。
 第3は、焦点距離が短い場合である。撮影レンズ14にどのようなズームレンズを用いた場合であっても、焦点距離が短い場合には画角が広くなる。このため、撮影レンズ14が画角に入り込む可能性が高くなる、すなわち撮影レンズ14により光学像の一部にケラレが発生する可能性が高くなる。また、撮影レンズ14にインナーフォーカス式のズームレンズが含まれる場合には、ズームレンズを固定していたとしても、フォーカス位置を変更すると焦点距離が短くなり、撮影レンズ14により光学像の一部にケラレが発生する場合がある。
 EEPROM218には、被写体距離及び焦点距離と、撮影レンズ14によるケラレの発生の有無及びケラレ領域の位置との関係が記憶されている。したがって、CPU210は、この関係を参照することで、算出された被写体距離及び焦点距離の場合にケラレが発生するか否かを判断し、ケラレが発生するのであればケラレ領域の位置を判断する。ここでケラレ領域とは、撮影レンズ14等がOVFの画面内に写り込んでいる領域、すなわち本来視認される被写体が視認できていない領域を意味する。
 ケラレが発生しない場合(ステップS6でNO)には、CPU210は、液晶シャッタ126を開けて非遮光状態とする(ステップS7)。これにより、光学像がファインダ接眼部38で視認可能となる。
 そして、まだ枠が表示されていない場合には、CPU210は、枠F(図6参照)を液晶板110に表示させる(ステップS8)。その結果、光学像に枠が重畳表示されたものがファインダ接眼部38で視認可能となる。
 ケラレが発生する場合(ステップS6でYES)には、CPU210は、ステップS6で判断されたケラレ領域の液晶シャッタ126を閉じて遮光状態とする(ステップS9)。図6はケラレが発生した場合の一例であり、ファインダ接眼部38で視認される光学像Oの右下にケラレKが発生している。CCD100では枠Fの内側の画像を取得しているため、EVFでは枠F(撮影範囲)の内側のみが表示可能である。したがって、CPU210は、図7に示すように、液晶シャッタ126のケラレ領域Kの内側かつ撮影範囲(枠F)の内側の領域K’の部分を閉じて遮光状態とする。ステップS4、S5で被写体距離及び焦点距離が取得されているため、CPU210は視差補正後の撮影画像の位置に基づいてケラレ領域を遮光する。
 また、CPU210は、CCD100で撮影された撮影画像のステップS9で遮光状態とした領域に相当する領域の画像を液晶板110に表示させる(ステップS10)。まだ枠が表示されていない場合には、CPU210は、枠F(図6参照)を液晶板110に表示させる。ステップS9では、図7に示すように液晶シャッタ126の領域K’が遮光されているため、ステップS10では図8に示すように領域K’に相当する部分のみを液晶板110に表示させる。既に説明したように、液晶板110の表示は左右反転されるため、図8は図6、図7に対して左右反転している。
 液晶板110の表示は光学像に重畳表示されるが、ステップS9でケラレ領域の液晶シャッタ126を閉じて遮光状態とされている。このため、その領域についてはOVFで光学像が視認できない。その結果、図9に示すように、ファインダ接眼部38では、ケラレ領域Kの枠Fの内側の領域K’についてはEVFの電子像、その他の部分は光学像Oが視認される。なお、枠Fの外側のケラレ領域Kについては、そのまま光学像が表示される。
 シャッタボタン24が半押しされると、S1ON信号がCPU210に入力され、CPU210はAF検出回路250及びAE・AWB検出回路252を介してAE/AF/AWB動作を実施する。
 シャッタボタン24が全押しされることによりCPU210に撮影指示(S2ON信号)が入力されると、CPU210は所要の撮影制御を行って、CCD100で1コマ分の画像を撮像する。CCD100において撮像された1コマ分のR、G、Bの画像信号は、アナログ信号処理回路228、A/D変換器230、画像入力コントローラ232を介してメモリ220に格納され、メモリ220から画像信号処理回路234に加えられる。画像信号処理回路234は、入力された画像信号に対して所要の信号処理を施して、輝度データと色差データとからなる画像データを生成する。
 生成された画像データは、メモリ220に一旦格納された後、圧縮・伸張処理回路236に加えられ、所定の圧縮処理が施された後、メモリ220に再度格納される。
 CPU210は、このメモリ220に格納された圧縮画像データに対して所定の撮影情報を付加した所定フォーマットの画像ファイルを生成し、メディアコントローラ238を介してメモリカード240に記録する。
 このようにしてメモリカード240に記録された画像データは、再生指令に応じてメモリカード240から読み出され、液晶モニタ32に再生表示される。すなわち、再生ボタンによりCPU210に再生指示が入力されると、CPU210は、メディアコントローラ238を介してメモリカード240に最後に記録された画像ファイルの圧縮画像データを読み出す。読み出された圧縮画像データは、圧縮・伸張処理回路236に加えられ、非圧縮の画像データとされたのちVRAM222に格納される。そして、このVRAM222に格納された画像ファイルが表示制御回路242に加えられ、モニタ表示用の信号形式に変換されて液晶モニタ32に出力される。これにより、メモリカード240に記録されている画像が液晶モニタ32に再生表示される。
 また、十字ボタン等によって画像のコマ送りが指示されると、次の画像がメモリカード240から読み出され、液晶モニタ32に再生表示される。また、コマ戻しが指示されると、1つ前の画像がメモリカード240から読み出され、液晶モニタ32に再生表示される。
 本実施の形態によれば、ケラレ領域のみEVFで補助表示された光学像を視認することができる。その結果、OVFではケラレが回避できない場合においても、OVFで撮影画像全体を確認することができる。
 なお、本実施の形態では、ステップS10において液晶シャッタ126が遮光状態とされた領域に相当する領域の撮影画像を液晶板110に表示させたが、撮影画像全体を液晶板110に表示させてもよい。ただし、ケラレ領域以外については光学像と電子像の両方が視認されるため、ケラレ領域とそうでない領域とで明るさが異なることとなるが、処理は容易となる。また、液晶シャッタ126と撮影画像とがずれてしまう可能性を考慮し、光学像と電子像とが一部だけ重なるように撮影画像を液晶板110に表示させてもよい。
 また、本実施の形態では、ケラレが発生する場合には、ケラレ領域の液晶シャッタ126を閉じて遮光状態とした(ステップS9)。しかしながら、遮光状態とする領域は、ケラレ領域を含む領域であればケラレ領域と同一の領域でなくてもかまわない。例えば、図6に示すようにケラレ領域Kが発生する場合には、図7に示す領域K’より数画素だけ広げた領域を遮光状態としても良い。
 また、本実施の形態では、撮影レンズ14にアクセサリ(例えば、レンズフード)が取り付け可能に構成されていないが、アクセサリを撮影レンズに取り付け可能に構成しても良い。アクセサリをつけるとケラレが大きくなるため、アクセサリを取り付け可能とする場合には、撮影レンズにアクセサリが取り付けられたことが検出できるような接点を設ける。そして、CPU210がアクセサリが取り付けられたことを検出した場合には、CPU210はファインダのモードをEVFモードとするのが好ましい。ただし、アクセサリ側にCPU等があり、CPU210がアクセサリの種類まで判別できるように構成されている場合には、アクセサリの種類によっては、CPU210はファインダのモードをOVFモードとしてもよい。例えば、アクセサリの種類(例えば、名称)と、焦点距離及び被写体距離と、ケラレ領域との関係をEEPROM218に記憶しておき、判別したアクセサリについての情報が記憶手段に記憶されている場合には、OVFモードとすることができる。
 なお、本実施の形態では、ズームレンズ群を有する撮影レンズ14を用いたが、ズームレンズ群は必須ではない。ズームレンズ群がない撮影レンズを用いる場合には、撮影レンズの焦点距離は固定であるため、ステップS5で焦点距離を求める必要はない。この場合には、EEPROM218には、被写体距離と、撮影レンズによるケラレの発生の有無及びケラレ領域の位置との関係を記憶しておけばよい。また、焦点距離が短い場合には被写体距離によらずケラレが発生する場合も考えられる。例えば、図5に示すフローチャートのステップS5の後でステップS4を行うようにし、取得された焦点距離が所定の値より短い場合には、必ずケラレが発生する場合であるため、ステップS4を行わないようにしても良い。
 <第2の実施の形態>
 本発明の第2の実施の形態は、撮影画像のコントラストに基づいて電子像の領域を変える形態である。本実施形態によれば、ケラレ領域のみを電子像で表示して光学像に重畳表示した場合に、撮影対象によって光学像と電子像とのつなぎ目における見かけ上の不自然さを低減することができる。以下、第2の実施の形態に係るデジタルカメラ10-1について説明する。なお、第1の実施の形態と同一の部分については説明を省略する。
 図10は、ファインダ表示の選択処理を示すフローチャートである。以下、図5に示すファインダ表示の選択処理と同様の工程については説明を省略する。
 ケラレが発生する場合(ステップS6でYES)には、CPU210は、撮影画像のうちのケラレ領域Kに相当する領域のコントラストを求める。そして、コントラストが所定の値以上である場合にはケラレ領域Kを遮光領域とする。コントラストが所定の値より小さい場合には、撮影画像のうちのケラレ領域Kに相当する領域よりも大きい領域でコントラストが所定の値となる領域を遮光状態とする(ステップS11)。撮影画像のうちのケラレ領域Kに相当する領域のコントラストの算出は、例えば、AF検出回路250がAFエリア内の焦点評価値を算出する方法と同様の方法を用いることができる。
 CPU210は、ステップS11で求められた遮光領域の液晶シャッタ126を閉じて遮光状態とする(ステップS12)。これにより、遮光領域については光学像が視認できないようになる。
 CPU210は、CCD100で撮影された撮影画像の遮光領域に相当する領域の画像を液晶板110に表示させる。また、CPU210は、撮影範囲を示す枠Fを液晶板110に表示させる(ステップS13)。その結果、遮光領域については電子像が表示され、その他の領域については光学像が表示され、かつ枠が重ねて表示されたものがファインダ接眼部38で視認される。
 本実施の形態によれば、コントラストが大きい領域に光学像と電子像とのつなぎ目が位置するため、つなぎ目を目立たなくすることができる。その結果、ファインダで視認される画像を自然な光学像に近づけることができる。
 なお、本実施の形態では、ステップS11で撮影画像のうちのケラレ領域Kに相当する領域のコントラストに基づいて遮光領域を求めたが、本発明はこれに限定されるものではない。撮影画像のうちのケラレ領域Kの周辺部分の所定領域、例えば、光学像とのつなぎ目近傍の所定の幅の領域のコントラストに基づいて遮光領域を求めても良い。
 <第3の実施の形態>
 本発明の第2の実施の形態では、撮影画像のコントラストに基づいて遮光領域を求めて光学像と電子像とのつなぎ目を目立たなくした形態であるが、光学像と電子像とのつなぎ目を目立たなくする方法はこれに限られない。
 本発明の第3の実施の形態は、電子像と光学像の色差を小さくすることによりつなぎ目を目立たなくする形態である。以下、第3の実施の形態に係るデジタルカメラ10-2について説明する。なお、第1の実施の形態と同一の部分については説明を省略する。
 図11は、ファインダ表示の選択処理を示すフローチャートである。以下、図5に示すファインダ表示の選択処理と同様の工程については説明を省略する。
 ケラレ領域の液晶シャッタ126を閉じて遮光状態とされた場合(ステップS9)、CPU210は、AE・AWB検出回路252に指示を出し、AE・AWB検出回路252は、撮影画像の色と光学像の色との差が最小となるように、撮影画像のホワイトバランスを調整する(ステップS14)。例えば、光源が蛍光灯の場合には、通常はGの比率が低くなるようにホワイトバランスを調整するが、このステップS14ではある程度Gを残すようにホワイトバランスを調整する。この処理は、光源種とホワイトバランス調整値との関係をEEPROM218等に記憶させておくことで可能となる。光源種に関わらず、通常のホワイトバランス調整値より低いホワイトバランス調整値を用いてホワイトバランスの調整(例えば、通常のホワイトバランス調整値の半分程度)を行うようにしてもよい。また、被写体の明るさ等によってはホワイトバランス調整を行わないようにしてもよい。なお、撮影画像の色と光学像の色との差が最小となるようにホワイトバランス調整を行う対象は、液晶板110に出力する撮影画像のみとしてもよい。この場合、液晶モニタ32に出力する画像及びメモリカード240に記録する画像については、光源に合わせて通常のホワイトバランス調整を行うようにしてもよい。
 CPU210は、ステップS14でホワイトバランスが調整された撮影画像のケラレ領域に相当する領域の画像を液晶板110に表示させる。また、CPU210は、撮影範囲を示す枠Fを液晶板110に表示させる(ステップS15)。
 本実施の形態によれば、光学像と電子像との色差が最小となるようにするため、つなぎ目を目立たなくすることができる。
 <第4の実施の形態>
 本発明の第1の実施の形態では、ケラレ領域のみをEVFで光学像に重畳表示したが、ケラレ領域の大きさによってはEVFの方が適している可能性もある。
 本発明の第4の実施の形態は、ケラレが発生する場合にOVFかEVFかの切り替えを行う形態である。以下、第4の実施の形態に係るデジタルカメラ10-3について説明する。なお、第1の実施の形態と同一の部分については説明を省略する。
 図12は、ファインダ表示の選択処理を示すフローチャートである。以下、図5に示すファインダ表示の選択処理と同様の工程については説明を省略する。
 ケラレが発生する場合(ステップS6でYES)には、CPU210は、OVFとEVFとの重畳表示モードと、OVFの光画像を表示せず撮影画像の電子像をEVFで表示するEVFモードとのどちらが適しているかを判断する(ステップS16)。CPU210は、ケラレ領域の大きさがある閾値より大きい場合にはEVFモードが適していると判断することができる。また、CPU210は、ステップS11と同様の方法により撮影画像のうちのケラレ領域Kに相当する領域のコントラストを算出し、コントラストが所定の値より小さい場合にはEVFモードが適していると判断することもできる。また、CPU210は、液晶板110に選択画面を表示し、ユーザに重畳表示モードかEVFモードかの選択を促すようにしても良い。この場合には、ユーザがファインダ切り替えレバー18を介して選択した結果をCPU210が認識してモードを判断するようにすれば良い。
 ステップS16で重畳表示モードが適していると判断された場合には、CPU210は、ケラレ領域の液晶シャッタ126を閉じて遮光状態とし(ステップS9)、CCD100で撮影された撮影画像のステップS9で遮光状態とした領域に相当する領域の画像を液晶板110に表示させる。また、CPU210は、撮影範囲を示す枠Fを液晶板110に表示させる(ステップS10)。
 ステップS16でEVFモードが適していると判断された場合には、CPU210は、液晶シャッタ126を閉じて全遮光状態とし、ファインダ対物部20から入射した被写体の光学像を視認できないようにする(ステップS2)。そして、CPU210は、生成された画像データを順次表示制御回路242に加え、表示制御回路242でモニタ表示用の信号形式に変換されて液晶板110に出力される(ステップS3)。
 本実施の形態によれば、つなぎ目が目立つ場合等には、つなぎ目のないEVF表示にすることができる。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
 特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
 10…デジタルカメラ、12…カメラ本体、14…撮影レンズ、24…シャッタボタン、38…ファインダ接眼部、32…液晶モニタ、100…CCD、110…液晶板、112…EVFレンズ、120…対物レンズ、122…プリズム、122M…ハーフミラー面、124…接眼レンズ、126…液晶シャッタ、260…ケラレ領域検出回路

Claims (14)

  1.  撮像レンズを透過した被写体光が結像される撮像素子と、
     前記撮像レンズと異なる経路で被写体の光学像を接眼部に導く光学ファインダと、
     前記撮像素子に結像された画像である撮影画像が表示可能な表示手段と、
     前記表示手段に表示された撮影画像を前記光学像に重畳表示させる重畳表示手段と、
     前記光学ファインダの光路中に配置された遮光手段であって、前記光学像が前記接眼部で視認できない遮光状態と非遮光状態とを領域毎に切り替え可能な遮光手段と、
     被写体距離を取得する取得手段と、
     被写体距離と前記光学ファインダのケラレ領域との関係を記憶する記憶手段と、
     前記取得された被写体距離と、前記記憶された被写体距離と前記光学ファインダのケラレ領域との関係に基づいて前記光学ファインダのケラレ領域を求めるケラレ領域取得手段と、
     前記求められたケラレ領域を遮光状態とし、当該遮光状態とした領域以外の領域を非遮光状態とするように前記遮光手段を制御し、前記表示手段に前記撮影画像の前記遮光状態とした領域に相当する領域を表示する制御手段と、
     を備えた撮影装置。
  2.  前記記憶手段は、焦点距離と前記光学ファインダのケラレ領域との関係を記憶し、
     前記取得手段は、前記撮像レンズの焦点距離を取得し、
     前記ケラレ領域取得手段は、前記取得された焦点距離及び被写体距離と、前記記憶手段に記憶された被写体距離とケラレ領域との関係及び焦点距離と前記光学ファインダのケラレ領域との関係とに基づいて前記光学ファインダのケラレ領域を求める請求項1に記載の撮影装置。
  3.  撮像レンズを透過した被写体光が結像される撮像素子と、
     前記撮像レンズと異なる経路で被写体の光学像を接眼部に導く光学ファインダと、
     前記撮像素子に結像された画像である撮影画像が表示可能な表示手段と、
     前記表示手段に表示された撮影画像を前記光学像に重畳表示させる重畳表示手段と、
     前記光学ファインダの光路中に配置された遮光手段であって、前記光学像が前記接眼部で視認できない遮光状態と非遮光状態とを領域毎に切り替え可能な遮光手段と、
     前記撮像レンズの焦点距離を取得する取得手段と、
     焦点距離と前記光学ファインダのケラレ領域との関係を記憶する記憶手段と、
     前記取得された焦点距離と、前記記憶された焦点距離と前記光学ファインダのケラレ領域との関係に基づいて前記光学ファインダのケラレ領域を求めるケラレ領域取得手段と、
     前記求められたケラレ領域を遮光状態とし、当該遮光状態とした領域以外の領域を非遮光状態とするように前記遮光手段を制御し、前記表示手段に前記撮影画像の前記遮光状態とした領域に相当する領域を表示する制御手段と、
     を備えた撮影装置。
  4.  前記記憶手段は、被写体距離と前記光学ファインダのケラレ領域との関係を記憶し、
     前記取得手段は、被写体距離を取得し、
     前記ケラレ領域取得手段は、前記取得された焦点距離及び被写体距離と、前記記憶手段に記憶された被写体距離とケラレ領域との関係及び焦点距離と前記光学ファインダのケラレ領域との関係とに基づいて前記光学ファインダのケラレ領域を求める請求項3に記載の撮影装置。
  5.  前記撮影画像における前記光学ファインダのケラレ領域に相当する領域のコントラストを算出するコントラスト算出手段と、
     前記算出されたコントラストが所定の値より小さい場合には、前記光学ファインダのケラレ領域に相当する領域よりも大きい領域であって、コントラストが前記所定の値となる領域を前記撮影画像から求める領域取得手段と、
     前記求められたコントラストが前記所定の値となる領域に相当する領域を遮光領域とする遮光領域決定手段とを更に備え、
     前記制御手段は、前記遮光領域を遮光状態とし、それ以外の領域を非遮光状態とするように前記遮光手段を制御する請求項1から4のいずれかに記載の撮影装置。
  6.  前記撮影画像における前記光学ファインダのケラレ領域に相当する領域の各色別の画像信号に基づいて、前記撮影画像の色と前記光学像の色との差が最小となるように前記撮影画像のホワイトバランスを調整するホワイトバランス調整手段を更に備えた請求項1から5のいずれかに記載の撮影装置。
  7.  前記制御手段は、前記求められたケラレ領域を遮光状態とし、それ以外の領域を非遮光状態とする状態と、前記遮光手段を全て遮光状態とする状態とを切り替え可能とする請求項1から6のいずれかに記載の撮影装置。
  8.  前記撮影レンズにアクセサリがつけられたか否かを検出するアクセサリ検出手段を更に備え、
     前記制御手段は、前記アクセサリがつけられたことが検出された場合には、前記遮光手段を全て遮光状態とする状態に切り替える請求項7に記載の撮影装置。
  9.  前記撮影レンズにアクセサリがつけられたか否かを検出し、つけられたアクセサリの種類を検出するアクセサリ検出手段を更に備え、
     前記記憶手段は、アクセサリの種類と被写体距離と前記光学ファインダのケラレ領域との関係を記憶し、
     前記ケラレ領域取得手段は、被写体距離と、前記記憶されたアクセサリの種類と被写体距離と前記光学ファインダのケラレ領域との関係に基づいて前記光学ファインダのケラレ領域を求める請求項1から7のいずれかに記載の撮影装置。
  10.  前記表示手段は、前記撮影画像の範囲である撮影範囲を示す枠を表示する請求項1から9のいずれかに記載の撮影装置。
  11.  被写体距離に基づいて前記枠の位置を補正して前記表示手段に表示させる枠補正手段を更に備えた請求項10に記載の撮影装置。
  12.  被写体距離に基づいて前記光学像と前記撮影画像との視差を補正して前記撮影画像を前記表示手段に表示させる補正手段を更に備えた請求項1から11のいずれかに記載の撮影装置。
  13.  撮像レンズを透過した被写体光が結像される撮像素子と、前記撮像レンズと異なる経路で被写体の光学像を接眼部に導く光学ファインダと、前記撮像素子に結像された画像である撮影画像を表示する表示手段と、前記表示手段に表示された撮影画像を前記光学像に重畳表示させる重畳表示手段と、前記光学ファインダの光路中に配置された遮光手段であって、領域毎に遮光状態と非遮光状態とを切り替え可能な遮光手段と、被写体距離と前記光学ファインダのケラレ領域との関係を記憶する記憶手段とを備えたファインダの表示方法であって、
     被写体距離を取得するステップと、
     前記取得された被写体距離と前記記憶された被写体距離と前記光学ファインダのケラレ領域との関係に基づいて前記光学ファインダのケラレ領域を求めるステップと、
     前記求められたケラレ領域を遮光状態とし、当該遮光状態とした領域以外の領域を非遮光状態とするように前記遮光手段を制御するステップと、
     前記表示手段に前記撮影画像の前記遮光状態とした領域に相当する領域を表示するステップと、
     を備えたファインダの表示方法。
  14.  撮像レンズを透過した被写体光が結像される撮像素子と、前記撮像レンズと異なる経路で被写体の光学像を接眼部に導く光学ファインダと、前記撮像素子に結像された画像である撮影画像を表示する表示手段と、前記表示手段に表示された撮影画像を前記光学像に重畳表示させる重畳表示手段と、前記光学ファインダの光路中に配置された遮光手段であって、領域毎に遮光状態と非遮光状態とを切り替え可能な遮光手段と、被写体距離と前記光学ファインダのケラレ領域との関係を記憶する記憶手段と、を備えたファインダの表示方法であって、
     焦点距離を取得するステップと、
     前記取得された焦点距離と前記記憶された焦点距離と前記光学ファインダのケラレ領域との関係に基づいて前記光学ファインダのケラレ領域を求めるステップと、
     前記求められたケラレ領域を遮光状態とし、当該遮光状態とした領域以外の領域を非遮光状態とするように前記遮光手段を制御するステップと、
     前記表示手段に前記撮影画像の前記遮光状態とした領域に相当する領域を表示するステップと、
     を備えたファインダの表示方法。
PCT/JP2012/077179 2011-11-08 2012-10-22 撮影装置及びファインダの表示方法 WO2013069437A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013542909A JP5530569B2 (ja) 2011-11-08 2012-10-22 撮影装置及びファインダの表示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-244691 2011-11-08
JP2011244691 2011-11-08

Publications (1)

Publication Number Publication Date
WO2013069437A1 true WO2013069437A1 (ja) 2013-05-16

Family

ID=48289820

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/077179 WO2013069437A1 (ja) 2011-11-08 2012-10-22 撮影装置及びファインダの表示方法

Country Status (2)

Country Link
JP (1) JP5530569B2 (ja)
WO (1) WO2013069437A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0622185A (ja) * 1992-07-03 1994-01-28 Sony Corp 撮影装置におけるビューフアインダー
JP2011082850A (ja) * 2009-10-08 2011-04-21 Nikon Corp 撮像装置及び画像表示プログラム
JP2012065283A (ja) * 2010-09-17 2012-03-29 Fujifilm Corp 撮像装置、表示装置、表示装置の表示制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0622185A (ja) * 1992-07-03 1994-01-28 Sony Corp 撮影装置におけるビューフアインダー
JP2011082850A (ja) * 2009-10-08 2011-04-21 Nikon Corp 撮像装置及び画像表示プログラム
JP2012065283A (ja) * 2010-09-17 2012-03-29 Fujifilm Corp 撮像装置、表示装置、表示装置の表示制御方法

Also Published As

Publication number Publication date
JPWO2013069437A1 (ja) 2015-04-02
JP5530569B2 (ja) 2014-06-25

Similar Documents

Publication Publication Date Title
JP5054583B2 (ja) 撮像装置
US9258545B2 (en) Stereoscopic imaging apparatus
US8988579B2 (en) Imaging apparatus
JP5676988B2 (ja) 焦点調節装置
US9247112B2 (en) Imaging device and method for displaying electronic viewfinder
JP5607260B2 (ja) 撮影装置、撮影方法及びプログラム
JP5567140B2 (ja) 撮影装置
JPWO2013153712A1 (ja) レンズ交換式カメラ及びファインダの表示方法
JP4745077B2 (ja) 撮像装置
WO2017086065A1 (ja) 撮影装置及びその制御方法
JP2007225897A (ja) 合焦位置決定装置及び方法
JP5525659B2 (ja) 撮像装置、ファインダ及びその表示方法
JP4957435B2 (ja) 撮像装置
JP4925168B2 (ja) 撮像方法および装置
CN106993110B (zh) 摄像设备及其控制方法
JP5457240B2 (ja) 立体撮像装置
JP5530569B2 (ja) 撮影装置及びファインダの表示方法
JP5643464B2 (ja) 画像表示装置
US10567662B2 (en) Imaging device and control method therefor using shift direction calculation
JP2007036983A (ja) レンズ交換可能なデジタルカメラ
JP2018066982A (ja) 撮像装置、撮像装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12848040

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013542909

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12848040

Country of ref document: EP

Kind code of ref document: A1