WO2013136907A1 - 撮像装置及び電子ビューファインダ表示方法 - Google Patents

撮像装置及び電子ビューファインダ表示方法 Download PDF

Info

Publication number
WO2013136907A1
WO2013136907A1 PCT/JP2013/053636 JP2013053636W WO2013136907A1 WO 2013136907 A1 WO2013136907 A1 WO 2013136907A1 JP 2013053636 W JP2013053636 W JP 2013053636W WO 2013136907 A1 WO2013136907 A1 WO 2013136907A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical system
image
distortion
distortion aberration
correction
Prior art date
Application number
PCT/JP2013/053636
Other languages
English (en)
French (fr)
Inventor
峻介 宮城島
伸一郎 藤木
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2014504749A priority Critical patent/JP5650351B2/ja
Priority to CN201380013896.0A priority patent/CN104170365B/zh
Publication of WO2013136907A1 publication Critical patent/WO2013136907A1/ja
Priority to US14/479,669 priority patent/US9247112B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/06Viewfinders with lenses with or without reflectors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"

Definitions

  • the present invention relates to an imaging apparatus and an electronic viewfinder display method, and more particularly to an imaging apparatus and an electronic viewfinder display method capable of switching between an electronic viewfinder and an optical viewfinder.
  • OVF optical viewfinder
  • EVF ElectronicElectroView Finder
  • OVF has certain advantages over EVF, such as “no delay in response to display”, “display image is clear”, “it is easy to determine the composition because it can be seen outside the shooting range (by method)” There is.
  • EVF has advantages over OVF, such as “display of reproduced images and menus (including superimposed display)”. Therefore, in a digital camera (imaging device) including both OVF and EVF, it is preferable that OVF / EVF can be switched as appropriate according to the situation.
  • an imaging apparatus including an electronic viewfinder is described in, for example, Patent Document 1 and Patent Document 2.
  • an eyepiece window includes a first display area in which a subject image is observed as an optical image and a second display area in which an electronic image photoelectrically converted by the imaging device displayed by a display unit is observed.
  • the electronic image is preliminarily distorted by image processing so that the finder device that can be observed simultaneously through the optical system and the distortion of the light flux that occurs when passing through the optical system when observing from the eyepiece window are offset.
  • an imaging apparatus having display control means for displaying on the display means is disclosed.
  • Japanese Patent Application Laid-Open No. 2004-228561 displays an image capturing unit that captures an image of a subject via an image capturing optical system and outputs an image signal, an image processing unit that generates image data based on the image signal, and an image based on the image data.
  • an imaging apparatus that includes a first display unit that performs visual recognition and an optical system capable of visually recognizing an image, and the image processing unit generates image data so as to correct optical aberration of the visual optical system.
  • an imaging apparatus that can electrically correct optical aberrations such as chromatic aberration of magnification and distortion caused by a loupe lens of an electronic viewfinder so that a user can observe a subject image that has no color blur or distortion. It is said.
  • Patent Document 1 and Patent Document 2 both correct an electronic image displayed on the electronic viewfinder so that distortion is eliminated, switching between an OVF image and an EVF image is performed. There is a problem that the user (observer) feels uncomfortable due to the difference between the distortion aberration of the OVF image and the distortion aberration of the EVF image.
  • the present invention intends to provide an imaging apparatus and an electronic viewfinder display method that do not make the user feel uncomfortable even when switching between an OVF image and an EVF image.
  • the imaging apparatus of the present invention includes an optical system from an imaging lens to an imaging element on which a subject image is formed, and a display device that displays an electronic image of the subject that is an image formed on the imaging element.
  • a first optical system combined with an optical system up to the eyepiece, a second optical system that guides an optical image of a subject to the eyepiece, distortion information about the first optical system, Based on the distortion aberration information related to the second optical system, the electronic image of the subject is corrected so as to cause the same distortion aberration as the distortion aberration of the second optical system to be displayed on the display device. Means.
  • the correction unit calculates the absolute value ⁇ of the difference between the distortion aberration related to the first optical system and the distortion aberration related to the second optical system, and ⁇ is equal to or less than a preset threshold value. In this case, the distortion aberration correction is not performed, and the distortion aberration correction is performed in a state where ⁇ is larger than the threshold value.
  • the imaging lens is exchangeable, and distortion information for acquiring distortion aberration information regarding at least one of the first optical system and the second optical system is obtained.
  • An information acquisition means wherein the distortion aberration information acquisition means is from a storage means provided in the imaging lens, from a storage means provided in the main body of the imaging device, or via wired or wireless communication Distortion information about at least one of the first optical system and the second optical system is acquired from outside the main body of the imaging apparatus.
  • the imaging apparatus of the present invention further includes distortion aberration information acquisition means for acquiring distortion aberration information related to at least one of the first optical system and the second optical system, and the distortion aberration information.
  • the acquisition means reacquires distortion aberration information relating to the first optical system in a state where the lens is exchanged or in a state where lens zooming is performed in the first optical system, and in the second optical system.
  • distortion information about the second optical system is re-acquired in a state where the lens is added or removed, or in a state where lens zooming is performed, and the correction means is based on the re-acquired distortion aberration information. The distortion is corrected.
  • the correction unit changes from the mode in which the optical image from the second optical system is displayed on the eyepiece to the mode in which the electronic image from the first optical system is displayed on the eyepiece.
  • the distortion is corrected in the switched state.
  • the correction unit is configured to display the electronic image from the first optical system on the eyepiece, and display the optical image from the second optical system on the eyepiece.
  • the distortion aberration correction is not performed, and the distortion aberration correction is performed in the state in which the fixed mode is released.
  • the correction means is not in a superimposed display mode in which the electronic image from the first optical system and the optical image from the second optical system are superimposed on the eyepiece. Then, distortion aberration correction is performed when the superimposed display mode is entered without performing distortion aberration correction.
  • the electronic viewfinder display method of the present invention includes an optical system from an imaging lens to an imaging device to which a subject image is combined, and a display device that displays an electronic image of the subject that is an image formed on the imaging device. Based on the distortion information about the first optical system combined with the optical system up to the eyepiece of the viewfinder and the distortion information about the second optical system that guides the optical image of the subject to the eyepiece, Distortion correction for generating the same distortion aberration as that generated in the optical system 2 is performed on the electronic image and displayed on the display device.
  • FIG. 1 is a block diagram showing an embodiment of an imaging apparatus according to the present invention.
  • the imaging device 1 is a digital camera that records captured still images and moving images on a memory card 10, and the operation of the entire camera is centrally controlled by a central processing unit (CPU) 12.
  • CPU central processing unit
  • the operation unit 14 of the imaging apparatus 1 includes a power switch, a shutter button, an optical viewfinder mode, an electronic viewfinder mode, an optical-electronic superposition viewfinder mode, a macro mode, a still image shooting mode, a moving image shooting mode, a playback mode, and an automatic focus adjustment (AF mode), a mode selector switch for switching manual focus adjustment (MF mode), and the like, and a multifunction cross key for outputting various command signals such as zoom and frame advance.
  • Various operation signals from the operation unit 14 are applied to the CPU 12.
  • the image light indicating the subject is imaged on the light receiving surface of the image pickup device (CCD) 20 through the focus lens that can be moved manually, the image pickup optical system 16 including the image pickup lens, and the diaphragm 18. Is done.
  • the signal charge accumulated in the CCD 20 is sequentially read out as a voltage signal corresponding to the signal charge by a transfer pulse applied from the CCD driver 22.
  • the CCD 20 has a so-called electronic shutter function that controls the charge accumulation time (shutter speed) of each photosensor according to the timing of the shutter gate pulse.
  • the voltage signal sequentially read from the CCD 20 is applied to the analog processing unit 24.
  • the analog processing unit 24 includes signal processing circuits such as a sampling hold circuit, a color separation circuit, and a gain adjustment circuit.
  • the analog processing unit 24 performs correlated double sampling (CDS) processing and color separation processing on each of the R, G, and B color signals.
  • CDS correlated double sampling
  • the signal level is adjusted (pre-white balance processing).
  • the signal output from the analog processing unit 24 is converted into a digital signal (hereinafter referred to as “CCDRAW data”) by the A / D converter 26 and then stored in a temporary storage device 28 such as an SDRAM.
  • the temporary storage device 28 has a storage capacity capable of temporarily storing a plurality of CCDRAW data.
  • the storage capacity of the temporary storage device 28 is not limited to this.
  • the timing generator (TG) 30 provides timing signals to the CCD driver 22, the analog processing unit 24 and the A / D converter 26 in accordance with instructions from the CPU 12, and the circuits are synchronized by this timing signal. ing.
  • the ROM 32 stores programs and adjustment values in advance, and these programs and adjustment values are read as appropriate.
  • the signal processing unit 34 adjusts the gains of the R, G, and B signals to perform white balance (WB) correction, and has a predetermined gamma characteristic for each of the WB corrected R, G, and B signals.
  • a gamma correction unit that performs gamma correction according to the stored ROM table, a color interpolation processing unit that performs color interpolation processing corresponding to the color filter array of the CCD 20, and generation processing (YC conversion) of luminance data Y and color difference data Cr and Cb.
  • a YC processing unit that performs an edge enhancement by adding an aperture signal to the luminance data Y, a noise reduction processing unit that performs a noise reduction process such as a smoothing process and a median filter process, and color difference data Cr and Cb
  • a saturation emphasizing unit that increases or decreases the gain of the signal, and sequentially performs signal processing on the CCDRAW data stored in the temporary storage device 28 by each processing unit.
  • the image data processed by the signal processing unit 34 is encoded by the video encoder 38 and output to a small liquid crystal display unit (LCD) 40 that is a display device, whereby the subject image is displayed on the display screen of the LCD 40.
  • LCD liquid crystal display unit
  • images continuously shot at a predetermined interval by the CCD 20 are processed for image display, then output to the LCD 40 and displayed as a live view image (through image).
  • the CCDRAW data photographed through the photographing optical system 16 and the CCD 20 and stored in the temporary storage device 28 is subjected to various signal processing by the signal processing unit 34 and converted into YC data. Thereafter, the YC data is output to the compression / decompression processing unit 36, and a predetermined compression process such as JPEG (Joint Photographic Experts Group) is executed.
  • JPEG Joint Photographic Experts Group
  • the automatic exposure (AE) detection unit 37 for example, integrates the G signals of the entire image, or integrates the G signals that are weighted differently in the central part and the peripheral part of the screen, and outputs the integrated value to the CPU 12.
  • the CPU 12 calculates the brightness of the subject (shooting Ev value) from the integrated value input from the AE detection unit 37, and sets the F value of the diaphragm 18 and the electronic shutter (shutter speed) of the CCD 20 based on the shooting Ev value.
  • the diaphragm 18 is controlled based on the determined F value
  • the charge accumulation time in the CCD 20 is controlled via the CCD driver 22 based on the determined shutter speed.
  • the focus shift amount calculation unit 46 detects the phase difference of the parallax image in the predetermined focus area among the parallax images obtained from the phase difference pixels of the CCD 20 including the phase difference pixel, and uses this as the information indicating the phase difference. Based on this, the amount of defocus (defocus amount) is obtained.
  • the amount of focus deviation is based on an output signal of a known phase difference sensor or the like including a separator lens and a sensor for detecting the imaging position of two images separated by the separator lens. May be detected.
  • the focus shift amount calculated by the focus shift amount calculation unit 46 can be used to control the focus lens of the photographing optical system 16 so that the focus shift amount becomes 0 in the AF mode, and will be described later. In addition, it is used for display control of a through image on the LCD 40 in the MF mode.
  • the focus lens position of the photographing optical system 16 is detected by the position sensor 48 and sent to the CPU 12. Based on the detection output of the position sensor 48, the CPU 12 determines the distance of the subject that is in focus according to the current position of the focus lens. Note that the position of the focus lens and the subject distance corresponding to the position are stored in advance in the ROM 32 or the like, and the CPU 12 reads the subject distance corresponding to the position of the focus lens from the ROM 32. Further, the subject distance may be measured by a baseline long triangular distance measuring sensor or the like. The subject distance measured in this way can be used to control the focus lens of the photographing optical system 16 in the AF mode, and can be used for display control of a through image on the LCD 40 in the MF mode as will be described later. used.
  • the position sensor 48 also detects the position (zoom position) of the zoom lens of the photographing optical system 16 and outputs information on the zoom position to the CPU 12.
  • the imaging apparatus 1 includes an optical viewfinder (OVF) having an objective lens 50, an eyepiece lens 52, a viewfinder variable magnification lens 80, and a liquid crystal shutter 82.
  • OVF optical viewfinder
  • the liquid crystal shutter 82 is controlled by the CPU 12 and is in a transmissive state when the optical viewfinder is used. As a result, the optical image of the subject passes through the liquid crystal shutter 82 and can be observed by the eyepiece lens 52 through the objective lens 50.
  • a finder variable magnification lens 80 is provided between the liquid crystal shutter 82 and the objective lens 50 so that it can be inserted / removed manually or by an instruction from the CPU 12.
  • the finder variable magnification lens 80 By inserting the finder variable magnification lens 80 between the liquid crystal shutter 82 and the objective lens 50, an optical image enlarged by the finder variable magnification lens 80 from the eyepiece lens 52 can be observed.
  • lenses having various other characteristics can be provided so as to be detachable. Thereby, an optical image reflecting the characteristics of the lens can be observed from the eyepiece lens 52.
  • the finder variable magnification lens 80 is inserted between the liquid crystal shutter 82 and the objective lens 50 is detected by a sensor (not shown) provided in the vicinity of the finder variable magnification lens 80, and the CPU 12. Sent to. As a result, the CPU 12 can perform various controls according to the presence or absence of the finder variable magnification lens 80.
  • a beam splitter 54 is provided between the objective lens 50 and the eyepiece lens 52.
  • the beam splitter 54 synthesizes the optical image of the subject incident on the objective lens 50 and the through image displayed on the LCD 40. Used as a means to That is, the optical image incident on the objective lens 50 can be observed by the eyepiece 52 through the beam splitter 54, and the through image displayed on the LCD 40 is reflected at a right angle by the beam splitter 54 and the eyepiece. 52 can be observed.
  • the LCD 40, the beam splitter 54, and the eyepiece lens 52 constitute an electronic viewfinder (EVF) that can observe a through image.
  • EMF electronic viewfinder
  • the liquid crystal shutter 82 in a light-shielded state, only the image from the LCD 40 can be observed from the eyepiece lens 52.
  • the liquid crystal shutter 82 in a transmissive state, it is possible to superimpose a through image of the LCD 40 and an optical image transmitted through the objective lens 50.
  • the imaging apparatus 1 includes a hybrid finder that enables OVF optical image display, EVF image display, and superimposed display of OVF and EVF images.
  • the parallax is generated between the optical image and the through image in the predetermined focus area according to the distance of the subject in the focus area.
  • the CPU 12 moves the display position of the through image displayed on the LCD 40 to correct the parallax generated according to the obtained subject distance. As a result, the optical image in the focus area and the through image can be displayed so as to match.
  • FIG. 2 is a block diagram for explaining the OVF and EVF optical systems and signal processing.
  • the imaging apparatus mainly includes a first optical system (EVF optical system) 200, a second optical system (OVF optical system) 210, and correction means 220.
  • the first optical system 200 is a display device that displays an optical system from the imaging optical system 16 including an imaging lens to the CCD 20 that is an imaging device, and an electronic image of a subject that is an image formed on the CCD 20.
  • An optical system from the LCD 40 to the eyepiece 52 which is the eyepiece of the finder is configured.
  • the first optical system 200 can include a photographing optical system 16, a diaphragm 18, a CCD 20, an LCD 40, a liquid crystal plate lens 41, a beam splitter 54, and an eyepiece lens 52.
  • the subject image formed on the CCD 20 through the photographing optical system 16 is electronically corrected by the correcting means 220, encoded by the video encoder 38, and displayed on the LCD 40.
  • the subject image displayed on the LCD 40 passes through the liquid crystal plate lens 41, is bent at a right angle by the beam splitter 54, and reaches the eyepiece lens 52.
  • the second optical system 210 is an optical system that guides an optical image of a subject image to the eyepiece 52 that is an eyepiece, and includes a liquid crystal shutter 82, a viewfinder variable magnification lens 80, an objective lens 50, a beam splitter 54, and the like. Eyepiece 52 may be included. In the second optical system, the optical image of the subject that has passed through the liquid crystal shutter 82 reaches the eyepiece lens 52 through the finder variable magnification lens 80 and the beam splitter 54.
  • the optical components shown in the first optical system 200 and the second optical system 210 are examples, and various optical components can be appropriately combined depending on how the optical systems are assembled.
  • FIG. 2 an optical system having no optical components common to the optical system from the subject to the CCD 20 and the second optical system is described as an example, but for example, the CCD 20 from the subject can be used like a single-lens reflex camera.
  • An optical system in which a common part exists between the above optical system and the second optical system is also included in the scope of the present invention.
  • the first optical system includes the optical system from the imaging lens to the imaging element, and the display device that displays the electronic image of the subject that is an image formed on the imaging element, and the eyepiece of the finder. It means an optical system composed of up to the optical system.
  • the second optical system means an optical system that guides the optical image of the subject image to the eyepiece.
  • the correction means 220 is based on the distortion aberration (distortion) information related to the first optical system (EVF optical system) 200 and the distortion aberration information related to the second optical system (OVF optical system) 210.
  • the electronic image of the subject obtained by the CCD 20 is corrected so as to generate distortion similar to the generated distortion, and displayed on the LCD 40.
  • FIG. 3 is a graph showing conventional distortion correction
  • FIG. 4 is a graph showing distortion correction according to the present invention.
  • the horizontal axis indicates the image height in [mm] units
  • the vertical axis indicates the distortion ratio.
  • the ratio of distortion represents the ratio of how much the image is distorted at each image height when the origin is the optical axis.
  • the lens DST [lens distortion (distortion) of the lens] is corrected so as to eliminate the distortion. Thereby, the observer can see an image without distortion.
  • an observer feels uncomfortable because the OVF image in which distortion is present is switched to the EVF image from which distortion is removed by correction.
  • the DST [distortion aberration (distortion)] of the EVF optical system is matched with the distortion aberration of the OVF optical system, that is, similar to the distortion generated in the OVF optical system. Correction is applied to the electronic image of the subject so that distortion occurs. Thereby, even if it switches from OVF to EVF, since the distortion of an image is the same, an observer does not feel discomfort.
  • FIG. 11 is an explanatory diagram showing the distortion aberration of OVF and EVF as an image
  • the distortion aberration of the OVF image and the distortion aberration of the EVF image are different (FIG. 11).
  • the left hand side of FIG. 4 the observer feels uncomfortable when the OVF image is switched to the EVF image.
  • FIG. 11 shows the distortion aberration of the OVF image and the distortion aberration of the EVF image as examples of the image, and the present invention is not limited to such distortion aberration.
  • the distortion aberration information is acquired by the distortion aberration information acquisition means 230 here.
  • the distortion aberration information acquisition unit 230 may acquire distortion aberration information from the temporary storage device 28 or may acquire distortion aberration information from the ROM 32.
  • the distortion aberration information acquisition unit 230 may acquire the distortion aberration information from a storage unit provided in, for example, the imaging lens of the photographing optical system 16.
  • the distortion aberration information acquisition unit 230 includes a wireless or wired communication unit, and acquires distortion aberration information from the outside of the imaging apparatus main body, for example, via the Internet or by WiFi or the like using this communication unit. You may do it.
  • FIG. 5 is a flowchart showing the operation of the second embodiment.
  • the distortion aberration information acquisition unit 230 acquires the distortion aberration value of the OVF (S51).
  • This distortion aberration information acquisition may be acquired from the storage unit of the imaging apparatus main body, or may be acquired from the outside of the imaging apparatus main body.
  • the distortion aberration information acquisition means 230 is a distortion of the lens of the EVF optical system from the camera that is the main body of the imaging apparatus, from the storage means provided in the imaging lens of the imaging optical system 16, or by communication (wired or wireless). An aberration value is acquired (S52).
  • the correction means 220 calculates the absolute value ⁇ of the difference between the EVF distortion aberration and the OVF distortion aberration obtained from the distortion aberration information acquisition means 230 (S53).
  • the correcting unit 220 determines whether or not the calculated ⁇ is larger than a preset threshold value (S54). As a result, if it is determined that ⁇ is larger than the threshold value, the next step S55 is executed. If it is determined that ⁇ is not larger than the threshold value, the display is switched from OVF to EVF without correction. (S57).
  • the comparison between ⁇ and the threshold value may be performed by the correction means, may be performed by the CPU, or may be performed by another part. What is necessary is just to consider it as the correction
  • step S55 the correction unit 220 calculates an EVF distortion correction amount such that the EVF image distortion is the same as the OVF image distortion based on the EVF optical system lens and OVF distortion information (step S55). S55).
  • the correction means 220 performs EVF distortion correction based on the calculated correction amount (S56), displays the corrected image on the LCD 40, and the CPU 12 sets the liquid crystal shutter 82 in a non-transparent state to the EVF image. Only to the eyepiece 52 (S57).
  • the correction unit 220 calculates the absolute value ⁇ of the difference between the distortion aberration related to the EVF optical system and the distortion aberration related to the OVF optical system, and ⁇ is larger than a predetermined threshold value. Only when the distortion of the EVF image is corrected to match the distortion of the OVF image. Thereby, when there is not much difference in distortion between EVF and OVF, that is, when the observer does not feel a sense of incongruity when switching from OVF to EVF without correction, correction is performed. Therefore, the burden on the electronic circuit such as the correction unit 220 and the CPU 12 can be reduced, and the battery life can be improved by suppressing power consumption.
  • FIG. 6 is a flowchart showing the operation of the third embodiment.
  • the distortion aberration information acquisition unit 230 acquires the value of the distortion aberration of the OVF (S61).
  • This distortion aberration information acquisition may be acquired from the storage unit of the imaging apparatus main body, or may be acquired from the outside of the imaging apparatus main body.
  • the distortion aberration information acquisition means 230 is a distortion of the lens of the EVF optical system from the camera that is the main body of the imaging apparatus, from the storage means provided in the imaging lens of the imaging optical system 16, or by communication (wired or wireless). An aberration value is acquired (S62).
  • the correction means 220 calculates the absolute value of the difference ⁇ between the EVF distortion aberration and the OVF distortion aberration obtained from the distortion aberration information acquisition means 230 (S63).
  • the correcting unit 220 determines whether or not the calculated ⁇ is larger than a preset threshold value (S64). As a result, if it is determined that ⁇ is larger than the threshold value, the next step S65 is executed. If it is determined that ⁇ is not larger than the threshold value, the display is switched from OVF to EVF without correction. (S69).
  • the comparison between ⁇ and the threshold value may be performed by the correction means, may be performed by the CPU, or may be performed by another part. What is necessary is just to consider it as the correction
  • step S65 the correction unit 220 calculates an EVF distortion correction amount such that the EVF image distortion is the same as the OVF image distortion based on the EVF optical system lens and OVF distortion information (step S65). S65). The correcting unit 220 performs EVF distortion correction based on the calculated correction amount (S66).
  • Step S68 is executed.
  • whether or not zooming is present can be determined based on information from the CPU 12 as to whether or not the CPU 12 has controlled the zoom lens of the photographing optical system 16 to perform a zooming operation.
  • the determination may be made based on a signal from a sensor that can detect the presence or absence of zooming provided in the zoom lens.
  • it can be performed based on a general technique that can be used to determine whether or not zooming has occurred.
  • the distortion aberration information acquisition unit 230 determines whether or not the lens constituting the photographing optical system 16 has been replaced. If it is determined that the lens has been replaced, the process returns to step S61 and is executed from there to determine that the lens has been replaced. If not, step S69 is executed next.
  • step S69 the correction unit 220 displays an image on the LCD 40, and the CPU 12 sets the liquid crystal shutter 82 in an opaque state so that only the EVF image is guided to the eyepiece lens 52 (S69).
  • the distortion aberration information acquisition unit 230 again acquires the distortion aberration information after the change. Therefore, an EVF image having the same distortion as that of the OVF image can always be displayed in response to the change in distortion. Therefore, in FIG. 6, as an example, the lens zooming and the lens exchange are given as events in which the distortion aberration information of the EVF optical system changes, but the present invention is not limited to this, and the distortion aberration of the EVF optical system is not limited thereto. All events in which information changes are included in the scope of the present invention.
  • FIG. 7 is a flowchart showing the operation of the fourth embodiment.
  • the distortion aberration information acquisition unit 230 acquires a distortion aberration value of OVF (S71).
  • This distortion aberration information acquisition may be acquired from the storage unit of the imaging apparatus main body, or may be acquired from the outside of the imaging apparatus main body.
  • the distortion aberration information acquisition means 230 is a distortion of the lens of the EVF optical system from the camera that is the main body of the imaging apparatus, from the storage means provided in the imaging lens of the imaging optical system 16, or by communication (wired or wireless). An aberration value is acquired (S72).
  • the correction means 220 calculates the absolute value of the difference ⁇ between the EVF distortion aberration and the OVF distortion aberration obtained from the distortion aberration information acquisition means 230 (S73).
  • the correcting unit 220 determines whether or not the calculated ⁇ is larger than a preset threshold value (S74). As a result, when it is determined that ⁇ is larger than the threshold value, the next step S75 is executed, and when it is determined that ⁇ is not larger than the threshold value, step S77 is executed without performing correction.
  • the comparison between ⁇ and the threshold value may be performed by the correction means, may be performed by the CPU, or may be performed by another part. What is necessary is just to consider it as the correction
  • step S75 the correction unit 220 calculates the EVF distortion correction amount such that the EVF image distortion is the same as the OVF image distortion based on the EVF optical system lens and OVF distortion information (step S75). S75). The correcting unit 220 performs EVF distortion correction based on the calculated correction amount (S76).
  • the distortion aberration information acquisition means 230 determines whether or not the OVF optical system has been scaled, that is, whether or not the finder zoom lens 80 of FIG. 2 has been inserted into or removed from the OVF optical system (S77). If it is determined, the process returns to step S71 to execute, and if it is not determined that it has been inserted / removed, the next step S78 is executed.
  • step S78 the correction unit 220 displays an image on the LCD 40, and the CPU 12 sets the liquid crystal shutter 82 in an opaque state so that only the EVF image is guided to the eyepiece lens 52 (S78).
  • the distortion aberration information acquisition unit 230 again acquires the distortion aberration information after the change. Therefore, an EVF image having the same distortion as that of the OVF image can always be displayed in response to the change in distortion. Therefore, in FIG. 7, as an example, the change of the OVF optical system is given as an event in which the distortion information of the OVF optical system changes.
  • the present invention is not limited to this. All events in which distortion information of the OVF optical system changes, such as lens zooming, are included in the scope of the present invention.
  • the correction unit 220 when the OVF mode for displaying the OVF image on the eyepiece is forcibly switched to the EVF mode for displaying the EVF image on the eyepiece, the correction unit 220 is configured to display the OVF image.
  • the EVF image is corrected so as to have the same distortion.
  • FIG. 8 is a flowchart showing the operation of the fifth embodiment.
  • it is determined whether or not the OVF mode is forcibly switched to the EVF mode.
  • the next step S82 is executed to determine that the mode is forcibly switched. If not, step S81 is executed all the time (S81).
  • the CPU 12 can determine whether or not the switch has been forcibly switched, and the CPU 12 can control the operation of the distortion aberration information acquisition unit 230 and the correction unit 220 based on the determination.
  • the determination subject is not limited to the CPU 12, but may be performed by the correction unit 220, the distortion aberration information acquisition unit, or others.
  • the OVF optical system first optical system 200
  • the EVF optical system second optical system 210
  • the OVF mode is used to prevent the occurrence of parallax.
  • control for forcibly switching from the EVF mode to the EVF mode is performed.
  • the distortion aberration information acquisition unit 230 acquires the distortion aberration value of the OVF (S82).
  • This distortion aberration information acquisition may be acquired from the storage unit of the imaging apparatus main body, or may be acquired from the outside of the imaging apparatus main body.
  • the distortion aberration information acquisition means 230 is a distortion of the lens of the EVF optical system from the camera that is the main body of the imaging apparatus, from the storage means provided in the imaging lens of the imaging optical system 16, or by communication (wired or wireless). The value of aberration is acquired (S83).
  • step S84 the correction unit 220 corrects the EVF distortion aberration so that the distortion of the EVF image is the same as the distortion of the OVF image based on the distortion aberration information of the EVF optical system lens and the OVF optical system.
  • the amount is calculated (S84).
  • the correction means 220 performs EVF distortion correction based on the calculated correction amount (S85), and switches from the EVF image to the OVF image for display (S86).
  • the mode in the case where the mode cannot be switched between the OVF mode for displaying the OVF image on the eyepiece and the EVF mode for displaying the EVF image on the eyepiece, The correction is not performed.
  • the burden on the electronic circuit such as the correction unit 220 and the CPU 12 can be reduced. Battery life can be improved by reducing power consumption.
  • the mode that cannot be switched between the OVF mode and the EVF mode is, for example, the macro mode.
  • the macro mode it is normally fixed to the EVF mode, and is set so that it cannot be switched to the OVF mode in order to prevent the occurrence of parallax.
  • the case where the mode cannot be switched between the OVF mode and the EVF mode is not limited to the macro mode. Further, both the case where the OVF mode cannot be switched to the EVF mode and the case where the EVF mode cannot be switched to the OVF mode are both included in the scope of the present invention.
  • FIG. 9 is a flowchart showing the operation of the sixth embodiment.
  • the mode is “a mode in which switching is not performed” or “not” from the OVF mode to the EVF mode or from the EVF mode to the OVF mode. Is executed, and when it is determined that the mode is not switched, this step S91 is executed all the time (S91).
  • the CPU 12 can determine whether the mode is “no switching mode” or “no”, and the CPU 12 controls the operation of the distortion aberration information acquisition unit 230 and the correction unit 220 based on the determination. be able to.
  • the determination subject is not limited to the CPU 12, but may be performed by the correction unit 220, the distortion aberration information acquisition unit, or others.
  • the distortion aberration information acquisition unit 230 acquires a distortion aberration value of the OVF (S92).
  • This distortion aberration information acquisition may be acquired from the storage unit of the imaging apparatus main body, or may be acquired from the outside of the imaging apparatus main body.
  • the distortion aberration information acquisition means 230 is a distortion of the lens of the EVF optical system from a camera which is the main body of the imaging apparatus, from a storage means provided in an imaging lens of the imaging optical system 16, or by communication (wired or wireless). An aberration value is acquired (S93).
  • step S94 the correction unit 220 corrects EVF distortion aberration so that the distortion of the EVF image is the same as the distortion of the OVF image, based on the distortion aberration information of the EVF optical system lens and the OVF optical system.
  • the amount is calculated (S94).
  • the correction means 220 performs EVF distortion correction based on the calculated correction amount (S95), and switches from the EVF image to the OVF image for display (S96).
  • an OVF image and an EVF image are superimposed and projected on the eyepiece lens 52.
  • an EVF image is formed so as to have the same distortion aberration as that of the OVF image, and is superimposed on the OVF image.
  • the two images are completely overlapped with each other, so that there is no sense of incongruity.
  • FIG. 10 is a flowchart showing the operation of the seventh embodiment.
  • the CPU 12 can determine whether the mode is “overlapping display mode” or “no”, and the CPU 12 controls the operation of the distortion aberration information acquisition unit 230 and the correction unit 220 based on the determination. It can be carried out.
  • the determination subject is not limited to the CPU 12, but may be performed by the correction unit 220, the distortion aberration information acquisition unit, or others.
  • step S100 when it is determined that “the mode is a superimposed display mode”, the distortion aberration information acquisition unit 230 acquires the distortion aberration value of the OVF (S101).
  • This distortion aberration information acquisition may be acquired from the storage unit of the imaging apparatus main body, or may be acquired from the outside of the imaging apparatus main body.
  • the distortion aberration information acquisition means 230 is a distortion of the lens of the EVF optical system from the camera that is the main body of the imaging apparatus, from the storage means provided in the imaging lens of the imaging optical system 16, or by communication (wired or wireless). An aberration value is acquired (S102).
  • step S94 the correction unit 220 corrects EVF distortion aberration so that the distortion of the EVF image is the same as the distortion of the OVF image, based on the distortion aberration information of the EVF optical system lens and the OVF optical system.
  • the amount is calculated (S103).
  • the correction unit 220 performs EVF distortion correction based on the calculated correction amount (S104), and superimposes and displays the EVF image and the OVF image (S105).
  • SYMBOLS 1 Imaging device, 10 ... Memory card, 14 ... Operation part, 16 ... Shooting optical system, 22 ... Driver, 24 ... Analog processing part, 26 ... Converter, 28 ... Temporary storage device, 34 ... Signal processing part, 36 ... Compression / decompression processing unit, 37 ... detection unit, 38 ... video encoder, 41 ... liquid crystal plate lens, 42 ... media controller, 44 ... card interface, 46 ... quantity calculation unit, 48 ... position sensor, 50 ... objective lens, 52 ... eyepiece Lens 54, beam splitter 80 finder variable magnification lens 82 liquid crystal shutter 200 200 first optical system 210 second optical system 220 correction means 230 distortion aberration information acquisition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)

Abstract

OVF画像とEVF画像とを切り替えても歪曲収差の違いによる違和感を覚えることがない撮像装置を提供する。撮像レンズから被写体像が結像される撮像素子までの光学系と、前記撮像素子に結像された画像である被写体の電子像が表示される表示装置からファインダの接眼部までの光学系とを合わせた第1の光学系と、被写体の光学像を前記接眼部まで導く第2の光学系と、前記第1の光学系に関する歪曲収差情報と、前記第2の光学系に関する歪曲収差情報とに基づいて、前記被写体の電子像を前記第2の光学系の歪曲収差と同一の歪曲収差が発生する歪曲収差補正を行って前記表示装置に表示させる補正手段と、を備えた撮像装置。

Description

撮像装置及び電子ビューファインダ表示方法
 本発明は、撮像装置及び電子ビューファインダ表示方法に関し、とくに電子ビューファインダと光学ビューファインダとの切り替えが可能な撮像装置及び電子ビューファインダ表示方法に関する。
 デジタルカメラ(撮像装置)の技術分野ではこれまで、撮影レンズ及び撮像素子等の撮影光学系により取得した被写体の電子像をカメラ本体の背面に設けた液晶モニタに表示して構図や合焦状態の確認を行うものが一般的であった。ところが近年、背面の液晶モニタとは別に構図や合焦状態確認のためのファインダを設けた機種が普及しつつある。このようなファインダの方式には光学式ビューファインダ(OVF:Optical View Finder、以下OVF)と電子式ビューファインダ(EVF:Electronic View Finder、以下EVF)とがあり、それぞれ長所・短所を有する。
 具体的にはOVFでは「表示に応答遅れがない」、「表示画像が鮮明である」、「(方式により)撮影範囲外が見えることで構図を決めやすい」等、EVFに対し一定の優位性がある。一方EVFはOVFに対し、「再生画像やメニューの表示(重畳表示を含む)が可能である」等、使用上の優位点がある。したがってOVFとEVFとの双方を備えるデジタルカメラ(撮像装置)においては、状況に応じて適宜OVF・EVFを切り替えられるようにすることが好ましい。
 電子ビューファインダを備えた撮像装置は、例えば特許文献1、特許文献2に記載されている。特許文献1には、被写体像が光学像として観察される第1表示領域と、表示手段により表示される前記撮像素子によって光電変換された電子画像が観察される第2表示領域とを、接眼窓から光学系を通して同時に観察可能であるファインダ装置と、前記接眼窓から観察したときに、前記光学系を通過することで生じる光束の歪みが相殺されるように、前記電子画像を予め画像処理により歪ませて前記表示手段に表示する表示制御手段とを有する撮像装置が開示されている。
 これにより、ファインダから目を離すことなく物体の光学像の観察を可能としたままで、電子画像をもって撮影された画像の状態、カメラの設定状態及び撮影補助情報を確認可能である。更に、ファインダ光学系を通過することで生じる歪みが目立たないように電子画像を予め画像処理するので、観察される電子画像は歪みの相殺された良好な画像になるとしている。
 また、特許文献2には、撮像光学系を介して被写体を撮像して画像信号を出力する撮像手段と、画像信号に基づいて画像データを生成する画像処理手段と、画像データに基づく画像を表示する第1の表示手段と、画像を視認できる視認光学系と、を備え、画像処理手段は、視認光学系が有する光学収差を補正するように画像データを生成する撮像装置について開示されている。
 これにより、電子式ビューファインダのルーペレンズによる倍率色収差及び歪曲収差などの光学収差を電気的に補正して、ユーザが色にじみ、歪み等の無い被写体画像を観察できる撮像装置を提供することができるとしている。
特開2010-16610号公報 特開2010-119029号公報
 しかしながら、特許文献1、特許文献2に開示されている撮像装置は、いずれも歪曲収差が無くなるように電子ビューファインダに表示される電子画像を補正するものなので、OVF画像とEVF画像とを切り替えると、ユーザ(観察者)は、OVF画像の歪曲収差とEVF画像の歪曲収差との違いにより違和感を覚えるという問題があった。
 本発明は、かかる実情に鑑み、OVF画像とEVF画像とを切り替えてもユーザが違和感を覚えない撮像装置及び電子ビューファインダ表示方法を提供しようとするものである。
 本発明の課題は、下記の各発明によって解決することができる。
  即ち、本発明の撮像装置は、撮像レンズから被写体像が結像される撮像素子までの光学系と、前記撮像素子に結像された画像である被写体の電子像が表示される表示装置からファインダの接眼部までの光学系とを合わせた第1の光学系と、被写体の光学像を前記接眼部まで導く第2の光学系と、前記第1の光学系に関する歪曲収差情報と、前記第2の光学系に関する歪曲収差情報とに基づいて、前記被写体の電子像を前記第2の光学系の歪曲収差と同一の歪曲収差が発生する歪曲収差補正を行って前記表示装置に表示させる補正手段と、を備えた。
 これにより、光学像と電子像とを切り替えても、どちらも同一の歪曲収差の画像なので違和感を覚えることがない。
 また、本発明の撮像装置は、補正手段は、第1の光学系に関する歪曲収差と第2の光学系に関する歪曲収差との差の絶対値αを算出し、αが予め設定された閾値以下の場合は歪曲収差補正を行わず、αが閾値より大きい状態で前記歪曲収差補正を行う。
 これにより、歪曲収差補正を行わなくても違和感を覚えない程度の歪曲収差の場合は、歪曲収差補正を行わないので、CPU等のリソースを消費せず、消費電力も低減できて電池寿命を延ばすことができる。
 更に、本発明の撮像装置は、前記撮像レンズが交換可能であり、前記第1の光学系と前記第2の光学系とのうち少なくともいずれか一方の光学系に関する歪曲収差情報を取得する歪曲収差情報取得手段を更に備え、前記歪曲収差情報取得手段は、前記撮像レンズに設けられた記憶手段から、または、前記撮像装置の本体に設けられた記憶手段から、または、有線または無線通信を介して前記撮像装置の本体の外部から、前記第1の光学系と前記第2の光学系とのうち少なくともいずれか一方の光学系に関する歪曲収差情報を取得する。
 これにより、歪曲収差情報を様々なところから取得が可能になり、例えば、撮像装置本体の外部から取得するときは、常に最新の歪曲収差情報を取得することが可能になる。
 更にまた、本発明の撮像装置は、第1の光学系と第2の光学系とのうち少なくともいずれか一方の光学系に関する歪曲収差情報を取得する歪曲収差情報取得手段を更に備え、歪曲収差情報取得手段は、第1の光学系内において、レンズが交換された状態で、または、レンズズーミングが成された状態で第1の光学系に関する歪曲収差情報を再取得し、第2の光学系内において、レンズが付加または取り除かれた状態で、または、レンズズーミングが成された状態で前記第2の光学系に関する歪曲収差情報を再取得し、補正手段は、再取得した歪曲収差情報に基づいて前記歪曲収差補正を行う。
 これにより、光学系の歪曲収差が変更されたときは、変更された歪曲収差の情報を再取得するので、常に第2の光学系の歪曲収差と第1の光学系の歪曲収差とを同じにすることができる。
 また、本発明の撮像装置は、補正手段は、第2の光学系からの光学像を接眼部に表示するモードから、第1の光学系からの電子像を接眼部に表示するモードに切り替えられた状態で、歪曲収差補正を行う。
 更に、本発明の撮像装置は、補正手段は、第1の光学系からの電子像を接眼部に表示するモードから、第2の光学系からの光学像を前記接眼部に表示するモードに切り替わらない固定モードの状態で、歪曲収差補正を行わず、固定モードが解除された状態で歪曲収差補正を行う。
  これにより、電子像と光学像とが切り替わらないために観察者が違和感を覚えることがない固定モードの場合は、歪曲収差補正を行わないので、CPU等のリソースを消費せず、消費電力も低減できて電池寿命を延ばすことができる。
 更にまた、本発明の撮像装置は、補正手段は、第1の光学系からの電子像と、第2の光学系からの光学像とを接眼部に重畳表示する重畳表示モードで無い状態で、歪曲収差補正を行わず、重畳表示モードになった際に歪曲収差補正を行う。
  これにより、重畳表示において電子像の歪曲収差と、光学像の歪曲収差とが一致しているので、重畳表示時に違和感を覚えることがない。また、重畳表示しないときは歪曲収差補正を行わないので、CPU等のリソースを消費せず、消費電力も低減できて電池寿命を延ばすことができる。
 また、本発明の電子ビューファインダ表示方法は、撮像レンズから被写体像が結合される撮像素子までの光学系と、撮像素子に結像された画像である被写体の電子像が表示される表示装置からファインダの接眼部までの光学系とを合わせた第1の光学系に関する歪曲収差情報と、被写体の光学像を接眼部まで導く第2の光学系に関する歪曲収差情報と、に基づいて、第2の光学系で発生する歪曲収差と同じ歪曲収差が発生する歪曲収差補正を前記電子像に対して行って前記表示装置に表示させる。
 これにより、光学像と電子像とを切り替えても、どちらも同一の歪曲収差の画像なので違和感を覚えることがない。
 OVF画像とEVF画像とを切り替えても歪曲収差の違いによる違和感を覚えることがない。
本発明に係る撮像装置の一実施形態を示すブロック図である。 OVFとEVFの光学系と信号処理を説明するためのブロック図である。 従来の歪曲収差補正を示すグラフである。 本発明の歪曲収差補正を示すグラフである。 第2の実施形態の動作を示すフロー図である。 第3の実施形態の動作を示すフロー図である。 第4の実施形態の動作を示すフロー図である。 第5の実施形態の動作を示すフロー図である。 第6の実施形態の動作を示すフロー図である。 第7の実施形態の動作を示すフロー図である。 OVFとEVFの歪曲収差をイメージで表した説明図である。
 以下、添付図面を参照しながら、本発明を実施するための形態を詳細に説明する。ここで、図中、同一の記号で示される部分は、同様の機能を有する同様の要素である。
 <撮像装置の全体構成>
 本発明に係る撮像装置の全体構成について図面を参照して説明する。図1は、本発明に係る撮像装置の一実施形態を示すブロック図である。
 図1に示すように、撮像装置1は、撮影した静止画や動画をメモリカード10に記録するデジタルカメラであり、カメラ全体の動作は、中央処理装置(CPU)12によって統括制御されている。
 撮像装置1の操作部14は、電源スイッチ、シャッタボタン、光学ファインダモード、電子ビューファインダモード、光学-電子重畳ファインダモード、マクロモード、静止画撮影モード、動画撮影モード、再生モード、自動焦点調節(AFモード)、手動焦点調節(MFモード)等を切り替えるためのモード切替スイッチ、ズームやコマ送り等の各種の指令信号を出力するマルチファンクションの十字キー等を含む。この操作部14からの各種の操作信号は、CPU12に加えられるようになっている。
 撮影モードが設定されると、被写体を示す画像光は、手動操作により移動可能なフォーカスレンズ、撮像レンズを含む撮影光学系16及び絞り18を介して撮像素子(CCD)20の受光面に結像される。CCD20に蓄積された信号電荷は、CCDドライバ22から加えられる転送パルスによって信号電荷に応じた電圧信号として順次読み出される。尚、CCD20は、シャッタゲートパルスのタイミングによって各フォトセンサの電荷蓄積時間(シャッタスピード)を制御する、いわゆる電子シャッタ機能を有している。
 このCCD20から順次読み出された電圧信号は、アナログ処理部24に加えられる。アナログ処理部24は、サンプリングホールド回路、色分離回路、ゲイン調整回路等の信号処理回路を含み、相関二重サンプリング(CDS)処理並びにR,G,Bの各色信号に色分離処理され、各色信号の信号レベルの調整(プリホワイトバランス処理)が行われる。アナログ処理部24から出力された信号は、A/D変換器26によりデジタル信号(以下「CCDRAWデータ」という)に変換された後、SDRAMなどの一時記憶装置28に記憶される。
 一時記憶装置28は、複数枚分のCCDRAWデータを一時記憶可能な記憶容量を有している。尚、一時記憶装置28の記憶容量はこれに限定されない。また、タイミングジェネレータ(TG)30は、CPU12の指令に従ってCCDドライバ22、アナログ処理部24及びA/D変換器26に対してタイミング信号を与えており、このタイミング信号によって各回路の同期が取られている。
 ROM32には、予めプログラムや調整値などが記憶されており、これらのプログラムや調整値は適宜読み出される。
 信号処理部34は、R、G、B信号のゲインを調整してホワイトバランス(WB)補正を行うWBゲイン部と、WB補正された各R、G、B信号に対して所定のガンマ特性が記憶されたROMテーブルに従ってガンマ補正するガンマ補正部と、CCD20のカラーフィルタ配列に対応した色補間処理を行う色補間処理部と、輝度データY及び色差データCr、Cbの生成処理(YC変換)を行うYC処理部と、輝度データYにアパーチャ信号を付加して輪郭強調を行う輪郭強調部と、平滑化処理、メディアンフィルタ処理などのノイズ低減処理を行うノイズ低減処理部と、色差データCr、Cbのゲインを増減する彩度強調部とを有しており、一時記憶装置28に記憶されたCCDRAWデータに対して各処理部で順次信号処理を行う。
 信号処理部34で処理された画像データは、ビデオエンコーダ38においてエンコーディングされ、表示装置である小型の液晶表示部(LCD)40に出力され、これにより被写体像がLCD40の表示画面上に表示される。
 尚、撮影準備段階では、CCD20により所定のインターバルで連続撮影された画像が、画像表示用の処理がされた後、LCD40に出力され、ライブビュー画像(スルー画)として表示される。
 一方、シャッタボタンの全押し時には、撮影光学系16及びCCD20を介して撮影され、一時記憶装置28に記憶されたCCDRAWデータは、信号処理部34で各種の信号処理が施されてYCデータに変換され、その後、YCデータは圧縮伸長処理部36に出力され、JPEG(Joint Photographic Experts Group)などの所定の圧縮処理が実行される。そして、圧縮処理された圧縮データは、メディアコントローラ42及びカードインタフェース44を介してメモリカード10に記録される。
 自動露出(AE)検出部37は、例えば、画像全体のG信号を積算し、又は画面中央部と周辺部とで異なる重み付けをしたG信号を積算し、その積算値をCPU12に出力する。CPU12は、AE検出部37から入力する積算値より被写体の明るさ(撮影Ev値)を算出し、この撮影Ev値に基づいて絞り18のF値及びCCD20の電子シャッタ(シャッタスピード)を所定のプログラム線図に従って決定し、その決定したF値に基づいて絞り18を制御するとともに、決定したシャッタスピードに基づいてCCDドライバ22を介してCCD20での電荷蓄積時間を制御する。
 また、ピントずれ量算出部46は、位相差画素を含むCCD20の位相差画素から得られる視差画像のうちの所定のフォーカスエリア内の視差画像の位相差を検出し、この位相差を示す情報に基づいてピントずれ量(デフォーカス量)を求める。尚、位相差画素を含むCCD20の代わりに、セパレータレンズ、該セパレータレンズにより分離した2つの像の結像位置を検出するセンサ等を含む公知の位相差センサ等の出力信号に基づいてピントずれ量を検出するようにしてもよい。
 このピントずれ量算出部46により算出されるピントずれ量は、AFモード時にピントずれ量が0になるように撮影光学系16のフォーカスレンズを制御するために使用することができるとともに、後述するようにMFモード時にLCD40上のスルー画の表示制御に使用される。
 また、撮影光学系16のフォーカスレンズ位置は、位置センサ48により検出され、CPU12に送られる。CPU12は、位置センサ48の検出出力に基づいて現在のフォーカスレンズの位置によりピントが合う被写体の距離を求める。尚、フォーカスレンズの位置とその位置に対応する被写体距離とは予めROM32等に記憶されており、CPU12は、このROM32からフォーカスレンズの位置に対応する被写体距離を読み出す。また、被写体距離の測定は、基線長三角測距センサ等により行うようにしてもよい。このようにして測距された被写体距離は、AFモード時に撮影光学系16のフォーカスレンズを制御するために使用することができるとともに、後述するようにMFモード時にLCD40上のスルー画の表示制御に使用される。前記位置センサ48は、撮影光学系16の変倍レンズの位置(ズーム位置)も検出し、そのズーム位置の情報をCPU12に出力する。
 更に、この撮像装置1は、対物レンズ50と、接眼レンズ52と、ファインダ変倍レンズ80と、液晶シャッタ82とを有する光学ファインダ(OVF)を備えている。この液晶シャッタ82は、CPU12によって制御され、光学ファインダを使用する場合には透過状態になる。これにより、被写体の光学像は、液晶シャッタ82を透過し、対物レンズ50を通して接眼レンズ52により観察可能になる。
 液晶シャッタ82と対物レンズ50との間には、ファインダ変倍レンズ80が手動により、或いは、CPU12の指示により挿脱可能に設けられている。ファインダ変倍レンズ80が液晶シャッタ82と対物レンズ50との間に挿入されることにより、接眼レンズ52からファインダ変倍レンズ80によって拡大された光学像を観察することができる。ここで、ファインダ変倍レンズ80の代わりに、或いは、同時に他の様々な特性を有するレンズを挿脱可能に設けることもできる。これにより、そのレンズの特性を反映した光学像を接眼レンズ52から観察することができる。
 また、ファインダ変倍レンズ80が液晶シャッタ82と対物レンズ50との間に挿入されているか否かの情報は、ファインダ変倍レンズ80の近辺に設けられたセンサ(不図示)により検出され、CPU12に送信される。これにより、CPU12は、ファインダ変倍レンズ80の有無に応じて様々な制御が可能になる。
 対物レンズ50と接眼レンズ52との間には、ビームスプリッタ54が設けられており、このビームスプリッタ54は、対物レンズ50に入射する被写体の光学像と、LCD40に表示されるスルー画とを合成する手段として使用される。即ち、対物レンズ50に入射する光学像は、ビームスプリッタ54を透過して接眼レンズ52により観察することができ、また、LCD40に表示されるスルー画は、ビームスプリッタ54により直角に反射され接眼レンズ52により観察することができる。
 前記LCD40、ビームスプリッタ54及び接眼レンズ52によりスルー画を観察することができる電子ビューファインダ(EVF)が構成される。ここで、液晶シャッタ82を遮光状態にすることにより、接眼レンズ52からはLCD40からの画像のみ観察可能にすることができる。また、液晶シャッタ82を透過状態にすることにより、LCD40のスルー画像と対物レンズ50を透過した光学像との重畳表示も可能になる。
 即ち、この撮像装置1は、OVFの光学像表示、EVFの画像表示、OVFとEVFの画像の重畳表示とを可能にするハイブリッドファインダを備えている。
 撮影光学系16の光軸とOVFの光軸とは異なるため、所定のフォーカスエリアの光学像とスルー画像とは、そのフォーカスエリア内の被写体の距離に応じてパララックスが発生する。CPU12は、前記求めた被写体距離に応じて発生するパララックスを補正すべくLCD40に表示させるスルー画の表示位置を移動させる。これにより、フォーカスエリア内の光学像とスルー画とが一致するように表示させることができる。
 <第1の実施形態>
 本発明の第1の実施形態について図面を参照して説明する。図2は、OVFとEVFの光学系と信号処理を説明するためのブロック図である。
 図2に示すように、本発明に係る撮像装置は、第1の光学系(EVF光学系)200と、第2の光学系(OVF光学系)210と、補正手段220とを主に備えて構成される。第1の光学系200は、撮像レンズを含んだ撮影光学系16から撮像素子であるCCD20までの光学系と、CCD20に結像された画像である被写体の電子像が表示される表示装置であるLCD40からファインダの接眼部である接眼レンズ52までの光学系から構成される。
 第1の光学系200は、撮影光学系16と、絞り18と、CCD20と、LCD40と、液晶板レンズ41と、ビームスプリッタ54と、接眼レンズ52とを含むことができる。第1の光学系200では、撮影光学系16を通り、CCD20に結像した被写体像は、その電子データが補正手段220により電子的に補正され、ビデオエンコーダ38によりエンコードされてLCD40に表示される。LCD40に表示された被写体像は、液晶板レンズ41を通って、ビームスプリッタ54で直角に曲げられて接眼レンズ52に到達する。
 第2の光学系210は、被写体像の光学像を接眼部である接眼レンズ52まで導く光学系であり、液晶シャッタ82と、ファインダ変倍レンズ80と、対物レンズ50と、ビームスプリッタ54と接眼レンズ52とを含むことができる。第2の光学系では、液晶シャッタ82を通った被写体の光学像は、ファインダ変倍レンズ80と、ビームスプリッタ54とを通って接眼レンズ52に到達する。
 ここで、第1の光学系200と第2の光学系210とに示した光学部品は、一例であり、光学系の組み方によって様々な光学部品を適切に組み合わせて構成することができる。図2においては、被写体からCCD20までの光学系と、第2の光学系とに共通する光学部品のない光学系を例にとって説明しているが、例えば、一眼レフなどのように、被写体からCCD20までの光学系と、第2の光学系とに共通部分が存在する光学系も本願の発明の範囲に含まれるものである。
 即ち、上述したように第1の光学系とは、撮像レンズから撮像素子までの光学系と、撮像素子に結像された画像である被写体の電子像が表示される表示装置からファインダの接眼部までの光学系とから構成される光学系を意味する。また、第2の光学系とは、被写体像の光学像を接眼部まで導く光学系を意味する。
 補正手段220は、第1の光学系(EVF光学系)200に関する歪曲収差(ディストーション)情報と、第2の光学系(OVF光学系)210に関する歪曲収差情報とに基づいて、OVF光学系210で発生する歪曲収差と同様の歪曲収差が発生するようにCCD20で得られる被写体の電子像を補正し、LCD40に表示させる。
 これにより、OVF光学系からEVF光学系に切り替えて(即ち、OVFからEVFに切り替えて)観察しても、OVF画像と同様の歪曲収差を有するEVF画像を観察することができるので、観察者が違和感を覚えることがない。
 この歪曲収差補正について図面を参照して更に説明する。図3は、従来の歪曲収差補正を示すグラフであり、図4は、本発明の歪曲収差補正を示すグラフである。図3、図4ともに、横軸は像高を[mm]単位で示し、縦軸は歪みの割合を示している。歪みの割合は、原点を光軸としたときに、各像高で像がどれだけ歪むかの割合を表したものである。
 図3に示すように、従来は、レンズDST[レンズの歪曲収差(ディストーション)]に対して、歪曲収差が無くなるように補正していた。これにより、観察者は、歪曲収差のない画像を見ることができる。しかしながら、OVFからEVFに切り替えたとき、歪曲収差の存在するOVF画像から歪曲収差が補正により除去されたEVF画像に切り替わるので、観察者は違和感を覚えることになる。
 そこで、本発明においては、図4に示すように、EVF光学系のDST[歪曲収差(ディストーション)]をOVF光学系の歪曲収差に合わせるように、即ち、OVF光学系で発生する歪みと同様の歪みが発生するように被写体の電子像に補正を加える。これにより、OVFからEVFに切り替えても、画像の歪みは同じなので観察者が違和感を覚えることがない。
 即ち、図11(図11は、OVFとEVFの歪曲収差をイメージで表した説明図である)に示すように、従来は、OVF画像の歪曲収差とEVF画像の歪曲収差は異なるため(図11の左側図)、OVF画像からEVF画像に切り替わったときに、観察者は違和感を覚える。
 しかしながら、本発明においては、図11の右側図に示すように、EVF画像の歪曲収差をOVF画像の歪曲収差と同じになるように補正しているために、OVF画像からEVF画像に切り替わっても観察者は違和感を覚えない。図11は、OVF画像の歪曲収差とEVF画像の歪曲収差をイメージの例として表したものであり、このような歪曲収差に本発明が限定されるものではない。
 図1を参照して、ここで、歪曲収差情報は、歪曲収差情報取得手段230によって取得される。歪曲収差情報取得手段230は、一時記憶装置28から歪曲収差情報を取得しても良いし、ROM32から歪曲収差情報を取得しても良い。或いは、歪曲収差情報取得手段230は、撮影光学系16の例えば撮像レンズに設けられた記憶手段から歪曲収差情報を取得しても良い。更に、歪曲収差情報取得手段230は、無線、或いは有線の通信手段を備えて、この通信手段を用いて撮像装置本体の外部から、例えばインターネットを経由して、或いはWiFi等により歪曲収差情報を取得しても良い。
 <第2の実施形態>
 次に、本発明の第2の実施形態について図面を参照して説明する。本発明の第2の実施形態は、ほとんどが第1の実施形態と共通するものであるから、共通する部分についての説明は省略し、異なる部分についてのみ説明する。
 図5を参照して説明する。図5は、第2の実施形態の動作を示すフロー図である。図5に示すように、歪曲収差情報取得手段230は、OVFの歪曲収差の値を取得する(S51)。この歪曲収差情報取得は、撮像装置本体の記憶手段から取得しても良いし、撮像装置本体の外部から取得しても良い。
 歪曲収差情報取得手段230は、撮像装置本体であるカメラから、または、撮影光学系16の撮像レンズに設けられた記憶手段から、または、通信(有線または無線)によって、EVF光学系のレンズの歪曲収差の値を取得する(S52)。
 次に、補正手段220は、歪曲収差情報取得手段230から得たEVFの歪曲収差とOVFの歪曲収差との差の絶対値αを算出する(S53)。補正手段220は、算出したαが、予め設定されている閾値より大きいか、否かについて判断を行う(S54)。その結果、αが閾値より大きいと判断された場合は、次のステップS55が実行され、αが閾値よりも大きくないと判断された場合は、補正を行うことなくOVFからEVFに切り替えて表示される(S57)。
 ここで、αと閾値の比較は、補正手段が行っても良いし、CPUが行っても良いし、他部分が行っても良い。αと閾値の比較を行う部分を含めて補正手段220と考えれば良い。
 ステップS55において、補正手段220は、EVF光学系のレンズとOVFの歪曲収差情報を基に、EVF画像の歪みが、OVF画像の歪みと同じになるようなEVFの歪曲収差補正量を算出する(S55)。補正手段220は、算出された補正量に基づいて、EVFの歪曲収差補正を行い(S56)、LCD40に補正された画像を表示させるとともに、CPU12は、液晶シャッタ82を不透過状態にしてEVF画像のみを接眼レンズ52まで導くようにする(S57)。
 このように、本発明の第2の実施形態では、補正手段220は、EVF光学系に関する歪曲収差と、OVF光学系に関する歪曲収差との差の絶対値αを算出し、αが所定閾値より大きいときにのみEVFの画像の歪曲収差をOVF画像の歪曲収差に合わせる補正を行う。これにより、EVFとOVFとで歪曲収差の差があまりないとき、即ち、補正を行わなくてもOVFからEVFに切り替えたときに観察者があまり違和感を覚えないような場合には、補正を行わないので、補正手段220やCPU12等の電子回路の負担を低減することができ、電力消費を抑えて電池寿命を向上させることができる。
 <第3の実施形態>
 次に、本発明の第3の実施形態について図面を参照して説明する。本発明の第3の実施形態は、ほとんどが第1の実施形態と共通するものであるから、共通する部分についての説明は省略し、異なる部分についてのみ説明する。
 図6を参照して説明する。図6は、第3の実施形態の動作を示すフロー図である。図6に示すように、歪曲収差情報取得手段230は、OVFの歪曲収差の値を取得する(S61)。この歪曲収差情報取得は、撮像装置本体の記憶手段から取得しても良いし、撮像装置本体の外部から取得しても良い。
 歪曲収差情報取得手段230は、撮像装置本体であるカメラから、または、撮影光学系16の撮像レンズに設けられた記憶手段から、または、通信(有線または無線)によって、EVF光学系のレンズの歪曲収差の値を取得する(S62)。
 次に、補正手段220は、歪曲収差情報取得手段230から得たEVFの歪曲収差とOVFの歪曲収差との差αの絶対値を算出する(S63)。補正手段220は、算出したαが、予め設定されている閾値より大きいか、否かについて判断を行う(S64)。その結果、αが閾値より大きいと判断された場合は、次のステップS65が実行され、αが閾値よりも大きくないと判断された場合は、補正を行うことなくOVFからEVFに切り替えて表示される(S69)。
 ここで、αと閾値の比較は、補正手段が行っても良いし、CPUが行っても良いし、他部分が行っても良い。αと閾値の比較を行う部分を含めて補正手段220と考えれば良い。
 ステップS65において、補正手段220は、EVF光学系のレンズとOVFの歪曲収差情報を基に、EVF画像の歪みが、OVF画像の歪みと同じになるようなEVFの歪曲収差補正量を算出する(S65)。補正手段220は、算出された補正量に基づいて、EVFの歪曲収差補正を行う(S66)。
 歪曲収差情報取得手段230は、撮影光学系16のレンズがズーミングされたか否かについて判断を行いズーミングされたと判断した場合は、ステップS61に戻ってそこから実行し、ズーミングされたと判断しなかったときは、次にステップS68を実行する。
 ここで、ズーミングの有無の判断は、CPU12が、撮影光学系16のズームレンズをズーミング動作するように制御したか否かをCPU12からの情報に基づいて判断することができる。また、ズームレンズに設けられたズーミングの有無を検知できるセンサの信号に基づいて判断しても良い。その他、ズーミングの有無の判断に使用できる一般的な技術に基づいて行うことができる。
 歪曲収差情報取得手段230は、撮影光学系16を構成するレンズが交換されたか否かについて判断を行いレンズ交換されたと判断した場合は、ステップS61に戻ってそこから実行し、レンズ交換されたと判断しなかったときは、次にステップS69を実行する。
 ステップS69において、補正手段220は、LCD40に画像を表示させるとともに、CPU12は、液晶シャッタ82を不透過状態にしてEVF画像のみを接眼レンズ52まで導くようにする(S69)。
 このように、本発明の第3の実施形態においては、EVF光学系の歪曲収差が変化する事象が発生した場合、再度、歪曲収差情報取得手段230が、変化後の歪曲収差情報の再取得を行うので、歪曲収差の変化に対応して、常にOVF画像と同じ歪曲収差のEVF画像を表示させることができる。よって、図6においては、一例として、EVF光学系の歪曲収差情報が変化する事象として、レンズズーミングと、レンズ交換とをあげたが、これに限定されるものではなく、EVF光学系の歪曲収差情報が変化する事象すべてが本願の発明の範囲に含まれるものである。
 <第4の実施形態>
 次に、本発明の第4の実施形態について図面を参照して説明する。本発明の第4の実施形態は、ほとんどが第1の実施形態と共通するものであるから、共通する部分についての説明は省略し、異なる部分についてのみ説明する。
 図7を参照して説明する。図7は、第4の実施形態の動作を示すフロー図である。図7に示すように、歪曲収差情報取得手段230は、OVFの歪曲収差の値を取得する(S71)。この歪曲収差情報取得は、撮像装置本体の記憶手段から取得しても良いし、撮像装置本体の外部から取得しても良い。
 歪曲収差情報取得手段230は、撮像装置本体であるカメラから、または、撮影光学系16の撮像レンズに設けられた記憶手段から、または、通信(有線または無線)によって、EVF光学系のレンズの歪曲収差の値を取得する(S72)。
 次に、補正手段220は、歪曲収差情報取得手段230から得たEVFの歪曲収差とOVFの歪曲収差との差αの絶対値を算出する(S73)。補正手段220は、算出したαが、予め設定されている閾値より大きいか、否かについて判断を行う(S74)。その結果、αが閾値より大きいと判断された場合は、次のステップS75が実行され、αが閾値よりも大きくないと判断された場合は、補正を行うことなくステップS77を実行する。
 ここで、αと閾値の比較は、補正手段が行っても良いし、CPUが行っても良いし、他部分が行っても良い。αと閾値の比較を行う部分を含めて補正手段220と考えれば良い。
 ステップS75において、補正手段220は、EVF光学系のレンズとOVFの歪曲収差情報を基に、EVF画像の歪みが、OVF画像の歪みと同じになるようなEVFの歪曲収差補正量を算出する(S75)。補正手段220は、算出された補正量に基づいて、EVFの歪曲収差補正を行う(S76)。
 歪曲収差情報取得手段230は、OVF光学系が変倍されたか、即ち、図2のファインダ変倍レンズ80がOVF光学系に挿脱されたか否かについて判断を行い(S77)、挿脱されたと判断された場合はステップS71に戻って実行を行い、挿脱されたと判断されなかった場合は、次のステップS78を実行する。
 ステップS78において、補正手段220は、LCD40に画像を表示させるとともに、CPU12は、液晶シャッタ82を不透過状態にしてEVF画像のみを接眼レンズ52まで導くようにする(S78)。
 このように、本発明の第4の実施形態においては、OVF光学系の歪曲収差が変化する事象が発生した場合、再度、歪曲収差情報取得手段230が、変化後の歪曲収差情報の再取得を行うので、歪曲収差の変化に対応して、常にOVF画像と同じ歪曲収差のEVF画像を表示させることができる。よって、図7においては、一例として、OVF光学系の歪曲収差情報が変化する事象として、OVF光学系の変倍をあげたが、これに限定されるものではなく、例えば、レンズの付加や取り外し、レンズズーミング等のOVF光学系の歪曲収差情報が変化する事象すべてが本願の発明の範囲に含まれるものである。
 <第5の実施形態>
 次に、本発明の第5の実施形態について図面を参照して説明する。本発明の第5の実施形態は、ほとんどが第1の実施形態と共通するものであるから、共通する部分についての説明は省略し、異なる部分についてのみ説明する。
 本発明の第5の実施形態は、OVF画像を接眼部に表示するOVFモードからEVF画像を接眼部に表示するEVFモードに強制的に切り替えられたときに、補正手段220が、OVF画像と同じ歪みを持つようにEVF画像を補正するものである。
 図8を参照して説明する。図8は、第5の実施形態の動作を示すフロー図である。図8に示すように、OVFモードからEVFモードに強制的に切り替えられたか否かの判断を行い、強制的に切り替えられたと判断したとき次のステップS82を実行し、強制的に切り替えられたと判断しなかったときはこのステップS81をずっと実行する(S81)。ここで、強制的に切り替えられたか否かの判断は、例えばCPU12が行うことができ、その判断に基づいてCPU12が歪曲収差情報取得手段230と、補正手段220の動作制御を行うことができる。しかしながら、判断主体をCPU12に限定するものではなく、補正手段220が行っても良いし、歪曲収差情報取得手段が行っても良いし、その他が行っても良い。
 このように、OVFモードからEVFモードに強制的に切り替える場合としては、例えば、マクロモードに切り替えられた場合がある。図2に示すように、OVF光学系(第1の光学系200)とEVF光学系(第2の光学系210)とで、ビームスプリッタ54から接眼レンズ52までの光学系以外で共通する部分が存在しない撮像装置の場合(即ち、OVF光学系とEVF光学系とでパララックスが発生する撮像装置の場合)、マクロモードが選択されたときは、パララックスの発生を防止するために、OVFモードからEVFモードに強制的に切り替える制御を行う場合がある。
 図8に戻って、ステップS81において、OVFモードからEVFモードに強制的に切り替えられたと判断したときは、歪曲収差情報取得手段230は、OVFの歪曲収差の値を取得する(S82)。この歪曲収差情報取得は、撮像装置本体の記憶手段から取得しても良いし、撮像装置本体の外部から取得しても良い。
 歪曲収差情報取得手段230は、撮像装置本体であるカメラから、または、撮影光学系16の撮像レンズに設けられた記憶手段から、または、通信(有線または無線)によって、EVF光学系のレンズの歪曲収差の値を取得する(S83)。
 次に、ステップS84において、補正手段220は、EVF光学系のレンズとOVF光学系の歪曲収差情報を基に、EVF画像の歪みが、OVF画像の歪みと同じになるようなEVFの歪曲収差補正量を算出する(S84)。補正手段220は、算出された補正量に基づいて、EVFの歪曲収差補正を行って(S85)、EVF画像からOVF画像に切り替えて表示する(S86)。
 <第6の実施形態>
  次に、本発明の第6の実施形態について図面を参照して説明する。本発明の第6の実施形態は、ほとんどが第1の実施形態と共通するものであるから、共通する部分についての説明は省略し、異なる部分についてのみ説明する。
 本発明の第6の実施形態は、OVF画像を接眼部に表示するOVFモードとEVF画像を接眼部に表示するEVFモードとの間で切り替えをすることができないモードの場合は、歪曲収差補正を行わないようにするものである。これにより、OVF/EVF間の切り替えが発生し得ず、観察者が違和感を覚える状態にならない場合には、補正を行わないので、補正手段220やCPU12等の電子回路の負担を低減することができ、電力消費を抑えて電池寿命を向上させることができる。
 このように、OVFモードとEVFモードとの間で切り替えをすることができないモードの場合とは、例えば、マクロモードの場合がある。マクロモードの場合は、通常EVFモードに固定されており、パララックスの発生を防ぐために、OVFモードには切り替えられない設定になっている。ここで、本発明において、OVFモードとEVFモードとの間で切り替えをすることができないモードの場合とは、マクロモードに限定するものではない。また、OVFモードからEVFモードに切り替えすることができない場合も、EVFモードからOVFモードに切り替えすることができない場合もどちらの場合も本発明の範囲に含まれるものである。
 図9を参照して説明する。図9は、第6の実施形態の動作を示すフロー図である。図9に示すように、OVFモードからEVFモードに、または、EVFモードからOVFモードに「切り替えることが無いモード」か「否」かの判断を行い、「否」と判断したとき次のステップS92を実行し、「切り替えることが無いモード」と判断したときはこのステップS91をずっと実行する(S91)。ここで、「切り替えることが無いモード」か「否」かの判断は、例えばCPU12が行うことができ、その判断に基づいてCPU12が歪曲収差情報取得手段230と、補正手段220の動作制御を行うことができる。しかしながら、判断主体をCPU12に限定するものではなく、補正手段220が行っても良いし、歪曲収差情報取得手段が行っても良いし、その他が行っても良い。
 ステップS91において、「切り替えることが無いモード」でないと判断したときは、歪曲収差情報取得手段230は、OVFの歪曲収差の値を取得する(S92)。この歪曲収差情報取得は、撮像装置本体の記憶手段から取得しても良いし、撮像装置本体の外部から取得しても良い。
 歪曲収差情報取得手段230は、撮像装置本体であるカメラから、または、撮影光学系16の撮像レンズに設けられた記憶手段から、または、通信(有線または無線)によって、EVF光学系のレンズの歪曲収差の値を取得する(S93)。
 次に、ステップS94において、補正手段220は、EVF光学系のレンズとOVF光学系の歪曲収差情報を基に、EVF画像の歪みが、OVF画像の歪みと同じになるようなEVFの歪曲収差補正量を算出する(S94)。補正手段220は、算出された補正量に基づいて、EVFの歪曲収差補正を行って(S95)、EVF画像からOVF画像に切り替えて表示する(S96)。
 <第7の実施形態>
 次に、本発明の第7の実施形態について図面を参照して説明する。本発明の第7の実施形態は、ほとんどが第1の実施形態と共通するものであるから、共通する部分についての説明は省略し、異なる部分についてのみ説明する。
 本発明の第7の実施形態は、OVF画像とEVF画像とを接眼レンズ52に重畳して映し出すものであり、このときOVF画像と同じ歪曲収差になるようにEVF画像をしてOVF画像と重畳するので、2つの画像が完全に重なって違和感のない画像になる。
 図10を参照して説明する。図10は、第7の実施形態の動作を示すフロー図である。図10に示すように、OVF画像とEVF画像とを「重畳表示するモードである」か「否」かの判断を行い、「重畳表示するモードである」と判断したとき次のステップS101を実行し、「否」と判断したときはこのステップS100をずっと実行する(S100)。ここで、「重畳表示するモードである」か「否」かの判断は、例えばCPU12が行うことができ、その判断に基づいてCPU12が歪曲収差情報取得手段230と、補正手段220の動作制御を行うことができる。しかしながら、判断主体をCPU12に限定するものではなく、補正手段220が行っても良いし、歪曲収差情報取得手段が行っても良いし、その他が行っても良い。
 ステップS100において、「重畳表示するモードである」と判断したときは、歪曲収差情報取得手段230は、OVFの歪曲収差の値を取得する(S101)。この歪曲収差情報取得は、撮像装置本体の記憶手段から取得しても良いし、撮像装置本体の外部から取得しても良い。
 歪曲収差情報取得手段230は、撮像装置本体であるカメラから、または、撮影光学系16の撮像レンズに設けられた記憶手段から、または、通信(有線または無線)によって、EVF光学系のレンズの歪曲収差の値を取得する(S102)。
 次に、ステップS94において、補正手段220は、EVF光学系のレンズとOVF光学系の歪曲収差情報を基に、EVF画像の歪みが、OVF画像の歪みと同じになるようなEVFの歪曲収差補正量を算出する(S103)。補正手段220は、算出された補正量に基づいて、EVFの歪曲収差補正を行って(S104)、EVF画像とOVF画像とを重畳表示する(S105)。
 1…撮像装置、10…メモリカード、14…操作部、16…撮影光学系、22…ドライバ、24…アナログ処理部、26…変換器、28…一時記憶装置、34…信号処理部、36…圧縮伸長処理部、37…検出部、38…ビデオエンコーダ、41…液晶板レンズ、42…メディアコントローラ、44…カードインタフェース、46…量算出部、48…位置センサ、50…対物レンズ、52…接眼レンズ、54…ビームスプリッタ、80…ファインダ変倍レンズ、82…液晶シャッタ、200…第1の光学系、210…第2の光学系、220…補正手段、230…歪曲収差情報取得手段

Claims (8)

  1.  撮像レンズから被写体像が結像される撮像素子までの光学系と、前記撮像素子に結像された画像である被写体の電子像が表示される表示装置からファインダの接眼部までの光学系とを合わせた第1の光学系と、
     被写体の光学像を前記接眼部まで導く第2の光学系と、
     前記第1の光学系に関する歪曲収差情報と、前記第2の光学系に関する歪曲収差情報とに基づいて、前記被写体の電子像を前記第2の光学系の歪曲収差と同一の歪曲収差が発生する歪曲収差補正を行って前記表示装置に表示させる補正手段と、
     を備えた撮像装置。
  2.  前記補正手段は、前記第1の光学系に関する歪曲収差と前記第2の光学系に関する歪曲収差との差の絶対値αを算出し、αが予め設定された閾値以下の場合は前記歪曲収差補正を行わず、αが前記閾値より大きい状態で前記歪曲収差補正を行う請求項1に記載の撮像装置。
  3.  前記撮像レンズが交換可能であり、
     前記第1の光学系と前記第2の光学系とのうち少なくともいずれか一方の光学系に関する歪曲収差情報を取得する歪曲収差情報取得手段を更に備え、
     前記歪曲収差情報取得手段は、前記撮像レンズに設けられた記憶手段から、または、前記撮像装置の本体に設けられた記憶手段から、または、有線または無線通信を介して前記撮像装置の本体の外部から、前記第1の光学系と前記第2の光学系とのうち少なくともいずれか一方の光学系に関する歪曲収差情報を取得する請求項1または2に記載の撮像装置。
  4.  前記第1の光学系と前記第2の光学系とのうち少なくともいずれか一方の光学系に関する歪曲収差情報を取得する歪曲収差情報取得手段を更に備え、
     前記歪曲収差情報取得手段は、前記第1の光学系内において、レンズが交換された状態で、または、レンズズーミングが成された状態で前記第1の光学系に関する歪曲収差情報を再取得し、前記第2の光学系内において、レンズが付加または取り除かれた状態で、または、レンズズーミングが成された状態で前記第2の光学系に関する歪曲収差情報を再取得し、
     前記補正手段は、再取得した歪曲収差情報に基づいて前記歪曲収差補正を行う請求項1~3のいずれか一つに記載の撮像装置。
  5.  前記補正手段は、前記第2の光学系からの前記光学像を前記接眼部に表示するモードから、前記第1の光学系からの前記電子像を前記接眼部に表示するモードに切り替えられた状態で、前記歪曲収差補正を行う請求項1~4のいずれか一つに記載の撮像装置。
  6.  前記補正手段は、前記第1の光学系からの前記電子像を前記接眼部に表示するモードから、前記第2の光学系からの前記光学像を前記接眼部に表示するモードに切り替わらない固定モードの状態で、前記歪曲収差補正を行わず、前記固定モードが解除された状態で前記歪曲収差補正を行う請求項1~4のいずれか一つに記載の撮像装置。
  7.  前記補正手段は、前記第1の光学系からの前記電子像と、前記第2の光学系からの前記光学像とを前記接眼部に重畳表示する重畳表示モードで無い状態で、前記歪曲収差補正を行わず、前記重畳表示モードになった際に前記歪曲収差補正を行う請求項1~4のいずれか一つに記載の撮像装置。
  8.  撮像レンズから被写体像が結合される撮像素子までの光学系と、前記撮像素子に結像された画像である被写体の電子像が表示される表示装置からファインダの接眼部までの光学系とを合わせた第1の光学系に関する歪曲収差情報と、
     被写体の光学像を前記接眼部まで導く第2の光学系に関する歪曲収差情報と、
     に基づいて、前記第2の光学系で発生する歪曲収差と同じ歪曲収差が発生する歪曲収差補正を前記電子像に対して行って前記表示装置に表示させる電子ビューファインダ表示方法。
PCT/JP2013/053636 2012-03-15 2013-02-15 撮像装置及び電子ビューファインダ表示方法 WO2013136907A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014504749A JP5650351B2 (ja) 2012-03-15 2013-02-15 撮像装置及び電子ビューファインダ表示方法
CN201380013896.0A CN104170365B (zh) 2012-03-15 2013-02-15 摄像装置及电子取景器显示方法
US14/479,669 US9247112B2 (en) 2012-03-15 2014-09-08 Imaging device and method for displaying electronic viewfinder

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-059036 2012-03-15
JP2012059036 2012-03-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/479,669 Continuation US9247112B2 (en) 2012-03-15 2014-09-08 Imaging device and method for displaying electronic viewfinder

Publications (1)

Publication Number Publication Date
WO2013136907A1 true WO2013136907A1 (ja) 2013-09-19

Family

ID=49160826

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/053636 WO2013136907A1 (ja) 2012-03-15 2013-02-15 撮像装置及び電子ビューファインダ表示方法

Country Status (4)

Country Link
US (1) US9247112B2 (ja)
JP (1) JP5650351B2 (ja)
CN (1) CN104170365B (ja)
WO (1) WO2013136907A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022163080A1 (ja) * 2021-01-28 2022-08-04 富士フイルム株式会社 観察装置
US12055838B2 (en) 2020-09-30 2024-08-06 Fujifilm Corporation Electronic view finder and optical apparatus

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104471473B (zh) * 2012-07-20 2016-04-06 富士胶片株式会社 照相机及其动作控制方法
JP5723489B2 (ja) * 2012-07-24 2015-05-27 富士フイルム株式会社 カメラおよびその動作制御方法
WO2014017174A1 (ja) * 2012-07-24 2014-01-30 富士フイルム株式会社 カメラおよびその動作制御方法
WO2014017175A1 (ja) * 2012-07-24 2014-01-30 富士フイルム株式会社 カメラおよびその動作制御方法
JP6066866B2 (ja) * 2013-08-22 2017-01-25 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
JP6363570B2 (ja) * 2015-08-25 2018-07-25 富士フイルム株式会社 ファインダーおよび撮像装置
DE102017109254A1 (de) * 2017-04-28 2018-10-31 Carl Zeiss Ag Digitalkamera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006262504A (ja) * 2006-04-17 2006-09-28 Olympus Corp 電子カメラ
JP2010016610A (ja) * 2008-07-03 2010-01-21 Canon Inc 撮像装置
JP2010119029A (ja) * 2008-11-14 2010-05-27 Panasonic Corp 撮像装置
JP2010263538A (ja) * 2009-05-11 2010-11-18 Canon Inc 撮像装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5071044B2 (ja) * 2007-10-26 2012-11-14 ソニー株式会社 撮像装置
US8379132B2 (en) * 2008-03-25 2013-02-19 Panasonic Corporation Image capture device with a viewfinder for viewing a subject
JP5350140B2 (ja) * 2009-08-26 2013-11-27 キヤノン株式会社 撮像装置
US8780185B2 (en) * 2009-11-25 2014-07-15 Olympus Imaging Corp. Image pickup apparatus having a display controlled using interchangeable lens information and/or finder information
US8727539B2 (en) * 2010-10-28 2014-05-20 Seiko Epson Corporation Projector and method of controlling projector
JP5742179B2 (ja) * 2010-11-05 2015-07-01 ソニー株式会社 撮像装置、画像処理装置、および画像処理方法、並びにプログラム
JP5512878B2 (ja) * 2011-03-04 2014-06-04 富士フイルム株式会社 撮影装置及び表示制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006262504A (ja) * 2006-04-17 2006-09-28 Olympus Corp 電子カメラ
JP2010016610A (ja) * 2008-07-03 2010-01-21 Canon Inc 撮像装置
JP2010119029A (ja) * 2008-11-14 2010-05-27 Panasonic Corp 撮像装置
JP2010263538A (ja) * 2009-05-11 2010-11-18 Canon Inc 撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12055838B2 (en) 2020-09-30 2024-08-06 Fujifilm Corporation Electronic view finder and optical apparatus
WO2022163080A1 (ja) * 2021-01-28 2022-08-04 富士フイルム株式会社 観察装置

Also Published As

Publication number Publication date
CN104170365A (zh) 2014-11-26
JP5650351B2 (ja) 2015-01-07
JPWO2013136907A1 (ja) 2015-08-03
US9247112B2 (en) 2016-01-26
US20140375864A1 (en) 2014-12-25
CN104170365B (zh) 2015-09-02

Similar Documents

Publication Publication Date Title
JP5650351B2 (ja) 撮像装置及び電子ビューファインダ表示方法
JP5635211B2 (ja) 撮像装置
US8670061B2 (en) Photography device and display control method
JP5567140B2 (ja) 撮影装置
WO2013047482A1 (ja) 撮影装置、撮影方法、記録媒体およびプログラム
JP2008236534A (ja) デジタルカメラ、及び情報表示方法、情報表示制御プログラム
JP2010213232A (ja) 撮像装置及び撮像方法
JP2009225072A (ja) 撮像装置
JP5607260B2 (ja) 撮影装置、撮影方法及びプログラム
CN106101519B (zh) 观察装置
JP5546691B2 (ja) 撮影装置、撮影方法およびプログラム
JP2011217103A (ja) 複眼撮影方法および装置
JP5146015B2 (ja) 撮像装置及び撮像方法
JPWO2013153713A1 (ja) 撮像装置および撮影方法
JP4680022B2 (ja) 撮影装置
JP5643464B2 (ja) 画像表示装置
GB2548460A (en) Imaging apparatus and control method thereof
JP2011197278A (ja) 立体撮像装置
JP2010134291A (ja) 撮像装置及びその制御方法
JP6795961B2 (ja) 画像処理装置、画像処理装置の制御方法、及び、プログラム
JP7086155B2 (ja) 画像処理装置、画像処理装置の制御方法、及び、プログラム
JP2011176457A (ja) 電子カメラ
JP5530569B2 (ja) 撮影装置及びファインダの表示方法
JP2014171203A (ja) 撮像装置及び画像表示方法
JP2018066982A (ja) 撮像装置、撮像装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13760627

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014504749

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13760627

Country of ref document: EP

Kind code of ref document: A1