WO2017086065A1 - 撮影装置及びその制御方法 - Google Patents

撮影装置及びその制御方法 Download PDF

Info

Publication number
WO2017086065A1
WO2017086065A1 PCT/JP2016/080302 JP2016080302W WO2017086065A1 WO 2017086065 A1 WO2017086065 A1 WO 2017086065A1 JP 2016080302 W JP2016080302 W JP 2016080302W WO 2017086065 A1 WO2017086065 A1 WO 2017086065A1
Authority
WO
WIPO (PCT)
Prior art keywords
angle
image
view
information
frame
Prior art date
Application number
PCT/JP2016/080302
Other languages
English (en)
French (fr)
Inventor
覚 若林
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2017551775A priority Critical patent/JP6389342B2/ja
Priority to CN201680067231.1A priority patent/CN108293087B/zh
Publication of WO2017086065A1 publication Critical patent/WO2017086065A1/ja
Priority to US15/981,380 priority patent/US10477113B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the present invention relates to a photographing apparatus and a control method thereof.
  • the hybrid viewfinder has an optical viewfinder (hereinafter referred to as “Optical View Finder: OVF”) mode and an electronic viewfinder (hereinafter referred to as “Electric View Finder: EVF”) mode, and both can be switched.
  • OVF optical Viewfinder
  • EVF Electronic View Finder
  • the hybrid viewfinder has an in-finder information display section between the viewfinder window on the subject side and the eyepiece window on the photographer side.
  • the in-finder information display unit is composed of, for example, a half mirror and a display panel.
  • the display panel includes a self-luminous display device such as an organic EL (OLED: Organic Light-Emitting Diode), a liquid crystal display device, and the like, and displays a subject image and an information image.
  • the subject image is displayed on the display panel based on the shooting data.
  • Shooting data is obtained by photoelectrically converting an image formed on an image sensor through a shooting lens.
  • the information image refers to shutter speed, aperture value, and ISO (International Organization for Standardization). Displayed based on shooting condition data such as sensitivity.
  • An optical image of the subject enters the finder window.
  • the half mirror transmits a part of the optical image of the subject and guides it to the viewfinder eyepiece.
  • the half mirror partially reflects the display image displayed on the display panel and guides it
  • the hybrid finder has a shutter (hereinafter referred to as OVF shutter) that shields an optical image incident on the finder window.
  • OVF shutter a shutter
  • the optical image is guided to the viewfinder eyepiece by opening the OVF shutter and hiding the display panel.
  • the OVF shutter is closed and a display image is displayed on the display panel.
  • the display image is guided to the viewfinder eyepiece through a half mirror.
  • the display surface of the display panel has a subject display area where a subject image is displayed and an information display area where an information image is displayed.
  • the subject display area is set at the center of the display image, and the information display area is set in a frame shape so as to surround the subject display area.
  • the hybrid finder displays images in both the subject display area and the information display area in the EVF mode. In the OVF mode, the subject image in the subject display area is not displayed, and the information image in the information display area is displayed. As a result, the optical image and the information image are guided to the viewfinder eyepiece through the half mirror, and the information image is displayed superimposed on the optical image.
  • an imaging apparatus that can be mounted with a plurality of photographing lenses having different focal lengths, and displays an angle of view of a non-mounted photographing lens in addition to the mounted photographing lens (patent) Reference 2).
  • the field angle frame of the non-mounted photographic lens is displayed on the image captured by the photographic lens mounted on the mount unit, whereby the photographic field angle by the non-mounted lens can be grasped.
  • a captured image is acquired through a photographing lens attached to the mount unit, and the captured image is displayed on the display unit.
  • the angle of view is larger than the angle of view of the mounted photographic lens.
  • the non-mounted photographic lens is displayed only on the outside of the photographic image. Therefore, only the field angle frame is displayed, and no subject image is captured between the field angle frame of the attached photographic lens and the field angle frame of the non-mounted lens.
  • An object of the present invention is to provide an imaging apparatus that can easily imagine an angle of view frame at the time of imaging and can select an imaging lens having an optimum focal length for an imaging scene, and a control method thereof.
  • an imaging apparatus of the present invention includes a mount unit, an image sensor, a finder, an in-finder information display unit, a mounting history storage unit, a first angle-of-view frame display control unit, and a second.
  • An angle-of-view frame display control unit and a third angle-of-view frame display control unit are provided.
  • the mount unit detachably holds a plurality of photographing lenses having different focal lengths.
  • the imaging element generates an image based on a subject image incident through one photographing lens mounted on the mount unit.
  • the viewfinder is configured so that a subject image can be observed through a viewfinder lens.
  • the in-viewfinder information display unit superimposes information on the subject image and displays it in an observable manner in the viewfinder.
  • the mounting history storage unit stores a mounting history of a photographic lens that was previously mounted on the mount unit.
  • the first angle-of-view frame display unit controls the in-finder information display unit, and displays a plurality of first angle-of-view frames corresponding to the focal lengths of all the photographing lenses that can be mounted on the mount unit as information.
  • the second angle-of-view frame display control unit controls the in-viewfinder information display unit, and corresponds to the focal length of the photographing lens previously mounted on the mount unit among the plurality of first angle-of-view frames based on the mounting history.
  • the object is displayed as information in a display form different from that of the first field angle frame as the second field angle frame.
  • the third angle-of-view frame display control unit controls the in-finder information display unit, and sets the third angle-of-view frame corresponding to the focal length of the photographing lens currently mounted on the mount unit as the first and second angle-of-view frames. Information is displayed in a different display form.
  • the determination unit determines an optimum focal length suitable for an image shooting scene.
  • the highlighting control unit highlights the view angle frame corresponding to the optimum focal length determined by the determination unit from the first to third view angle frames.
  • the in-finder information display unit preferably displays an image generated by the image sensor superimposed on or close to the subject image. Further, it is preferable that the in-finder information display unit displays an optimum field angle frame corresponding to the optimum focal length determined by the determination unit in the image. Furthermore, it is preferable that the in-finder information display unit displays an area other than the optimum field angle frame in the image with reduced luminance.
  • the in-viewfinder information display unit displays a plurality of angle-of-view frames corresponding to a plurality of electronic zoom magnifications in the image before the electronic zoom function is executed.
  • An imaging device control method of the present invention is a method for controlling an imaging device including a mount unit, an image sensor, a finder, and an in-finder information display unit, and includes a mounting history storage step, a first angle-of-view frame display control step, The second angle-of-view frame display control step and the third angle-of-view frame display control step are processed.
  • a plurality of photographing lenses having different focal lengths are detachably mounted on the mount portion.
  • the imaging element generates an image based on a subject image incident through one photographing lens mounted on the mount unit.
  • the viewfinder allows the subject image to be observed through the viewfinder lens.
  • the in-viewfinder information display unit superimposes information on the subject image and displays it in an observable manner in the viewfinder.
  • the mounting history storage step stores the mounting history of the photographic lens previously mounted on the mount unit.
  • the in-finder information display unit is controlled, and a plurality of first angle-of-view frames corresponding to the focal lengths of all the photographing lenses that can be mounted on the mount unit are displayed as information.
  • the second angle-of-view frame display control step controls the in-viewfinder information display unit and corresponds to the focal length of the photographing lens previously mounted on the mount unit among the plurality of first angle-of-view frames based on the mounting history.
  • the object is displayed as information in a display form different from that of the first field angle frame as the second field angle frame.
  • the third angle-of-view frame display control step controls the in-finder information display unit, and sets the third angle-of-view frame corresponding to the focal length of the photographing lens currently mounted on the mount unit as the first and second angle-of-view frames. Information is displayed in a different display form.
  • the present invention it is easy to imagine the shooting range of other shooting lenses that are not mounted on the mount portion, and it becomes easy to select a shooting lens having the optimum focal length for the shooting scene. In addition, it will motivate users to use photographic lenses that they do not own and promote sales of photographic lenses.
  • the digital camera 10 includes a camera body 11 and a photographing lens 12.
  • the taking lens 12 has a lens barrel 17 and is detachably attached to the camera body 11 via a mount portion 13.
  • the camera body 11 includes an operation unit 14, a rear display unit 15, and a finder 16.
  • the viewfinder 16 is a hybrid type that can be switched between an electronic viewfinder (EVF) mode, an optical viewfinder (OVF) mode, and a full-angle display mode.
  • the operation unit 14 includes a power button 18, a release button 19, a finder switching lever 21, a mode selection button 22, a zoom button 23, and the like.
  • the power button 18 is operated when turning on or off the power (not shown) of the digital camera 10.
  • the release button 19 is operated when shooting is performed.
  • the viewfinder switching lever 21 is operated when the viewfinder 16 is switched between the EVF mode, the OVF mode, and the full-angle frame display mode.
  • the mode selection button 22 is operated when switching the operation mode of the digital camera 10.
  • the zoom button 23 is operated when performing zooming.
  • the release button 19 has a two-stage stroke type switch (not shown) composed of an S1 switch and an S2 switch.
  • a shooting preparation operation such as an autofocus (AF) operation. From this state, when the release button 19 is further pressed down to the full stroke (fully pressed) and the S2 switch is turned on, a photographing operation is performed.
  • AF autofocus
  • the operation mode of the digital camera 10 includes a still image shooting mode for acquiring a still image, a moving image shooting mode for acquiring a moving image, and a playback mode for reproducing and displaying each acquired image on the rear display unit 15.
  • the rear display unit 15 is provided on the rear surface of the camera body 11. The rear display unit 15 displays images acquired in various shooting modes and a menu screen for performing various settings.
  • the finder 16 includes a finder window 16a for capturing an optical image of a subject, and a finder eyepiece 16b through which a user's eye as a photographer approaches.
  • the finder window 16 a is provided on the front side of the camera body 11.
  • the viewfinder eyepiece 16 b is provided on the back side of the camera body 11.
  • the finder window 16a and the finder eyepiece 16b constitute a finder lens.
  • a slot (not shown) is provided at the bottom of the camera body 11.
  • a recording medium 40 (see FIG. 3) is mounted in the slot.
  • the photographing lens 12 is provided with a diaphragm 30.
  • the diaphragm 30 is driven and controlled by the main control unit 32 to adjust the amount of light incident on the solid-state image sensor 31.
  • An optical image (subject image) of a subject that has passed through the lens barrel 17 and whose amount of light has been adjusted by the diaphragm 30 enters the solid-state imaging device 31.
  • the lens barrel 17 holds a zoom lens 17a and a focus lens 17b.
  • a lens driving unit 24 is provided in the lens barrel 17.
  • the lens driving unit 24 moves the zoom lens 17a and the focus lens 17b in the optical axis direction under the control of the main control unit 32. Zooming is performed by moving the zoom lens 17a, and AF operation is performed by moving the focus lens 17b.
  • the solid-state image sensor 31 is provided in the camera body 11.
  • the solid-state imaging device 31 is driven and controlled by the main control unit 32 in accordance with the operation mode selected by the mode selection button 22 (see FIG. 2).
  • the solid-state imaging device 31 is, for example, a single-plate color imaging type CMOS (complementary metal oxide semiconductor) type image sensor or a CCD (Charged-coupled device) type image sensor having RGB color filters.
  • the solid-state imaging device 31 has a light receiving surface composed of a plurality of pixels (not shown) arranged in a two-dimensional matrix. Each pixel includes a photoelectric conversion element, and photoelectrically converts an optical image formed on the light receiving surface to generate an imaging signal. Further, the solid-state imaging device 31 has an electronic shutter function, and the shutter speed (charge accumulation time) can be adjusted.
  • the solid-state imaging device 31 includes a signal processing circuit (all not shown) such as a noise removal circuit, an auto gain controller, and an A / D conversion circuit.
  • the noise removal circuit performs noise removal processing on the imaging signal.
  • the auto gain controller amplifies the level of the imaging signal to an optimum value.
  • the A / D conversion circuit converts the imaging signal into a digital signal and outputs it from the solid-state imaging device 31.
  • the output signal of the solid-state imaging device 31 is image data (so-called RAW (raw image format) data) having one color signal for each pixel.
  • the solid-state image sensor 31 and the main control unit 32 are connected to a bus 33.
  • a memory controller 34, a digital signal processor 35, a media controller 36, a first display controller 37, and a second display controller 38 are connected to the bus 33.
  • the memory control unit 34 is connected to a memory 39 for temporary storage such as SDRAM (Synchronous Dynamic Random Access Memory).
  • SDRAM Synchronous Dynamic Random Access Memory
  • the memory control unit 34 inputs the image data output from the solid-state imaging device 31 to the memory 39 and stores it. Further, the memory control unit 34 outputs the image data stored in the memory 39 to the digital signal processing unit 35.
  • the digital signal processing unit 35 performs defect correction processing, demosaic processing, gamma correction processing, white balance correction processing, YC conversion processing, and the like on the image data (RAW data) input from the memory 39, and the luminance signal Y and YC image data composed of the color difference signal C is generated.
  • the media control unit 36 controls recording and reading of image files on the recording medium 40.
  • the recording medium 40 is, for example, a memory card incorporating a flash memory or the like.
  • compressed image data obtained by compressing YC image data according to the JPEG standard or the like is recorded on the recording medium 40 as an image file.
  • moving image data obtained by compressing YC image data of a plurality of frames obtained by moving image shooting according to MPEG (Moving Picture Picture Expert Group) -4 standard or the like is recorded on the recording medium 40.
  • MPEG Motion Picture Picture Expert Group
  • These compression processes are performed by the digital signal processing unit 35.
  • sound is acquired and recorded in addition to the image.
  • description of the configuration related to acquisition and recording of sound is omitted.
  • the first display control unit 37 controls image display on the rear display unit 15. Specifically, the first display control unit 37 generates a video signal based on the NTSC (National Television System Committee) standard or the like based on the YC image data generated by the digital signal processing unit 35 to generate a rear display unit. 15 is output.
  • NTSC National Television System Committee
  • the second display control unit 38 generates a video signal based on the YC image data similarly to the first display control unit 37, and outputs the video signal to a liquid crystal display device (EVFLCD) 42 described later.
  • the second display control unit 38 constitutes a first view angle frame display control unit, a second view angle frame display control unit, and a third view angle frame display control unit.
  • the second view control unit 38 performs a first view angle frame display control step, a second view angle frame display control step, and a third view angle frame display control step.
  • the finder 16 is provided with an EVFLCD 42, a prism 43, and an OVF shutter 44.
  • the EVFLCD 42, the prism 43, and the OVF shutter 44 constitute an in-finder information display unit.
  • the in-finder information display unit superimposes information such as the information image 57 on the optical image 59 (see FIG. 8B) obtained through the finder lens including the finder window 16a and the finder eyepiece 16b. Display as possible.
  • the EVFLCD 42 has a backlight and a liquid crystal panel.
  • the backlight irradiates the liquid crystal panel with light in a planar shape.
  • the liquid crystal panel is a transmissive liquid crystal panel having a plurality of liquid crystal cells, and controls the light transmittance of each liquid crystal cell based on the video signal input from the second display control unit 38. At this time, image display is performed by light emitted from the backlight and transmitted through the liquid crystal panel.
  • a subject display area 46 and an information display area 47 are set in the EVFLCD 42.
  • a subject image 55 and a first view angle frame 61 to a third view angle frame 63 (see FIG. 9A) described later are displayed.
  • the subject image 55 is a display image of YC image data generated by the digital signal processing unit 35.
  • the view angle frames 61 to 63 are display images generated by the main control unit 32 based on the view angle frame data.
  • the view angle frames 61 to 63 represent the view angle frames for each focal length of the photographing lens 12.
  • the information display area 47 is set in a frame shape so as to surround the periphery of the subject display area 46.
  • An information image 57 is displayed in the information display area 47.
  • the information image 57 is a display image of information image data generated by the main control unit 32.
  • the information image data is generated based on shooting information such as shooting conditions, the number of images that can be shot, and a shooting mode.
  • shooting information such as shooting conditions, the number of images that can be shot, and a shooting mode.
  • shooting information such as shooting conditions, the number of images that can be shot, and a shooting mode.
  • the main control unit 32 includes angle-of-view frame table data 41.
  • the angle-of-view frame table data 41 includes a focal length column 41a, an angle-of-view frame data column 41b, and a status column 41c.
  • the focal length column 41 a stores the focal lengths of all the photographing lenses 12 that are mounted on the mount unit 13 and can be used with the digital camera 10.
  • Field angle frame data D18, D35, D50,... Corresponding to the focal length of each photographing lens 12 is stored in the field angle frame data column 41b. For example, in the case of a photographic lens having a focal length of 18 mm, field angle frame data D18 is registered.
  • the identification symbol A is given to the taking lens 12 held by the user who owns the camera body 11. This identification symbol A is automatically given to the photographing lens 12 having a focal length that has been previously mounted on the mount portion 13 of the camera body 11 owned by the user. Thereby, it is possible to omit the trouble of separately registering possession.
  • the identification symbol B is given to the usable photographing lens 12 that is not owned by the user.
  • the identification symbol C is attached to the taking lens 12 currently mounted on the mount 13 of the camera body 11. Therefore, the identification symbols A to C in the status column 41c can identify the history of mounting the taking lens 12 on the camera body 11 and whether the taking lens 12 is held.
  • the identification symbol A is given to the photographing lenses 12 with the focal lengths of 18 mm, 50 mm, and 60 mm, and it can be seen that the photographing lens 12 is currently held.
  • an identification symbol C is given to the photographing lens 12 having a focal length of 60 mm, and it can be seen that the photographing lens 12 is mounted on the mount portion 13.
  • an identification symbol B is given to the photographing lenses 35 mm and 120 mm, and it can be seen that the photographing lens 12 is not currently owned by the user.
  • FIG. 6 shows a flowchart for performing processing (mounting history storing step) in which the mounting history is stored using the view angle frame table data 41.
  • the main control unit 32 reads the lens information 24a of the lens driving unit 24 via the mount unit 13 (S11). Based on the read lens information 24a, when the identification symbol in the state column 41c of the corresponding photographic lens 12 in the angle-of-view frame table data 41 is “B”, it is determined that it is not attached (S12). The identification symbol A is rewritten (S13). By this rewriting, the storage process of the photographing lens mounting history is completed. Also, it is determined whether or not the photographing lens 12 has been changed (S14), and lens information is rewritten when the photographing lens 12 is different from the previous power-on (when the photographing lens has been changed).
  • the lens information 24a may be an optically or mechanically readable identification mark instead of electronic information.
  • an identification mark is provided on the photographic lens 12 at a position corresponding to the mount portion 13 and optically or mechanically read by a mark sensor (both not shown) on the camera body 11 side.
  • a mounting history storage unit is configured by the function of reading lens information 24 a from the photographic lens 12 by the main control unit 32 and the function of writing the identification symbol A into the state column 41 c of the view angle frame table data 41.
  • a mounting history storage step is performed by the mounting history storage unit.
  • the angle-of-view frame table data 41 can be updated each time a new photographing lens 12 is additionally sold, for example.
  • the update is performed, for example, by reading new update data via the recording medium 40 (see FIG. 3). Further, instead of updating via the recording medium 40, updating is performed by, for example, USB (Universal Serial Bus) connection with a personal computer (not shown). Furthermore, it is updated together with the software update when the software is upgraded. In this way, the view angle frame table data 41 is associated with the latest list of available photographing lenses 12.
  • the prism 43 includes a half mirror 48 as an optical path integrating unit.
  • the half mirror 48 forms an angle of 45 degrees with respect to the first optical path 49 through which the optical image of the subject incident on the finder window 16a propagates and the second optical path 50 through which the display image displayed on the EVFLCD 42 propagates. Is arranged.
  • the half mirror 48 integrates the first optical path 49 and the second optical path 50 into a third optical path 51.
  • a finder eyepiece 16 b is disposed on the third optical path 51.
  • the half mirror 48 partially transmits an optical image propagating on the first optical path 49 and guides it to the third optical path 51, and partially reflects a display image propagating on the second optical path 50 to guide it to the third optical path 51. .
  • the OVF shutter 44 is a liquid crystal shutter and is disposed on the first optical path 49.
  • the OVF shutter 44 is controlled by the main control unit 32 to block an optical image incident from the finder window 16a so as not to be incident on the prism 43, and an “open state” where the optical image is transmitted and incident on the prism 43. ".”
  • the OVF shutter 44 is set to the “open state” in the OVF mode, the full angle frame display mode, and the hybrid mode described later, and is set to the “closed state” in the EVF mode.
  • FIG. 7 is a flowchart showing a mode switching process for switching between the EVF mode M1, the OVF mode M2, and the full angle frame display mode M3. It is possible to switch to the EVF mode M1, the OVF mode M2, and the full angle frame display mode M3 by operating the finder switching lever 21 and the mode selection button 22 of the operation unit 14.
  • the second display control unit 38 In the EVF mode M1, the second display control unit 38 generates a video signal for displaying the subject image 55 in the subject display area 46 and displaying the information image 57 in the information display area 47, as shown in FIG.
  • the signal value of the portion corresponding to the information display area 47 of the video signal has, for example, the highest gradation (white) level in the portion indicating the shooting information such as characters and the other portion in the lowest gradation (black) level, for example. is there.
  • the subject image 55 and the information image 57 are guided to the third optical path 51 by being propagated on the second optical path 50 and reflected by the half mirror 48. Since the OVF shutter 44 is in the “closed state”, the optical image 59 does not enter the half mirror 48.
  • the EVF image P1 on which the subject image 55 and the information image 57 shown in FIG. 4 are displayed is guided to the viewfinder eyepiece 16b (S22).
  • the second display control unit 38 In the OVF mode M2, the second display control unit 38 generates a video signal that hides the subject display area 46 and displays the information image 57 in the information display area 47.
  • the signal value of the portion corresponding to the subject display area 46 of this video signal is the black level.
  • the portion indicating the shooting information is the white level and the other portion is the black level, as in the EVF mode M1 described above. Therefore, as shown in FIG. 8A, only the information image 57 is displayed on the EVFLCD 42.
  • the information image 57 propagates on the second optical path 50, is reflected by the half mirror 48, and is guided to the third optical path 51.
  • the optical image 59 shown in FIG. 8B is transmitted through the OVF shutter 44.
  • the optical image 59 propagates on the first optical path 49, passes through the half mirror 48, and is guided to the third optical path 51.
  • the OVF image P2 in which the optical image 59 and the information image 57 are superimposed is guided to the viewfinder eyepiece 16b (S23).
  • the second display control unit 38 displays the first view angle frame 61 and the second view angle in the subject display area 46, as shown in FIG.
  • An angle of view frame 62 and a third angle of view frame 63 are displayed, and an information image 57 is displayed in the information display area 47.
  • the view angle frames 61 to 63 are created based on the view angle frame data of the view angle frame table data 41.
  • the angle-of-view frames 61 to 63 indicate the range (shooting range) taken by the solid-state imaging device 31 in the OVF image, and are displayed for each focal length (S24).
  • the first view angle frame 61 is created based on the view angle frame data of the identification symbol B.
  • the first angle-of-view frame 61 shows the angle-of-view frame when these are used for all the taking lenses 12 currently on sale.
  • the second view angle frame 62 is created based on the view angle frame data of the identification symbol A.
  • the second angle-of-view frame 62 shows the angle-of-view frame when the currently owned photographing lens 12 is used.
  • the third view angle frame 63 is created based on the view angle frame data of the identification symbol C.
  • the third field angle frame is a field angle frame when the photographing lens 12 currently attached to the camera body 11 is used.
  • These first to third angle-of-view frames 61 to 63 are displayed in white, and the other portions are displayed in black. Further, in the center of the lower side of each of the view angle frames 61 to 63, a number indicating the focal length of each of the view angle frames 61 to 63 and the enlargement magnification based on the maximum view angle frame are displayed in, for example, white.
  • the width of each frame line becomes thicker in the order of the first angle-of-view frame 61, the second angle-of-view frame 62, and the third angle-of-view frame 63.
  • the third view angle frames 61 to 63 can be identified.
  • the luminance of the frame line may be changed for each of the angle-of-view frames 61 to 63.
  • the first to third angle-of-view frames 61 to 63 propagate on the second optical path 50 and are reflected by the half mirror 48 and guided to the third optical path 51 as shown in FIG. Since the OVF shutter 44 is in the “open state”, the optical image 59 shown in FIG. 9B passes through the OVF shutter 44. The optical image 59 propagates on the first optical path 49, passes through the half mirror 48, and is guided to the third optical path 51. As a result, as shown in FIG. 9C, the OVF image P3 in which the optical image 59, the information image 57, and the first to third angle-of-view frames 61 to 63 are superimposed is guided to the viewfinder eyepiece 16b. (S24).
  • the user can confirm the shooting range from the first angle-of-view frame 61 to the third angle-of-view frame 63 in the OVF image P3. Further, not only the third field angle frame 63 by the photographing lens 12 mounted on the mount unit 13 but also the second field angle frame 62 of the possessed photographing lens 12 or the unpurchased photographing lens 12 not possessed.
  • the first angle-of-view frame 61 is displayed. For this reason, the user can easily imagine which is the best field angle frame corresponding to the current shooting scene.
  • the optimum field angle frame is the second field angle frame 62
  • the photographing with the optimum field angle frame can be performed by replacing the imaging lens 12 with the field angle frame. Further, when the optimal angle of view frame is the first angle of view frame 61, it is motivated to purchase a new photographic lens 12, which leads to sales promotion of the photographic lens 12.
  • the first angle-of-view frame 61 to the third angle-of-view frame 63 are displayed in a frame shape so as to surround the specific area, but may be any display form that can recognize the specific area. For example, only the corner portion of the frame may be displayed.
  • the AF frame may be displayed together with the view angle frames 61 to 63.
  • the AF frame may be displayed in the EVF mode M1 or the OVF mode M2 other than the full-angle frame display mode M3.
  • the AF frame indicates a target range (focus area) when performing an AF operation in the imaging signal generated by the solid-state imaging device 31.
  • the AF operation is performed by driving and controlling the focus lens 17b so that an AF evaluation value (for example, an integrated value of high frequency components) included in the imaging signal corresponding to the AF frame becomes maximum.
  • the AF frame is fixed at the center of the shooting range.
  • the AF frame is set by the operation unit 14 or the face portion of a person detected by the face detection function.
  • the operation of the digital camera 10 will be described.
  • a power supply voltage is supplied to each part of the digital camera 10.
  • the photographing lens mounting history is stored.
  • lens information of the photographing lens 12 mounted on the mount unit 13 is read (S11).
  • the lens information has the identification symbol B in the state column 41c in the view angle frame table data 41 (in the case of an unmounted lens), the identification symbol B is rewritten to the identification symbol A indicating possession ( S13).
  • step S14 it is determined whether or not the mounted lens is changed (S14). If it is determined that the photographing lens 12 having the focal length in which the identification symbol C is stored is the same as the photographing lens mounted on the mount unit 13 (if there is no change), the photographing lens 12 having this focal length is stored. The identification symbol C in the status column 41c is held as it is. If the photographing lens 12 having the focal length of the table data 41 to which the identification symbol C is attached is different from the photographing lens 12 attached to the mount unit 13 (when there is a change), the corresponding photographing is performed. The state column 41c of the lens 12 is rewritten with the identification symbol C (S15). In addition, the state column 41c of the photographing lens 12 to which the identification symbol C has been added is rewritten from the identification symbol C to the identification symbol B (S15). In this way, the mounting history storage unit performs an update process.
  • the operation unit 14 When the operation unit 14 is operated and, for example, the program shooting mode is selected as the shooting mode, the shutter speed and the aperture value are automatically set. Further, when the mode selection button 22 is operated and the still image shooting mode is selected, the viewfinder 16 starts its operation.
  • any one of the EVF mode M1, the OVF mode M2, and the full angle frame display mode M3 is selected by operating the finder switching lever 21 (see FIG. 3) (S21).
  • the subject image 55 is displayed in the subject display area 46 and the information image 57 is displayed in the information display area 47, as shown in FIG.
  • the subject image 55 and the information image 57 are guided to the third optical path 51 by being propagated on the second optical path 50 and reflected by the half mirror 48. Since the OVF shutter 44 is in the “closed state”, the optical image 59 does not enter the half mirror 48.
  • the EVF image P1 having the subject image 55 and the information image 57 as shown in FIG. 4 is guided to the viewfinder eyepiece 16b (S22).
  • the second display control unit 38 In the OVF mode M2, the second display control unit 38 generates a video signal that hides the subject display area 46 and displays the information image 57 in the information display area 47. Thereby, only the information image 57 propagates on the second optical path 50 and is reflected by the half mirror 48, and the information image 57 is guided to the third optical path 51. Since the OVF shutter 44 is in the “open state”, the optical image 59 passes through the OVF shutter 44, propagates on the first optical path 49, and passes through the half mirror 48. As a result, the optical image 59 is guided to the third optical path 51. As a result, as shown in FIG. 8C, the OVF image P2 in which the optical image 59 and the information image 57 are superimposed is guided to the viewfinder eyepiece 16b (S23).
  • the second display control unit 38 In the full angle-of-view frame display mode M3, as shown in FIG. 9A, the second display control unit 38 (see FIG. 3) has a first angle-of-view frame 61 and a second angle-of-view frame 62 in the subject display area 46. , And the third field angle frame 63, and a video signal for displaying the information image 57 in the information display area 47 is generated.
  • the view angle frames 61 to 63 are created based on the view angle frame data of the view angle frame table data 41.
  • the information image 57 and the first to third angle frames 61 to 63 propagate on the second optical path 50, are reflected by the half mirror 48, and are guided to the third optical path 51. Further, since the OVF shutter 44 is in the “open state”, the optical image 59 shown in FIG. 9B is transmitted through the OVF shutter 44, propagated on the first optical path 49, and transmitted through the half mirror 48. Guided to the third optical path 51. As a result, as shown in FIG. 9C, the OVF image P3 in which the optical image 59, the information image 57, and the view angle frames 61 to 63 are superimposed is guided to the finder eyepiece 16b (S24). By observing the optical image 59 of the subject, the user can confirm the photographing conditions and the respective angle-of-view frames 61 to 63 by observing the optical image 59 of the subject by observing the finder eyepiece 16b.
  • a shooting scene is determined based on image data, and an angle-of-view frame corresponding to an optimal shooting focal length is highlighted based on the determination result.
  • the main control unit 32 determines the shooting scene, and the main control unit 32 constitutes a determination unit.
  • the determination unit determines an optimum focal length suitable for an image shooting scene.
  • the highlight display control unit that emphasizes and displays the view angle frame corresponding to the optimum focal length is configured by the second display control unit 38.
  • This emphasis display of the angle-of-view frame is performed by selecting the scene determination optimum angle-of-view frame display mode M4 by operating the mode selection button in the OVF mode.
  • the main control unit 32 performs scene decision and optimum view angle selection processing.
  • the presence or absence of face detection is determined (S31).
  • a focal length suitable for the portrait is selected (S32), and an OVF image P4 in which the field angle frame of the photographing lens 12 having this focal length is highlighted is displayed. (S33). Note that the face detection method is well known, and a description thereof will be omitted.
  • the photographic lens 12 having a focal length of 50 mm is determined as the optimum field angle frame, and the second field angle frame 62 of the photographic lens 12 is switched to the dotted line display, and is blinked and highlighted.
  • the highlighted display of the optimum view angle frame adopts a display form different from the highlighted display of the third view angle frame in the first embodiment.
  • the color of the frame line is changed from white to, for example, red.
  • One of these highlights may be used, or a plurality of highlights may be used in combination.
  • the area of the subject image 55 other than the optimum view angle frame may be displayed with a lower brightness than the brightness within the optimum view angle frame. In this case, the image within the optimum view angle frame becomes clear and the view angle frame can be easily determined.
  • an angle-of-view frame having an area that is, for example, 1.25 times the area of the face area when the area of the face area is equal to or greater than a certain value. May be selected as the optimum field angle frame.
  • the area ratio between the face area and the view angle frame is not limited to 1.25 times, and may be changed as appropriate.
  • the shooting scene is a landscape (S31).
  • a field angle frame using a wide-angle shooting lens that is optimal for landscape photography is selected (S34), and a different line type such as a one-dot chain line or a two-dot chain line is used as the frame line of the field angle frame.
  • the color is displayed in blue, for example (S35).
  • the relationship between the scene determination result that is a landscape and the optimum angle of view frame for the scene determination result is stored in advance.
  • a method for determining whether or not the scene is a landscape is well known, and detailed description thereof is omitted.
  • feature data samples prepared in advance for each shooting scene may be stored.
  • feature data indicating the feature of the photographic scene is generated from the image data, and it is determined whether or not it is a landscape by comparing the feature data with the feature data sample.
  • the EVF mode M1, the OVF mode M2, and the full angle frame display mode M3 are switched.
  • the third embodiment has a hybrid mode M5 that allows the subject image 55 and the optical image 59 to be observed simultaneously.
  • the hybrid mode M5 will be described, and the EVF mode M1, the OVF mode M2, and the full angle-of-view frame display mode M3 are the same as those in the first embodiment, and a description thereof will be omitted.
  • a subject display area 80, an information display area 81, and a sub display area 82 smaller than the subject display area 80 are set.
  • the sub display area 82 is set at a position shifted from the center of the subject display area 80, for example, at the lower right.
  • An information image 57 is displayed in the information display area 81, and a subject image 55 is displayed in the sub display area 82.
  • the subject display area 80 is not displayed.
  • the information image 57 and the subject image 55 propagate on the second optical path 50 and are reflected by the half mirror 48. Further, since the OVF shutter 44 is in the “open state”, the optical image 59 passes through the OVF shutter 44, propagates on the first optical path 49, and passes through the half mirror 48. As a result, as shown in FIG. 13, the hybrid image P5 in which the optical image 59, the information image 57, and the subject image 55 are superimposed is guided to the finder eyepiece 16b. Further, since the subject image 55 is displayed in the sub display area 82, it can be displayed close to the optical image 59. Instead of hiding the subject display area 80, the view angle frames 61 to 63 may be displayed in the subject display area 80, as in the first embodiment.
  • the AF frame described in the first embodiment may be displayed.
  • the electronic zoom field angle display mode M6 is set when it is desired to display a plurality of field angle frames by electronic zoom before electronic zooming at the time of initial setting of the camera.
  • the electronic zoom field angle display mode M6 is selected, for example, when the electronic zoom magnification button is pressed, a plurality of zooms as shown in FIG. A view angle frame 85 is displayed. Therefore, when the user confirms the zoom field angle frame 85, selection of the field angle frame based on the optimum zoom magnification becomes easy. Thereafter, when the electronic zoom button is further pressed, the electronic zoom is switched, and the display of the zoom angle frame 85 is switched to the electronic zoom image display (S42).
  • the electronic zoom field angle display mode M6 may be performed in the EVF mode M1 or the hybrid mode M5 in addition to the OVF mode M2.
  • Image data obtained by the solid-state imaging device 31 can be obtained only within the field angle range of the photographing lens 12 mounted on the mount unit 13. For this reason, in the EVF mode M1, the subject image cannot be displayed in an area larger than the angle of view of the photographic lens 12 attached. For this reason, even if only the field angle frame of the wide-angle photographing lens 12 is displayed, only the field angle frame is displayed, and it is difficult to imagine a specific photographing range by the wide-angle photographing lens 12. In order to compensate for this, in the modified example, as shown in FIG. 16, an area that is, for example, four times larger than the field angle frame of the attached photographic lens is photographed by the swing panorama photographing technique.
  • the swing panorama shooting method is well known, and the description of the image acquisition method by moving the camera is omitted.
  • images F1 to F4 having a shooting field angle of about 4 times are obtained with the camera swing direction being U-shaped with respect to the shooting scene.
  • the camera swing direction is arbitrary.
  • the camera is first moved to the right in the horizontal direction, then moved downward in the vertical direction, and finally moved to the left in the horizontal direction.
  • the images F1 to F4 of each part are acquired.
  • These boundaries are extracted from the obtained images F1 to F4 by, for example, pattern recognition, and the images F1 to F4 are connected at the boundary portions to obtain an image F5 having a photographing field angle of about four times.
  • the camera swing direction may be first in the vertical direction, next in the horizontal direction on the right, and finally in the vertical direction on the bottom, so as to obtain vertically long image data.
  • a panoramic image that is long horizontally may be obtained by simply swinging the camera to the right in the horizontal direction or the left in the horizontal direction.
  • a vertically long panoramic image may be obtained by swinging the camera upward or downward in the vertical direction.
  • the panoramic image P7 based on the image F5 obtained by the swing panorama shooting method is displayed when the EVF mode or the hybrid mode is displayed on the rear display unit 15, as shown in FIG. Further, the first view angle frame 61 to the third view angle frame 63 are displayed for the panoramic image P7 in the same manner as in the first embodiment. Thus, the first to third angle-of-view frames 61 to 63 are displayed in the panoramic image P7 obtained by the swing panorama shooting method, so that the shooting angle of view by each of the photographic lenses 12 can be easily grasped. become.
  • the present invention is applied to a photographing apparatus in which a lens barrel is detachably attached to a camera body.
  • the lens barrel and the camera body are integral and cannot be separated, and the focal length
  • the present invention to an imaging apparatus in which different conversion lenses are detachably attached to a lens barrel.
  • the conversion lens corresponds to the photographing lens described in the claims
  • the connection portion of the conversion lens in the lens barrel corresponds to the mount portion described in the claims.
  • the present invention can be applied to a photographing apparatus such as a video camera, a mobile phone, and a smartphone in addition to the digital camera.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

撮影時の画角枠が想像し易く、撮影シーンに最適な焦点距離の撮影レンズが選択可能な撮影装置及びその制御方法を提供する。 ファインダは、ファインダ用レンズを介して被写体像が観察可能になっている。ファインダ内情報表示部は、情報を被写体像に重畳させて観察可能に表示し、且つ第1画角枠61~第3画角枠63を表示する。第1画角枠61は、マウント部に装着可能な全ての撮影レンズの焦点距離に対応した複数の画角枠である。第2画角枠62は、マウント部に過去に装着された撮影レンズの焦点距離に対応する複数の画角枠である。第3画角枠63は、マウント部に装着されている撮影レンズの焦点距離に対応する画角枠である。マウント部に装着可能な全ての撮影レンズの画角枠61~63が表示されることにより、撮影シーンに最適な焦点距離の撮影レンズを容易に知ることができる。

Description

撮影装置及びその制御方法
 本発明は、撮影装置及びその制御方法に関する。
 ハイブリッドファインダを有するデジタルカメラ等の撮影装置が知られている(特許文献1参照)。ハイブリッドファインダは、光学ビューファインダ(以下、Optical View Finder:OVFという)モードと電子ビューファインダ(以下、Electric View Finder:EVFという)モードとを有し、両者が切り替え可能になっている。
 ハイブリッドファインダは、被写体側のファインダ窓と撮影者側の接眼窓との間に、ファインダ内情報表示部を有する。ファインダ内情報表示部は、例えばハーフミラーと表示パネルから構成されている。表示パネルは、有機EL(OLED:Organic Light-Emitting Diode)等の自発光表示装置や液晶表示装置等から構成され、被写体画像や情報画像を表示する。被写体画像は、撮影データに基づき表示パネルに表示される。撮影データは、撮影レンズを通して撮像素子に結像された画像を光電変換して得られる。情報画像は、シャッタ速度、絞り値、ISO(International Organization for Standardization:国際標準化機構)のこと。感度等の撮影条件データに基づき表示される。ファインダ窓には、被写体の光学像が入射する。ハーフミラーは被写体の光学像を一部透過させてファインダ接眼部に導く。また、ハーフミラーは、表示パネルが表示した表示画像を一部反射させてファインダ接眼部に導く。
 ハイブリッドファインダは、ファインダ窓に入射する光学像を遮蔽するシャッタ(以下、OVFシャッタという)を有している。OVFモードでは、OVFシャッタを開状態とし、表示パネルを非表示とさせることで、光学像をファインダ接眼部に導く。EVFモードでは、OVFシャッタを閉状態とし、表示パネルに表示画像を表示する。表示画像はハーフミラーを介してファインダ接眼部に導かれる。
 表示パネルの表示面は、被写体画像が表示される被写体表示エリアと、情報画像が表示される情報表示エリアとを有している。被写体表示エリアは表示画像の中央部に設定され、情報表示エリアは被写体表示エリアの周囲を囲うように枠状に設定される。ハイブリッドファインダは、EVFモードでは、被写体表示エリアと情報表示エリアとの両方に画像を表示する。OVFモードでは、被写体表示エリアの被写体画像を非表示とし、情報表示エリアの情報画像を表示する。これにより、ハーフミラーを介して光学像と情報画像とをファインダ接眼部に導くことにより、光学像に情報画像が重ね合わせて表示される。
 一方、焦点距離が異なる複数の撮影レンズが装着可能な撮像装置であって、装着されている撮影レンズの他に、非装着の撮影レンズの画角を表示する撮像装置が知られている(特許文献2参照)。この撮像装置では、マウント部に装着されている撮影レンズで撮影された画像に、非装着の撮影レンズの画角枠を表示することにより、非装着レンズによる撮影画角を把握することができる。
特開2012-065294号公報 特開2012-168299号公報
 しかしながら、特許文献2の撮像装置では、マウント部に装着されている撮影レンズを介して撮影画像を取得し、この撮影画像を表示部に表示している。装着されている撮影レンズの焦点距離よりも、更に短い撮影レンズの画角枠を表示する場合には、装着されている撮影レンズの画角よりも大きくなる。このため、非装着の撮影レンズは、撮影画像の外側に枠だけ表示される。従って、画角枠のみの表示であり、装着されている撮影レンズによる撮影画角枠と非装着レンズの画角枠との間は被写体像が写ることが無いため、撮影者であるユーザにとっては、非装着レンズによる撮影画角を撮影シーン上で想像することが困難であるという問題がある。
 また、特許文献2の撮像装置では、ユーザが保有している撮影レンズと、保有していないがマウント部に装着可能な撮影レンズとが区別されていない。このため、ユーザが保有している撮影レンズのみの画角枠を表示する場合には、それ以外のラインナップされている撮影レンズの画角枠を撮影シーン上で想像することができない。
 本発明は、撮影時の画角枠が想像し易く、撮影シーンに最適な焦点距離の撮影レンズが選択可能な撮影装置及びその制御方法を提供することを目的とする。
 上記目的を達成するため、本発明の撮影装置は、マウント部と、撮像素子と、ファインダと、ファインダ内情報表示部と、装着履歴記憶部と、第1画角枠表示制御部と、第2画角枠表示制御部と、第3画角枠表示制御部とを備える。マウント部は、焦点距離の異なる複数の撮影レンズを着脱自在に保持する。撮像素子は、マウント部に装着された1つの撮影レンズを介して入射する被写体像に基づき画像を生成する。ファインダは、ファインダ用レンズを介して被写体像が観察可能に構成されている。ファインダ内情報表示部は、ファインダ内において、情報を被写体像に重畳させて観察可能に表示する。装着履歴記憶部は、マウント部に過去に装着された撮影レンズの装着履歴を記憶する。第1画角枠表示部は、ファインダ内情報表示部を制御し、マウント部に装着可能な全ての撮影レンズの焦点距離に対応した複数の第1画角枠を情報として表示する。第2画角枠表示制御部は、ファインダ内情報表示部を制御し、装着履歴に基づき、複数の第1画角枠のうち、マウント部に過去に装着された撮影レンズの焦点距離に対応するものを第2画角枠として、第1画角枠とは異なる表示形態で情報として表示する。第3画角枠表示制御部は、ファインダ内情報表示部を制御し、現在マウント部に装着されている撮影レンズの焦点距離に対応する第3画角枠を、第1及び第2画角枠とは異なる表示形態で情報として表示する。
 なお、判定部と強調表示制御部とを備えることが好ましい。判定部では、画像の撮影シーンに適した最適焦点距離を判定する。また、強調表示制御部は、第1~第3画角枠のうちから、判定部により判定された最適焦点距離に対応する画角枠を強調表示する。
 ファインダ内情報表示部は、情報の他に、撮像素子により生成された画像を、被写体像に重畳又は近接させて表示することが好ましい。また、ファインダ内情報表示部は、判定部により判定された最適焦点距離に対応する最適画角枠を、画像中に表示することが好ましい。更に、ファインダ内情報表示部は、画像中の最適画角枠以外の領域を、輝度を低下させて表示することが好ましい。
 画像から電子ズーム倍率に対応する大きさの領域を切り取って拡大する電子ズーム機能を備えることが好ましい。ファインダ内情報表示部は、電子ズーム機能が実行される前に、複数の電子ズーム倍率に対応する複数の画角枠を画像中に表示する。
 本発明の撮影装置の制御方法は、マウント部、撮像素子、ファインダ、ファインダ内情報表示部を備える撮影装置の制御方法であって、装着履歴記憶ステップと、第1画角枠表示制御ステップと、第2画角枠表示制御ステップと、第3画角枠表示制御ステップとを処理する。マウント部は、焦点距離の異なる複数の撮影レンズが着脱自在に装着される。撮像素子は、マウント部に装着された1つの撮影レンズを介して入射する被写体像に基づき画像を生成する。ファインダは、ファインダ用レンズを介して被写体像が観察可能になっている。ファインダ内情報表示部は、ファインダ内において、情報を被写体像に重畳させて観察可能に表示する。装着履歴記憶ステップは、マウント部に過去に装着された撮影レンズの装着履歴を記憶する。第1画角枠表示制御ステップは、ファインダ内情報表示部を制御し、マウント部に装着可能な全ての撮影レンズの焦点距離に対応した複数の第1画角枠を情報として表示する。第2画角枠表示制御ステップは、ファインダ内情報表示部を制御し、装着履歴に基づき、複数の第1画角枠のうち、マウント部に過去に装着された撮影レンズの焦点距離に対応するものを第2画角枠として、第1画角枠とは異なる表示形態で情報として表示する。第3画角枠表示制御ステップは、ファインダ内情報表示部を制御し、現在マウント部に装着されている撮影レンズの焦点距離に対応する第3画角枠を、第1及び第2画角枠とは異なる表示形態で情報として表示する。
 本発明によれば、マウント部に装着されていない他の撮影レンズによる撮影範囲が想像し易くなり、撮影シーンに最適な焦点距離を有する撮影レンズの選択が容易になる。また、未保有の撮影レンズの使用意欲の動機付けとなり、撮影レンズの販売が促進される。
デジタルカメラの正面図である。 デジタルカメラの背面側の斜視図である。 デジタルカメラの電気的構成を示すブロック図である。 EVFモードにおけるEVF画像の一例を示す図である。 画角枠テーブルデータを示す図である。 撮影レンズの装着履歴の記憶処理を示すフローチャートである。 EVFモード、OVFモード、及び全画角枠表示モードのモード切替処理を示すフローチャートである。 OVFモードにおけるOVF画像の一例を示す図である。 全画角枠表示モードにおけるOVF画像の一例を示す図である。 シーン判定最適画角枠表示モードにおける処理を示すフローチャートである。 シーン判定最適画角枠表示モードにおけるOVF画像の一例を示す図である。 ハイブリッドモードにおける被写体表示エリアと情報表示エリアとサブ表示エリアとを示す図である。 ハイブリッドモードにおけるハイブリッド画像の一例を示す図である。 電子ズーム画角枠表示モードにおける処理を示すフローチャートである。 電子ズーム画角枠表示モードにおけるOVF画像の一例を示す図である。 撮影レンズの画角よりも大きなエリアを撮影するスイングパノラマ撮影手法の説明図である。 スイングパノラマ撮影手法で得たパノラマ画像に画角枠を表示した一例を示す図である。
 [第1実施形態]
 図1及び図2において、デジタルカメラ10は、カメラ本体11と撮影レンズ12とを備える。撮影レンズ12はレンズ鏡筒17を有し、マウント部13を介してカメラ本体11に着脱自在に装着される。カメラ本体11は、操作部14、背面表示部15、及びファインダ16を備える。ファインダ16は、電子ビューファインダ(EVF)モードと、光学ビューファインダ(OVF)モードと、全画角表示モードとの切り替えが可能なハイブリッド型である。
 操作部14は、電源ボタン18、レリーズボタン19、ファインダ切替レバー21、モード選択ボタン22、ズームボタン23等を有している。電源ボタン18は、デジタルカメラ10の電源(図示せず)をオン又はオフする際に操作される。レリーズボタン19は、撮影を実行する際に操作される。ファインダ切替レバー21は、ファインダ16を、EVFモード、OVFモード、及び全画角枠表示モードの間で切り替える際に操作される。モード選択ボタン22は、デジタルカメラ10の動作モードを切り替える際に操作される。ズームボタン23は、ズーミングを行う際に操作される。
 レリーズボタン19は、S1スイッチとS2スイッチとで構成された2段ストローク式のスイッチ(図示せず)を有する。デジタルカメラ10は、レリーズボタン19が半分のストローク程度に押下(半押し)され、S1スイッチがオン状態となると、オートフォーカス(AF)動作等の撮影準備動作を行う。この状態から更にレリーズボタン19が全ストローク程度に押下(全押し)され、S2スイッチがオン状態となると、撮影動作を行う。
 デジタルカメラ10の動作モードには、静止画像を取得する静止画撮影モード、動画像を取得する動画撮影モード、取得した各画像を背面表示部15に再生表示する再生モード等がある。背面表示部15は、カメラ本体11の背面に設けられている。背面表示部15は、各種撮影モードで取得された画像や、各種設定を行うためのメニュー画面を表示する。
 ファインダ16は、被写体の光学像を取り込むファインダ窓16aと、撮影者であるユーザの眼が接近するファインダ接眼部16bとを有する。ファインダ窓16aは、カメラ本体11の前面側に設けられている。ファインダ接眼部16bは、カメラ本体11の背面側に設けられている。ファインダ窓16a及びファインダ接眼部16bによりファインダ用レンズが構成されている。
 カメラ本体11の底部にはスロット(図示せず)が設けられている。スロットには記録メディア40(図3参照)が装着される。
 図3に示すように、撮影レンズ12には絞り30が設けられている。絞り30は、主制御部32によって駆動制御され、固体撮像素子31に入射させる光量を調整する。固体撮像素子31には、レンズ鏡筒17を通過し、絞り30により光量が調整された被写体の光学像(被写体像)が入射する。
 レンズ鏡筒17は、ズームレンズ17a、フォーカスレンズ17bを保持している。レンズ鏡筒17内には、レンズ駆動部24が設けられている。レンズ駆動部24は、主制御部32の制御の下、ズームレンズ17a、フォーカスレンズ17bを光軸方向に移動させる。ズームレンズ17aの移動によりズーミングが行われ、フォーカスレンズ17bの移動によりAF動作が行われる。
 固体撮像素子31はカメラ本体11に設けられている。固体撮像素子31は、モード選択ボタン22(図2参照)により選択された動作モードに応じて、主制御部32により駆動制御される。固体撮像素子31は、例えば、RGB方式のカラーフィルタを有する単板カラー撮像方式のCMOS(complementary metal oxide semiconductor)型やCCD(Charged-coupled devices)型のイメージセンサである。固体撮像素子31は、2次元マトリクス状に配列された複数の画素(図示せず)により構成される受光面を有している。各画素は、光電変換素子を含んでおり、受光面に結像された光学像を光電変換して撮像信号を生成する。また、固体撮像素子31は、電子シャッタ機能を有しており、シャッタ速度(電荷蓄積時間)が調整可能である。
 固体撮像素子31は、ノイズ除去回路、オートゲインコントローラ、A/D変換回路等の信号処理回路(いずれも図示せず)を備える。ノイズ除去回路は、撮像信号にノイズ除去処理を施す。オートゲインコントローラは、撮像信号のレベルを最適な値に増幅する。A/D変換回路は、撮像信号をデジタル信号に変換して固体撮像素子31から出力する。固体撮像素子31の出力信号は、画素ごとに1つの色信号を有する画像データ(いわゆるRAW(Raw image format)データ)である。
 固体撮像素子31及び主制御部32は、バス33に接続されている。この他に、バス33には、メモリ制御部34、デジタル信号処理部35、メディア制御部36、第1表示制御部37、第2表示制御部38が接続されている。
 メモリ制御部34には、SDRAM(Synchronous Dynamic Random Access Memory)等の一時記憶用のメモリ39が接続されている。メモリ制御部34は、固体撮像素子31から出力された画像データをメモリ39に入力して記憶させる。また、メモリ制御部34は、メモリ39に記憶された画像データを、デジタル信号処理部35に出力する。
 デジタル信号処理部35は、メモリ39から入力された画像データ(RAWデータ)に対して、欠陥補正処理、デモザイク処理、ガンマ補正処理、ホワイトバランス補正処理、YC変換処理等を行い、輝度信号Yと色差信号CとからなるYC画像データを生成する。
 メディア制御部36は、記録メディア40への画像ファイルの記録及び読み出しを制御する。記録メディア40は、例えば、フラッシュメモリ等を内蔵したメモリカードである。
 静止画撮影モードの場合には、画像ファイルとして、例えば、YC画像データをJPEG規格等で圧縮した圧縮画像データが記録メディア40に記録される。また、動画撮影モードの場合には、動画撮影により得られる複数フレームのYC画像データをMPEG(Moving Picture Expert Group)-4規格等で圧縮した動画データが記録メディア40に記録される。これらの圧縮処理は、デジタル信号処理部35で行われる。なお、動画撮影モードの場合には、画像に加えて音声も取得して記録されるが、本実施形態では、音声の取得及び記録に関する構成については、説明を省略する。
 第1表示制御部37は、背面表示部15への画像表示を制御する。具体的には、第1表示制御部37は、デジタル信号処理部35により生成されたYC画像データに基づいて、NTSC(National Television System Committee)規格等に準拠した映像信号を生成して背面表示部15に出力する。
 第2表示制御部38は、第1表示制御部37と同様にYC画像データに基づいた映像信号を生成し、後述する液晶表示装置(EVFLCD)42に出力する。第2表示制御部38により、第1画角枠表示制御部、第2画角枠表示制御部、及び第3画角枠表示制御部が構成される。第2表示制御部38により、第1画角枠表示制御ステップ、第2画角枠表示制御ステップ、及び第3画角枠表示制御ステップが行われる。
 ファインダ16には、EVFLCD42と、プリズム43と、OVFシャッタ44とが設けられている。EVFLCD42と、プリズム43と、OVFシャッタ44とにより、ファインダ内情報表示部が構成される。ファインダ内情報表示部は、ファインダ窓16a、ファインダ接眼部16bからなるファインダ用レンズを介して得られる光学像59(図8(B)参照)に、情報画像57等の情報を重畳させて観察可能に表示する。
 EVFLCD42は、バックライトと液晶パネルとを有する。バックライトは光を液晶パネルに面状に照射する。液晶パネルは、複数の液晶セルを有する透過型液晶パネルであり、第2表示制御部38から入力される映像信号に基づいて、各液晶セルの光透過率を制御する。このとき、バックライトから射出され、液晶パネルを透過した光により画像表示が行われる。
 図4に示すように、EVFLCD42には、被写体表示エリア46と情報表示エリア47とが設定される。被写体表示エリア46には被写体画像55や、後に説明する第1画角枠61~第3画角枠63(図9(A)参照)が表示される。被写体画像55は、デジタル信号処理部35により生成されるYC画像データの表示画像である。画角枠61~63は、画角枠データに基づき主制御部32により生成される表示画像である。画角枠61~63は、撮影レンズ12の焦点距離毎の画角枠を表している。
 情報表示エリア47は、被写体表示エリア46の周囲を囲うように枠状に設定される。情報表示エリア47には、情報画像57が表示される。情報画像57は、主制御部32により生成される情報画像データの表示画像である。情報画像データは、撮影条件、撮影可能枚数、撮影モード等の撮影情報に基づいて生成される。情報画像57の一例としては、シャッタ速度を示す「1/2000」、絞り値を示す「F5.6」、ISO感度を示す「ISO200」、撮影モードを示す「P」、撮影可能枚数を示す「19」等がある。
 図3に示すように、主制御部32は、画角枠テーブルデータ41を備えている。図5に示すように、画角枠テーブルデータ41は、焦点距離欄41a、画角枠データ欄41b、状態欄41cを有する。焦点距離欄41aには、マウント部13に装着してデジタルカメラ10で使用可能な全ての撮影レンズ12の焦点距離が記憶されている。画角枠データ欄41bには、各撮影レンズ12の焦点距離に対応した画角枠データD18,D35,D50,・・・が記憶されている。例えば、18mmの焦点距離を有する撮影レンズの場合には画角枠データD18が登録される。
 状態欄41cには識別記号A,B,Cのいずれかが記憶される。識別記号Aは、カメラ本体11を所持するユーザが保有している撮影レンズ12に対して付される。この識別記号Aは、ユーザが保有するカメラ本体11のマウント部13に過去に装着された焦点距離の撮影レンズ12に対し自動的に付される。これにより、別途、保有登録する手間を省略することができる。識別記号Bは、ユーザが保有していない使用可能な撮影レンズ12に対して付される。識別記号Cは、現在カメラ本体11のマウント部13に装着されている撮影レンズ12に対して付される。従って、状態欄41cの識別記号A~Cにより、カメラ本体11への撮影レンズ12の装着履歴や、撮影レンズ12の保有の有無が判る。
 図5に示す画角枠テーブルデータ41では、焦点距離が18mm、50mm、及び60mmの撮影レンズ12に対して識別記号Aが付されており、現在保有している撮影レンズ12であることが判る。また、焦点距離が60mmの撮影レンズ12に対して識別記号Cが付されており、マウント部13に装着されている撮影レンズ12であることが判る。更に、撮影レンズ35mm,120mmに対しては識別記号Bが付されており、ユーザが現時点で保有していない撮影レンズ12であることが判る。
 図6は画角枠テーブルデータ41を用いて装着履歴が記憶される処理(装着履歴記憶ステップ)を行うフローチャートを示している。デジタルカメラ10の電源ボタン18が操作されて電源がONになった時に、画角枠テーブルデータ41に対して装着履歴の記憶処理が開始される。先ず、主制御部32は、マウント部13を介してレンズ駆動部24のレンズ情報24aを読み出す(S11)。この読み出したレンズ情報24aに基づき、画角枠テーブルデータ41中の該当する撮影レンズ12の状態欄41cの識別記号が「B」である時に未装着であると判定して(S12)、これを識別記号Aに書き換える(S13)。この書き換えによって撮影レンズ装着履歴の記憶処理が完了する。また、撮影レンズ12の変更の有無が判定され(S14)、撮影レンズ12が前回電源投入時とは異なっている場合(撮影レンズの変更有りの場合)に、レンズ情報の書き換えが行われる。
 なお、レンズ情報24aは電子的なものに代えて、光学的又は機械的に読み取り可能な識別マークであってもよい。この場合には、マウント部13に対応する位置で撮影レンズ12に識別マークを設けておき、カメラ本体11側のマークセンサ(共に図示せず)により光学的又は機械的に読み取る。主制御部32による撮影レンズ12からのレンズ情報24aの読み出し機能と、画角枠テーブルデータ41の状態欄41cへの識別記号Aの書き込み機能とにより、装着履歴記憶部が構成される。この装着履歴記憶部により装着履歴記憶ステップが行われる。
 画角枠テーブルデータ41は、新たな撮影レンズ12が例えば追加販売される毎に、更新が可能になっている。更新は、例えば、記録メディア40(図3参照)を介して新たな更新データを読み込むことで行われる。また、記録メディア40を介した更新の代わりに、図示しないパソコンとの例えばUSB(Universal Serial Bus)接続によって更新される。更には、ソフトウェアのバージョンアップ時にソフトウェアの更新と一緒に更新される。このようにして、画角枠テーブルデータ41は最新の使用可能な撮影レンズ12の一覧に対応させている。
 図3に戻って、プリズム43は、光路統合部としてのハーフミラー48が内部に構成されている。ハーフミラー48は、ファインダ窓16aに入射した被写体の光学像が伝搬する第1光路49と、EVFLCD42に表示された表示画像が伝搬する第2光路50とに対して、45度の角度をなすように配置されている。このハーフミラー48は、第1光路49と第2光路50とを統合して第3光路51とする。この第3光路51上にファインダ接眼部16bが配置されている。ハーフミラー48は、第1光路49上を伝搬する光学像を一部透過させて第3光路51に導き、第2光路50上を伝搬する表示画像を一部反射させて第3光路51に導く。
 OVFシャッタ44は液晶シャッタであり、第1光路49上に配置されている。OVFシャッタ44は、主制御部32により制御され、ファインダ窓16aから入射する光学像を遮光してプリズム43に入射させない「閉状態」と、光学像を透過させてプリズム43に入射させる「開状態」との間で切り替えられる。OVFシャッタ44は、OVFモードや全画角枠表示モード、後に説明するハイブリッドモードの場合に「開状態」とされ、EVFモードの場合に「閉状態」とされる。
 図7は、EVFモードM1、OVFモードM2、及び全画角枠表示モードM3を切り替えるモード切替処理を示すフローチャートである。操作部14のファインダ切替レバー21やモード選択ボタン22等の操作によって、EVFモードM1、OVFモードM2、及び全画角枠表示モードM3に切り替えることができる。
 EVFモードM1では、第2表示制御部38は、図4に示すように、被写体表示エリア46に被写体画像55を表示し、情報表示エリア47に情報画像57を表示する映像信号を生成する。この映像信号の情報表示エリア47に対応する部分の信号値は、文字等の撮影情報を示す部分が例えば最高階調(白色)レベルであり、その他の部分が例えば最低階調(黒色)レベルである。被写体画像55及び情報画像57は、第2光路50上を伝搬してハーフミラー48によって反射されることにより、第3光路51に導かれる。OVFシャッタ44は「閉状態」とされているため、光学像59はハーフミラー48には入射しない。この結果、図4に示す被写体画像55及び情報画像57が表示されたEVF画像P1がファインダ接眼部16bに導かれる(S22)。
 OVFモードM2では、第2表示制御部38は、被写体表示エリア46を非表示とし、情報表示エリア47に情報画像57を表示する映像信号を生成する。この映像信号の被写体表示エリア46に対応する部分の信号値は、黒色レベルである。また、この映像信号の情報表示エリア47に対応する部分の信号値は、前述のEVFモードM1と同様に、撮影情報を示す部分が白色レベルであり、その他の部分が黒色レベルである。従って、図8(A)に示すように、EVFLCD42には情報画像57のみが表示される。情報画像57は、図3に示すように、第2光路50上を伝搬してハーフミラー48によって反射され、第3光路51に導かれる。OVFシャッタ44は「開状態」とされているため、図8(B)に示す光学像59がOVFシャッタ44を透過する。光学像59は、第1光路49上を伝搬してハーフミラー48を透過して第3光路51に導かれる。この結果、図8(C)に示すように、光学像59と情報画像57とが重ね合わせられたOVF画像P2がファインダ接眼部16bに導かれる(S23)。
 図7に示す全画角枠表示モードM3では、第2表示制御部38(図3参照)は、図9(A)に示すように、被写体表示エリア46に第1画角枠61、第2画角枠62、及び第3画角枠63を表示し、情報表示エリア47に情報画像57を表示する。画角枠61~63は、画角枠テーブルデータ41の画角枠データに基づき作成される。画角枠61~63は、OVF画像中で、固体撮像素子31により撮影される範囲(撮影範囲)を示すもので、それぞれの焦点距離毎に表示される(S24)。
 第1画角枠61は、識別記号Bの画角枠データに基づき作成される。第1画角枠61は、現在販売されている全ての撮影レンズ12に対し、これらを用いた時の画角枠が示される。第2画角枠62は、識別記号Aの画角枠データに基づき作成される。第2画角枠62は、現在保有している撮影レンズ12を用いた時の画角枠が示される。第3画角枠63は識別記号Cの画角枠データに基づき作成される。第3画角枠は、現在カメラ本体11に装着されている撮影レンズ12を用いた時の画角枠が示される。
 これら第1~第3画角枠61~63は白色で表示され、その他の部分は黒色で表示される。また、各画角枠61~63の下辺中央部には、各画角枠61~63の焦点距離を示す数字と最大画角枠を基準とした拡大倍率とが例えば白色で表示される。
 第1~第3画角枠61~63は、第1画角枠61、第2画角枠62、第3画角枠63の順に各枠線の幅が太くなっており、これら第1~第3画角枠61~63の識別が可能になっている。なお、枠線の幅を変える他に、又は加えて、枠線の輝度を各画角枠61~63毎に変更してもよい。
 第1~第3画角枠61~63は、図3に示すように、第2光路50上を伝搬してハーフミラー48によって反射され、第3光路51に導かれる。OVFシャッタ44は「開状態」とされているため、図9(B)に示す光学像59がOVFシャッタ44を透過する。光学像59は、第1光路49上を伝搬してハーフミラー48を透過して第3光路51に導かれる。この結果、図9(C)に示すように、光学像59と情報画像57及び第1~第3画角枠61~63とが重ね合わせられたOVF画像P3がファインダ接眼部16bに導かれる(S24)。
 ユーザは、OVF画像P3中の第1画角枠61~第3画角枠63により、撮影範囲を確認することができる。また、マウント部13に装着されている撮影レンズ12による第3画角枠63のみならず、保有している撮影レンズ12の第2画角枠62や、保有していない未購入の撮影レンズ12の第1画角枠61が表示される。このため、ユーザは、現状の撮影シーンに対応する最適な画角枠として、どれが良いかを容易に想像することができる。そして、最適な画角枠が第2画角枠62である場合には、この画角枠の撮影レンズ12に交換することで、最適な画角枠での撮影が可能になる。また、最適な画角枠が第1画角枠61の場合には、新たに撮影レンズ12を購入する動機付けとなり、撮影レンズ12の販売促進に繋がる。
 なお、本実施形態では、第1画角枠61~第3画角枠63は、特定領域を囲うように枠状に表示しているが、特定領域を認識可能な表示形態であればよく、例えば、枠の角部分のみを表示してもよい。また、図示は省略したが、AF枠を画角枠61~63と一緒に表示してもよい。AF枠は全画角枠表示モードM3以外のEVFモードM1やOVFモードM2において表示してもよい。
 AF枠は、固体撮像素子31により生成された撮像信号のうち、AF動作を行う際の対象範囲(フォーカスエリア)を示すものである。AF動作は、AF枠に対応する撮像信号に含まれるAF評価値(例えば高周波成分の積算値)が最大となるように、フォーカスレンズ17bを駆動制御することにより行われる。AF枠は、例えば、撮影範囲の中心に固定される。この他、AF枠は、操作部14による設定や、顔検出機能により検出された人物の顔部分等に設定される。
 次に、デジタルカメラ10の作用について説明する。まず、ユーザにより、電源ボタン18が操作されて電源がオン状態になると、デジタルカメラ10の各部に電源電圧が供給される。電源のONによって、図6に示すように、撮影レンズ装着履歴の記憶処理が行われる。先ず、マウント部13に装着されている撮影レンズ12のレンズ情報が読み取られる(S11)。次に、レンズ情報により未装着レンズか否かが判定される(S12)。レンズ情報が、画角枠テーブルデータ41中の状態欄41cで識別記号がBになっている場合(未装着レンズの場合)には、識別記号Bが、保有を示す識別記号Aに書き換えられる(S13)。ステップS12で未装着レンズでは無い場合には、装着レンズの変更の有無が判定される(S14)。判定により、識別記号Cが記憶されている焦点距離の撮影レンズ12がマウント部13に装着されている撮影レンズと同じである場合(変更が無い場合)には、この焦点距離の撮影レンズ12の状態欄41cの識別記号Cはそのままに保持される。判定により、識別記号Cが付されたテーブルデータ41の焦点距離を有する撮影レンズ12と、マウント部13に装着されている撮影レンズ12とが異なる場合(変更が有る場合)には、対応する撮影レンズ12の状態欄41cが識別記号Cに書き換えられる(S15)。また、それ以前に識別記号Cが付されていた撮影レンズ12の状態欄41cは識別記号Cから識別記号Bに書き換えられる(S15)。このようにして装着履歴記憶部は更新処理を行う。
 操作部14が操作されて、撮影モードとして、例えばプログラム撮影モードが選択されると、シャッタ速度や絞り値が自動設定される。更に、モード選択ボタン22が操作されて静止画撮影モードが選択されると、ファインダ16が動作を開始する。
 図7に示すように、ファインダ切替レバー21(図3参照)の操作によりEVFモードM1、OVFモードM2、全画角枠表示モードM3のいずれかが選択される(S21)。
 EVFモードM1では、図4に示すように、被写体表示エリア46に被写体画像55が表示され、情報表示エリア47に情報画像57が表示される。被写体画像55及び情報画像57は、第2光路50上を伝搬してハーフミラー48によって反射されることにより、第3光路51に導かれる。OVFシャッタ44は「閉状態」とされているため、光学像59はハーフミラー48には入射しない。この結果、図4に示すような被写体画像55及び情報画像57を有するEVF画像P1がファインダ接眼部16bに導かれる(S22)。
 OVFモードM2では、第2表示制御部38は、被写体表示エリア46を非表示とし、情報表示エリア47に情報画像57を表示する映像信号を生成する。これにより、情報画像57のみが第2光路50上を伝搬してハーフミラー48によって反射され、情報画像57は第3光路51に導かれる。OVFシャッタ44は「開状態」とされているため、光学像59がOVFシャッタ44を透過し、第1光路49上を伝搬してハーフミラー48を透過する。これにより、光学像59は第3光路51に導かれる。この結果、図8(C)に示すように、光学像59と情報画像57とが重ね合わせられたOVF画像P2がファインダ接眼部16bに導かれる(S23)。
 全画角枠表示モードM3では、第2表示制御部38(図3参照)は、図9(A)に示すように、被写体表示エリア46に第1画角枠61、第2画角枠62、及び第3画角枠63を表示し、情報表示エリア47に情報画像57を表示する映像信号を生成する。画角枠61~63は、画角枠テーブルデータ41の画角枠データに基づき作成される。
 全画角枠表示モードM3では、情報画像57及び第1~第3画角枠61~63が第2光路50上を伝搬してハーフミラー48によって反射され、第3光路51に導かれる。また、OVFシャッタ44は「開状態」とされているため、図9(B)に示す光学像59がOVFシャッタ44を透過し、第1光路49上を伝搬してハーフミラー48を透過して第3光路51に導かれる。この結果、図9(C)に示すように、光学像59と情報画像57と各画角枠61~63とが重ね合わせられたOVF画像P3がファインダ接眼部16bに導かれる(S24)。ユーザは、ファインダ接眼部16bに接眼することにより、被写体の光学像59を観察しながら撮影条件や各画角枠61~63を確認することができる。
 この状態でレリーズボタン19が全押しされると、装着された撮影レンズ12の焦点距離に応じた第3画角枠63で被写体像の撮影が行われる。
 [第2実施形態]
 図10及び図11に示す第2実施形態では、画像データに基づき撮影シーンを判定し、この判定結果に基づき最適な撮影焦点距離に対応する画角枠を強調して表示する。撮影シーンの判定は、主制御部32が行い、主制御部32により判定部が構成されている。判定部では、画像の撮影シーンに適した最適焦点距離を判定する。また、最適焦点距離に対応する画角枠を強調して表示する強調表示制御部は、第2表示制御部38により構成されている。この画角枠の強調表示は、OVFモードにおいて、モード選択ボタンの操作により、シーン判定最適画角枠表示モードM4を選択することで行われる。シーン判定最適画角枠表示モードM4では、主制御部32によりシーン判定及び最適画角選択処理が行われる。
 シーン判定では、顔検出の有無が判定される(S31)。顔検出の有無判定で、顔が検出された場合にはポートレートに適した焦点距離を選択し(S32)、この焦点距離を有する撮影レンズ12の画角枠を強調表示したOVF画像P4を表示する(S33)。なお、顔の検出方法は周知であり、説明は省略する。
 図11の撮影シーンでは、焦点距離が50mmの撮影レンズ12が最適画角枠と判定され、この撮影レンズ12の第2画角枠62が点線表示に切り替えられて、且つ点滅して強調表示される。最適画角枠の強調表示は、第1実施形態での第3画角枠の強調表示とは異なる表示形態を採用する。例えば枠線の点線表示や枠線の点滅表示の他に、枠線の色を白色から例えば赤色に変えて表示する。これらの強調表示は一つを採用してもよく、また複数を組み合わせて採用してもよい。
 更に、二点鎖線のハッチングで示すように、最適画角枠以外の被写体画像55の領域を、最適画角枠内の輝度よりも低い輝度で表示してもよい。この場合には、最適画角枠内の画像が明確になり、画角枠の決定が容易になる。
 なお、顔検出の有無に代えて又は加えて、検出された顔の領域の面積に基づき、この顔領域の面積が一定値以上の時に顔領域の例えば1.25倍の面積を有する画角枠を最適画角枠として選択してもよい。顔領域と画角枠内との面積比は1.25倍に限られず、適宜変更してよい。
 次に、顔検出の有無判定で、顔が検出されない場合に、撮影シーンが風景であると判定する(S31)。風景と判定された時には、風景撮影に最適な広角系の撮影レンズによる画角枠を選択し(S34)、この画角枠の枠線を一点鎖線や二点鎖線のような異なる線種を用いたり、色を例えば青色で表示したりする(S35)。風景であるとのシーン判定結果と、シーン判定結果に対する最適な画角枠との関係は予め記憶されている。風景か否かの判定方法は周知であり、詳しい説明は省略する。例えば、顔の検出の有無の他に又は加えて、撮影シーン毎に予め用意された特徴データサンプルを記憶しておいても良い。この場合には、画像データから撮影シーンの特徴を示す特徴データを生成し、この特徴データと、特徴データサンプルとの比較により、風景か否かを判定する。
 [第3実施形態]
 第1実施形態では、EVFモードM1、OVFモードM2、全画角枠表示モードM3の切り替えを行っている。第3実施形態は上記各モードM1~M3に加えて、被写体画像55及び光学像59を同時に観察可能とするハイブリッドモードM5を有する。以下、ハイブリッドモードM5についてのみ説明し、EVFモードM1、OVFモードM2、全画角枠表示モードM3は第1実施形態と同様なので説明を省略する。
 図12に示すように、EVFLCD42には、被写体表示エリア80と、情報表示エリア81と、被写体表示エリア80より小さいサブ表示エリア82が設定される。サブ表示エリア82は、被写体表示エリア80とは中心がずれた位置、例えば、右下に設定される。情報表示エリア81には情報画像57が表示され、サブ表示エリア82には被写体画像55が表示される。また、被写体表示エリア80は非表示である。
 図3に示すように、情報画像57及び被写体画像55が第2光路50上を伝搬してハーフミラー48によって反射される。また、OVFシャッタ44は「開状態」とされているため、光学像59がOVFシャッタ44を透過し、第1光路49上を伝搬してハーフミラー48を透過する。この結果、図13に示すように、光学像59と情報画像57と被写体画像55とが重畳されたハイブリッド画像P5がファインダ接眼部16bに導かれる。また、被写体画像55はサブ表示エリア82に表示されるため、光学像59に近接させて表示することができる。なお、被写体表示エリア80を非表示とする代わりに、第1実施形態と同じように、被写体表示エリア80に各画角枠61~63を表示してもよい。
 また、第3実施形態のハイブリッドモードM5においても、第1実施形態で説明したAF枠を表示してもよい。この場合、被写体表示エリア80にAF枠を表示し、サブ表示エリア82には、AF枠内の部分に相当する被写体画像を拡大表示することが好ましい。これにより、サブ表示エリア82に表示される画像で、フォーカスの確認を行うことができる。
 [第4実施形態]
 図14及び図15に示すように、第4実施形態では、OVFモードM2において、電子ズーム画角枠表示モードM6が選択された時に(S40)、電子ズーム(デジタルズーム)機能による複数の画角に対応する画角枠85をOVF画像P6に表示する(S41)。電子ズームは、画像データから電子ズーム倍率に対応する大きさの領域を切り取って拡大する機能である。電子ズームした状態でレリーズボタンが押されることにより、電子ズーム倍率に対応する大きさの領域の画像データが得られる。
 電子ズーム画角枠表示モードM6は、カメラの初期設定時において、電子ズームする前に複数の電子ズームによる画角枠を表示したい場合に設定される。この電子ズーム画角枠表示モードM6が選択された状態で、例えば電子ズーム倍率ボタンが押されることにより、電子ズームに入る前に、例えば2~5秒程度、図15に示すように複数のズーム画角枠85が表示される。従って、このズーム画角枠85をユーザが確認することで、最適ズーム倍率による画角枠の選択が容易になる。この後、更に電子ズームボタンが押し続けられることにより、電子ズームに切り替わり、ズーム画角枠85の表示から電子ズームの画像表示に切り換えられる(S42)。
 なお、電子ズーム画角枠表示モードM6は、OVFモードM2の他に、EVFモードM1やハイブリッドモードM5で行ってもよい。
 [変形例]
 固体撮像素子31により得られる画像データは、マウント部13に装着されている撮影レンズ12の画角範囲内でしか得ることができない。このため、EVFモードM1では、装着されている撮影レンズ12による画角よりも大きなエリアには被写体画像を表示することができない。このため、広角の撮影レンズ12の画角枠のみを表示しても、画角枠のみの表示になるため、広角の撮影レンズ12による具体的な撮影範囲を想像することが困難である。これを補うために、変形例では、図16に示すように、スイングパノラマ撮影手法によって、装着されている撮影レンズの画角枠よりも、例えば4倍大きなエリアを撮影する。スイングパノラマ撮影手法は周知であり、カメラを移動しての画像取得方法の説明は省略する。
 変形例では、図16に示すように、撮影シーンに対してカメラのスイング方向をU型として、約4倍の撮影画角の画像F1~F4を得る。カメラのスイング方向は任意であり、例えば、最初に水平方向で右側に、次に鉛直方向に下側に、最後に水平方向で左側にカメラを動かす。これにより、各部の画像F1~F4を取得する。得られた画像F1~F4から、これらの境界を例えばパターン認識により抽出し、境界部分で各画像F1~F4を接続して約4倍の撮影画角の画像F5を取得する。なお、カメラのスイング方向は、最初に鉛直方向上側に、次に水平方向右側に、最後に鉛直方向下側にして、縦に長い画像データを得てもよい。また、単に水平方向右側、又は水平方向左側にカメラをスイングして横に長いパノラマ画像を得てもよい。更には、鉛直方向上側や鉛直方向下側にカメラをスイングして縦に長いパノラマ画像を得てもよい。
 上記スイングパノラマ撮影手法で得られた画像F5に基づくパノラマ画像P7は、図17に示すように、EVFモード又はハイブリッドモードや、背面表示部15への表示の際に表示される。また、このパノラマ画像P7に対して、第1実施形態と同様にして第1画角枠61~第3画角枠63が表示される。このようにスイングパノラマ撮影手法で得られたパノラマ画像P7中に、第1画角枠~第3画角枠61~63が表示されることにより、各撮影レンズ12による撮影画角の把握が容易になる。
 上記実施形態は、レンズ鏡筒がカメラ本体に着脱自在に装着される撮影装置に本発明を適用したものであるが、レンズ鏡筒とカメラ本体とが分離不能な一体型であって、焦点距離の異なるコンバージョンレンズがレンズ鏡筒に着脱自在に装着される撮影装置に本発明を適用することも可能である。この場合、コンバージョンレンズが、特許請求の範囲に記載の撮影レンズに対応し、レンズ鏡筒におけるコンバージョンレンズの接続部が、特許請求の範囲に記載のマウント部に対応する。
 なお、本発明は、デジタルカメラ以外に、ビデオカメラ、携帯電話機、スマートフォン等の撮影装置に適用可能である。
10  デジタルカメラ
11  カメラ本体
12  撮影レンズ
13  マウント部
16  ファインダ
22  モード選択ボタン
23  ズームボタン
31  固体撮像素子
32  主制御部
38  第2表示制御部
41  画角枠テーブルデータ
42  EVFLCD
55  被写体画像
57  情報画像
59  光学像
61  第1画角枠
62  第2画角枠
63  第3画角枠
80  被写体表示エリア
81  情報表示エリア
82  サブ表示エリア
85  ズーム画角枠
M1  EVFモード
M2  OVFモード
M3  全画角枠表示モード
M4  シーン判定最適画角枠表示モード
M5  ハイブリッドモード
M6  電子ズーム画角枠表示モード

Claims (7)

  1.  焦点距離の異なる複数の撮影レンズが着脱自在に装着されるマウント部と、
     前記マウント部に装着された1つの前記撮影レンズを介して入射する被写体像に基づき画像を生成する撮像素子と、
     ファインダ用レンズを介して前記被写体像を観察可能に構成されたファインダと、
     前記ファインダ内において、情報を前記被写体像に重畳させて観察可能に表示させるファインダ内情報表示部と、
     前記マウント部に過去に装着された前記撮影レンズの装着履歴を記憶する装着履歴記憶部と、
     前記ファインダ内情報表示部を制御し、前記マウント部に装着可能な全ての前記撮影レンズの焦点距離に対応した複数の第1画角枠を前記情報として表示させる第1画角枠表示制御部と、
     前記ファインダ内情報表示部を制御し、前記装着履歴に基づき、前記複数の第1画角枠のうち、前記マウント部に過去に装着された前記撮影レンズの焦点距離に対応するものを第2画角枠として、前記第1画角枠とは異なる表示形態で前記情報として表示させる第2画角枠表示制御部と、
     前記ファインダ内情報表示部を制御し、現在前記マウント部に装着されている前記撮影レンズの焦点距離に対応する第3画角枠を、前記第1及び第2画角枠とは異なる表示形態で前記情報として表示させる第3画角枠表示制御部と、
     を備える撮影装置。
  2.  前記画像の撮影シーンに適した最適焦点距離を判定する判定部と、
     前記第1~第3画角枠のうちから、前記判定部により判定された前記最適焦点距離に対応する画角枠を強調表示させる強調表示制御部と、
     を備える請求項1に記載の撮影装置。
  3.  前記ファインダ内情報表示部は、前記情報の他に、前記撮像素子により生成された前記画像を、前記被写体像に重畳又は近接させて表示する請求項2に記載の撮影装置。
  4.  前記ファインダ内情報表示部は、前記判定部により判定された前記最適焦点距離に対応する最適画角枠を、前記画像中に表示させる請求項3に記載の撮影装置。
  5.  前記ファインダ内情報表示部は、前記画像中の前記最適画角枠以外の領域を、輝度を低下させて表示させる請求項4に記載の撮影装置。
  6.  前記画像から電子ズーム倍率に対応する大きさの領域を切り取って拡大する電子ズーム機能を備え、
     前記ファインダ内情報表示部は、前記電子ズーム機能が実行される前に、複数の電子ズーム倍率に対応する複数の画角枠を前記画像中に表示させる請求項3から5いずれか1項に記載の撮影装置。
  7.  焦点距離の異なる複数の撮影レンズが着脱自在に装着されるマウント部と、
     前記マウント部に装着された1つの前記撮影レンズを介して入射する被写体像に基づき画像を生成する撮像素子と、
     ファインダ用レンズを介して前記被写体像を観察可能に構成されたファインダと、
     前記ファインダ内において、情報を前記被写体像に重畳させて観察可能に表示させるファインダ内情報表示部と、
     を備える撮影装置の制御方法において、
     前記マウント部に過去に装着された前記撮影レンズの装着履歴を記憶する装着履歴記憶ステップと、
     前記ファインダ内情報表示部を制御し、前記マウント部に装着可能な全ての前記撮影レンズの焦点距離に対応した複数の第1画角枠を前記情報として表示させる第1画角枠表示制御ステップと、
     前記ファインダ内情報表示部を制御し、前記装着履歴に基づき、前記複数の第1画角枠のうち、前記マウント部に過去に装着された前記撮影レンズの焦点距離に対応するものを第2画角枠として、前記第1画角枠とは異なる表示形態で前記情報として表示させる第2画角枠表示制御ステップと、
     前記ファインダ内情報表示部を制御し、現在前記マウント部に装着されている前記撮影レンズの焦点距離に対応する第3画角枠を、前記第1及び第2画角枠とは異なる表示形態で前記情報として表示させる第3画角枠表示制御ステップと、
     を含む撮影装置の制御方法。
PCT/JP2016/080302 2015-11-17 2016-10-13 撮影装置及びその制御方法 WO2017086065A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017551775A JP6389342B2 (ja) 2015-11-17 2016-10-13 撮影装置及びその制御方法
CN201680067231.1A CN108293087B (zh) 2015-11-17 2016-10-13 摄影装置及其控制方法
US15/981,380 US10477113B2 (en) 2015-11-17 2018-05-16 Imaging device and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015224739 2015-11-17
JP2015-224739 2015-11-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/981,380 Continuation US10477113B2 (en) 2015-11-17 2018-05-16 Imaging device and control method therefor

Publications (1)

Publication Number Publication Date
WO2017086065A1 true WO2017086065A1 (ja) 2017-05-26

Family

ID=58718845

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/080302 WO2017086065A1 (ja) 2015-11-17 2016-10-13 撮影装置及びその制御方法

Country Status (4)

Country Link
US (1) US10477113B2 (ja)
JP (1) JP6389342B2 (ja)
CN (1) CN108293087B (ja)
WO (1) WO2017086065A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189829A1 (ja) * 2022-03-31 2023-10-05 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110099219B (zh) * 2019-06-13 2021-10-08 Oppo广东移动通信有限公司 全景拍摄方法及相关产品
WO2021035619A1 (zh) * 2019-08-29 2021-03-04 深圳市大疆创新科技有限公司 显示方法、拍照方法及相关装置
US11265474B2 (en) * 2020-03-16 2022-03-01 Qualcomm Incorporated Zoom setting adjustment for digital cameras

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009200552A (ja) * 2008-02-19 2009-09-03 Olympus Imaging Corp 撮像装置および撮像装置の表示方法
JP2012168299A (ja) * 2011-02-14 2012-09-06 Nikon Corp 撮像装置
JP2013174719A (ja) * 2012-02-24 2013-09-05 Nikon Corp 画像表示装置、カメラ、および画像表示プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7725017B2 (en) * 2005-11-09 2010-05-25 Panasonic Corporation Image pickup apparatus and image pickup system
JP2008096584A (ja) * 2006-10-10 2008-04-24 Nikon Corp カメラ
JP4285546B2 (ja) * 2007-01-16 2009-06-24 ソニー株式会社 撮像システム、撮像装置および交換レンズ
JP5284013B2 (ja) * 2008-09-01 2013-09-11 キヤノン株式会社 撮像装置およびその制御方法、プログラム
JP2010279022A (ja) * 2009-04-30 2010-12-09 Sanyo Electric Co Ltd 撮像装置
KR101599881B1 (ko) * 2009-06-30 2016-03-04 삼성전자주식회사 화각 미리 보기 기능을 갖는 디지털 영상 신호 처리 장치, 이의 제어 방법 및 상기 방법을 기록한 기록 매체
JP2012065294A (ja) 2010-09-17 2012-03-29 Fujifilm Corp ハイブリッド型ファインダ装置
JP5979614B2 (ja) * 2012-06-04 2016-08-24 リコーイメージング株式会社 撮像装置
JP6296801B2 (ja) * 2013-07-24 2018-03-20 キヤノン株式会社 撮像装置、撮像装置の制御方法、および撮像装置の制御プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009200552A (ja) * 2008-02-19 2009-09-03 Olympus Imaging Corp 撮像装置および撮像装置の表示方法
JP2012168299A (ja) * 2011-02-14 2012-09-06 Nikon Corp 撮像装置
JP2013174719A (ja) * 2012-02-24 2013-09-05 Nikon Corp 画像表示装置、カメラ、および画像表示プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189829A1 (ja) * 2022-03-31 2023-10-05 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20180262691A1 (en) 2018-09-13
JP6389342B2 (ja) 2018-09-12
JPWO2017086065A1 (ja) 2018-09-06
CN108293087A (zh) 2018-07-17
CN108293087B (zh) 2019-07-09
US10477113B2 (en) 2019-11-12

Similar Documents

Publication Publication Date Title
JP5779959B2 (ja) 撮像装置
KR100627048B1 (ko) 디지털 카메라의 제어방법
JP4761146B2 (ja) 撮像装置及びそのプログラム
US7706674B2 (en) Device and method for controlling flash
US8792019B2 (en) Video creation device, video creation method and non-transitory computer-readable storage medium
JP5054583B2 (ja) 撮像装置
JP2013013050A (ja) 撮像装置及びこの撮像装置を用いた表示方法
JP4193485B2 (ja) 撮像装置及び撮像制御プログラム
JP5607260B2 (ja) 撮影装置、撮影方法及びプログラム
JP5667726B2 (ja) レンズ交換式カメラ及びファインダの表示方法
JP2007311861A (ja) 撮影装置及び方法
US10477113B2 (en) Imaging device and control method therefor
JP5923759B2 (ja) 撮像装置
JP2011217103A (ja) 複眼撮影方法および装置
CN110313173B (zh) 摄影装置和其控制方法及非易失性的计算机可读介质
JP2008211843A (ja) 撮像装置及び撮像制御プログラム
JP5903658B2 (ja) 撮像装置
JP4269344B2 (ja) 電子カメラ
JP2010074415A (ja) 撮像装置、画像表示方法および画像表示プログラム
JP6103570B2 (ja) 撮影装置及びその制御方法
KR20130092213A (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2009118515A (ja) 電子カメラ
JP2020071356A (ja) 画像表示装置
JP2007311925A (ja) 撮像装置
KR20090124317A (ko) 피사체의 경계 영상을 표시하는 디지털 영상 처리장치 및그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16866067

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017551775

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16866067

Country of ref document: EP

Kind code of ref document: A1