WO2015129479A1 - 撮像装置および方法、並びにプログラム - Google Patents

撮像装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2015129479A1
WO2015129479A1 PCT/JP2015/053925 JP2015053925W WO2015129479A1 WO 2015129479 A1 WO2015129479 A1 WO 2015129479A1 JP 2015053925 W JP2015053925 W JP 2015053925W WO 2015129479 A1 WO2015129479 A1 WO 2015129479A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
shooting
live view
imaging device
view image
Prior art date
Application number
PCT/JP2015/053925
Other languages
English (en)
French (fr)
Inventor
大輔 中尾
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/111,496 priority Critical patent/US10110826B2/en
Publication of WO2015129479A1 publication Critical patent/WO2015129479A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light

Definitions

  • the present technology relates to an imaging apparatus, method, and program, and more particularly, to an imaging apparatus, method, and program capable of performing angle-of-view adjustment more easily and quickly.
  • an imaging device that displays a live view image and adjusts the angle of view places importance on immediate responsiveness as a setting in the first place, and the setting is determined in advance so that the exposure time does not exceed a certain time. It is. For example, if the upper limit of the exposure time is not set at the time of shooting, the moving subject will be blurred when shooting the moving subject.
  • the upper limit is usually set for the exposure time in this way, the Live View image becomes dark when the surroundings are extremely dark and the minimum light required to check the angle of view cannot be secured. Therefore, the user cannot determine the angle of view. In particular, when the light is extremely low, the gain is forcibly increased, so that only red noise is conspicuous in the live view image.
  • an imaging apparatus has been proposed in which a button for interrupting live view display exposure at the time of shooting in a dark place is provided so that a new exposure of the live view image can be started at a timing designated by the user (for example, see Patent Document 1).
  • an imaging apparatus has been proposed that can accept changes in the image update period, gain value, and aperture value while displaying a live view image (see, for example, Patent Document 2).
  • the present technology has been made in view of such a situation, and makes it possible to perform angle-of-view adjustment more easily and quickly.
  • the imaging apparatus includes a setting unit that sets the exposure time of the live view image so that the exposure time is longer in the dark place shooting than in the other shooting cases.
  • the exposure time of the photographed image can be set longer than the predetermined exposure time.
  • the setting unit can increase the upper limit value of the exposure time of the live view image in the dark place shooting as the exposure time setting of the live view image than in the other shooting. .
  • the setting unit may be configured to set a driving method of the imaging device different from that in the case of the other shooting in the dark place.
  • the setting unit can set different image processing in the dark place shooting than in the other shooting.
  • the image processing can be a size conversion process.
  • the image processing can be noise reduction processing.
  • the imaging apparatus may further include a control unit that determines whether or not the shooting is in the dark place.
  • the control unit can determine whether or not the dark place shooting is based on the exposure time of the shot image.
  • the control unit can determine whether or not the photographing is in the dark based on whether or not the imaging device is fixed to a tripod.
  • the control unit can determine whether or not the photographing is in the dark based on the elevation angle of the imaging device.
  • the control unit can determine whether or not the dark place shooting is based on the darkness of the entire live view image.
  • the control unit can determine whether or not the dark place shooting is based on the degree of night view likeness of the live view image.
  • the dark place photography can be set to astronomical photography.
  • the imaging method or program according to one aspect of the present technology includes a step of setting the exposure time of the live view image so as to be longer in the dark place than in the case of other shooting.
  • the exposure time of the live view image is set so as to be longer in the dark place shooting than in the other shooting cases.
  • the angle of view can be adjusted more easily and quickly.
  • This technology determines whether or not extreme dark place shooting is performed based on internal detection information related to an image to be shot and external detection information such as the state of an imaging device that is different from the information related to the image to be shot.
  • the angle of view can be adjusted more easily and quickly by changing the setting at the time of shooting according to the determination result.
  • extreme dark shooting refers to shooting in a shooting environment where the surroundings are extremely dark and a relatively long exposure is required, such as astronomical shooting, but in the following, astronomical shooting is performed as dark shooting Continue to explain.
  • dark place shooting for example, the exposure time of a shot image is set longer than a predetermined time.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of an imaging apparatus to which the present technology is applied.
  • the imaging device 11 includes devices such as a digital single-lens camera, a digital still camera, a digital video camera, a mobile phone, and a multi-function mobile phone having an image display device such as an EVF or a liquid crystal display element.
  • an imaging lens 21 includes an imaging lens 21, an imaging element 22, an AFE (Analog ⁇ ⁇ FrontAEnd) unit 23, an image processing unit 24, a control unit 25, an EVF 26, an image display unit 27, a recording unit 28, and an operation input unit 29. And an external information detection unit 30 and a lens driver 31.
  • AFE Analog ⁇ ⁇ FrontAEnd
  • the imaging lens 21 is composed of a plurality of lenses and the like, and collects the light incident from the subject and guides it to the imaging element 22.
  • the imaging lens 21 is provided with a diaphragm, a focus lens, a shutter, etc. (not shown).
  • the imaging element 22 is composed of a CMOS (Complementary Metal Oxide Semiconductor) image sensor, a CCD (Charge Coupled Device), or the like having an imaging surface provided with a plurality of pixels, and captures light incident from an object via the imaging lens 21. Receive light at.
  • the imaging element 22 supplies an image obtained by photoelectrically converting light from the subject to the AFE unit 23.
  • the images photographed by the image sensor 22 include a photographed image and a live view image.
  • the photographed image is an image photographed by the user's shutter button operation for the purpose of recording for viewing or the like by the user, and the photographed image is a still image below.
  • the live view image is presented to the user in advance in order to confirm the angle of view of the photographed image to be photographed in the future when photographing the photographed image, more specifically before photographing the photographed image. It is a moving image for viewing angle of view, and the live view image is also called a through image.
  • the AFE unit 23 performs A / D (Analog / Digital) conversion or the like on the image supplied from the image sensor 22 and supplies the obtained image to the image processing unit 24.
  • the image processing unit 24 includes, for example, an LSI (Large Scale Integration) and the like, and performs various image processing such as demosaic processing, noise reduction processing, and gamma correction processing on the image supplied from the AFE unit 23 to control the control unit 25. To supply.
  • the control unit 25 controls the operation of the entire imaging apparatus 11 according to a signal supplied from the operation input unit 29 or the like. For example, the control unit 25 supplies the captured image supplied from the image processing unit 24 to the recording unit 28 for recording, or reads the captured image from the recording unit 28. In addition, the control unit 25 controls the lens driver 31 to drive the imaging lens 21 to perform focus control or drive a diaphragm or a shutter.
  • control unit 25 includes a display control unit 51, an internal information detection unit 52, and a shooting setting change unit 53.
  • the display control unit 51 supplies captured images and live view images to the EVF 26 and the image display unit 27, and controls the display of those images.
  • the internal information detection unit 52 detects information obtained from the live view image supplied from the image processing unit 24 and information such as settings when shooting a captured image as internal detection information.
  • the shooting setting changing unit 53 determines whether shooting of the shot image is astronomical shooting based on the internal detection information obtained by the internal information detection unit 52 and the external detection information supplied from the external information detection unit 30. Then, according to the determination result, the captured image is captured, and more specifically, settings relating to the live view image are performed.
  • astronomical photography refers to taking a picture of a celestial body (night sky) as a subject in an extremely dark photography environment, but as mentioned above, astronomical photography is an example of dark photography, and this technology uses astronomical photography. It is not limited to. Further, when it is determined that it is not astronomical photography, normal photography is performed.
  • the EVF 26 is an electronic view finder made of, for example, an organic EL (Electro Luminescence) or a liquid crystal display element, and displays a live view image or a photographed image supplied from the display control unit 51.
  • the image display unit 27 is made of, for example, an organic EL or a liquid crystal display element, and displays a live view image and a captured image supplied from the display control unit 51.
  • the imaging device 11 is provided with a sensor (not shown).
  • a sensor for example, when the sensor detects that the user is looking into the EVF 26, the display control unit 51 displays a live view image or a captured image on the EVF 26. Supply and display.
  • the display control unit 51 supplies a live view image and a captured image to the image display unit 27 to display them.
  • the recording unit 28 is made of, for example, a removable recording medium that can be attached to and detached from the imaging apparatus 11, records the image supplied from the control unit 25, and supplies the recorded image to the control unit 25.
  • the operation input unit 29 includes, for example, various buttons and switches such as a shutter button provided in the imaging device 11, a touch panel superimposed on the image display unit 27, and the like, and a signal corresponding to a user operation is sent to the control unit 25. Supply.
  • the external information detection unit 30 includes, for example, a gyro sensor, and detects information such as the state of the imaging device 11 that is different from the internal detection information as external detection information, and supplies the external detection information to the control unit 25.
  • the lens driver 31 drives the imaging lens 21 according to the control of the control unit 25, and performs focus control, aperture control, and shutter control.
  • ⁇ Astronomical shooting determination and shooting settings> By the way, when the captured image is captured by the imaging device 11, for example, as shown in FIG. 2, a live view image is acquired in substantially real time by the imaging element 22, and the obtained live view image is displayed as an image via the image processing unit 24 or the like. It is supplied to the unit 27 or the EVF 26 and displayed. At this time, the live view image is not recorded in the recording unit 28.
  • a user who is a photographer looks at the live view image displayed on the image display unit 27 and the like, adjusts the angle of view as appropriate, and presses a shutter button as the operation input unit 29 when photographing a real image, that is, a captured image. Press.
  • a still image as a photographed image is acquired by the image sensor 22, and the obtained photographed image is supplied to the recording unit 28 via the image processing unit 24 and recorded.
  • a live view image shot as a moving image for viewing angle can be shot at a shutter speed different from that of the shot image.
  • the imaging device 11 normally does not perform an extreme slow shutter in consideration of the immediate response of the live view, but instead secures brightness by increasing the gain of the image and improves the angle of view confirmation.
  • the photographed image P11 is an image in which a celestial body is a subject and a tree is shown as a surrounding landscape in the lower part of the photographed image P11.
  • the user must cause the imaging device to take a photographed image, and adjust the angle of view by looking at the obtained photographed image.
  • the exposure time at the time of shooting a shot image is 30 seconds, and the long-time noise reduction process of 30 seconds is performed at the time of shooting.
  • the long-second noise reduction process is a process for removing such a large noise because the noise increases due to the long exposure.
  • the image for noise removal accumulated only for the same time as when the photographed image was captured with the mechanical shutter closed or the image sensor optically shielded by liquid crystal or the like. Used to remove noise from the captured image. Specifically, the pixel value of the pixel of the image for noise removal obtained in a light-shielded state is subtracted from the pixel value of the pixel of the captured image at each pixel position to remove noise.
  • the photographed image is displayed on the image display unit, so the user finely adjusts the angle of view while viewing the photographed image, and performs photographing again. Then, when the shooting is repeated several times, and finally a shot image P11 having a satisfactory angle of view is obtained, the shooting ends.
  • the setting is made so that the exposure time of the live view image becomes sufficiently long when photographing the celestial object, and the image quality of the live view image is prioritized.
  • the live view image is shot at a shutter speed at which an image having a quality that enables a sufficient live view is obtained.
  • the exposure time of the live view image may be 30 seconds to several minutes.
  • the celestial body which is the main subject, can be considered to be stationary, so the immediate response of the live view is not important.
  • the angle of view confirmation is prioritized over the immediate response.
  • the shutter speed (exposure time) of the live view image is set.
  • the shutter speed of the live view image does not represent the shutter speed in each frame of the live view image, but corresponds to the reciprocal of the frame rate of the live view image.
  • the frame rate of the live view image is about 0.03 fps.
  • the live view image update cycle is delayed by making the shutter speed of the live view image slower (longer exposure time) than during other normal photography.
  • the angle of view can be adjusted in live view. That is, although the image update cycle is delayed, a live view image with sufficient image quality is always displayed, so that the user can adjust the angle of view by viewing the live view image.
  • the imaging device 11 it is determined whether or not the astronomical shooting is performed by using one or both of the external detection information and the internal detection information, and the imaging device of the imaging device 11, that is, the imaging element, is determined according to the determination result.
  • the driving method 22 and the control value setting are automatically changed.
  • the external information detection unit 30 provides information indicating whether or not the imaging device 11 is fixed to a tripod, and information indicating an elevation angle indicating how much the imaging device 11 is tilted in the elevation direction, that is, the sky direction. Detect as detection information.
  • the sensor provided in the external information detection unit 30 detects that the imaging device 11 does not move, that is, is stationary. It is said that it is fixed to a tripod.
  • a sensor that electrically or physically detects the connection between the tripod and the imaging device 11 when the imaging device 11 is fixed to the tripod is provided in the external information detection unit 30, and the imaging device is based on the output of the sensor. Eleven tripod fixations may be detected.
  • the external information detection unit 30 may detect the fixation of the imaging device 11 to the tripod by communicating with the tripod. Furthermore, the user may operate the operation input unit 29 to input that the camera is fixed to a tripod, and the fixation to the tripod may be detected according to the operation.
  • the external information detection unit 30 detects the elevation angle of the imaging device 11 obtained from the output of the sensor provided in the external information detection unit 30 as external detection information. For example, when the imaging device 11 is fixed in the sky direction (upward direction), the elevation angle of the imaging device 11 is equal to or greater than a predetermined angle, and therefore, it is specified whether the astrophotography is performed using the elevation angle. Can do.
  • the internal information detection unit 52 detects information regarding the captured image as internal detection information such as a shutter speed (exposure time) of the captured image and a statistical value obtained from the live view image.
  • the information related to the captured image is, for example, information at the time of capturing the captured image or information obtained from the live view image.
  • the internal information detection unit 52 detects the shutter speed of the captured image as internal detection information. Further, the internal information detection unit 52 detects the degree of darkness of the entire live view image and the degree of night view likelihood (the degree of celestial image likelihood) of the live view image as internal detection information.
  • the degree of darkness of the entire live view image is calculated based on the pixel value of each pixel of the live view image, for example, the average value of the pixel values of each pixel.
  • the ratio of the dark area in the live view image to the entire area of the live view image may be the degree of darkness of the entire live view image.
  • the degree of night view is calculated based on the brightness (darkness) of the entire live view image, the composition analysis result of the live view image, and the like. For example, when the entire live view image is dark and there are few edge components in the upper area from the center of the live view image, the degree of night view (like celestial image) is increased. Note that night view estimation techniques for determining the degree of nightscape are generally known, and any method may be used as long as the degree of nightscape is calculated.
  • the imaging setting changing unit 53 determines whether or not it is astronomical imaging based on the external detection information obtained by the external information detection unit 30 and the internal detection information obtained by the internal information detection unit 52.
  • only one of the external detection information and the internal detection information may be used, or both of them may be used.
  • the shutter speed of the captured image detected as the internal detection information is 30 seconds or more
  • the degree of the nightscape detected as the internal detection information is greater than or equal to the threshold
  • the imaging device 11 is the external detection information.
  • whether or not astronomical photography is performed may be determined using at least one of internal detection information and external detection information.
  • the shutter speed of the captured image detected as the internal detection information is equal to or greater than a predetermined number of seconds, it may be determined that the astronomical shooting is performed, and the elevation angle of the imaging device 11 detected as the external detection information is a predetermined angle. In the case of the above, it may be determined that the astronomical photography is performed.
  • the astronomical photography may be used.
  • the shooting setting change unit 53 determines that the shooting is astronomical shooting based on the external detection information. You may do it. In this case, for example, on the image display unit 27 or the EVF 26, a confirmation screen including character information for prompting the user to input astronomical photography, a button for inputting that astronomical photography, or the like is displayed. .
  • the degree of astrophotography-likeness is obtained by calculation by weighting and adding some internal detection information and external detection information, and the degree of astrophotography-likeness obtained is equal to or greater than a threshold, It may be determined that it is shooting.
  • the shooting setting change unit 53 determines that shooting of the shot image is not astronomical shooting, the driving method and control value setting of the image sensor 22 of the imaging device 11 is given priority to the immediate response of live view as in normal shooting. Immediate response priority setting.
  • a thinning-out reading process is performed at the time of reading a live view image shot by the image pickup device 22 so that a live view image of a predetermined size is obtained. Is selected.
  • the image sensor 22 performs thinning-out reading processing for reading out pixel data from only a part of all pixels, and a live image having a predetermined size including pixel data of each pixel obtained by the thinning-out reading processing.
  • the view image is output to the AFE unit 23.
  • filter processing using an ⁇ filter that places more importance on responsiveness is selected as noise reduction processing performed on the live view image by the image processing unit 24 at the time of shooting the live view image.
  • the shooting setting changing unit 53 determines that shooting of the shot image is astronomical shooting
  • the driving method of the image sensor 22 of the imaging device 11 and the setting of the control value are set to the immediate response of the live view.
  • the angle of view confirmation priority setting is made to ensure the view angle confirmation even at the sacrifice.
  • the angle of view confirmation priority is given priority over the live view immediate response and the immediate response priority setting is set.
  • the exposure time of the live view image is secured to a certain extent.
  • the shutter speed (exposure time) for obtaining a live view image with an appropriate image quality strongly depends on the shooting environment, so the upper limit Lv of the shutter speed of the live view image when the angle of view confirmation priority setting is set is the shooting environment. It may be determined according to.
  • the view angle confirmation priority setting as a driving method of the image pickup device 22 at the time of live view image shooting, when a live view image shot by the image pickup device 22 is read, pixels are added in the image pickup device 22 to obtain a predetermined value. A driving method for outputting a live view image of a size is selected.
  • pixel data is read from all the pixels of the image sensor 22, and pixel data of adjacent pixels among the read pixel data is output from each pixel in the image sensor 22.
  • mixing is performed in a register or the like on the transfer path. That is, the image data is converted by mixing pixel data of several adjacent pixels of the image sensor 22, and a live view image of a predetermined size obtained as a result is transferred from the image sensor 22 to the AFE unit 23. Is output.
  • an example of changing the exposure time of the image sensor 22 and the driving method of the image sensor 22 at the time of reading the live view image that is, the image size changing algorithm of the live view image, depending on whether or not the astronomical shooting is performed.
  • any other driving method may be changed.
  • a filter process using a bilateral filter that places more importance on the noise removal effect is performed. Selected.
  • noise removal When noise removal is performed, a higher noise removal effect can be obtained by performing filter processing using a bilateral filter than performing filter processing using an ⁇ filter. That is, an image with better image quality can be obtained.
  • the processing time of the filter processing becomes longer than when the ⁇ filter is used.
  • the upper limit value of the shutter speed of the live view image is made longer than in the case of the normal immediate response priority setting. There is no delay caused by the filtering process.
  • the filter processing tap position, the number of taps, and the like can be considered as the filter processing parameters.
  • different size conversion processing may be selected (set) as image processing by the image processing unit 24.
  • the image processing unit 24 discards some pixels on the live view image with respect to the live view image read by the image sensor 22 (decimation). Then, a size conversion process is performed in which an image of a predetermined size including the remaining pixels is used as a live view image after the size conversion process.
  • the image processing unit 24 adds new pixel values by weighting and adding pixel values of several pixels to the live view image read by the image sensor 22.
  • a filter process for calculating the pixel value of is performed, and the size of the live view image is converted.
  • the frame interval of the live view image is longer than that during normal shooting during astronomical shooting, it is possible to employ a processing algorithm with a larger calculation amount and longer processing time as various image processing. Thereby, the angle of view can be confirmed with a beautiful live view image with better image quality, that is, higher visibility.
  • the size conversion of the live view image is performed in the image processing unit 24
  • the size conversion of the live view image is not performed in the image sensor 22, and the size conversion of the live view image is performed only in the image processing unit 24. Also good.
  • the size conversion of the live view image is performed by the image sensor 22
  • the size conversion of the live view image is further performed by the image processing unit 24 so that a live view image of a desired size is finally obtained.
  • a combination of the driving method of the image sensor 22 and the size conversion process in the image processing unit 24 is appropriately selected depending on whether the immediate response priority setting or the angle of view confirmation priority setting is set. (Set).
  • the size of the live view image is converted by combining the driving method of the image sensor 22 and the size conversion process in the image processing unit 24, imaging is performed in at least one of the immediate responsiveness priority setting and the angle of view confirmation priority setting.
  • the size conversion by the element 22 or the image processing unit 24 may not be performed.
  • the reduction ratio of the live view image at the time of size conversion in the image sensor 22 or the image processing unit 24 may be different between the immediate response priority setting and the angle confirmation priority setting. For example, when the size of the live view image output from the image sensor 22 is smaller, the image quality decreases, but the processing time of the subsequent image processing is shorter.
  • the reduction ratio in the size conversion process in the image processing unit 24 is different between the immediate response priority setting and the angle of view confirmation priority setting, the reduction in the size conversion process in the image processing unit 24 at the time of immediate response priority setting.
  • the rate (thinning amount) may be set lower than that in the case of the angle of view confirmation priority setting. In this case, the reduction ratio of the size conversion in each of the image sensor 22 and the image processing unit 24 is determined so that a live view image of a predetermined size is finally obtained.
  • the upper limit value of the shutter speed of the live view image is set to a somewhat small (short) value even in, for example, photography in a dark place, thereby ensuring immediate responsiveness of live view.
  • the operability does not deteriorate when shooting a moving subject.
  • the present technology can be applied not only to a digital still camera but also to a mobile phone and the like, and has a great advantage for a user who does not have enough knowledge of the camera.
  • step S ⁇ b> 11 the imaging element 22 receives light incident from the subject via the imaging lens 21 and performs photoelectric conversion to capture a live view image, and the obtained live view image is transmitted via the AFE unit 23. To the image processing unit 24.
  • step S12 the image processing unit 24 performs various types of image processing such as demosaic processing and noise reduction processing on the live view image supplied from the image sensor 22, and supplies the processed image to the control unit 25.
  • image processing such as demosaic processing and noise reduction processing
  • step S13 the display control unit 51 of the control unit 25 supplies the live view image supplied from the image processing unit 24 to the EVF 26 or the image display unit 27 to display the live view image.
  • the user confirms the displayed live view image and adjusts the angle of view by appropriately moving the imaging device 11 to change the shooting direction or changing the zoom magnification.
  • step S ⁇ b> 14 the internal information detection unit 52 performs internal detection processing to detect internal detection information and supplies it to the imaging setting change unit 53.
  • the internal information detection unit 52 uses a live view image as necessary to check the shutter speed of a captured image, the degree of darkness of the entire live view image, and the night view-likeness of the live view image set in advance by a user or a program.
  • the degree or the like is detected as internal detection information.
  • the internal detection information may be one or plural.
  • step S15 the external information detection unit 30 performs external detection processing to detect external detection information and supplies it to the shooting setting change unit 53 of the control unit 25.
  • the external information detection unit 30 detects whether or not the imaging device 11 is fixed to a tripod and the elevation angle of the imaging device 11 as external detection information.
  • the process of step S14 may be performed after the process of step S15 is performed, or the process of step S14 and the process of step S15 may be performed in parallel.
  • step S ⁇ b> 16 the imaging setting changing unit 53 performs imaging to be performed based on at least one of the internal detection information supplied from the internal information detection unit 52 and the external detection information supplied from the external information detection unit 30. It is determined whether the image shooting is astronomical shooting.
  • the shutter speed of the photographed image is 30 seconds or more
  • the degree of nightscape is greater than or equal to the threshold value
  • the imaging device 11 is fixed to a tripod, it is determined that the subject is astronomical photography.
  • a confirmation screen is displayed on the image display unit 27 or the EVF 26 and the user operates the operation input unit 29 so that the astrophotography is performed. You may make it input whether it exists. In this case, when the user inputs astronomical photography, it is determined that the subject is astronomical photography.
  • step S16 If it is determined in step S16 that the shooting is not astronomical shooting, that is, it is determined that the shooting is not normal shooting, the shooting setting changing unit 53 in step S17 drives the image sensor 22 of the imaging device 11. And the setting of the control value is the immediate response priority setting.
  • the shooting setting changing unit 53 sets the upper limit value of the shutter speed of the live view image to Lr as the immediate response priority setting.
  • the shooting setting changing unit 53 sets the driving method of the image sensor 22 at the time of reading the live view image as a method in which the thinning-out reading process is performed as the immediate response priority setting. Further, the photographing setting changing unit 53 performs, for example, filter processing using an ⁇ filter as noise reduction processing as immediate response priority setting.
  • step S18 the control unit 25 performs imaging control according to the immediate response priority setting set in the process of step S17.
  • the shooting setting changing unit 53 of the control unit 25 calculates the shutter speed of the live view image based on the transmittance of the imaging lens 21, the brightness of the shooting environment, the ISO sensitivity, etc., with the upper limit value set to Lr. To do. At this time, if the calculated shutter speed is longer than the upper limit value Lr, the final shutter speed is set to the upper limit value Lr.
  • control unit 25 controls the operation of the lens driver 31 and the image sensor 22 based on the calculated shutter speed of the live view image.
  • control unit 25 controls the image sensor 22 to read out the live view image by the driving method determined in step S17, for example, the driving method for performing the thinning-out reading process.
  • step S11 the driving method for performing the thinning-out reading process.
  • control unit 25 instructs the image processing unit 24 to execute the process determined in step S17 as the noise reduction process, for example, the filter process using the ⁇ filter. Thereby, in the process of step S12 performed next time, the image processing unit 24 performs filter processing using the ⁇ filter on the live view image.
  • step S19 the shooting setting changing unit 53 sets the driving method of the image sensor 22 and the control value of the imaging device 11 to the view angle confirmation priority setting. To do.
  • the shooting setting changing unit 53 sets the upper limit value of the shutter speed of the live view image as the angle of view confirmation priority setting to Lv that is larger (longer) than the upper limit value Lr at the time of immediate response priority setting. . That is, the shooting setting changing unit 53 sets the exposure time of the live view image by setting the upper limit value of the shutter speed of the live view image to Lv.
  • the shooting setting changing unit 53 sets the driving method of the image sensor 22 at the time of reading the live view image as the angle of view confirmation priority setting, and sets the noise reduction processing for the live view image.
  • the shooting setting changing unit 53 sets the drive method of the image sensor 22 at the time of reading the live view image as a drive method in which size conversion is performed by pixel addition in the image sensor 22. Furthermore, the shooting setting changing unit 53 performs filter processing using, for example, a bilateral filter as noise reduction processing.
  • step S20 the control unit 25 performs shooting control according to the angle of view confirmation priority setting determined in the process of step S19.
  • the shooting setting changing unit 53 of the control unit 25 calculates the shutter speed of the live view image based on the transmittance of the imaging lens 21, the brightness of the shooting environment, the ISO sensitivity, etc., with the upper limit value being Lv. To do. At this time, if the calculated shutter speed is longer than the upper limit value Lv, the final shutter speed is set to the upper limit value Lv.
  • control unit 25 controls the operation of the lens driver 31 and the image sensor 22 based on the calculated shutter speed of the live view image.
  • control unit 25 controls the image sensor 22 to read out the live view image by a driving method determined in step S19, for example, a driving method in which size conversion is performed by pixel addition.
  • a driving method determined in step S19 for example, a driving method in which size conversion is performed by pixel addition.
  • the pixel data read out from the pixels is mixed in the register or the like in the image sensor 22, and an image of a predetermined size obtained as a result is used as the AFE image. Is output to the unit 23.
  • control unit 25 instructs the image processing unit 24 to execute the process determined in step S19 as the noise reduction process, for example, the filter process using a bilateral filter. Thereby, in the process of step S12 performed next time, the image processing unit 24 performs the filter process using the bilateral filter on the live view image.
  • step S21 the control unit 25 determines whether or not the shutter button has been pressed.
  • step S21 If it is determined in step S21 that the shutter button has not been pressed, the user has not been able to adjust the angle of view yet and is not ready to capture a captured image, so the process returns to step S11. The process described above is repeated. That is, the next frame of the live view image is captured and displayed in live view.
  • step S22 the image sensor 22 captures a captured image.
  • control unit 25 controls the lens driver 31 and the image sensor 22 so that a photographed image is photographed with a shutter speed (exposure time) or an aperture determined for the photographed image.
  • the imaging element 22 operates in accordance with an instruction from the control unit 25 and captures a captured image by photoelectrically converting light incident from the subject via the imaging lens 21.
  • the image sensor 22 supplies the obtained captured image to the image processing unit 24 via the AFE unit 23.
  • step S ⁇ b> 23 the image processing unit 24 performs various image processing such as demosaic processing and noise reduction processing on the captured image supplied from the image sensor 22 and supplies the processed image to the control unit 25.
  • a predetermined noise reduction process for example, a filter process using a bilateral filter is performed on the captured image.
  • step S24 the control unit 25 supplies the captured image supplied from the image processing unit 24 to the recording unit 28 for recording, and the imaging process ends.
  • the photographed image may be supplied to the EVF 26 or the image display unit 27 as necessary and displayed.
  • the imaging device 11 detects the internal detection information and the external detection information, and determines whether or not the astrophotography is based on the information. Then, the imaging device 11 changes settings such as the shutter speed of the live view image according to the determination result as to whether or not the astrophotography.
  • a live view image with sufficient image quality can be obtained by changing the driving method of the image sensor 22 and the image processing in the image processing unit 24.
  • the above-described series of processing can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 6 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface or the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded in a removable recording medium 511 as a package medium or the like, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable recording medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in advance in the ROM 502 or the recording unit 508.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology can be configured as follows.
  • An imaging apparatus comprising: a setting unit that sets an exposure time of a live view image so that the exposure time in a dark place is longer than in other imaging.
  • a setting unit that sets an exposure time of a live view image so that the exposure time in a dark place is longer than in other imaging.
  • the setting unit increases the upper limit value of the exposure time of the live view image as the setting of the exposure time of the live view image in the dark place shooting as compared with the case of the other shooting (1) or The imaging device according to (2).
  • the control unit determines whether or not the dark place shooting is based on an exposure time of a shot image.
  • the said control part determines whether it is the said dark place imaging
  • the imaging device according to any one of (1) to (13), wherein the dark place photographing is astronomical photographing.
  • a shooting method including a step of setting the exposure time of the live view image so that it is longer in the dark shooting than in the other shooting.
  • a program that causes a computer to execute processing including a step of setting an exposure time of a live view image so that the exposure time is longer in the dark place shooting than in other shooting cases.

Abstract

 本技術は、より簡単かつ迅速に画角合わせを行うことができるようにする撮像装置および方法、並びにプログラムに関する。 撮像装置は、ライブビュー画像を撮影して表示させ、ユーザはライブビュー画像を見ながら画角合わせを行い、撮影画像を撮像装置に撮影させる。このとき、内部情報検出部は、撮影画像に関する情報を内部検出情報として検出し、外部情報検出部は、撮像装置の状態等を外部検出情報として検出する。撮影設定変更部は、内部検出情報と外部検出情報の少なくとも一方に基づいて、天体撮影であるか否かを判定し、天体撮影である場合には、ライブビュー画像の撮影時のシャッタスピードの上限値を、通常の撮影時のシャッタスピードよりも大きい値に設定する。本技術は、デジタルスチルカメラに適用することができる。

Description

撮像装置および方法、並びにプログラム
 本技術は撮像装置および方法、並びにプログラムに関し、特に、より簡単かつ迅速に画角合わせを行うことができるようにした撮像装置および方法、並びにプログラムに関する。
 従来、天体撮影においては、周囲が極端に暗い環境が撮影の好条件とされている。しかし、好条件下で天体撮影を行う場合、いわゆるライブビュー画像がEVF(Electronic View Finder)等に表示される撮像装置では、撮影時に画角を合わせることは困難であった。
 これは、ライブビュー画像を表示させて画角合わせを行う撮像装置では、そもそもの設定として即時応答性が重視されており、一定時間以上の露光時間とならないように予め設定が決められているためである。例えば、撮影時に露光時間の上限を設けないと、動被写体を撮影するときには動被写体がぶれてしまう。
 このように通常は露光時間に上限が定められているので、周囲が極端に暗く画角を確認するのに必要な最低限の光を確保することができないときには、ライブビュー画像が真っ暗になってしまい、ユーザが画角を定めることができなかった。特に、光が極端に少ない場合には、無理にゲインが上げられるため、ライブビュー画像に赤色のノイズだけが目立ってしまっていた。
 結果として、ユーザが例えば画像の下側1/3の領域に山を入れ、他の領域を天体とするなど、天体撮影時に画角を合わせるときには、静止画像を撮影してその撮影結果を確認し、さらに画角調整を行って再度撮影するという作業を繰り返さなければならなかった。天体撮影では、静止画像の撮影は30秒から数分の長秒露光が必要であり、画角合わせのために繰り返し撮影を行うことは、ユーザにとって非常に負荷の高い作業であった。
 そこで、暗所での撮影時にライブビュー表示の露光を中断させるボタンを設け、ユーザの指定したタイミングでライブビュー画像の新たな露光を開始させることができるようにした撮像装置が提案されている(例えば、特許文献1参照)。
 また、ライブビュー画像の表示中に、画像の更新周期やゲイン値、絞り値の変更を受け付けることができるようにした撮像装置も提案されている(例えば、特許文献2参照)。
特開2002-290803号公報 特開2007-295401号公報
 しかしながら、これらの技術においても簡単かつ迅速に画角合わせを行うことができなかった。
 例えばライブビュー表示の露光を中断させるボタンを設ける技術では、画角を合わせた後、直ちに新たな露光を開始させることはできるが、やはり周囲が極端に暗い撮影環境では十分な画質のライブビュー画像を得ることができない。そのため、ライブビュー画像では画角を確認することができないので、静止画像を撮影して確認し、画角合わせを行う作業を繰り返し行う必要があった。
 また、ライブビュー画像の表示中に画像の更新周期等の変更を受け付ける技術では、ユーザが画角を合わせるときに手動で設定を行わなければならないため、面倒な作業が必要となってしまう。
 本技術は、このような状況に鑑みてなされたものであり、より簡単かつ迅速に画角合わせを行うことができるようにするものである。
 本技術の一側面の撮像装置は、暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間を設定する設定部を備える。
 前記暗所撮影では、撮影画像の露光時間が、所定の露光時間より長く設定されるようにすることができる。
 前記設定部には、前記暗所撮影である場合、前記ライブビュー画像の露光時間の設定として、前記他の撮影である場合よりも前記ライブビュー画像の露光時間の上限値を大きくさせることができる。
 前記設定部には、前記暗所撮影である場合、前記他の撮影である場合とは異なる撮像デバイスの駆動方式を設定させることができる。
 前記設定部には、前記暗所撮影である場合、前記他の撮影である場合とは異なる画像処理を設定させることができる。
 前記画像処理をサイズ変換処理とすることができる。
 前記画像処理をノイズリダクション処理とすることができる。
 撮像装置には、前記暗所撮影か否かを判定する制御部をさらに設けることができる。
 前記制御部には、撮影画像の露光時間に基づいて、前記暗所撮影か否かを判定させることができる。
 前記制御部には、前記撮像装置が三脚に固定されているか否かに基づいて、前記暗所撮影か否かを判定させることができる。
 前記制御部には、前記撮像装置の仰角に基づいて、前記暗所撮影か否かを判定させることができる。
 前記制御部には、前記ライブビュー画像全体の暗さの度合いに基づいて、前記暗所撮影か否かを判定させることができる。
 前記制御部には、前記ライブビュー画像の夜景らしさの度合いに基づいて、前記暗所撮影か否かを判定させることができる。
 前記暗所撮影を天体撮影とすることができる。
 本技術の一側面の撮影方法またはプログラムは、暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間を設定するステップを含む。
 本技術の一側面においては、暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間が設定される。
 本技術の一側面によれば、より簡単かつ迅速に画角合わせを行うことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
撮像装置の構成例を示す図である。 撮影画像の撮影について説明する図である。 撮影画像の撮影について説明する図である。 撮影画像の画角合わせについて説明する図である。 撮影処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈撮像装置の構成例〉
 本技術は、撮影する画像に関する内部検出情報と、撮影する画像に関する情報とは異なる撮像装置の状態などの外部検出情報とに基づいて、極端な暗所撮影が行われているか否かを判定し、その判定結果に応じて撮影時の設定を変更することで、より簡単かつ迅速に画角合わせを行うことができるようにするものである。例えば極端な暗所撮影とは、天体撮影など、周囲が極端に暗く、比較的長い露光が必要となる撮影環境での撮影をいうが、以下では暗所撮影として天体撮影が行われる場合を例として説明を続ける。また、暗所撮影では、例えば撮影画像の露光時間が所定時間よりも長く設定される。
 以下、本技術を適用した具体的な実施の形態について説明する。
 図1は、本技術を適用した撮像装置の一実施の形態の構成例を示す図である。
 この撮像装置11は、例えばEVFや液晶表示素子などの画像表示装置を有するデジタル一眼カメラやデジタルスチルカメラ、デジタルビデオカメラ、携帯型電話機、多機能型携帯電話機などの機器からなる。
 図1に示す撮像装置11は、撮像レンズ21、撮像素子22、AFE(Analog Front End)部23、画像処理部24、制御部25、EVF26、画像表示部27、記録部28、操作入力部29、外部情報検出部30、およびレンズドライバ31を有している。
 撮像レンズ21は、複数のレンズなどからなり、被写体から入射した光を集光して撮像素子22へと導く。撮像レンズ21には、図示せぬ絞りやフォーカスレンズ、シャッタなどが設けられている。
 撮像素子22は、複数の画素が設けられた撮像面を有するCMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)等からなり、撮像レンズ21を介して被写体から入射した光を撮像面で受光する。撮像素子22は、被写体からの光を光電変換することで得られた画像をAFE部23に供給する。
 撮像素子22により撮影される画像には、特に撮影画像とライブビュー画像とがある。
 撮影画像は、ユーザが鑑賞等のために記録しておくことを目的として、ユーザのシャッタボタン操作により撮影される画像であり、以下では撮影画像は静止画像であるものとする。
 これに対してライブビュー画像は、撮影画像の撮影時、より詳細には撮影画像の撮影前に、これから撮影される撮影画像の画角等を確認するために事前にユーザに対して提示される画角確認用の動画像であり、ライブビュー画像はスルー画像などとも呼ばれている。
 AFE部23は、撮像素子22から供給された画像に対してA/D(Analog/Digital)変換等を行って、得られた画像を画像処理部24に供給する。画像処理部24は、例えばLSI(Large Scale Integration)などからなり、AFE部23から供給された画像に対してデモザイク処理やノイズリダクション処理、ガンマ補正処理などの各種の画像処理を施して制御部25に供給する。
 制御部25は、操作入力部29から供給される信号等に応じて、撮像装置11全体の動作を制御する。例えば制御部25は、画像処理部24から供給された撮影画像を記録部28に供給して記録させたり、記録部28から撮影画像を読み出したりする。また、制御部25は、レンズドライバ31を制御して撮像レンズ21を駆動させ、フォーカス制御を行ったり、絞りやシャッタを駆動させたりする。
 さらに、制御部25は表示制御部51、内部情報検出部52、および撮影設定変更部53を備えている。表示制御部51は、撮影画像やライブビュー画像をEVF26や画像表示部27に供給し、それらの画像の表示を制御する。
 内部情報検出部52は、画像処理部24から供給されたライブビュー画像から得られる情報や、撮影画像を撮影するときの設定などの情報を内部検出情報として検出する。撮影設定変更部53は、内部情報検出部52で得られる内部検出情報と、外部情報検出部30から供給された外部検出情報とに基づいて撮影画像の撮影が天体撮影であるか否かを判定し、その判定結果に応じて撮影画像の撮影、より詳細にはライブビュー画像に関する設定を行う。
 なお、ここでは天体撮影とは、極端に暗い撮影環境で天体(夜空)を被写体として撮影を行うことをいうが、上述したように天体撮影は暗所撮影の一例であり、本技術は天体撮影に限定されるものではない。また、天体撮影ではないと判定された場合には、通常の撮影が行われるものとされる。
 EVF26は、例えば有機EL(Electro Luminescence)や液晶表示素子などからなる電子式ビューファインダであり、表示制御部51から供給されたライブビュー画像や撮影画像を表示する。画像表示部27は、例えば有機ELや液晶表示素子などからなり、表示制御部51から供給されたライブビュー画像や撮影画像を表示する。
 撮像装置11には図示せぬセンサが設けられており、例えばこのセンサにより、ユーザがEVF26を覗いていることが検出された場合には、表示制御部51はEVF26にライブビュー画像や撮影画像を供給し、表示させる。これに対してユーザがEVF26を覗いていることがセンサにより検出されなかった場合には、表示制御部51は画像表示部27にライブビュー画像や撮影画像を供給し、表示させる。
 記録部28は、例えば撮像装置11に着脱可能なリムーバブル記録媒体などからなり、制御部25から供給された画像を記録するとともに、記録している画像を制御部25に供給する。操作入力部29は、例えば撮像装置11に設けられたシャッタボタンなどの各種のボタンやスイッチ、画像表示部27に重畳されているタッチパネルなどからなり、ユーザの操作に応じた信号を制御部25に供給する。
 外部情報検出部30は、例えばジャイロセンサなどからなり、内部検出情報とは異なる、撮像装置11の状態等の情報を外部検出情報として検出し、制御部25に供給する。レンズドライバ31は、制御部25の制御に従って撮像レンズ21を駆動させ、フォーカス制御や絞り制御、シャッタ制御を行う。
〈天体撮影の判定と撮影時の設定について〉
 ところで、撮像装置11では撮影画像の撮影時には、例えば図2に示すように撮像素子22によりほぼリアルタイムでライブビュー画像が取得され、得られたライブビュー画像は画像処理部24等を介して画像表示部27またはEVF26に供給され、表示される。このとき、ライブビュー画像は記録部28には記録されない。
 撮影者であるユーザは、画像表示部27等に表示されたライブビュー画像を見て、適宜画角合わせ等を行い、本撮影、つまり撮影画像を撮影するときには操作入力部29としてのシャッタボタンを押下する。
 すると、図3に示すように撮像素子22により撮影画像としての静止画像が取得され、得られた撮影画像は画像処理部24等を介して記録部28に供給され、記録される。
 このように画角確認用の動画像として撮影されるライブビュー画像は、撮影画像とは異なるシャッタスピードで撮影することができる。撮像装置11では、通常はライブビューの即時応答性を考慮して極端なスローシャッタは行わず、その代わりに画像のゲインを上げることで明るさを確保し、画角確認性を向上させる。
 しかし、天体撮影においては、ライブビュー画像の取り込み時に得られる光は非常に少ないため、画角を決めるのに十分な画質を得ることができないことが多く、即時応答性と画角確認性を両立するのが困難な状況と言える。
 例えば天体撮影を行う場合に、ユーザが図4に示すような撮影画像P11を撮影したいとする。撮影画像P11は天体を被写体とし、撮影画像P11の図中、下側の部分に周囲の風景として木が写っている画像である。
 このような天体撮影を行う場合に、撮像装置において通常の撮影時と同じ露光時間でライブビュー画像を撮影すると、ユーザは図4に示す動作を繰り返し行わなければならなくなる。すなわち、矢印A11に示すように画像表示部に表示されるライブビュー画像は真っ暗で赤色のノイズが目立ち、周囲の風景等を確認することができない。ユーザは、風景として山や木陰を画角に収めたいが、ライブビュー画像ではそれらの風景が確認できないため、構図が決められなくなってしまう。
 そのような場合、ユーザは撮像装置に撮影画像を撮影させ、得られた撮影画像を見て画角合わせを行わなければならなくなる。いま、例えば撮影画像の撮影時の露光時間が30秒であり、撮影時に30秒の長秒時ノイズリダクション処理が行われるとする。
 ここで、長秒時ノイズリダクション処理は、長時間露光のためにノイズが大きくなることから、そのような大きなノイズを除去するための処理である。この長秒時ノイズリダクション処理では、メカニカルシャッタを閉じた状態や、液晶などで撮像素子が光学的に遮光された状態で、撮影画像の撮影時と同じ時間だけ蓄積されたノイズ除去用の画像が用いられて、撮影画像からノイズが除去される。具体的には、各画素位置において撮影画像の画素の画素値から、遮光した状態で得たノイズ除去用の画像の画素の画素値が減算されてノイズが除去される。
 上述したような長秒時ノイズリダクション処理が行われる場合、30秒間の露光により撮影画像が撮影され、その後、さらに30秒間のノイズリダクション処理が行われる。この間、画像表示部には、例えば矢印A12に示すように「ノイズリダクション実行中」などの文字のみが表示され、撮影画像は表示されないので、ユーザはノイズリダクション処理が終了するまで撮影画像を確認することができない。
 撮影時の露光とノイズリダクション処理が終了すると、撮影画像が画像表示部に表示されるので、ユーザは撮影画像を見ながら画角を微調整し、再度撮影を行う。そして、何度か撮影を繰り返し、最終的に満足できる画角等の撮影画像P11が得られると、撮影は終了する。
 このように通常の撮影時と同じ設定で天体撮影を行おうとすると、周囲(被写体)の光量に対して露光時間が不十分となるのでライブビューでの画角合わせができず、画角合わせのために長秒露光撮影を繰り返す必要があった。このような作業はユーザにとって負荷が高いものである。
 そこで、撮像装置11では、天体撮影時にはライブビュー画像の露光時間が十分に長くなるように設定を定め、ライブビュー画像の画質を優先させる。すなわち、十分にライブビューが可能となる画質の画像が得られるようなシャッタスピードでライブビュー画像が撮影されるようにする。この場合、ライブビュー画像の露光時間は30秒から数分となることもある。
 天体撮影では、主な被写体である天体は静止しているとみなすことができるため、ライブビューの即時応答性は重要ではなく、撮像装置11では即時応答性よりも画角確認性が優先されてライブビュー画像のシャッタスピード(露光時間)の設定が行われる。
 なお、この明細書では、ライブビュー画像のシャッタスピードは、ライブビュー画像の各フレーム内でのシャッタスピードを表すものではなく、ライブビュー画像のフレームレートの逆数に相当する。例えば、ライブビュー画像のシャッタスピードが30秒である場合、ライブビュー画像のフレームレートは約0.03fpsとなる。
 このように、天体撮影(暗所撮影)時には他の通常の撮影時よりもライブビュー画像のシャッタスピードが遅く(露光時間が長く)なるようにすることで、ライブビュー画像の更新周期は遅くなるが、ライブビューで画角合わせを行うことができるようになる。すなわち、画像の更新周期は遅くなるものの常に十分な画質のライブビュー画像が表示されるため、ユーザはライブビュー画像を見て画角合わせを行うことができる。
 具体的には、撮像装置11では、外部検出情報と内部検出情報の一方または両方が用いられて天体撮影であるか否かが判定され、その判定結果に従って撮像装置11の撮像デバイス、つまり撮像素子22の駆動方法や制御値の設定が自動的に変更される。
 例えば外部情報検出部30は、撮像装置11が三脚に固定されているか否かを示す情報や、撮像装置11が仰角方向、つまり空の方向にどれだけ傾いているかを表す仰角を示す情報を外部検出情報として検出する。
 ここで、撮像装置11が三脚に固定されているかの検出では、例えば外部情報検出部30に備えられているセンサにより撮像装置11に動きがない、つまり静止していることが検出されたときに、三脚に固定されているとされる。
 また、例えば撮像装置11が三脚に固定されたときに電気的または物理的に三脚と撮像装置11の接続が検出されるセンサを外部情報検出部30に設け、そのセンサの出力に基づいて撮像装置11の三脚への固定が検出されるようにしてもよい。
 その他、撮像装置11が三脚に固定されたときに、外部情報検出部30が三脚と通信することで撮像装置11の三脚への固定が検出されるようにしてもよい。さらに、ユーザが操作入力部29を操作して三脚に固定された旨を入力するようにし、その操作に応じて三脚への固定が検出されるようにしてもよい。
 また、例えば外部情報検出部30は、外部情報検出部30に設けられたセンサの出力から得られる撮像装置11の仰角を外部検出情報として検出する。例えば撮像装置11が空の方向(上方向)に向けられて固定されている場合、撮像装置11の仰角は所定の角度以上となるから、仰角を用いても天体撮影であるかを特定することができる。
 なお、ここでは暗所撮影の例として天体撮影における場合について説明しているため、撮像装置11が三脚に固定されているかだけでなく、撮像装置11の仰角も外部検出情報として検出している。しかし、天体撮影ではなく、極端な暗所撮影である場合でも、通常、三脚が用いられて撮影が行われるため、外部検出情報として三脚に固定されているかを検出すれば、必要に応じて他の外部検出情報や内部検出情報も用いて暗所撮影であるかを特定することができる。
 一方、内部情報検出部52は、撮影画像のシャッタスピード(露光時間)や、ライブビュー画像から得られる統計値など、撮影画像に関する情報を内部検出情報として検出する。ここで、撮影画像に関する情報とは、例えば撮影画像の撮影時の情報やライブビュー画像から得られる情報などである。
 より具体的には、例えば内部情報検出部52は、撮影画像のシャッタスピードを内部検出情報として検出する。また、内部情報検出部52は、ライブビュー画像全体の暗さの度合いや、ライブビュー画像の夜景らしさの度合い(天体画像らしさの度合い)を内部検出情報として検出する。
 ここで、ライブビュー画像全体の暗さの度合いは、ライブビュー画像の各画素の画素値に基づいて算出され、例えば各画素の画素値の平均値などから算出される。また、ライブビュー画像における暗い領域のライブビュー画像全体の領域に対する割合が、ライブビュー画像全体の暗さの度合いとされてもよい。
 また、夜景らしさの度合いは、ライブビュー画像全体の明るさ(暗さ)や、ライブビュー画像の構図解析の結果などに基づいて算出される。例えば、ライブビュー画像全体が暗く、ライブビュー画像の中央から上部の領域にエッジ成分が少ない場合などに夜景らしさ(天体画像らしさ)の度合いが高くなるようにされる。なお、夜景らしさの度合いを求める夜景推定技術は一般的に知られており、夜景らしさの度合いが算出されれば、どのような手法が用いられてもよい。
 撮影設定変更部53は、外部情報検出部30で得られた外部検出情報と、内部情報検出部52で得られた内部検出情報とに基づいて、天体撮影であるか否かを判定する。
 例えば、天体撮影であるかの判定にあたっては、外部検出情報または内部検出情報の何れか一方のみを用いてもよいし、それらの両方を用いてもよい。
 例えば、一例として内部検出情報として検出された撮影画像のシャッタスピードが30秒以上であり、内部検出情報として検出された夜景らしさの度合いが閾値以上であり、かつ外部検出情報として、撮像装置11が三脚に固定されていることを示す情報が得られた場合、天体撮影であるとされる。
 なお、天体撮影であるか否かは、内部検出情報と外部検出情報の少なくとも何れかが用いられて判定されればよい。
 例えば内部検出情報として検出された撮影画像のシャッタスピードが所定の秒数以上である場合に天体撮影であるとされてもよいし、外部検出情報として検出された撮像装置11の仰角が所定の角度以上である場合に天体撮影であるとされてもよい。
 また、例えばいくつかの内部検出情報と外部検出情報に基づいて、それらの情報ごとに天体撮影であるかを判定し、それらの情報ごとの判定結果が全て天体撮影であると判定された場合や、所定数以上の情報について天体撮影であるとの判定結果が得られた場合などに、天体撮影であるとされてもよい。
 さらに、ユーザが操作入力部29を操作して、天体撮影である旨の情報を外部検出情報として入力した場合、その外部検出情報に基づいて、撮影設定変更部53が天体撮影であると判定するようにしてもよい。この場合、例えば画像表示部27やEVF26に、ユーザに対して天体撮影であるかの入力を促す文字情報や、天体撮影であることを入力するためのボタン等が含まれる確認画面が表示される。
 また、いくつかの内部検出情報と外部検出情報とが重み付け加算されるなどして、計算により天体撮影らしさの度合いが求められ、得られた天体撮影らしさの度合いが閾値以上である場合に、天体撮影であると判定されてもよい。
 撮影設定変更部53は、撮影画像の撮影が天体撮影でないと判定した場合、撮像装置11の撮像素子22の駆動方法や制御値の設定を、通常の撮影通りライブビューの即時応答性を優先する即時応答性優先設定とする。
 例えば、即時応答性優先設定では、ライブビュー画像撮影時における撮像素子22の露光時間、つまり撮像レンズ21のシャッタスピードの上限値がLr=0.2秒など、予め定められた値Lrとされる。したがって、即時応答性優先設定では、周囲の撮影環境が暗くてもライブビュー画像の露光時間は上限値Lr以下の時間とされる。これにより即時応答性が確保され、動被写体もぶれることなく撮影される。
 また、例えば即時応答性優先設定では、ライブビュー画像撮影時における撮像素子22の駆動方式として、撮像素子22で撮影されたライブビュー画像の読み出し時に間引き読み出し処理を行って、所定サイズのライブビュー画像を読み出す駆動方式が選択される。
 具体的には、撮像素子22は全画素のうちの一部の画素のみから画素データを読み出す間引き読み出し処理を行い、その間引き読み出し処理により得られた、各画素の画素データからなる所定サイズのライブビュー画像をAFE部23に出力する。
 さらに、例えば即時応答性優先設定では、ライブビュー画像撮影時に画像処理部24でライブビュー画像に対して行われるノイズリダクション処理として、応答性をより重視するεフィルタを用いたフィルタ処理が選択される。
 これに対して、撮影設定変更部53は、撮影画像の撮影が天体撮影であると判定した場合、撮像装置11の撮像素子22の駆動方法や制御値の設定を、ライブビューの即時応答性を犠牲にしてでも画角確認性を確保する画角確認性優先設定とする。
 具体的には、例えば画角確認性優先設定では、ライブビュー画像撮影時における撮像素子22の露光時間、つまり撮像レンズ21のシャッタスピードの上限値がLv=1秒乃至5秒程度など、上限値Lrよりも長い時間とされる。
 したがって、画角確認性優先設定では画角合わせを行うのに十分な画質のライブビュー画像が得られるように、ライブビューの即時応答性よりも画角確認性が優先され、即時応答性優先設定の場合と比べて、ライブビュー画像の露光時間として、ある程度長い露光時間が確保される。なお、適切な画質のライブビュー画像を得るためのシャッタスピード(露光時間)は撮影環境に強く依存するため、画角確認性優先設定時のライブビュー画像のシャッタスピードの上限値Lvは、撮影環境に応じて定められるようにしてもよい。
 また、例えば画角確認性優先設定では、ライブビュー画像撮影時の撮像素子22の駆動方式として、撮像素子22で撮影されたライブビュー画像の読み出し時に、撮像素子22内で画素加算することにより所定サイズのライブビュー画像を出力する駆動方式が選択される。
 具体的には、例えば撮像素子22の全画素から画素データが読み出されて、それらの読み出された画素データのうちの互いに隣接する画素の画素データが、撮像素子22内における各画素から出力段への転送時に、その転送経路上にあるレジスタ等において混合(加算)される。すなわち、撮像素子22の互いに隣接するいくつかの画素の画素データが混合されることで、画像のサイズ変換が行われ、その結果得られた所定サイズのライブビュー画像が撮像素子22からAFE部23に出力される。
 画像のサイズ変換を行う場合、画像の読み出し時に間引き読み出し処理を行って単純に画素を間引くよりも、画素加算を行って画像サイズを縮小させる方がより画質のよい画像を得ることができる。そこで、画角確認性優先設定では、撮像素子22の駆動方式として、撮像素子22内での画素加算によるサイズ変換が行われる駆動方式が採用される。これにより、より画質のよい、つまりより視認性の高い綺麗なライブビュー画像で画角を確認することができる。
 なお、ここでは天体撮影であるか否かに応じて、撮像素子22の露光時間や、ライブビュー画像の読み出し時の撮像素子22の駆動方式、すなわちライブビュー画像の画像サイズ変更アルゴリズムを変更する例について説明したが、他のどのような駆動方式を変更するようにしてもよい。
 さらに、例えば画角確認性優先設定では、ライブビュー画像撮影時に画像処理部24でライブビュー画像に対して行われるノイズリダクション処理として、ノイズ除去効果をより重視するバイラテラルフィルタを用いたフィルタ処理が選択される。
 ノイズ除去を行う場合、εフィルタを用いたフィルタ処理を行うよりも、バイラテラルフィルタを用いたフィルタ処理を行う方がより高いノイズ除去効果を得ることができる。つまり、より画質のよい画像を得ることができる。
 しかし、バイラテラルフィルタを用いると、εフィルタを用いるよりもフィルタ処理の処理時間が長くなってしまう。しかし、天体撮影が行われ、画角確認性優先設定が選択される場合には、ライブビュー画像のシャッタスピードの上限値が通常の即時応答性優先設定の場合よりも、より長くされるので、フィルタ処理により遅延が生じることはない。
 なお、ここでは天体撮影であるか否かに応じて、画像処理部24による画像処理としてノイズリダクション処理の使用アルゴリズムを変更する例について説明したが、その他、フィルタ処理のパラメータや、他の画像処理のアルゴリズムなどを変更するようにしてもよい。例えばフィルタ処理のパラメータとして、フィルタ処理のタップ位置やタップ数などが考えられる。
 また、天体撮影であるか否かに応じて、例えば画像処理部24による画像処理として異なるサイズ変換処理が選択(設定)されるようにしてもよい。
 具体的には、即時応答性優先設定では、例えば画像処理部24において、撮像素子22により読み出されたライブビュー画像に対して、そのライブビュー画像上のいくつかの画素を破棄し(間引き)、残りの画素からなる所定サイズの画像をサイズ変換処理後のライブビュー画像とするサイズ変換処理が行われる。
 これに対して画角確認性優先設定では、例えば画像処理部24において、撮像素子22により読み出されたライブビュー画像に対して、いくつかの画素の画素値を重み付け加算することで新たな画素の画素値を算出するフィルタ処理が行われ、ライブビュー画像のサイズが変換される。
 通常、所定サイズの画像を得る場合、いくつかの画素を破棄するという単純な間引き処理を行うよりも重み付け加算を行って画像サイズを縮小させる方がより画質のよい画像を得ることができる。ところが、重み付け加算を行うと単純な間引き処理を行うよりも処理時間が長くなってしまう。しかし、天体撮影が行われ、画角確認性優先設定が選択される場合には、ライブビュー画像のシャッタスピード(露光時間)の上限値が通常の即時応答性優先設定の場合よりも、より長くされるので、重み付け加算を行ってもライブビュー画像の表示の更新に遅延が生じることはない。
 すなわち、天体撮影時には、ライブビュー画像のフレーム間隔が通常の撮影時よりも長くなるので、各種の画像処理として、より計算量が多く処理時間が長い処理アルゴリズムを採用することができる。これにより、より画質のよい、つまりより視認性の高い綺麗なライブビュー画像で画角を確認することができる。
 なお、画像処理部24においてライブビュー画像のサイズ変換が行われる場合、撮像素子22ではライブビュー画像のサイズ変換が行われず、画像処理部24においてのみライブビュー画像のサイズ変換が行われるようにしてもよい。
 また、撮像素子22でライブビュー画像のサイズ変換が行われた後、画像処理部24においてさらにライブビュー画像のサイズ変換が行われ、最終的に所望サイズのライブビュー画像が得られるようにしてもよい。そのような場合、即時応答性優先設定であるか、または画角確認性優先設定であるかに応じて、撮像素子22の駆動方式、および画像処理部24におけるサイズ変換処理の組み合わせが適切に選択(設定)される。
 また、撮像素子22の駆動方式と画像処理部24でのサイズ変換処理を組み合わせてライブビュー画像のサイズを変換する場合、即時応答性優先設定または画角確認性優先設定の少なくとも何れかにおいて、撮像素子22または画像処理部24でのサイズ変換が行われないようにしてもよい。さらに、即時応答性優先設定と画角確認性優先設定とで、撮像素子22や画像処理部24でのサイズ変換時のライブビュー画像の縮小率が異なるようにしてもよい。例えば撮像素子22から出力されるライブビュー画像のサイズが小さい方が、画質は低下するものの、その後の画像処理の処理時間は短くなる。そこで、即時応答性優先設定と画角確認性優先設定とで画像処理部24におけるサイズ変換処理での縮小率が異なる場合、即時応答性優先設定時の画像処理部24におけるサイズ変換処理での縮小率(間引き量)が、画角確認性優先設定のときよりも低くなるようにしてもよい。この場合、最終的に所定サイズのライブビュー画像が得られるように、撮像素子22および画像処理部24のそれぞれでのサイズ変換の縮小率が定められる。
 以上のように、天体撮影であるか否かに応じてライブビュー画像のシャッタスピードの上限値を変更することで、撮影目的に合った、より適切なライブビュー画像を得ることができる。
 特に、天体撮影が行われる場合には、通常撮影よりもライブビュー画像のシャッタスピードの上限値が大きく(長く)なるように設定が行われるので必要な露光時間が確保され、画角合わせを行うのに十分な画質のライブビュー画像を得ることができる。
 しかもライブビュー画像のシャッタスピードの設定だけでなく、撮像素子22の駆動方式や画像処理部24での画像処理も天体撮影であるか否かに応じて変更することで、さらに画質がよく視認性の高いライブビュー画像を得ることができる。
 これにより、ユーザは特別な操作を何も行うことなく、より簡単かつ迅速に画角合わせを行うことができる。このように、ライブビューを利用して天体撮影を行う場合に、ライブビュー画像による画角確認が容易となると、ユーザはストレスなく撮影を行うことができ、撮影機会を広げることができる。
 一方で、天体撮影が行われない場合には、例えば暗所での撮影でもライブビュー画像のシャッタスピードの上限値がある程度小さい(短い)値に設定されるので、ライブビューの即時応答性が確保され、動被写体の撮影時等において操作性が低下してしまうこともない。
 このような本技術は、上述したようにデジタルスチルカメラ等に限らず携帯電話機などにも適用可能であり、カメラの知識が豊富でないユーザにも大きなメリットがある。
〈撮影処理の説明〉
 次に、以上において説明した撮像装置11により行われる処理の流れについて説明する。撮像装置11は、ユーザにより操作され、撮影画像の撮影動作の開始が指示されると、撮影処理を行って撮影画像を撮影する。以下、図5のフローチャートを参照して、撮像装置11による撮影処理について説明する。
 ステップS11において、撮像素子22は、撮像レンズ21を介して被写体から入射してきた光を受光して光電変換することでライブビュー画像を撮影し、得られたライブビュー画像を、AFE部23を介して画像処理部24に供給する。
 ステップS12において、画像処理部24は撮像素子22から供給されたライブビュー画像に対して、デモザイク処理やノイズリダクション処理などの各種の画像処理を施し、制御部25に供給する。
 ステップS13において、制御部25の表示制御部51は、画像処理部24から供給されたライブビュー画像をEVF26または画像表示部27に供給して、ライブビュー画像を表示させる。ユーザは、表示されたライブビュー画像を確認して、適宜、撮像装置11を動かして撮影方向を変えたり、ズーム倍率を変更したりして画角合わせを行う。
 ステップS14において、内部情報検出部52は内部検出処理を行って内部検出情報を検出し、撮影設定変更部53に供給する。
 例えば内部情報検出部52は、必要に応じてライブビュー画像を用いて、予めユーザやプログラムにより設定された撮影画像のシャッタスピード、ライブビュー画像全体の暗さの度合い、ライブビュー画像の夜景らしさの度合いなどを内部検出情報として検出する。なお、内部検出情報は1つであってもよいし、複数であってもよい。
 ステップS15において、外部情報検出部30は、外部検出処理を行って外部検出情報を検出し、制御部25の撮影設定変更部53に供給する。例えば外部情報検出部30は、撮像装置11が三脚に固定されているか否かや、撮像装置11の仰角を外部検出情報として検出する。なお、ステップS15の処理が行われた後にステップS14の処理が行われるようにしてもよいし、ステップS14の処理とステップS15の処理が並行して行われるようにしてもよい。
 ステップS16において、撮影設定変更部53は、内部情報検出部52から供給された内部検出情報、または外部情報検出部30から供給された外部検出情報の少なくとも何れか一方に基づいて、これから行われる撮影画像の撮影が天体撮影であるか否かを判定する。
 例えば撮影画像のシャッタスピードが30秒以上であり、夜景らしさの度合いが閾値以上であり、かつ撮像装置11が三脚に固定されている場合、天体撮影であると判定される。
 なお、外部検出情報や内部検出情報に基づいて天体撮影であると推定された場合に、画像表示部27やEVF26に確認画面を表示し、ユーザに操作入力部29を操作させて、天体撮影であるか否かを入力させるようにしてもよい。この場合、ユーザにより天体撮影であると入力されたときに、天体撮影であると判定される。
 ステップS16において天体撮影ではないと判定された場合、すなわち、天体撮影ではない通常の撮影であると判定された場合、ステップS17において撮影設定変更部53は、撮像装置11の撮像素子22の駆動方法や制御値の設定を、即時応答性優先設定とする。
 具体的には、例えば撮影設定変更部53は、即時応答性優先設定としてライブビュー画像のシャッタスピードの上限値をLrとする。
 また、撮影設定変更部53は、即時応答性優先設定として、例えばライブビュー画像の読み出し時の撮像素子22の駆動方式を間引き読み出し処理が行われる方式とする。さらに撮影設定変更部53は、即時応答性優先設定として、例えばεフィルタを用いたフィルタ処理がノイズリダクション処理として行われるようにする。
 ステップS18において、制御部25は、ステップS17の処理で定められた即時応答性優先設定に応じた撮影制御を行う。
 具体的には、例えば制御部25の撮影設定変更部53は、上限値をLrとして、撮像レンズ21の透過率や撮影環境の明るさ、ISO感度などに基づいてライブビュー画像のシャッタスピードを算出する。このとき、算出されたシャッタスピードが上限値Lrよりも長い場合には、最終的なシャッタスピードは上限値Lrとされる。
 そして、制御部25は、算出されたライブビュー画像のシャッタスピードに基づいてレンズドライバ31や撮像素子22の動作を制御する。
 このようにしてライブビュー画像のシャッタスピードが求められると、次回に行われるステップS11の処理では、求められたシャッタスピード(露光時間)でライブビュー画像が撮影される。
 また制御部25は、撮像素子22を制御して、ステップS17で定められた駆動方式、例えば間引き読み出し処理を行う駆動方式でライブビュー画像の読み出しを行わせる。これにより、次回に行われるステップS11の処理では、撮像素子22の一部の画素のみから画素データが読み出され、その結果得られた画像がライブビュー画像としてAFE部23に出力されることになる。
 さらに制御部25は、ノイズリダクション処理としてステップS17で定められた処理、例えばεフィルタを用いたフィルタ処理を実行するように画像処理部24に指示する。これにより、次回に行われるステップS12の処理では、画像処理部24によりεフィルタを用いたフィルタ処理がライブビュー画像に対して行われることになる。
 このようにして即時応答性優先設定に応じた制御が行われると、その後、処理はステップS21に進む。
 また、ステップS16において天体撮影であると判定された場合、ステップS19において、撮影設定変更部53は、撮像装置11の撮像素子22の駆動方法や制御値の設定を、画角確認性優先設定とする。
 具体的には、例えば撮影設定変更部53は、画角確認性優先設定としてライブビュー画像のシャッタスピードの上限値を、即時応答性優先設定時の上限値Lrよりも大きい(長い)Lvとする。すなわち、撮影設定変更部53は、ライブビュー画像のシャッタスピードの上限値をLvとすることで、ライブビュー画像の露光時間の設定を行う。
 また、撮影設定変更部53は、画角確認性優先設定として、ライブビュー画像の読み出し時の撮像素子22の駆動方式を設定するとともに、ライブビュー画像に対するノイズリダクション処理を設定する。
 例えば、撮影設定変更部53はライブビュー画像の読み出し時の撮像素子22の駆動方式を、撮像素子22内での画素加算によるサイズ変換が行われる駆動方式とする。さらに撮影設定変更部53は、例えばバイラテラルフィルタを用いたフィルタ処理がノイズリダクション処理として行われるようにする。
 ステップS20において、制御部25は、ステップS19の処理で定められた画角確認性優先設定に応じた撮影制御を行う。
 具体的には、例えば制御部25の撮影設定変更部53は、上限値をLvとして、撮像レンズ21の透過率や撮影環境の明るさ、ISO感度などに基づいてライブビュー画像のシャッタスピードを算出する。このとき、算出されたシャッタスピードが上限値Lvよりも長い場合には、最終的なシャッタスピードは上限値Lvとされる。
 そして、制御部25は、算出されたライブビュー画像のシャッタスピードに基づいてレンズドライバ31や撮像素子22の動作を制御する。
 このようにしてライブビュー画像のシャッタスピードが求められると、次回に行われるステップS11の処理では、求められたシャッタスピード(露光時間)でライブビュー画像が撮影される。
 また制御部25は、撮像素子22を制御して、ステップS19で定められた駆動方式、例えば画素加算によるサイズ変換が行われる駆動方式でライブビュー画像の読み出しを行わせる。これにより、次回に行われるステップS11の処理では、撮像素子22内のレジスタ等において画素から読み出された画素データの混合が行われ、その結果得られた所定サイズの画像がライブビュー画像としてAFE部23に出力されることになる。
 さらに制御部25は、ノイズリダクション処理としてステップS19で定められた処理、例えばバイラテラルフィルタを用いたフィルタ処理を実行するように画像処理部24に指示する。これにより、次回に行われるステップS12の処理では、画像処理部24によりバイラテラルフィルタを用いたフィルタ処理がライブビュー画像に対して行われることになる。
 このようにして画角確認性優先設定に応じた制御が行われると、その後、処理はステップS21に進む。
 ステップS18またはステップS20において設定に応じた制御が行われると、ステップS21において、制御部25はシャッタボタンが押されたか否かを判定する。
 例えばユーザにより操作入力部29としてのシャッタボタンが押され、操作入力部29から制御部25にシャッタボタンの操作に応じた信号が供給された場合、シャッタボタンが押されたと判定される。
 ステップS21において、シャッタボタンが押されていないと判定された場合、まだユーザは画角合わせ等ができておらず、撮影画像の撮影ができる状態となっていないので、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、ライブビュー画像の次のフレームが取り込まれ、ライブビュー表示される。
 これに対してステップS21において、シャッタボタンが押されたと判定された場合、ステップS22において、撮像素子22は撮影画像を撮影する。
 すなわち、制御部25はレンズドライバ31や撮像素子22を制御して、撮影画像に対して定められたシャッタスピード(露光時間)や絞りなどで、撮影画像を撮影させる。撮像素子22は、制御部25の指示に応じて動作し、撮像レンズ21を介して被写体から入射した光を光電変換することで撮影画像を撮影する。
 撮像素子22は、得られた撮影画像を、AFE部23を介して画像処理部24に供給する。
 ステップS23において、画像処理部24は撮像素子22から供給された撮影画像に対して、デモザイク処理やノイズリダクション処理などの各種の画像処理を施し、制御部25に供給する。ここで、撮影画像に対しては、予め定められたノイズリダクション処理、例えばバイラテラルフィルタを用いたフィルタ処理が行われる。
 ステップS24において、制御部25は、画像処理部24から供給された撮影画像を記録部28に供給して記録させ、撮影処理は終了する。なお、撮影画像が必要に応じてEVF26や画像表示部27に供給され、表示されるようにしてもよい。
 以上のようにして、撮像装置11は内部検出情報と外部検出情報を検出し、それらの情報に基づいて天体撮影であるか否かを判定する。そして、撮像装置11は天体撮影であるかの判定結果に応じて、ライブビュー画像のシャッタスピード等の設定を変更する。
 特に天体撮影が行われる場合には、通常よりもライブビュー画像のシャッタスピードの上限値を大きくすることで、画角合わせを行うのに十分な画質のライブビュー画像を得ることができ、より簡単かつ迅速に画角合わせを行うことができるようになる。しかも、天体撮影が行われる場合に撮像素子22の駆動方式や画像処理部24での画像処理なども変更することで、さらに画質のよいライブビュー画像を得ることができる。
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
 図6は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間を設定する設定部を備える
 撮像装置。
(2)
 前記暗所撮影では、撮影画像の露光時間が、所定の露光時間より長く設定される
 (1)に記載の撮像装置。
(3)
 前記設定部は、前記暗所撮影である場合、前記ライブビュー画像の露光時間の設定として、前記他の撮影である場合よりも前記ライブビュー画像の露光時間の上限値を大きくする
 (1)または(2)に記載の撮像装置。
(4)
 前記設定部は、前記暗所撮影である場合、前記他の撮影である場合とは異なる撮像デバイスの駆動方式を設定する
 (1)乃至(3)の何れか一項に記載の撮像装置。
(5)
 前記設定部は、前記暗所撮影である場合、前記他の撮影である場合とは異なる画像処理を設定する
 (1)乃至(4)の何れか一項に記載の撮像装置。
(6)
 前記画像処理はサイズ変換処理である
 (5)に記載の撮像装置。
(7)
 前記画像処理はノイズリダクション処理である
 (5)に記載の撮像装置。
(8)
 前記暗所撮影か否かを判定する制御部をさらに備える
 (1)乃至(7)の何れか一項に記載の撮像装置。
(9)
 前記制御部は、撮影画像の露光時間に基づいて、前記暗所撮影か否かを判定する
 (8)に記載の撮像装置。
(10)
 前記制御部は、前記撮像装置が三脚に固定されているか否かに基づいて、前記暗所撮影か否かを判定する
 (8)または(9)に記載の撮像装置。
(11)
 前記制御部は、前記撮像装置の仰角に基づいて、前記暗所撮影か否かを判定する
 (8)または(9)に記載の撮像装置。
(12)
 前記制御部は、前記ライブビュー画像全体の暗さの度合いに基づいて、前記暗所撮影か否かを判定する
 (8)乃至(11)の何れか一項に記載の撮像装置。
(13)
 前記制御部は、前記ライブビュー画像の夜景らしさの度合いに基づいて、前記暗所撮影か否かを判定する
 (8)乃至(11)の何れか一項に記載の撮像装置。
(14)
 前記暗所撮影は天体撮影である
 (1)乃至(13)の何れか一項に記載の撮像装置。
(15)
 暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間を設定する
 ステップを含む撮影方法。
(16)
 暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間を設定する
 ステップを含む処理をコンピュータに実行させるプログラム。
 11 撮像装置, 21 撮像レンズ, 22 撮像素子, 24 画像処理部, 25 制御部, 26 EVF, 27 画像表示部, 30 外部情報検出部, 51 表示制御部, 52 内部情報検出部, 53 撮影設定変更部

Claims (16)

  1.  暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間を設定する設定部を備える
     撮像装置。
  2.  前記暗所撮影では、撮影画像の露光時間が、所定の露光時間より長く設定される
     請求項1に記載の撮像装置。
  3.  前記設定部は、前記暗所撮影である場合、前記ライブビュー画像の露光時間の設定として、前記他の撮影である場合よりも前記ライブビュー画像の露光時間の上限値を大きくする
     請求項1に記載の撮像装置。
  4.  前記設定部は、前記暗所撮影である場合、前記他の撮影である場合とは異なる撮像デバイスの駆動方式を設定する
     請求項1に記載の撮像装置。
  5.  前記設定部は、前記暗所撮影である場合、前記他の撮影である場合とは異なる画像処理を設定する
     請求項1に記載の撮像装置。
  6.  前記画像処理はサイズ変換処理である
     請求項5に記載の撮像装置。
  7.  前記画像処理はノイズリダクション処理である
     請求項5に記載の撮像装置。
  8.  前記暗所撮影か否かを判定する制御部をさらに備える
     請求項1に記載の撮像装置。
  9.  前記制御部は、撮影画像の露光時間に基づいて、前記暗所撮影か否かを判定する
     請求項8に記載の撮像装置。
  10.  前記制御部は、前記撮像装置が三脚に固定されているか否かに基づいて、前記暗所撮影か否かを判定する
     請求項8に記載の撮像装置。
  11.  前記制御部は、前記撮像装置の仰角に基づいて、前記暗所撮影か否かを判定する
     請求項8に記載の撮像装置。
  12.  前記制御部は、前記ライブビュー画像全体の暗さの度合いに基づいて、前記暗所撮影か否かを判定する
     請求項8に記載の撮像装置。
  13.  前記制御部は、前記ライブビュー画像の夜景らしさの度合いに基づいて、前記暗所撮影か否かを判定する
     請求項8に記載の撮像装置。
  14.  前記暗所撮影は天体撮影である
     請求項1に記載の撮像装置。
  15.  暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間を設定する
     ステップを含む撮影方法。
  16.  暗所撮影である場合に、他の撮影の場合よりも長くなるようにライブビュー画像の露光時間を設定する
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2015/053925 2014-02-25 2015-02-13 撮像装置および方法、並びにプログラム WO2015129479A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/111,496 US10110826B2 (en) 2014-02-25 2015-02-13 Imaging with adjustment of angle of view

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-034370 2014-02-25
JP2014034370 2014-02-25

Publications (1)

Publication Number Publication Date
WO2015129479A1 true WO2015129479A1 (ja) 2015-09-03

Family

ID=54008802

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/053925 WO2015129479A1 (ja) 2014-02-25 2015-02-13 撮像装置および方法、並びにプログラム

Country Status (2)

Country Link
US (1) US10110826B2 (ja)
WO (1) WO2015129479A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9648220B2 (en) * 2015-03-27 2017-05-09 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus, imaging apparatus body and image sound output method
RU2662907C1 (ru) * 2017-08-24 2018-07-31 Владимир Эльич Пашковский Способ борьбы с засветкой астрономических приборов светом уличных осветительных приборов
CN112887619A (zh) * 2021-01-28 2021-06-01 维沃移动通信有限公司 拍摄方法、装置及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278598A (ja) * 1999-03-19 2000-10-06 Minolta Co Ltd デジタルカメラおよび記録媒体
JP2007324965A (ja) * 2006-06-01 2007-12-13 Fujifilm Corp デジタルカメラ、撮影制御方法および画像出力システム
WO2008149925A1 (ja) * 2007-06-08 2008-12-11 Nikon Corporation 撮像装置、画像表示装置、プログラム
JP2010135904A (ja) * 2008-12-02 2010-06-17 Olympus Corp 撮像装置
JP2010161760A (ja) * 2008-12-09 2010-07-22 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2010178248A (ja) * 2009-02-02 2010-08-12 Nikon Corp 電子スチルカメラ及び画像処理プログラム
JP2013038497A (ja) * 2011-08-04 2013-02-21 Pentax Ricoh Imaging Co Ltd 長時間露光可能な撮影装置
JP2013153500A (ja) * 2013-03-11 2013-08-08 Canon Inc 撮像装置、その制御方法及びプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7057653B1 (en) * 1997-06-19 2006-06-06 Minolta Co., Ltd. Apparatus capable of image capturing
US6970198B1 (en) * 2000-09-14 2005-11-29 Hewlett-Packard Development Company, L.P. Digital camera and method of improving image quality in live view mode
US6970199B2 (en) * 2001-10-05 2005-11-29 Eastman Kodak Company Digital camera using exposure information acquired from a scene
US20070014543A1 (en) * 2005-07-13 2007-01-18 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP2008292663A (ja) * 2007-05-23 2008-12-04 Fujifilm Corp カメラ及び携帯電子機器
JP5148989B2 (ja) * 2007-12-27 2013-02-20 イーストマン コダック カンパニー 撮像装置
JP4923005B2 (ja) * 2008-07-28 2012-04-25 富士フイルム株式会社 ディジタル・スチル・カメラおよびその制御方法
JP5317737B2 (ja) * 2009-02-03 2013-10-16 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP5215262B2 (ja) * 2009-02-03 2013-06-19 オリンパスイメージング株式会社 撮像装置
US9077905B2 (en) * 2009-02-06 2015-07-07 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US8355059B2 (en) * 2009-02-06 2013-01-15 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP5259464B2 (ja) * 2009-03-13 2013-08-07 オリンパスイメージング株式会社 撮像装置およびそのモード切換え方法
JP5493942B2 (ja) * 2009-12-15 2014-05-14 ソニー株式会社 撮像装置と撮像方法
US20110149111A1 (en) * 2009-12-22 2011-06-23 Prentice Wayne E Creating an image using still and preview
JP5520038B2 (ja) * 2009-12-25 2014-06-11 キヤノン株式会社 映像処理装置及び映像処理方法
KR101643321B1 (ko) * 2010-02-02 2016-07-27 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 매체
CN102196153B (zh) * 2010-03-03 2013-07-03 鸿富锦精密工业(深圳)有限公司 图像场景亮度差判断装置及亮度差判断方法
JP5250598B2 (ja) * 2010-10-05 2013-07-31 株式会社ソニー・コンピュータエンタテインメント 画像表示装置および画像表示方法
US8466976B2 (en) * 2010-11-03 2013-06-18 Eastman Kodak Company Digital camera providing high dynamic range images
GB2511405B (en) * 2012-12-28 2016-01-27 Canon Kk Image pickup element, image pickup apparatus, and method and program for controlling the same
US9568713B2 (en) * 2013-01-05 2017-02-14 Light Labs Inc. Methods and apparatus for using multiple optical chains in parallel to support separate color-capture
US9066017B2 (en) * 2013-03-25 2015-06-23 Google Inc. Viewfinder display based on metering images
CN103347152A (zh) * 2013-07-08 2013-10-09 华为终端有限公司 一种图像处理方法、装置及终端
JP2015100002A (ja) * 2013-11-19 2015-05-28 ソニー株式会社 撮像システム、撮像装置、情報処理装置および方法とプログラム
US9805240B1 (en) * 2016-04-18 2017-10-31 Symbol Technologies, Llc Barcode scanning and dimensioning

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278598A (ja) * 1999-03-19 2000-10-06 Minolta Co Ltd デジタルカメラおよび記録媒体
JP2007324965A (ja) * 2006-06-01 2007-12-13 Fujifilm Corp デジタルカメラ、撮影制御方法および画像出力システム
WO2008149925A1 (ja) * 2007-06-08 2008-12-11 Nikon Corporation 撮像装置、画像表示装置、プログラム
JP2010135904A (ja) * 2008-12-02 2010-06-17 Olympus Corp 撮像装置
JP2010161760A (ja) * 2008-12-09 2010-07-22 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2010178248A (ja) * 2009-02-02 2010-08-12 Nikon Corp 電子スチルカメラ及び画像処理プログラム
JP2013038497A (ja) * 2011-08-04 2013-02-21 Pentax Ricoh Imaging Co Ltd 長時間露光可能な撮影装置
JP2013153500A (ja) * 2013-03-11 2013-08-08 Canon Inc 撮像装置、その制御方法及びプログラム

Also Published As

Publication number Publication date
US10110826B2 (en) 2018-10-23
US20160360082A1 (en) 2016-12-08

Similar Documents

Publication Publication Date Title
TWI526068B (zh) 圖像擷取裝置及影像處理方法
US8937677B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable medium
JP6278713B2 (ja) 撮像装置および撮像方法
JP5262247B2 (ja) 撮像装置、撮像方法及びプログラム
US20140192246A1 (en) Digital photographing apparatus, method of controlling the same, and computer-readable recording medium
JP5952975B2 (ja) 撮像装置および撮像方法
JP2009284136A (ja) 電子カメラ
US8681245B2 (en) Digital photographing apparatus, and method for providing bokeh effects
WO2015129479A1 (ja) 撮像装置および方法、並びにプログラム
US8456551B2 (en) Photographing apparatus and smear correction method thereof
US10097751B2 (en) Imaging apparatus and image compositing method
CN110266965B (zh) 图像处理方法、装置、存储介质及电子设备
WO2014188647A1 (ja) 画像調整装置、画像調整方法、画像調整プログラムおよび撮像装置
CN110266967B (zh) 图像处理方法、装置、存储介质及电子设备
JP2007013270A (ja) 撮像装置
CN116266877A (zh) 图像处理设备和方法、摄像设备和计算机可读介质
US9288461B2 (en) Apparatus and method for processing image, and computer-readable storage medium
JP2007013269A (ja) 撮像装置
JP6157274B2 (ja) 撮像装置、情報処理方法及びプログラム
JP6294607B2 (ja) 撮像装置およびその制御方法、プログラム並びに記憶媒体
US20190182414A1 (en) Image processing apparatus and method, and image capturing apparatus
JP5355124B2 (ja) 撮像装置及びそのシーン判別方法
JP2008147924A (ja) 撮像装置
US20130194456A1 (en) Imaging device
KR101817658B1 (ko) 디지털 촬영 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15756060

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15111496

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15756060

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP