WO2019026746A1 - 画像処理装置および方法、撮像装置、並びにプログラム - Google Patents

画像処理装置および方法、撮像装置、並びにプログラム Download PDF

Info

Publication number
WO2019026746A1
WO2019026746A1 PCT/JP2018/028029 JP2018028029W WO2019026746A1 WO 2019026746 A1 WO2019026746 A1 WO 2019026746A1 JP 2018028029 W JP2018028029 W JP 2018028029W WO 2019026746 A1 WO2019026746 A1 WO 2019026746A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
imaging device
control unit
boundary
Prior art date
Application number
PCT/JP2018/028029
Other languages
English (en)
French (fr)
Inventor
鎌田 征人
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/633,689 priority Critical patent/US11184559B2/en
Priority to CN201880048379.XA priority patent/CN111316629B/zh
Priority to JP2019534442A priority patent/JPWO2019026746A1/ja
Priority to EP18841886.7A priority patent/EP3664432B1/en
Publication of WO2019026746A1 publication Critical patent/WO2019026746A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations

Definitions

  • the present technology relates to an image processing apparatus and method, an imaging apparatus, and a program, and more particularly to an image processing apparatus and method, an imaging apparatus, and a program that can improve usability.
  • HDR High Dynamic Range
  • HDR High Dynamic Range
  • HDR high definition digital versatile disc
  • the present technology has been made in view of such a situation, and is intended to improve usability.
  • the image processing apparatus when different areas in a plurality of combining images under different shooting conditions are taken out as different images, and the plurality of extracted images are combined to generate a recorded image.
  • the display control unit is configured to display a boundary relating to the blending process to be performed and to change display of at least one of the plurality of the boundary according to a user operation.
  • the image processing method or program according to the first aspect of the present technology generates a recorded image by combining a plurality of the cut-out images with different areas of the plurality of combining images under different shooting conditions as the cut-out image. Displaying a boundary relating to the blending process to be performed, and changing a display of at least one of the plurality of boundary lines in accordance with a user's operation.
  • a blending process performed when combining a plurality of cut-out images and generating a recorded image by setting different areas of the plurality of combining images under different shooting conditions as the cut-out image And the display of at least one of the plurality of boundaries is changed in response to a user's operation.
  • the imaging device is the imaging lens based on at least one of focal length information indicating a focal length of an imaging lens of the imaging device or detection angle information indicating a rotation angle of the imaging device. And a display control unit that changes superimposed display information to be displayed by being superimposed on an image captured via the display unit.
  • the image processing method or program according to the second aspect of the present technology is based on at least one of focal length information indicating a focal length of a shooting lens of an imaging device or detection angle information indicating a rotation angle of the imaging device. And changing the superimposed display information to be displayed by being superimposed on the image photographed through the photographing lens.
  • the photographing lens via the photographing lens based on at least one of focal length information indicating a focal length of a photographing lens of the imaging device or detection angle information indicating a rotation angle of the imaging device
  • the superimposed display information to be displayed so as to be superimposed on the captured image is changed.
  • FIG. 7 is a view showing an example of a display screen at the time of setting of divided areas and imaging conditions.
  • FIG. 6 is a view showing an example of a display screen at the time of linked setting of imaging conditions. It is a figure explaining this art. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a figure explaining display correction of a boundary line. It is a flowchart explaining setting processing. It is a flow chart explaining photography processing. It is a figure showing an example of composition of a computer.
  • the present technology divides the area of the image into several parts on the display screen, and sets the shooting-related settings for each area to perform HDR shooting, the boundary of the divided area according to the change in the orientation (tilt) of the camera Is automatically corrected without user's operation. Thereby, usability can be improved.
  • Such an embodiment of the present technology can be applied to various electronic devices having a photographing function, such as digital still cameras, digital video cameras, and portable telephones.
  • digital still cameras such as digital still cameras, digital video cameras, and portable telephones.
  • portable telephones such as a cordless telephone, cordless telephones, and cordless telephones.
  • the following description will be given taking the case where the present technology is applied to a digital still camera as an example.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of an imaging device to which the present technology is applied.
  • the imaging device 11 shown in FIG. 1 is an image processing device that is a digital still camera and performs HDR shooting to obtain a still image or a moving image.
  • the image captured by the imaging device 11 may be a still image or a moving image, but in the following, the description will be continued assuming that the image finally recorded is a still image.
  • the imaging device 11 includes a photographing lens 21, an imaging unit 22, a lens information communication unit 23, an angle detection unit 24, a control unit 25, a display unit 26, an operation unit 27, and an image recording unit 28.
  • the photographing lens 21 has, for example, one or more optical lenses and diaphragms, a memory for holding various data related to the photographing lens 21, and a communication unit for exchanging information on the photographing lens 21 with the lens information communication unit 23. Light is collected and guided to the imaging unit 22.
  • the imaging lens 21 may be an interchangeable lens that can be attached to and detached from the imaging device 11, or may be a lens integrally provided in the imaging device 11.
  • the photographing lens 21 may be a zoom lens capable of changing the focal length, or may be a single focus lens having a fixed focal length.
  • the photographing lens 21 is a zoom lens. There shall be.
  • the imaging unit 22 includes, for example, an image sensor, receives light incident from the subject through the photographing lens 21 and photoelectrically converts the light to photograph the subject, and supplies the obtained photographed image to the control unit 25. .
  • the lens information communication unit 23 communicates with the photographing lens 21 and acquires information on the photographing lens 21. Specifically, for example, the lens information communication unit 23 acquires focal distance information indicating the focal distance of the photographing lens 21 as information on the photographing lens 21 from the photographing lens 21 and supplies the focal distance information to the control unit 25.
  • the angle detection unit 24 includes, for example, an angle detection sensor such as a gyro sensor, detects an inclination (rotation) of the imaging device 11, and supplies the detection result to the control unit 25.
  • an angle detection sensor such as a gyro sensor
  • the angle of rotation when the imaging device 11 is rotated with the optical axis of the photographing lens 21 as a rotation axis is also referred to as a rotation angle.
  • the angle of rotation when the imaging device 11 is rotated in the vertical direction, that is, up and down, with the straight line perpendicular to the optical axis of the imaging lens 21 as the axis of rotation is also referred to as an inclination angle.
  • the rotation angle and the inclination angle are information indicating rotation angles when the imaging device 11 rotates from the reference position, although the rotation axes are different from each other.
  • the angle detection unit 24 detects a rotation angle and an inclination angle as the inclination of the imaging device 11, and supplies detection angle information indicating the detection result to the control unit 25.
  • the control unit 25 controls the overall operation of the imaging device 11. For example, the control unit 25 generates a through image based on the captured image supplied from the imaging unit 22 and supplies the generated through image to the display unit 26 or generates a recorded image based on the captured image and supplies the generated image to the image recording unit 28.
  • the through image is displayed on the display unit 26 after the shutter button is pressed by the photographer and shooting is instructed after the start of capturing (shooting) of the captured image, the composition of the image to be captured, It is an image for confirmation to confirm brightness etc.
  • the recording image is an image for recording which is photographed (recorded) according to the instruction when the user who is the photographer presses the shutter button and instructs the photographing.
  • the recorded image is a composite image obtained by combining a plurality of images by HDR.
  • the display screen of the display unit 26, ie, the through image is divided into several areas, and the diaphragm value, ISO sensitivity, WB (White Balance (white balance) are divided for each divided area (hereinafter also referred to as divided area). ), Brightness (exposure correction value), shutter speed, etc. can be set.
  • a shot image for each of the shooting conditions (hereinafter also referred to as an image for combination) is obtained. Then, in the imaging device 11, the image of the part of the divided area in the image for synthesis taken under the imaging condition corresponding to the divided area is cut out, and the image of the part of each divided area is synthesized and one HDR synthesized image It is considered as a certain recorded image.
  • control unit 25 includes a correction amount calculation unit 41 and a display control unit 42.
  • the correction amount calculation unit 41 displays the through image on the display unit 26 based on at least one of the focal distance information supplied from the lens information communication unit 23 and the detection angle information supplied from the angle detection unit 24.
  • the correction information for correcting the display position and the inclination of the boundary of the divided area is obtained by calculation.
  • the boundary of the divided area is displayed on the display unit 26 together with the through image.
  • the imaging device 11 displays the display of the display unit 26 according to the change of the tilt angle or rotation angle. Change the inclination and display position of the border on the screen.
  • the correction amount calculation unit 41 obtains information for correcting such inclination and position of the boundary as correction information.
  • the correction information may be any information that can perform display correction of the boundary, such as information indicating the display position of the boundary and the correction amount of the inclination, but here, the display correction It is assumed that information indicating the inclination and display position of the later boundary line is obtained as the correction information.
  • the display control unit 42 controls display of various images on the display unit 26 such as display of through images and boundary lines of divided areas. For example, based on the correction information obtained by the correction amount calculation unit 41, the display control unit 42 performs display correction of the boundary line of the divided area displayed superimposed on the through image. In other words, the display control unit 42 changes the display of the boundary lines and the like of the divided areas displayed superimposed on the through image based on the correction information.
  • the display unit 26 includes, for example, a liquid crystal display panel or an organic EL (Electro Luminescence), and displays an image supplied from the control unit 25 such as a through image.
  • the operation unit 27 includes, for example, various buttons and switches such as a shutter button, a wheel button, a cross key, a dial, and a touch panel superimposed on the display unit 26 and supplies the control unit 25 with a signal according to the user's operation. .
  • the image recording unit 28 records the recorded image and the like supplied from the control unit 25 and supplies the recorded image and the like to the control unit 25.
  • the image recording unit 28 may be detachable from the imaging device 11.
  • the imaging device 11 when obtaining a recorded image by HDR, the recorded image is generated by synthesizing the images of the respective divided areas of a plurality of different images for synthesis.
  • the boundary of the divided area is designated in advance.
  • the user can arbitrarily designate a boundary on the display screen to divide the image into a plurality of regions.
  • the boundary line BD11 and the boundary line BD12 determined by the user are displayed on the display screen of the display unit 26, and the display screen is divided into three divided areas R11 to R13 by these boundary lines. It is done.
  • the divided area R11 is an area between the upper end (upper end) and the boundary line BD11 in the drawing of the display screen
  • the divided area R12 is an area between the boundary line BD11 and the boundary line BD12
  • the divided area R13 is an area from the boundary line BD12 to the lower end (lower end) in the drawing of the display screen.
  • the user operates, for example, the operation unit 27 to move the boundary line BD11 or the boundary line BD12 in the vertical direction in the drawing, or rotate the boundary line BD11 or the boundary line BD12 so as to have an arbitrary inclination.
  • the division area R11 to the division area R13 are determined.
  • the user can also perform an operation of defining the border in a state where the through image is displayed on the display unit 26 or an operation of defining the border in a state where the through image is not displayed on the display unit 26 You can also do
  • division area R11 can be made into an empty area
  • division area R12 can be made into a ground area.
  • the boundary line BD11 and the boundary line BD12 may be simultaneously moved or rotated by the same amount in accordance with the user's operation on the operation unit 27.
  • the boundary line BD11 and the boundary line BD12 may be separately (independently) moved or rotated.
  • boundary line BD11 and the boundary line BD12 are straight lines in the horizontal direction here, the boundary line may be any line such as a straight line in the vertical direction, a straight line in the diagonal direction, a curve, etc.
  • the number of lines may be any number. That is, the user can divide the image into any number of divided areas, and the shape of each divided area can also be any shape.
  • the user also designates imaging conditions for each of the divided area R11 to the divided area R13 divided by each boundary line before instructing imaging.
  • the imaging condition V11 to the imaging condition V13 are determined for each of the divided region R11 to the divided region R13.
  • the imaging device An image 11 for composition corresponds to the divided area R11 to the divided area R13.
  • the imaging device 11 takes a captured image obtained by performing imaging under the imaging condition V11 set for the divided region R11 as the composition image G11, and performs imaging under the imaging condition V12 set for the divided region R12.
  • a captured image obtained by performing the above process is used as a combining image G12, and a captured image obtained by performing shooting under the shooting condition V13 set for the divided region R13 is used as a combining image G13.
  • the imaging device 11 generates a recording image based on the composition image G11 to the composition image G13 which are obtained in this way and are different from each other in the photographing time.
  • the image CG11 of the part of the area corresponding to the divided area R11 is cut out from the image G11 for synthesis, and the image CG12 of the part of the area corresponding to the divided area R12 is cut out from the image G12 for synthesis. Further, the image CG13 of the part of the area corresponding to the divided area R13 is cut out from the image for synthesis G13.
  • These images CG11 to CG13 are images of different regions.
  • the images CG11 to CG13 are arranged and synthesized so as to have the same positional relationship as the corresponding divided areas R11 to R13, and are formed as one recorded image. As described above, if it is possible to set the photographing conditions for each area, it is possible to obtain a recorded image of appropriate brightness and color tone for each area.
  • an image of a portion of the area corresponding to the divided area, which is cut out from the composition image photographed under the photographing condition defined for the divided area, such as the image CG11 to the image CG13, may also be referred to as a cutout image. I assume.
  • blending processing such as alpha blending is performed on the vicinity of the boundary position of the cut-out images. That is, smoothing is performed near the boundary position.
  • the user can operate the operation unit 27 to specify an area (hereinafter, also referred to as a blend area) to be subjected to the blending process when performing an operation of specifying the boundary line BD11 or the boundary line BD12.
  • an area hereinafter, also referred to as a blend area
  • the boundary line BD12 is a boundary line regarding the blend area to be subjected to the blending process.
  • an area between two straight lines BDR11 and BDR12 parallel to the boundary line BD12, including the boundary line BD12, is a blend area BR11.
  • the straight line BDR11 and the straight line BDR12 are boundary lines indicating the range of the blend region BR11.
  • the image CG13 corresponding to the divided region R13 is an image of a region including the blend region BR11 in the composition image G13, that is, from the straight line BDR11 in the composition image G13 to the lower end of the composition image G13.
  • the user operates the operation unit 27 to move the straight line BDR11 and the straight line BDR12 up and down, and designates the distance (width) between the straight line BDR11 and the straight line BDR12 to designate the area to be the blend area BR11 Do.
  • the straight line BDR 11 and the straight line BDR 12 may move in conjunction with the operation of the operation unit 27 by the user, or may move individually, that is, independently.
  • the image of the area corresponding to the blend area in the recorded image is generated as follows.
  • a pixel in a region corresponding to the blend region BR11 in the recording image is set as a target pixel. Then, the pixel value of the pixel at the same position as the target pixel in the image for synthesis G12 (image CG12) and the pixel value of the pixel at the same position as the target pixel in the image for synthesis G13 (image CG13) are mixed by a predetermined mixing ratio (Blending), that is, weighted addition is performed, and the pixel value obtained as a result is taken as the pixel value of the target pixel.
  • a predetermined mixing ratio that is, weighted addition
  • the mixing ratio is changed linearly or non-linearly according to the position of the target pixel.
  • the composition image G12 and the image for synthesis G13 are mixed so that the contribution rate to the pixel value of the pixel of interest is the same.
  • the ratio is determined. That is, the mixture ratio of the pixels of the image for synthesis G12 and the mixture ratio of the pixels of the image for synthesis G13 are set to the same value (for example, 0.5).
  • the mixing ratio is determined such that the contribution of the image for synthesis G12 becomes larger linearly or nonlinearly as the pixel of interest is closer to the position corresponding to the position on the straight line BDR11.
  • the mixing ratio is determined so that the contribution of the image for synthesis G13 is larger linearly or nonlinearly.
  • the user can arbitrarily set the width of the blend area BR11, the ratio of change in the mixing ratio that changes linearly or non-linearly, that is, the amount of blurring by the blending process, and the like. Similarly, the user can also specify the width of the blend area, the change ratio of the mixing ratio, and the like for the blend area of the boundary line BD11.
  • the width or the like of the blend area of the boundary line BD11 may be simultaneously changed by the same amount simultaneously with the change of the width or the like of the blend area BR11.
  • the ratio of change in width or mixing ratio may be set individually in the blend region.
  • buttons (icons) for performing each setting are displayed as shown in FIG.
  • parts corresponding to the case in FIG. 2 are given the same reference numerals, and the description thereof will be omitted as appropriate.
  • buttons IQ11 to IQ18 for setting the division area and the photographing condition are displayed.
  • the user operates the operation unit 27 to select (operate) the button IQ11, thereby specifying how many divided areas the image is to be divided, that is, the number of divided areas.
  • the user can specify the position and inclination (angle) of the boundary of the divided area by selecting the button IQ12, and specify (set) the width of the blend area, the mixing ratio, etc. by selecting the button IQ13. )It can be performed.
  • the settings relating to the buttons IQ11 to IQ13 may be performed after shooting of the image for composition.
  • the user can specify the brightness (exposure correction value) by selecting the button IQ14, can specify the aperture value (F value) by selecting the button IQ15, and can select the button IQ16.
  • the shutter speed can be specified.
  • the user can specify the ISO sensitivity by selecting the button IQ17, and can specify the type of WB, that is, the type of WB and the color temperature by selecting the button IQ18.
  • the icon in the button IQ13 is displayed. It is displayed brightly.
  • the control unit 25 sets the same setting value such as the width and the mixing ratio of each blend area, that is, the user Change the settings of those blend areas so that they become the specified values.
  • the user specifies arbitrary two or more divided areas for each item, and a plurality of items specified
  • the setting values of the shooting condition items can be interlocked between (two or more) divided areas. That is, setting values of items of arbitrary imaging conditions of two or more designated divided areas can be designated at the same time.
  • the control unit 25 designates the aperture value of one of the divided regions by the user In addition to changing to the predetermined value, the aperture value of the other divided area is also changed to a predetermined value.
  • the display control unit 42 causes the setting screen to display an icon (image) representing a divided area in which the setting of the item of the photographing condition is interlocked.
  • an icon AI12 indicating that the setting of the aperture value is interlocked in the divided area R11 to the divided area R13 is displayed.
  • the icon AI12 is an image in which quadrangles representing the respective divided areas are arranged in the same positional relationship as the divided areas, and quadrangles corresponding to the mutually linked divided areas are displayed brighter.
  • the quadrangle corresponding to each of the divided area R11 to the divided area R13 is displayed brightly, if the aperture value of any of the divided areas among those divided areas is designated, The aperture value is also changed to the designated aperture value.
  • a screen for interlock setting is displayed on the display unit 26, and in the screen, each item of the imaging condition of the divided area R11 shown in FIG.
  • the check boxes CB11-1 to the check boxes CB15-1 are provided.
  • Check boxes CB11-3 to CB15-3 are also provided for setting items of shooting conditions in an interlocked manner.
  • check box CB11 when it is not necessary to distinguish the check boxes CB11-1 to CB11-3, it is also simply referred to as the check box CB11, and there is no need to distinguish the check boxes CB12-1 to CB12-3. , Also referred to simply as check box CB12.
  • check boxes CB13-1 to CB13-3 are simply referred to simply as the check box CB13, and the check boxes CB14-1 to CB14-3 need not be particularly distinguished from each other. It is also simply referred to as a check box CB14.
  • the check boxes CB15-1 to CB15-3 are also simply referred to as check boxes CB15 if there is no need to distinguish them.
  • Each of the check boxes CB11-1 to CB11-3 is for interlocking the brightness (exposure correction value) of each of the divided area R11 to the divided area R13.
  • the user operates the operation unit 27 to display a check mark in the check box CB11, thereby changing the exposure correction value of the divided area corresponding to the check box CB11 in conjunction with the exposure correction value of another divided area. It can be set.
  • the user can operate the button BT11 with the character "ALL" to make a state where check marks are displayed in all three check boxes CB11 in one operation, that is, collectively.
  • the check boxes CB12-1 to CB12-3 are for interlocking the aperture values of the divided area R11 to the divided area R13.
  • the user operates the operation unit 27 to display a check mark in the check box CB12 to change the aperture value of the divided area corresponding to the check box CB12 in conjunction with the aperture values of other divided areas. can do.
  • the check marks are displayed in all three check boxes CB12, when the diaphragm value of any of the divided area R11 to the divided area R13 is changed, the changed diaphragm value becomes the divided area. It is reflected in all of R11 to divided area R13. That is, the aperture values of the divided area R11 to the divided area R13 are all set to the same aperture value designated by the user.
  • each check box CB12 in which the check mark is displayed is displayed.
  • the aperture value of the corresponding divided area is set to the same value as the aperture value of the divided area R13 corresponding to the check box CB12-3.
  • a button capable of collectively selecting all the check boxes CB12 corresponding to the button BT11 is provided.
  • the check boxes CB13-1 to CB13-3 are for interlocking the shutter speeds of the divided area R11 to the divided area R13.
  • the user operates the operation unit 27 to display a check mark in the check box CB13 to change the shutter speed of the divided area corresponding to the check box CB13 in conjunction with the shutter speed of another divided area. can do.
  • a crown mark is displayed in the vicinity of the check box CB13-3, and a button for batch selection of the check box CB13 corresponding to the button BT11 is also provided.
  • the check boxes CB14-1 to CB14-3 are for interlocking the ISO sensitivities of the divided area R11 to the divided area R13.
  • the user operates the operation unit 27 to display a check mark in the check box CB14 to change the ISO sensitivity of the divided area corresponding to the check box CB14 in conjunction with the ISO sensitivity of another divided area. can do.
  • a crown mark is displayed in the vicinity of the check box CB14-3 as in the check box CB12, and a button for batch selection of the check box CB14 corresponding to the button BT11 is also provided. ing.
  • the check boxes CB15-1 to CB15-3 are for interlocking the settings (adjustment values) of the WBs of the divided area R11 to the divided area R13.
  • the user operates the operation unit 27 to display a check mark in the check box CB15, thereby changing the setting of WB in the divided area corresponding to the check box CB15 in conjunction with the setting of WB in another divided area. It can be set.
  • a crown mark is displayed near the check box CB15-3 as in the check box CB12, and a button for batch selection of the check box CB15 corresponding to the button BT11 is also provided. ing.
  • the shooting conditions specified for the divided area are reflected in the displayed through image Can be
  • the photographed image previously photographed under the photographing conditions set for these divided areas is displayed as a through image.
  • the user can image the recorded image that is actually obtained while viewing the through image, and can specify more appropriate imaging conditions. That is, the usability of the imaging device 11 can be improved.
  • the HDR imaging using the present technology is basically performed in a state where the imaging device 11 is fixed by a tripod or the like.
  • the composition of the recorded image is determined while displaying the through image in a state where the imaging device 11 is fixed, for example, the position and the inclination of the boundary of the divided area according to the area of the subject on the through image make settings such as shooting conditions for divided areas.
  • the display unit 26 When the position and the inclination of the boundary are designated by the user, the display unit 26 is superimposed on the through image and the boundary of the divided area is displayed.
  • the user can change the angle of view (focal length) of the imaging device 11 or the The direction (inclination) may be changed.
  • the boundary of the divided area remains as it is, but the position, size, orientation, etc. of the object in the through image change the focal length or orientation of the imaging device 11. It changes with it. Therefore, the relative positional relationship between the boundary line (divided area) and the subject on the through image is changed on the display screen. The same can be said for the boundaries of the blend regions as well as the boundaries of the split regions.
  • the display position and the inclination of the superimposed display information such as the boundary of the divided area and the boundary of the blend area are adjusted without requiring the user's operation. That is, when the inclination or focal length of the imaging device 11 changes, the display of the boundary line is maintained so that the relative positional relationship between the subject of the through image and the boundary line of the divided area and the like is maintained before and after the change. Position and tilt are adjusted. Thereby, the usability of the imaging device 11 can be improved.
  • the superimposed display information mentioned here is not limited to the boundary of the divided area or the boundary of the blend area as long as the superimposed display information is displayed superimposed on the through image in the display unit 26, and any other information may be used. May be
  • OSD On Screen Display
  • a grid line, a horizontal line, or a vertical line, a point indicating a reference position or area, an icon, or an object on the through image input from the operation unit 27 by the user can be used as superimposed display information.
  • the superimposed display information is related to the subject on the through image, that is, related, such as the boundary of the divided area.
  • the description will be continued on the assumption that the superimposed display information is the boundary of the divided area or the boundary of the blend area.
  • the term "border” simply refers to the border of the divided area.
  • the correction amount calculation unit 41 performs not only correction information for performing display correction of the boundary of the divided area as superimposed display information, but also display correction of other superimposed display information such as the boundary of the blend area. Correction information is also obtained. However, since the correction information of each superimposed display information can be obtained by the same calculation, the calculation of the correction information of the boundary of the divided area will be described here.
  • the through image is displayed on the display unit 26 in a state in which the imaging device 11 is not inclined, that is, the imaging device 11 faces straight ahead and both the rotation angle and the inclination angle are 0 degrees. It is assumed that
  • the sea, the ship, the sun, and the like are displayed as the subject on the through image. Further, hereinafter, the rotation angle is also described as ⁇ r, and the inclination angle is also described as ⁇ p .
  • the inclination angle ⁇ p is in the upward direction when the user looking at the display screen of the display unit 26 from the front, that is, the upward direction in FIG.
  • the border line BD31 of the divided area is displayed superimposed on the through image.
  • the position and the inclination of the boundary line BD31 are specified such that the boundary line BD31 overlaps with the boundary between the sea, which is the subject of the through image, and the sky, that is, the horizontal line.
  • the user can adjust the display position and the inclination by moving the boundary line BD31 on the display screen or tilting the boundary line BD31, that is, rotating the same.
  • the user can set imaging conditions individually for the sky part as the subject and the sea part.
  • the shooting conditions for the sky as the subject are in the area on the left side in the drawing of the sea as the subject on the display screen, that is, the area in the upper part in the drawing than the boundary BD31 of the sea as the subject. Even if it will be applied.
  • the display of the boundary line BD31 remains in the state shown by the arrow Q13.
  • the correction amount calculation unit 41, the correction amount, the boundary after the display correction is more time to display the boundary line BD31 based on the rotation angle theta r contained in the detection angle information supplied from the angle detector 24 The display position and the inclination of the line BD31 are obtained as correction information.
  • the display control unit 42 causes the boundary line BD31 of the display unit 26 to be displayed such that the boundary line BD31 is displayed at the display position obtained by the correction amount calculation unit 41 with the inclination obtained by the correction amount calculation unit 41. Control the display. That is, the display position and the inclination of the boundary line BD31 are corrected based on the correction information.
  • display correction of the boundary line BD31 is performed such that the boundary line BD31 rotates by an angle - ⁇ r with respect to the display screen.
  • control unit 25 also corrects the divided area in accordance with the correction of the display position and the inclination of the boundary line BD31.
  • the shooting conditions set for the sky are correctly applied to the sky area of the image, and the shooting conditions set for the sea are correctly applied to the ocean area of the image. . That is, the user can obtain high-quality recorded images without performing troublesome operations such as setting the display position of the boundary line BD 31 and the like again, and the usability of the imaging device 11 can be improved.
  • the relative positional relationship between the horizontal line and the boundary line BD31 is changed, so that even in a partial region of the sky as the subject, the sea as the subject is changed.
  • the imaging condition defined for the part of the area is applied. That is, when the present technology is not applied, the display of the boundary line BD31 remains in the state shown by the arrow Q15.
  • the correction amount calculation unit 41 correction amount when displaying the inclination angle theta p included in the detected angle information supplied from the angle detector 24, a boundary line BD31 based on the focal length information, in more detail
  • the display position and the inclination of the boundary line BD31 after display correction are obtained as correction information.
  • the display control unit 42 performs display correction of the boundary line BD31 in the display unit 26 based on the correction information obtained by the correction amount calculation unit 41.
  • the boundary line BD41 of the divided area is displayed on the display screen of the display unit 26 as indicated by an arrow Q21 in FIG.
  • the boundary line BD41 is displayed before correction, that is, a display prior imaging device 11 is rotated by the rotation angle theta r.
  • a point at the center position of the display screen of the display unit 26 is taken as a point A11, and a point at an arbitrary position on the boundary line BD41 is taken as a point B11.
  • the point A11 corresponds to the center position of the imaging surface in the imaging unit 22, that is, the intersection point of the imaging surface and the optical axis of the photographing lens 21, and is also a point at the center position of the through image.
  • the edge of the right side of the boundary line is the upper side with respect to a straight line parallel to the lower side of the display screen as viewed from the user looking at the display screen of the display unit 26 from the front with the inclination ⁇ as the inclination ⁇ . It is assumed that the direction of inclination is the positive direction of the inclination ⁇ such that the left end of the boundary line is located on the lower side.
  • the angle between the lower side in the drawing of the display screen of the display unit 26, that is, the lower side in the through image, and the boundary BD41 is the inclination ⁇ of the boundary BD41. ing.
  • the corrected boundary line BD41 and the inclination ⁇ of the corrected boundary line BD41 will be referred to as a boundary line BD41 'and an inclination ⁇ ', respectively.
  • a point B11 on the display screen of the display unit 26, that is, a point B11 after correction of the boundary line BD41 on the through image, that is, a point B11 on the boundary line BD41 ' is also referred to as a point B11'.
  • the boundary line BD41 ', the point B11', and the inclination ⁇ ' are illustrated as shown by an arrow Q22.
  • the point A11 is the rotation center of the imaging device 11, the position of the point A11 is the same before and after the display correction.
  • the imaging device 11 is rotated by the angle ⁇ r, the angle between the straight line connecting the points A11 and B11 and the straight line connecting the points A11 and B11 ′ is ⁇ r . That is, the position of the point B11 'is a position obtained by rotating the point B11 by - ⁇ r with the point A11 as the rotation center.
  • first correction amount calculating unit 41 based on the position of the point B11 and (coordinates) and the rotation angle theta r, determine the position of the point B11 '(coordinates) by a coordinate transformation.
  • the position obtained by rotating the point B11 by - ⁇ r with the point A11 as the rotation center is the position of the point B11 ′.
  • the position of the point B11 can be obtained from the display position and the inclination ⁇ of the boundary line BD41 displayed superimposed on the through image.
  • the correction amount calculation unit 41 calculates an inclination theta 'by subtracting the rotation angle theta r from the slope theta.
  • the display control unit 42 controls the display unit 26 based on the inclination ⁇ ′ and the position of the point B 11 ′ obtained in this manner, and displays (draws) the boundary line BD 41 ′ on the display screen of the display unit 26.
  • a straight line with an inclination ⁇ ′ passing through the point B11 ′ may be displayed as the boundary line BD41 ′ on the display screen.
  • FIG. 7 it is assumed that the boundary line BD51 of the divided area is displayed on the display screen of the display unit 26.
  • portions corresponding to the case in FIG. 6 are denoted with the same reference numerals, and the description thereof will be appropriately omitted.
  • an intersection point of the vertical line and the boundary line BD51 is a point B21.
  • the object OB11 in real space, the optical lens OL11 constituting the photographing lens 21, and the image pickup element IM11 constituting the imaging unit 22 are illustrated, and a point on the object OB11 is taken as a point P.
  • the point P is the part of the subject corresponding to the point B21 shown in FIG.
  • the point P of the subject OB11 is shown on the through image, that is, the point B21 on the display screen of the display unit 26.
  • the center position of the imaging surface of the imaging element IM11 is taken as a point A.
  • This point A corresponds to the center position of the through image shown in FIG. 7, that is, the point A11 which is the center position of the display screen.
  • the lens information communicating unit 23 outputs focal distance information indicating the focal distance S1.
  • an imaging position of the optical image of the point P in this state is set as a point P1. That is, it is assumed that the image of the point P is at the position of the point P1 on the imaging element IM11. Furthermore, the distance from the point D1 at which the principal point of the optical lens OL11 is to the point P in the optical axis direction of the optical lens OL11 is L1, and from the optical axis of the optical lens OL11 in the direction perpendicular to the optical axis of the optical lens OL11. Let H be the distance to point P.
  • the user performs a zoom operation such that the principal point of the optical lens OL11 is in the state of being at the point D2 from the state in which the principal point of the optical lens OL11 is at the point D1.
  • the focal length of the optical lens OL11 is S2 which is the distance from the point D2 which is the principal point position of the optical lens OL11 after zoom operation to the point A, and the distance from the principal point of the optical lens OL11 to the point P is also L2 Change to Furthermore, the position of the image of the point P on the imaging element IM11 also moves from the point P1 to the point P2.
  • the focal length S2 is the distance from the point D2 at which the principal point of the optical lens OL11 is to the point A on the imaging element IM11 in the optical axis direction of the optical lens OL11
  • the distance L2 is the optical axis direction of the optical lens OL11
  • the distance from the point A to the point P1 on the imaging element IM11 is also referred to as a distance p1
  • the distance from the point A to the point P2 on the imaging element IM11 is also referred to as a distance p2.
  • the lens information communicating unit 23 outputs focal distance information indicating the focal distance S2.
  • a point B21 ' indicates the position after the movement of the point B21 moved in accordance with the zoom operation, and the point B21' corresponds to the point P2 shown in FIG.
  • a point B21 shown in FIG. 7 is also shown in order to make the description easy to understand.
  • the boundary line BD51 ' indicates the boundary line BD51 after the display correction is performed in accordance with the zoom operation.
  • the point B21 In the state before the zoom operation, the point B21 is located on the boundary line BD51, and only the zoom operation is performed here. Therefore, a straight line having the same inclination ⁇ as the boundary line BD51 passing through the point B21 after movement of the point B21 may be set as the boundary line BD51 'to be displayed after the zoom operation, that is, the boundary line BD51' after display correction.
  • the boundary line BD51 ' passes through the point B21' and is a straight line having the same inclination ⁇ as the boundary line BD51.
  • the position of the point B21' may be determined.
  • the distance p2 from the point A to the point P2 shown in FIG. 8 may be obtained.
  • the following equations (2) and (3) are derived from the positional relationship between the point P and the point P2 shown in FIG. 8, that is, the similarity of triangles.
  • the distance p2 is expressed by the following equation (6).
  • the distance p2 can be represented by the distance p1, the focal length S2, and the focal length S1.
  • points P1 and P2 shown in FIG. 8 correspond to points B21 and B21 'in FIG. 9, respectively, and point A in FIG. 8 corresponds to point A11 in FIG.
  • the positions of the point A and the point A11 do not change before and after the zoom operation, it can be understood from the equation (6) that the following equation (7) is established.
  • Equation (7) AB 'indicates the distance from point A11 to point B21' in FIG. 9, and AB indicates the distance from point A11 to point B21 in FIG.
  • the position (coordinates) of the point A11 and the position (coordinates) of the point B21 are known, and the focal length S1 and the focal length S2 can be obtained as focal length information before and after zooming.
  • the correction amount calculator 41 can obtain the position of the point B21 'from the position of the point A11, the position of the point B21, the focal length S1, and the focal length S2 and the equation (7).
  • the correction amount calculation unit 41 can obtain the display position and the inclination ⁇ of the boundary line BD51 'as correction information from the calculation result of the position of the point B21'.
  • the distance L1 is set to ⁇ ⁇ ⁇ ⁇ in the equation (5), but when the distance L1 can be obtained from an input by the user using the operation unit 27 or an output of a distance measuring sensor (not shown)
  • the distance p2 may be determined by substituting the distance L1 into the equation (5).
  • FIG. 10 it is assumed that the boundary line BD61 of the divided area is displayed on the display screen of the display unit 26.
  • parts corresponding to the case in FIG. 6 are given the same reference numerals, and the description thereof will be omitted as appropriate.
  • a point at a predetermined position on the boundary line BD61 is taken as a point B31.
  • the imaging device 11 is tilted by the inclination angle ⁇ p from the state where the boundary line BD 61 is displayed as described above.
  • the imaging element of the imaging unit 22 is inclined upward by the inclination angle ⁇ p in real space.
  • parts corresponding to those in FIG. 8 are given the same reference numerals, and the description thereof will be omitted as appropriate.
  • the imaging device 11 is assumed to be tilted (rotated) as an axis.
  • the vertical direction is the y-axis direction (y-direction)
  • the horizontal direction is the x-axis direction (x-direction)
  • the principal point position of the optical lens OL11 before tilting by the inclination angle ⁇ p is
  • the xy coordinate system as the origin.
  • the position of a point where the x coordinate is x and the y coordinate is y, that is, the coordinate is described as (x, y).
  • the right direction is the positive direction of the x direction
  • the upper direction is the positive direction of the y direction.
  • the coordinates of the principal point position of the optical lens OL11 are (0, 0). Further, assuming that the distance from the focal length of the optical lens OL11, that is, the principal point of the optical lens OL11 to the point A at the center position of the imaging device IM11 is S, the coordinate of the position of the point A is (S, 0) .
  • a point on the imaging element IM11 corresponding to the point B31 shown in FIG. 10 is a point K1, and the coordinates of the point K1 are (S, K1y), and a straight line passing the principal point of the optical lens OL11 and the point K1.
  • a straight line LN1 As a straight line LN1.
  • the slope of the straight line LN1 is ⁇ .
  • an intersection of the imaging element IM11 ′ and the straight line LN1 on the imaging element IM11 ′ after the imaging device 11 is inclined by the inclination angle ⁇ p is a point K2, and a coordinate of the point K2 is (K2x, K2y).
  • a straight line passing through the point A and the point K2 is taken as a straight line LN2.
  • the distance from the point A to the point K2 in FIG. 11 is determined to incline the imaging device 11 by the inclination angle ⁇ p.
  • the display position of the boundary line BD61 can be obtained.
  • the imaging device 11 is tilted by the tilt angle ⁇ p from the state where the display screen of the display unit 26 is shown in FIG. 10, the display of the display screen of the display unit 26 is as shown in FIG. In FIG. 12, parts corresponding to those in FIG. 10 are assigned the same reference numerals, and the description thereof will be omitted as appropriate.
  • a point B31 ' indicates the position after movement of the point B31 moved by the imaging device 11 being moved by the inclination angle ⁇ p , and this point B31' corresponds to the point K2 shown in FIG. Do.
  • a point B31 shown in FIG. 10 is also shown in order to make the description easy to understand.
  • the point B 31 does not move in the horizontal direction in FIG. Move only in the direction (vertical direction).
  • the point B31 'and the point B31 are at the same position in the lateral direction in FIG.
  • the boundary line BD61 ' indicates the boundary line BD61 after the display correction with that imaging device 11 is fueled by the inclination angle theta p.
  • the boundary line BD61 ' passes through the point B31' and is a straight line with the same inclination ⁇ as the boundary line BD61.
  • the position of the point B31' may be determined.
  • the position (coordinates) of the point B31 ' can be obtained from the position (coordinates) of the known point B31 and the distance AK11 in the vertical direction in FIG. 12 from the point A11 to the point B31'. This is because, as described above, the point B31 'and the point B31 are at the same position in the lateral direction in FIG.
  • the distance AK11 corresponds to the distance from the point A to the point K2 shown in FIG.
  • the relationship between the size of the display screen (through image) of the display unit 26 and the size of the imaging surface of the imaging device IM11, that is, the relationship between the display screen and the pixel pitch of the imaging device IM11, is known.
  • the distance AK11 can be obtained from the ratio of the pixel pitch) and the distance from the point A to the point K2.
  • the coordinates (K2x, K2y) of the point K2 are obtained.
  • the coordinates (K2x, K2y) of the point K2 can be obtained by determining the coordinates of the intersection of the straight line LN1 and the straight line LN2.
  • the straight line LN1 can be represented by the following equation (8)
  • the straight line LN2 can be represented by the following equation (9).
  • the focal length S of the optical lens OL11 in the equations (8) and (9) can be obtained from the focal length information output from the lens information communication unit 23, and the inclination angle ⁇ p in the equation (9) is It can be obtained from the detected angle information output from the angle detection unit 24.
  • the y coordinate K1 y of the point K1 in the equation (8) can be obtained from the position (coordinates) of the known point B31 and the ratio of the pixel pitch of the display screen of the display unit 26 to the pixel pitch of the imaging device IM11. it can.
  • the correction amount calculation unit 41 uses, for example, the focal length information, that is, the focal length S, the detection angle information, that is, the inclination angle ⁇ p , and the position of the point B31, equation (12) and equation (8) or equation (9)
  • the coordinates (K2x, K2y) of the point K2 can be obtained by calculating
  • the angle ⁇ in the equation (8) or the equation (11) can be obtained from the focal length S, the position (coordinates) of the point B31, and the ratio of the display screen of the display unit 26 to the pixel pitch of the image sensor IM11.
  • the correction amount calculation unit 41 relates to the obtained coordinates (K2x, K2y) of the point K2, and the relationship between the display screen (through image) of the display unit 26 and the size of the image sensor IM11 (ratio of pixel pitch). Based on the distance AK11, the position (coordinates) of the point B31 'can be obtained from the distance AK11 and the position (coordinates) of the point B31.
  • the correction amount calculation unit 41 determines the display position and the inclination ⁇ of the boundary line BD61 ′ from the position (coordinates) of the point B31 ′ thus obtained and the inclination ⁇ of the boundary line BD61 displayed so far. It can be obtained as correction information.
  • the correction amount calculation unit 41 performs coordinate conversion to rotate the obtained coordinates of the point B31 ′ by ⁇ r to obtain the final coordinates of the point B31 ′. By doing this, it is possible to obtain the correct display position and the inclination ⁇ of the boundary line BD61 ′ after the display correction.
  • any of the display correction of the boundary according to the rotation angle ⁇ r described above, the display correction of the boundary according to the change of the focal distance information, and the display correction of the boundary according to the inclination angle ⁇ p is also possible to combine them.
  • control unit 25 corrects the position of the divided area according to the correction of the display position and the inclination of the boundary. That is, the display screen (image) is divided into divided areas by the boundary line after the display correction.
  • the boundary does not particularly require the user's operation. Is corrected, and the divided area is also changed in accordance with the correction of the boundary line. Therefore, it is possible to reduce the time and effort of setting the boundary line and the photographing condition again by the user, and to improve the usability.
  • the imaging unit 22 photographs a subject by receiving light incident from the subject through the photographing lens 21 and photoelectrically converting the light, and the obtained photographing The image is supplied to the control unit 25.
  • the display control unit 42 of the control unit 25 supplies the captured image supplied from the imaging unit 22 to the display unit 26 as a through image, and causes the display unit 26 to display the through image.
  • the display control unit 42 supplies the superimposed display information to the display unit 26 and causes the superimposed display information to be superimposed on the through image. .
  • the user When the through image is displayed in this manner, the user appropriately sets the shooting settings and determines the composition of the recorded image while viewing the through image.
  • the imaging device 11 starts setting processing shown in FIG.
  • step S ⁇ b> 11 the control unit 25 determines, based on the signal supplied from the operation unit 27, whether or not the setting regarding the boundary line is performed.
  • the user operates the operation unit 27 to set a new boundary line of the divided area, set the display position of the boundary line of the divided area, etc., set the blend area, etc., and respond to the user's operation.
  • the control unit 25 it is determined that the setting regarding the boundary line is performed.
  • step S11 If it is determined in step S11 that the setting regarding the boundary is not performed, the process of step S12 is skipped, and then the process proceeds to step S13.
  • step S12 the control unit 25 performs the setting regarding the boundary according to the signal supplied from the operation unit 27.
  • the control unit 25 when the user instructs division of the display screen (through image) of the display unit 26 into a number of divided areas by a new boundary line, the control unit 25 generates a new boundary line and divided area according to the user's operation.
  • Set The display control unit 42 controls the display unit 26 according to the setting of the new boundary, that is, the setting of the divided area, and causes the display screen of the display 26 to display the new boundary.
  • the display control unit 42 controls the display unit 26 based on the signal supplied from the operation unit 27 according to the user's operation, and moves at least one of the boundary lines. To tilt.
  • the display control unit 42 can simultaneously move a plurality of boundary lines of the divided area by the same distance or tilt simultaneously a plurality of boundary lines of the divided area by the same angle according to the setting regarding interlocking.
  • the boundaries of the divided regions may be moved or tilted individually (independently).
  • control unit 25 controls the width or the like of the blend area based on the signal supplied from the operation unit 27 according to the user's operation.
  • Change The control unit 25 can also change the settings of the widths of the plurality of blend regions in conjunction with each other in the blend region, or can change them individually (independently).
  • step S12 If the process of step S12 is performed or if it is determined that the setting regarding the boundary is not performed in step S11, the control unit 25 performs the setting regarding interlocking based on the signal supplied from the operation unit 27 in step S13. To determine whether to
  • the user operates the operation unit 27 to instruct display of the display screen at the time of interlock setting shown in FIG. 4, or in the state where the display screen shown in FIG. If it is determined that the setting for interlocking is to be performed.
  • interlocking of settings relating to boundary line movement and inclination adjustment and interlocking of settings relating to the width of the blend area, mixing ratio, and the like are instructed by the user, it is determined that the interlocking setting is to be performed.
  • step S13 If it is determined in step S13 that the setting regarding interlocking is not performed, the process of step S14 is skipped, and then the process proceeds to step S15.
  • step S13 when it is determined in step S13 that the setting regarding interlocking is performed, the control unit 25 performs the setting regarding interlocking according to the signal supplied from the operation unit 27 in step S14.
  • the control unit 25 performs setting regarding interlocking in accordance with the user's operation.
  • control unit 25 performs exposure correction of the divided area corresponding to those check boxes CB11 Make the value change in tandem.
  • the boundary of the plurality of divided areas is simultaneously changed by the same amount simultaneously. It is assumed that a setting is selected or a setting is selected in which each of the boundaries of a plurality of divided areas is individually (independently) changed.
  • the control unit 25 sets the boundary lines of the plurality of divided areas to be interlocked and changed by the same amount at the same time.
  • Each of the boundary lines of the area is set to be individually (independently) changed.
  • step S15 If it is determined that the process of step S14 is performed or if the setting regarding interlocking is not performed in step S13, the process of step S15 is performed.
  • step S ⁇ b> 15 the control unit 25 determines whether to set the imaging conditions based on the signal supplied from the operation unit 27.
  • step S14 it is determined that the setting of the imaging condition is performed.
  • step S15 If it is determined in step S15 that the setting of the imaging condition is not performed, the processing in steps S16 and S17 is not performed, and the setting processing ends. In this case, the through image photographed under the same photographing conditions as before is displayed on the display unit 26.
  • step S16 the control unit 25 performs the setting of the imaging condition for each divided area according to the signal supplied from the operation unit 27. .
  • the control unit 25 is instructed to change the value of the item of the imaging condition such as the brightness or aperture value of the specified divided area, shutter speed, ISO sensitivity, or WB. In this case, the value of the item of the imaging condition of the divided area is changed.
  • control unit 25 is designated when it is set that the value (setting value) of the item of the shooting condition is linked between the designated divisional area and the other divisional area for the item of the setting target of the photographing condition.
  • the value of the item of imaging condition of the divided area but also the value of item of imaging condition of the other divided area set to be linked with the designated divided area are also values designated by the user.
  • control unit 25 divides the value of the predetermined item of the imaging condition of the divided area corresponding to each of the selected check boxes, and the division corresponding to the check box having a crown mark in the vicinity of those check boxes. Change to the value of the predetermined item of the shooting condition of the area.
  • step S17 the display control unit 42 causes the display unit 26 to display the through image in accordance with the setting of the imaging conditions.
  • the display control unit 42 controls at least the shooting conditions set at the end of the plurality of divided regions with respect to several adjacent divided regions including at least the divided regions for which the setting of the shooting conditions was last performed.
  • the image of the area corresponding to the divided area of the newly captured image is displayed as a through image.
  • the display control unit 42 is set to the divided area other than the divided area where the photographed image newly photographed under the photographing condition set at the end is displayed as the through image.
  • photographed by the past imaging conditions in the past is displayed as a through image.
  • the imaging device 11 performs setting relating to the boundary line, setting relating to interlocking, setting of imaging conditions, and the like according to the user's operation.
  • the usability of the imaging device 11 can be improved. That is, for example, if the positions of a plurality of boundaries are simultaneously moved, the user can determine the positions of the plurality of boundaries in one operation, and if the interlock setting is performed, the user can perform the operation in one operation. It is possible to specify imaging conditions for a plurality of divided areas.
  • the imaging device 11 also performs a photographing process of generating a recording image according to the operation of the user.
  • the photographing process performed by the imaging device 11 will be described with reference to the flowchart of FIG.
  • step S41 the control unit 25 acquires focal distance information from the lens information communication unit 23. That is, the lens information communication unit 23 communicates with the photographing lens 21, and acquires and outputs focal distance information from the photographing lens 21. The control unit 25 acquires the focal length information output from the lens information communicating unit 23 in this manner.
  • step S42 the control unit 25 acquires detection angle information from the angle detection unit 24.
  • the angle detection unit 24 detects the rotation angle ⁇ r and the inclination angle ⁇ p from the output of a gyro sensor or the like, and outputs detection angle information indicating the detection result.
  • the control unit 25 acquires the detected angle information output from the angle detection unit 24 in this manner.
  • step S43 the control unit 25 corrects the display of the boundary of the divided area displayed on the display unit 26 based on the focal length information acquired in step S41 and the detected angle information acquired in step S42. To determine whether to
  • the display correction of the boundary line It is determined to be performed. That is, when any of the focal length, the rotation angle ⁇ r , and the inclination angle ⁇ p is different from the previously obtained values, it is determined that the display correction of the boundary line is performed.
  • the rotation angle theta r is the focal length and inclination angle theta p corresponding to the boundary line of the divided area displayed on the display unit 26 at the present time, from the value of the rotation angle theta r It may be determined that the display correction (change) of the boundary is to be performed when the value changes by a predetermined value or more.
  • step S43 If it is determined in step S43 that the display correction of the boundary line is not to be performed, the processes of steps S44 and S45 are not performed, and then the process proceeds to step S46.
  • step S43 determines whether the display correction of the boundary is to be performed. If it is determined in step S43 that the display correction of the boundary is to be performed, the process proceeds to step S44.
  • step S44 the correction amount calculation unit 41 displays the display position after correction of the boundary of the divided area based on the focal distance information, the detected angle information, and the display position of the boundary of each divided area and the inclination ⁇ . Find the slope. Specifically, the correction amount calculation unit 41 appropriately performs the process described with reference to FIGS. 6 to 12 to obtain the display position and the inclination ⁇ of the boundary after the correction as the correction information.
  • the correction amount calculation unit 41 performs calculation of equation (1) etc. to obtain the position of the inclination ⁇ ′ and the point B11 ′.
  • the display position and the inclination after the correction of the boundary of the divided area are obtained as the correction information.
  • the correction amount calculation unit 41 performs the calculation of Expression (7) and the like to obtain the position of the point B21 ′ as described with reference to FIGS. 7 to 9.
  • the corrected display position and inclination of the boundary of the divided area are obtained as correction information.
  • the correction amount calculation unit 41 performs calculation of Expression (12), Expression (8), and the like as described with reference to FIGS.
  • the display position and inclination after correction of the boundary of the divided area are obtained as correction information by obtaining the position of.
  • step S45 the display control unit 42 controls the display unit 26 based on the display position and the inclination of the boundary of the divided area after the correction obtained in step S44, that is, the correction information to display the boundary of the divided area. Make corrections.
  • the display control unit 42 performs superimposed display so that the boundary of the divided area is displayed at the display position obtained in step S45 on the display screen of the display unit 26 with the inclination obtained in step S45. Update the display of the boundary of the divided area as information. As a result, the display position and the inclination of the boundary of the divided area are corrected so that the relative positional relationship between the subject on the through image and the boundary of the divided area as superimposed display information is maintained. .
  • steps S44 and S45 when other superimposed display information such as the boundary of the blend area is displayed in addition to the boundary of the divided area, the correction information of the superimposed display information is also obtained, and the obtained correction information
  • the display correction of the superimposed display information is performed on the basis of
  • the display position of the other superimposed display information after correction indicated by the correction information is a position outside the display screen of the display unit 26 That is, it may be a position outside the through image.
  • the display control unit 42 displays other superimposed display information at a position in the display screen (through image) that is closest to the display position of the other superimposed display information indicated by the correction information. Control the display of the other superimposed display information on the display unit 26 so that That is, other superimposed display information is displayed at a position near the position indicated by the correction information in the display screen (through image) of the display unit 26.
  • step S46 After the display correction of the boundary of the divided area is performed, the process proceeds to step S46.
  • step S45 determines whether the shutter button as the operation unit 27 is pressed in step S46. judge.
  • step S46 If it is determined in step S46 that the shutter button is not pressed, the process returns to step S41, and the above-described process is repeated.
  • step S47 the control unit 25 selects one shooting condition from among a plurality of shooting conditions defined for a plurality of divided areas Do.
  • step S16 of FIG. 13 for each of the plurality of divided areas, the photographing conditions are determined for each of the divided areas, and the control unit 25 sequentially processes those photographing conditions. Select as the shooting condition.
  • step S48 the control unit 25 controls the imaging unit 22 and the photographing lens 21 to photograph a photographed image to be a composition image under the photographing condition selected in step S47.
  • control unit 25 operates the aperture of the photographing lens 21 so as to obtain the aperture value of the selected imaging condition, and controls the imaging unit 22 to control the brightness of the selected imaging condition, shutter speed, ISO sensitivity, etc. Take a shot image. Then, the control unit 25 performs white balance adjustment on the type and color temperature of the WB of the selected imaging condition on the captured image supplied from the imaging unit 22, and generates a composite image.
  • step S49 the control unit 25 determines whether shooting has been performed under all shooting conditions.
  • step S49 If it is determined in step S49 that shooting has not been performed under all the shooting conditions, the process returns to step S47, and the above-described process is repeated. That is, the image for composition is captured under the imaging condition which has not been selected as the process target.
  • step S49 if it is determined in step S49 that imaging has been performed under all the imaging conditions, an image for combination of the imaging conditions set for each of the divided areas is obtained, so the process proceeds to step S50.
  • step S50 the control unit 25 generates a recorded image based on the composition image captured under each of the imaging conditions.
  • control unit 25 cuts out the portion of the divided area corresponding to the photographing condition in which the image for synthesis is photographed in each of the images for synthesis and sets it as a cut-out image, and arranges the cut-out images together with one recorded image. Do. At this time, the control unit 25 performs the above-described blending process on the boundary portion between the cut-out images in accordance with the setting regarding the blend area determined in the process of step S12 of FIG. 13, and joins the cut-out images.
  • division areas and blend areas are set after the composition image is captured, that is, positions of boundaries of division areas.
  • the inclination or the width or mixing ratio of the blend area may be determined. Even in such a case, since there is an image for combination photographed under each photographing condition, it is possible to obtain a recorded image according to the setting of the divided area and the blend area.
  • step S51 the display control unit 42 supplies the obtained recorded image to the display unit 26 for display, and the photographing process ends.
  • the control unit 25 supplies the recorded image to the image recording unit 28 and causes the image recording unit 28 to record the recorded image.
  • the imaging device 11 performs display correction of boundaries of divided areas and the like according to focal distance information and detection angle information, and generates a recorded image based on a captured image for composition.
  • the user by performing display correction of boundaries of divided areas according to focal length information and detection angle information, the user makes settings regarding the boundaries every time the imaging device 11 is rotated or the focal distance is changed. There is no need to do this, and the usability of the imaging device 11 can be improved.
  • the series of processes described above can be executed by hardware or software.
  • a program that configures the software is installed on a computer.
  • the computer includes, for example, a general-purpose personal computer that can execute various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 15 is a block diagram showing an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
  • a central processing unit (CPU) 501 a read only memory (ROM) 502, and a random access memory (RAM) 503 are mutually connected by a bus 504.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • an input / output interface 505 is connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an imaging device, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 509 is formed of a network interface or the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads, for example, the program recorded in the recording unit 508 into the RAM 503 via the input / output interface 505 and the bus 504, and executes the above-described series. Processing is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded on, for example, a removable recording medium 511 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable recording medium 511 to the drive 510. Also, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in advance in the ROM 502 or the recording unit 508.
  • the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
  • the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
  • each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
  • the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
  • present technology can also be configured as follows.
  • An image processing apparatus comprising: a display control unit configured to change display of at least one of the plurality of boundaries according to an operation.
  • a display control unit configured to change display of at least one of the plurality of boundaries according to an operation.
  • the display control unit moves the display position of the boundary or tilts the boundary according to an operation of the user.
  • the display control unit simultaneously changes the plurality of boundary lines by the same amount.
  • the image processing device is an imaging device, The image processing apparatus according to any one of (1) to (4), wherein the display control unit causes the boundary line to be displayed by superimposing on an image captured through a shooting lens of the imaging device. (6) The display control unit changes the boundary based on at least one of focal length information indicating a focal length of the imaging lens and detection angle information indicating a rotation angle of the imaging device. Image processing device.
  • Display is superimposed on an image captured through the imaging lens based on at least one of focal length information indicating the focal length of the imaging lens of the imaging device or detection angle information indicating the rotation angle of the imaging device
  • An image pickup apparatus comprising: a display control unit that changes superimposed display information to be caused.
  • the display control unit changes a display position and an inclination of the superimposed display information such that a relative positional relationship between the subject on the image and the superimposed display information is maintained.
  • the superimposed display information is information including a boundary that divides the image into a plurality of divided areas.
  • the display control unit moves the display position of the superimposed display information or tilts the superimposed display information according to a user's operation.
  • the display control unit simultaneously moves the plurality of pieces of superimposed display information by the same amount at the same time or tilts the plurality of pieces of superimposed display information by the same amount simultaneously according to the user's operation.
  • the control unit interlocks and changes setting values of respective predetermined items of the imaging conditions corresponding to the two or more divided areas with respect to the two or more divided areas designated by the user (19 An imaging device according to the above.
  • the display control unit when displaying a through image as the image, displays an image captured under the imaging condition corresponding to the predetermined divided area as an image of the predetermined divided area of the through image. An image photographed under the photographing condition corresponding to another divided area different from the predetermined divided area is displayed as an image of the other divided area of the through image (19) to (21) An imaging device according to any one of the preceding claims.
  • the control unit causes a plurality of imaging conditions to be captured for each of the plurality of imaging conditions, and a plurality of divided areas of the image for composition corresponding to the imaging conditions when the image for combining is imaged is a plurality of cutout images.
  • the imaging apparatus according to any one of (19) to (22), which combines the cut-out images to generate a recorded image.
  • the superimposed display information is information including a blend area boundary line indicating a blend area to be subjected to the blending process when combining the cut-out image.
  • the image pickup apparatus according to any one of (13) to (25), wherein the display control unit changes the superimposed display information when the rotation angle changes by a predetermined value or more.
  • the display control unit causes the superimposed display information to be displayed at a position near the display position in the image when the display position of the superimposed display information after the change is a position outside the image (13) to (26).
  • the imaging device according to any one of the above.
  • Display is superimposed on an image captured through the imaging lens based on at least one of focal length information indicating the focal length of the imaging lens of the imaging device or detection angle information indicating the rotation angle of the imaging device Changing the superimposed display information to be caused.
  • Display is superimposed on an image captured through the imaging lens based on at least one of focal length information indicating the focal length of the imaging lens of the imaging device or detection angle information indicating the rotation angle of the imaging device
  • a program that causes a computer to execute processing including the step of changing superimposed display information.
  • imaging apparatus 11 imaging apparatus 21 imaging lens 22 imaging unit 23 lens information communication unit 24 angle detection unit 25 control unit 26 display unit 27 operation unit 41 correction amount calculation unit 42 display control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

本技術は、使い勝手を向上させることができるようにする画像処理装置および方法、撮像装置、並びにプログラムに関する。 画像処理装置は、撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の境界線のうちの少なくとも1つの境界線の表示を変更する表示制御部を備える。本技術はデジタルスチルカメラに適用することができる。

Description

画像処理装置および方法、撮像装置、並びにプログラム
 本技術は、画像処理装置および方法、撮像装置、並びにプログラムに関し、特に、使い勝手を向上させることができるようにした画像処理装置および方法、撮像装置、並びにプログラムに関する。
 従来、静止画像の撮影に関する技術として、HDR(High Dynamic Range)が知られている。HDRを用いれば白飛びや黒潰れを抑制して、ダイナミックレンジの広い高品質な画像を得ることができる。
 例えばHDRに関する技術として、動体を考慮した画像合成を行うことで、残像や不連続点の発生を抑制し、自然な合成画像を得ることができるようにしたものが提案されている(例えば、特許文献1参照)。
特開2011-188277号公報
 また、HDRでは撮影時にスルー画像が表示される表示画面をいくつかの領域に分割し、分割された領域ごとに露出等の設定を行うことができるようにする技術もある。
 しかしながら、この技術では領域の分割や領域ごとの設定等が面倒であり、使い勝手がよいとはいえなかった。
 例えば表示画面上で領域の分割を行った後、カメラを傾けると表示画面に表示される被写体が傾いてしまい、表示画面上の分割された領域と被写体の位置関係が変化してしまうので撮影者は再度、領域の分割等の操作を行う必要があり、面倒であった。
 本技術は、このような状況に鑑みてなされたものであり、使い勝手を向上させることができるようにするものである。
 本技術の第1の側面の画像処理装置は、撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示を変更する表示制御部を備える。
 本技術の第1の側面の画像処理方法またはプログラムは、撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示を変更するステップを含む。
 本技術の第1の側面においては、撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線が表示されるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示が変更される。
 本技術の第2の側面の撮像装置は、撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報を変更する表示制御部を備える。
 本技術の第2の側面の画像処理方法またはプログラムは、撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報を変更するステップを含む。
 本技術の第2の側面においては、撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報が変更される。
 本技術の第1の側面および第2の側面によれば、使い勝手を向上させることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
撮像装置の構成例を示す図である。 分割領域について説明する図である。 分割領域や撮影条件の設定時の表示画面例を示す図である。 撮影条件の連動設定時の表示画面例を示す図である。 本技術について説明する図である。 境界線の表示補正について説明する図である。 境界線の表示補正について説明する図である。 境界線の表示補正について説明する図である。 境界線の表示補正について説明する図である。 境界線の表示補正について説明する図である。 境界線の表示補正について説明する図である。 境界線の表示補正について説明する図である。 設定処理を説明するフローチャートである。 撮影処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈撮像装置の構成例〉
 本技術は、表示画面上で画像の領域をいくつかに分割し、領域ごとに撮影に関する設定を行ってHDR撮影をする場合に、カメラの向き(傾き)の変化に応じて分割した領域の境界をユーザの操作なしに自動的に補正するものである。これにより、使い勝手を向上させることができる。
 このような本技術は、デジタルスチルカメラやデジタルビデオカメラ、携帯型電話機など撮影機能を有する各種の電子機器に適用することが可能である。以下では、本技術をデジタルスチルカメラに適用する場合を例として説明を続ける。
 図1は、本技術を適用した撮像装置の一実施の形態の構成例を示す図である。
 図1に示す撮像装置11はデジタルスチルカメラからなり、HDR撮影を行って静止画像や動画像を得る画像処理装置である。なお、撮像装置11により撮影される画像は静止画像であってもよいし動画像であってもよいが、以下では最終的に記録される画像が静止画像であるものとして説明を続ける。
 撮像装置11は、撮影レンズ21、撮像部22、レンズ情報交信部23、角度検出部24、制御部25、表示部26、操作部27、および画像記録部28を有している。
 撮影レンズ21は、例えば1または複数の光学レンズや絞り、撮影レンズ21に関する各種のデータを保持するメモリ、撮影レンズ21に関する情報をレンズ情報交信部23と授受する交信部を有しており、被写体から入射した光を集光して撮像部22へと導く。
 なお、撮影レンズ21は、撮像装置11に対して着脱可能な交換式レンズであってもよいし、撮像装置11に一体的に設けられたレンズであってもよい。
 また、撮影レンズ21は、焦点距離を変化させることが可能なズームレンズであってもよいし、焦点距離が固定である単焦点レンズであってもよいが、ここでは撮影レンズ21がズームレンズであるものとする。
 撮像部22は、例えばイメージセンサからなり、撮影レンズ21を介して被写体から入射した光を受光して光電変換することで被写体を撮影し、その結果得られた撮影画像を制御部25に供給する。
 レンズ情報交信部23は、撮影レンズ21と交信し、撮影レンズ21に関する情報を取得する。具体的には、例えばレンズ情報交信部23は、撮影レンズ21から、撮影レンズ21に関する情報として、撮影レンズ21の焦点距離を示す焦点距離情報を取得し、制御部25に供給する。
 角度検出部24は、例えばジャイロセンサなどの角度検出センサからなり、撮像装置11の傾き(回転)を検出し、その検出結果を制御部25に供給する。
 ここでは、特に撮影レンズ21の光軸を回転軸として撮像装置11を回転させたときの回転の角度を回転角とも称することとする。また、撮影レンズ21の光軸と垂直な直線を回転軸として、撮像装置11を鉛直方向、すなわち上下方向にあおるように回転させたときの回転の角度を傾き角とも称することとする。これらの回転角と傾き角は、互いに回転軸が異なるが、何れも撮像装置11が基準とする位置から回転したときの回転角度を示す情報である。
 角度検出部24は、撮像装置11の傾きとして回転角および傾き角を検出し、その検出結果を示す検出角度情報を制御部25に供給する。
 制御部25は、撮像装置11全体の動作を制御する。例えば制御部25は、撮像部22から供給された撮影画像に基づいてスルー画像を生成して表示部26に供給したり、撮影画像に基づいて記録画像を生成して画像記録部28に供給したりする。
 ここで、スルー画像は、撮影画像の取り込み(撮影)の開始後、撮影者によりシャッタボタンが押されて撮影が指示されるまでの間に表示部26に表示される、撮影する画像の構図や明るさ等を確認するための確認用の画像である。
 また、記録画像は、撮影者であるユーザによりシャッタボタンが押されて撮影が指示されたときに、その指示に応じて撮影(記録)する記録用の画像である。
 より詳細には記録画像はHDRにより複数の画像を合成して得られた合成画像とされる。
 撮像装置11では表示部26の表示画面、すなわちスルー画像をいくつかの領域に分割し、分割された領域(以下、分割領域とも称する)ごとに絞り値やISO感度、WB(White Balance(ホワイトバランス))、明るさ(露出補正値)、シャッタスピード等の撮影条件を設定することが可能となっている。
 撮影者により撮影が指示されると、分割領域ごとに設定された撮影条件のそれぞれで撮影が行われ、それらの撮影条件ごとの撮影画像(以下、合成用画像とも称する)が得られる。そして、撮像装置11では分割領域に対応する撮影条件で撮影された合成用画像における分割領域の部分の画像が切り出され、それらの各分割領域の部分の画像が合成されて1つのHDR合成画像である記録画像とされる。
 また、制御部25は、補正量計算部41および表示制御部42を有している。
 補正量計算部41は、レンズ情報交信部23から供給された焦点距離情報、および角度検出部24から供給された検出角度情報の少なくとも何れか一方に基づいて、表示部26にスルー画像とともに表示させる分割領域の境界線の表示位置や傾きを補正するための補正情報を計算により求める。
 詳細については後述するが、撮像装置11では、撮影時には表示部26にスルー画像とともに分割領域の境界線が表示される。
 このとき、撮像装置11が傾けられて、すなわち撮像装置11が回転されて傾き角や回転角が変化すると、撮像装置11は、それらの傾き角や回転角の変化に応じて表示部26の表示画面上の境界線の傾きや表示位置を変化させる。
 補正量計算部41は、このような境界線の傾きや位置を補正するための情報を補正情報として求める。なお、補正情報は、境界線の表示位置や傾きの補正量を示す情報など、境界線の表示補正を行うことができる情報であればどのような情報であってもよいが、ここでは表示補正後の境界線の傾きや表示位置を示す情報が補正情報として求められるものとする。
 表示制御部42は、スルー画像や分割領域の境界線の表示等、表示部26における各種の画像の表示を制御する。例えば表示制御部42は、補正量計算部41で得られた補正情報に基づいて、スルー画像に重畳表示されている分割領域の境界線等の表示補正を行う。換言すれば、表示制御部42は、補正情報に基づいて、スルー画像に重畳表示されている分割領域の境界線等の表示を変更する。
 表示部26は、例えば液晶表示パネルや有機EL(Electro Luminescence)などからなり、スルー画像等の制御部25から供給された画像を表示する。操作部27は、例えばシャッタボタン等の各種のボタンやスイッチ、ホイールボタン、十字キー、ダイヤル、表示部26に重畳されたタッチパネルなどからなり、ユーザの操作に応じた信号を制御部25に供給する。
 画像記録部28は、制御部25から供給された記録画像等を記録したり、記録している画像等を制御部25に供給したりする。なお、画像記録部28は撮像装置11に対して着脱可能であってもよい。
〈本技術について〉
 撮像装置11では、HDRにより記録画像を得る場合に、複数の異なる合成用画像の各分割領域の画像を合成することにより記録画像が生成される。
 ユーザは操作部27としてのシャッタボタンを押して撮影を指示する前に、事前に分割領域の境界を指定しておく。
 例えばユーザは、図2に示すように表示画面において任意に境界線を指定し、画像を複数の領域に分割することができる。
 この例では、表示部26の表示画面上にはユーザにより定められた境界線BD11および境界線BD12が表示されており、これらの境界線により表示画面が3つの分割領域R11乃至分割領域R13に分割されている。ここで、分割領域R11は表示画面の図中、上側の端(上端)から境界線BD11までの間の領域であり、分割領域R12は境界線BD11から境界線BD12までの間の領域であり、分割領域R13は境界線BD12から表示画面の図中、下側の端(下端)までの間の領域である。
 ユーザは、操作部27を操作することで、例えば境界線BD11や境界線BD12を図中、上下方向に移動させたり、境界線BD11や境界線BD12が任意の傾きとなるように回転させたりすることで、分割領域R11乃至分割領域R13を決定する。
 この場合、ユーザは表示部26にスルー画像が表示されている状態でそれらの境界線を定める操作を行うこともできるし、表示部26にスルー画像が表示されていない状態で境界線を定める操作を行うこともできる。
 例えば、スルー画像が表示されている状態で境界線の傾きや位置を定める(指定する)操作をユーザが行う場合、一例としてスルー画像として表示されている空と地面との境界と境界線BD11とが重なるように境界線BD11の位置や傾きを定めることができる。これにより、分割領域R11を空の領域とし、分割領域R12を地面の領域とすることができる。
 なお、境界線BD11や境界線BD12を指定するにあたっては、ユーザの操作部27に対する操作に応じて、これらの境界線BD11および境界線BD12が同時に同じだけ移動されたり回転されたりしてもよいし、境界線BD11と境界線BD12が個別に(独立して)移動されたり回転されたりしてもよい。
 また、ここでは境界線BD11および境界線BD12は横方向の直線とされているが、境界線は縦方向の直線や斜め方向の直線、曲線など、どのようなものであってもよく、また境界線の数はいくつであってもよい。つまり、ユーザは画像を任意の数の分割領域に分割することができ、また各分割領域の形状も任意の形状とすることができる。
 また、詳細は後述するが、ユーザは撮影を指示する前に各境界線により分割された分割領域R11乃至分割領域R13ごとに撮影条件も指定しておく。ここでは分割領域R11乃至分割領域R13のそれぞれに対して、撮影条件V11乃至撮影条件V13が定められたとする。
 このようにして、ユーザが操作部27を操作して境界線、つまり分割領域と、各分割領域の撮影条件とを指定した後、操作部27としてのシャッタボタンを押して撮影を指示すると、撮像装置11は分割領域R11乃至分割領域R13に対応する合成用画像を撮影する。
 すなわち、撮像装置11は、分割領域R11に対して定められた撮影条件V11で撮影を行って得られた撮影画像を合成用画像G11とし、分割領域R12に対して定められた撮影条件V12で撮影を行って得られた撮影画像を合成用画像G12とし、分割領域R13に対して定められた撮影条件V13で撮影を行って得られた撮影画像を合成用画像G13とする。
 そして、撮像装置11は、このようにして得られた互いに撮影時刻の異なる合成用画像G11乃至合成用画像G13に基づいて記録画像を生成する。
 すなわち、合成用画像G11から分割領域R11に対応する領域の部分の画像CG11が切り出され、合成用画像G12から分割領域R12に対応する領域の部分の画像CG12が切り出される。また、合成用画像G13から分割領域R13に対応する領域の部分の画像CG13が切り出される。これらの画像CG11乃至画像CG13は互いに異なる領域の画像である。
 さらに、それらの画像CG11乃至画像CG13が、対応する分割領域R11乃至分割領域R13と同じ位置関係となるように並べられて合成され、1つの記録画像とされる。このように領域ごとに撮影条件を定めることができるようにすれば、領域ごとに適切な明るさや色合いの記録画像を得ることができる。
 以下では、画像CG11乃至画像CG13など、分割領域に対して定められた撮影条件で撮影された合成用画像から切り出された、その分割領域に対応する領域の部分の画像を切出画像とも称することとする。
 また、画像合成時には、互いに隣接する分割領域に対応する切出画像が繋ぎ合わせられるように合成されるが、各切出画像の撮影条件が異なることもあるため、単純に切出画像を繋ぎ合わせるとそれらの切出画像の境界部分が目立ってしまうことがある。
 そこで、切出画像同士を繋ぎ合わせるときには、それらの切出画像の境界位置近傍については、例えばアルファブレンドなどのブレンド処理が行われる。つまり、境界位置近傍では平滑化が行われる。
 ユーザは操作部27を操作することで、境界線BD11や境界線BD12を指定する操作を行うときに、ブレンド処理の対象となる領域(以下、ブレンド領域とも称する)を指定することができる。
 例えば図2に示す例では、境界線BD12を中心とする所定の幅の領域がブレンド領域BR11として指定されている。したがって、境界線BD12はブレンド処理の対象となるブレンド領域に関する境界線であるともいうことができる。
 ここでは、境界線BD12を含む、境界線BD12と平行な2つの直線BDR11および直線BDR12の間の領域がブレンド領域BR11とされている。換言すれば、直線BDR11および直線BDR12は、ブレンド領域BR11の範囲を示す境界線となっている。
 したがって、より詳細には、例えば分割領域R13に対応する画像CG13は、合成用画像G13におけるブレンド領域BR11を含む領域の画像、つまり合成用画像G13における直線BDR11から合成用画像G13の下端までの間の領域の画像とされる。
 ユーザは、操作部27を操作することで直線BDR11や直線BDR12を上下に移動させて、直線BDR11と直線BDR12との間の距離(幅)を指定することにより、ブレンド領域BR11とする領域を指定する。なお、直線BDR11と直線BDR12は、ユーザによる操作部27の操作に対して、連動して移動するようにしてもよいし、個別に、つまり独立に移動するようにしてもよい。
 この場合、記録画像におけるブレンド領域に対応する領域の画像は、以下のようにして生成される。
 すなわち、例えば記録画像におけるブレンド領域BR11に対応する領域内の画素を注目画素とする。そして、合成用画像G12(画像CG12)における注目画素と同じ位置の画素の画素値と、合成用画像G13(画像CG13)における注目画素と同じ位置の画素の画素値とが所定の混合比により混合(ブレンド)、つまり重み付き加算され、その結果得られた画素値が注目画素の画素値とされる。
 このとき、例えば注目画素の位置に応じて混合比が線形または非線形に変化するようにされる。具体的には、例えば注目画素が境界線BD12上の位置に対応する位置であるときには、合成用画像G12と合成用画像G13とで注目画素の画素値への寄与率が同じとなるように混合比が定められる。つまり、合成用画像G12の画素の混合比と、合成用画像G13の画素の混合比とが同じ値(例えば0.5)とされる。
 また、例えば注目画素が直線BDR11上の位置に対応する位置により近くなるほど、線形または非線形に、合成用画像G12の寄与率がより大きくなるように混合比が定められる。同様に、例えば注目画素が直線BDR12上の位置に対応する位置により近くなるほど、線形または非線形に、合成用画像G13の寄与率がより大きくなるように混合比が定められる。
 ユーザは、操作部27を操作することでブレンド領域BR11の幅や、線形または非線形に変化する混合比の変化の割合、つまりブレンド処理によるぼかし量などを任意に設定することができる。同様に、ユーザは境界線BD11のブレンド領域についてもブレンド領域の幅や混合比の変化の割合などを指定することができる。
 なお、ブレンド領域BR11の幅等を変化させたときに、それに連動して境界線BD11のブレンド領域の幅等も同時に同じだけ変化するようにしてもよいし、ブレンド領域BR11と、境界線BD11のブレンド領域とで個別に幅や混合比の変化の割合を設定できるようにしてもよい。
 さらに、分割領域や撮影条件の設定時には、例えば図3に示すように各設定を行うためのボタン(アイコン)が表示される。なお、図3において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、表示部26の表示画面、つまり設定画面には分割領域や撮影条件に関する設定を行うためのボタンIQ11乃至ボタンIQ18が表示されている。
 例えばユーザは操作部27を操作してボタンIQ11を選択(操作)することで、画像をいくつの分割領域に分割するか、つまり分割領域の数を指定することができる。
 また、ユーザはボタンIQ12を選択することで分割領域の境界線の位置や傾き(角度)などを指定することができ、ボタンIQ13を選択することでブレンド領域の幅や混合比等に関する指定(設定)を行うことができる。
 なお、ボタンIQ11乃至ボタンIQ13に関する設定については、合成用画像の撮影後に行われるようにしてもよい。
 ユーザはボタンIQ14を選択することで明るさ(露出補正値)を指定することができ、ボタンIQ15を選択することで絞り値(F値)を指定することができ、ボタンIQ16を選択することでシャッタスピードを指定することができる。さらに、ユーザはボタンIQ17を選択することでISO感度を指定することができ、ボタンIQ18を選択することでWB、すなわちWBの種類や色温度を指定することができる。
 上述したように、ユーザはボタンIQ12やボタンIQ13に関する設定、つまり分割領域の境界線の位置や傾き、ブレンド領域の幅や混合比等に関する設定を行うときに、複数の境界線やブレンド領域の設定を連動させることができる。
 例えば分割領域の複数の境界線の設定を連動させて、それらの境界線の位置や傾きを同時に同じだけ変化させる設定、つまり同じ位置や同じ傾きとする設定となっているときには、ボタンIQ12内の矢印AI11に示すアイコンが明るく表示される。
 同様に、複数のブレンド領域に関する設定が連動するように設定されているとき、つまり複数のブレンド領域の幅や混合比等を同時に同じだけ変化させる設定となっているときには、ボタンIQ13内のアイコンが明るく表示される。
 この場合、ユーザが操作部27を操作してブレンド領域の幅や混合比等の設定値を指定したときには、制御部25は各ブレンド領域の幅や混合比といった設定値が同じ値、つまりユーザにより指定された値となるように、それらのブレンド領域の設定値を変更する。
 また、分割領域の撮影条件、すなわち明るさや絞り値、シャッタスピード、ISO感度、WBなどの各項目についても、それらの項目ごとにユーザが任意の2以上の分割領域を指定し、指定された複数(2以上)の分割領域間で撮影条件の項目の設定値を連動させることができる。つまり、指定された2以上の分割領域の任意の撮影条件の項目の設定値を同時に指定することができる。
 この場合、例えば図3に示す例においてユーザが操作部27を操作して、分割領域R11と分割領域R12の撮影条件の絞り値が連動するように設定したとする。すると、ユーザが操作部27を操作して、分割領域R11と分割領域R12の何れか一方の絞り値として所定の値を指定すると、制御部25は、一方の分割領域の絞り値をユーザにより指定された所定の値に変更するとともに、それと連動させて他方の分割領域の絞り値も所定の値に変更する。
 このように撮影条件の項目が連動する設定となっている場合、その項目に関するボタン、すなわちボタンIQ14乃至ボタンIQ18のうちの対応する項目のボタンには、どの分割領域が連動する設定となっているかを示すアイコンが表示される。すなわち、表示制御部42は、撮影条件の項目が連動する設定となっている分割領域を表すアイコン(画像)を設定画面上に表示させる。
 例えばボタンIQ15には、分割領域R11乃至分割領域R13で絞り値の設定が連動となっていることを示すアイコンAI12が表示されている。
 この例では、アイコンAI12は、各分割領域を表す四角形がそれらの分割領域と同じ位置関係で並べられた画像となっており、互いに連動する分割領域に対応する四角形がより明るく表示されている。ここでは、分割領域R11乃至分割領域R13のそれぞれに対応する四角形が明るく表示されているので、それらの分割領域のうちの何れかの分割領域の絞り値を指定すると、他の全ての分割領域の絞り値も指定された絞り値に変更される。
 ここで、表示画面(画像)が3つの分割領域に分割される場合における、各分割領域の撮影条件の連動設定時の表示画面例を図4に示す。
 図4に示す例では、表示部26には、連動設定のための画面が表示されており、その画面内には図3に示した分割領域R11の撮影条件の各項目を連動設定とするためのチェックボックスCB11-1乃至チェックボックスCB15-1が設けられている。
 同様に、画面内には図3に示した分割領域R12の撮影条件の各項目を連動設定とするためのチェックボックスCB11-2乃至チェックボックスCB15-2と、図3に示した分割領域R13の撮影条件の各項目を連動設定とするためのチェックボックスCB11-3乃至チェックボックスCB15-3も設けられている。
 なお、以下、チェックボックスCB11-1乃至チェックボックスCB11-3を特に区別する必要のない場合、単にチェックボックスCB11とも称し、チェックボックスCB12-1乃至チェックボックスCB12-3を特に区別する必要のない場合、単にチェックボックスCB12とも称する。
 同様に、チェックボックスCB13-1乃至チェックボックスCB13-3を特に区別する必要のない場合、単にチェックボックスCB13とも称し、チェックボックスCB14-1乃至チェックボックスCB14-3を特に区別する必要のない場合、単にチェックボックスCB14とも称する。さらに、チェックボックスCB15-1乃至チェックボックスCB15-3を特に区別する必要のない場合、単にチェックボックスCB15とも称する。
 チェックボックスCB11-1乃至チェックボックスCB11-3のそれぞれは、分割領域R11乃至分割領域R13のそれぞれの明るさ(露出補正値)を連動させるためのものである。
 ユーザは操作部27を操作して、チェックボックスCB11にチェックマークを表示させることで、そのチェックボックスCB11に対応する分割領域の露出補正値を他の分割領域の露出補正値と連動させて変化させる設定とすることができる。
 また、ユーザは文字「ALL」が記されたボタンBT11を操作することにより、1度の操作で、つまり一括して3つのチェックボックスCB11全てにチェックマークが表示された状態とすることができる。
 図4に示す例では、3つのチェックボックスCB11の何れにもチェックマークが表示されていない状態となっているため、各分割領域の露出補正値は連動しておらず、それらの分割領域ごとに露出補正値の設定が行われる。
 チェックボックスCB12-1乃至チェックボックスCB12-3のそれぞれは、分割領域R11乃至分割領域R13のそれぞれの絞り値を連動させるためのものである。
 ユーザは操作部27を操作して、チェックボックスCB12にチェックマークを表示させることで、そのチェックボックスCB12に対応する分割領域の絞り値を他の分割領域の絞り値と連動させて変化させる設定とすることができる。
 ここでは、3つ全てのチェックボックスCB12にチェックマークが表示された状態となっているため、分割領域R11乃至分割領域R13の何れかの絞り値を変更すると、その変更後の絞り値が分割領域R11乃至分割領域R13の全てに反映される。すなわち、分割領域R11乃至分割領域R13の絞り値が、全てユーザにより指定された同じ絞り値とされる。
 なお、初めての連動設定時等には、近傍に王冠のマーク(アイコン)が表示されているチェックボックスCB12-3に対応する分割領域R13の値が反映されるようになされている。
 すなわち、初めての連動設定時や連動設定変更時に、チェックボックスCB12-3を含むいくつかのチェックボックスCB12にチェックマークが表示された状態とされると、チェックマークが表示された各チェックボックスCB12に対応する分割領域の絞り値が、チェックボックスCB12-3に対応する分割領域R13の絞り値と同じ値とされる。
 また、チェックボックスCB12-3の図中、下側にも、ボタンBT11に対応する、全てのチェックボックスCB12を一括で選択可能なボタンが設けられている。
 チェックボックスCB13-1乃至チェックボックスCB13-3のそれぞれは、分割領域R11乃至分割領域R13のそれぞれのシャッタスピードを連動させるためのものである。
 ユーザは操作部27を操作して、チェックボックスCB13にチェックマークを表示させることで、そのチェックボックスCB13に対応する分割領域のシャッタスピードを他の分割領域のシャッタスピードと連動させて変化させる設定とすることができる。
 ここでもチェックボックスCB12における場合と同様にチェックボックスCB13-3の近傍には王冠のマークが表示されており、ボタンBT11に対応する、チェックボックスCB13の一括選択のためのボタンも設けられている。
 チェックボックスCB14-1乃至チェックボックスCB14-3のそれぞれは、分割領域R11乃至分割領域R13のそれぞれのISO感度を連動させるためのものである。
 ユーザは操作部27を操作して、チェックボックスCB14にチェックマークを表示させることで、そのチェックボックスCB14に対応する分割領域のISO感度を他の分割領域のISO感度と連動させて変化させる設定とすることができる。
 チェックボックスCB14についてもチェックボックスCB12における場合と同様にチェックボックスCB14-3の近傍には王冠のマークが表示されており、ボタンBT11に対応する、チェックボックスCB14の一括選択のためのボタンも設けられている。
 チェックボックスCB15-1乃至チェックボックスCB15-3のそれぞれは、分割領域R11乃至分割領域R13のそれぞれのWBの設定(調整値)を連動させるためのものである。
 ユーザは操作部27を操作して、チェックボックスCB15にチェックマークを表示させることで、そのチェックボックスCB15に対応する分割領域のWBの設定を他の分割領域のWBの設定と連動させて変化させる設定とすることができる。
 チェックボックスCB15についてもチェックボックスCB12における場合と同様にチェックボックスCB15-3の近傍には王冠のマークが表示されており、ボタンBT11に対応する、チェックボックスCB15の一括選択のためのボタンも設けられている。
 さらに、表示部26の表示画面にスルー画像が表示されている状態で撮影条件の設定を行う場合には、分割領域に対して指定された撮影条件が、表示されるスルー画像に反映されるようにすることができる。
 具体的には、例えば全分割領域のうち、少なくとも撮影条件の設定中の分割領域を含む互いに隣接するいくつかの分割領域については、設定中の撮影条件が反映されたリアルタイムの撮影により得られたスルー画像が表示される。また、他の分割領域については、それらの分割領域に対して設定された撮影条件で以前に撮影された撮影画像がスルー画像として表示される。
 このようにすることで、ユーザはスルー画像を見ながら、実際に得られる記録画像をイメージすることができ、より適切な撮影条件を指定することができる。すなわち、撮像装置11の使い勝手を向上させることができる。
 本技術を利用したHDR撮影は、基本的には三脚等により撮像装置11を固定した状態で行われることが想定されている。
 したがって、ユーザは例えば撮像装置11を固定した状態でスルー画像を表示させながら記録画像の構図等を決定した後、スルー画像上の被写体の領域に合わせて分割領域の境界線の位置や傾き、各分割領域に対する撮影条件などの設定を行う。
 ユーザにより境界線の位置や傾きが指定されると、表示部26ではスルー画像に重畳されて分割領域の境界線が表示された状態となる。
 しかし、ユーザがシャッタボタンを押して記録画像の撮影を行うまでの間や、1度、記録画像の撮影を行った後などに、ユーザが撮像装置11の画角(焦点距離)や撮像装置11の向き(傾き)などを変えることもある。
 そのような場合、表示部26の表示画面上においては、分割領域の境界線はそのままであるが、スルー画像の被写体の位置や大きさ、向きなどは撮像装置11の焦点距離や向きの変化に伴って変化する。そのため、表示画面上において、境界線(分割領域)とスルー画像上の被写体との相対的な位置関係が変化してしまうことになる。分割領域の境界線だけでなく、ブレンド領域の境界線についても同様のことがいえる。
 そうすると、再度、分割領域等の境界線の位置や傾きを調整する必要が生じるが、ユーザがそのような境界線の位置や傾き等の再調整を行うのは面倒である。特に、分割領域等の境界線とスルー画像上の被写体との相対的な位置関係のずれが大きくなるほど、再調整の手間も増加する。
 そこで、撮像装置11では焦点距離の変化や、撮像装置11の傾き等の変化、つまり回転角や傾き角の変化が検出されたときには、表示画面上の被写体の大きさや位置、傾き等の変化に合わせて、分割領域の境界線やブレンド領域の境界線などの重畳表示情報の表示位置や傾きがユーザの操作を必要とすることなく調整されるようにした。すなわち、撮像装置11の傾きや焦点距離が変化した場合に、その変化の前後においてスルー画像の被写体と分割領域等の境界線との相対的な位置関係が維持されるように、境界線の表示位置や傾きが調整される。これにより、撮像装置11の使い勝手を向上させることができる。
 なお、ここでいう重畳表示情報とは、表示部26においてスルー画像に重畳表示されるものであれば、分割領域の境界線やブレンド領域の境界線に限らず、他のどのようなものであってもよい。
 具体的には、例えばグリッド線や水平線、垂直線などのOSD(On Screen Display)情報、基準となる位置や領域を示す点、アイコン、ユーザにより操作部27から入力されたスルー画像上の被写体としての人の顔の輪郭を示す曲線などを重畳表示情報とすることができる。特に、重畳表示情報は、分割領域の境界線など、スルー画像上の被写体と関連するもの、つまり関係のあるものであるとより好適である。
 以下では、重畳表示情報が分割領域の境界線やブレンド領域の境界線であるものとして説明を続ける。また、以下では、ことわりなく単に境界線というときには、分割領域の境界線を示しているものとする。
 次に、重畳表示情報としての分割領域の境界線の表示位置と傾きの調整の具体例について説明する。
 なお、補正量計算部41では、重畳表示情報としての分割領域の境界線の表示補正を行うための補正情報だけでなく、ブレンド領域の境界線等の他の重畳表示情報の表示補正を行うための補正情報も得られる。しかし、各重畳表示情報の補正情報は同様の計算により得ることができるので、ここでは分割領域の境界線の補正情報の算出について説明する。
 例えば図5の矢印Q11に示すように撮像装置11が傾いていない状態、つまり撮像装置11が真正面を向いており、回転角も傾き角も0度である状態で表示部26にスルー画像が表示されているとする。
 ここでは、スルー画像上には海や船、太陽などが被写体として表示されている。また、以下、回転角をθとも記し、傾き角をθとも記すこととする。
 なお、回転角θは、表示部26の表示画面を正面から見ているユーザから見て反時計回りの方向、つまり図5中、反時計回りの方向が正の方向であるとする。また、傾き角θは、表示部26の表示画面を正面から見ているユーザから見て上方向、つまり図5中、上方向が正の方向であるとする。
 矢印Q11に示す状態で、ユーザが操作部27を操作して表示部26の表示画面、つまりスルー画像を2つの分割領域に分割したとする。
 すると、表示部26の表示画面には、例えば矢印Q12に示すようにスルー画像に重畳されて分割領域の境界線BD31が表示される。
 この例では、境界線BD31がスルー画像の被写体である海と空との境界、つまり水平線と重なるように、その境界線BD31の位置と傾きが指定されている。ユーザは操作部27を操作することで、表示画面上において境界線BD31を移動させたり、境界線BD31を傾けたり、つまり回転させたりして、表示位置や傾きを調整することができる。
 矢印Q12に示すように境界線BD31を指定することで、ユーザは被写体としての空の部分と、海の部分とで個別に撮影条件を設定することができるようになる。
 また、境界線BD31の指定後、ユーザが撮像装置11を、ユーザから見て反時計回りの方向に回転角θだけ回転させると、矢印Q13に示すように被写体としての水平線と境界線BD31とにずれが生じる。ここでは、水平線に対して境界線BD31が相対的に回転角θだけ傾いてしまっている。
 そのため、このままでは被写体としての空に対する撮影条件が表示画面における被写体としての海の図中、左側の部分の領域、すなわち被写体としての海の境界線BD31よりも図中、上側の部分の領域に対しても適用されてしまうことになる。本技術が適用されていない場合には、境界線BD31の表示は矢印Q13に示した状態のままとなってしまう。
 そこで、補正量計算部41は、角度検出部24から供給された検出角度情報に含まれる回転角θに基づいて境界線BD31を表示させるときの補正量、より詳細には表示補正後の境界線BD31の表示位置および傾きを補正情報として求める。
 そして、表示制御部42は、補正量計算部41により求められた表示位置に、補正量計算部41により求められた傾きで境界線BD31が表示されるように、表示部26における境界線BD31の表示を制御する。つまり、補正情報に基づいて境界線BD31の表示位置や傾きが補正される。
 ここでは、境界線BD31が表示画面に対して角度-θだけ回転するように、境界線BD31の表示補正が行われる。
 これにより、矢印Q14に示すように撮像装置11の回転後においても被写体としての水平線と境界線BD31とにずれがなく、それらの水平線と境界線BD31とが重なった状態とすることができる。また、制御部25では、境界線BD31の表示位置や傾きの補正に伴って、分割領域も補正される。
 その結果、ユーザが空に対して設定した撮影条件が画像の空の領域の部分に正しく適用され、海に対して設定した撮影条件が画像の海の領域の部分に正しく適用されることになる。すなわち、ユーザが境界線BD31の表示位置等の再度の設定など、面倒な操作を行うことなく高品質な記録画像を得ることができるようになり、撮像装置11の使い勝手を向上させることができる。
 同様に、境界線BD31の指定後、ユーザが撮像装置11を、ユーザから見て鉛直方向上側に傾き角θだけ傾ける(あおる)と、矢印Q15に示すように被写体としての水平線と境界線BD31とにずれが生じる。ここでは、水平線に対して境界線BD31が図中、上方向にずれてしまっている。
 この場合、矢印Q13に示した例と同様に、水平線と境界線BD31の相対的な位置関係が変化しているため、このままでは被写体としての空の一部の領域にも、被写体としての海の領域の部分に対して定められた撮影条件が適用されてしまう。つまり、本技術が適用されていない場合には、境界線BD31の表示は矢印Q15に示した状態のままとなる。
 そこで、補正量計算部41は、角度検出部24から供給された検出角度情報に含まれる傾き角θと、焦点距離情報とに基づいて境界線BD31を表示させるときの補正量、より詳細には表示補正後の境界線BD31の表示位置および傾きを補正情報として求める。
 そして、表示制御部42は、補正量計算部41により求められた補正情報に基づいて、表示部26における境界線BD31の表示補正を行う。
 これにより、矢印Q16に示すように撮像装置11をあおった後においても被写体としての水平線と境界線BD31とにずれがなく、それらの水平線と境界線BD31とが重なった状態とすることができる。その結果、ユーザが境界線BD31の位置の再度の設定等の面倒な操作を行うことなく、高品質な記録画像を得ることができるようになり、撮像装置11の使い勝手を向上させることができる。
 続いて、境界線BD31等の分割領域の境界線の表示補正の具体的な例について、さらに詳細に説明する。
 例えば、撮像装置11が回転角θだけ回転されたとする。すなわち、回転角θと、傾き角θ=0とからなる検出角度情報が角度検出部24から出力されたとする。
 この場合、図6の矢印Q21に示すように表示部26の表示画面において、分割領域の境界線BD41が表示されていたとする。ここで、境界線BD41は表示補正前、つまり撮像装置11が回転角θだけ回転される前の表示となっている。
 また、表示部26の表示画面の中心位置にある点を点A11とし、境界線BD41上の任意の位置にある点を点B11とする。
 なお、点A11は撮像部22における撮像面の中心位置、つまり撮像面と撮影レンズ21の光軸との交点に相当し、スルー画像の中心位置の点でもある。
 また、境界線の傾きを傾きθとし、表示部26の表示画面を正面から見ているユーザから見て表示画面の下側の辺と平行な直線に対して、境界線の右側の端が上側に位置し、境界線の左側の端が下側に位置するような傾きの方向が傾きθの正の方向であるとする。
 図6の例では表示部26の表示画面の図中、下側の辺、つまりスルー画像の図中、下側の辺と、境界線BD41とのなす角度が、境界線BD41の傾きθとなっている。
 補正量計算部41では、回転角θと、点A11と、点B11とを利用して、補正後の境界線BD41の傾きθを求める。
 なお、以下、補正後の境界線BD41、および補正後の境界線BD41の傾きθを、それぞれ境界線BD41’および傾きθ’とも記すこととする。また、表示部26の表示画面上、つまりスルー画像上における境界線BD41の補正後の点B11、つまり境界線BD41’上における点B11に対応する点を点B11’とも記すこととする。
 これらの境界線BD41’、点B11’、および傾きθ’を図示すると、矢印Q22に示すようになる。なお、点A11は撮像装置11の回転中心であるので、表示補正前後において点A11の位置は同じである。
 また、この場合、撮像装置11が角度θだけ回転されているので、点A11および点B11を結ぶ直線と、点A11および点B11’を結ぶ直線とのなす角は-θとなる。つまり、点B11’の位置は、点A11を回転中心として、点B11を-θだけ回転させた位置となる。
 境界線BD41の補正時には、まず補正量計算部41は、点B11の位置(座標)と回転角θとに基づいて、座標変換により点B11’の位置(座標)を求める。
 ここでは、上述したように点A11を回転中心として、点B11を-θだけ回転させた位置が点B11’の位置である。なお、点B11の位置は、スルー画像に重畳表示される境界線BD41の表示位置および傾きθから求めることができる。
 続いて補正量計算部41は、境界線BD41の傾きθと回転角θとに基づいて、境界線BD41’の傾きθ’を求める。すなわち、補正量計算部41は次式(1)に示されるように、傾きθから回転角θを減算することで傾きθ’を算出する。
Figure JPOXMLDOC01-appb-M000001
 このようにして傾きθ’と点B11’の位置が求められると、それらの傾きθ’と点B11’の位置が、境界線BD41’の表示補正のための補正情報として得られることになる。
 表示制御部42は、このようにして得られた傾きθ’と点B11’の位置に基づいて表示部26を制御し、表示部26の表示画面に境界線BD41’を表示(描画)させる。この場合、表示画面上において、点B11’を通る傾きθ’の直線を境界線BD41’として表示させればよい。
 このようにすることで、例えば図5の矢印Q14に示したように、スルー画像に重畳されて補正後の境界線BD31が正しく表示されるようになる。
 次に、例えば撮影レンズ21の焦点距離情報が変化した場合、つまりズーム操作が行われた場合における分割領域の境界線の表示補正について説明する。なお、ここではズーム操作のみが行われ、撮像装置11の回転やあおりはないものとする。つまり、回転角θおよび傾き角θはともに0度であるものとする。
 例えば図7に示すように、表示部26の表示画面に分割領域の境界線BD51が表示されていたとする。なお、図7において図6における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、表示画面の中心位置にある点A11から境界線BD51へと垂線を引いたときの、その垂線と境界線BD51との交点が点B21となっている。
 このような状態において、図8に示すように撮影レンズ21を構成する光学レンズOL11の主点位置、つまり合焦点の位置が点D1にあり、撮影レンズ21の焦点距離がS1であったとする。
 図8では実空間上の被写体OB11、撮影レンズ21を構成する光学レンズOL11、および撮像部22を構成する撮像素子IM11が図示されており、被写体OB11上の点を点Pとする。ここで、点Pは図7に示した点B21に対応する被写体の部位であるとする。換言すれば、スルー画像上、つまり表示部26の表示画面上における点B21には、被写体OB11の点Pが写っているとする。
 また、撮像素子IM11の撮像面の中心位置を点Aとする。この点Aは、図7に示したスルー画像の中心位置、つまり表示画面の中心位置である点A11に対応する。
 光学レンズOL11の主点が点D1にある状態では、光学レンズOL11の光軸方向における、点D1から撮像素子IM11上の点Aまでの距離が光学レンズOL11の焦点距離S1となる。この場合、レンズ情報交信部23からは焦点距離S1を示す焦点距離情報が出力されることになる。
 また、この状態における点Pの光学像の結像位置を点P1とする。つまり、点Pの像が撮像素子IM11上の点P1の位置にあるとする。さらに、光学レンズOL11の光軸方向における、光学レンズOL11の主点がある点D1から点Pまでの距離をL1とし、光学レンズOL11の光軸と垂直な方向における、光学レンズOL11の光軸から点Pまでの距離をHとする。
 例えば光学レンズOL11の主点が点D1にある状態から、光学レンズOL11の主点が点D2にある状態となるようにユーザがズーム操作を行ったとする。
 すると、光学レンズOL11の焦点距離は、ズーム操作後の光学レンズOL11の主点位置である点D2から点Aまでの距離であるS2となり、光学レンズOL11の主点から点Pまでの距離もL2に変化する。さらに、撮像素子IM11上の点Pの像の位置も点P1から点P2へと移動する。
 ここで、焦点距離S2は光学レンズOL11の光軸方向における、光学レンズOL11の主点がある点D2から撮像素子IM11上の点Aまでの距離であり、距離L2は光学レンズOL11の光軸方向における、光学レンズOL11の主点がある点D2から点Pまでの距離である。
 また、撮像素子IM11上における点Aから点P1までの距離を距離p1とも記し、撮像素子IM11上における点Aから点P2までの距離を距離p2とも記すこととする。
 このように光学レンズOL11の主点が点D2の位置となるようにズーム操作が行われると、レンズ情報交信部23からは焦点距離S2を示す焦点距離情報が出力される。
 光学レンズOL11の主点が点D1の位置にある図7に示した状態からズーム操作が行われ、光学レンズOL11の主点が点D2の位置へと移動すると、表示部26の表示画面の表示は図9に示すようになる。なお、図9において図7における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図9では、点B21’はズーム操作に伴って移動した点B21の移動後の位置を示しており、この点B21’は図8に示した点P2に対応する。なお、図9では、説明を分かり易くするため、図7に示した点B21も図示されている。
 また、境界線BD51’は、ズーム操作に伴って表示補正を行った後の境界線BD51を示している。
 ズーム操作前の状態では点B21は境界線BD51上に位置しており、ここではズーム操作のみが行われる。そのため、点B21の移動後の点B21’を通り、境界線BD51と同じ傾きθの直線を、ズーム操作後に表示させる境界線BD51’、つまり表示補正後の境界線BD51’とすればよい。
 図9に示す例では、境界線BD51’は点B21’を通り、境界線BD51と同じ傾きθの直線となっている。このような境界線BD51’を表示補正後の境界線として表示させるには、点B21’の位置を求めればよい。
 ここで、点B21’の位置(座標)を求めることを考える。
 点B21’の位置を求めるには、図8に示した点Aから点P2までの距離p2を求めればよい。図8に示した点Pと点P2との位置関係、つまり三角形の相似の関係から、以下の式(2)および式(3)が導かれる。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 また、式(2)と式(3)の比を求めると以下の式(4)に示すようになり、その式(4)を変形することで、式(5)に示すように距離p2が求まる。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 ここで、式(5)における距離L1を∞とすることで、距離p2は次式(6)に示すようになる。
Figure JPOXMLDOC01-appb-M000006
 このように距離p2は距離p1、焦点距離S2、および焦点距離S1により表すことができる。ここで、図8に示した点P1および点P2は、それぞれ図9の点B21および点B21’に対応し、図8の点Aは図9の点A11に対応する。また、ズーム操作の前後で点Aや点A11の位置は不変であるため、式(6)から以下の式(7)が成立することが分かる。
Figure JPOXMLDOC01-appb-M000007
 なお、式(7)において、AB’は図9における点A11から点B21’までの距離を示しており、ABは図9における点A11から点B21までの距離を示している。
 ここで、点A11の位置(座標)と点B21の位置(座標)は既知であり、また焦点距離S1および焦点距離S2は、ズーム前後の焦点距離情報として得ることができる。
 したがって補正量計算部41では、これらの点A11の位置、点B21の位置、焦点距離S1、および焦点距離S2と、式(7)とから点B21’の位置を求めることができる。補正量計算部41は、点B21’の位置の算出結果から境界線BD51’の表示位置および傾きθを補正情報として得ることができる。
 なお、ここでは式(5)において距離L1を∞とする場合について説明したが、ユーザの操作部27による入力や、図示せぬ測距センサの出力等から距離L1を得ることができるときには、その距離L1を式(5)に代入して距離p2が求められるようにしてもよい。
 さらに、撮像装置11が傾き角θだけあおられた場合における分割領域の境界線の表示補正について説明する。なお、ここでは撮影レンズ21の焦点距離の変化がなく、撮像装置11の光軸回りの回転もないものとする。
 例えば図10に示すように、表示部26の表示画面に分割領域の境界線BD61が表示されていたとする。なお、図10において図6における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、境界線BD61上の所定の位置にある点が点B31とされている。
 このように境界線BD61が表示されている状態から、撮像装置11が傾き角θだけあおられたとする。
 すると、図11に示すように、実空間上において撮像部22の撮像素子が傾き角θだけ上方に傾くことになる。なお、図11において図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図11では、傾き角θだけ傾けた後の撮像素子IM11が撮像素子IM11’となっており、撮像装置11をあおる際には撮像素子IM11の中心の位置である点Aを通る直線を回転軸として撮像装置11が傾けられる(回転される)ものとする。
 いま、図11中、縦方向をy軸方向(y方向)とし、図11中、横方向をx軸方向(x方向)とし、傾き角θだけ傾ける前の光学レンズOL11の主点位置を原点とするxy座標系を考える。また、x座標がxであり、y座標がyである点の位置、つまり座標を(x,y)と記すこととする。ここで、図中、右方向がx方向の正の方向であり、図中、上方向がy方向の正の方向である。
 このとき、光学レンズOL11の主点位置の座標は(0,0)となる。また、光学レンズOL11の焦点距離、つまり光学レンズOL11の主点から、撮像素子IM11の中心位置にある点Aまでの距離をSとすると、点Aの位置の座標は(S,0)となる。
 さらに図10に示した点B31に対応する撮像素子IM11上の点を点K1とし、その点K1の座標を(S,K1y)とするとともに、光学レンズOL11の主点と点K1とを通る直線を直線LN1とする。ここで、直線LN1の傾きがφであるとする。
 また、撮像装置11を傾き角θだけ傾けた後の撮像素子IM11’上における、撮像素子IM11’と直線LN1との交点を点K2とし、その点K2の座標を(K2x,K2y)とするとともに、点Aと点K2とを通る直線を直線LN2とする。
 このような場合、図7乃至図9を参照して説明した例と同様に、図11における点Aから点K2までの距離を求めることで、撮像装置11を傾き角θだけ傾けた後の境界線BD61の表示位置を求めることができる。
 例えば表示部26の表示画面が図10に示した状態から撮像装置11が傾き角θだけあおられると、表示部26の表示画面の表示は図12に示すようになる。なお、図12において図10における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図12では、点B31’は撮像装置11が傾き角θだけあおられたことで移動した点B31の移動後の位置を示しており、この点B31’は図11に示した点K2に対応する。なお、図12では、説明を分かり易くするため、図10に示した点B31も図示されている。
 ここでは、撮像装置11が傾き角θだけあおられ、撮像装置11の光軸回りの回転は行われないので、点B31は図12中、横方向へは移動せず、縦方向、つまり鉛直方向(垂直方向)にのみ移動する。換言すれば、点B31’と点B31とは図12中、横方向において同じ位置にある。
 また、境界線BD61’は、撮像装置11が傾き角θだけあおられたことに伴って表示補正を行った後の境界線BD61を示している。
 撮像装置11があおられる前の状態では点B31は境界線BD61上に位置しており、ここでは撮像装置11をあおる動作のみが行われる。すなわち回転角θ=0である。そのため、点B31の移動後の点B31’を通り、境界線BD61と同じ傾きθの直線を、表示補正後の境界線BD61’とすればよい。
 図12に示す例では、境界線BD61’は点B31’を通り、境界線BD61と同じ傾きθの直線となっている。このような境界線BD61’を表示補正後の境界線として表示させるには、点B31’の位置を求めればよい。
 この点B31’の位置(座標)は、既知である点B31の位置(座標)と、点A11から点B31’までの図12中、縦方向の距離AK11とから求めることができる。これは、上述したように点B31’と点B31とは図12中、横方向において同じ位置にあるからである。
 ここで、距離AK11は、図11に示した点Aから点K2までの距離に対応する。
 表示部26の表示画面(スルー画像)の大きさと、撮像素子IM11の撮像面の大きさとの関係、つまり表示画面と撮像素子IM11の画素ピッチの関係が既知であるので、この画素ピッチの関係(画素ピッチの比)と点Aから点K2までの距離とから距離AK11を得ることができる。
 図11に示した点Aから点K2までの距離を求める場合、まず点K2の座標(K2x,K2y)が求められる。点K2の座標(K2x,K2y)は、直線LN1と直線LN2の交点の座標を求めることで得ることができる。
 まず、直線LN1は以下の式(8)により表すことができ、直線LN2は以下の式(9)により表すことができる。
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
 なお、式(8)および式(9)における光学レンズOL11の焦点距離Sは、レンズ情報交信部23から出力される焦点距離情報から得ることができ、式(9)における傾き角θは、角度検出部24から出力される検出角度情報から得ることができる。
 さらに、式(8)における点K1のy座標K1yは、既知である点B31の位置(座標)、および表示部26の表示画面の画素ピッチと撮像素子IM11の画素ピッチとの比から得ることができる。
 また、これらの式(8)および式(9)から以下の式(10)が成立し、その式(10)を変形することで以下の式(11)が得られる。
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
 点K2は、直線LN1と直線LN2の交点であるから、式(11)に示されるxが点K2のx座標となる。したがって、以下の式(12)により点K2のx座標であるK2xを得ることができる。
Figure JPOXMLDOC01-appb-M000012
 さらに、このようにして得られたK2x、つまり式(11)により示されるxを上述した式(8)または式(9)に代入することで点K2のy座標であるK2yを得ることができる。
 このようにして点K2の座標(K2x,K2y)が得られると、図11に示した点Aから点K2までの距離を得ることができる。
 すなわち、補正量計算部41は、例えば焦点距離情報、つまり焦点距離S、検出角度情報、つまり傾き角θ、および点B31の位置から式(12)と、式(8)または式(9)とを計算することで点K2の座標(K2x,K2y)を得ることができる。なお、式(8)や式(11)における角度φは、焦点距離S、点B31の位置(座標)、および表示部26の表示画面と撮像素子IM11の画素ピッチの比から得ることができる。
 また、補正量計算部41は、得られた点K2の座標(K2x,K2y)、および表示部26の表示画面(スルー画像)と撮像素子IM11との大きさの関係(画素ピッチの比)に基づいて距離AK11を得ることができ、さらに距離AK11と点B31の位置(座標)とから点B31’の位置(座標)を求めることができる。
 補正量計算部41は、このようにして得られた点B31’の位置(座標)と、これまで表示していた境界線BD61の傾きθとから、境界線BD61’の表示位置および傾きθを補正情報として得ることができる。
 なお、ここでは回転角θ=0である場合を例として説明したが、回転角θが0度でない場合には、座標変換を行ってから点B31’の位置(座標)を求めればよい。
 そのような場合、補正量計算部41は、表示部26の表示画面の座標系、すなわち点B31等の座標が回転角θ=0であるときの座標となるように、それらの座標を-θだけ回転させる座標変換を行い、座標変換後の座標を用いて点B31’の位置を求める。
 そして、補正量計算部41は、得られた点B31’の座標に対して、その座標をθだけ回転させる座標変換を行い、最終的な点B31’の座標とする。このようにすることで、表示補正後の境界線BD61’の正しい表示位置および傾きθを得ることができる。
 なお、以上において説明した回転角θに応じた境界線の表示補正、焦点距離情報の変化に応じた境界線の表示補正、および傾き角θに応じた境界線の表示補正のうちの任意のものを組わせて行うことも勿論可能である。
 また、分割領域の境界線の表示補正が行われると、制御部25では、境界線の表示位置および傾きの補正に応じて分割領域の位置も補正される。つまり、表示補正後の境界線により表示画面(画像)が分割領域に分割される。
 以上のように分割領域の境界線の表示補正を行うことで、ユーザが撮像装置11を回転させたり傾けたり、ズーム操作を行ったりしたときでも、特にユーザの操作を必要とすることなく境界線の表示が補正され、境界線の補正に合わせて分割領域も変更される。従って、ユーザによる境界線や撮影条件等の再度の設定の手間を減らすことができ、使い勝手を向上させることができる。
〈設定処理の説明〉
 次に、撮像装置11により行われる処理の流れについて説明する。
 例えば記録画像の撮影のための動作が開始されると、撮像部22は撮影レンズ21を介して被写体から入射した光を受光して光電変換することで被写体を撮影し、その結果得られた撮影画像を制御部25に供給する。
 制御部25の表示制御部42は、撮像部22から供給された撮影画像をスルー画像として表示部26に供給し、表示させる。また、分割領域の境界線等の重畳表示情報の表示も指示されている場合には、表示制御部42は重畳表示情報を表示部26に供給し、スルー画像上に重畳表示情報を重畳表示させる。
 このようにしてスルー画像が表示されると、ユーザは適宜、撮影に関する設定を行ったり、スルー画像を見ながら記録画像の構図を決めたりする。
 例えばスルー画像が表示されている状態で、ユーザにより分割領域の境界線に関する設定や撮影条件の設定等、何らかの設定に関する操作が行われると、撮像装置11は図13に示す設定処理を開始する。
 以下、図13のフローチャートを参照して、撮像装置11により行われる設定処理について説明する。
 ステップS11において、制御部25は、操作部27から供給される信号に基づいて、境界線に関する設定を行うか否かを判定する。
 例えばユーザが操作部27を操作して、分割領域の新たな境界線の設定や、分割領域の境界線の表示位置等の設定、ブレンド領域に関する設定等を指示し、ユーザの操作に応じた信号が操作部27から制御部25に供給された場合、境界線に関する設定を行うと判定される。
 ステップS11において境界線に関する設定を行わないと判定された場合、ステップS12の処理はスキップされて、その後、処理はステップS13へと進む。
 これに対して、ステップS11において境界線に関する設定を行うと判定された場合、ステップS12において、制御部25は、操作部27から供給された信号に応じて、境界線に関する設定を行う。
 例えばユーザが新たな境界線による表示部26の表示画面(スルー画像)のいくつかの分割領域への分割を指示した場合、制御部25はユーザの操作に応じて新たな境界線と分割領域を設定する。表示制御部42は、新たな境界線の設定、つまり分割領域の設定に応じて表示部26を制御し、表示部26の表示画面に新たな境界線を表示させる。
 また、例えば図2に示した境界線BD11および境界線BD12が表示されている状態で、ユーザが操作部27としてのホイールボタンや十字キーなどを操作することで、境界線BD11や境界線BD12の表示位置や傾き等を変更する操作を行ったとする。そのような場合、表示制御部42は、ユーザの操作に応じて操作部27から供給された信号に基づいて表示部26を制御し、それらの境界線のうちの少なくとも1つの境界線を移動させたり傾けたりする。
 このとき表示制御部42は、連動に関する設定に応じて、分割領域の複数の境界線を同じ距離だけ同時に移動させたり、分割領域の複数の境界線を同じ角度だけ同時に傾けたりすることもできるし、分割領域の境界線を個別に(独立に)移動させたり傾けたりすることもできる。
 さらに、例えばユーザが操作部27を操作することによりブレンド領域の幅等が指定されたときには、制御部25はユーザの操作に応じて操作部27から供給された信号に基づいてブレンド領域の幅等を変更する。ブレンド領域についても制御部25は、複数のブレンド領域の幅等の設定を連動して変更することもできるし、個別に(独立に)変更することもできる。
 ステップS12の処理が行われたか、またはステップS11において境界線に関する設定を行わないと判定された場合、ステップS13において、制御部25は、操作部27から供給される信号に基づいて、連動に関する設定を行うか否かを判定する。
 例えばユーザが操作部27を操作して、図4に示した連動設定時の表示画面の表示を指示したり、図4に示した表示画面が表示されている状態でチェックボックス等の選択操作などを行ったりした場合、連動に関する設定を行うと判定される。
 また、例えばユーザにより境界線の移動や傾きの調整に関する設定の連動、ブレンド領域の幅や混合比等に関する設定の連動が指示された場合、連動に関する設定を行うと判定される。
 ステップS13において連動に関する設定を行わないと判定された場合、ステップS14の処理はスキップされて、その後、処理はステップS15へと進む。
 一方、ステップS13において連動に関する設定を行うと判定された場合、ステップS14において、制御部25は操作部27から供給される信号に応じて、連動に関する設定を行う。
 例えば表示部26に図4に示した表示画面が表示されている状態で、ユーザが操作部27を操作してチェックボックスCB11等のチェックボックスを選択したり、ボタンBT11等の各種のボタンを操作したりした場合、制御部25はユーザの操作に応じて連動に関する設定を行う。
 具体的には、例えばユーザが全てのチェックボックスCB11を選択して、それらのチェックボックスCB11にチェックマークを表示させた場合、制御部25は、それらのチェックボックスCB11に対応する分割領域の露出補正値が連動して変更されるようにする。
 また、例えばユーザが操作部27を操作して、ユーザの操作による分割領域の境界線の表示位置の移動や傾きの調整について、複数の分割領域の境界線が連動して同時に同じだけ変更される設定を選択したり、複数の分割領域の境界線のそれぞれが個別に(独立に)変更される設定を選択したりしたとする。
 この場合、制御部25は、ユーザの操作に応じて操作部27から供給された信号に基づいて、複数の分割領域の境界線が連動して同時に同じだけ変更される設定としたり、複数の分割領域の境界線のそれぞれが個別に(独立に)変更される設定としたりする。
 ステップS14の処理が行われたか、またはステップS13において連動に関する設定を行わないと判定された場合、ステップS15の処理が行われる。
 ステップS15において、制御部25は、操作部27から供給される信号に基づいて、撮影条件の設定を行うか否かを判定する。
 例えばユーザが操作部27を操作して、複数の分割領域の何れかの撮影条件の変更を指示した場合や、図4に示した表示画面が表示されている状態で複数のチェックボックスが選択され、ステップS14の処理が行われた場合、撮影条件の設定を行うと判定される。
 ステップS15において撮影条件の設定を行わないと判定された場合、ステップS16およびステップS17の処理は行われず、設定処理は終了する。この場合、これまでと同様の撮影条件で撮影されたスルー画像が表示部26に表示されることになる。
 これに対して、ステップS15において撮影条件の設定を行うと判定された場合、ステップS16において制御部25は、操作部27から供給される信号に応じて、分割領域ごとの撮影条件の設定を行う。
 例えば制御部25は、操作部27から供給された信号に基づいて、指定されている分割領域の明るさや絞り値、シャッタスピード、ISO感度、WBなどの撮影条件の項目の値の変更が指示された場合、その分割領域の撮影条件の項目の値を変更する。
 このとき、撮影条件の設定対象の項目について、指定された分割領域と他の分割領域とで撮影条件の項目の値(設定値)が連動する設定とされているときには、制御部25は指定された分割領域の撮影条件の項目の値だけでなく、その指定された分割領域と連動する設定とされている他の分割領域の撮影条件の項目の値もユーザにより指定された値とする。
 また、例えば図4に示した画面が表示されている状態で、撮影条件の所定の項目に関する複数のチェックボックスが選択され、ステップS14の処理が行われたとする。この場合、制御部25は、選択された各チェックボックスに対応する分割領域の撮影条件の所定の項目の値を、それらのチェックボックスのうちの近傍に王冠のマークがあるチェックボックスに対応する分割領域の撮影条件の所定の項目の値に変更する。
 ステップS17において、表示制御部42は、撮影条件の設定に応じて表示部26にスルー画像を表示させる。
 このとき、表示制御部42は複数の分割領域のうち、少なくとも最後に撮影条件の設定が行われた分割領域を含む互いに隣接するいくつかの分割領域については、その最後に設定された撮影条件で新たに撮影された撮影画像の分割領域に対応する領域の画像をスルー画像として表示させる。
 また、表示制御部42は、最後に設定された撮影条件で新たに撮影された撮影画像がスルー画像として表示される分割領域とは異なる他の分割領域については、その分割領域に対して設定された撮影条件で過去に撮影された撮影画像の他の分割領域に対応する領域の画像をスルー画像として表示させる。
 このようにしてスルー画像が表示されると、設定処理は終了する。
 以上のようにして撮像装置11は、ユーザの操作に応じて、境界線に関する設定や連動に関する設定、撮影条件の設定等を行う。
 これにより、撮像装置11の使い勝手を向上させることができる。すなわち、例えば複数の境界線の位置を同時に移動させるようにすれば、ユーザは一度の操作で複数の境界線の位置を決定することができ、また連動設定を行えば、ユーザは一度の操作で複数の分割領域の撮影条件を指定することができる。
〈撮影処理の説明〉
 また、表示部26にスルー画像が表示されている状態では、撮像装置11はユーザの操作に応じて記録画像を生成する撮影処理も行う。以下、図14のフローチャートを参照して、撮像装置11により行われる撮影処理について説明する。
 ステップS41において、制御部25はレンズ情報交信部23から焦点距離情報を取得する。すなわち、レンズ情報交信部23は、撮影レンズ21と交信し、撮影レンズ21から焦点距離情報を取得して出力する。制御部25は、このようにしてレンズ情報交信部23から出力された焦点距離情報を取得する。
 ステップS42において、制御部25は、角度検出部24から検出角度情報を取得する。
 すなわち、角度検出部24は、ジャイロセンサ等の出力から回転角θと傾き角θを検出し、その検出結果を示す検出角度情報を出力する。制御部25は、このようにして角度検出部24から出力された検出角度情報を取得する。
 ステップS43において、制御部25は、ステップS41において取得された焦点距離情報と、ステップS42で取得された検出角度情報とに基づいて、表示部26に表示されている分割領域の境界線の表示補正を行うか否かを判定する。
 例えば焦点距離情報により示される焦点距離、検出角度情報により示される回転角θ、および検出角度情報により示される傾き角θのうちの少なくとも何れか1つが変化した場合、境界線の表示補正を行うと判定される。すなわち、焦点距離、回転角θ、および傾き角θのうちの何れかの値が前回取得されたときの値とは異なる場合に、境界線の表示補正を行うと判定される。
 その他、例えば焦点距離や傾き角θ、回転角θが、現時点で表示部26に表示されている分割領域の境界線に対応する焦点距離や傾き角θ、回転角θの値から所定の値以上変化した場合に、境界線の表示補正(変更)を行うと判定されるようにしてもよい。
 そのような場合、例えば回転角θが2度だけ変化したなど、少しだけ撮像装置11が回転したときには境界線の表示補正は行われず、回転角θが45度以上変化したなど撮像装置11がある程度大きく回転したときに境界線の表示補正が行われることになる。その他、例えば回転角θが90度以上変化したとき、すなわち、例えば撮像装置11が横向きから縦向きに変化したときや、縦向きから横向きに変化したときに境界線の表示補正が行われるようにしてもよい。
 ステップS43において、境界線の表示補正を行わないと判定された場合、ステップS44およびステップS45の処理は行われず、その後、処理はステップS46へと進む。
 これに対して、ステップS43において境界線の表示補正を行うと判定された場合、処理はステップS44へと進む。
 ステップS44において、補正量計算部41は、焦点距離情報、検出角度情報、および現在の各分割領域の境界線の表示位置と傾きθに基づいて、分割領域の境界線の補正後の表示位置および傾きを求める。具体的には、補正量計算部41は、適宜、図6乃至図12を参照して説明した処理を行って、補正後の境界線の表示位置と傾きθを補正情報として求める。
 すなわち、例えば回転角θが変化したときには、補正量計算部41は図6を参照して説明したように、式(1)の計算等を行って傾きθ’と点B11’の位置を求めることで、分割領域の境界線の補正後の表示位置および傾きを補正情報として求める。
 また、例えば焦点距離情報が変化した場合、補正量計算部41は図7乃至図9を参照して説明したように、式(7)の計算等を行って点B21’の位置を求めることで、分割領域の境界線の補正後の表示位置および傾きを補正情報として求める。
 さらに、例えば傾き角θが変化した場合、補正量計算部41は図10乃至図12を参照して説明したように、式(12)や式(8)等の計算を行って点B31’の位置を求めることで、分割領域の境界線の補正後の表示位置および傾きを補正情報として求める。
 ステップS45において、表示制御部42は、ステップS44で求められた補正後の分割領域の境界線の表示位置および傾き、つまり補正情報に基づいて表示部26を制御し、分割領域の境界線の表示補正を行う。
 具体的には、表示制御部42は、表示部26の表示画面上においてステップS45で求められた表示位置に、ステップS45で求められた傾きで分割領域の境界線が表示されるように重畳表示情報としての分割領域の境界線の表示を更新する。これにより、スルー画像上の被写体と、重畳表示情報としての分割領域の境界線との相対的な位置関係が維持されるように分割領域の境界線の表示位置および傾きが補正されたことになる。
 ステップS44およびステップS45では、分割領域の境界線の他、ブレンド領域の境界線等の他の重畳表示情報も表示されているときには、その重畳表示情報の補正情報も求められ、得られた補正情報に基づいて重畳表示情報の表示補正が行われる。
 また、例えば分割領域の境界線とは異なる他の重畳表示情報の表示補正も行う場合に、補正情報により示される補正後の他の重畳表示情報の表示位置が表示部26の表示画面外の位置、つまりスルー画像外の位置となってしまうこともある。
 そのような場合、表示制御部42は表示画面(スルー画像)内の位置であって、補正情報により示される他の重畳表示情報の表示位置に最も近い位置に、他の重畳表示情報が表示されるように表示部26における他の重畳表示情報の表示を制御する。すなわち、表示部26の表示画面(スルー画像)内における、補正情報により示される位置近傍の位置に他の重畳表示情報が表示される。
 分割領域の境界線の表示補正が行われると、その後、処理はステップS46へと進む。
 ステップS45の処理が行われたか、またはステップS43において境界線の表示補正を行わないと判定された場合、ステップS46において、制御部25は、操作部27としてのシャッタボタンが押されたか否かを判定する。
 ステップS46においてシャッタボタンが押されていないと判定された場合、処理はステップS41に戻り、上述した処理が繰り返し行われる。
 これに対してステップS46においてシャッタボタンが押されたと判定された場合、ステップS47において、制御部25は複数の分割領域に対して定められた複数の撮影条件のなかから、1つの撮影条件を選択する。
 すなわち、図13のステップS16の処理により、複数の分割領域のそれぞれに対して、それらの分割領域ごとに撮影条件が定められており、制御部25は、それらの撮影条件を順番に処理対象の撮影条件として選択していく。
 ステップS48において、制御部25は撮像部22や撮影レンズ21を制御し、ステップS47で選択した撮影条件で合成用画像とする撮影画像を撮影させる。
 すなわち、制御部25は、選択した撮影条件の絞り値となるように撮影レンズ21の絞りを動作させるとともに、撮像部22を制御して、選択した撮影条件の明るさやシャッタスピード、ISO感度などで撮影画像を撮影させる。そして、制御部25は、撮像部22から供給された撮影画像に対して、選択した撮影条件のWBの種類や色温度でのホワイトバランス調整を行い、合成用画像を生成する。
 ステップS49において、制御部25は、全ての撮影条件で撮影を行ったか否かを判定する。
 ステップS49において、まだ全ての撮影条件で撮影を行っていないと判定された場合、処理はステップS47に戻り、上述した処理が繰り返し行われる。すなわち、まだ処理対象として選択されていない撮影条件で合成用画像の撮影が行われる。
 これに対して、ステップS49において全ての撮影条件で撮影を行ったと判定された場合、分割領域ごとに設定した撮影条件の合成用画像が得られたので、処理はステップS50へと進む。
 ステップS50において、制御部25は、各撮影条件で撮影された合成用画像に基づいて記録画像を生成する。
 すなわち、制御部25は、各合成用画像における、それらの合成用画像を撮影した撮影条件に対応する分割領域の部分を切り出して切出画像とし、それらの切出画像を並べて1つの記録画像とする。このとき、制御部25は切出画像同士の境界部分については、図13のステップS12の処理で定められたブレンド領域に関する設定に従って、上述したブレンド処理を行い、切出画像を繋ぎ合わせる。
 なお、ここでは合成用画像の撮影前に分割領域やブレンド領域の設定が行われる例について説明したが、合成用画像の撮影後に、分割領域やブレンド領域の設定、つまり分割領域の境界線の位置や傾き、ブレンド領域の幅や混合比が定められるようにしてもよい。そのような場合においても各撮影条件で撮影された合成用画像があるので、分割領域やブレンド領域の設定に応じた記録画像を得ることが可能である。
 ステップS51において、表示制御部42は、得られた記録画像を表示部26に供給して表示させ、撮影処理は終了する。また、制御部25は、記録画像を画像記録部28に供給し、記録させる。
 以上のようにして撮像装置11は、焦点距離情報や検出角度情報に応じて分割領域の境界線等の表示補正を行い、撮影された合成用画像に基づいて記録画像を生成する。
 このように焦点距離情報や検出角度情報に応じて分割領域の境界線等の表示補正を行うことで、ユーザは撮像装置11を回転させたり、焦点距離を変えたりするたびに境界線に関する設定を行う必要がなくなり、撮像装置11の使い勝手を向上させることができる。
〈コンピュータの構成例〉
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロフォン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示を変更する表示制御部を備える
 画像処理装置。
(2)
 前記表示制御部は、前記ユーザの操作に応じて前記境界線の表示位置を移動させるか、または前記境界線を傾ける
 (1)に記載の画像処理装置。
(3)
 前記表示制御部は、複数の前記境界線を同時に同じだけ変更する
 (1)または(2)に記載の画像処理装置。
(4)
 前記複数の前記境界線のそれぞれを独立に変更するか、または前記複数の前記境界線を同時に同じだけ変更するかを設定する制御部をさらに備える
 (1)乃至(3)の何れか一項に記載の画像処理装置。
(5)
 前記画像処理装置は撮像装置であり、
 前記表示制御部は、前記撮像装置の撮影レンズを介して撮影された画像に重畳させて前記境界線を表示させる
 (1)乃至(4)の何れか一項に記載の画像処理装置。
(6)
 前記表示制御部は、前記撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて前記境界線を変更する
 (5)に記載の画像処理装置。
(7)
 前記表示制御部は、前記画像上の被写体と、前記境界線との相対的な位置関係が維持されるように前記境界線の表示位置および傾きを変更する
 (6)に記載の画像処理装置。
(8)
 前記表示制御部は、前記回転角度が所定値以上変化した場合、前記境界線を変更する
 (6)または(7)に記載の画像処理装置。
(9)
 前記画像はスルー画像である
 (5)乃至(8)の何れか一項に記載の画像処理装置。
(10)
 前記制御部は、前記ブレンド処理の対象となる複数のブレンド領域に関する設定を連動させて変更する
 (4)に記載の画像処理装置。
(11)
 撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示を変更する
 ステップを含む画像処理方法。
(12)
 撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示を変更する
 ステップを含む処理をコンピュータに実行させるプログラム。
(13)
 撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報を変更する表示制御部を備える
 撮像装置。
(14)
 前記表示制御部は、前記画像上の被写体と、前記重畳表示情報との相対的な位置関係が維持されるように前記重畳表示情報の表示位置および傾きを変更する
 (13)に記載の撮像装置。
(15)
 前記画像はスルー画像である
 (13)または(14)に記載の撮像装置。
(16)
 前記重畳表示情報は、前記画像を複数の分割領域に分割する境界線を含む情報である
 (13)乃至(15)の何れか一項に記載の撮像装置。
(17)
 前記表示制御部は、ユーザの操作に応じて、前記重畳表示情報の表示位置を移動させるか、または前記重畳表示情報を傾ける
 (16)に記載の撮像装置。
(18)
 前記表示制御部は、前記ユーザの操作に応じて、複数の前記重畳表示情報を同時に同じだけ移動させるか、または複数の前記重畳表示情報を同時に同じだけ傾ける
 (17)に記載の撮像装置。
(19)
 前記複数の前記分割領域ごとに撮影条件を設定する制御部をさらに備える
 (16)乃至(18)の何れか一項に記載の撮像装置。
(20)
 前記制御部は、ユーザにより指定された2以上の前記分割領域について、前記2以上の前記分割領域のそれぞれに対応する前記撮影条件のそれぞれの所定の項目の設定値を連動させて変更する
 (19)に記載の撮像装置。
(21)
 前記表示制御部は、前記所定の項目が連動する前記2以上の前記分割領域を表すアイコンをさらに表示させる
 (20)に記載の撮像装置。
(22)
 前記表示制御部は、前記画像としてスルー画像を表示させる場合に、所定の前記分割領域に対応する前記撮影条件で撮影された画像を前記スルー画像の前記所定の前記分割領域の画像として表示させ、前記所定の前記分割領域とは異なる他の前記分割領域に対応する前記撮影条件で撮影された画像を前記スルー画像の前記他の前記分割領域の画像として表示させる
 (19)乃至(21)の何れか一項に記載の撮像装置。
(23)
 前記制御部は、複数の前記撮影条件ごとに合成用画像を撮影させ、前記合成用画像を撮影したときの前記撮影条件に対応する前記合成用画像の前記分割領域を切出画像として、複数の前記切出画像を合成して記録画像を生成する
 (19)乃至(22)の何れか一項に記載の撮像装置。
(24)
 前記重畳表示情報は、前記切出画像を合成するときにブレンド処理が行われるブレンド領域を示すブレンド領域境界線を含む情報である
 (23)に記載の撮像装置。
(25)
 前記制御部は、複数の前記ブレンド領域に関する設定を連動させて変更する
 (24)に記載の撮像装置。
(26)
 前記表示制御部は、前記回転角度が所定値以上変化した場合、前記重畳表示情報を変更する
 (13)乃至(25)の何れか一項に記載の撮像装置。
(27)
 前記表示制御部は、変更後の前記重畳表示情報の表示位置が前記画像外の位置となる場合、前記画像内における前記表示位置近傍の位置に前記重畳表示情報を表示させる
 (13)乃至(26)の何れか一項に記載の撮像装置。
(28)
 撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報を変更する
 ステップを含む画像処理方法。
(29)
 撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報を変更する
 ステップを含む処理をコンピュータに実行させるプログラム。
 11 撮像装置, 21 撮影レンズ, 22 撮像部, 23 レンズ情報交信部, 24 角度検出部, 25 制御部, 26 表示部, 27 操作部, 41 補正量計算部, 42 表示制御部

Claims (29)

  1.  撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示を変更する表示制御部を備える
     画像処理装置。
  2.  前記表示制御部は、前記ユーザの操作に応じて前記境界線の表示位置を移動させるか、または前記境界線を傾ける
     請求項1に記載の画像処理装置。
  3.  前記表示制御部は、複数の前記境界線を同時に同じだけ変更する
     請求項1に記載の画像処理装置。
  4.  前記複数の前記境界線のそれぞれを独立に変更するか、または前記複数の前記境界線を同時に同じだけ変更するかを設定する制御部をさらに備える
     請求項1に記載の画像処理装置。
  5.  前記画像処理装置は撮像装置であり、
     前記表示制御部は、前記撮像装置の撮影レンズを介して撮影された画像に重畳させて前記境界線を表示させる
     請求項1に記載の画像処理装置。
  6.  前記表示制御部は、前記撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて前記境界線を変更する
     請求項5に記載の画像処理装置。
  7.  前記表示制御部は、前記画像上の被写体と、前記境界線との相対的な位置関係が維持されるように前記境界線の表示位置および傾きを変更する
     請求項6に記載の画像処理装置。
  8.  前記表示制御部は、前記回転角度が所定値以上変化した場合、前記境界線を変更する
     請求項6に記載の画像処理装置。
  9.  前記画像はスルー画像である
     請求項5に記載の画像処理装置。
  10.  前記制御部は、前記ブレンド処理の対象となる複数のブレンド領域に関する設定を連動させて変更する
     請求項4に記載の画像処理装置。
  11.  撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示を変更する
     ステップを含む画像処理方法。
  12.  撮影条件が異なる複数の合成用画像における互いに異なる領域を切出画像として、複数の前記切出画像を合成して記録画像を生成するときに行われるブレンド処理に関する境界線を表示させるとともに、ユーザの操作に応じて複数の前記境界線のうちの少なくとも1つの前記境界線の表示を変更する
     ステップを含む処理をコンピュータに実行させるプログラム。
  13.  撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報を変更する表示制御部を備える
     撮像装置。
  14.  前記表示制御部は、前記画像上の被写体と、前記重畳表示情報との相対的な位置関係が維持されるように前記重畳表示情報の表示位置および傾きを変更する
     請求項13に記載の撮像装置。
  15.  前記画像はスルー画像である
     請求項13に記載の撮像装置。
  16.  前記重畳表示情報は、前記画像を複数の分割領域に分割する境界線を含む情報である
     請求項13に記載の撮像装置。
  17.  前記表示制御部は、ユーザの操作に応じて、前記重畳表示情報の表示位置を移動させるか、または前記重畳表示情報を傾ける
     請求項16に記載の撮像装置。
  18.  前記表示制御部は、前記ユーザの操作に応じて、複数の前記重畳表示情報を同時に同じだけ移動させるか、または複数の前記重畳表示情報を同時に同じだけ傾ける
     請求項17に記載の撮像装置。
  19.  前記複数の前記分割領域ごとに撮影条件を設定する制御部をさらに備える
     請求項16に記載の撮像装置。
  20.  前記制御部は、ユーザにより指定された2以上の前記分割領域について、前記2以上の前記分割領域のそれぞれに対応する前記撮影条件のそれぞれの所定の項目の設定値を連動させて変更する
     請求項19に記載の撮像装置。
  21.  前記表示制御部は、前記所定の項目が連動する前記2以上の前記分割領域を表すアイコンをさらに表示させる
     請求項20に記載の撮像装置。
  22.  前記表示制御部は、前記画像としてスルー画像を表示させる場合に、所定の前記分割領域に対応する前記撮影条件で撮影された画像を前記スルー画像の前記所定の前記分割領域の画像として表示させ、前記所定の前記分割領域とは異なる他の前記分割領域に対応する前記撮影条件で撮影された画像を前記スルー画像の前記他の前記分割領域の画像として表示させる
     請求項19に記載の撮像装置。
  23.  前記制御部は、複数の前記撮影条件ごとに合成用画像を撮影させ、前記合成用画像を撮影したときの前記撮影条件に対応する前記合成用画像の前記分割領域を切出画像として、複数の前記切出画像を合成して記録画像を生成する
     請求項19に記載の撮像装置。
  24.  前記重畳表示情報は、前記切出画像を合成するときにブレンド処理が行われるブレンド領域を示すブレンド領域境界線を含む情報である
     請求項23に記載の撮像装置。
  25.  前記制御部は、複数の前記ブレンド領域に関する設定を連動させて変更する
     請求項24に記載の撮像装置。
  26.  前記表示制御部は、前記回転角度が所定値以上変化した場合、前記重畳表示情報を変更する
     請求項13に記載の撮像装置。
  27.  前記表示制御部は、変更後の前記重畳表示情報の表示位置が前記画像外の位置となる場合、前記画像内における前記表示位置近傍の位置に前記重畳表示情報を表示させる
     請求項13に記載の撮像装置。
  28.  撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報を変更する
     ステップを含む画像処理方法。
  29.  撮像装置の撮影レンズの焦点距離を示す焦点距離情報、または前記撮像装置の回転角度を示す検出角度情報の少なくとも何れか一方に基づいて、前記撮影レンズを介して撮影された画像に重畳して表示させる重畳表示情報を変更する
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2018/028029 2017-08-02 2018-07-26 画像処理装置および方法、撮像装置、並びにプログラム WO2019026746A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/633,689 US11184559B2 (en) 2017-08-02 2018-07-26 Image processing device, image processing method, and imaging device
CN201880048379.XA CN111316629B (zh) 2017-08-02 2018-07-26 图像处理装置和方法、成像装置和程序
JP2019534442A JPWO2019026746A1 (ja) 2017-08-02 2018-07-26 画像処理装置および方法、撮像装置、並びにプログラム
EP18841886.7A EP3664432B1 (en) 2017-08-02 2018-07-26 Image processing device and method, imaging device,, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017149652 2017-08-02
JP2017-149652 2017-08-02

Publications (1)

Publication Number Publication Date
WO2019026746A1 true WO2019026746A1 (ja) 2019-02-07

Family

ID=65233740

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/028029 WO2019026746A1 (ja) 2017-08-02 2018-07-26 画像処理装置および方法、撮像装置、並びにプログラム

Country Status (5)

Country Link
US (1) US11184559B2 (ja)
EP (1) EP3664432B1 (ja)
JP (1) JPWO2019026746A1 (ja)
CN (1) CN111316629B (ja)
WO (1) WO2019026746A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807729A (zh) * 2019-10-30 2020-02-18 口碑(上海)信息技术有限公司 图像数据的处理方法及装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112037525A (zh) * 2020-09-11 2020-12-04 江苏小白兔智造科技有限公司 一种基于摄像装置的无需停车厅的智能停车方法
CN112037528A (zh) * 2020-09-11 2020-12-04 江苏小白兔智造科技有限公司 一种基于车型的无需停车厅的智能停车系统
CN112037529A (zh) * 2020-09-11 2020-12-04 江苏小白兔智造科技有限公司 一种基于车牌的无需停车厅的智能停车系统
CN112037526A (zh) * 2020-09-11 2020-12-04 江苏小白兔智造科技有限公司 一种基于车牌的无需停车厅的智能停车方法
CN112037530A (zh) * 2020-09-11 2020-12-04 江苏小白兔智造科技有限公司 一种基于摄像装置的车辆位置确认方法及装置
CN112188100B (zh) * 2020-09-29 2022-08-05 维沃移动通信有限公司 联合拍摄方法、联合拍摄装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290635A (ja) * 2008-05-30 2009-12-10 Nikon Corp カメラ
JP2011188277A (ja) 2010-03-09 2011-09-22 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2015126299A (ja) * 2013-12-25 2015-07-06 キヤノン株式会社 画像処理装置、その制御方法およびプログラム
JP2017050857A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2017117334A (ja) * 2015-12-25 2017-06-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5507797B2 (ja) * 2007-03-12 2014-05-28 キヤノン株式会社 頭部装着型撮像表示装置及び画像生成装置
JP5663934B2 (ja) * 2010-04-09 2015-02-04 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US8166625B2 (en) * 2010-07-27 2012-05-01 Axial-Digital Corp. Continuous diorama and method of making the same
US20120120277A1 (en) * 2010-11-16 2012-05-17 Apple Inc. Multi-point Touch Focus
US8711248B2 (en) * 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
JP5909889B2 (ja) * 2011-06-17 2016-04-27 ソニー株式会社 撮像制御装置、及び、撮像制御方法
JP5903658B2 (ja) 2011-06-28 2016-04-13 パナソニックIpマネジメント株式会社 撮像装置
US9824426B2 (en) 2011-08-01 2017-11-21 Microsoft Technology Licensing, Llc Reduced latency video stabilization
JP2013034081A (ja) * 2011-08-02 2013-02-14 Sony Corp 画像処理装置、その制御方法およびプログラム
US8902335B2 (en) * 2012-06-06 2014-12-02 Apple Inc. Image blending operations
JP6124700B2 (ja) * 2012-07-27 2017-05-10 キヤノン株式会社 撮像装置、その制御方法、プログラム、記憶媒体
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
CN104885440B (zh) * 2013-01-04 2017-12-08 富士胶片株式会社 图像处理装置、摄像装置及图像处理方法
CN110086980B (zh) 2013-05-31 2022-06-24 株式会社尼康 电子设备
US9185284B2 (en) * 2013-09-06 2015-11-10 Qualcomm Incorporated Interactive image composition
JP6446790B2 (ja) 2014-02-21 2019-01-09 株式会社リコー 画像処理装置、撮像装置、画像補正方法およびプログラム
US10068373B2 (en) * 2014-07-01 2018-09-04 Samsung Electronics Co., Ltd. Electronic device for providing map information
US9781393B2 (en) * 2015-03-27 2017-10-03 Olympus Corporation Imaging apparatus, control method of imaging apparatus, and non-transitory storage medium storing control program of imaging apparatus
CN104994288B (zh) * 2015-06-30 2018-03-27 广东欧珀移动通信有限公司 一种拍照方法及用户终端
US10484601B2 (en) 2015-08-31 2019-11-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US10019639B2 (en) * 2016-04-19 2018-07-10 Blackberry Limited Determining a boundary associated with image data
CN105959534B (zh) * 2016-04-28 2019-09-17 青岛海信移动通信技术股份有限公司 图像处理方法、装置及电子设备
JP2017220892A (ja) * 2016-06-10 2017-12-14 オリンパス株式会社 画像処理装置及び画像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290635A (ja) * 2008-05-30 2009-12-10 Nikon Corp カメラ
JP2011188277A (ja) 2010-03-09 2011-09-22 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2015126299A (ja) * 2013-12-25 2015-07-06 キヤノン株式会社 画像処理装置、その制御方法およびプログラム
JP2017050857A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2017117334A (ja) * 2015-12-25 2017-06-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3664432A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807729A (zh) * 2019-10-30 2020-02-18 口碑(上海)信息技术有限公司 图像数据的处理方法及装置
CN110807729B (zh) * 2019-10-30 2023-06-23 口碑(上海)信息技术有限公司 图像数据的处理方法及装置

Also Published As

Publication number Publication date
EP3664432B1 (en) 2021-09-01
US20200213529A1 (en) 2020-07-02
EP3664432A1 (en) 2020-06-10
EP3664432A4 (en) 2020-06-10
US11184559B2 (en) 2021-11-23
CN111316629B (zh) 2022-04-19
CN111316629A (zh) 2020-06-19
JPWO2019026746A1 (ja) 2020-08-20

Similar Documents

Publication Publication Date Title
WO2019026746A1 (ja) 画像処理装置および方法、撮像装置、並びにプログラム
JP6630176B2 (ja) 画像処理装置およびその方法
JP5865941B2 (ja) 撮影装置、携帯型情報処理端末、撮影装置のモニタ表示方法およびプログラム
JP7023662B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JPWO2011162227A1 (ja) 立体パノラマ画像合成装置、撮像装置並びに立体パノラマ画像合成方法、記録媒体及びコンピュータプログラム
JP2008092548A (ja) 撮像装置、撮影方法及びプログラム
JP5735846B2 (ja) 画像処理装置およびその方法
JP6833801B2 (ja) 撮像装置、撮像方法、プログラムおよび記録媒体
JP2001245204A (ja) 撮像装置および輝度分布表示方法
JPH11242737A (ja) 画像処理方法及び装置並びに情報記録媒体
US8731327B2 (en) Image processing system and image processing method
JP2011234121A (ja) 撮影装置、パノラマ撮影方法
JP2017143354A (ja) 画像処理装置及び画像処理方法
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2015186062A (ja) 画像合成処理装置
JP6157274B2 (ja) 撮像装置、情報処理方法及びプログラム
JP7051586B2 (ja) 撮像装置、撮像方法およびプログラム
JP2000078467A (ja) 画像合成方法
JP2016208118A (ja) 画像処理装置、画像処理方法及びプログラム
JP2020160773A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2014155000A (ja) 画像処理装置、その制御方法、および制御プログラム
JP2020036091A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6679779B1 (ja) 情報処理装置、情報処理方法およびプログラム
JP4919165B2 (ja) 画像合成装置及びプログラム
JP2011135437A (ja) 撮像装置、画像合成方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18841886

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019534442

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018841886

Country of ref document: EP

Effective date: 20200302