WO2015093083A1 - 撮像装置及び撮像装置の制御方法 - Google Patents

撮像装置及び撮像装置の制御方法 Download PDF

Info

Publication number
WO2015093083A1
WO2015093083A1 PCT/JP2014/067916 JP2014067916W WO2015093083A1 WO 2015093083 A1 WO2015093083 A1 WO 2015093083A1 JP 2014067916 W JP2014067916 W JP 2014067916W WO 2015093083 A1 WO2015093083 A1 WO 2015093083A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
camera
angle
horizon
Prior art date
Application number
PCT/JP2014/067916
Other languages
English (en)
French (fr)
Inventor
松本 和宏
良章 末岡
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2015093083A1 publication Critical patent/WO2015093083A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position

Definitions

  • the present invention relates to an imaging apparatus having a configuration for rotationally driving an imaging element around an optical axis and a control method of the imaging apparatus.
  • a photoelectric conversion element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, etc.
  • the image signal obtained by this conversion is sequentially converted into an image signal using an image sensor (hereinafter referred to as an imaging device), and can be recorded on a recording medium as image data of a predetermined format, and the image data recorded on this recording medium
  • an imaging apparatus that reproduces and displays the image as an image, for example, an imaging apparatus configured to include a liquid crystal display (LCD) and the like, such as a digital camera and a video camera, are generally put into practical use and widely spread.
  • LCD liquid crystal display
  • an image blur for further correcting blur in the rotational direction (roll direction) around the optical axis in addition to an image blur of an optical image, for example, a shift blur in a plane orthogonal to the optical axis, an image blur for further correcting blur in the rotational direction (roll direction) around the optical axis.
  • an image blur for further correcting blur in the rotational direction (roll direction) around the optical axis for example, Japanese Patent Application Laid-Open No. 2012-137749, Japanese Patent Application Laid-Open No. 2011-95467, etc. have variously proposed and provided a correction mechanism.
  • the imaging device disclosed by the above-mentioned JP-A-2012-137749, JP-A-2011-95467, etc. has a rotational direction around the optical axis in order to perform blur correction in the rotational direction (roll direction) around the optical axis.
  • the image pickup device is configured to be provided with rotational driving means for rotating in a direction to offset the rotation.
  • the means disclosed in the above-mentioned JP-A-2012-137749, the above-mentioned JP-A-2011-95467 and the like detect a shake on the imaging device side, for example, a rotational shake by detecting the rotation around the optical axis of the The correction is performed, and rotational shake or the like on the subject side is not detected. Therefore, in such a conventional configuration, the correction operation is not performed, for example, when the subject itself is in a tilted state with respect to the imaging device. In that case, an image is captured while the subject is inclined in the screen.
  • the imaging is performed with the imaging screen (rectangular screen) inclined with respect to the long side or the short side.
  • the imaging screen rectangular screen
  • a building or the like in the imaging screen is imaged in a state of being inclined with respect to the long side or the short side of the rectangular screen.
  • the present invention has been made in view of the above-described point, and the purpose of the present invention is a situation in which one or both of an imaging device and an imaging object are inclined with respect to a horizon or a horizontal line when performing imaging. It is an object of the present invention to provide an imaging device and a control method of the imaging device which can easily obtain an image of a stable composition or a composition intended by a user (user) at all times.
  • an image pickup apparatus picks up an image based on image data from a rotational drive unit that rotates an image pickup device held by a holding unit with respect to a camera body.
  • a display unit for displaying an image a shake detection unit for detecting a shake angle of the imaging element with respect to the horizon, and a subject image identification unit for identifying two points of a specific subject image in the captured image displayed on the display unit
  • a first operation unit for calculating an inclination angle at which a straight line connecting two points of the object image specified by the object image specifying unit is inclined with respect to the horizon; and the first operation unit calculated by the first operation unit
  • a second operation unit configured to calculate a rotation correction angle for correcting the rotation of the holding unit on the basis of the tilt angle and the shake angle detected by the shake detection unit. Based on the rotational correction angle calculated by the second arithmetic unit, the image pickup element so as to hold constant for the above horizon.
  • a captured image is displayed based on image data from an imaging element, two points of a specific subject image in the captured image are specified, and the above imaging with respect to the horizon is performed.
  • the shake angle of the element is detected, the inclination angle of the straight line connecting the two specified points of the object image to the horizon is calculated, and the rotation of the imaging element is corrected based on the inclination angle and the shake angle.
  • the rotation correction angle is calculated, and the image pickup device is rotated with respect to the camera main body based on the rotation correction angle to hold the image pickup device at a constant inclination with respect to the horizon.
  • the composition or the intention of the user is always stable even when either or both of the imaging device and the imaging target are tilted with respect to the horizon or the horizontal line when performing imaging. It is possible to provide an imaging device and a control method of the imaging device which can easily acquire an image of a composition.
  • a block diagram showing a schematic configuration of an imaging apparatus (camera) according to an embodiment of the present invention The schematic block diagram which shows the front of the image pick-up element rotation unit in the imaging device (camera) of FIG.
  • FIG. 1 shows a state in which rotation correction control of the image pickup element is performed in consideration of a shake correction operation (mainly shake correction in the rotational direction) performed during an image pickup operation.
  • a shake correction operation mainly shake correction in the rotational direction
  • An example of rotation correction control of the image pickup element for holding the tilt angle to a constant at a preset angle is shown, and further, rotation correction control of the image pickup element is performed in accordance with the movement of the object, and
  • An explanatory view showing a state of performing rotation correction control of the image pickup device in consideration of a shake correction operation (mainly shake correction in the rotational direction) according to a camera shake caused by the displacement of the camera posture of Flow chart showing a processing sequence corresponding to the operation of FIG. 9 A flowchart showing a processing sequence in the case of performing rotational drive control of an imaging device by predicting motion of an object and camera shake in the camera of FIG. 1
  • One embodiment of the present invention photoelectrically converts, for example, an optical image formed by an optical lens using a solid-state imaging device, converts an image signal obtained thereby into digital image data representing a still image or a moving image, and thus
  • An imaging device such as a digital camera or the like configured to record the generated digital data on a recording medium and reproduce and display a still image or a moving image on a display device based on the digital image data recorded on the recording medium
  • a digital camera or the like configured to record the generated digital data on a recording medium and reproduce and display a still image or a moving image on a display device based on the digital image data recorded on the recording medium
  • FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus (camera) according to an embodiment of the present invention.
  • 2 and 3 are conceptual diagrams showing a schematic configuration of an imaging element rotation unit in the imaging apparatus (camera) of the present embodiment.
  • FIG. 2 shows a front view of an imaging device (camera).
  • FIG. 3 is a cross section taken along line [3]-[3] of FIG. 2 and shows a cross section of only the image pickup device rotation unit.
  • the camera 1 which is an imaging apparatus of the present embodiment is configured by a camera body 10 and a lens barrel 30.
  • a camera body 10 which is a camera body, includes an imaging device 11, a control unit 12, an imaging device rotation unit 13 as imaging device rotation means, a display unit 14, a designation unit 22, a blur detection unit 15, and the like. Is configured.
  • the lens barrel 30 is configured of an imaging optical system 31, its holding frame member, a drive mechanism, and the like.
  • a so-called lens replacement in which the camera body 10 and the lens barrel 30 are separately configured, and the lens barrel 30 is detachable from the camera body 10
  • a possible form may be sufficient and the form which integrated camera body 10 and the lens barrel 30 may be sufficient.
  • the imaging optical system 31 is configured by a plurality of optical lenses and the like. Although illustration of a plurality of optical lenses and the like constituting the imaging optical system 31 is omitted, each is held by a holding frame member and the like.
  • the holding frame members and the like are arranged along the optical axes of the optical lenses and the like. Further, some of the holding frame members and the like are configured to be movable forward and backward in the direction along the optical axis.
  • the lens barrel 30 includes a drive mechanism (not shown) for driving the holding frame members and the like, and a lens control unit for controlling the drive.
  • the configuration of the lens barrel 30 in the camera 1 according to the present embodiment includes substantially the same configuration as that of a lens barrel applied to an imaging apparatus (camera) having a conventional general configuration, and the detailed configuration thereof Illustration and explanation are omitted.
  • the imaging device 11 in the camera body 10 receives an optical image formed by the imaging optical system 31 of the lens barrel 30, that is, an object image that is an optical image of an object to be imaged, and photoelectrically converts it to obtain an image signal. Photoelectric conversion element. Therefore, the imaging device 11 is in a plane substantially orthogonal to the optical axis O of the lens barrel 30 (the imaging optical system 31 of the lens barrel 30), and the object image formed by the imaging optical system 31 It is disposed at a portion substantially coinciding with the image plane.
  • a CCD image sensor using a semiconductor element such as a CCD (charge coupled device) or a solid using a CMOS (complementary metal oxide semiconductor; complementary metal oxide film semiconductor) or the like
  • CMOS complementary metal oxide semiconductor; complementary metal oxide film semiconductor
  • the control unit 12 has a control circuit that controls the entire camera 1 and the like, and for example, a CPU (Central Processing Unit) or the like is applied.
  • the control unit 12 applied to the camera 1 of the present embodiment includes a subject image identification unit 16, a face image determination unit 17, a first arithmetic unit 18, and a second operation unit in addition to a general control circuit and the like.
  • the circuit unit such as the operation unit 19 is configured.
  • the subject image specifying unit 16 selects at least two image areas (feature points included in a specific subject image in the captured image being displayed on the display unit 14 based on the image data acquired by the imaging device 11). ) Is a circuit unit that specifies the Although the details will be described later, specifically, for example, from among the image areas displayed on the display unit 14 by the user (user) using a predetermined operation member (not shown) or the designation unit 22 (details will be described later)
  • the subject image identification unit 16 identifies two points (feature points) in the image in response to an operation instruction that is arbitrarily designated.
  • the subject image identification unit 16 may be configured to include the designation unit 22.
  • the face image determination unit 17 is a so-called face recognition technology that automatically identifies an area representing a face or the like of a person or an animal such as a pet within an image area displayed based on image data acquired by the imaging device 11. It is an image determination circuit to be used.
  • the face image determination unit 17 may be configured as included in the subject image identification unit 16.
  • the first calculation unit 18 and the second calculation unit 19 are circuits that perform predetermined calculations for driving and controlling the imaging element rotation unit 13 in the main camera 1.
  • the first computing unit 18 may be a horizon or a horizontal line of a straight line connecting two feature points included in the subject image identified by the subject image identifying unit 16 in the image area being displayed (eg, Hereinafter, it is a circuit part which computes the inclination angle with respect to a horizon line simply by calculation.
  • the second calculation unit 19 is based on, for example, the calculation result (tilt angle) calculated by the first calculation unit 18 and the calculation result (shake angle) detected by the shake detection unit 15 (described later). It is a circuit unit that calculates the rotation correction angle for controlling the rotation of the imaging element rotation unit 13 by calculation.
  • the display unit 14 is a component that displays a captured image based on image data acquired by the imaging device 11 and output from the imaging device 11.
  • a liquid crystal display device Liquid Crystal Display Device
  • organic electroluminescence organic EL: Organic Electro-Luminescence
  • the designation unit 22 is a position input device for designating a desired position in the image being displayed on the display unit 14.
  • a so-called touch panel or the like which is provided to be superimposed on the display screen of the display unit 14 and the user (user) receives a touch operation, a slide operation or the like using a finger or the like, is applied as the designation unit 22.
  • the designation unit 22 may be an operation member provided in a camera of a conventional form, for example, a four-direction instruction operation member (so-called cross key or the like) that can designate positions in the screen. It is also possible to apply a half-depression operation or the like of a dial instruction operation member or the like or a shutter release button.
  • the shake detection unit 15 determines the shake angle of the image sensor 11 with respect to the horizon, for example, the rotation angle around the optical axis, the shift amount (shift amount) in the vertical or horizontal direction in the plane orthogonal to the optical axis, It is a circuit unit which detects each rotation angle etc. around two axes (X axis and Y axis) orthogonal to.
  • an acceleration sensor, an angular velocity sensor, a vibration gyro sensor, or the like is applied as the shake detection unit 15, an acceleration sensor, an angular velocity sensor, a vibration gyro sensor, or the like is applied.
  • the blur detection unit 15 itself is assumed to be applied in the same manner as a blur detection mechanism etc. which has been put to practical use and widespread in the prior art, and the detailed configuration is omitted.
  • the imaging device rotation unit 13 which is an imaging device rotation unit, includes a movable portion rotation angle detection unit 20 and a rotation drive unit 21.
  • the rotation drive unit 21 is a structural unit that rotates the imaging device 11 around the optical axis O of the lens barrel 30 with respect to the camera body 10.
  • the movable portion rotation angle detection means 20 is a detection sensor that detects the rotation angle around the optical axis of the movable portion of the rotation drive unit 21.
  • the rotary drive unit 21 mainly includes a voice coil motor (VCM) including a fixed unit 41, a rotary unit 42, a rotary shaft 43, a coil 44, and a magnet 45. It is done.
  • VCM voice coil motor
  • the fixing portion 41 is a component that is fixed to an internal fixing portion of the camera body 10 and forms a base portion of the rotation driving portion 21.
  • a rotation shaft 43 is implanted along the optical axis O and rotatably with respect to the fixed portion 41.
  • the rotating portion 42 is fixed to the tip of the rotating shaft 43.
  • the rotating portion 42 is formed in a substantially disk shape as a whole, and is configured to have a protruding portion 42 a protruding in a radial direction at a part of the outer peripheral edge portion.
  • the image pickup device 11 is held by the rotating unit 42.
  • the rotation unit 42 is a holding unit that holds the imaging device 11.
  • the center point P of the light receiving surface of the imaging device 11 held by the rotating unit 42, the optical axis O, and the rotation axis center Q of the rotation shaft 43 are set to substantially coincide (see FIG. 2, see Figure 3).
  • the image pickup device 11 normally has a rectangular light receiving surface.
  • the image pickup device 11 in the camera 1 of the present embodiment has, for example, a side (long side) extending in the horizontal direction of the frame line of the light receiving surface parallel to the horizon and the short side of the light receiving surface is vertical It is fixedly held on the rotating portion 42 so as to be parallel to the direction.
  • a magnet 45 which constitutes a part of the voice coil motor is disposed on the convex portion 42 a of the rotating portion 42.
  • a coil 44 constituting another part of the voice coil motor is disposed at a portion facing the magnet 45 on the fixed portion 41 side.
  • the arrangement of the coil 44 and the magnet 45 is not limited to the above example, but the arrangement is reversed, that is, the coil 44 is provided on the rotating portion 42 side and the magnet 45 is provided on the fixed portion 41 side. It may be.
  • the convex portion 42a is provided on the outer peripheral edge portion of the rotating portion 42, and the magnet 45 (or the coil 44) is disposed on the convex portion 42a.
  • the rotating portion 42 is formed on a line extending in the vertical direction of the camera 1 through the rotation axis center Q (optical axis O, center point P of the imaging device 11) of the shaft 43 ing.
  • the convex portion 42a of the rotating portion 42 is always disposed at a predetermined position in the vertical direction even when the coil 44 is not energized.
  • the horizontal direction (long side) is parallel to the horizon, and the short side is parallel to the vertical direction.
  • the arrangement is configured to be maintained.
  • the control unit 12 causes the second calculation unit 19 to The coil 44 is energized based on the rotation correction angle calculated by the above to drive and control the rotating unit 42.
  • the imaging device 11 is controlled such that a straight line parallel to, for example, a side (long side) in the horizontal direction among the frame lines of the light receiving surface always holds a constant angle with respect to the horizon.
  • control to maintain a constant angle means, for example, one side (for example, a side in the horizontal direction (long side)) of the frame line of the rectangular light receiving surface of the imaging device 11 with respect to the horizon.
  • Setting control that holds an angle (0 degree) at which the horizon and one side (long side) of the frame of the image sensor 11 substantially coincide with each other (parallel with the other side (short side) orthogonal to the horizon). Is considered.
  • control to hold a constant angle 2 included in the subject image specified by the subject image specifying unit 16 by the user (user) using the specifying unit 22.
  • control to hold a fixed angle a straight line connecting two points (for example, two pupils or the like) included in a face such as a person as a subject image recognized by the face image determination unit 17
  • rotation correction control of the image pickup device 11 for holding an image such that the inclination angle with respect to the horizon of the image plane is a predetermined angle set in a prescribed or arbitrary manner (details will be described later; see FIG. 5).
  • the camera body 10 and the lens barrel 30 are configured to have other various configuration units and the like in addition to the above-described components, the configuration units and the like not described above are included in the present invention. It is a configuration that is not directly related. Therefore, about those component parts, the description and illustration are abbreviate
  • FIG. 4 is an explanatory view showing an example of an operation at the time of performing an imaging operation using the imaging device (camera) according to the embodiment of the present invention.
  • an operation mode in which an operation described below is performed is referred to as an imaging rotation correction mode.
  • a user when performing an imaging operation using the camera 1, a user (user) faces a desired subject (imaging target) while holding the camera 1 in his hand. At this time, the user (user) tries to keep the camera 1 in the normal use state (for example, the state shown in FIG. 2).
  • a user usually tries to take a composition in which one side of the frame line of the rectangular light receiving surface of the imaging device 11 of the camera 1 substantially matches the horizon.
  • the camera 1 may be tilted with respect to the horizon at the time of imaging.
  • a straight line corresponding to a horizon is indicated by a symbol H
  • the imaging device 11 is parallel to one side (in this case, the long side) of the frame line of the rectangular light receiving surface of the imaging device 11.
  • a straight line passing through the central point P of the line H is denoted by a symbol H2
  • an inclination angle of the straight line H2 with respect to the horizon H is indicated by a symbol ⁇ .
  • a straight line parallel to a straight line along the bottom surface of the camera 1 and passing through the center point P of the imaging device 11 is indicated by a symbol H3.
  • the straight line H2 and the straight line H3 generally coincide with each other.
  • the image displayed on the display screen of the display unit 14 based on the image data acquired by the imaging device 11 is as shown by reference numeral 51 shown in FIG. 4 (B).
  • a straight line corresponding to a horizon is indicated by a symbol H
  • a straight line orthogonal to the horizon H is indicated by a symbol V.
  • the horizon H is parallel to one side (long side) of the rectangular frame lines of the image 51 and parallel to a straight line passing through the screen center point P.
  • the straight line V is parallel to the other side (short side) of the rectangular frame lines of the image 51 and parallel to the straight line passing through the screen center point P.
  • a user (user) performs imaging operation by determining a desired composition and timing while viewing a live view image continuously displayed on the display unit 14.
  • the user uses the designating unit 22 to indicate two points (feature points) for indicating a straight line to be corrected for the horizon in the object image in the image 51 being displayed on the display unit 14.
  • Designate input In the example shown in FIG. 4 (B), the case where two points S1 and S2 are designated is shown.
  • FIG. 4B shows an example in which two points in the vertical direction, such as a tower-like structure standing vertically to the horizon H, are specified.
  • the control unit 12 of the camera 1 makes the angle between the horizon (H) and the straight line (S) connecting the two points designated by the user as described above constant ( In this example, control for making both straight lines orthogonal is performed.
  • the two points designated by the input operation of the designation unit 22 are identified by the subject image identification unit 16 as two particular points (S1, S2) in the captured image, and a straight line connecting the codes S1 and S2 S is set.
  • the first calculation unit 18 of the control unit 12 calculates the inclination angle of the straight line S with respect to the horizon H by calculation.
  • the inclination angle of the straight line S with respect to the horizon H is denoted by a symbol ⁇ .
  • the second calculation unit 19 calculates a rotation correction angle for controlling the rotation of the image pickup device rotation unit 13. calculate.
  • the rotation correction angle is the inclination angle ⁇ of the camera 1 with respect to the horizon H of the straight line H2 shown in FIG. 4 (A).
  • image correction is performed by rotating the imaging element 11 by the inclination angle ⁇ .
  • the shake detection unit 15 is operating, and detection of a shake state related to the posture of the camera 1 is performed. Therefore, in addition to the calculation result (inclination angle ⁇ ) of the first calculation unit 18, the calculation by the second calculation unit 19 also takes into consideration the calculation result of the shake detection unit 15 (shake angle in rotational direction) The operation is performed.
  • the rotation correction angle of the image sensor 11 is calculated by this calculation. The rotation correction angle corresponds to the inclination angle ⁇ of the camera 1.
  • the control unit 12 controls the image pickup device rotation unit 13 to rotate the image pickup device 11 mounted on the rotation unit 42 around the rotation axis center Q by a predetermined amount. Control to rotate in the direction by a predetermined amount is performed.
  • the horizon H and the straight line H2 substantially coincide with each other.
  • the camera 1 is in a state of being inclined with respect to the horizon H (inclination angle ⁇ of the camera 1) as shown in FIG. H2 and the horizon H substantially match.
  • the captured image acquired by the imaging device 11, that is, the image displayed on the display unit 14 is a straight line V orthogonal to the horizon H and the above-mentioned designation as indicated by reference numeral 52 in FIG.
  • An image in which a straight line S connecting two points (S1, S2) substantially agrees, specifically, an object to be imaged such as a tower-like building standing upright with respect to the horizon H is erected also on the screen A natural picture of the condition is obtained.
  • FIG. 5 is an explanatory view showing another example of the operation when performing the imaging operation using the imaging device (camera) according to the embodiment of the present invention.
  • the inclination angle with respect to the horizon of a straight line connecting two feature points (for example, two pupils) included in the face of a person or the like as a subject image recognized by the face image determination unit 17 is set in advance
  • FIG. 5A When performing an imaging operation using the camera 1, as shown in FIG. 5A, when the camera 1 is held in the normal use state, a state in which the subject image to be targeted is tilted with respect to the horizon in the screen In the case where the image is obtained, the image acquired by the same camera 1 is in the state as shown in FIG. 5 (B). The situation in this case is described in detail below.
  • a user holds the camera 1 in a normal use state.
  • the subject to be an object is, for example, a living person such as a person or a pet, as shown in FIG. 5B, the subject may be inclined in a rectangular screen.
  • a straight line corresponding to a horizon is indicated by a symbol H.
  • an image displayed on the display screen of the display unit 14 based on the image data acquired by the imaging device 11 of the camera 1 is as shown by reference numeral 53 in FIG. 5 (B).
  • a straight line corresponding to a horizon is denoted by H.
  • a user performs imaging operation by determining a desired composition and timing while viewing a live view image continuously displayed on the display unit 14.
  • the face image determination unit 17 of the control unit 12 of the camera 1 uses the display unit 14 based on the image data acquired by the imaging device 11.
  • the image is automatically determined based on the live view image being displayed.
  • the face image determination unit 17 automatically recognizes a person or the like in the captured image 53, and recognizes two pupils of the recognized person or the like (see FIG. The position of the code E1, E2) in the image is determined.
  • the subject image identification unit 16 Based on the determination result by the face image determination unit 17, the subject image identification unit 16 identifies two specific points (E1, E2) in the captured image, and sets a straight line E connecting the codes E1, E2. .
  • the first calculation unit 18 of the control unit 12 calculates the inclination angle of the straight line E with respect to the horizon H by calculation.
  • the inclination angle of the straight line E with respect to the horizon H is denoted by a symbol ⁇ .
  • the user (user) sets in advance a desired straight line T (see FIG. 5D) in the image 53 being displayed on the display unit 14 in order to correct the inclination angle ⁇ .
  • This straight line T is a setting for correcting the inclination of the face of the subject desired by the user (user) so that the face of the subject is disposed at the desired position in the captured image.
  • It is a reference straight line. Therefore, for setting of the straight line T, a straight line parallel to the horizon H may be set, or a straight line having a predetermined angle with the horizon H may be set arbitrarily.
  • the setting operation of the straight line T serving as the reference conforms to, for example, the operation of specifying two points in the image using the specifying unit 22 in the above-described example.
  • control unit 12 of the camera 1 sets a straight line E connecting two points (E1, E2) automatically specified by the face image determination unit 17 as described above. Control is made to substantially coincide with the straight line T set in advance by an arbitrary setting operation.
  • the first calculation unit 18 of the control unit 12 calculates the inclination angle ⁇ of the straight line E with respect to the horizon H by calculation (see FIG. 5B). Further, the first calculation unit 18 calculates the inclination angle of the straight line T set in advance with respect to the horizon H by calculation. In this example, as shown in FIG. 5D, the inclination angle of the straight line T with respect to the horizon H is ⁇ 2.
  • the second calculation unit 19 is based on the calculation result (inclination angles ⁇ and ⁇ 2) calculated by the first calculation unit 18 and the calculation result (the shake angle of the rotational direction) of the shake detection unit 15.
  • the rotation correction angle ( ⁇ 2) for controlling the rotation of the imaging element rotation unit 13 is calculated by calculation.
  • the control unit 12 controls the image pickup device rotation unit 13 to drive the image pickup device 11 mounted on the rotation unit 42 around the rotation axis center Q by a predetermined amount. Control is performed to rotate in the rotational direction by a predetermined amount. That is, as shown in FIG. 5D, the rotation control of the imaging device 11 is performed so that the horizon H and the straight line T substantially coincide with each other. As a result, as shown in FIG. 5C, the imaging device 11 is disposed at a position that is a straight line T2 inclined by an angle ⁇ 2 with respect to the horizon H.
  • the straight line T2 is a straight line parallel to one side (in this case, the long side) of the frame lines of the rectangular light receiving surface of the imaging device 11 and passing the central point P of the imaging device 11 is T2.
  • the straight line T2 of the rectangular light receiving surface of the imaging device 11 is against the horizon H And held at a position where the inclination angle ⁇ 2 is established.
  • the image acquired by the imaging device 11 in this state and displayed on the display unit 14 connects two points (E1 and E2) specified by two pupils, as an image indicated by reference numeral 54 in FIG. 5D.
  • the straight line E and the straight line T previously set so as to have the inclination angle ⁇ 2 with respect to the horizon H substantially coincide with each other.
  • an image of a desired composition in which the straight line E substantially matches the straight line T in the image 53 is obtained.
  • the two pupils of the face determined by the face image determination unit 17 are automatically specified.
  • the present invention is not limited to this example. Other two points in a part of may be designated.
  • FIG. 6 shows an operation at the time of the imaging operation when the image pickup rotation correction mode is set in the image pickup apparatus (camera) according to the embodiment of the present invention, and shows an example when the shake correction operation is simultaneously performed.
  • FIG. 7 is a flow chart showing a processing sequence corresponding to the operation of FIG.
  • FIG. 6 shows an example of action substantially similar to the example of action described in FIG. 4 described above.
  • the state of performing the rotation correction control of the image sensor 11 in consideration of the shake correction operation (mainly the shake correction in the rotational direction) performed during the imaging operation is described.
  • FIGS. 6A to 6B substantially the same control as that of the operation example described in FIG. 4 described above is performed.
  • FIG. 6A shows the posture of the camera 1 (the posture having a predetermined inclination with respect to the horizon) at the time of performing the imaging operation using the camera 1 and the camera 1 in this state Shows the appearance of the image. In this state, it is assumed that the camera 1 is in the imaging standby state in which the imaging operation can be performed in the activated state, and the imaging rotation correction mode is set.
  • the user When the camera 1 is in the state of FIG. 6 (A), the user (user) is a user of a predetermined subject in the live view image (image 51 of FIG. 6 (A)) displayed on the display unit 14 of the camera 1. An operation of designating a part (two points) is performed using the designating unit 22.
  • a tower-like structure or the like which should be vertically upright with respect to the horizon H, is mainly targeted for imaging. Then, it is assumed that the user (user) desires to acquire a natural image in a state where the tower-like structure is upright in the rectangular image 51 acquired by the camera 1.
  • the user first uses the designation unit 22 to perform a part of a tower-like building as a main imaging target in the image 51, for example, as shown in FIG.
  • the two feature points (S1, S2) shown in 6 (A) are designated (step S11 in FIG. 7).
  • the signals output from the designation unit 22 are output toward the subject image identification unit 16 of the control unit 12 and are identified by the subject image identification unit 16 as two points (S1, S2) in the captured image 51. Then, in the first arithmetic unit 18, a straight line S connecting two points (S1, S2) is set.
  • the user when setting the straight line S, the user (user) specifies the two feature points (S1, S2) by specifying operation, but the present invention is limited to this example. There is nothing to do.
  • the characteristic shape of the subject to be imaged for example, the face or body part (palm, arms, upper body, etc.) or the like of the acquired image of the imaging device 11
  • Automatic recognition of outlines of buildings etc. square buildings, utility poles, towers, bridges etc.
  • typical landscapes horizontal lines, horizons, roads, railways, electric lines etc.
  • a subject in a predetermined area at the center of the screen may be detected as a specific subject, and two points in a part of the subject may be automatically identified by the above-described shape or the like.
  • the first computing unit 18 of the control unit 12 calculates the inclination angle ⁇ of the straight line S with respect to the horizon H (step S12 in FIG. 7).
  • the second calculation unit 19 performs a rotation correction angle for controlling the rotation of the image pickup device rotation unit 13, ie,
  • the inclination angle ⁇ at which the camera 1 is inclined with respect to the horizon H is calculated by calculation (step S13 in FIG. 7).
  • the rotation correction angle (inclination angle ⁇ with respect to the horizon H of the camera 1) is a horizontal straight line of the camera 1, that is, one side (long side) of the frame line of the rectangular light receiving surface of the imaging device 11. ) And the inclination angle of a straight line H2 passing through the center point P of the imaging device 11 with respect to the horizon H.
  • the rotation correction angle (inclination angle ⁇ ) calculated here is a straight line S inclined at an inclination angle ⁇ with respect to the horizon H, a straight line V orthogonal to the horizon H (an angle of 90 degrees with respect to the horizon H Points to an angle at which the image sensor 11 is rotated in order to coincide with the straight line).
  • the control unit 12 drives and controls the imaging element rotation unit 13 based on the rotation correction angle (inclination angle ⁇ ) calculated in the process of step S13.
  • the image pickup device 11 mounted on the rotation unit 42 rotates around the rotation axis center Q by a predetermined rotation amount in a predetermined rotation direction. Specifically, in FIG. 6A, the imaging element 11 is rotated counterclockwise by the angle ⁇ around the rotation axis center Q (step S14 in FIG. 7).
  • the user performs a preparation operation for performing a desired imaging operation, for example, after performing operations such as composition, exposure adjustment, focus adjustment, etc.
  • the camera 1 starts an actual imaging operation (step S15 in FIG. 7).
  • the release signal is generated at the timing between FIG. 6 (A) and FIG. 6 (B) (see the symbol Start).
  • the imaging operation started by the release signal ends at the timing after FIG. 6 (D) (see the symbol End).
  • an exposure time (a time according to the set shutter speed) is defined as the interval between the above-mentioned sign Start and the above-mentioned sign End. It shows by.
  • FIGS. 6 (B) to 6 (D) The operations of the control unit 12 and the imaging device rotation unit 13 after the start of the imaging operation will be described with reference to FIGS. 6 (B) to 6 (D).
  • 6 (B) to 6 (D) among the actions during the imaging operation of the present camera 1, an imaging element rotation unit including a shake correction operation that occurs during the operation of the shutter device with the set shutter speed value. Thirteen rotation correction control is performed. In the present example, blur correction in the rotational direction of the imaging device is mainly considered.
  • the drive control of the imaging element rotation unit 13 is continuously performed such that a desired composition is maintained in the image 51 by the control process related to the rotation correction up to the above-described step S14.
  • the imaging device 11 is made horizontal with respect to the horizon H regardless of the inclination attitude of the camera 1 with respect to the horizon H.
  • the image 52 being displayed on is a natural image in a state in which the tower-like structure to be imaged is upright, and the state is maintained continuously.
  • the posture of the camera 1 slightly changes from the state shown in FIG. 6 (B) to the state shown in FIG. 6 (C).
  • the camera 1 in the state of FIG. 6 (B), the camera 1 is in a state of being inclined with respect to the horizon H with the inclination angle ⁇ , and in order to correct this inclination, the imaging device 11 is predetermined by the same angle ⁇
  • the rotation is controlled in the direction (counterclockwise in the figure).
  • the horizon H and the straight line H2 of the imaging device 11 substantially coincide with each other, and hence the imaging device 11 is horizontal to the horizon H The state is maintained.
  • the straight line H3 shown in FIG. 6B indicates a straight line parallel to the straight line along the bottom surface of the camera 1.
  • the camera 1 is inclined with respect to the horizon H at the inclination angle ⁇ of the straight line H3.
  • the shake detection unit 15 detects the rotation angle of the camera 1, that is, the inclination angle ⁇ 2 of the straight line H3 with respect to the horizon H of the camera 1 (step S16 in FIG. 7).
  • control unit 12 performs drive control of the imaging element rotation unit 13 to rotate the imaging element 11 in a predetermined rotation direction by a predetermined angle (step S18 in FIG. 7).
  • the image based on the image data acquired by the imaging device 11 the image 52 in the completely same state as the image 52 of FIG. 6B is continuously acquired.
  • step S19 in FIG. 7 it is checked whether the imaging operation has ended (step S19 in FIG. 7), and if it is confirmed that the imaging operation has ended, a series of processing sequences are ended. If the imaging operation is continuing, the process returns to the process of step S16 described above, and the same process is repeated thereafter.
  • the shake detection unit 15 detects the rotation angle of the camera 1 (the inclination angle ⁇ 3 of the straight line H3 with respect to the horizon H of the camera 1). Rotational shake correction is performed based on the detected value.
  • the specific procedure is as described in the processes of steps S16 to S18 described above. As a result, as the image based on the image data acquired by the imaging device 11, an image in the completely same state as the image of FIG. 6C is continuously acquired.
  • the rotation correction control of the image pickup device 11 is performed by the image pickup device rotation unit 13 so that the horizontal state of the image pickup device 11 is constantly maintained. It will be.
  • the rotation correction control of the imaging element 11 taking into consideration the shake correction operation (mainly shake correction in the rotational direction) performed during the imaging operation is performed. It explains how to do it.
  • the image connecting the two points of the feature points of the desired subject in the image is inclined at a specified angle with respect to the horizon, thereby acquiring the image of the composition intended by the user (user). This is an example of the case of
  • FIGS. 8A to 8B substantially the same control as that of the operation example described in the above-described example of FIG. 6 is performed.
  • two points of the subject are specified, and the image sensor 11 is controlled so that a straight line connecting the two points is an image that stands upright in the image.
  • the image sensor 11 is rotated so as to obtain an image having a composition that is arbitrarily specified by the user (user) and is substantially parallel to the straight line T having a predetermined inclination with respect to the horizon in the image. Control is made.
  • the posture of the camera 1 (the posture kept horizontal to the horizon) when performing the imaging operation using the camera 1 and the camera 1 in this state It shows the appearance of the image to be acquired.
  • the camera 1 is in the imaging standby state in which the imaging operation can be performed in the activated state, and the imaging rotation correction mode is set.
  • the user When the camera 1 is in the state of FIG. 8 (A), the user (user) is a user of a predetermined subject in the live view image (image 51 of FIG. 8 (A)) displayed on the display unit 14 of the camera 1.
  • An operation of designating a part (two points; S1, S2) is performed using the designating unit 22. This operation is similar to the operation described with reference to FIG.
  • a straight line having an inclination of a predetermined angle with respect to the horizon H in order to set how a desired main subject (here, a tower-like structure) is to be arranged in the image.
  • Set T These settings are performed by the first arithmetic unit 18 based on the operation using the designation unit 22. Then, the first arithmetic unit 18 calculates an inclination angle ⁇ 1 of the straight line S with respect to the horizon H and an inclination angle (90 degrees + ⁇ 2) of the straight line T with respect to the horizon H.
  • the second arithmetic unit 19 is provided with a rotation angle for controlling the rotation of the image sensor rotation unit 13, that is, for realizing the composition in which the straight line S is parallel to the straight line T.
  • the rotation angle ⁇ (see FIG. 8B) is calculated by calculation.
  • the rotation angle ⁇ of the imaging device 11 is a straight line V1 orthogonal to the straight line H on the light receiving surface of the imaging device 11 corresponding to the horizon and a straight line T1 on the light receiving surface of the imaging device 11 corresponding to the straight line T. It is an angle to make.
  • the control unit 12 starts an actual imaging operation in response to the release signal.
  • the release signal is generated at the timing between FIG. 8 (B) and FIG. 8 (C) (see the symbol Start). Further, at the timing after FIG. 8E, the imaging operation started by the release signal is completed (refer to the symbol End). Then, an exposure time (a time according to the set shutter speed) is defined as the interval between the above-mentioned code Start and the above-mentioned code End. It shows by.
  • This exposure time Exp. 8 (C) to 8 (E) the control unit 12 of the camera 1 executes an imaging operation and performs imaging including a shake correction operation that occurs during that period.
  • the rotation correction control of the element rotation unit 13 is performed.
  • the control unit 12 continues the drive control of the imaging element rotation unit 13 so as to maintain the composition of the image 52 shown in FIG. 8 (B).
  • the release operation is performed to start the imaging operation, whereby the shutter device starts to operate.
  • the user user keeps holding the camera 1 in the same posture, camera shake or the like due to hand-held imaging occurs.
  • the camera shake and the like are always detected by the camera shake detection unit 15.
  • the rotational shake rotating around the optical axis O is noted, and the simultaneous shift direction blur is generally known. It is assumed that correction control is performed by a shake correction mechanism, and the description and illustration thereof will be omitted.
  • the posture of the camera 1 slightly changes from the state shown in FIG. 8 (B) to the state shown in FIG. 8 (C). That is, during this period, the camera 1 rotates clockwise from the state of FIG. 8B, and as shown in FIG. 8C, the camera 1 is in a state of being inclined with respect to the horizon H by the inclination angle ⁇ .
  • the image pickup device 11 is controlled to rotate in a predetermined direction (counterclockwise in the figure) by the same angle ⁇ . Thereby, the same composition as FIG. 8 (B) is maintained also by the image 52 obtained in the state of FIG. 8 (C).
  • the posture of the camera 1 slightly changes from the state shown in FIG. 8C to the state shown in FIG. During this period, the camera 1 rotates counterclockwise from the state shown in FIG. 8C, and as shown in FIG. 8D, the camera 1 is in a state inclined at an inclination angle ⁇ 1 with respect to the horizon H.
  • the image sensor 11 is controlled to rotate in the predetermined direction (clockwise in the figure) by the same angle ⁇ 1. Thereby, the same composition as FIG. 8 (B) and FIG.8 (C) is maintained also by the image 52 obtained in the state of FIG. 8 (D).
  • the exposure time Exp Even during the period shown in, the rotational drive control by the imaging device rotation unit 13 is continuously performed according to the detection result of the shake detection unit 15, so that the image 52 maintaining the desired composition is obtained.
  • the rotation correction control of the image pickup device 11 is performed by the image pickup device rotation unit 13 and the tilt state of the image pickup device 11 is set. As always, control is performed to keep the desired composition.
  • FIG. 10 is a flow chart showing a processing sequence corresponding to the operation of FIG.
  • FIG. 9A shows the posture of the camera 1 when performing an imaging operation using the camera 1 (the posture of the normal use state held horizontally to the horizon H) and the camera 1 in this state.
  • the image 51 is shown.
  • the camera 1 is in the imaging standby state in which the imaging operation can be performed in the activated state, and the imaging rotation correction mode is set.
  • the face image determination unit 17 recognizes a predetermined subject image such as a human face from an image based on image data acquired by the imaging device 11. Based on the subject image (a face of a person or the like) recognized by the face image determination unit 17, the subject image identification unit 16 determines two feature points (for example, two pupils or the like; E1, E2) included in the subject. Is specified, and a straight line E connecting the two feature points (E1, E2) is set (step S21 in FIG. 10). In response to this, the first calculation unit 18 of the control unit 12 calculates the inclination angle of the straight line E with respect to the horizon H by calculation. In the example illustrated in FIG. 9A, the inclination angle of the straight line E with respect to the horizon H is denoted by a symbol ⁇ .
  • the user sets a straight line T as a reference for setting how a desired main subject (here, a person in the image 51) is arranged in the image.
  • the setting of the straight line T is performed by a predetermined operation of the designation unit 22 by the user. Specifically, for example, when the user (user) designates desired two points in the image using the designation unit 22, the control unit 12 generates an image of a straight line T connecting the designated two points based on the designation input. Set in And the angle with respect to the horizon H of the set straight line T is set by calculation.
  • a menu screen is called using an existing operation member, and a desired angle value is selected and set from a preset setting angle table. Good.
  • the straight line T is set as shown in FIG. 9B, and the inclination angle ⁇ of the straight line T with respect to the horizon H is set (step S22 in FIG. 10).
  • the image pickup device rotation unit 13 in this example controls the rotational drive control of the image pickup device 11 so that the straight line E and the straight line T substantially match in the screen of the image 52. It will be done.
  • FIG. 9B shows a state after the correction process in which the rotational drive control is performed. That is, in FIG. 9B, a straight line E indicated by an alternate long and short dash line indicates the straight line E in the state before correction, that is, in the state of FIG. 9A.
  • straight lines (symbols T and E) indicated by solid lines in the same figure indicate a state in which the straight lines T and E substantially coincide with each other.
  • the inclination angle with respect to H is ⁇ on the horizon of straight lines T and E indicated by solid lines.
  • this angle ⁇ 1 is taken as a first correction angle.
  • this angle ⁇ is set as a second correction angle (step S23 in FIG. 10).
  • a straight line E connecting two feature points (E1 and E2) of the subject image in the image 53 is a straight line having an inclination of ⁇ minus ⁇ 1 with respect to the straight line H1 parallel to the horizon H.
  • the negative inclination is an inclination rotated clockwise in FIG. 9C with respect to the straight line H1 parallel to the reference horizon H.
  • This angle - ⁇ 1 is set as the third correction angle (step S24 in FIG. 10).
  • the control unit 12 performs the first correction Based on the angle ⁇ 1, the second correction angle ⁇ , and the third correction angle ⁇ 1, the correction angle ⁇ for rotation correction control of the image pickup device 11 is calculated (step S25 in FIG. 10), and the calculation result (correction angle ⁇ The rotational drive of the image pickup device 11 is executed based on the above (step S26 in FIG. 10). Thereby, an image 52 of a composition desired by the user (user) is obtained.
  • a user performs a release operation to start an imaging operation at a desired timing.
  • the control unit 12 starts an actual imaging operation (step S27 in FIG. 10).
  • the control unit 12 of the main camera 1 performs the same processing as the processing of steps S23 to S26 of FIG. 10 described in the processing of steps S28 to S31 of FIG.
  • the rotational drive control of the imaging element 11 is performed so as to keep the user's (desired) desired composition.
  • step S32 in FIG. 10 the control unit 12 confirms whether the imaging operation has ended, and when it is confirmed that the imaging operation has ended, the series of operations is ended. Return to shooting standby. If the end of the imaging operation is not confirmed, that is, if the imaging operation is continuing, the process returns to the process of step S28 described above, and the subsequent processes are repeated.
  • FIG. 11 is a flowchart showing a processing sequence in the case of performing rotational drive control of the imaging device by predicting the movement of the subject and camera shake in the camera of this embodiment.
  • the processing sequence shown in FIG. 11 is basically substantially the same as the processing sequence described in FIG. 10 above, but when calculating the correction amount when performing rotational drive control of the imaging device, the processing sequence shown in FIG. The difference is that calculation is performed to predict movement and camera shake. Therefore, the same processing steps as those in the flowchart of FIG. 10 described above are denoted by the same step numbers, and detailed descriptions thereof will be omitted.
  • control unit 12 starts an actual imaging operation in response to the release signal (step S27 in FIG. 10 and FIG. 11). ).
  • the control unit 12 detects the shake angle ⁇ in the rotational direction of the camera 1 based on the signal from the shake detection unit 15 in the process of step S28. Based on the detection result (rotation shake angle ⁇ ) by the shake detection unit 15, for example, the second calculation unit 19 of the control unit 12 calculates the rotation shake angle prediction value ⁇ ′ by calculation (step S41 in FIG. 11). ).
  • a rotation angle (inclination angle) ⁇ with respect to the horizon H of a straight line E connecting two points (E1, E2) of the subject is calculated by the first arithmetic unit 18 (step S42 in FIG. 11).
  • the second calculation unit 19 of the control unit 12 calculates a rotation angle predicted value ⁇ ′ by calculation (step S43 in FIG. 11).
  • the control unit 12 calculates the correction angle ⁇ for the rotation correction control of the imaging device 11 based on the rotation shake angle prediction value ⁇ ′ and the rotation angle prediction value ⁇ ′ thus obtained (Step S44 in FIG. 11).
  • the rotational drive of the imaging device 11 is executed based on the calculation result (correction angle ⁇ ) (step S45 in FIG. 11). As a result, an image of a composition desired by the user (user) is obtained.
  • step S32 in FIG. 11 the control unit 12 confirms whether the imaging operation has ended, and if it is confirmed that the imaging operation has ended, the series of operations ends. Return to shooting standby. If the end of the imaging operation is not confirmed, that is, if the imaging operation is continuing, the process returns to the process of step S28 described above, and the subsequent processes are repeated.
  • the imaging device 11 is configured to be rotatable around the optical axis, and rotational drive control of the imaging device 11 is appropriately performed at predetermined timing. Also, in this case, rotational drive control of the image sensor 11 is performed in consideration of the change of the subject in the image which occurs during the imaging operation, for example, the movement of the subject itself and the posture change of the camera 1, that is, camera shake. I have to.
  • a desired object of the objects included in the image is parallel to the horizon in the rectangular image. It is possible to easily acquire an image of a desired composition that is arranged to be maintained at a constant angle with respect to a straight line.
  • the camera 1 of the present embodiment it is possible to easily acquire an image of a stable composition or an image of a desired composition intended by the user (user).
  • an input operation by the designation unit 22 or an automatic recognition technique by the face image determination unit 17 Is used.
  • the following means can be considered as to which subject is designated.
  • the user manually selects and designates a desired subject
  • the face of the subject automatically recognized by the face image determination unit 17 is automatically specified based on the face image registered in advance in a database unit (for example, a recording unit etc .; not shown) in the camera.
  • a database unit for example, a recording unit etc .; not shown
  • the face of the subject whose in-focus state is the sharpest is automatically specified.
  • the subject closest to the camera (the foremost) is automatically designated.
  • an image such as a so-called group photograph in which people are gathered can be considered, but in this case, there is an advantage that the most failure can be avoided.
  • an image that can be determined by the face image determination unit 17 is not limited to only a face such as a person, and, for example, shape recognition of an object or the like is also possible. Therefore, in the case of a subject that can not be identified, a method is also used in which even characteristic features of the subject, for example, a subject with a high contrast area, a subject with a high saturation area, etc. are preferentially recognized automatically. Good. Further, in a landscape image or the like, for example, a horizontal line or a horizon may be recognized, and a characteristic image area may be recognized on the basis of this.
  • the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications and applications can be made without departing from the scope of the invention.
  • the above embodiments include inventions at various stages, and various inventions can be extracted by appropriate combinations of a plurality of disclosed configuration requirements. For example, even if some of the configuration requirements are removed from all the configuration requirements shown in the above embodiment, this configuration requirement is eliminated if the problem to be solved by the invention can be solved and the effects of the invention can be obtained.
  • the configuration that has been made can be extracted as the invention.
  • the invention is not limited by the specific embodiments thereof, except as limited by the appended claims.
  • the present invention is not limited to a photographing device which is an electronic device specialized for a photographing function such as a digital camera, and another form of electronic device having a photographing function, for example, a mobile phone, a smart phone, a recording device, an electronic notebook
  • a photographing device which is an electronic device specialized for a photographing function such as a digital camera
  • another form of electronic device having a photographing function for example, a mobile phone, a smart phone, a recording device, an electronic notebook
  • the present invention can be widely applied to various electronic devices with a photographing function, such as personal computers, tablet terminals, game devices, portable televisions, watches, navigation devices using a GPS (Global Positioning System), and the like.
  • GPS Global Positioning System
  • the present invention can be similarly applied to an electronic device having a function of acquiring an image using an imaging element and displaying the acquired image on a display device, such as observation devices such as a telescope, binoculars, and a microscope.

Abstract

本発明の撮像装置1は、保持部42に保持された撮像素子11をカメラ本体10に対して回転させる回転駆動部21と、画像データに基づき画像を表示する表示部14と、地平線Hに対する撮像素子のブレ角度を検出するブレ検出部15と、表示部に表示中の特定の被写体像の2点を特定する被写体像特定部16と、特定された被写体像の2点を結ぶ直線の地平線に対する傾き角度を演算する第1の演算部18と、傾き角度とブレ角度とに基づき回転駆動部が保持部を回転補正する回転補正角度を演算する第2の演算部19とを備え、第2の演算部により演算された回転補正角度に基づき撮像素子を地平線に対して一定に保持するように構成した。

Description

撮像装置及び撮像装置の制御方法
 この発明は、撮像素子を光軸周りに回転駆動させる構成を具備した撮像装置及び撮像装置の制御方法に関するものである。
 従来、撮像光学系により結像された光学像を、例えばCCD(Charge Coupled Device;電荷結合素子)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor;相補性金属酸化膜半導体)型イメージセンサー等の光電変換素子等(以下、撮像素子という)を用いて順次画像信号に変換し、これにより得られた画像信号を所定の形態の画像データとして記録媒体に記録し得ると共に、この記録媒体に記録された画像データを画像として再生表示する画像表示装置、例えば液晶表示装置(LCD)等を備えて構成された撮像装置、例えばデジタルカメラやビデオカメラ等が一般に実用化され広く普及している。
 また、この種の撮像装置においては、光学像の像ブレ、例えば光軸に直交する面内のシフトブレに加えて、さらに光軸周りの回転方向(ロール方向)のブレを補正するための像ブレ補正機構を備えたものが、例えば特開2012-137749号公報,特開2011-95467号公報等によって、種々提案され、また実用化されている。
 上記特開2012-137749号公報,特開2011-95467号公報等によって開示されている撮像装置は、光軸周りの回転方向(ロール方向)のブレ補正を行うために、光軸周りの回転方向(ロール方向)への自装置の動きに応じて撮像素子を、回転を相殺する方向に回転させる回転駆動手段を具備して構成されている。
 ところが、上記特開2012-137749号公報,上記特開2011-95467号公報等によって開示されている手段は、撮像装置側のブレ、例えば撮像装置の光軸周りの回転を検出して、回転ブレ補正を行うものであって、被写体側の回転ブレ等を検出しているわけではない。したがって、このような従来の構成のものでは、例えば被写体自体が撮像装置に対して傾いた状態になっている場合等には、補正動作がなされることがない。その場合には、画面内において被写体が傾いた状態のまま撮像されてしまうことになる。
 具体的には、例えば、地平線に対して垂直に直立しているタワー状の建造物等を撮像する場合において、撮像画面(矩形状画面)長辺若しくは短辺に対して傾いた状態のまま撮像が行なわれると、撮像画面内における建物等が矩形状画面の長辺若しくは短辺に対して傾いた状態で撮像されてしまうという問題点がある。
 本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、撮像を行う際に撮像装置若しくは撮像対象物のいずれかもしくは両方が地平線若しくは水平線に対して傾いた状況となっていても、常に安定した構図若しくは使用者(ユーザ)の意図する構図の画像を簡単に取得することができるようにした撮像装置及び撮像装置の制御方法を提供することである。
 上記目的を達成するために、本発明の一態様の撮像装置は、保持部に保持された撮像素子をカメラ本体に対して回転させる回転駆動部と、上記撮像素子からの画像データに基づいて撮像画像を表示する表示部と、地平線に対する上記撮像素子のブレ角度を検出するブレ検出部と、上記表示部に表示されている撮像画像において特定の被写体像の2点を特定する被写体像特定部と、上記被写体像特定部によって特定された上記被写体像の2点を結ぶ直線が上記地平線に対して傾いている傾き角度を演算する第1の演算部と、上記第1の演算部によって演算された傾き角度と上記ブレ検出部によって検出された上記ブレ角度とに基づいて、上記回転駆動部が上記保持部を回転補正するための回転補正角度を演算する第2の演算部とを具備し、上記第2の演算部によって演算された上記回転補正角度に基づいて、上記撮像素子を上記地平線に対して一定に保持するようにした。
 また、本発明の一態様の撮像装置の制御方法は、撮像素子からの画像データに基づいて撮像画像を表示し、上記撮像画像内の特定の被写体像の2点を特定し、地平線に対する上記撮像素子のブレ角度を検出し、上記特定された上記被写体像の2点を結ぶ直線の上記地平線に対する傾き角度を演算し、上記傾き角度と上記ブレ角度とに基づいて上記撮像素子を回転補正するための回転補正角度を演算し、上記回転補正角度に基づいて、上記撮像素子をカメラ本体に対して回転させることにより、上記撮像素子を上記地平線に対して一定の傾きとなるように保持する。
 本発明によれば、撮像を行う際に撮像装置若しくは撮像対象物のいずれかもしくは両方が地平線若しくは水平線に対して傾いた状況となっていても、常に安定した構図若しくは使用者(ユーザ)の意図する構図の画像を簡単に取得することができるようにした撮像装置及び撮像装置の制御方法を提供することができる。
本発明の一実施形態の撮像装置(カメラ)の概略構成を示すブロック構成図 図1の撮像装置(カメラ)における撮像素子回転ユニットの正面を示す概略構成図 図2の[3]-[3]線に沿う断面であって、撮像素子回転ユニットのみの断面を示す図 図1の一実施形態の撮像装置(カメラ)を用いて撮像動作を行う際の作用の一例を示す説明図 図1の一実施形態の撮像装置(カメラ)を用いて撮像動作を行う際の作用の他の一例を示す説明図 図1の一実施形態の撮像装置(カメラ)において、撮像時回転補正モードに設定した場合の撮像動作時の作用を示し、加えてブレ補正動作が同時に行われる場合の例を示す説明図 図6の作用に対応する処理シーケンスを示すフローチャート 図1の一実施形態の撮像装置(カメラ)において、撮像動作中に行なわれるブレ補正動作(主に回転方向のブレ補正)を考慮した撮像素子の回転補正制御を行う様子を示し、画像中の所望の被写体の特徴点の2点を結ぶ直線が地平線に対して指定角度を持って傾く設定により、使用者(ユーザ)の意図する構図の画像を取得する場合の例の説明図 図1の一実施形態の撮像装置(カメラ)において、顔画像判定部によって認識された被写体像(人物等の顔)に含まれる2点の特徴点(例えば2つの瞳等)を結ぶ直線の地平線に対する傾き角度を予め設定した角度となるように一定に保持するための撮像素子の回転補正制御の例を示し、さらに、被写体の動きに合わせて撮像素子の回転補正制御を行ない、かつ撮像動作中のカメラ姿勢の変位によって生じる手ブレに応じたブレ補正動作(主に回転方向のブレ補正)をも考慮した撮像素子の回転補正制御を行う様子を示す説明図 図9の作用に対応する処理シーケンスを示すフローチャート 図1のカメラにおいて、被写体の動きや手ブレを予測して撮像素子の回転駆動制御を行なう場合の処理シーケンスを示すフローチャート
 以下、図示の実施の形態によって本発明を説明する。本発明の一実施形態は、例えば光学レンズにより形成される光学像を固体撮像素子を用いて光電変換し、これによって得られる画像信号を静止画像又は動画像を表わすデジタル画像データに変換し、こうして生成されたデジタルデータを記録媒体に記録し、また記録媒体に記録されたデジタル画像データに基いて静止画像又は動画像を表示装置に再生表示し得るように構成されるデジタルカメラ等の撮像装置(以下、単にカメラという)に適用した場合の例示である。
 なお、以下の説明に用いる各図面においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせて示している場合がある。したがって、本発明は、これらの図面に記載された構成要素の数量,構成要素の形状,構成要素の大きさの比率及び各構成要素の相対的な位置関係は、図示の形態のみに限定されるものではない。
 図1は、本発明の一実施形態の撮像装置(カメラ)の概略構成を示すブロック構成図である。図2,図3は、本実施形態の撮像装置(カメラ)における撮像素子回転ユニットの概略構成を示す概念図である。このうち図2は、撮像装置(カメラ)の正面図を示す。図3は、図2の[3]-[3]線に沿う断面であって撮像素子回転ユニットのみの断面を示す。
 本実施形態の撮像装置であるカメラ1は、図1に示すように、カメラボディ10と、レンズ鏡筒30とによって構成されている。カメラ本体であるカメラボディ10は、撮像素子11と、制御部12と、撮像素子回転手段である撮像素子回転ユニット13と、表示部14と、指定部22と、ブレ検出部15等を有して構成されている。レンズ鏡筒30は、撮像光学系31と、その保持枠部材や駆動機構等によって構成されている。
 なお、本発明を適用し得るカメラ1の形態としては、カメラボディ10とレンズ鏡筒30とはそれぞれ別体で構成し、カメラボディ10に対してレンズ鏡筒30を着脱自在とするいわゆるレンズ交換可能な形態であってもよいし、カメラボディ10とレンズ鏡筒30とを一体に構成した形態であってもよい。
 レンズ鏡筒30において撮像光学系31は、複数の光学レンズ等によって構成されている。上記撮像光学系31を構成する複数の光学レンズ等は、図示を省略しているが、それぞれが保持枠部材等によって保持されている。そして、これら各保持枠部材等は、各光学レンズ等の光軸に沿って並べて配置されている。また、上記各保持枠部材等のうちの一部は、光軸に沿う方向に進退移動可能に構成されている。そのために、上記レンズ鏡筒30内には、上記各保持枠部材等を駆動するための不図示の駆動機構及びその駆動制御を行うレンズ制御部等を有して構成されている。なお、本実施形態のカメラ1におけるレンズ鏡筒30の構成は、従来一般的な構成の撮像装置(カメラ)に適用されるレンズ鏡筒と略同様の構成を具備するものとし、その詳細構成の図示及び説明は省略する。
 カメラボディ10における撮像素子11は、上記レンズ鏡筒30の撮像光学系31によって結像された光学像、即ち撮像対象とする被写体の光学像である被写体像を受けて光電変換し画像信号を取得する光電変換素子である。そのために、撮像素子11は、上記レンズ鏡筒30(の撮像光学系31)の光軸Oに対して略直交する平面内であって、上記撮像光学系31により結像される被写体像の結像面と略一致する部位に配設されている。なお、撮像素子11としては、例えばCCD(Charge Coupled Device;電荷結合素子)等の半導体素子を用いたCCDイメージセンサーや、CMOS(Complementary Metal Oxide Semiconductor;相補性金属酸化膜半導体)等を用いた固体撮像素子であるMOS型イメージセンサー等が適用されている。
 制御部12は、本カメラ1の全体を統括する制御回路等を有し、例えばCPU(Central Processing Unit;中央処理演算装置)等が適用される。本実施形態のカメラ1に適用される制御部12は、一般的な制御回路等のほかに、被写体像特定部16と、顔画像判定部17と、第1の演算部18と、第2の演算部19等の回路部を、特に有して構成されている。
 制御部12において被写体像特定部16は、撮像素子11により取得された画像データに基づいて表示部14に表示中の撮像画像のうち特定の被写体像に含まれる少なくとも2点の画像領域(特徴点)を特定する回路部である。詳細は後述するが、具体的には、例えば使用者(ユーザ)が所定の操作部材(不図示)若しくは指定部22(詳細後述)等を用いて表示部14に表示中の画像領域のうちから任意に指定する操作指示を受けて、被写体像特定部16は画像中の2点(特徴点)を特定する。なお、被写体像特定部16には上記指定部22が含まれる形態の構成であってもよい。
 顔画像判定部17は、撮像素子11によって取得された画像データに基づいて表示される画像領域内に人物若しくはペット等の動物等の顔等を表す領域を自動的に識別する所謂顔認識技術を利用する画像判定回路である。なお、この顔画像判定部17は、上記被写体像特定部16に含めた形態の構成であってもよい。
 第1の演算部18,第2の演算部19は、本カメラ1における撮像素子回転ユニット13を駆動制御するための所定の演算を行う回路部である。具体的には、例えば第1の演算部18は、上記被写体像特定部16によって特定された被写体像に含まれる2点の特徴点を表示中の画像領域内において結ぶ直線の地平線若しくは水平線等(以下、単に地平線と略記する)に対する傾き角度を演算により算出する回路部である。また、第2の演算部19は、例えば上記第1の演算部18によって演算された演算結果(傾き角度)と、ブレ検出部15(後述)によって検出された演算結果(ブレ角度)とに基づいて、撮像素子回転ユニット13を回転駆動制御するための回転補正角度を演算により算出する回路部である。
 表示部14は、撮像素子11によって取得され、同撮像素子11から出力された画像データに基づいて撮像画像を表示する構成部である。表示部14としては、例えば液晶表示装置(Liquid Crystal Display Device)や有機エレクトロルミネッセンス(有機EL;Organic Electro-Luminescence)ディスプレイ装置等が適用される。
 指定部22は、上記表示部14に表示中の画像内の所望の位置を指定するための位置入力装置である。この指定部22としては、例えば表示部14の表示画面上に重畳させて設けられ、使用者(ユーザ)が手指等を用いてタッチ操作やスライド操作等を受け付けるいわゆるタッチパネル等が適用される。また、指定部22としては、上記タッチパネルの他にも、従来の形態のカメラに設けられる操作部材、例えば、画面内の上下左右の位置を指示指定し得る四方向指示操作部材(いわゆる十字キー等),ダイヤル指示操作部材等や、シャッターレリースボタンの半押し操作等を適用することも可能である。
 ブレ検出部15は、地平線に対する撮像素子11のブレ角度、例えば光軸周りの回転角度や、光軸に対して直交する面内における上下方向若しくは左右方向のシフト量(ズレ量)や、光軸に対して直交する二軸(X軸及びY軸)周りの各回転角度等を検出する回路部である。ブレ検出部15としては、加速度センサや角速度センサ,振動ジャイロセンサ等が適用される。なお、ブレ検出部15、それ自体は従来一般に実用化され普及しているブレ検出機構等と全く同様のものが適用されているものとし、その詳細構成は省略する。
 撮像素子回転手段である撮像素子回転ユニット13は、可動部回転角検出手段20と回転駆動部21とを有して構成されている。上記回転駆動部21は、撮像素子11をカメラボディ10に対してレンズ鏡筒30の光軸O周りに回転させる構成ユニットである。また、可動部回転角検出手段20は、上記回転駆動部21の可動部の光軸周りの回転角度を検出する検出センサである。
 上記回転駆動部21は、図2,図3に示すように、固定部41と、回転部42と、回転軸43と、コイル44及び磁石45からなるボイスコイルモータ(VCM)等によって主に構成されている。
 固定部41は、カメラボディ10の内部固定部分に固設され、上記回転駆動部21の基礎部分をなす構成部材である。この固定部41には、回転軸43が光軸Oに沿って、かつ当該固定部41に対して回転自在に植設されている。
 上記回転軸43の先端部には、回転部42が固設されている。この回転部42は、全体として略円盤形状に形成されていて、かつ、その外周縁部の一部には径方向に突出した凸部42aを有して構成されている。この回転部42には撮像素子11が保持されている。このことから、当該回転部42は、撮像素子11を保持する保持部となっている。この場合において、上記回転部42に保持される撮像素子11の受光面の中心点Pと、光軸Oと、上記回転軸43の回転軸中心Qが略一致するように設定されている(図2,図3参照)。また、撮像素子11は、通常の場合、矩形状の受光面を有しているものである。そこで、本実施形態のカメラ1における撮像素子11は、その受光面の枠線のうち例えば水平方向に延びる辺(長辺)が地平線に平行となるように、かつ同受光面の短辺が鉛直方向に平行となるように、上記回転部42上に固定保持されている。
 また、回転部42の上記凸部42aには、ボイスコイルモータの一部を構成する磁石45が配設されている。これに対応させて、上記固定部41側には、上記磁石45に対向する部位にボイスコイルモータの他の一部を構成するコイル44が配設されている。この構成により、コイル44に対して適宜所定のタイミングで通電すると、上記磁石45との作用によって、上記回転部42が回転軸43を回転中心として所定方向に回動するように構成されている。
 なお、コイル44と磁石45との配置は、上記の例に限られることはなく、逆の配置、即ち回転部42側にコイル44を設け、固定部41側に磁石45を配設する構成であってもよい。
 また、上述したように、回転部42の外周縁部に凸部42aを設け、この凸部42aには磁石45(又はコイル44)を配設した構成としている。この場合において、撮像素子回転ユニット13が配設されたカメラ1を通常使用時の姿勢状態(例えば図2に示すように地平線に対してカメラ1を水平に保持した状態)としたときに、回転軸43の回転軸中心Q(光軸O,撮像素子11の中心点P)を通りカメラ1の鉛直方向に延ばした線上に、上記凸部42aが配設されるように回転部42を形成している。この構成により、カメラ1を図2に示す通常使用状態としたときには、例えばコイル44に通電していない状態にあっても回転部42の凸部42aは、常に鉛直方向の所定の位置に配置されるように構成されている。したがって、撮像素子11の矩形状の受光面の枠線のうち水平方向の辺(長辺)が地平線に平行となるように、かつ短辺が鉛直方向に平行となるように、撮像素子11の配置が維持されるように構成されている。
 また、カメラ1が使用状態にあるときには、例えばカメラ1が使用者(ユーザ)の手振れ等に起因してカメラ1の姿勢にブレが生じたとしても、制御部12は、第2の演算部19によって演算された回転補正角度に基づいてコイル44への通電を行って回転部42を駆動制御する。この作用によって、撮像素子11は、その受光面の枠線のうち、例えば水平方向の辺(長辺)に平行な直線が地平線に対して常に一定の角度を保持するように制御される。
 なお、この場合における「一定の角度を保持する制御」とは、例えば地平線に対して撮像素子11の矩形状の受光面の枠線のうちの一辺(例えば水平方向の辺(長辺))が平行となるよう(他辺(短辺)が地平線に直交するよう)に、即ち地平線と撮像素子11の枠線の一辺(長辺)とが略一致する角度(0度)を保持する設定制御が考えられる。
 また、「一定の角度を保持する制御」の別の例としては、使用者(ユーザ)が上記指定部22を用いて指定して上記被写体像特定部16によって特定された被写体像に含まれる2点(特徴点)を結ぶ直線の地平線に対する傾き角度を、規定の若しくは任意に設定した所定の角度となるように画像を保持するための撮像素子11の回転補正制御がある(詳細後述。図4参照)。
 さらに、「一定の角度を保持する制御」の他の例示としては、顔画像判定部17によって認識された被写体像としての人物等の顔に含まれる2点(例えば2つの瞳等)を結ぶ直線の地平線に対する傾き角度を、規定の若しくは任意に設定した所定の角度となるように画像を保持するための撮像素子11の回転補正制御がある(詳細後述。図5参照)。
 なお、カメラボディ10及びレンズ鏡筒30は、上述した構成部以外にもその他の各種構成ユニット等を有して構成されているものであるが、上述していない構成ユニット等は、本発明に直接関連しない構成である。したがって、それらの構成部については、従来の一般的なカメラと同様の構成を具備するものとして、その説明及び図示を省略する。
 次に、本発明の一実施形態のカメラ1を用いて撮像動作を行う際の作用の概念を、以下に説明する。図4は、本発明の一実施形態の撮像装置(カメラ)を用いて撮像動作を行う際の作用の一例を示す説明図である。この例示は、上述した例示のうち、使用者(ユーザ)が上記指定部22を用いて指定して上記被写体像特定部16によって特定された被写体像に含まれる2点の特徴点を結ぶ直線の地平線に対する傾き角度を、規定の若しくは任意に設定した所定の角度となるように画像を保持するための撮像素子11の回転補正制御の例である。
 カメラ1を用いて撮像動作を行う際に、図4(A)に示すように、カメラ1の姿勢が地平線に対して傾いた状態になった場合、同カメラ1によって取得される画像は、図4(B)に示すような状態になる。この場合の状況を以下に詳述する。なお、本実施形態のカメラ1において、以下に説明する作用が行なわれる動作モードを撮像時回転補正モードというものとする。
 例えば、カメラ1を用いて撮像動作を行おうとする時、使用者(ユーザ)は、カメラ1を手に持った状態で所望の被写体(撮像対象物)に対峙する。このとき、使用者(ユーザ)は、カメラ1を通常使用状態(例えば図2に示す状態)を保持するよう努める。
 通常の場合、使用者(ユーザ)は、カメラ1の撮像素子11の矩形状の受光面の枠線のうちの一辺が地平線と略一致させるような構図を取ろうとするのが普通である。
 しかしながら、カメラ1を手に持って撮像動作を行う場合、撮像素子11の矩形状の受光面の枠線のうちの一辺と地平線とを略一致させることは困難である。
 したがって、例えば、図4(A)に示すように、撮像時において地平線に対してカメラ1が傾いた状況になってしまうことがある。図4(A)に示す状況において、地平線に相当する直線を符号Hで示し、撮像素子11の矩形状の受光面の枠線のうちの一辺(この場合は長辺)に平行で撮像素子11の中心点Pを通る直線を符号H2で示し、この直線H2の地平線Hに対する傾き角度を符号βで示すものとする。さらに、カメラ1の底面に沿う直線に平行で撮像素子11の中心点Pを通る直線を符号H3で示す。なお、通常のカメラが通常使用状態にある時には、上記直線H2と上記直線H3とは略一致しているのが普通である。
 このような状況下のカメラ1においては、その撮像素子11によって取得された画像データに基づいて表示部14の表示画面に表示される画像は、図4(B)に示す符号51のようになる。この画像51において、地平線に相当する直線を符号Hで示し、この地平線Hに直交する直線を符号Vで示すものとする。この場合において、地平線Hは、画像51の矩形枠線のうちの一辺(長辺)に平行で画面中心点Pを通る直線と平行であるものとする。また、上記直線Vは、画像51の矩形枠線のうちの他辺(短辺)に平行で画面中心点Pを通る直線と平行であるものとする。使用者(ユーザ)は、表示部14に連続的に表示されるライブビュー画像を見ながら、所望の構図やタイミングを決定して撮像動作を行うことになる。
 この場合において、カメラ1が撮像時回転補正モードに設定されていると、指定部22からの指示入力が可能な状態となっている。したがって、このとき表示部14の表示画面上には、撮像素子11によって取得される画像データに基く画像が順次連続的に表示されるライブビュー画像と共に、図示は省略しているが、上記ライブビュー画像に重畳させて現在のカメラ1の設定が撮像時回転補正モードに設定されている旨を表す表示(例えばアイコン表示)等や、回転補正のための指示入力を促すガイド表示等が表示されている。なお、撮像時回転補正モードへの設定操作は、カメラ1に設けられる既存の操作部材等を用いて使用者(ユーザ)が任意に行う。
 この状態において、使用者(ユーザ)は、表示部14に表示中の画像51内の被写体像のうち地平線に対する補正を行いたい直線を示すための2点(特徴点)を指定部22を用いて入力指定する。図4(B)に示す例では、符号S1,S2の2点を指定した場合を示している。図4(B)では、例えば地平線Hに対して垂直に直立しているタワー状の建造物等の垂直方向の上下2点を指定する例を示している。この指定操作を受けて、本カメラ1の制御部12は、使用者(ユーザ)が上述のようにして指定した2点を結ぶ直線(S)と地平線(H)との角度を一定とする(この例では両直線を直交関係とする)ための制御を行う。
 即ち、上記指定部22の入力操作にて指定された2点は、上記被写体像特定部16によって撮像画像内の特定の2点(S1,S2)として特定され、上記符号S1,S2を結ぶ直線Sが設定される。次いで、制御部12の第1の演算部18は、直線Sの地平線Hに対する傾き角度を演算により算出する。図4(B)に示す例では、直線Sの地平線Hに対する傾き角度を符号αとしている。
 そして、第2の演算部19は、上記第1の演算部18によって演算された演算結果(傾き角度α)に基づいて、撮像素子回転ユニット13を回転駆動制御するための回転補正角度を演算により算出する。ここで、回転補正角度は、図4(A)に示す上記直線H2の地平線Hに対するカメラ1の傾き角度βである。本カメラ1においては、この傾き角度β分だけ撮像素子11を回転させることによって画像補正を行う。
 なお、この場合においては、同時にブレ検出部15が稼働しており、カメラ1の姿勢に関するブレ状態の検出を行っている。したがって、上記第2の演算部19による演算は、上記第1の演算部18の演算結果(傾き角度α)に加えて、上記ブレ検出部15の演算結果(回転方向のブレ角度)をも考慮して演算が行なわれる。この演算により撮像素子11の回転補正角度が算出する。この回転補正角度は、上記カメラ1の傾き角度βに相当する。
 このようにして得られた回転補正角度βに基づいて、制御部12は、撮像素子回転ユニット13を駆動制御して回転部42に搭載された撮像素子11を回転軸中心Q周りに所定の回転方向に所定の量だけ回転させる制御を行なう。その結果、図4(C)に示すように、地平線Hと、上記直線H2とが略一致する。これにより、カメラ1が図4(C)に示すように地平線Hに対して傾いた状態(カメラ1の傾き角度β)であるにも関わらず、撮像素子11の矩形状受光面は、上記直線H2と地平線Hとが略一致した状態となる。したがって、この状態において撮像素子11により取得される撮像画像、即ち表示部14に表示される画像は、図4(D)の符号52で示すように、地平線Hに直交する直線Vと、上記指定2点(S1,S2)を結ぶ直線Sとが略一致した画像、具体的には、地平線Hに対して垂直に直立しているタワー状建造物等の撮像対象物が画面上においても直立した状態の自然な画像が得られる。
 一方、図5は、本発明の一実施形態の撮像装置(カメラ)を用いて撮像動作を行う際の作用の他の一例を示す説明図である。この例示は、顔画像判定部17によって認識された被写体像としての人物等の顔に含まれる2点の特徴点(例えば2つの瞳等)を結ぶ直線の地平線に対する傾き角度を予め設定した角度となるように一定に保持するための撮像素子11の回転補正制御の例である。
 カメラ1を用いて撮像動作を行う際に、図5(A)に示すように、カメラ1を通常使用状態で構えた場合において、対象とする被写体像が画面内において地平線に対して傾いた状態となっている場合、同カメラ1によって取得される画像は、図5(B)に示すような状態になる。この場合の状況を以下に詳述する。
 カメラ1を用いて撮像動作を行おうとする時、使用者(ユーザ)は、カメラ1を通常使用状態となるように保持する。このとき、対象となる被写体が、例えば人物やペット等の生き物等である場合には、図5(B)に示すように、被写体が矩形状の画面内において傾いた状態になることがある。
 図5(A)に示す状況において、地平線に相当する直線を符号Hで示す。この状況において、カメラ1の撮像素子11によって取得された画像データに基いて表示部14の表示画面に表示される画像は、図5(B)に示す符号53のようになる。図5(B)において、地平線に相当する直線を符号Hとする。使用者(ユーザ)は、表示部14に連続的に表示されるライブビュー画像を見ながら、所望の構図やタイミングを決定して撮像動作を行うことになる。
 この場合において、カメラ1が撮像時回転補正モードに設定されているとすると、カメラ1の制御部12の顔画像判定部17は、撮像素子11によって取得された画像データに基づいて表示部14に表示中のライブビュー画像に基づいて画像の自動判定を行なう。ここで、図5(B)に示すような画像が取得されている場合、顔画像判定部17は撮像画像53内の人物等を自動的に認識し、その認識した人物等の二つの瞳(符号E1,E2)の画像内における位置を判定する。この顔画像判定部17による判定結果に基づいて、上記被写体像特定部16は、撮像画像内の特定の2点(E1,E2)を特定し、上記符号E1,E2を結ぶ直線Eを設定する。次いで、制御部12の第1の演算部18は、直線Eの地平線Hに対する傾き角度を演算により算出する。図5(B)に示す例では、直線Eの地平線Hに対する傾き角度を符号αとしている。
 使用者(ユーザ)は、この傾き角度αを補正するために、表示部14に表示中の画像53内において所望の直線T(図5(D)参照)を予め設定しておく。この直線Tは、使用者(ユーザ)が所望の被写体の顔の傾きを補正して、その被写体の顔が、撮像画像内において所望の位置に配置される構図となるように補正するための設定基準直線である。したがって、直線Tの設定は、地平線Hに平行となる直線を設定してもよいし、また任意に地平線Hに対して所定の角度を有する直線を設定してもよい。この基準となる直線Tの設定操作は、例えば上述の例示において指定部22を用いて画像内の2点を指定した操作に準ずる。
 本カメラ1の撮像時回転補正モードにおいては、本カメラ1の制御部12は、上述のようにして顔画像判定部17により自動的に特定された2点(E1,E2)を結ぶ直線Eと、任意の設定操作で予め設定した直線Tとを略一致させるための制御を行う。
 即ち、制御部12の第1の演算部18は、上述したように、直線Eの地平線Hに対する傾き角度αを演算により算出する(図5(B)参照)。また、第1の演算部18は、予め設定した直線Tの地平線Hに対する傾き角度を演算により算出する。本例では、図5(D)に示すように、直線Tの地平線Hに対する傾き角度をα2とする。
 続いて、第2の演算部19は、上記第1の演算部18によって演算された演算結果(傾き角度α,α2)と上記ブレ検出部15の演算結果(回転方向のブレ角度)とに基づいて、撮像素子回転ユニット13を回転駆動制御するための回転補正角度(α-α2)を演算により算出する。
 こうして得られた回転補正角度(α-α2)に基づいて、制御部12は、撮像素子回転ユニット13を駆動制御して回転部42に搭載された撮像素子11を回転軸中心Q周りに所定の回転方向に所定の量だけ回転させる制御を行なう。つまり、図5(D)に示すように地平線Hと直線Tとが略一致するように、撮像素子11を回転制御する。その結果、撮像素子11は、図5(C)に示すように、地平線Hに対して角度α2だけ傾いた直線T2となる位置に配置される。ここで、直線T2は、撮像素子11の矩形状の受光面の枠線のうちの一辺(この場合は長辺)に平行で撮像素子11の中心点Pを通る直線を符号T2である。
 これにより、カメラ1が、図5(C)に示すように地平線Hに対して略水平状態で保持されている場合でも、撮像素子11の矩形状受光面は、上記直線T2が地平線Hに対して傾き角度α2となる位置に保持される。この状態において撮像素子11により取得され表示部14に表示される画像は、図5(D)の符号54で示す画像のように、二つの瞳によって特定された2点(E1,E2)を結ぶ直線Eと、地平線Hに対して傾き角度α2を有するように予め設定された直線Tとが略一致した状態となる。これにより、図5(D)に示すように、画像53において直線Tに対して直線Eが略一致するようにした所望の構図の画像が得られる。
 なお、図5に示す例示では、顔画像判定部17によって判定される顔の二つの瞳を自動的に指定するように構成しているが、この例に限られることはなく、例えば被写体の身体の一部における他の2点を指定するようにしてもよい。
 本発明の一実施形態のカメラ1における作用について、さらに詳述する。図6は、本発明の一実施形態の撮像装置(カメラ)において、撮像時回転補正モードに設定した場合の撮像動作時の作用を示し、加えてブレ補正動作が同時に行われる場合の例を示す説明図である。図7は、図6の作用に対応する処理シーケンスを示すフローチャートである。
 図6に示す例は、上述の図4で説明した作用例と略同様の作用例を示している。この図6に示す例では、さらに、撮像動作中に行なわれるブレ補正動作(主に回転方向のブレ補正)を考慮した撮像素子11の回転補正制御を行う様子を説明している。
 図6(A)~図6(B)においては、上述の図4で説明した作用例と略同様の制御が行われる。まず、図6(A)は、カメラ1を用いて撮像動作を行う際のカメラ1の姿勢(地平線に対して所定の傾きを有する状態になっている姿勢)と、この状態のカメラ1によって取得される画像の様子を示している。この状態においては、カメラ1は、起動状態にあって撮像動作を行い得る撮像待機状態にあり、かつ撮像時回転補正モードに設定されているものとする。
 カメラ1が図6(A)の状態にあるとき、使用者(ユーザ)は、カメラ1の表示部14に表示されるライブビュー画像(図6(A)の画像51)内の所定の被写体の一部(2点)を指定する操作を指定部22を用いて行う。
 具体的には、図6(A)の例では、画像51内の対象物のうち地平線Hに対して垂直に直立しているはずのタワー状建造物等を主要な撮像の対象としている。そして、使用者(ユーザ)は、当該カメラ1によって取得される矩形状の画像51内において、上記タワー状建造物が直立した状態の自然な画像を取得することを所望しているものとする。
 そのために、使用者(ユーザ)は、まず、撮像動作(レリーズ操作)を行うのに先立って、指定部22を用いて画像51内の主要撮像対象とするタワー状建造物の一部、例えば図6(A)に示す2つの特徴点(S1,S2)を指定操作する(図7のステップS11)。
 指定部22から出力された信号は、制御部12の被写体像特定部16へ向けて出力され、この被写体像特定部16によって撮像画像51内の2点(S1,S2)として特定される。そして、第1の演算部18にて、2点(S1,S2)を結ぶ直線Sが設定される。
 なお、本例では、上記直線Sを設定するのに際しては、上記2つの特徴点(S1,S2)を使用者(ユーザ)が指定操作を行なって特定するものとしているが、この例に限られることはない。例えば、既存の画像認識技術を用いて、撮像素子11の取得画像の中から、撮像対象とする被写体の特徴的な形状、例えば生物の顔や体の一部(手のひら,腕,上半身等)や、建造物等の外形(真四角なビル,電柱,タワー,橋梁等)や、典型的な風景(水平線,地平線,道路,線路,電線等)を自動認識し、その検出結果を利用するようにしてもよい。
 また、例えば表示部14に表示されるライブビュー画像において、画面の略中央部分に所望の被写体を配置した構図をとり、その状態で、二段式シャッターリリースボタンの半押し操作を行なうと、そのときに画面中央部分の所定領域にある被写体が、特定被写体として検出され、その一部における2点が上記形状等によって自動的に特定されるようにしてもよい。
 次いで、制御部12の第1の演算部18は、直線Sの地平線Hに対する傾き角度αを算出する(図7のステップS12)。
 続けて、第2の演算部19は、上記第1の演算部18によって演算された演算結果(傾き角度α)に基づいて、撮像素子回転ユニット13を回転駆動制御するための回転補正角度、即ちカメラ1が地平線Hに対して傾いている傾き角度βを演算により算出する(図7のステップS13)。
 ここで、上記回転補正角度(カメラ1の地平線Hに対する傾き角度β)は、カメラ1の水平直線、即ち撮像素子11の矩形状の受光面の枠線のうちの水平方向に延びる一辺(長辺)に平行で同撮像素子11の中心点Pを通る直線H2の地平線Hに対する傾き角度である。
 つまり、ここで算出する回転補正角度(傾き角度β)は、地平線Hに対して傾き角度αをもって傾いている直線Sを、地平線Hに対して直交する直線V(地平線Hに対して角度90度を持つ直線)に一致させるために、撮像素子11を回転させる角度を指しているものである。本例においては、回転補正角度(傾き角度β)は、β=90度-αによって求めることができる。
 続いて、制御部12は、上記ステップS13の処理にて算出された回転補正角度(傾き角度β)に基づいて、撮像素子回転ユニット13を駆動制御する。この駆動制御によって、回転部42に搭載されている撮像素子11は、回転軸中心Q周りに所定の回転方向に所定の回転量だけ回転する。具体的には、図6(A)において回転軸中心Q周りの反時計方向に角度βだけ撮像素子11を回転させる(図7のステップS14)。
 上記ステップS11~S14の処理の実行中において、使用者(ユーザ)は、所望の撮像動作を行うための前準備操作、例えば構図を決めたり露出調節,焦点調節等の操作を行った後、所望のタイミングにて所定のリリース操作を実行する。このリリース操作により発生するリリース信号を受けて、本カメラ1は実際の撮像動作を開始する(図7のステップS15)。本例においては、図6(A)と図6(B)の間のタイミングでリリース信号が発生したものとしている(符号Start参照)。なお、図6(D)の後のタイミングで上記リリース信号によって開始した撮像動作が終了するものとしている(符号End参照)。そして、図6においては、上記符号Startから上記符号Endの間を露光時間(設定されたシャッター速度による時間)とし、符号Exp.にて示している。
 この撮像動作の開始後における制御部12及び撮像素子回転ユニット13の作用を、図6(B)~図6(D)にて説明する。図6(B)~図6(D)においては、本カメラ1の撮像動作中の作用のうち、設定されたシャッター速度値によるシャッター装置の作動中に発生するブレ補正動作を含む撮像素子回転ユニット13の回転補正制御が行なわれる。なお、本例では、主に撮像素子の回転方向のブレ補正を考慮している。
 上述のステップS14までの回転補正に関する制御処理によって、画像51内にて所望の構図が維持されるように、撮像素子回転ユニット13の駆動制御が継続して行われている。例えば、ある時点における回転補正制御の結果、図6(B)に示すように、カメラ1の地平線Hに対する傾き姿勢に関わらず、撮像素子11は地平線Hに対して水平状態とされ、表示部14に表示中の画像52は、同図6(B)に示すように、撮像対象のタワー状建造物が直立した状態の自然な画像が表示され、その状態が継続して維持されている。
 カメラ1がこの状態にあるとき、上述したように、リリース操作が行われて撮像動作が開始し、これによりシャッター装置が作動を始めたとする。このとき使用者(ユーザ)は、引き続きカメラ1を同じ姿勢となるように保持しているわけであるが、例えばカメラ1を手に持って保持している場合には、手ブレ等に起因してカメラ1の姿勢は微少変化していると考えられる。このような手ブレ等は、ブレ検出部15によって常に検出されている。なお、本実施形態においては、手ブレ等に起因するカメラ1の姿勢微少変化のうち光軸O周りに回転する回転ブレのみに着目する。同時に発生するシフト方向のブレについては、従来一般的なブレ補正機構による補正制御が成されるものとし、その説明及び図示は省略する。
 ここで、例えば、図6(B)に示す状態から図6(C)に示す状態へとカメラ1の姿勢が微少変化したものとする。上述したように、図6(B)の状態では、カメラ1は地平線Hに対して傾き角度βをもって傾いた状態にあり、この傾きを補正するために、撮像素子11は、同角度βだけ所定方向(図において反時計方向)に回転制御されている。これにより、地平線Hと撮像素子11の直線H2(矩形状受光面の長辺に平行で中心点Pを通る直線)とが略一致した状態にあり、よって撮像素子11は地平線Hに対して水平状態が保持されている。なお、図6(B)において示す直線H3は、カメラ1の底面に沿う直線に平行な直線を示している。換言すれば、この図6(B)に示す状態では、カメラ1は地平線Hに対して直線H3の傾き角度βにて傾いている。
 この状態においてカメラ1に手ブレが生じて、図6(C)の状態になったものとする。図6(C)に示す状態では、カメラ1は地平線Hに対して直線H3の傾き角度β2にて傾いた状態に変位している。ここで、傾き角度β<β2とする。したがって、カメラ1は図6(C)において、例えば反時計方向の回転ブレが生じたものとする。ここで、ブレ検出部15は、カメラ1の回転角、即ちカメラ1の地平線Hに対する直線H3の傾き角度β2を検出する(図7のステップS16)。
 上記回転ブレを補正するためには、手ブレによって生じた回転ブレを打ち消す方向に撮像素子11を回転駆動制御すればよい。そこで、制御部12の第2の演算部19は、ブレ検出部15による検出結果に基づいて撮像素子11の回転補正角度を算出する(図7のステップS17)。本例においては、例えば、回転補正角度=傾き角度β-β2となる。
 これを受けて、制御部12は、撮像素子回転ユニット13の駆動制御を行なって、撮像素子11を所定の回転方向に所定の角度だけ回転させる(図7のステップS18)。これにより、撮像素子11によって取得される画像データに基く画像は、図6(B)の画像52と全く同じ状態の画像52が継続して取得されることになる。
 そして、撮像動作が終了しているかどうかの確認を行い(図7のステップS19)、撮像動作が終了していることが確認されると、一連の処理シーケンスを終了する。また、撮像動作が継続中である場合には、上述のステップS16の処理に戻って、以降同様の処理を繰り返す。
 例えば、撮像動作が継続中である場合において、図6(C)に示す状態から図6(D)に示す状態に変位した場合の例を簡略に説明する。図6(D)に示す状態では、カメラ1は地平線Hに対して直線H3の傾き角度β3にて傾いた状態に変位している。この場合にあっては、カメラ1は、図6(C)から図6(D)の間に反時計方向の回転ブレがさらに生じたものとしている。したがって、ブレ検出部15は、カメラ1の回転角(カメラ1の地平線Hに対する直線H3の傾き角度β3)を検出する。この検出値に基づいて、回転ブレ補正が行なわれる。その具体的な手順は上述のステップS16~ステップS18の各処理にて説明した通りである。これにより、撮像素子11によって取得される画像データに基く画像は、図6(C)の画像と全く同じ状態の画像が継続して取得される。
 このように、本例では、撮像動作中に手ブレ等が生じても、撮像素子回転ユニット13によって撮像素子11の回転補正制御を行って、撮像素子11の水平状態を常に維持する制御が行われる。
 次に、図8に示す例は、上述の図6の作用例と同様に、撮像動作中に行なわれるブレ補正動作(主に回転方向のブレ補正)を考慮した撮像素子11の回転補正制御を行う様子を説明している。この図8に示す例は、画像中の所望の被写体の特徴点の2点を結ぶ直線が地平線に対して指定角度を持って傾く設定により、使用者(ユーザ)の意図する構図の画像を取得する場合の例示である。
 図8(A)~図8(B)においては、上述の図6の例で説明した作用例と略同様の制御が行われる。上述の図6の例では、被写体の2点を指定して、その2点を結ぶ直線が画像内において直立する画像となるように撮像素子11を制御していた。これに対し、本例では、上述したように使用者(ユーザ)が指定した被写体上の2点若しくは自動的に識別される被写体上の2点(S1,S2)を結ぶ直線(S)と、使用者(ユーザ)が任意に指定する直線であって画像内で地平線に対して所定の傾きを有する直線Tとが略平行となるような構図の画像を取得するように、撮像素子11の回転制御がなされる。
 具体的には、まず、図8(A)は、カメラ1を用いて撮像動作を行う際のカメラ1の姿勢(地平線に対して水平に保持されている姿勢)と、この状態のカメラ1によって取得される画像の様子を示している。この状態においては、カメラ1は、起動状態にあって撮像動作を行い得る撮像待機状態にあり、かつ撮像時回転補正モードに設定されているものとする。
 カメラ1が図8(A)の状態にあるとき、使用者(ユーザ)は、カメラ1の表示部14に表示されるライブビュー画像(図8(A)の画像51)内の所定の被写体の一部(2点;S1,S2)を指定する操作を指定部22を用いて行う。この操作は、上述の図6(A)で説明した操作と同様である。
 次いで、同様の操作により、所望の主要被写体(ここではタワー状建造物とする)を画像内でどのように配置するかを設定するために、地平線Hに対して所定の角度の傾きを有する直線Tを設定する。これらの設定は、指定部22を用いた操作に基づいて、第1の演算部18が行う。そして、第1の演算部18は、直線Sの地平線Hに対する傾き角度α1と、直線Tの地平線Hに対する傾き角度(90度+α2)を算出する。
 これを受けて、第2の演算部19は、撮像素子回転ユニット13を回転駆動制御するための回転角度、即ち直線Sが直線Tに対して平行となる構図を実現するための撮像素子11の回転角度θ(図8(B)参照)を演算により算出する。ここで、撮像素子11の回転角度θは、地平線に対応する撮像素子11の受光面上の直線Hに直交する直線V1と、直線Tに対応する撮像素子11の受光面上の直線T1とのなす角度である。
 つまり、図8(A)の状態で、撮像素子回転ユニット13の回転駆動制御により撮像素子11を回転角度θだけ所定方向に回転させると、カメラ1を通常使用状態の姿勢(図8(B))を保持した状態でも図8(B)に示す画像52の構図が得られる。
 この状態で、使用者(ユーザ)が所定のレリース操作を実行すると、そのレリース信号を受けて、制御部12は実際の撮像動作を開始する。本例においては、図8(B)と図8(C)の間のタイミングでレリース信号が発生したものとしている(符号Start参照)。また、図8(E)の後のタイミングで上記レリース信号によって開始した撮像動作が終了するものとしている(符号End参照)。そして、上記符号Startから上記符号Endの間を露光時間(設定されたシャッター速度による時間)とし、符号Exp.にて示している。
 この露光時間Exp.で示される期間(図8(C)~図8(E)で示す期間)において、本カメラ1の制御部12は、撮像動作を実行しつつ、その期間中に発生するブレ補正動作を含む撮像素子回転ユニット13の回転補正制御を行なう。
 制御部12は、図8(B)に示す画像52の構図を維持するように、撮像素子回転ユニット13の駆動制御を継続して行なう。カメラ1がこの状態にあるとき、上述したように、レリース操作が行われて撮像動作が開始し、これによりシャッター装置が作動を始める。使用者(ユーザ)は、カメラ1を同じ姿勢で保持し続けるが、手持ち撮像による手ブレ等が発生する。この手ブレ等は、ブレ検出部15によって常に検出されている。なお、本例においても、手ブレ等に起因するカメラ1の姿勢微少変化のうち光軸O周りに回転する回転ブレのみに着目するものとし、同時に発生するシフト方向のブレについては、従来一般的なブレ補正機構による補正制御が成されるものとし、その説明及び図示は省略する。
 ここで、例えば、図8(B)に示す状態から図8(C)に示す状態へとカメラ1の姿勢が微少変化したものとする。つまり、この期間にカメラ1は、図8(B)の状態から時計方向に回転し、図8(C)に示すように、地平線Hに対して傾き角度βだけ傾いた状態となっている。この傾きを補正するために、撮像素子11は、同角度βだけ所定方向(図において反時計方向)に回転制御がなされる。これにより、図8(C)の状態で得られる画像52でも、図8(B)と同じ構図が維持される。
 次に、例えば、図8(C)に示す状態から図8(D)に示す状態へとカメラ1の姿勢が微少変化したものとする。この期間にカメラ1は、図8(C)の状態から反時計方向に回転し、図8(D)に示すように、地平線Hに対して傾き角度β1だけ傾いた状態となっている。この傾きを補正するために、撮像素子11は、同角度β1だけ所定方向(図において時計方向)に回転制御がなされる。これにより、図8(D)の状態で得られる画像52でも、図8(B),図8(C)と同じ構図が維持される。
 続いて、例えば、図8(D)に示す状態から図8(E)に示す状態へとカメラ1の姿勢が微少変化したものとする。この期間にカメラ1は、図8(D)の状態から時計方向に回転し、図8(E)に示すように、地平線Hに対して傾き角度β2だけ傾いた状態となっている。この傾きを補正するために、撮像素子11は、同角度β2だけ所定方向(図において反時計方向)に回転制御がなされる。これにより、図8(E)の状態で得られる画像52でも、図8(B),図8(C),図8(D)と同じ構図が維持される。
 このように、露光時間Exp.で示す期間中においても、ブレ検出部15の検出結果に応じて撮像素子回転ユニット13による回転駆動制御が継続して行われるので、所望の構図を維持した画像52が取得される。
 このように、本例では、撮像動作中に手ブレ等が生じても、撮像素子回転ユニット13によって撮像素子11の回転補正制御を行って、撮像素子11の傾き状態を設定した傾き角度となるように常に維持し、所望の構図を維持し続ける制御が行われる。
 次に、図9に示す例は、上述の図5の作用例と同様に、顔画像判定部17によって認識された被写体像(人物等の顔)に含まれる2点の特徴点(例えば2つの瞳等)を結ぶ直線の地平線に対する傾き角度を予め設定した角度となるように一定に保持するための撮像素子11の回転補正制御の例である。この場合において、本例では、被写体の動きに合わせて撮像素子11の回転補正制御を行なうと同時に、さらに、撮像動作中のカメラ姿勢の変位によって生じる手ブレに応じたブレ補正動作(主に回転方向のブレ補正)をも考慮した撮像素子11の回転補正制御を行う様子を説明している。なお、図10は、図9の作用に対応する処理シーケンスを示すフローチャートである。
 まず、図9(A)は、カメラ1を用いて撮像動作を行う際のカメラ1の姿勢(地平線Hに対して水平に保持した通常使用状態の姿勢)と、この状態のカメラ1によって取得される画像51の様子を示している。この状態において、カメラ1は、起動状態にあって撮像動作を行い得る撮像待機状態にあり、かつ撮像時回転補正モードに設定されているものとする。
 カメラ1が図9(A)の状態にあるとき、顔画像判定部17は、撮像素子11によって取得される画像データに基く画像から人物の顔等の所定の被写体像を認識する。顔画像判定部17によって認識された被写体像(人物等の顔等)に基づいて、被写体像特定部16は、その被写体に含まれる2点の特徴点(例えば2つの瞳等;E1,E2)を特定し、この2点の特徴点(E1,E2)を結ぶ直線Eを設定する(図10のステップS21)。これを受けて、制御部12の第1の演算部18は、直線Eの地平線Hに対する傾き角度を演算により算出する。図9(A)に示す例では、直線Eの地平線Hに対する傾き角度を符号γとしている。
 また、使用者(ユーザ)は、所望の主要被写体(ここでは画像51内の人物とする)を画像内でどのように配置するかを設定するための基準となる直線Tを設定する。この直線Tの設定は、使用者(ユーザ)による指定部22の所定の操作による。具体的には、例えば使用者(ユーザ)が指定部22を用いて画像内の所望の2点を指定すると、制御部12は指定入力に基づいて、指定された2点を結ぶ直線Tを画像内に設定する。そして、その設定された直線Tの地平線Hに対する角度が演算により設定される。
 なお、直線Tの設定方法としては、上記の例とは別に、例えば既存の操作部材を用いてメニュー画面を呼び出し、予め設定された設定角度テーブルより所望の角度値を選択設定するようにしてもよい。
 本例では、直線Tを図9(B)に示すように設定し、この直線Tの地平線Hに対する傾き角度αとしている(図10のステップS22)。そして、本例における撮像素子回転ユニット13は、図9(B)に示すように、上記直線Eと上記直線Tとが画像52の画面内で略一致するように撮像素子11の回転駆動制御を行なうことになる。図9(B)は、その回転駆動制御を行なった補正処理後の状態を示している。即ち、同図9(B)において、一点鎖線で示す直線Eは、補正前の状態、即ち図9(A)の状態での直線Eを示している。また、同図において実線で示す直線(符号T,E)は、直線Tと直線Eとが略一致した状態を示している。この場合において、実線で示す直線T,Eの地平線にHに対する傾き角度はαである。
 この状態において、補正前の直線E(傾き角度γ;図9(A)参照)を、直線T(傾き角度α)と略一致させるための補正角度θ1は、θ1=γ-αとなる。つまり、この場合は、図9(B)に示すように角度θ1だけ撮像素子11を図9(B)において時計方向に回転駆動させればよい。ここで、この角度θ1を第1補正角度とする。
 一方、この状態において、図9(C)に示すように、カメラ1が地平線Hに対して反時計方向に角度βだけ回転ブレを生じたものとする。ここで、この角度βを第2補正角度とする(図10のステップS23)。
 さらに、この状態において被写体像(人物等)が移動して、図9(C)に示す画像53の状態になったとする。この画像53における被写体像の2点の特徴点(E1,E2)を結ぶ直線Eは、地平線Hに平行な直線H1に対して角度-(マイナス)γ1の傾きを有する直線となる。ここで、マイナスの傾きとは、基準となる地平線Hに平行な直線H1に対し図9(C)において時計回りに回転した傾きとしている。この角度-γ1を第3補正角度とする(図10のステップS24)。
 このような場合において、図9(B)に示す画像52と同じ構図の画像、即ち設定した直線Tに直線Eを略一致させた画像を取得するために、制御部12は、上記第1補正角度θ1,第2補正角度β,第3補正角度-γ1に基づいて、撮像素子11の回転補正制御のための補正角θを算出し(図10のステップS25)、その算出結果(補正角θ)に基づいて撮像素子11の回転駆動を実行する(図10のステップS26)。これにより、使用者(ユーザ)が所望する構図の画像52が得られる。
 使用者(ユーザ)は、所望のタイミングで撮像動作を開始させるためのレリース操作を行なう。このレリース操作によって発生するレリース信号を受けて制御部12は、実際の撮像動作を開始する(図10のステップS27)。この撮像動作中においても、本カメラ1の制御部12は、図10のステップS28~ステップS31の処理にて、叙述した図10のステップS23~ステップS26の処理と全く同様の処理を行って、使用者(ユーザ)が所望する構図を維持し続けるように、撮像素子11の回転駆動制御を行なう。
 そして、図10のステップS32の処理にて、制御部12は、撮像動作が終了しているか否かの確認を行い、撮像動作の終了が確認された場合には、一連の動作を終了し、撮影待機状態に戻る。また、撮像動作の終了が確認されない場合、つまり撮像動作の継続中である場合には、上述のステップS28の処理に戻り、以降の処理を繰り返す。
 上述の図10に示す処理シーケンスにおいては、ブレ検出部15による被写体ブレの検出後、その検出結果に基づいて撮像素子11の回転補正を実行するようにしていることから、検出から補正までの間に、少なくとも1フレーム分の遅れが生じてしまう。そこで、このような遅れが生じることを考慮して、被写体の動きや手ブレを予測し、その予測量に基づいて撮像素子11の回転補正制御を行なう処理シーケンスのフローチャートを、図11に示す。
 図11は、本実施形態のカメラにおいて、被写体の動きや手ブレを予測して撮像素子の回転駆動制御を行なう場合の処理シーケンスを示すフローチャートである。この図11に示す処理シーケンスは、基本的には、上述の図10で説明した処理シーケンスと略同様であるが、撮像素子の回転駆動制御を行う際の補正量を算出する際に、被写体の動きや手ブレを予測した演算を行なう点が異なる。したがって、上述の図10のフローチャートと同様の処理ステップについては、同じステップ番号を付して、その詳細説明は省略する。
 まず、カメラ1が起動状態にあって撮像動作を行い得る撮像待機状態にあり、かつ撮像時回転補正モードに設定されている時に、ステップS21~ステップS28に示す各処理ステップが実行される。
 使用者(ユーザ)が所望のタイミングで撮像動作を開始させるためのレリース操作を行なうと、そのレリース信号を受けて制御部12は、実際の撮像動作を開始する(図10,図11のステップS27)。
 こうして開始された撮像動作中には、ステップS28の処理にて、制御部12は、ブレ検出部15からの信号に基づいてカメラ1の回転方向のブレ角βを検出する。このブレ検出部15による検出結果(回転ブレ角β)に基づいて、例えば、制御部12の第2の演算部19は、回転ブレ角予測値β’を演算により算出する(図11のステップS41)。
 続いて、被写体の2点(E1,E2)を結ぶ直線Eの地平線Hに対する回転角度(傾き角度)γを、第1の演算部18によって算出する(図11のステップS42)。その算出結果(回転角度;傾き角度γ)に基づいて、例えば制御部12の第2の演算部19は、回転角度予測値γ’を演算により算出する(図11のステップS43)。
 こうして得られた回転ブレ角予測値β’及び回転角度予測値γ’に基づいて、制御部12は撮像素子11の回転補正制御のための補正角θを算出し(図11のステップS44)、その算出結果(補正角θ)に基づいて撮像素子11の回転駆動を実行する(図11のステップS45)。これにより、使用者(ユーザ)が所望する構図の画像が得られる。
 そして、図11のステップS32の処理にて、制御部12は、撮像動作が終了しているか否かの確認を行い、撮像動作の終了が確認された場合には、一連の動作を終了し、撮影待機状態に戻る。また、撮像動作の終了が確認されない場合、つまり撮像動作の継続中である場合には、上述のステップS28の処理に戻り、以降の処理を繰り返す。
 以上説明したように上記一実施形態によれば、撮像素子11を光軸周りに回転自在に構成し、この撮像素子11の回転駆動制御が所定のタイミングで適宜行われるように構成している。また、この場合において、撮像動作中に生じる画像内の被写体の変化、例えば被写体自体の移動やカメラ1の姿勢変化、即ち手ブレ等をも考慮して、撮像素子11の回転駆動制御を行なうようにしている。
 したがって、これにより、当該撮像素子11によって取得された画像データに基いて表示部14に表示される画像において、当該画像に含まれる被写体のうちの所望の被写体が矩形状の画像内で地平線に平行な直線に対して常に一定の角度を保持して配置されるようにした所望の構図の画像を容易に取得することができる。
 また、使用者(ユーザ)が不安定な状態でカメラを保持しなければならないような状況、例えば水中ダイビングやスカイダイビング中においては、使用者(ユーザ)のみならず被写体も不安定な状態にある。したがって、使用者(ユーザ)は意図した所望の構図をとることが容易ではない。このような状況下においても、本実施形態のカメラ1によれば、常に安定した構図の画像、若しくは使用者(ユーザ)が意図する所望の構図の画像を容易に取得することができる。
 なお、上記の一実施形態においては、撮像素子11によって取得される画像データに基く画像内において、所望の被写体を特定する手段として、指定部22による入力操作や顔画像判定部17による自動認識技術を用いるものとしている。
 その場合において、例えば画像内に複数の被写体が存在している場合に、いずれの被写体を指定するかは、次のような手段が考えられる。例えば、
(1)使用者(ユーザ)が手動で所望の被写体を選択指定する、
(2)カメラ内のデータベース部(例えば記録部等;不図示)に予め登録しておいた顔画像に基づいて顔画像判定部17により自動認識された被写体の顔を自動指定する、
(3)画像内の複数の被写体のうち合焦状態が最も鮮明である被写体の顔を自動指定する。この場合において、使用者(ユーザ)がマニュルフォーカス操作によって合焦操作を行えば所望の被写体を簡単に指定できるという利点がある、
(4)画像内の複数の被写体のうち最もカメラ寄りの位置に存在する(一番手前の)被写体を自動指定する。この場合の例としては、例えば人物が集合した所謂集合写真のような画像等が考えられが、その場合において最も失敗を回避し得るという利点がある。
 また、顔画像判定部17によって判定し得る画像は、人物等の顔のみに限らず、例えば物体の形状認識等も可能である。そこで、特定し得ない被写体の場合には、被写体の特徴的な部位、例えばコントラストが高い領域を持つ被写体、彩度の高い領域を持つ被写体等を優先的に自動認識するといった手段を用いてもよい。また、風景画像等においては、例えば水平線や地平線を認識し、これを基準として特徴的な画像領域を認識するようにすればよい。
 なお、本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。この発明は、添付のクレームによって限定される以外にはそれの特定の実施態様によって制約されない。
 本出願は、2013年12月17日に日本国に出願された特願2013-260526号を優先権主張の基礎として出願するものである。上記基礎出願により開示された内容は、本願の明細書と請求の範囲と図面に引用されているものである。
 本発明は、デジタルカメラ等の撮影機能に特化した電子機器である撮影機器に限られることはなく、撮影機能を備えた他の形態の電子機器、例えば携帯電話,スマートフォン,録音機器,電子手帳,パーソナルコンピュータ,タブレット端末機器,ゲーム機器,携帯テレビ,時計,GPS(Global Positioning System)を利用したナビゲーション機器等、各種の撮影機能付き電子機器にも広く適用することができる。
 さらに、撮像素子を用いて画像を取得し、その取得画像を表示装置に表示する機能を有する電子機器、例えば望遠鏡,双眼鏡,顕微鏡等の観察用機器に対しても同様に適用することができる。

Claims (4)

  1.  保持部に保持された撮像素子をカメラ本体に対して回転させる回転駆動部と、
     上記撮像素子からの画像データに基づいて撮像画像を表示する表示部と、
     地平線に対する上記撮像素子のブレ角度を検出するブレ検出部と、
     上記表示部に表示されている撮像画像において特定の被写体像の2点を特定する被写体像特定部と、
     上記被写体像特定部によって特定された上記被写体像の2点を結ぶ直線が上記地平線に対して傾いている傾き角度を演算する第1の演算部と、
     上記第1の演算部によって演算された傾き角度と上記ブレ検出部によって検出された上記ブレ角度とに基づいて、上記回転駆動部が上記保持部を回転補正するための回転補正角度を演算する第2の演算部と、
     を具備し、
     上記第2の演算部によって演算された上記回転補正角度に基づいて、上記撮像素子を上記地平線に対して一定に保持するようにしたことを特徴とする撮像装置。
  2.  上記被写体像特定部は、上記表示部に表示されている撮像画像内の特定の被写体像の2点をユーザが指定する指定部を含むことを特徴とする請求項1記載の撮像装置。
  3.  上記被写体像特定部は、上記表示部に表示されている撮像画像内の顔画像を判定し、当該顔画像の目を特定の2点と判定する顔画像判定部を含むことを特徴とする請求項1記載の撮像装置。
  4.  撮像素子からの画像データに基づいて撮像画像を表示し、
     上記撮像画像内の特定の被写体像の2点を特定し、
     地平線に対する上記撮像素子のブレ角度を検出し、
     上記特定された上記被写体像の2点を結ぶ直線の上記地平線に対する傾き角度を演算し、
     上記傾き角度と上記ブレ角度とに基づいて上記撮像素子を回転補正するための回転補正角度を演算し、
     上記回転補正角度に基づいて、上記撮像素子をカメラ本体に対して回転させることにより、上記撮像素子を上記地平線に対して一定の傾きとなるように保持することを特徴とする撮像装置の制御方法。
PCT/JP2014/067916 2013-12-17 2014-07-04 撮像装置及び撮像装置の制御方法 WO2015093083A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-260526 2013-12-17
JP2013260526A JP2015119276A (ja) 2013-12-17 2013-12-17 撮像装置

Publications (1)

Publication Number Publication Date
WO2015093083A1 true WO2015093083A1 (ja) 2015-06-25

Family

ID=53402443

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/067916 WO2015093083A1 (ja) 2013-12-17 2014-07-04 撮像装置及び撮像装置の制御方法

Country Status (2)

Country Link
JP (1) JP2015119276A (ja)
WO (1) WO2015093083A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105208271A (zh) * 2015-09-21 2015-12-30 努比亚技术有限公司 拍摄角度提示方法和装置
WO2017020150A1 (zh) * 2015-07-31 2017-02-09 深圳市大疆创新科技有限公司 一种图像处理方法、装置及摄像机
WO2017069283A1 (ja) * 2015-10-22 2017-04-27 株式会社ニコン レンズ鏡筒及びカメラボディ
CN109005334A (zh) * 2018-06-15 2018-12-14 清华-伯克利深圳学院筹备办公室 一种成像方法、装置、终端和存储介质
JP2021100238A (ja) * 2019-12-20 2021-07-01 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7325216B2 (ja) * 2019-05-08 2023-08-14 キヤノン株式会社 防振制御装置及び方法、及び、撮像装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236509A (ja) * 2000-02-24 2001-08-31 Minolta Co Ltd 被写体の傾き検出装置および方法
JP2004194168A (ja) * 2002-12-13 2004-07-08 Fuji Photo Film Co Ltd トリミング処理装置及びトリミング処理プログラム
JP2006146393A (ja) * 2004-11-17 2006-06-08 Nikon Corp 画像処理プログラム、および画像処理装置
JP2008151822A (ja) * 2006-12-14 2008-07-03 Pentax Corp 像ブレ補正装置
JP2009043191A (ja) * 2007-08-10 2009-02-26 Kaigian Inc 画像連続表示プログラム、画像連続表示装置及び画像連続表示方法
JP2009244683A (ja) * 2008-03-31 2009-10-22 Hoya Corp 撮像装置
JP2010171942A (ja) * 2008-12-22 2010-08-05 Hoya Corp 撮像装置
JP2013243552A (ja) * 2012-05-21 2013-12-05 Canon Inc 撮像装置およびその制御方法、プログラム、並びに記憶媒体

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236509A (ja) * 2000-02-24 2001-08-31 Minolta Co Ltd 被写体の傾き検出装置および方法
JP2004194168A (ja) * 2002-12-13 2004-07-08 Fuji Photo Film Co Ltd トリミング処理装置及びトリミング処理プログラム
JP2006146393A (ja) * 2004-11-17 2006-06-08 Nikon Corp 画像処理プログラム、および画像処理装置
JP2008151822A (ja) * 2006-12-14 2008-07-03 Pentax Corp 像ブレ補正装置
JP2009043191A (ja) * 2007-08-10 2009-02-26 Kaigian Inc 画像連続表示プログラム、画像連続表示装置及び画像連続表示方法
JP2009244683A (ja) * 2008-03-31 2009-10-22 Hoya Corp 撮像装置
JP2010171942A (ja) * 2008-12-22 2010-08-05 Hoya Corp 撮像装置
JP2013243552A (ja) * 2012-05-21 2013-12-05 Canon Inc 撮像装置およびその制御方法、プログラム、並びに記憶媒体

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017020150A1 (zh) * 2015-07-31 2017-02-09 深圳市大疆创新科技有限公司 一种图像处理方法、装置及摄像机
US10594941B2 (en) 2015-07-31 2020-03-17 SZ DJI Technology Co., Ltd. Method and device of image processing and camera
CN105208271A (zh) * 2015-09-21 2015-12-30 努比亚技术有限公司 拍摄角度提示方法和装置
WO2017069283A1 (ja) * 2015-10-22 2017-04-27 株式会社ニコン レンズ鏡筒及びカメラボディ
JP2017078822A (ja) * 2015-10-22 2017-04-27 株式会社ニコン レンズ鏡筒及びカメラボディ
CN108431688A (zh) * 2015-10-22 2018-08-21 株式会社尼康 镜头镜筒和相机机身
US10795117B2 (en) 2015-10-22 2020-10-06 Nikon Corporation Lens barrel and camera body
US11733478B2 (en) 2015-10-22 2023-08-22 Nikon Corporation Lens barrel and camera body
CN109005334A (zh) * 2018-06-15 2018-12-14 清华-伯克利深圳学院筹备办公室 一种成像方法、装置、终端和存储介质
CN109005334B (zh) * 2018-06-15 2020-07-03 清华-伯克利深圳学院筹备办公室 一种成像方法、装置、终端和存储介质
JP2021100238A (ja) * 2019-12-20 2021-07-01 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法

Also Published As

Publication number Publication date
JP2015119276A (ja) 2015-06-25

Similar Documents

Publication Publication Date Title
WO2015093083A1 (ja) 撮像装置及び撮像装置の制御方法
US9215375B2 (en) Photographing apparatus, image display apparatus, and display control method of image display apparatus
JP5659305B2 (ja) 画像生成装置および画像生成方法
JP5659304B2 (ja) 画像生成装置および画像生成方法
JP5769813B2 (ja) 画像生成装置および画像生成方法
US9781334B2 (en) Control method, camera device and electronic equipment
JP5865388B2 (ja) 画像生成装置および画像生成方法
JP6659130B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5495760B2 (ja) 撮像装置
JP6518409B2 (ja) 撮影装置及び撮影方法
JP2015159510A (ja) 撮像装置および撮像装置の制御方法
US20210278687A1 (en) Stabilizing device, imaging device, photographic system, stabilizing method, photographic method, and recording medium storing a program
JP2015132725A (ja) ぶれ補正装置
JP2014074838A (ja) 撮像装置
JP5248951B2 (ja) カメラ装置、画像撮影支援装置、画像撮影支援方法、及び画像撮影支援プログラム
JP5750637B2 (ja) 撮影装置
JP6300569B2 (ja) 撮像装置及びその制御方法
CN113841376B (zh) 拍摄控制方法和装置
JP2010148028A (ja) 観察装置
JP5558233B2 (ja) 撮像装置および方位設定方法
JP2012054899A (ja) 撮像装置及び姿勢検出方法
JP2009194643A (ja) 撮影装置
JP2015132772A (ja) ぶれ補正装置
JP2021061505A (ja) 撮像装置
JP2013076766A (ja) 撮像装置、撮像装置の制御方法および撮像システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14872825

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14872825

Country of ref document: EP

Kind code of ref document: A1