JP2017111430A - Control device and imaging device - Google Patents

Control device and imaging device Download PDF

Info

Publication number
JP2017111430A
JP2017111430A JP2016218297A JP2016218297A JP2017111430A JP 2017111430 A JP2017111430 A JP 2017111430A JP 2016218297 A JP2016218297 A JP 2016218297A JP 2016218297 A JP2016218297 A JP 2016218297A JP 2017111430 A JP2017111430 A JP 2017111430A
Authority
JP
Japan
Prior art keywords
subject
tracking
image
control
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016218297A
Other languages
Japanese (ja)
Other versions
JP6833461B2 (en
JP2017111430A5 (en
Inventor
伸茂 若松
Nobushige Wakamatsu
伸茂 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/368,200 priority Critical patent/US10270973B2/en
Priority to CN202010223939.XA priority patent/CN111246117B/en
Priority to CN201611140487.9A priority patent/CN107018288B/en
Publication of JP2017111430A publication Critical patent/JP2017111430A/en
Priority to US16/299,891 priority patent/US10659691B2/en
Publication of JP2017111430A5 publication Critical patent/JP2017111430A5/ja
Application granted granted Critical
Publication of JP6833461B2 publication Critical patent/JP6833461B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve an image blur correction which facilitates framing by a photographer and a subject tracking control.SOLUTION: An image pickup device includes a shake correction angle calculation part 109, calculates a correction amount of an image blur by acquiring a shake detection signal, and performs a control of an image blur correction. A subject detection part 117 acquires position information of the subject by detecting a position of the subject in a photographing image. A track amount calculation part 118 performs a track control of the subject by moving a position of the subject inside the photographing image on the basis of the position information of the subject. The blur correction angle calculation part 109 changes an image blur correction effect according to a plurality of control states including a first state not set to a mode in which the tracking of the subject can be selected and a second state set to the mode in which the mode is set and the subject can be selected. The characteristic for calculating the correction amount is changed so that the image blur correction effect in the second state becomes higher than the image blur correction effect in the first state.SELECTED DRAWING: Figure 2

Description

本発明は、制御装置および撮像装置の技術に関する。   The present invention relates to a technology of a control device and an imaging device.

撮像装置には、手振れ等による画像のブレを抑制する像ブレ補正機能や、被写体が人物である場合の顔検出機能、人体検出機能を有する装置がある。例えば人物の顔を判断するためのパターンが予め定められており、撮影画像内に含まれる該パターンに一致する箇所が人物の顔画像として検出される。検出された人物の顔画像は、合焦制御や露出制御等で参照される。   Imaging devices include devices having an image blur correction function that suppresses image blur due to camera shake, a face detection function when a subject is a person, and a human body detection function. For example, a pattern for determining a person's face is determined in advance, and a portion that matches the pattern included in the captured image is detected as a person's face image. The detected face image of the person is referred to by focusing control, exposure control, or the like.

移動している被写体の撮影時や焦点距離の大きい望遠での撮影時には、以下の問題がある。被写体が移動して撮影画角から外れてしまう場合、動き続ける被写体を、手動操作のみによって精度良く追尾するには撮影者の特別な技術が必要である。また、望遠レンズを有するカメラで撮影を行う場合、手振れによる像ブレの影響が大きくなるので、主被写体を撮影画像の中心に保持することが難しい。撮影者が被写体を画角内に捉え直そうとしてカメラを操作した場合、撮影者が意図して操作したときの手振れ量に応じて像ブレ補正が行われてしまう。そのため、像ブレ補正制御の影響によっては、被写体を画角内に捉え、または撮影画像中心に被写体像を位置させるために撮影者が行う微調整の操作が難しい。   When shooting a moving subject or shooting with a telephoto lens having a large focal length, there are the following problems. When the subject moves and deviates from the shooting angle of view, a special technique of the photographer is required to accurately track the moving subject only by manual operation. Further, when shooting with a camera having a telephoto lens, it is difficult to hold the main subject at the center of the shot image because the influence of image blur due to camera shake increases. When the photographer operates the camera to capture the subject within the angle of view, image blur correction is performed according to the amount of camera shake when the photographer intends to operate the camera. Therefore, depending on the influence of image blur correction control, it is difficult to perform fine adjustment operations performed by the photographer in order to capture the subject within the angle of view or to position the subject image at the center of the captured image.

特許文献1には、光軸と交差させる方向に光学系の一部を移動させることによって、自動的に被写体を追尾する撮像装置が開示されている。撮像素子により取得される画像信号から被写体の位置が検出され、被写体追尾演算量が算出される。撮像装置はブレ補正演算量に被写体追尾演算量を合成することで、像ブレを補正しながら被写体追尾制御を行う。   Patent Document 1 discloses an imaging apparatus that automatically tracks a subject by moving a part of an optical system in a direction intersecting an optical axis. The position of the subject is detected from the image signal acquired by the image sensor, and the subject tracking calculation amount is calculated. The imaging apparatus performs subject tracking control while correcting image blur by combining the subject tracking calculation amount with the blur correction calculation amount.

特開2010−93362号公報JP 2010-93362 A

被写体像の位置を撮影画像内の特定位置(例えば中央位置)に保持するように被写体追尾を行うシステムにおいて、被写体追尾制御と像ブレ補正とを同時に行うことについて十分な検討がされておらず、撮影者によるフレーミングが難しくなる場合があり得る。
本発明の目的は、撮影者がフレーミングし易い像ブレ補正および被写体追尾制御を実現することである。
In a system that performs subject tracking so that the position of the subject image is held at a specific position (for example, the center position) in the photographed image, there has not been sufficient study on performing subject tracking control and image blur correction simultaneously. It may be difficult for the photographer to perform framing.
An object of the present invention is to realize image blur correction and subject tracking control that are easy for a photographer to perform framing.

本発明の一実施形態に係る装置は、振れ検出手段により検出される振れ検出信号を取得して画像ブレの補正量を算出し、前記画像ブレを補正する像ブレ補正手段を制御する補正制御手段と、撮影画像内の被写体の位置を検出し、前記撮影画像内の被写体の位置情報を取得する被写体検出手段と、前記被写体検出手段により取得された前記被写体の位置情報に基づいて、前記被写体の追尾制御を行う追尾制御手段と、前記追尾制御手段の制御状態を設定する設定手段と、を備える。前記設定手段は、被写体の追尾が可能なモードに設定されていない第1の状態と、前記モードが設定されて追尾対象の被写体を選択することができる第2の状態とを含む複数の制御状態から、設定される制御状態を選択することで、前記追尾制御手段の制御状態を設定し、前記補正制御手段は、前記設定手段から選択された前記制御状態の情報を取得し、前記第1の状態での像ブレ補正効果より前記第2の状態での像ブレ補正効果を高くするように前記補正量を算出する特性を変更する制御を行う。   An apparatus according to an embodiment of the present invention acquires a shake detection signal detected by a shake detection unit, calculates an image blur correction amount, and controls a correction control unit that controls the image blur correction unit that corrects the image blur. Detecting the position of the subject in the captured image and acquiring the position information of the subject in the captured image; and based on the position information of the subject acquired by the subject detecting means, Tracking control means for performing tracking control, and setting means for setting a control state of the tracking control means. The setting means includes a plurality of control states including a first state in which a subject tracking mode is not set and a second state in which the mode is set and a tracking target subject can be selected. The control state of the tracking control unit is set by selecting the control state to be set, and the correction control unit acquires the information of the control state selected from the setting unit, and the first control unit Control for changing the characteristic for calculating the correction amount is performed so that the image blur correction effect in the second state is higher than the image blur correction effect in the state.

本発明によれば、撮影者がフレーミングし易い像ブレ補正および被写体追尾制御を実現することができる。   According to the present invention, it is possible to realize image blur correction and subject tracking control that are easy for a photographer to perform framing.

第1実施形態に係る撮像装置および撮像装置の振れ方向を説明する図である。It is a figure explaining the shake direction of the imaging device and imaging device which concern on 1st Embodiment. 第1実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 1st Embodiment. 検出された被写体の追尾制御を説明する図である。It is a figure explaining tracking control of the detected subject. 第1実施形態における追尾量算出部の機能ブロック図である。It is a functional block diagram of the tracking amount calculation part in 1st Embodiment. 第1実施形態における追尾制御の被写体指定方法を説明する図である。It is a figure explaining the subject specification method of tracking control in a 1st embodiment. 第1実施形態における被写体位置に応じた防振カットオフ周波数設定の説明図である。It is explanatory drawing of the vibration-proof cutoff frequency setting according to the to-be-photographed object position in 1st Embodiment. 第1実施形態における制御を説明するフローチャートである。It is a flowchart explaining the control in 1st Embodiment. 第2実施形態に係る撮像装置を模式的に示す図である。It is a figure which shows typically the imaging device which concerns on 2nd Embodiment. 第2実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 2nd Embodiment. 第3実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 3rd Embodiment. 第4実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on 4th Embodiment. 第4実施形態に係る追尾制御中の撮像装置の状態とタイミングチャートの例を説明する図である。It is a figure explaining the example of the state of an imaging device in tracking control which concerns on 4th Embodiment, and a timing chart. 第4実施形態に係る追尾制御中の撮像装置の状態とタイミングチャートの例を説明する図である。It is a figure explaining the example of the state of an imaging device in tracking control which concerns on 4th Embodiment, and a timing chart. 第4実施形態に係る追尾制御中の撮像装置の状態とタイミングチャートの例を説明する図である。It is a figure explaining the example of the state of an imaging device in tracking control which concerns on 4th Embodiment, and a timing chart. 第4実施形態に係る追尾制御中の撮像装置の状態とタイミングチャートの例を説明する図である。It is a figure explaining the example of the state of an imaging device in tracking control which concerns on 4th Embodiment, and a timing chart. 第4実施形態に係る追尾制御中の撮像装置の状態とタイミングチャートの例を説明する図である。It is a figure explaining the example of the state of an imaging device in tracking control which concerns on 4th Embodiment, and a timing chart. 第4実施形態に係る撮像装置における警告通知方法を説明する図である。It is a figure explaining the warning notification method in the imaging device concerning a 4th embodiment. 第4実施形態に係る撮像装置における警告通知方法を説明する図である。It is a figure explaining the warning notification method in the imaging device concerning a 4th embodiment.

以下、本発明に係る各実施形態について、図面を参照して詳細に説明する。各実施形態では、振れを検出して画像ブレを補正する機能と、被写体を自動追尾する機能とを有する制御装置を搭載した撮像装置を例示する。本発明は、デジタルカメラやデジタルビデオカメラに限らず、監視カメラ、Webカメラ、携帯電話等の撮像装置にも適用可能である。また本発明は、レンズ交換式、レンズ一体型のいずれのカメラにも適用可能である。   Hereinafter, each embodiment according to the present invention will be described in detail with reference to the drawings. Each embodiment exemplifies an imaging device equipped with a control device having a function of detecting shake and correcting image blur and a function of automatically tracking a subject. The present invention is not limited to a digital camera and a digital video camera, but can be applied to an imaging apparatus such as a surveillance camera, a Web camera, and a mobile phone. In addition, the present invention can be applied to either a lens interchangeable camera or a lens integrated camera.

[第1実施形態]
本実施形態では、被写体像の位置を撮影画像内の特定位置(例えば中央位置)に保持するように被写体追尾を行うシステムの例を説明する。このようなシステムにおいては、追尾制御中に撮影者は被写体を追うためにフレーミング操作を行う必要はない。このときには像ブレを補正する際の制御特性の周波数帯域を広くすることで振れ補正の効果(以下、像ブレ補正効果という)を高くすると、手振れ等の影響を除去しつつ、スムーズな被写体追尾による撮影が可能となる。
[First Embodiment]
In the present embodiment, an example of a system that performs subject tracking so as to hold the position of the subject image at a specific position (for example, the center position) in the captured image will be described. In such a system, the photographer does not need to perform a framing operation to track the subject during tracking control. At this time, if the effect of blur correction (hereinafter referred to as image blur correction effect) is increased by widening the frequency band of the control characteristics when correcting image blur, it is possible to perform smooth subject tracking while eliminating the influence of camera shake and the like. Shooting is possible.

しかし、このような被写体追尾を行う場合、撮影者は所望の被写体を撮影するために画面内の被写体を指定することで追尾を行えるが、被写体を指定すること自体が難しいことがある。例えば、撮影レンズの焦点距離が非常に大きい場合(1000mm以上等)、手振れの影響で被写体像が移動してしまい、被写体を画角内に捉えてフレーミングすることが難しい。この場合、像ブレ補正の制御特性の周波数帯域を広くして像ブレ補正効果を高くしておくと、手振れの影響によるフレーミングのし難さを抑制することができる。しかしながら、像ブレ補正効果を高くした場合、被写体が移動したときに、撮影者が撮影画角内に被写体が入るようにカメラを操作しても、撮影者が意図して操作したときの手振れ量に対して像ブレ補正が行われてしまう。像ブレ補正効果の度合いによっては、被写体を画角内に捉え直すことが困難になり、あるいは被写体像の位置を撮影画像の中心位置に微調整する操作が難しくなるという問題が起こり得る。そこで、本実施形態では、像ブレ補正および被写体追尾制御を行う制御装置を備える撮像装置であって、撮影者のフレーミングし易さを向上させることが可能な撮像装置について説明する。   However, when such subject tracking is performed, the photographer can perform tracking by designating a subject within the screen in order to photograph a desired subject, but it may be difficult to designate the subject itself. For example, when the focal length of the taking lens is very large (such as 1000 mm or more), the subject image moves due to the influence of camera shake, and it is difficult to frame the subject by capturing it within the angle of view. In this case, if the image blur correction control characteristic is widened to increase the image blur correction effect, the difficulty of framing due to the influence of camera shake can be suppressed. However, if the image blur correction effect is increased, the amount of camera shake when the photographer intentionally operates the camera even if the photographer operates the camera so that the subject falls within the shooting angle of view when the subject moves. Image blur correction will be performed. Depending on the degree of the image blur correction effect, it may be difficult to recapture the subject within the angle of view, or it may be difficult to finely adjust the position of the subject image to the center position of the captured image. Therefore, in the present embodiment, an imaging apparatus that includes a control device that performs image blur correction and subject tracking control and that can improve the ease of framing by a photographer will be described.

図1は、本発明の各実施形態に係る撮像装置の振れ方向を説明する図である。撮像装置101に搭載される制御装置は、像ブレ補正装置および被写体追尾制御装置により構成される。なお、この制御装置は、像ブレ補正および被写体追尾により、被写体像の位置を制御するため、本明細書では像位置制御装置と呼ぶことがある。図2は、撮像装置101の撮像部の構成と、撮像装置101が備えるCPU(中央演算処理装置)105により実行される像ブレ補正処理および自動追尾処理の機能ブロックを示す図である。   FIG. 1 is a diagram for explaining a shake direction of an imaging apparatus according to each embodiment of the present invention. The control device mounted on the imaging device 101 includes an image blur correction device and a subject tracking control device. Since this control device controls the position of the subject image by image blur correction and subject tracking, it may be referred to as an image position control device in this specification. FIG. 2 is a diagram illustrating a configuration of the imaging unit of the imaging apparatus 101 and functional blocks of image blur correction processing and automatic tracking processing executed by a CPU (Central Processing Unit) 105 provided in the imaging apparatus 101.

像ブレ補正装置は、例えば光軸102に対して矢印103p、103yで示すピッチ方向、ヨー方向の角度振れに対して像ブレ補正を行う。3次元直交座標系のうちZ軸方向を光軸方向とし、Z軸に直交する第1の軸をX軸とし、Z軸およびX軸に直交する第2の軸をY軸と定義する。矢印103pに示すX軸回り方向がピッチ方向であり、矢印103yに示すY軸回り方向がヨー方向である。   The image blur correction apparatus performs image blur correction with respect to angular shakes in the pitch direction and the yaw direction indicated by arrows 103p and 103y with respect to the optical axis 102, for example. In the three-dimensional orthogonal coordinate system, the Z-axis direction is defined as the optical axis direction, the first axis orthogonal to the Z-axis is defined as the X-axis, and the Z-axis and the second axis orthogonal to the X-axis are defined as the Y-axis. The direction around the X axis indicated by the arrow 103p is the pitch direction, and the direction around the Y axis indicated by the arrow 103y is the yaw direction.

撮像装置101の本体部にはシャッタを走行させるためのレリーズスイッチ104が設けられ、レリーズスイッチ104の操作によりスイッチの開閉信号がCPU105に送られる。レリーズスイッチ104は、押し込み量に応じて第1スイッチ(SW1)および第2スイッチ(SW2)が順にオン状態となる2段階のスイッチである。レリーズスイッチ104を約半分押し込んだときにSW1がオンし、レリーズスイッチ104を最後まで押し込んだときにSW2がオンする。SW1がオンすると、フォーカスレンズの駆動により焦点調節が行われるとともに、絞りの駆動により適正な露光量に設定される。さらにSW2がオンすると、撮像素子106に露光された光像から得られた画像データが記録媒体に記録される。   A release switch 104 for moving the shutter is provided in the main body of the imaging apparatus 101, and an open / close signal of the switch is sent to the CPU 105 by operating the release switch 104. The release switch 104 is a two-stage switch in which the first switch (SW1) and the second switch (SW2) are sequentially turned on according to the amount of pressing. SW1 is turned on when the release switch 104 is depressed about half, and SW2 is turned on when the release switch 104 is pushed to the end. When SW1 is turned on, focus adjustment is performed by driving the focus lens, and an appropriate exposure amount is set by driving the diaphragm. When SW2 is further turned on, image data obtained from the light image exposed to the image sensor 106 is recorded on the recording medium.

CPU105は本実施形態の制御装置として機能する。本実施形態はCPU105を備える任意の光学機器に適用可能である。撮像光学系の光軸102上には振れ補正レンズ(以下、補正レンズともいう)108と、撮像素子106が位置する。補正レンズ108は、光軸102と異なる方向に移動することにより、画面上における被写体像の像ブレを補正する。撮像装置101は、角度振れの角速度を検出する角速度検出手段(以下、角速度計という)を備える。角速度計103は、図1の矢印103pで示されるX軸回りの回転方向(ピッチ方向)および矢印103yで示されるY軸回りの回転方向(ヨー方向)の角度振れを検出する。角速度計103の出力する検出信号はCPU105に入力され、振れ補正角度算出部109が振れ補正角度を算出する。振れ補正角度算出部109の出力は、敏感度調整部114に入力される。   The CPU 105 functions as a control device of this embodiment. This embodiment can be applied to any optical apparatus that includes the CPU 105. A shake correction lens (hereinafter also referred to as a correction lens) 108 and an image sensor 106 are positioned on the optical axis 102 of the imaging optical system. The correction lens 108 moves in a direction different from the optical axis 102 to correct image blur of the subject image on the screen. The imaging apparatus 101 includes angular velocity detection means (hereinafter referred to as an angular velocity meter) that detects angular velocity of angular shake. The angular velocity meter 103 detects angular fluctuations in the rotation direction (pitch direction) around the X axis indicated by the arrow 103p in FIG. 1 and in the rotation direction (yaw direction) around the Y axis indicated by the arrow 103y. The detection signal output from the angular velocity meter 103 is input to the CPU 105, and the shake correction angle calculation unit 109 calculates the shake correction angle. The output of the shake correction angle calculation unit 109 is input to the sensitivity adjustment unit 114.

被写体の自動追尾制御が行われない場合、振れ補正角度算出部109は、角速度計103の出力に基づいて振れ補正角度を演算する。具体的には、振れ補正角度算出部109では、オフセット減算部110にて角速度計103の出力である検出信号に対して、角速度計103に検出ノイズとして付加されるDC(直流)成分をカットする。そして積分フィルタ部111にて積分処理を実行して角度信号を出力する。オフセット減算部110によるDC成分のカットには、例えばHPF(ハイパスフィルタ)が用いられる。また積分フィルタ部111には、下記式(1)のフィルタを用いる。式(1)は、左辺第1項の積分器と左辺第2項のHPFを組み合わせたフィルタを表している。このフィルタは時定数Tのローパスフィルタ(LPF)の式に時定数Tを乗算したものと同じ式となる。
When the automatic tracking control of the subject is not performed, the shake correction angle calculation unit 109 calculates the shake correction angle based on the output of the angular velocity meter 103. Specifically, the shake correction angle calculation unit 109 cuts a DC (direct current) component added to the angular velocity meter 103 as detection noise with respect to the detection signal output from the angular velocity meter 103 by the offset subtraction unit 110. . The integration filter unit 111 executes integration processing and outputs an angle signal. For example, an HPF (High Pass Filter) is used for cutting the DC component by the offset subtracting unit 110. The integral filter unit 111 uses a filter represented by the following formula (1). Equation (1) represents a filter that combines the integrator of the first term on the left side and the HPF of the second term on the left side. This filter is the same as a low-pass filter (LPF) expression with a time constant T multiplied by the time constant T.

オフセット減算部110と積分フィルタ部111には、防振特性変更部112の出力が入力される。防振特性変更部112にはパンニング判定部113の出力が入力される。なお、防振特性変更部112には、追尾SW(スイッチ)121の出力も入力されるが、追尾SW121に対応した防振特性変更部112の処理については後で説明する。   The output of the image stabilization characteristic changing unit 112 is input to the offset subtracting unit 110 and the integral filter unit 111. The output of the panning determination unit 113 is input to the image stabilization characteristic changing unit 112. The output of the tracking SW (switch) 121 is also input to the image stabilization characteristic changing unit 112, but the processing of the image stabilization characteristic changing unit 112 corresponding to the tracking SW 121 will be described later.

パンニング判定部113は、角速度計103の出力および積分フィルタ部111の出力である振れ補正角度を取得し、撮像装置101のパンニング動作が行われているか否かを判定する。具体的には、パンニング判定部113は角速度計103が検出した撮像装置101の角速度を所定の閾値と比較する。検出された角速度が閾値を超えた時点から所定期間(判定用時間)が経過した場合にパンニング中であると判定とされ、判定信号が防振特性変更部112へ出力される。   The panning determination unit 113 acquires the shake correction angle, which is the output of the angular velocity meter 103 and the output of the integration filter unit 111, and determines whether the panning operation of the imaging device 101 is performed. Specifically, the panning determination unit 113 compares the angular velocity of the imaging device 101 detected by the angular velocity meter 103 with a predetermined threshold value. When a predetermined period (determination time) has elapsed since the detected angular velocity exceeds the threshold, it is determined that panning is in progress, and a determination signal is output to the image stabilization characteristic changing unit 112.

パンニング判定部113はパンニング中であると判定した場合、防振特性変更部112に対し、積分フィルタ部111の出力する振れ補正角度が大きくなり過ぎないように、制御範囲の中心への推進力を大きく設定する指示を与える。推進力とは、振れ補正角度を制御範囲の中心へ遷移させて近づけようとする制御作用を意味する。またパンニング判定部113はパンニング中でないと判定した場合、防振特性変更部112に対し、制御範囲の中心への推進力を小さく設定するように指示する。ここで、パンニングの大きさに応じて制御範囲の中心への推進力を段階的に変更してもよい。パンニングの大きさとは、検出された角速度の大きさ、または角速度が閾値を超えている時間の長さである。本実施形態ではパンニング動作を例示して説明する。チルティング動作についても方向の違いを除いて同様の処理が行われるので、その詳細な説明は省略する。   When the panning determination unit 113 determines that panning is in progress, the driving force to the center of the control range is set so that the shake correction angle output from the integral filter unit 111 does not become too large for the image stabilization characteristic changing unit 112. Give instructions to set larger. The propulsive force means a control action that attempts to shift the shake correction angle to the center of the control range to approach it. If the panning determination unit 113 determines that panning is not being performed, the panning determination unit 113 instructs the image stabilization characteristic changing unit 112 to set the driving force toward the center of the control range to be small. Here, the driving force toward the center of the control range may be changed stepwise in accordance with the size of panning. The magnitude of panning is the magnitude of the detected angular velocity or the length of time that the angular velocity exceeds a threshold. In the present embodiment, a panning operation will be described as an example. Since the same processing is performed for the tilting operation except for the difference in direction, detailed description thereof is omitted.

防振特性変更部112は、パンニング判定結果と、振れ補正角度に応じた制御範囲中心への推進力の大きさに関する指示にしたがって防振特性(像ブレの補正特性)を変更する。例えば防振特性変更部112は、積分フィルタ部111の出力である振れ補正角度が所定の閾値よりも大きい場合、振れ補正角度を制御範囲の中心付近へ遷移させるために防振特性を変更する。振れ補正角度の大きさに応じて段階的に中心付近へ遷移させるための制御が行われる。具体的には、振れ補正角度が大きいほど中心への推進力を大きくし、振れ補正角度が小さいほど中心への推進力を小さくする制御が行われる。   The anti-shake characteristic changing unit 112 changes the anti-shake characteristic (image blur correction characteristic) in accordance with the panning determination result and an instruction relating to the magnitude of the propulsive force toward the center of the control range according to the shake correction angle. For example, when the shake correction angle that is the output of the integral filter unit 111 is larger than a predetermined threshold, the shake prevention characteristic changing unit 112 changes the shake correction characteristic in order to shift the shake correction angle to the vicinity of the center of the control range. Control for making a transition to the vicinity of the center stepwise is performed according to the magnitude of the shake correction angle. Specifically, control is performed such that the propulsive force toward the center is increased as the shake correction angle is larger, and the propulsion force toward the center is decreased as the shake correction angle is smaller.

防振特性変更部112は、オフセット減算部110や積分フィルタ部111のフィルタ特性を変更することで防振特性を変更する。防振特性変更部112は前記推進力が小さくなるように指示された場合、オフセット減算部110のHPFのカットオフ周波数を小さく設定し、積分フィルタ部111のカットオフ周波数を小さく設定する。防振特性変更部112は前記推進力が大きくなるように指示された場合、オフセット減算部110のHPFのカットオフ周波数を大きく設定し、積分フィルタ部111のカットオフ周波数を大きく設定する。   The anti-vibration characteristic changing unit 112 changes the anti-vibration characteristic by changing the filter characteristics of the offset subtracting unit 110 and the integral filter unit 111. When the anti-vibration characteristic changing unit 112 is instructed to reduce the propulsive force, it sets the cutoff frequency of the HPF of the offset subtracting unit 110 to be small and sets the cutoff frequency of the integral filter unit 111 to be small. When the anti-vibration characteristic changing unit 112 is instructed to increase the propulsive force, the anti-vibration characteristic changing unit 112 sets the HPF cutoff frequency of the offset subtracting unit 110 to be large and sets the cutoff frequency of the integral filter unit 111 to be large.

上記のように振れ補正角度算出部109は、パンニング判定結果と振れ補正角度の大きさに応じて、制御範囲の中心への推進力を変更する処理を行う。これにより、パンニング判定処理を行いつつ、振れ補正角度を算出することができる。振れ補正角度算出部109の出力する振れ補正角度の信号は、敏感度調整部114に入力される。   As described above, the shake correction angle calculation unit 109 performs a process of changing the driving force toward the center of the control range according to the panning determination result and the magnitude of the shake correction angle. As a result, the shake correction angle can be calculated while performing the panning determination process. The shake correction angle signal output by the shake correction angle calculation unit 109 is input to the sensitivity adjustment unit 114.

敏感度調整部114は、ズームおよびフォーカス位置情報107と、これらにより求まる焦点距離や撮影倍率に基づいて、振れ補正角度算出部109の出力を増幅し、振れ補正目標値を出力する。ズーム位置情報はズームユニットから取得され、フォーカス位置情報はフォーカスユニットから取得される。ズームおよびフォーカス位置情報107に基づいて振れ補正目標値を算出する理由は、ズームやフォーカス等の光学情報の変化により補正レンズ108の振れ補正ストロークに対する撮像面での振れ補正敏感度が変化するからである。敏感度調整部114は振れ補正目標値を加算部115に出力する。   The sensitivity adjustment unit 114 amplifies the output of the shake correction angle calculation unit 109 based on the zoom and focus position information 107 and the focal length and the shooting magnification obtained from the zoom and focus position information 107, and outputs a shake correction target value. The zoom position information is acquired from the zoom unit, and the focus position information is acquired from the focus unit. The reason for calculating the shake correction target value based on the zoom and focus position information 107 is that the shake correction sensitivity on the imaging surface with respect to the shake correction stroke of the correction lens 108 changes due to changes in optical information such as zoom and focus. is there. The sensitivity adjustment unit 114 outputs the shake correction target value to the addition unit 115.

被写体の自動追尾を行わない場合(追尾量算出部118の出力である追尾補正量が0の場合)、加算部115は敏感度調整部114による振れ補正目標値を出力する。駆動制御部116には、振れ敏感度調整部114の出力のみが入力される。この場合、補正レンズ108は、撮影画像における被写体像の位置をシフト移動させる可動手段として機能する。駆動制御部116は、補正レンズ108を駆動制御し、振れ補正を実行する。   When the automatic tracking of the subject is not performed (when the tracking correction amount output from the tracking amount calculation unit 118 is 0), the addition unit 115 outputs the shake correction target value by the sensitivity adjustment unit 114. Only the output of the shake sensitivity adjustment unit 114 is input to the drive control unit 116. In this case, the correction lens 108 functions as a movable unit that shifts the position of the subject image in the captured image. The drive control unit 116 controls the correction lens 108 to perform shake correction.

本実施形態にて駆動制御部116は、補正レンズ108を光軸方向と異なる方向に駆動することで像ブレ補正(光学式防振)を実行する。本実施形態では、補正レンズ108を用いた光学像ブレ補正の方式を採用しているが、これに限らず、撮像素子を光軸と垂直な面内で移動させることで像ブレを行う補正方法を適用してもよい。または、撮像素子が出力する各撮影フレームの画像の切り出し位置を変更することで、振れの影響を軽減させる電子式防振を適用してもよい。あるいは複数の像ブレ補正方法を組み合わせることも可能である。加えて、本実施形態では、このような光学式防振および電子式防振の技術を用いて、補正レンズ又は撮像素子の駆動、画像の切り出し位置の変更により、被写体の追尾制御を行う。   In the present embodiment, the drive control unit 116 performs image blur correction (optical image stabilization) by driving the correction lens 108 in a direction different from the optical axis direction. In the present embodiment, an optical image blur correction method using the correction lens 108 is adopted. However, the present invention is not limited to this, and a correction method for performing image blur by moving the image sensor in a plane perpendicular to the optical axis. May be applied. Alternatively, electronic image stabilization that reduces the influence of shake may be applied by changing the cutout position of the image of each shooting frame output by the image sensor. Alternatively, it is possible to combine a plurality of image blur correction methods. In addition, in the present embodiment, tracking control of the subject is performed by driving the correction lens or the image sensor and changing the cutout position of the image by using such optical image stabilization and electronic image stabilization techniques.

次に、被写体検出部117が行う被写体位置の検出処理について詳細に説明する。撮像素子106は被写体からの反射光を電気信号に光電変換することで画像情報を取得する。画像情報はA/D変換部でデジタル画像信号に変換され、デジタル画像信号が被写体検出部117に送られる。撮影画角内に捉えた被写体の画像が複数である場合、複数の被写体から主被写体を自動的に認識する方法として以下の方法がある。   Next, a subject position detection process performed by the subject detection unit 117 will be described in detail. The image sensor 106 acquires image information by photoelectrically converting reflected light from the subject into an electrical signal. The image information is converted into a digital image signal by the A / D conversion unit, and the digital image signal is sent to the subject detection unit 117. There are the following methods for automatically recognizing the main subject from a plurality of subjects when there are a plurality of images of the subject captured within the shooting angle of view.

主被写体検出の第1の方法は人物を検出する方法である。この場合、被写体検出部117は被写体の顔や人体を検出する。顔検出処理では、人物の顔を判断するためのパターンが予め定められており、撮像された画像内に含まれる該パターンに一致する箇所を人物の顔画像として検出することができる。被写体検出部117は、検出された各被写体について、被写体の顔としての確からしさを示す信頼度を算出する。信頼度は、例えば画像内における顔領域の大きさや、顔パターンとの一致度等から算出される。すなわち被写体検出部117は、撮影画像内における被写体の大きさ、または当該被写体と予め記憶された被写体のパターンとの一致度に基づいて当該被写体の信頼度演算を行う信頼度演算手段として機能する。   The first method of main subject detection is a method of detecting a person. In this case, the subject detection unit 117 detects the face and human body of the subject. In the face detection process, a pattern for determining a person's face is determined in advance, and a portion matching the pattern included in the captured image can be detected as a person's face image. The subject detection unit 117 calculates the reliability indicating the likelihood of each detected subject as the face of the subject. The reliability is calculated from, for example, the size of the face area in the image, the degree of matching with the face pattern, and the like. That is, the subject detection unit 117 functions as a reliability calculation unit that calculates the reliability of the subject based on the size of the subject in the photographed image or the degree of coincidence between the subject and a pre-stored subject pattern.

主被写体検出の第2の方法は、撮像された画像内の色相や彩度等のヒストグラムを使用する方法である。撮影画角内に捉えられている被写体の画像に関し、その色相や彩度等のヒストグラムから導出される分布を複数の区間に分け、区間ごとに撮像された画像を分類する処理が実行される。例えば、撮像された画像について複数の色成分のヒストグラムが作成され、その山型の分布範囲で区分けし、同一の区間の組み合わせに属する領域にて撮像された画像が分類され、被写体の画像領域が認識される。認識された被写体の画像領域ごとに評価値を算出することで、当該評価値が最も高い被写体の画像領域を主被写体領域として判定することができる。   The second method of main subject detection is a method that uses a histogram such as hue and saturation in a captured image. With respect to an image of a subject captured within a shooting angle of view, a distribution derived from a histogram such as hue and saturation is divided into a plurality of sections, and processing for classifying images captured for each section is executed. For example, a histogram of a plurality of color components is created for a captured image, divided by its mountain-shaped distribution range, images captured in regions belonging to the same combination of sections are classified, and the subject image region is Be recognized. By calculating the evaluation value for each image area of the recognized subject, the image area of the subject having the highest evaluation value can be determined as the main subject area.

主被写体領域の決定後には、その特徴量を用いて、以降にライブビュー動作、連写撮影または動画撮像により順次撮像される画像から特徴量と類似する領域を検出することで主被写体領域を追尾できる。主被写体領域の特徴量は、例えば色相分布や大きさ等から演算される。検出された主被写体の位置情報は、追尾量算出部118に入力される。追尾量算出部118は、主被写体画像の中心位置が、例えば撮影画像の中央(目標位置)付近に位置するように追尾補正量を演算する。また撮影者が、随時出力される映像信号にしたがって撮像装置の表示部の画面に表示される映像を見ながら、撮像装置の操作部材を操作することによって、表示画面上で被写体位置を指定することも可能である。この場合、撮影者が表示画面に表示される複数の被写体の画像の中から主被写体を指定する操作を行うと、指定された位置での色相分布や大きさ等の特徴量が算出される。算出された特徴量を用いて、以降に順次撮像される画像から当該特徴量と類似する特徴量をもつ領域を検出して、検出された領域を主被写体領域として追尾することができる。   After the main subject area is determined, the main subject area is tracked by detecting an area similar to the feature quantity from images sequentially captured by live view operation, continuous shooting, or moving image capturing. it can. The feature amount of the main subject area is calculated from, for example, the hue distribution and size. The detected position information of the main subject is input to the tracking amount calculation unit 118. The tracking amount calculation unit 118 calculates the tracking correction amount so that the center position of the main subject image is located, for example, near the center (target position) of the captured image. In addition, the photographer designates the subject position on the display screen by operating the operation member of the image pickup device while watching the image displayed on the screen of the display unit of the image pickup device in accordance with the video signal output at any time. Is also possible. In this case, when the photographer performs an operation of designating the main subject from the images of the plurality of subjects displayed on the display screen, feature quantities such as hue distribution and size at the designated position are calculated. Using the calculated feature amount, it is possible to detect a region having a feature amount similar to the feature amount from images sequentially captured thereafter, and to track the detected region as a main subject region.

次に、補正レンズ108を用いた被写体の追尾制御方法について説明する。図2に示す被写体検出部117は、撮像素子106から撮像された画像信号を取得し、撮影画像内の被写体の画像位置(被写体位置)を検出する。被写体位置情報は追尾量算出部118に出力される。追尾量算出部118は、ズームおよびフォーカス位置情報107と、検出された被写体位置情報に基づいて、補正レンズ108の駆動により被写体を追尾するために用いる制御量を算出する。以下、被写体を追尾して被写体の画像を画面(撮影画像の範囲)における予め設定された位置(目標位置。本実施形態では中央位置)に位置させるための制御量(追尾制御量)を追尾補正量という。追尾量算出部118は、追尾SW121の状態に応じて追尾補正量を算出する。追尾補正量は加算部115に入力され、敏感度調整部114の出力である振れ補正目標値と加算されることで、補正レンズ108の駆動による振れ補正と追尾制御とが同時に行われる。   Next, a subject tracking control method using the correction lens 108 will be described. The subject detection unit 117 illustrated in FIG. 2 acquires an image signal captured from the image sensor 106, and detects the image position (subject position) of the subject in the captured image. The subject position information is output to the tracking amount calculation unit 118. The tracking amount calculation unit 118 calculates a control amount used to track the subject by driving the correction lens 108 based on the zoom and focus position information 107 and the detected subject position information. Hereinafter, tracking correction is performed for the control amount (tracking control amount) for tracking the subject and positioning the subject image at a preset position (target position, center position in the present embodiment) on the screen (the range of the captured image). It is called quantity. The tracking amount calculation unit 118 calculates a tracking correction amount according to the state of the tracking SW 121. The tracking correction amount is input to the adding unit 115 and added to the shake correction target value that is the output of the sensitivity adjustment unit 114, whereby shake correction by driving the correction lens 108 and tracking control are performed simultaneously.

図3は、検出された主被写体に対する、本実施形態による追尾制御を説明する図である。図3(A)は、被写体追尾制御の開始前における撮影画像301aを例示する。図3(B)は、被写体追尾制御の開始後における撮影画像301bを例示する。図3(A)の撮影画像301aにおいて、中央に示す黒点は画面中央位置304を示す。追尾制御の開始前に被写体302aの画像位置は画面中央位置304から離れている。被写体中心位置303aは、被写体302aの画像における中心位置を示す。CPU105が被写体追尾制御を開始させると、時間経過につれて被写体中心位置303aと画面中央位置304との距離が徐々に小さくなっていく。被写体追尾制御によって最終的には図3(B)に示すように、被写体中心位置303aと画面中央位置304とがほぼ一致する。   FIG. 3 is a diagram for explaining the tracking control according to the present embodiment for the detected main subject. FIG. 3A illustrates a captured image 301a before the start of subject tracking control. FIG. 3B illustrates the captured image 301b after the start of subject tracking control. In the photographed image 301a in FIG. 3A, the black dot shown at the center indicates the screen center position 304. Before the tracking control is started, the image position of the subject 302a is separated from the screen center position 304. The subject center position 303a indicates the center position in the image of the subject 302a. When the CPU 105 starts subject tracking control, the distance between the subject center position 303a and the screen center position 304 gradually decreases with time. As shown in FIG. 3B, the subject center position 303a and the screen center position 304 substantially coincide with each other as a result of subject tracking control.

次に、図4を参照して追尾量算出部118の追尾量算出処理について説明する。図4は追尾量算出部118の一例を示す機能ブロック図である。追尾量算出部118は、画面の縦方向および横方向の各軸にて追尾補正量を演算するが、簡単化のために、以下では片軸についてのみ説明する。   Next, the tracking amount calculation processing of the tracking amount calculation unit 118 will be described with reference to FIG. FIG. 4 is a functional block diagram illustrating an example of the tracking amount calculation unit 118. The tracking amount calculation unit 118 calculates the tracking correction amount on each axis in the vertical and horizontal directions of the screen. For simplicity, only one axis will be described below.

減算部403は、被写体検出部117が出力する被写体位置情報に基づき、被写体位置(中心位置)401の座標から画面中央位置402の座標を減算する。これにより、被写体画像の中心位置が画面中央位置402から画像上でどれくらいの距離であるかを示す差分量(以下、中心ズレ量という)が算出される。中心ズレ量は画面中央位置402での差分量を0とした符号付きのデータである。減算部403の出力は、カウント値テーブル参照部(以下、単に参照部という)404に入力される。   The subtraction unit 403 subtracts the coordinates of the screen center position 402 from the coordinates of the subject position (center position) 401 based on the subject position information output from the subject detection unit 117. Thereby, a difference amount (hereinafter referred to as a center shift amount) indicating how far the center position of the subject image is on the image from the screen center position 402 is calculated. The center shift amount is signed data in which the difference amount at the screen center position 402 is zero. The output of the subtraction unit 403 is input to a count value table reference unit (hereinafter simply referred to as a reference unit) 404.

参照部404は、中心ズレ量、つまり差分量の大きさに基づいて、追尾のためのカウント値を演算する。具体的には以下の通りである。
・中心ズレ量が所定閾値A以下であり、且つ、所定閾値「−A」以上である場合、カウント値はゼロまたは最小値に設定される。中心ズレ量の大きさ(絶対値)が所定の閾値以下である場合、画面中央位置から所定範囲内では追尾をしない不感帯領域が設定される。
・中心ズレ量が所定閾値Aより大きいか、または、所定閾値「−A」未満である場合
カウント値は、中心ズレ量の絶対値が大きくなるにつれて大きくなるように設定される。カウント値の符号については、中心ズレ量の符号に合わせて演算される。
The reference unit 404 calculates a count value for tracking based on the amount of center deviation, that is, the difference amount. Specifically, it is as follows.
When the center shift amount is equal to or smaller than the predetermined threshold A and equal to or larger than the predetermined threshold “−A”, the count value is set to zero or the minimum value. When the magnitude (absolute value) of the center shift amount is equal to or less than a predetermined threshold, a dead zone area that does not track within a predetermined range from the screen center position is set.
When the center shift amount is greater than the predetermined threshold A or less than the predetermined threshold “−A”, the count value is set to increase as the absolute value of the center shift amount increases. The sign of the count value is calculated according to the sign of the center shift amount.

参照部404の出力は、信号選択部406が第1の入力として取得する。信号選択部406は、第2の入力としてダウンカウント値出力部405の出力するダウンカウント値を取得する。また信号選択部406には制御用信号として、追尾SW(スイッチ)121の状態を示す信号が入力される。追尾SW121がオンに設定されている場合、信号選択部406は参照部404の出力を選択して、加算部407に出力する。また追尾SW121がオフに設定されている場合、信号選択部406はダウンカウント値を選択して、加算部407に出力する。ダウンカウント値については後で説明する。   The output of the reference unit 404 is acquired as a first input by the signal selection unit 406. The signal selection unit 406 acquires the down count value output from the down count value output unit 405 as the second input. The signal selection unit 406 receives a signal indicating the state of the tracking SW (switch) 121 as a control signal. When the tracking SW 121 is set to ON, the signal selection unit 406 selects the output of the reference unit 404 and outputs it to the addition unit 407. When the tracking SW 121 is set to OFF, the signal selection unit 406 selects a down count value and outputs it to the addition unit 407. The down count value will be described later.

加算部407は、信号選択部406の出力と、追尾量に係る前回サンプリング値を取得して両者を加算する。加算部407の出力は上下限値設定部408に入力される。上下限値設定部408は追尾補正量を所定の範囲内に制限する。つまり追尾補正量は、所定の上限値以上にならず、かつ所定の下限値以下にならないようにリミッタがかけられて値が変更される。上下限値設定部408の出力は、遅延部409とLPF(ローパスフィルタ)410にそれぞれ入力される。   The addition unit 407 acquires the output of the signal selection unit 406 and the previous sampling value related to the tracking amount, and adds both. The output of the addition unit 407 is input to the upper / lower limit value setting unit 408. The upper / lower limit setting unit 408 limits the tracking correction amount within a predetermined range. That is, the tracking correction amount is changed by a limiter so that the tracking correction amount does not exceed the predetermined upper limit value and does not become the predetermined lower limit value or less. The output of the upper / lower limit setting unit 408 is input to a delay unit 409 and an LPF (low pass filter) 410, respectively.

遅延部409は、現時点よりも所定のサンプリング時間だけ過去の追尾補正量、つまり前回サンプリング値を演算結果として、加算部407およびダウンカウント値出力部405にそれぞれ出力する。ダウンカウント値出力部405は、ダウンカウント値を出力する。ダウンカウント値出力部405には、後処理で演算される前回の追尾量サンプリング値が入力されている。前回のサンプリング時点での追尾補正量(前回サンプリング値)がプラスの符号である場合、ダウンカウント値出力部405はダウンカウント値をマイナスに設定する。また前回サンプリング値がマイナスの符号である場合、ダウンカウント値出力部405はダウンカウント値をプラスに設定する。これにより、追尾補正量の絶対値が小さくなるように処理が行われる。またダウンカウント値出力部405は、遅延部409の出力する前回サンプリング値がゼロ近傍の範囲(0±所定範囲)以内である場合、ダウンカウント値を0に設定する。ダウンカウント値は信号選択部406への第2の入力となる。   The delay unit 409 outputs the tracking correction amount in the past for a predetermined sampling time from the current time, that is, the previous sampling value as the calculation result to the adding unit 407 and the downcount value output unit 405, respectively. The down count value output unit 405 outputs a down count value. The down-count value output unit 405 receives the previous tracking amount sampling value calculated in post-processing. When the tracking correction amount (previous sampling value) at the previous sampling time is a plus sign, the downcount value output unit 405 sets the downcount value to minus. When the previous sampling value is a minus sign, the downcount value output unit 405 sets the downcount value to plus. As a result, processing is performed so that the absolute value of the tracking correction amount becomes small. The downcount value output unit 405 sets the downcount value to 0 when the previous sampling value output from the delay unit 409 is within a range near zero (0 ± predetermined range). The down count value becomes a second input to the signal selection unit 406.

LPF410は、上下限値設定部408の出力に対して、被写体検出時の高周波ノイズをカットし、処理後の信号を補正レンズ駆動量変換部411に出力する。補正レンズ駆動量変換部411は、LPF410の出力を、補正レンズ108によって被写体追尾動作を行うための信号に変換する。こうして最終的な追尾補正量が演算され、追尾補正量に基づいて補正レンズ108が駆動されることで、徐々に被写体画像の中心位置が撮影画像の中心付近に位置するように追尾補正処理が行われる。
上記のように加算部115により加算された、ブレ補正量と追尾補正量との加算結果に基づいて補正レンズ108を駆動することで、像ブレ補正の制御と被写体追尾制御を同時に行うことができる。
The LPF 410 cuts high frequency noise at the time of subject detection with respect to the output of the upper / lower limit setting unit 408, and outputs the processed signal to the correction lens driving amount conversion unit 411. The correction lens driving amount conversion unit 411 converts the output of the LPF 410 into a signal for performing a subject tracking operation by the correction lens 108. Thus, the final tracking correction amount is calculated, and the correction lens 108 is driven based on the tracking correction amount, so that the tracking correction processing is performed so that the center position of the subject image is gradually positioned near the center of the captured image. Is called.
Image blur correction control and subject tracking control can be performed simultaneously by driving the correction lens 108 based on the addition result of the blur correction amount and the tracking correction amount added by the adding unit 115 as described above. .

被写体追尾を行う場合、撮影者は所望の被写体を撮影するために、画面内の被写体を指定することができる。追尾のための被写体指定方法について図5の具体例を説明する。図5(A)は、撮像装置101の背面部に設けられたLCD(液晶表示装置)501上にタッチパネル502が設置された例を示す。撮影者が表示画面をタッチすると、タッチした位置の被写体503の座標を取得して追尾対象の被写体を設定する処理が実行される。また図5(B)は、被写体追尾選択可能モード(以下、追尾選択可能モードという)に設定するための操作SW(スイッチ)515が設けられた例を示す。撮影者が操作SW515を押下すると、追尾選択可能モードに遷移する。画面中心に被写体指定のためのアイコン504が表示されるので、レリーズスイッチ104のSW1の操作等により、アイコン504の表示位置の被写体503を追尾対象の被写体として設定することができる。   When subject tracking is performed, the photographer can designate a subject in the screen in order to photograph a desired subject. A specific example of FIG. 5 will be described with respect to a subject designation method for tracking. FIG. 5A illustrates an example in which a touch panel 502 is installed on an LCD (liquid crystal display device) 501 provided on the back surface of the imaging device 101. When the photographer touches the display screen, processing for acquiring the coordinates of the subject 503 at the touched position and setting the subject to be tracked is executed. FIG. 5B shows an example in which an operation SW (switch) 515 for setting a subject tracking selectable mode (hereinafter referred to as a tracking selectable mode) is provided. When the photographer presses the operation SW 515, the mode changes to the tracking selectable mode. Since the subject designation icon 504 is displayed at the center of the screen, the subject 503 at the display position of the icon 504 can be set as the subject to be tracked by operating the SW1 of the release switch 104 or the like.

図5(A)および(B)に示すいずれの方法でも、被写体が指定されると、色相分布や大きさ等の特徴量を用いて、以降に順次撮像される画像から特徴量と類似する領域を検出する処理が行われる。図5(C)は、特徴量と類似する領域として抽出される主被写体領域が追尾領域として枠506で撮影者に提示される例を示す。撮影者が表示画面内の被写体画像を指定して被写体追尾を行う場合、被写体を指定する前の段階では以下の問題がある。   In any of the methods shown in FIGS. 5A and 5B, when a subject is specified, a region similar to a feature amount from images sequentially captured using feature amounts such as hue distribution and size is subsequently used. A process of detecting is performed. FIG. 5C shows an example in which a main subject region extracted as a region similar to the feature amount is presented to the photographer in a frame 506 as a tracking region. When the photographer specifies a subject image in the display screen and performs subject tracking, there are the following problems before the subject is designated.

例えばレンズの焦点距離が1000mm以上等のように非常に大きい場合、手振れの影響で被写体像が移動してしまうと、被写体を画角内に捉えてフレーミングすることが難しくなる。手振れの影響によるフレーミングのし難さを抑制するためにはオフセット減算部110の制御範囲中心への推進力を小さくするように特性を変更し、または積分フィルタ部111のカットオフ周波数を小さく設定して振れ補正制御帯域を大きくとる方法がある。しかしながら、手振れ補正の抑振特性を上げた場合、撮影者が画角内に被写体を戻そうとカメラを操作しても、撮影者が意図して操作したときの手振れ量に対して像ブレ補正が行われてしてしまう。このため、像ブレ補正制御の影響により、被写体を画角内に捉え直す操作や被写体画像を撮影画像の中心付近に微調整する操作が難しくなるという問題が起こり得る。例えば撮影者が図5(B)の操作SW515により追尾選択可能モードに設定した状態で被写体を指定する前には、追尾対象の被写体を設定するために、被写体503の位置にアイコン504が遷移するようにフレーミングをし易くする必要がある。追尾選択可能モードに設定されている場合、当該モードに設定されていない状態よりも振れ補正の抑振特性を上げる設定が行われる。この場合、追尾選択可能モードの設定状態において大きくパンニング動作が行われる可能性は低くなるので、パンニング判定部113は判定閾値を大きく設定する。これにより、撮影者は被写体503の位置にアイコン504が遷移するようにフレーミングを行い易くなる。   For example, if the focal length of the lens is very large, such as 1000 mm or more, if the subject image moves due to the influence of camera shake, it is difficult to frame the subject by capturing it within the angle of view. In order to suppress the difficulty of framing due to the influence of camera shake, the characteristic is changed so as to reduce the propulsive force of the offset subtraction unit 110 toward the center of the control range, or the cut-off frequency of the integration filter unit 111 is set small. There is a method of increasing the shake correction control band. However, when the image stabilization characteristics of the camera shake correction are increased, the camera shake correction when the photographer intentionally operates the camera shake even if the camera operator operates the camera to return the subject within the angle of view. Will be done. For this reason, due to the influence of the image blur correction control, there may arise a problem that an operation for re-acquiring the subject within the angle of view and an operation for finely adjusting the subject image near the center of the photographed image become difficult. For example, before the photographer specifies the subject in the state in which the tracking selectable mode is set by the operation SW 515 in FIG. 5B, the icon 504 transitions to the position of the subject 503 in order to set the subject to be tracked. Thus, it is necessary to facilitate framing. When the tracking selectable mode is set, a setting is made to increase the shake correction suppression characteristics as compared to a state where the mode is not set. In this case, since the possibility of a large panning operation being performed in the tracking selectable mode setting state is low, the panning determination unit 113 sets the determination threshold value large. This makes it easier for the photographer to perform framing so that the icon 504 transitions to the position of the subject 503.

被写体の指定後には、像ブレ補正に加え、追尾制御により被写体画像を撮影画像内の特定位置(例えば中心位置)に捉える補正が同時に行われる。このとき、手振れによる影響を極力低減させるために、像ブレ補正に係る抑振特性を上げる設定が行われる。この場合、被写体の指定前よりも抑振特性を上げる設定となる。指定された被写体の追尾が開始していることから、大きくパンニング動作が行われる可能性は更に低くなるので、パンニング判定部113は判定閾値を被写体の指定前よりも大きく設定する。   After the subject is specified, in addition to image blur correction, correction for capturing the subject image at a specific position (for example, the center position) in the captured image is simultaneously performed by tracking control. At this time, in order to reduce the influence of camera shake as much as possible, a setting is made to increase the suppression characteristics related to image blur correction. In this case, the vibration suppression characteristics are set higher than before the subject is specified. Since the tracking of the designated subject has started, the possibility of a large panning operation is further reduced, so the panning determination unit 113 sets the determination threshold value larger than that before the subject is specified.

以下では、追尾選択可能モードに設定されていないデフォルト状態を第1の状態とし、追尾選択可能モードに設定された状態であって被写体が指定されておらず、追尾SW121がOFFの状態を第2の状態とする。追尾選択可能モードに設定された状態であって被写体が指定されており、追尾SW121がONの状態を第3の状態とする。第1の状態のときのブレ補正の補正効果よりも、第2の状態のときのブレ補正の補正効果を強くする制御が行われる。また、第2の状態のときのブレ補正の補正効果よりも、第3の状態のときのブレ補正の補正効果を強くする制御が行われる。第1の状態にて積分フィルタ部111のカットオフ周波数をfc1と表記し、パンニング判定閾値をAh1と表記する。第2の状態にて積分フィルタ部111のカットオフ周波数をfc2と表記し、パンニング判定閾値をAh2と表記する。第3の状態にて積分フィルタ部111のカットオフ周波数をfc3と表記し、パンニング判定閾値をAh3と表記する。各カットオフ周波数およびパンニング判定閾値には、下記式(2)、(3)に示す関係がある。
fc1 > fc2 > fc3 ・・・(2)
Ah1 < Ah2 < Ah3 ・・・(3)
In the following, the default state that is not set to the tracking selectable mode is the first state, the subject is not specified and the tracking SW 121 is OFF in the second state that is set to the tracking selectable mode. State. The state in which the tracking selectable mode is set and the subject is specified and the tracking SW 121 is ON is the third state. Control is performed to make the correction effect of the blur correction in the second state stronger than the correction effect of the blur correction in the first state. In addition, control is performed to make the correction effect of the blur correction in the third state stronger than the correction effect of the blur correction in the second state. In the first state, the cutoff frequency of the integration filter unit 111 is expressed as fc1, and the panning determination threshold is expressed as Ah1. In the second state, the cutoff frequency of the integration filter unit 111 is expressed as fc2, and the panning determination threshold is expressed as Ah2. In the third state, the cutoff frequency of the integration filter unit 111 is expressed as fc3, and the panning determination threshold is expressed as Ah3. Each cut-off frequency and panning determination threshold have a relationship shown in the following formulas (2) and (3).
fc1>fc2> fc3 (2)
Ah1 <Ah2 <Ah3 (3)

追尾選択可能モードの設定前である第1の状態と、追尾動作が行われていない第2の状態と、追尾動作が行われている第3の状態とで、像ブレ補正効果の度合が変更される。したがって被写体指定時や追尾動作時等において、それぞれ最適な像ブレ補正制御を行い、スムーズな被写体追尾による撮影を行うことが可能になる。   The degree of the image blur correction effect is changed between the first state before setting the tracking selectable mode, the second state where the tracking operation is not performed, and the third state where the tracking operation is performed. Is done. Accordingly, it is possible to perform optimum image blur correction control at the time of subject designation, tracking operation, etc., and perform shooting by smooth subject tracking.

次に、被写体検出位置に応じて像ブレ補正効果の度合を変更する処理について説明する。被写体追尾制御において追尾可動範囲が充分である間は、被写体画像が画面中心付近に遷移するように追尾制御が行われる。しかし、追尾可動範囲は有限であるので、制御位置が追尾可動範囲の端(限界位置)に達すると、それ以上の追尾制御を行うことはできない。そのときには、撮影者が自らカメラのフレーミングを行って、被写体画像を画面中心付近に移動させる操作を行うことになる。その際に撮影者が意図して操作したときの手振れ量に対する像ブレ補正が行われてしまうと、補正の影響が問題となる。すなわち撮影者は被写体を画角内に捉え直す操作や、被写体画像の位置を撮影画像中心に微調整する操作が難しくなるという問題が起こり得る。そこで本実施形態では、被写体検出部117による被写体検出位置に応じて積分フィルタ部111のカットオフ周波数(fc4と記す)を変更する処理が行われる。図6を参照して処理例を説明する。   Next, processing for changing the degree of image blur correction effect according to the subject detection position will be described. While the tracking movable range is sufficient in the subject tracking control, the tracking control is performed so that the subject image transitions to the vicinity of the center of the screen. However, since the tracking movable range is finite, when the control position reaches the end (limit position) of the tracking movable range, further tracking control cannot be performed. At that time, the photographer performs framing of the camera himself and performs an operation of moving the subject image to the vicinity of the center of the screen. At this time, if image blur correction is performed on the amount of camera shake when the photographer intends to operate the camera, the effect of the correction becomes a problem. That is, there may be a problem that it is difficult for the photographer to re-operate the subject within the angle of view or to finely adjust the position of the subject image to the center of the captured image. Therefore, in the present embodiment, processing for changing the cutoff frequency (denoted as fc4) of the integration filter unit 111 is performed according to the subject detection position by the subject detection unit 117. A processing example will be described with reference to FIG.

図6は、被写体検出位置(横軸)に応じたカットオフ周波数fc4(縦軸)の設定にかかわるグラフを例示する。被写体検出位置について画面の縦方向と横方向の2軸方向にてそれぞれ座標が検出される。レンズ制御においては縦方向のピッチ制御と横方向のヨー制御にそれぞれ対応する積分フィルタ部111のカットオフ周波数fc4が設定される。また、被写体検出位置に関し、画角の中心位置(目標位置)をゼロとする座標で被写体の位置を示すものとする。   FIG. 6 illustrates a graph relating to the setting of the cutoff frequency fc4 (vertical axis) according to the subject detection position (horizontal axis). Coordinates are detected for the subject detection position in the two axial directions of the screen in the vertical and horizontal directions. In the lens control, a cutoff frequency fc4 of the integration filter unit 111 corresponding to the vertical pitch control and the horizontal yaw control is set. Further, regarding the subject detection position, the subject position is indicated by coordinates where the center position (target position) of the angle of view is zero.

図6は、被写体検出位置が画角の中心位置から離れるほど、カットオフ周波数fc4が大きくなる特性のテーブルを示す。P1およびP2は正値範囲の閾値であり、−P1および−P2は負値範囲の閾値である。被写体検出位置が−P1から+P1の範囲内である場合、カットオフ周波数fc4はデフォルト値D1に設定される。被写体検出位置がP2以上であるか、または−P2以下である場合、カットオフ周波数fc4は周波数D2に設定される。「D2>D1」とする。P1からP2までの区間と、−P1から−P2までの区間では、D1とD2との間を一次式で線形補間することで計算される値fc4に設定される。   FIG. 6 shows a table of characteristics in which the cut-off frequency fc4 increases as the subject detection position moves away from the center position of the angle of view. P1 and P2 are threshold values in the positive value range, and -P1 and -P2 are threshold values in the negative value range. When the subject detection position is within the range of −P1 to + P1, the cutoff frequency fc4 is set to the default value D1. When the subject detection position is P2 or more or −P2 or less, the cutoff frequency fc4 is set to the frequency D2. “D2> D1”. In the interval from P1 to P2 and the interval from -P1 to -P2, the value fc4 calculated by linearly interpolating between D1 and D2 by a linear expression is set.

防振特性変更部112は、算出されたカットオフ周波数fc4を、追尾選択可能モードや追尾SW121の状態に応じてこれまで決められた積分フィルタ部111のカットオフ周波数と比較する。比較の結果、大きい方のカットオフ周波数が最終的な積分フィルタ部111のカットオフ周波数として設定されることになる。   The image stabilization characteristic changing unit 112 compares the calculated cut-off frequency fc4 with the cut-off frequency of the integral filter unit 111 determined so far according to the tracking selectable mode and the state of the tracking SW 121. As a result of the comparison, the larger cutoff frequency is set as the final cutoff frequency of the integration filter unit 111.

このように被写体検出位置に応じて積分フィルタ部111のカットオフ周波数を変更することで、被写体画像が画面中心付近に位置する場合に像ブレ補正効果が高まり、手振れの影響により被写体画像が画面中心から外れることを防止できる。また被写体画像が画面中心から離れている場合には、追尾制御により被写体画像を画面中心に遷移させることができなかった状態(例えば、追尾可動範囲が制御端付近である状態)である。制御端とは補正可能な限界位置である。この場合、撮影者がフレーミングによって被写体画像を画面中心付近に操作できるように、像ブレ補正効果が多少弱めに設定される。つまり、撮影者のフレーミング操作によって像ブレ補正が行われてしまうことを防ぎ、フレーミングをし易くすることができる。   In this way, by changing the cutoff frequency of the integration filter unit 111 in accordance with the subject detection position, the image blur correction effect is enhanced when the subject image is located near the center of the screen, and the subject image is centered on the screen due to the influence of camera shake. Can be prevented from coming off. When the subject image is far from the center of the screen, the subject image cannot be shifted to the center of the screen by tracking control (for example, the tracking movable range is near the control end). The control end is a limit position that can be corrected. In this case, the image blur correction effect is set slightly weak so that the photographer can operate the subject image near the center of the screen by framing. That is, it is possible to prevent image blur correction from being performed by a photographer's framing operation and to facilitate framing.

図7に示すフローチャートを参照して、振れ補正制御および被写体追尾制御の処理例を説明する。以下の処理は、撮像装置101の主電源がオンになった時点で開始し、一定のサンプリング周期で実行される。   A processing example of shake correction control and subject tracking control will be described with reference to the flowchart shown in FIG. The following process starts when the main power supply of the imaging apparatus 101 is turned on and is executed at a constant sampling cycle.

まず、S701においてCPU105は、防振SW(スイッチ)がONであるか否かを判断する。防振SWはユーザが像ブレ補正の制御を行うか否かを指示する操作スイッチである。防振SWがONである場合、S702に処理を進め、防振SWがOFFの場合、S703に移行する。S702でCPU105は角速度計103の出力を取り込み、S704へ進む。S703では角速度計103の出力は取り込まず、角速度値がゼロに設定された後、S704へ進む。角速度値をゼロに設定することで、後の振れ補正演算結果、つまり振れ補正量がゼロとなる。   First, in S701, the CPU 105 determines whether or not the image stabilization SW (switch) is ON. The image stabilization SW is an operation switch for instructing whether or not the user performs image blur correction control. If the image stabilization SW is ON, the process proceeds to S702. If the image stabilization SW is OFF, the process proceeds to S703. In S702, the CPU 105 takes in the output of the angular velocity meter 103, and proceeds to S704. In S703, the output of the angular velocity meter 103 is not captured, and after the angular velocity value is set to zero, the process proceeds to S704. By setting the angular velocity value to zero, the subsequent shake correction calculation result, that is, the shake correction amount becomes zero.

S704にてCPU105は、追尾選択可能モードがONであるか否かを判断する。例えば、図5(B)の操作SW515によって追尾選択可能モードがONに設定されたか否かが判断される。追尾可能選択モードがONである場合、S705へ進み、当該モードがOFFである場合、S708に進む。S705でCPU105は、追尾SW121がONであるか否かを判断する。追尾SW121のON/OFFについては、例えば図5で説明した方法等により、被写体が選択されているか否かで判定することができる。追尾SW121がONである場合、S706に進み、追尾SW121がOFFである場合にはS707に進む。   In S704, the CPU 105 determines whether or not the tracking selectable mode is ON. For example, it is determined whether or not the tracking selectable mode is set to ON by the operation SW 515 in FIG. If the tracking enable selection mode is ON, the process proceeds to S705, and if the mode is OFF, the process proceeds to S708. In step S <b> 705, the CPU 105 determines whether the tracking SW 121 is ON. Whether the tracking SW 121 is ON / OFF can be determined by whether or not the subject is selected, for example, by the method described with reference to FIG. When the tracking SW 121 is ON, the process proceeds to S706, and when the tracking SW 121 is OFF, the process proceeds to S707.

S706にて積分フィルタ部111のカットオフ周波数(faと記す)がfc3に設定される。またパンニング判定部113は、パンニング判定閾値(Thaと記す)をAh3に設定し、S709に進む。S709で被写体検出部117は撮影画像内の被写体位置を検出する。ここでは、S705で追尾SW121がONにされた時点で、撮像された画像をライブ表示しているLCD画面上の被写体画像が、ユーザ操作により指定されているものとする。つまり撮像装置101は被写体を認識しており、その被写体を追尾検出することで被写体の検出位置座標を取得している。   In S706, the cutoff frequency (denoted as fa) of the integration filter unit 111 is set to fc3. Further, the panning determination unit 113 sets the panning determination threshold (denoted as Tha) to Ah3, and the process proceeds to S709. In step S709, the subject detection unit 117 detects the subject position in the captured image. Here, it is assumed that the subject image on the LCD screen on which the captured image is displayed live is specified by the user operation when the tracking SW 121 is turned on in S705. That is, the imaging apparatus 101 recognizes the subject, and acquires the detection position coordinates of the subject by detecting the tracking of the subject.

次のS710で追尾量算出部118は、検出された被写体検出位置から追尾補正量を算出し、S711に進む。S711でCPU105は、検出された被写体位置に基づいて積分フィルタ部111のカットオフ周波数fc4を算出する。そしてS712に進み、CPU105は現在のカットオフ周波数faがfc4よりも小さいか否かを判定する。fa<fc4の場合、S713に進み、fa≧fc4の場合、S715に進む。S713でCPU105はfaにfc4の値を代入することで設定し、S715に進む。   In the next step S710, the tracking amount calculation unit 118 calculates a tracking correction amount from the detected subject detection position, and the process proceeds to S711. In step S711, the CPU 105 calculates a cutoff frequency fc4 of the integration filter unit 111 based on the detected subject position. In step S712, the CPU 105 determines whether the current cutoff frequency fa is smaller than fc4. When fa <fc4, the process proceeds to S713, and when fa ≧ fc4, the process proceeds to S715. In S713, the CPU 105 sets the value by substituting the value of fc4 for fa, and the process proceeds to S715.

S708でCPU105は、積分フィルタ部111のカットオフ周波数faをfc1に設定する。パンニング判定部113は、パンニング判定閾値ThaをAh1に設定し、S714に進む。S707でCPU105は、積分フィルタ部111のカットオフ周波数faをfc2に設定する。パンニング判定部113は、パンニング判定閾値ThaをAh2に設定し、S714に進む。S714では追尾補正量がゼロに設定された後、S715に進む。   In step S708, the CPU 105 sets the cutoff frequency fa of the integration filter unit 111 to fc1. The panning determination unit 113 sets the panning determination threshold value Tha to Ah1, and the process proceeds to S714. In S707, the CPU 105 sets the cutoff frequency fa of the integration filter unit 111 to fc2. The panning determination unit 113 sets the panning determination threshold value Tha to Ah2, and the process proceeds to S714. In S714, after the tracking correction amount is set to zero, the process proceeds to S715.

S715で振れ補正角度算出部109は振れ補正量を算出する。その際、S702もしくはS703で取得した角速度と、S705〜S713で設定した積分フィルタ部111のカットオフ周波数faとパンニング判定部113のパンニング判定閾値Thaが使用される。振れ補正量の算出後にS716に進む。S716で加算部115は、振れ補正量と追尾補正量を加算し、レンズ駆動量を算出する。次のS717でCPU105は、駆動制御部116によって、レンズ駆動量に基づき補正レンズ108の駆動制御を行う。これにより、像ブレ補正と被写体追尾制御が行われる。像ブレ補正および被写体追尾制御の処理が終了すると、次回のサンプリング時点の到来まで待機状態となる。   In step S715, the shake correction angle calculation unit 109 calculates a shake correction amount. At that time, the angular velocity acquired in S702 or S703, the cutoff frequency fa of the integral filter unit 111 set in S705 to S713, and the panning determination threshold value Tha of the panning determination unit 113 are used. After calculating the shake correction amount, the process proceeds to S716. In S716, the addition unit 115 adds the shake correction amount and the tracking correction amount, and calculates the lens driving amount. In the next step S717, the CPU 105 controls the driving of the correction lens 108 by the driving control unit 116 based on the lens driving amount. Thereby, image blur correction and subject tracking control are performed. When the image blur correction and subject tracking control processes are completed, the process stands by until the next sampling time comes.

本実施形態の像位置制御装置は、撮影画像内の被写体検出位置に基づいて被写体追尾量を算出する。被写体追尾量は、被写体画像を画面内の特定位置(例えば中央位置やユーザが指定した位置等)に遷移させるための制御量である。また像位置制御装置は、振れ検出信号として角速度出力に基づいて演算を行って振れ補正量(像ブレの補正量)を算出する。振れ補正量と被写体追尾量が加算され、加算値に基づく補正レンズの駆動制御により、像ブレ補正および被写体追尾制御が行われる。その際には、被写体追尾の制御状態に応じて振れ補正量を算出する特性が変更される。つまり追尾選択可能モードであるか否かの判定結果を示す情報や、追尾スイッチのON/OFF設定情報に基づいて、像ブレ補正効果の度合いを変更する処理と、被写体位置に応じて像ブレ補正効果の度合いを変更する処理が行われる。よって、撮影者がフレーミングを行い易い像ブレ補正制御を実現するとともに、像ブレ補正および自動被写体追尾制御の性能を向上させることができる。   The image position control apparatus of the present embodiment calculates the subject tracking amount based on the subject detection position in the captured image. The subject tracking amount is a control amount for shifting the subject image to a specific position (for example, a center position or a position designated by the user) on the screen. Further, the image position control device performs a calculation based on the angular velocity output as a shake detection signal and calculates a shake correction amount (image blur correction amount). The shake correction amount and the subject tracking amount are added, and image blur correction and subject tracking control are performed by driving the correction lens based on the added value. In this case, the characteristic for calculating the shake correction amount is changed according to the subject tracking control state. In other words, processing for changing the degree of image blur correction effect based on information indicating the result of determining whether the mode is the tracking selectable mode or ON / OFF setting information of the tracking switch, and image blur correction according to the subject position Processing for changing the degree of effect is performed. Therefore, it is possible to realize image blur correction control that allows a photographer to easily perform framing, and to improve performance of image blur correction and automatic subject tracking control.

本実施形態では、像ブレ補正および自動被写体追尾制御の手段として補正レンズを光軸に垂直な面内で移動させる、いわゆる光学式防振制御への適用例を説明した。しかし、本発明は以下の構成を有する像位置制御装置に適用することもできる。
(1)撮像素子を光軸に垂直な面内で移動させる構成。
(2)撮像素子が出力する各撮影フレームの切り出し位置を変更する画像処理によって電子式制御を行う構成。
(3)撮像素子と撮影レンズ群を含む鏡筒を回転駆動させる機構部を備える構成。
(4)撮像装置とは別に設けた駆動機構部(例えば、撮像装置のパンニング動作やチルティング動作を行う回転雲台等)を組み合わせた構成。
(5)上記(1)から(4)に示す複数の構成の組み合わせ。
なお、このことは後述する第3および第4実施形態でも同じである。
In the present embodiment, an example of application to so-called optical image stabilization control in which the correction lens is moved in a plane perpendicular to the optical axis as means for image blur correction and automatic subject tracking control has been described. However, the present invention can also be applied to an image position control device having the following configuration.
(1) A configuration in which the image sensor is moved in a plane perpendicular to the optical axis.
(2) A configuration in which electronic control is performed by image processing for changing the cut-out position of each shooting frame output by the image sensor.
(3) A configuration including a mechanism unit that rotationally drives a lens barrel including the imaging element and the imaging lens group.
(4) A configuration in which a drive mechanism unit (for example, a rotary head that performs a panning operation or a tilting operation of the imaging device) provided separately from the imaging device is combined.
(5) A combination of a plurality of configurations shown in (1) to (4) above.
This also applies to third and fourth embodiments described later.

[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態では、補正レンズ108に加え、撮影レンズ群と撮像素子106を含む鏡筒を回転駆動する機構部を備える場合の、像ブレ補正および自動被写体追尾について説明する。本実施形態において第1実施形態の場合と同様の構成要素については既に使用した符号を用いることで、それらの詳細な説明を省略し、主に相違点を説明する。このような説明の省略については後述の実施形態でも同じである。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, image blur correction and automatic subject tracking will be described in the case where a mechanism unit that rotationally drives a lens barrel including a photographing lens group and an image sensor 106 in addition to the correction lens 108. In this embodiment, the same components as those in the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and detailed description thereof will be omitted. Differences will be mainly described. Omitting such description is the same in the embodiments described later.

図8は本実施形態の撮像装置101を模式的に示す図である。図8では3次元直交座標のX軸、Y軸、Z軸のうち、X軸回り方向をピッチ方向とし、Y軸回り方向をヨー方向と定義する。Z軸方向は撮像装置101の光軸方向である。図8(A)に示す撮像装置101は、レリーズスイッチ104等の操作部材と、撮影された画像等を表示する表示部を備える。LCD等を用いた表示部は、撮影画像をリアルタイムにライブ表示するモニタ機能を有する。鏡筒801は撮影レンズ群や撮像素子106を備え、撮像装置101にて駆動可能な状態で取り付けられる。つまり鏡筒801を撮像装置101に対して回転駆動(傾動)させる機構が設けられている。   FIG. 8 is a diagram schematically illustrating the imaging apparatus 101 of the present embodiment. In FIG. 8, among the X, Y, and Z axes of the three-dimensional orthogonal coordinates, the direction around the X axis is defined as the pitch direction, and the direction around the Y axis is defined as the yaw direction. The Z-axis direction is the optical axis direction of the imaging device 101. An imaging apparatus 101 illustrated in FIG. 8A includes an operation member such as a release switch 104 and a display unit that displays a captured image. A display unit using an LCD or the like has a monitor function that displays live images in real time. The lens barrel 801 includes a photographing lens group and an image sensor 106 and is attached in a state where it can be driven by the image pickup apparatus 101. That is, a mechanism for rotating (tilting) the lens barrel 801 with respect to the imaging apparatus 101 is provided.

図8(B)は鏡筒801の回転駆動にかかわる構造を示す。駆動機構部802pは、鏡筒801をピッチ方向に回転させるモータおよびその駆動制御部を備える。駆動機構部802yは、鏡筒801をヨー方向に回転させるモータおよびその駆動制御部を備える。駆動機構部802p,803yによって鏡筒801の姿勢をピッチ方向とヨー方向にそれぞれ独立して制御することができる。   FIG. 8B shows a structure relating to rotational driving of the lens barrel 801. The drive mechanism unit 802p includes a motor that rotates the lens barrel 801 in the pitch direction and a drive control unit thereof. The drive mechanism unit 802y includes a motor that rotates the lens barrel 801 in the yaw direction and a drive control unit thereof. The attitude of the lens barrel 801 can be independently controlled in the pitch direction and the yaw direction by the drive mechanism portions 802p and 803y.

図9は撮像装置101の要部の構成を示す図である。図2で説明した第1実施形態の構成との相違点は以下の通りである。
(1)鏡筒801をモータで回転駆動する回転駆動機構部802が設けられていること。(2)振れ補正量と追尾補正量とを加算する加算部115が削除され、敏感度調整部114の出力する振れ補正量が駆動制御部116に入力されること。
(3)回転駆動機構部802を駆動する駆動制御部901が追加され、追尾量算出部118の出力する追尾補正量が駆動制御部901に入力されること。
(4)駆動制御部901は追尾量算出部118が算出した追尾補正量に基づいて、回転駆動機構部802を駆動することで自動被写体追尾制御を行うこと。
FIG. 9 is a diagram illustrating a configuration of a main part of the imaging apparatus 101. Differences from the configuration of the first embodiment described in FIG. 2 are as follows.
(1) A rotation drive mechanism 802 for rotating the lens barrel 801 with a motor is provided. (2) The addition unit 115 that adds the shake correction amount and the tracking correction amount is deleted, and the shake correction amount output from the sensitivity adjustment unit 114 is input to the drive control unit 116.
(3) A drive control unit 901 that drives the rotation drive mechanism unit 802 is added, and the tracking correction amount output from the tracking amount calculation unit 118 is input to the drive control unit 901.
(4) The drive control unit 901 performs automatic subject tracking control by driving the rotation drive mechanism unit 802 based on the tracking correction amount calculated by the tracking amount calculation unit 118.

本実施形態の像位置制御装置は、補正レンズ108を用いて像ブレ補正を行い、回転駆動機構部802により自動被写体追尾制御を行う。この場合でも第1実施形態と同様の効果が得られ、撮影者にとってフレーミングし易い像ブレ補正の制御を行うことができる。   The image position control apparatus according to the present embodiment performs image blur correction using the correction lens 108 and performs automatic subject tracking control using the rotation drive mechanism unit 802. Even in this case, the same effect as that of the first embodiment can be obtained, and image blur correction that is easy for the photographer to perform framing can be controlled.

なお、本実施形態において角速度計103は鏡筒801に取り付けられるか、または鏡筒801以外の撮像装置101の部位に取り付けられる。角速度計103が鏡筒801に取り付けられている場合には、角速度計103の出力から、撮像装置101の固定部と鏡筒801との相対角速度が減算される。撮像装置101と鏡筒801との相対角速度は、回転駆動機構部802により回転される鏡筒801の回転速度であり、モータの駆動指示信号や回転検出センサ等により検出される。相対角速度を角速度計103の出力から減算することで、撮像装置101の振れ量を算出することができる。   In this embodiment, the angular velocity meter 103 is attached to the lens barrel 801 or attached to a part of the imaging device 101 other than the lens barrel 801. When the angular velocity meter 103 is attached to the lens barrel 801, the relative angular velocity between the fixed portion of the imaging device 101 and the lens barrel 801 is subtracted from the output of the angular velocity meter 103. The relative angular velocity between the imaging device 101 and the lens barrel 801 is the rotational velocity of the lens barrel 801 rotated by the rotation driving mechanism 802, and is detected by a motor drive instruction signal, a rotation detection sensor, or the like. By subtracting the relative angular velocity from the output of the angular velocity meter 103, the shake amount of the imaging device 101 can be calculated.

本実施形態では、像ブレ補正手段として補正レンズおよびその駆動機構を使用し、自動被写体追尾手段として撮像素子および撮影レンズ群を含む鏡筒801およびその回転駆動機構を使用する。これに限らず、以下の構成を適用可能である。
(1)撮像素子を光軸に垂直な面内で移動させる機構と、補正レンズを駆動する機構を備える構成。
(2)撮像素子が出力する各撮影フレームの画像切り出し位置を変更する処理部と、補正レンズを駆動する機構を備える構成。
(3)撮像素子が出力する各撮影フレームの画像切り出し位置を変更する処理部と、撮像素子を光軸に垂直な面内で移動させる機構を備える構成。
(4)撮像素子を光軸に垂直な面内で移動させる機構と、撮影レンズ群を含む鏡筒を回転駆動する機構を備える構成。
(5)撮像素子が出力する各撮影フレームの画像切り出し位置を変更する処理部と、撮影レンズ群を含む鏡筒を回転駆動する機構を備える構成。
(6)上記(1)から(5)に示す複数の構成の組み合わせ。
In this embodiment, a correction lens and its driving mechanism are used as image blur correction means, and a lens barrel 801 including an image sensor and a photographing lens group and its rotation driving mechanism are used as automatic subject tracking means. The present invention is not limited to this, and the following configurations are applicable.
(1) A configuration including a mechanism for moving the image sensor in a plane perpendicular to the optical axis and a mechanism for driving the correction lens.
(2) A configuration including a processing unit that changes the image cutout position of each shooting frame output by the image sensor and a mechanism that drives the correction lens.
(3) A configuration including a processing unit that changes the image cutout position of each shooting frame output by the imaging device, and a mechanism that moves the imaging device in a plane perpendicular to the optical axis.
(4) A configuration provided with a mechanism for moving the image sensor in a plane perpendicular to the optical axis and a mechanism for rotationally driving a lens barrel including the photographing lens group.
(5) A configuration including a processing unit that changes the image cutout position of each shooting frame output by the imaging device, and a mechanism that rotationally drives a lens barrel including the shooting lens group.
(6) A combination of a plurality of configurations shown in (1) to (5) above.

[第3実施形態]
次に本発明の第3実施形態を説明する。本実施形態の像ブレ補正および自動被写体追尾装置は、自動被写体追尾に用いる被写体検出情報に基づいて像ブレ補正の特性を変更する。被写体検出情報とは、被写体の検出中であるか、または被写体を見失ったか等の被写体検出状況を示す情報や、被写体検出の信頼度の情報である。以下では、被写体検出情報を反映させた像ブレ補正および自動被写体追尾制御について説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. The image blur correction and automatic subject tracking device of the present embodiment changes the characteristics of image blur correction based on subject detection information used for automatic subject tracking. The subject detection information is information indicating the subject detection status such as whether the subject is being detected or the subject has been lost, and information on the reliability of subject detection. Hereinafter, image blur correction and automatic subject tracking control reflecting subject detection information will be described.

図10は本実施形態に係る撮像装置の要部の構成を示す図である。第1実施形態にて図2で説明した構成との相違点は、以下の通りである。
(1)被写体検出部117は、被写体位置検出部1000に加えて被写体検出状態判定部1001と被写体信頼度判定部1002を備え、検出情報や判定情報は追尾ゲイン部1003と防振特性変更部112と追尾量算出部118に入力されること。
(2)追尾ゲイン部1003が追加されており、追尾量算出部118の出力である追尾補正量に対してゲインが乗算されて加算部115に入力されること。
FIG. 10 is a diagram illustrating a configuration of a main part of the imaging apparatus according to the present embodiment. The difference from the configuration described in FIG. 2 in the first embodiment is as follows.
(1) The subject detection unit 117 includes a subject detection state determination unit 1001 and a subject reliability determination unit 1002 in addition to the subject position detection unit 1000, and detection information and determination information are a tracking gain unit 1003 and an anti-vibration characteristic change unit 112. And input to the tracking amount calculation unit 118.
(2) A tracking gain unit 1003 is added, and the tracking correction amount, which is the output of the tracking amount calculation unit 118, is multiplied by a gain and input to the adding unit 115.

追尾ゲイン部1003には、被写体検出状態判定部(以下、検出状態判定部という)1001と被写体信頼度判定部(以下、信頼度判定部という)1002による各判定情報が入力され、追尾ゲイン部1003は各判定結果に応じて、ゲインを設定する。ゲイン値は0以上1以下とする。追尾ゲイン部1003および防振特性変更部112について以下に詳説する。   The tracking gain unit 1003 receives determination information from a subject detection state determination unit (hereinafter referred to as a detection state determination unit) 1001 and a subject reliability determination unit (hereinafter referred to as a reliability determination unit) 1002, and a tracking gain unit 1003. Sets the gain according to each determination result. The gain value is 0 or more and 1 or less. The tracking gain unit 1003 and the image stabilization characteristic changing unit 112 will be described in detail below.

被写体位置検出部1000は、第1実施形態の被写体検出部117に相当し、被写体の位置を例えば顔検出やパターンマッチング等を用いて検出する。検出状態判定部1001は、第1の検出状態または第2の検出状態を判定する。第1の検出状態とは、被写体が検出できている状態である。第2の検出状態とは、被写体を見失ったために検出できていない状態である。第1の検出状態では追尾制御を行うことが可能であるので、追尾ゲイン部1003はゲイン値を1に設定する。つまり追尾量算出部118が演算した追尾補正量はそのまま加算部115に入力される。また被写体追尾制御が行われているので、像ブレ補正効果を高くする設定となる。第1実施形態で説明したように、オフセット減算部110や積分フィルタ部111の特性は、追尾SW121の状態や、パンニング判定部113の判定結果に応じた特性に設定されて振れ補正量が演算される。   The subject position detection unit 1000 corresponds to the subject detection unit 117 of the first embodiment, and detects the position of the subject using, for example, face detection or pattern matching. The detection state determination unit 1001 determines the first detection state or the second detection state. The first detection state is a state in which a subject can be detected. The second detection state is a state where detection is not possible because the subject is lost. Since tracking control can be performed in the first detection state, the tracking gain unit 1003 sets the gain value to 1. That is, the tracking correction amount calculated by the tracking amount calculation unit 118 is input to the addition unit 115 as it is. Since subject tracking control is performed, the image blur correction effect is set to be high. As described in the first embodiment, the characteristics of the offset subtraction unit 110 and the integration filter unit 111 are set to the characteristics according to the state of the tracking SW 121 and the determination result of the panning determination unit 113, and the shake correction amount is calculated. The

一方、検出状態判定部1001が第2の検出状態と判定した場合には、被写体追尾を停止させる制御を行うことが好ましい。つまり、第2の検出状態と判定された場合には、ゲイン値を0に設定することが好ましい。また、検出状態判定部1001が、第1の検出状態と第2の検出状態との2つの状態からではなく、3つ以上の検出状態から、被写体の検出状態を判定してもよい。   On the other hand, when the detection state determination unit 1001 determines that the detection state is the second detection state, it is preferable to perform control to stop subject tracking. That is, when the second detection state is determined, the gain value is preferably set to 0. Moreover, the detection state determination unit 1001 may determine the detection state of the subject from three or more detection states instead of from the two states of the first detection state and the second detection state.

例えば、第1の検出状態は被写体が検出できている可能性の高い状態とし、第2の検出状態は被写体を検出できていない可能性が高い状態とする。そして、第3の検出状態は第1の検出状態よりも被写体が検出できている可能性が低いが、第2の検出状態よりも被写体が検出できる可能性が高い状態とする。例えば、被写体を見失って所定時間中では被写体を見失ってはいるが、被写体を探している状態(第3の検出状態)を判定結果として取り得る場合を説明する。尚、第3の検出状態中に再び被写体を検出した場合は、再度被写体検出状態である第1の状態に遷移するが、被写体ロスト状態が所定時間継続すると、被写体の探索を停止して被写体非検出状態である第2の検出状態に遷移するものとする。第3の検出状態は、例えば被写体ロスト状態となったときからの経過時間によって被写体検出の可能性が小さくなっていくように設定してもよい。この場合、再度被写体の検出状態である第1の検出状態に遷移するが、第3の検出状態が所定時間継続すると、制御装置は被写体の探索を停止して、非検出状態である第2の検出状態に遷移する。第3の検出状態は、例えば被写体ロスト状態となった時点からの経過時間によって被写体検出の可能性が小さくなっていくように設定してもよい。このとき、追尾ゲイン部1003は、第1の検出状態の場合にゲイン値を1とし、第2の検出状態の場合にゲイン値を0とし、第3の検出状態の場合にゲイン値を0より大きい1未満の値とする。検出状態判定部1001が第1の検出状態と第2の検出状態との間に、被写体を検出できている可能性に応じて設定された複数の状態から検出状態を決定してもよい。この場合、追尾ゲイン部1003は被写体を検出できている可能性が低くなるにつれて徐々にゲイン値が小さくなるように設定しながら、最終的にゲイン値をゼロに設定する。第2の検出状態では追尾制御を行わないため、撮影者のフレーミング操作によって被写体画像を画面中心付近に操作できるように設定される。つまり防振特性変更部112は像ブレ補正効果を多少弱め、フレーミング操作に対して像ブレ補正が行われることを防ぎ、撮影者がフレーミングを行い易い防振特性に変更する。但し、このときの防振特性は、像ブレ補正をある程度の強さで効かせつつ、フレーミングを行い易くする特性である。積分フィルタ部111のカットオフ周波数はfc2に設定され、パンニング判定閾値はAh2に設定される。この設定は、図7のS707に示す、被写体が指定されておらず追尾SWがOFFの状態と同様である。防振特性変更部112は検出状態判定部1001による被写体検出状態の判定結果と、追尾SW121の状態と、パンニング判定部113の判定結果に応じて防振特性を変更する。すなわち、被写体検出状態の判定結果に応じた防振特性と、追尾SW121の状態やパンニング判定部113の判定結果に応じた防振特性のうちで、最も像ブレ補正効果の低い防振特性が決定される。決定された防振特性にしたがってオフセット減算部110や積分フィルタ部111の設定が行われる。   For example, the first detection state is a state where the subject is highly likely to be detected, and the second detection state is a state where the subject is not likely to be detected. The third detection state is a state in which the subject is less likely to be detected than in the first detection state, but the subject is more likely to be detected than in the second detection state. For example, a case will be described where the subject is lost in a predetermined time after losing sight of the subject, but the state of searching for the subject (third detection state) can be taken as the determination result. Note that if the subject is detected again during the third detection state, the state transitions again to the first state, which is the subject detection state. However, if the subject lost state continues for a predetermined time, the search for the subject is stopped and the subject is not detected. It shall transition to the 2nd detection state which is a detection state. The third detection state may be set, for example, such that the possibility of subject detection decreases with the elapsed time since the subject lost state. In this case, a transition is made again to the first detection state, which is the subject detection state, but when the third detection state continues for a predetermined time, the control device stops searching for the subject and the second detection state is the second detection state. Transition to the detection state. The third detection state may be set, for example, such that the possibility of subject detection becomes smaller depending on the elapsed time from the time when the subject is lost. At this time, the tracking gain unit 1003 sets the gain value to 1 in the first detection state, sets the gain value to 0 in the second detection state, and sets the gain value to 0 in the third detection state. A large value less than 1 is assumed. The detection state determination unit 1001 may determine the detection state from a plurality of states set according to the possibility that the subject can be detected between the first detection state and the second detection state. In this case, the tracking gain unit 1003 finally sets the gain value to zero while setting the gain value to gradually decrease as the possibility of detecting the subject decreases. Since tracking control is not performed in the second detection state, it is set so that the subject image can be operated near the center of the screen by the framing operation of the photographer. In other words, the image stabilization characteristic changing unit 112 slightly reduces the image blur correction effect, prevents image blur correction from being performed for the framing operation, and changes the image stabilization characteristic to allow the photographer to easily perform framing. However, the image stabilization characteristic at this time is a characteristic that facilitates framing while applying image blur correction with a certain level of strength. The cutoff frequency of the integration filter unit 111 is set to fc2, and the panning determination threshold is set to Ah2. This setting is the same as that in S707 of FIG. 7 in which the subject is not specified and the tracking SW is OFF. The image stabilization characteristic changing unit 112 changes the image stabilization characteristic according to the determination result of the subject detection state by the detection state determination unit 1001, the state of the tracking SW 121, and the determination result of the panning determination unit 113. That is, among the image stabilization characteristics according to the determination result of the subject detection state and the image stabilization characteristics according to the state of the tracking SW 121 and the determination result of the panning determination unit 113, the image stabilization characteristic having the lowest image blur correction effect is determined. Is done. The offset subtraction unit 110 and the integration filter unit 111 are set according to the determined image stabilization characteristics.

信頼度判定部1002は検出された被写体画像が信頼できるか否かを判定する。被写体画像の信頼度は、例えば撮影画像内における被写体画像の大きさから判定することができる。あるいは、被写体の指定時に記憶された被写体画像のパターンと検出された被写体画像との一致度に基づいて、判定対象となる主被写体の信頼度を演算することができる。また、検出した被写体と同じパターンの被写体が複数存在する場合であって、主被写体検出を間違える可能性が高いときには信頼度が低く算出される。信頼度判定部1002は算出された信頼度を閾値と比較することで、検出された被写体画像が信頼できるか否かを判定する。被写体画像の信頼度が高い場合(閾値以上の場合)、被写体追尾制御が可能である。この場合、追尾ゲイン部1003はゲイン値を1に設定する。追尾量算出部118が演算した追尾補正量はそのまま加算部115に入力される。追尾制御中には像ブレ補正効果を高めるために、オフセット減算部110や積分フィルタ部111の特性が変更されて振れ補正量が演算される。   A reliability determination unit 1002 determines whether or not the detected subject image is reliable. The reliability of the subject image can be determined from the size of the subject image in the captured image, for example. Alternatively, the reliability of the main subject to be determined can be calculated based on the degree of coincidence between the pattern of the subject image stored when the subject is designated and the detected subject image. Further, when there are a plurality of subjects having the same pattern as the detected subject and there is a high possibility that the main subject is detected incorrectly, the reliability is calculated to be low. The reliability determination unit 1002 determines whether the detected subject image is reliable by comparing the calculated reliability with a threshold value. When the reliability of the subject image is high (when it is greater than or equal to the threshold value), subject tracking control is possible. In this case, the tracking gain unit 1003 sets the gain value to 1. The tracking correction amount calculated by the tracking amount calculation unit 118 is input to the addition unit 115 as it is. During the tracking control, in order to enhance the image blur correction effect, the characteristics of the offset subtraction unit 110 and the integration filter unit 111 are changed to calculate the shake correction amount.

一方、信頼度判定部1002により、被写体画像の信頼度が閾値未満であって信頼度が低いと判定された場合には、撮影者の望まない追尾制御となる可能性があるため、追尾を停止させる制御が行われる。信頼度判定部1002は閾値を複数用いて信頼度を、信頼できるか否かの2段階だけでなく、多段階で評価することが好ましい。この場合、算出された信頼度が最も大きい、閾値以上の(信頼度が最も高いと評価される)場合に追尾ゲイン部1003はゲイン値を1に設定し、信頼度に応じて徐々にゲイン値を小さくしていく。そして、信頼度が最も小さい、閾値未満のときに最終的にゲイン値をゼロに設定する。このとき、像ブレ補正効果を多少弱めるために防振特性が変更される。つまり、積分フィルタ部111のカットオフ周波数がfc2に設定され、パンニング判定閾値がAh2に設定される。像ブレ補正をある程度強く効かせつつ、フレーミングを行い易い特性となる。防振特性変更部112は、信頼度判定部1002の判定結果と、検出状態判定部1001による被写体検出状態の判定結果と、追尾SW121の状態およびパンニング判定部113の判定結果に応じて防振特性を変更する。すなわち、信頼度判定部1002の判定結果である被写体信頼度に応じた防振特性と、被写体検出状態に応じた防振特性と、追尾SW121の状態やパンニング判定部113の判定結果に応じた防振特性が比較される。これらの防振特性のうち、最も像ブレ補正効果の低い防振特性が決定される。決定された防振特性にしたがってオフセット減算部110や積分フィルタ部111の設定が行われる。   On the other hand, if the reliability determination unit 1002 determines that the reliability of the subject image is less than the threshold and the reliability is low, tracking may be undesired by the photographer, and thus tracking is stopped. Control is performed. The reliability determination unit 1002 preferably uses a plurality of thresholds to evaluate the reliability not only in two stages of whether or not it is reliable, but also in multiple stages. In this case, the tracking gain unit 1003 sets the gain value to 1 when the calculated reliability is the highest and is equal to or greater than the threshold (evaluated as the highest reliability), and the gain value is gradually increased according to the reliability. Keep it small. Then, the gain value is finally set to zero when the reliability is the smallest and less than the threshold value. At this time, the image stabilization characteristic is changed to slightly weaken the image blur correction effect. That is, the cutoff frequency of the integration filter unit 111 is set to fc2, and the panning determination threshold is set to Ah2. This makes it easy to perform framing while applying image blur correction to some extent. The image stabilization characteristic changing unit 112 is based on the determination result of the reliability determination unit 1002, the determination result of the subject detection state by the detection state determination unit 1001, the state of the tracking SW 121, and the determination result of the panning determination unit 113. To change. That is, the image stabilization characteristic according to the subject reliability as the determination result of the reliability determination unit 1002, the image stabilization characteristic according to the subject detection state, the state of the tracking SW 121 and the anti-shake according to the determination result of the panning determination unit 113. Vibration characteristics are compared. Among these image stabilization characteristics, the image stabilization characteristic having the lowest image blur correction effect is determined. The offset subtraction unit 110 and the integration filter unit 111 are set according to the determined image stabilization characteristics.

追尾ゲイン部1003から出力される追尾補正量は加算部115に入力され、敏感度調整部114の出力であるブレ補正量の目標値と加算される。これにより、補正レンズ108の駆動による像ブレ補正と追尾補正を同時に行うことが可能となる。
本実施形態では、被写体検出状態または被写体信頼度、あるいはその両方に応じて像ブレ補正の特性を変更する処理が行われる。したがって、撮影者がフレーミングし易い像ブレ補正制御を実現できるので、像ブレ補正と自動被写体追尾制御の性能を向上させることができる。
The tracking correction amount output from the tracking gain unit 1003 is input to the adding unit 115 and added to the target value of the blur correction amount that is the output of the sensitivity adjustment unit 114. Accordingly, it is possible to simultaneously perform image blur correction and tracking correction by driving the correction lens 108.
In the present embodiment, processing for changing the characteristics of image blur correction is performed according to the subject detection state and / or subject reliability. Therefore, since the image blur correction control that is easy for the photographer to perform framing can be realized, the performance of the image blur correction and the automatic subject tracking control can be improved.

[第4実施形態]
次に本発明の第4実施形態を説明する。本実施形態の像ブレ補正および自動被写体追尾装置は、自動被写体追尾に用いる被写体検出情報に基づいて、追尾制御ができる状態であるか否かを判定し、判定結果を表示部の画面に表示する。これにより、撮影者に対して撮像装置が被写体を追尾可能な状態であるか否かを通知し、撮影者がフレーミングし易い像ブレ補正および被写体追尾制御を実現することができる。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. The image blur correction and automatic subject tracking device of this embodiment determines whether tracking control is possible based on subject detection information used for automatic subject tracking, and displays the determination result on the screen of the display unit. . Accordingly, it is possible to notify the photographer whether or not the imaging apparatus is in a state in which the subject can be tracked, and to realize image blur correction and subject tracking control in which the photographer can easily perform framing.

被写体の位置を撮影画面の特定の位置(例えば中央位置)に保持するように被写体追尾を行うシステムにおいては、追尾動作中は追尾制御によりカメラが自動的に被写体を画角中央付近に位置させるように追尾する。このため、撮影者は被写体を追うフレーミング動作を行う必要はない。しかしこのような被写体追尾は、光学系の一部を移動させることで行われるため、追尾できる可動範囲には限りがある。追尾可動範囲端まで達した場合、それ以上追尾を行うことはできないので、撮影者はカメラを振って被写体を追う必要がある。しかし、光学系が追尾可動端に達した場合、撮影者がそれを即座に判断することは困難であるため、撮影者のフレーミング操作が遅れ、被写体を撮影画面内から逃してしまう可能性がある。これは、フレームの切り出し範囲を変更することで追尾を行う場合も同様である。   In a system that performs subject tracking so that the position of the subject is held at a specific position (for example, the center position) on the shooting screen, the camera automatically positions the subject near the center of the angle of view by tracking control during the tracking operation. To track. For this reason, the photographer does not need to perform a framing operation to follow the subject. However, since such subject tracking is performed by moving a part of the optical system, the movable range that can be tracked is limited. When the end of the tracking movable range is reached, no further tracking can be performed, so the photographer needs to shake the camera and follow the subject. However, when the optical system reaches the tracking movable end, it is difficult for the photographer to determine it immediately, so the framing operation of the photographer is delayed, and the subject may be missed from the shooting screen. . The same applies to the case where tracking is performed by changing the frame cutout range.

本実施形態は、追尾制御ができる状態であるか否かを判定し、判定結果を表示部の画面に表示することで、撮影者のフレーミング動作の操作性の向上させることができる。
図11は本実施形態に係る撮像装置の要部の構成を示す図である。第3実施形態にて図10で説明した構成との相違点は、追尾状態判定部120と追尾アイコン制御部123とを備える点である。追尾状態判定部120による判定結果が追尾アイコン制御部123に入力され、追尾アイコン制御部123によって表示部122の画面に表示されるアイコンが制御される。
In the present embodiment, it is possible to improve the operability of the framing operation of the photographer by determining whether or not the tracking control is possible and displaying the determination result on the screen of the display unit.
FIG. 11 is a diagram illustrating a configuration of a main part of the imaging apparatus according to the present embodiment. The difference from the configuration described in FIG. 10 in the third embodiment is that a tracking state determination unit 120 and a tracking icon control unit 123 are provided. The determination result by the tracking state determination unit 120 is input to the tracking icon control unit 123, and the icons displayed on the screen of the display unit 122 are controlled by the tracking icon control unit 123.

被写体追尾制御を行う場合、追尾可動範囲が十分である間は、被写体の位置が画面中心付近に保持されるように追尾制御が実行される。しかし、追尾可動範囲は有限であるので、補正レンズ108が可動範囲端に達するとそれ以上の追尾制御を行うことはできない。その場合は、撮影者が自らカメラをフレーミングし直し、被写体を画角中心付近に近付ける必要がある。しかし、撮影者はライブビューされる画像を見ているだけでは、これ以上追尾ができない状態であるか否かを即座に判断することが困難である。そのため、撮影者は、補正レンズ108が可動範囲端に達した直後はフレーミングを直す動作を行わず、そのまま被写体が画面内から外れてしまって見失うこともあり得る。そこで、本実施形態の撮像装置101は、追尾制御を行える状態であるか否かを判定する。この判定結果に応じて、画面に表示される追尾アイコンを変化させることにより、追尾可能状態であるか否かを撮影者に通知する。追尾を行えない状態である場合には、警告通知により撮影者がフレーミング動作によって被写体を追う動作を促す処理が行われる。   When subject tracking control is performed, tracking control is executed so that the position of the subject is held near the center of the screen while the tracking movable range is sufficient. However, since the tracking movable range is finite, no further tracking control can be performed when the correction lens 108 reaches the end of the movable range. In that case, the photographer needs to reframe the camera himself and bring the subject close to the center of the angle of view. However, it is difficult for the photographer to immediately determine whether or not tracking is no longer possible simply by looking at the live view image. For this reason, the photographer may not perform the operation of correcting the framing immediately after the correction lens 108 reaches the end of the movable range, and the subject may come off the screen as it is and may be lost. Therefore, the imaging apparatus 101 according to the present embodiment determines whether or not tracking control can be performed. Depending on the determination result, the tracking icon displayed on the screen is changed to notify the photographer whether or not the tracking is possible. When tracking is not possible, a process for urging the photographer to follow the subject by a framing operation is performed by a warning notification.

図12は、被写体追尾を行う動作と状態を示すカメラの背面図と、そのときの制御状態のタイミングチャートを示す。被写体追尾を行う場合、撮影者が希望の被写体を撮影するためには、撮影者が画面内の被写体を指定してから追尾を行うことが望ましい。追尾動作をさせるための被写体の指定方法としては、例えばタッチパネルを使用する方法がある。これは、図12(A)に示すように、撮像装置101の背面のLCD501下に設置されたタッチパネル502により、タッチされた被写体503の座標位置を取得し、追尾対象の被写体を設定する方法である。   FIG. 12 shows a rear view of the camera showing the operation and state of subject tracking, and a timing chart of the control state at that time. In the case of subject tracking, in order for the photographer to photograph a desired subject, it is desirable to perform tracking after the photographer specifies the subject in the screen. As a method for specifying a subject for performing the tracking operation, for example, there is a method using a touch panel. As shown in FIG. 12A, this is a method in which the coordinate position of the touched subject 503 is obtained by the touch panel 502 installed under the LCD 501 on the back surface of the imaging apparatus 101, and the subject to be tracked is set. is there.

図12(A)に示す方法により、被写体が指定されると、その後は色相分布や大きさ等の特徴量を用いて、以降にライブビュー動作で順次撮像された画像から特徴量と類似する領域を検出することで主被写体領域の追尾が行われる。主被写体領域を追尾領域として、枠506が表示されて(図12(B))、撮影者に追尾領域が通知される。被写体の指定後には、検出した被写体位置が画面中心に移動するように追尾制御が行われる。また、追尾制御を行っている状態であることが撮影者に分かるように、画面に追尾アイコン505が表示される。被写体追尾が行われていない間(被写体が指定されていない状態にある間)は、追尾アイコン505は画面に表示されない。   When a subject is specified by the method shown in FIG. 12A, a region similar to a feature amount from an image sequentially captured in a subsequent live view operation using a feature amount such as a hue distribution or a size after that. The main subject area is tracked by detecting. A frame 506 is displayed with the main subject area as the tracking area (FIG. 12B), and the tracking area is notified to the photographer. After the subject is specified, tracking control is performed so that the detected subject position moves to the center of the screen. In addition, a tracking icon 505 is displayed on the screen so that the photographer can know that the tracking control is being performed. While the subject tracking is not performed (while the subject is not designated), the tracking icon 505 is not displayed on the screen.

図12(B)は、被写体を指定後の状態を示す図である。時間の経過につれて、撮像装置101の表示部が表示する画面の状態変化を、図12(A)→(B)→(C)→(D)→(E)の順で例示する。この場合の、振れ補正量と追尾補正量を加算した加算部115の出力を図12(F)に示す。減算部403の出力である中心ズレ量を図12(G)に示し、追尾アイコン505の表示状態(非表示、ノーマル表示、グレー表示)を図12(H)に示す。図12(F)から(H)の横軸は共通する時間軸である。なお、被写体位置検出部1000が目標位置を中心座標として検出した被写体の座標を出力する場合は、被写体位置検出部の出力を中心ズレ量とみなすことができる。被写体が指定される時刻T1までは、追尾アイコン505は画面に表示されていない状態である。時刻T1で図12(B)に示すように被写体が指定されると、追尾アイコン505が画面に表示される。その後、指定した被写体503が移動することにより被写体503が画像中心から離れても(図12(C))、追尾量算出部118で算出された追尾補正量に基づいて追尾制御が行われるので、被写体503は画像中心に戻される(図12(D))。なお、図中、被写体が画像中心から移動した時刻をT2として示し、追尾制御により被写体が画像中心に戻された時刻をT3として示す。   FIG. 12B shows a state after the subject is designated. The change in the state of the screen displayed on the display unit of the imaging apparatus 101 as time elapses is illustrated in the order of (A) → (B) → (C) → (D) → (E). FIG. 12F shows the output of the adding unit 115 obtained by adding the shake correction amount and the tracking correction amount in this case. FIG. 12G shows the amount of center shift, which is the output of the subtracting unit 403, and FIG. 12H shows the display state of the tracking icon 505 (non-display, normal display, gray display). The horizontal axis in FIGS. 12F to 12H is a common time axis. When the subject position detection unit 1000 outputs the coordinates of the subject detected with the target position as the center coordinates, the output of the subject position detection unit can be regarded as the center shift amount. The tracking icon 505 is not displayed on the screen until time T1 when the subject is designated. When a subject is designated at time T1 as shown in FIG. 12B, a tracking icon 505 is displayed on the screen. Thereafter, even if the designated subject 503 moves and the subject 503 moves away from the center of the image (FIG. 12C), the tracking control is performed based on the tracking correction amount calculated by the tracking amount calculation unit 118. The subject 503 is returned to the center of the image (FIG. 12D). In the figure, the time when the subject moved from the center of the image is shown as T2, and the time when the subject was returned to the center of the image by the tracking control is shown as T3.

その後、更に被写体が移動すると、更に追尾補正量を大きくして追尾制御が行われる。補正レンズ108の補正量が図12(F)に示すように追尾可能閾値Th1に達すると、補正可能量であるTh2を超えないように追尾補正量が制限される。このときの補正量は閾値Th1と閾値Th2との間に設定される。補正量が閾値Th1以上である状態が所定時間TL以上経過した時刻T5において、これ以上被写体の追尾を行えないことを撮影者に知らせるため、追尾アイコン505がグレー表示で撮影者に提示される。つまり、追尾を行えない状態であることを撮影者に通知する処理が行われる。追尾状態判定部及び追尾アイコン制御部として機能するCPU105は、補正量が閾値Th1以上の状態が所定時間TL以上経過すると追尾制御が可能な状態ではないと判定したうえで、追尾アイコン505をグレー表示して、撮影者に通知する警告指示を出す。なお、補正可能量Th2は、補正レンズ108が可動範囲端に達するときまでの量に相当し、追尾可能閾値Th1はTh2未満の値を適宜設定することができる。例えば追尾可能閾値Th1については、補正可能量Th2に対して、0より大きく1未満の係数を乗算することで設定してもよいし、補正可能量Th2から固定量を減算することで設定してもよい。   Thereafter, when the subject further moves, tracking control is performed with a larger tracking correction amount. When the correction amount of the correction lens 108 reaches the tracking possible threshold value Th1 as shown in FIG. 12F, the tracking correction amount is limited so as not to exceed the correctionable amount Th2. The correction amount at this time is set between the threshold Th1 and the threshold Th2. A tracking icon 505 is displayed in gray on the photographer in order to inform the photographer that the subject cannot be tracked any more at time T5 when the state where the correction amount is equal to or greater than the threshold Th1 has passed the predetermined time TL. That is, processing for notifying the photographer that tracking is not possible is performed. The CPU 105 functioning as a tracking state determination unit and a tracking icon control unit determines that the tracking control is not possible when the state where the correction amount is equal to or greater than the threshold Th1 elapses for a predetermined time TL and then displays the tracking icon 505 in gray. Then, a warning instruction to notify the photographer is issued. The correctable amount Th2 corresponds to the amount until the correction lens 108 reaches the end of the movable range, and the trackable threshold Th1 can be appropriately set to a value less than Th2. For example, the trackable threshold Th1 may be set by multiplying the correctable amount Th2 by a coefficient greater than 0 and less than 1, or set by subtracting a fixed amount from the correctable amount Th2. Also good.

補正レンズ108が可動範囲端に到達した場合、それ以上の追尾制御を行うことはできないので、以上のように追尾アイコン505の表示を変化させる処理が行われる。これにより、撮影者が自らカメラのフレーミングを行い、被写体を画像中心に移動させることを促すことができる。   When the correction lens 108 reaches the end of the movable range, no further tracking control can be performed, and thus the process of changing the display of the tracking icon 505 is performed as described above. Accordingly, it is possible to prompt the photographer to perform framing of the camera himself and move the subject to the center of the image.

次に、補正レンズ108が追尾可動範囲を超えてしまい、追尾制御が行えなくなった場合に、追尾アイコン505を変化させることによる撮影者への通知方法の別例について図13を用いて説明する。図13の例では、追尾動作を行える状態であるか否かを判定する方法が、図12の例と異なる。追尾制御の開始後において、被写体像の位置を画像の中心付近に移動させることができず、長い時間、画像の中心から離れた位置にある場合、補正レンズ108が可動範囲端に到達して、これ以上追尾制御を行うことはできない状態であると判断できる。その場合、追尾制御が行えない状態であることを通知する警告用アイコンの表示処理が実行される。   Next, another example of a method for notifying the photographer by changing the tracking icon 505 when the correction lens 108 exceeds the tracking movable range and tracking control cannot be performed will be described with reference to FIG. In the example of FIG. 13, the method for determining whether or not the tracking operation can be performed is different from the example of FIG. After the start of tracking control, if the position of the subject image cannot be moved to the vicinity of the center of the image and is at a position away from the center of the image for a long time, the correction lens 108 reaches the end of the movable range, It can be determined that the tracking control can no longer be performed. In this case, a warning icon display process for notifying that tracking control cannot be performed is executed.

被写体の追尾動作を行える状態であるか否かは、次のように判定される。被写体像の位置と画像中心との画像上での距離である中心ズレ量が所定閾値Th3を超える時間が計測される。計測された時間が所定時間T7以上となった時点で、追尾動作を行えない状態であると判定される。言い換えると、被写体像の位置が目標位置に対して所定の距離以上離れている状態が所定時間以上続いた場合に、被写体の追尾が不可能な状態であると判定される。また、中心ズレ量が閾値Th3以下である期間については、被写体の追尾が行える状態であると判定される。この判定は、追尾状態判定部120が行う。判定結果に応じて、画面に表示される追尾アイコンを変化させることで、追尾可能状態であるか否かを撮影者に通知することができる。被写体の追尾を行えない状態である場合には、撮影者がフレーミング動作によって被写体を追う動作を促す処理が実行される。   Whether or not the subject can be tracked is determined as follows. A time during which the center shift amount, which is the distance between the position of the subject image and the image center on the image, exceeds a predetermined threshold Th3 is measured. When the measured time becomes equal to or longer than the predetermined time T7, it is determined that the tracking operation cannot be performed. In other words, it is determined that the subject cannot be tracked when the state of the subject image being away from the target position by a predetermined distance or more continues for a predetermined time or longer. Further, it is determined that the subject can be tracked during the period in which the center shift amount is equal to or less than the threshold Th3. This determination is performed by the tracking state determination unit 120. By changing the tracking icon displayed on the screen according to the determination result, it is possible to notify the photographer whether or not the tracking is possible. When the subject cannot be tracked, a process for urging the photographer to follow the subject through a framing operation is executed.

図12(A)で説明した方法と同様に、図13(A)ではタッチ操作により被写体が指定されて追尾制御が開始し、画面に追尾アイコン505が表示される(図13(B))。図13(B)〜(E)は、被写体の指定後の状態を示す図である。時間の経過につれて、撮像装置101が表示する画面の状態変化を、図13(A)→(B)→(C)→(D)→(E)の順で例示する。この場合の、振れ補正量と追尾補正量を加算した加算部115の出力を図13(F)に示す。また中心ズレ量を図13(G)に示し、追尾アイコン505の表示状態を図13(H)に示す。被写体が指定される時刻T8までは、追尾アイコン505は画面に表示されていない状態である。時刻T8で被写体が指定されると、追尾アイコン505が画面に表示される。その後、指定した被写体503が移動することにより被写体503が画像中心から離れても(図13(C))、追尾量算出部118で算出された追尾補正量に基づいて追尾制御が行われるので、被写体503は画像中心に戻される(図13(D))。なお図中、被写体が画像中心から移動した時刻をT9として示し、追尾制御により被写体が画像中心に戻された時刻をT10として示す。T9〜T10の期間では被写体の検出位置(中心ズレ量)が所定閾値Th3を超えているが、Th3を超えている時間は所定時間T7を超えていないので、アイコン505の表示はノーマル表示である。   Similar to the method described with reference to FIG. 12A, in FIG. 13A, a subject is designated by a touch operation, tracking control is started, and a tracking icon 505 is displayed on the screen (FIG. 13B). FIGS. 13B to 13E are diagrams showing states after the designation of the subject. The change in the state of the screen displayed by the imaging apparatus 101 as time elapses is illustrated in the order of FIG. 13 (A) → (B) → (C) → (D) → (E). FIG. 13F shows the output of the adding unit 115 obtained by adding the shake correction amount and the tracking correction amount in this case. Further, the center shift amount is shown in FIG. 13G, and the display state of the tracking icon 505 is shown in FIG. The tracking icon 505 is not displayed on the screen until time T8 when the subject is designated. When a subject is specified at time T8, a tracking icon 505 is displayed on the screen. Thereafter, even if the designated subject 503 moves and the subject 503 moves away from the center of the image (FIG. 13C), tracking control is performed based on the tracking correction amount calculated by the tracking amount calculation unit 118. The subject 503 is returned to the center of the image (FIG. 13D). In the figure, the time when the subject moved from the center of the image is shown as T9, and the time when the subject was returned to the center of the image by the tracking control is shown as T10. In the period from T9 to T10, the detection position of the subject (center deviation amount) exceeds the predetermined threshold Th3, but the time exceeding Th3 does not exceed the predetermined time T7, so the display of the icon 505 is normal display. .

その後、更に被写体が移動すると、更に追尾補正量を大きくして追尾制御が行われる。その際、中心ズレ量が図13(G)に示すように所定閾値Th3以上となる状態が所定時間T7以上続くと、追尾アイコン505の表示がグレー表示に変更される。つまり、これ以上被写体の追尾制御が行えない状態にあることを撮影者に通知する処理が行われる。   Thereafter, when the subject further moves, tracking control is performed with a larger tracking correction amount. At that time, if the state in which the center shift amount is equal to or greater than the predetermined threshold Th3 as shown in FIG. 13G continues for the predetermined time T7 or longer, the display of the tracking icon 505 is changed to gray display. That is, a process for notifying the photographer that the subject tracking control cannot be performed any more is performed.

以上のように追尾状態判定部120として機能するCPU105は、被写体検出位置が画像中心から長い時間離れている場合、補正レンズ108が可動範囲端に達してしまい、これ以上追尾制御を行うことができない状態にあると判定する。そして、CPU105は追尾アイコン制御部123としても機能し、追尾アイコン505の表示状態を変更することにより、撮影者が自らカメラをフレーミングして被写体を画像中心に移動させることを促す。   As described above, when the subject detection position is away from the center of the image for a long time, the CPU 105 functioning as the tracking state determination unit 120 reaches the movable range end and cannot perform tracking control any more. It is determined that it is in a state. The CPU 105 also functions as the tracking icon control unit 123, and by changing the display state of the tracking icon 505, the photographer urges the photographer to frame the camera and move the subject to the center of the image.

図12および図13では、画像内における被写体の移動が大きく、被写体位置を画像内の目標位置へ移動させる補正量が大きいために被写体の追尾制御を行うことが難しい場合のアイコン表示の例を説明した。しかしながら、補正量が大きくない場合でも、追尾制御を行うことが難しい場合がある。以下では被写体の検出状態の低下によって追尾制御を行うことができない状態となる場合の追尾アイコン505の変化による撮影者への通知方法の例について、図14(A)〜(F)を参照して説明する。検出された被写体画像の信頼度が低い間は、追尾制御を行うことはできないと判断できる。その場合、追尾制御が行えない状態であることを通知するアイコンが表示される。   12 and 13 illustrate an example of icon display when it is difficult to perform tracking control of a subject due to a large movement of the subject in the image and a large correction amount for moving the subject position to the target position in the image. did. However, even when the correction amount is not large, it may be difficult to perform tracking control. Hereinafter, an example of a method of notifying the photographer by a change in the tracking icon 505 when tracking control cannot be performed due to a decrease in the detection state of the subject will be described with reference to FIGS. explain. It can be determined that tracking control cannot be performed while the reliability of the detected subject image is low. In that case, an icon for notifying that tracking control cannot be performed is displayed.

信頼度判定部1002は、検出された被写体画像が信頼できるか否かを判定する。信頼度判定部1002による被写体の信頼判定については、第3実施形態と同様であるため、詳細は省略する。   The reliability determination unit 1002 determines whether or not the detected subject image is reliable. Since the reliability determination of the subject by the reliability determination unit 1002 is the same as that in the third embodiment, the details are omitted.

図12(A)で説明した方法と同様に、図14(A)では、タッチ操作により被写体が指定されて追尾制御が開始し、画面に追尾アイコン505を表示する処理が行われる(図14(B))。図14(B)は、被写体の指定後の状態を示す図である。時間の経過につれて、撮像装置101が表示する画面の状態変化を、図14(A)→(B)→(C)→(D)の順で例示する。この場合の、振れ補正量と追尾補正量を加算した加算部115の出力を図14(E)に示す。また中心ズレ量を図14(F)に、被写体画像の信頼度を図14(G)に、追尾アイコン505の表示状態を図14(H)にそれぞれ示す。被写体が指定される時刻T11までは、追尾アイコン505は画面に表示されていない状態である。時刻T11で被写体が指定されると、追尾アイコン505が画面に表示される。その後、指定した被写体503が画像中心から離れても、追尾量算出部118で算出された追尾補正量に基づいて追尾制御が行われるので、図14(B)に示すように被写体503は画像中心に戻される。なお、図中、被写体を指定して位置を検出した時刻をT11として示し、追尾制御により被写体が画像中心に戻された時刻をT12として示す。   Similar to the method described with reference to FIG. 12A, in FIG. 14A, a subject is designated by a touch operation, tracking control is started, and processing for displaying a tracking icon 505 on the screen is performed (FIG. 14A). B)). FIG. 14B is a diagram illustrating a state after the subject is specified. The change in the state of the screen displayed by the imaging apparatus 101 as time elapses is illustrated in the order of FIG. 14A → B → C) → D. FIG. 14E shows the output of the adding unit 115 obtained by adding the shake correction amount and the tracking correction amount in this case. Further, FIG. 14 (F) shows the center shift amount, FIG. 14 (G) shows the reliability of the subject image, and FIG. 14 (H) shows the display state of the tracking icon 505. Until time T11 when the subject is designated, the tracking icon 505 is not displayed on the screen. When a subject is specified at time T11, a tracking icon 505 is displayed on the screen. Thereafter, even if the designated subject 503 is separated from the center of the image, the tracking control is performed based on the tracking correction amount calculated by the tracking amount calculation unit 118. Therefore, as shown in FIG. Returned to In the figure, the time when the subject is specified and the position is detected is shown as T11, and the time when the subject is returned to the center of the image by the tracking control is shown as T12.

その後、図14(C)に示すように更に被写体が移動すると、更に追尾補正量を大きくして追尾制御が行われる。その際、図14(D)に示すように、主被写体に類似する類似被写体が画面内に複数表れた場合、被写体画像の信頼度は低く設定される。被写体画像の信頼度が低くなると追尾ゲイン部1003のゲインは小さく設定され、追尾制御を行わないように設定される。そのため、図14(G)に示すように被写体信頼度が所定閾値Th4以下になると、追尾アイコン505の表示がグレー表示に変更される。つまり、これ以上の追尾制御が行えない状態にあることを撮影者に通知する処理が行われる。   After that, when the subject further moves as shown in FIG. 14C, the tracking correction amount is further increased and tracking control is performed. At that time, as shown in FIG. 14D, when a plurality of similar subjects similar to the main subject appear on the screen, the reliability of the subject image is set low. When the reliability of the subject image is lowered, the gain of the tracking gain unit 1003 is set to be small and is set not to perform tracking control. Therefore, as shown in FIG. 14G, when the subject reliability is equal to or lower than the predetermined threshold Th4, the display of the tracking icon 505 is changed to gray display. That is, a process for notifying the photographer that the tracking control cannot be performed any more is performed.

以上のように追尾状態判定部120として機能するCPU105は、被写体画像の信頼度が閾値よりも低い場合、追尾制御を行うことはできないと判定する。そして、CPU105は追尾アイコン制御部123としても機能し、追尾アイコン505の表示状態を変更することにより、撮影者が自らカメラをフレーミングして被写体を画像中心に移動させることを促す。   As described above, the CPU 105 functioning as the tracking state determination unit 120 determines that the tracking control cannot be performed when the reliability of the subject image is lower than the threshold value. The CPU 105 also functions as the tracking icon control unit 123, and by changing the display state of the tracking icon 505, the photographer urges the photographer to frame the camera and move the subject to the center of the image.

次に、被写体の検出状態によって追尾制御が不可能になってしまう場合の追尾アイコン505の変化による撮影者への通知方法の別例について図15を参照して説明する。撮影者が被写体を指定した後、被写体を検出できている間は追尾制御が行われるが、被写体を見失ってしまった場合、被写体ロスト状態に遷移する。被写体ロスト状態から再び被写体を検出できた場合には被写体検出状態に遷移するが、所定時間被写体ロスト状態が続いた場合には追尾制御を行うことはできないと判断される。その場合、追尾制御が行えない状態であることを通知するアイコンが画面に表示される。また、更に長時間に亘って被写体ロスト状態が続く場合には、被写体を再度検出する可能性はないと判定され、被写体検出が停止し、追尾アイコン505は非表示となる。被写体検出状態の判定は検出状態判定部1001が行い、被写体検出中であるか、被写体ロスト状態であるか、被写体未検出中であるかが判定される。   Next, another example of a method for notifying the photographer by a change in the tracking icon 505 when tracking control becomes impossible depending on the detection state of the subject will be described with reference to FIG. After the photographer designates the subject, tracking control is performed while the subject can be detected. However, if the subject is lost, the state is changed to the subject lost state. When the subject can be detected again from the subject lost state, the state transits to the subject detection state, but when the subject lost state continues for a predetermined time, it is determined that the tracking control cannot be performed. In that case, an icon for notifying that tracking control cannot be performed is displayed on the screen. When the subject lost state continues for a longer time, it is determined that there is no possibility of detecting the subject again, the subject detection is stopped, and the tracking icon 505 is not displayed. The detection state determination unit 1001 determines the subject detection state, and determines whether the subject is being detected, the subject is in a lost state, or the subject is not being detected.

図12(A)で説明した方法と同様に、図15(A)でタッチ操作により被写体が指定されて追尾制御が開始し、画面に追尾アイコン505を表示する処理が行われる(図15(B))。図15(B)は、被写体の指定後の状態を示す図である。時間の経過につれて、撮像装置101が表示する画面の状態変化を図15(A)→(B)→(C)→(D)の順で例示する。この場合の、振れ補正量と追尾補正量を加算した加算部115の出力を図15(E)に示す。また中心ズレ量を図15(F)に、被写体の検出状態を図15(G)に、追尾アイコン505の表示状態を図15(H)にそれぞれ示す。   Similar to the method described with reference to FIG. 12A, the subject is designated by the touch operation in FIG. 15A, tracking control is started, and the tracking icon 505 is displayed on the screen (FIG. 15B). )). FIG. 15B is a diagram illustrating a state after the subject is specified. The change in the state of the screen displayed by the imaging apparatus 101 with the passage of time is illustrated in the order of FIG. 15A → (B) → (C) → (D). FIG. 15E shows the output of the adding unit 115 obtained by adding the shake correction amount and the tracking correction amount in this case. Further, the center shift amount is shown in FIG. 15 (F), the detection state of the subject is shown in FIG. 15 (G), and the display state of the tracking icon 505 is shown in FIG. 15 (H).

被写体が指定される時刻T15までの間は、追尾アイコン505が画面に表示されていない状態である。図15(B)に示すように被写体が指定されると、追尾アイコン505が画面に表示される。その後、指定した被写体503が移動し、画像中心から離れても、追尾量算出部118で算出された追尾補正量に基づいて追尾制御が行われるので、図15(B)に示すように、被写体503は画像中心に戻される。なお、図中、被写体を指定して位置を検出した時刻をT15として示し、追尾制御により被写体が画像中心に戻された時刻をT16として示す。   The tracking icon 505 is not displayed on the screen until time T15 when the subject is designated. When a subject is designated as shown in FIG. 15B, a tracking icon 505 is displayed on the screen. After that, even if the designated subject 503 moves and moves away from the center of the image, the tracking control is performed based on the tracking correction amount calculated by the tracking amount calculation unit 118. Therefore, as shown in FIG. 503 is returned to the center of the image. In the figure, the time when the subject is specified and the position is detected is shown as T15, and the time when the subject is returned to the center of the image by the tracking control is shown as T16.

その後、図15(C)に示すように更に被写体が移動すると、更に追尾補正量を大きくして追尾制御が行われる。図15(D)に示すように、追尾対象の被写体が他の被写体の後ろに隠れてしまったりして画面内から見えなくなってしまうと、被写体検出部117(被写体位置検出部1000)が被写体を検出できずに被写体ロスト状態となる(時刻T17)。被写体を見失って所定時間の期間T18は被写体ロスト状態となり、この状態は被写体のロスト中に再び被写体503を検出した場合、被写体検出状態に復帰できる状態である。被写体ロスト状態に遷移して期間T18が経過した後では、これ以上被写体を検出できないと判定され、被写体検出停止状態となる。被写体検出停止状態となった場合には、再び被写体503が画面内に現れても被写体検出状態には移行しない。被写体検出停止状態中に被写体検出状態とするには、再度被写体を指定する必要がある。被写体ロスト状態中であっても再度被写体を検出できる可能性があるため、被写体のロストの時点から所定時間の期間T19では被写体追尾制御を継続する。期間T19の経過後には被写体追尾制御が停止し、追尾量算出部118の出力である追尾制御量としては前回の追尾制御量(前回制御サンプリングで演算された値)が保持される。期間T18が終了するまでの期間は追尾制御量として前回の追尾制御量が保持される。期間T18が終了すると、追尾制御量を徐々に0に近づけていき、補正レンズ108を、被写体追尾制御が行われていないときの位置に戻す処理が行われる。   Thereafter, when the subject further moves as shown in FIG. 15C, the tracking correction amount is further increased and tracking control is performed. As shown in FIG. 15D, when the subject to be tracked is hidden behind another subject and cannot be seen from the screen, the subject detection unit 117 (subject position detection unit 1000) detects the subject. The object is lost without being detected (time T17). When the subject is lost, the subject is lost during a predetermined time period T18. This state is a state where the subject can be returned to the subject detection state when the subject 503 is detected again while the subject is lost. After the transition to the subject lost state and the elapse of the period T18, it is determined that no more subjects can be detected, and the subject detection stopped state is entered. When the subject detection stop state is entered, even if the subject 503 appears again on the screen, the subject detection state is not entered. In order to enter the subject detection state while the subject detection is stopped, it is necessary to specify the subject again. Since there is a possibility that the subject can be detected again even during the subject lost state, subject tracking control is continued in a period T19 of a predetermined time from the time when the subject is lost. After the elapse of the period T19, the subject tracking control stops, and the previous tracking control amount (value calculated by the previous control sampling) is held as the tracking control amount that is the output of the tracking amount calculation unit 118. During the period until the period T18 ends, the previous tracking control amount is held as the tracking control amount. When the period T18 ends, processing for gradually returning the tracking control amount to 0 and returning the correction lens 108 to the position when the subject tracking control is not performed is performed.

被写体のロスト中の期間T18には、追尾アイコン505の表示がグレー表示となり、追尾制御を行うことができない状態であることが撮影者に通知される。また、被写体ロスト状態から期間T18が経過し、被写体検出を停止した場合には追尾アイコン505の表示が停止する(非表示)。   During the period T18 during which the subject is lost, the tracking icon 505 is displayed in gray, and the photographer is notified that tracking control cannot be performed. Further, when the period T18 has elapsed from the subject lost state and the subject detection is stopped, the tracking icon 505 is stopped (not displayed).

以上のように追尾状態判定部120として機能するCPU105は、被写体検出状態に応じて、追尾制御を行うことはできないと判定する。そして、CPU105は追尾アイコン制御部123としても機能し、追尾アイコン505の表示状態を変更する(追尾アイコン505の表示の停止を含む)。これにより、撮影者が自らカメラをフレーミングして被写体を画像中心に移動させることを促したり、追尾対象となる被写体の再設定を促したりすることができる。   As described above, the CPU 105 functioning as the tracking state determination unit 120 determines that tracking control cannot be performed according to the subject detection state. The CPU 105 also functions as the tracking icon control unit 123, and changes the display state of the tracking icon 505 (including stopping the display of the tracking icon 505). Accordingly, it is possible to prompt the photographer to move the subject to the center of the image by framing the camera, or to prompt the user to reset the subject to be tracked.

次に、撮像装置101の振れが、像ブレ補正可能な振れの大きさを超えている状態で追尾制御が不可能になってしまう場合の追尾アイコン505の変化による撮影者への通知方法の例について図16(A)〜(H)を参照して説明する。検出された撮像装置101の振れ量が大きい場合には、被写体の追尾制御を行うことはできないと判断できる。その場合、追尾制御が行えない状態であることを通知するアイコンを表示する処理が行われる。   Next, an example of a method for notifying the photographer by a change in the tracking icon 505 in the case where tracking control becomes impossible when the shake of the image pickup apparatus 101 exceeds the amount of shake that can correct image blurring. Will be described with reference to FIGS. If the detected shake amount of the imaging apparatus 101 is large, it can be determined that subject tracking control cannot be performed. In this case, processing for displaying an icon for notifying that tracking control cannot be performed is performed.

図12(A)で説明した方法と同様に、図16(A)でタッチ操作により被写体が指定されて追尾制御が開始し、画面に追尾アイコン505が表示される(図16(B))。図16(B)は、被写体の指定後の状態を示す図である。時間の経過につれて、撮像装置101が表示する画面の状態変化を、図16(A)→(B)→(C)の順で例示する。この場合の、振れ補正量と追尾補正量を加算した加算部115の出力を図16(D)に示す。また、中心ズレ量を図16(E)に示し、角速度計103の出力を図16(F)に示し、振れ補正角度算出部109の出力である振れ補正角度を図16(G)に示し、追尾アイコン505の表示状態を図16(H)に示す。   Similar to the method described with reference to FIG. 12A, the subject is designated by a touch operation in FIG. 16A, tracking control is started, and a tracking icon 505 is displayed on the screen (FIG. 16B). FIG. 16B is a diagram illustrating a state after designation of the subject. The change in the state of the screen displayed by the imaging apparatus 101 as time elapses is illustrated in the order of FIG. 16 (A) → (B) → (C). FIG. 16D shows the output of the adding unit 115 obtained by adding the shake correction amount and the tracking correction amount in this case. Further, the center deviation amount is shown in FIG. 16E, the output of the angular velocity meter 103 is shown in FIG. 16F, and the shake correction angle that is the output of the shake correction angle calculation unit 109 is shown in FIG. The display state of the tracking icon 505 is shown in FIG.

被写体が指定される時刻T22までは、追尾アイコン505は画面に表示されていない状態である。図16(B)に示すように被写体が指定されると、追尾アイコン505が画面に表示される。その後、指定した被写体503が画像中心から離れていても、追尾量算出部118で算出された追尾補正量に基づいて追尾制御が行われるので、図16(B)に示すように、被写体503は画像中心に戻される。なお、図中、被写体を指定して位置を検出した時刻をT22として示し、追尾制御により被写体が画像中心に戻された時刻をT23として示す。   The tracking icon 505 is not displayed on the screen until the time T22 when the subject is designated. When a subject is designated as shown in FIG. 16B, a tracking icon 505 is displayed on the screen. After that, even if the designated subject 503 is away from the center of the image, tracking control is performed based on the tracking correction amount calculated by the tracking amount calculation unit 118, and as shown in FIG. Return to the center of the image. In the figure, the time when the subject is specified and the position is detected is shown as T22, and the time when the subject is returned to the center of the image by the tracking control is shown as T23.

その後、撮像装置101の振れ量が大きくなると、角速度計103の出力である角速度は大きくなり、それに伴い角速度計の出力に基づいて演算される振れ補正角度も大きくなる。このときに振れ補正の限界を超えてしまうと、撮影画像のブレが発生し、図16(C)に示すように、被写体503の画像を一定の範囲内に収めることができない。図16(D)にて補正レンズ108の移動による補正が可能な補正限界を(Th5、−Th5)に示す。補正レンズ108では補正限界を超えて補正を行うことはできない。そのため、追尾状態判定部120が、時刻T24においてTh5〜−Th5の範囲内で補正制御ができないと判断した場合、追尾アイコン505の表示がグレー表示となり、追尾制御を行えない状態であることが撮影者に通知される。   Thereafter, when the shake amount of the imaging apparatus 101 increases, the angular velocity that is the output of the angular velocity meter 103 increases, and accordingly, the shake correction angle that is calculated based on the output of the angular velocity meter also increases. If the blur correction limit is exceeded at this time, the captured image will be blurred, and the image of the subject 503 cannot be within a certain range as shown in FIG. In FIG. 16D, correction limits that can be corrected by moving the correction lens 108 are shown in (Th5, -Th5). The correction lens 108 cannot perform correction beyond the correction limit. Therefore, if the tracking state determination unit 120 determines that correction control cannot be performed within the range of Th5 to -Th5 at time T24, the tracking icon 505 is displayed in gray and the tracking control cannot be performed. Will be notified.

振れ量が大きく追尾を行えない状態であるか否かを判定する方法としては、角速度計103の出力角速度を用いて判定する方法がある。追尾状態判定部120は、所定時間の期間T20において、出力角速度が予め定められた閾値(Th6以上、もしくは−Th6以下)を超える時間が、所定の閾値時間以上である場合に、被写体の追尾を行えない状態であると判定する。出力角速度が閾値を超える時間を閾値時間と比較する代わりに、出力角速度が閾値を超えた回数を所定の閾値と比較して判定を行ってもよい。その場合、所定のサンプリング間隔で検出された、閾値を超えた回数が所定回数以上である場合に、被写体の追尾を行えない状態であると判定される。   As a method for determining whether or not the amount of shake is large and tracking is not possible, there is a method for determining using the output angular velocity of the angular velocity meter 103. The tracking state determination unit 120 performs tracking of a subject when the time during which the output angular velocity exceeds a predetermined threshold (Th6 or more or −Th6 or less) in a predetermined time period T20 is equal to or longer than a predetermined threshold time. It is determined that the state cannot be performed. Instead of comparing the time when the output angular velocity exceeds the threshold with the threshold time, the number of times the output angular velocity exceeds the threshold may be compared with a predetermined threshold. In that case, when the number of times exceeding the threshold detected at a predetermined sampling interval is equal to or greater than the predetermined number, it is determined that the subject cannot be tracked.

振れ量が大きく追尾を行えない状態であると判定する他の方法として、振れ補正角度算出部109の出力である振れ補正角度を用いて判定する方法もある。その場合、追尾状態判定部120は、所定時間の期間T21において、図16(G)の振れ補正角度が所定閾値(Th7以上、もしくは−Th7以下)を超えた時間または回数を、所定の閾値時間または所定回数と比較する。振れ補正角度が所定閾値を超えた時間または回数が、所定の閾値時間または所定回数以上である場合、追尾を行えない状態であると判定される。   As another method for determining that the amount of shake is large and tracking cannot be performed, there is a method for determining using the shake correction angle that is the output of the shake correction angle calculation unit 109. In this case, the tracking state determination unit 120 determines the time or number of times that the shake correction angle in FIG. 16G exceeds a predetermined threshold (Th7 or more or −Th7 or less) in a predetermined time period T21 as a predetermined threshold time. Or, compare with a predetermined number of times. When the time or number of times that the shake correction angle exceeds the predetermined threshold is equal to or longer than the predetermined threshold time or the predetermined number of times, it is determined that tracking is not possible.

これらの何れかの方法により、像ブレの大きな状態が続き、像ブレ補正および追尾制御が難しい状態であることを検出できる。被写体の追尾制御を行えない状態であることは、追尾アイコン505の表示を切り替えることで撮影者に通知される。   By any one of these methods, it is possible to detect that image blurring continues and image blur correction and tracking control are difficult. The photographer is notified that the subject tracking control cannot be performed by switching the display of the tracking icon 505.

以上のようにして、撮像装置で振れ補正が可能な振れの大きさを超える振れが生じている場合、追尾状態判定部120として機能するCPU105は、追尾制御を行えない状態であると判定する。そして、CPU105は追尾アイコン制御部123としても機能し、追尾状態判定部120の判定結果を受けて追尾アイコン505の表示状態を変更する。これにより、撮影者が撮像装置101の振れが小さくなるようにしっかりと撮像装置を保持する必要があることを撮影者に知らせることができる。   As described above, when a shake exceeding the magnitude of shake that can be corrected by the imaging apparatus has occurred, the CPU 105 functioning as the tracking state determination unit 120 determines that tracking control cannot be performed. The CPU 105 also functions as the tracking icon control unit 123, and changes the display state of the tracking icon 505 in response to the determination result of the tracking state determination unit 120. Thereby, it is possible to notify the photographer that the photographer needs to hold the image pickup apparatus firmly so that the shake of the image pickup apparatus 101 is reduced.

以上説明したように、本実施形態の追尾状態判定部120は被写体の追尾制御が可能な状態であるか否かを判断する。そして、追尾不可能と判断された場合、アイコンでの通知により、撮影者が自ら撮像装置をフレーミングして被写体を画像中心に移動させることや、撮像装置をしっかり保持することを促すことができる。   As described above, the tracking state determination unit 120 of this embodiment determines whether or not the subject tracking control is possible. If it is determined that tracking is impossible, the notification by the icon can prompt the photographer to frame the imaging device himself and move the subject to the center of the image or to hold the imaging device firmly.

本実施形態では、追尾アイコン505の表示を用いて警告通知を行う方法について説明したが、他の通知方法としては以下の方法がある。
(1)追尾アイコン505の表示状態を制御する方法。具体的には、追尾制御を行うことができない状態の、撮影者への通知を、アイコンを点滅させることで行う方法がある。追尾制御を行うことができない状態を複数のレベルに分けて、レベルに応じて点滅時間を変更することで撮影者に該当するレベルを通知してもよい。
In the present embodiment, the method of performing the warning notification using the display of the tracking icon 505 has been described, but there are the following methods as other notification methods.
(1) A method of controlling the display state of the tracking icon 505. Specifically, there is a method of notifying the photographer in a state where tracking control cannot be performed by blinking an icon. The state in which the tracking control cannot be performed may be divided into a plurality of levels, and the corresponding level may be notified to the photographer by changing the blinking time according to the level.

(2)所定の発光部を制御する方法。図17に示すように、撮像装置101にLED1101(発光部)を設け、LED1101を用いて警告通知を行う方法がある。具体的には、追尾制御を行うことができない状態である場合、撮影者への通知はLED1101を点滅させることで行われる。追尾制御を行えない状態を複数のレベルに分けて、レベルに応じて点滅時間を変更することで、撮影者に追尾制御を行えない状態のレベルを知らせてもよい。また、被写体の追尾が可能な場合にはLED1101を点灯させ、被写体が指定されておらず追尾制御を行わない場合にはLED1101を消灯させてもよい。 (2) A method of controlling a predetermined light emitting unit. As shown in FIG. 17, there is a method in which an LED 1101 (light emitting unit) is provided in the imaging apparatus 101 and a warning notification is performed using the LED 1101. Specifically, when the tracking control cannot be performed, the photographer is notified by blinking the LED 1101. The state in which the tracking control cannot be performed may be divided into a plurality of levels, and the blinking time may be changed according to the level to notify the photographer of the level in which the tracking control cannot be performed. Further, the LED 1101 may be turned on when the subject can be tracked, and the LED 1101 may be turned off when the subject is not designated and tracking control is not performed.

(3)振動による通知方法。図18に示すように、撮像装置101の撮影者がカメラを構える際に指を置きやすい位置に、振動を発生させるシート状のアクチュエータ1201を設ける方法がある。アクチュエータ1201を振動させることにより、被写体の追尾制御を行えない状態であることが撮影者へ通知される。アクチュエータ1201としては、例えば圧電素子を利用した圧電アクチュエータを用いる。追尾制御を行えない状態を複数のレベルに分けて、レベルに応じて振動の大きさを変更することで撮影者に追尾制御を行えない状態のレベルを知らせてもよい。 (3) Notification method by vibration. As shown in FIG. 18, there is a method of providing a sheet-like actuator 1201 that generates vibration at a position where a photographer of the imaging apparatus 101 can easily place a finger when holding the camera. By vibrating the actuator 1201, the photographer is notified that the subject tracking control cannot be performed. As the actuator 1201, for example, a piezoelectric actuator using a piezoelectric element is used. The state in which the tracking control cannot be performed may be divided into a plurality of levels, and the magnitude of the vibration may be changed according to the level to notify the photographer of the level in which the tracking control cannot be performed.

また、図12乃至図16では、被写体追尾制御を行うことができるか否かの判定を、1つの判定方法で行う例を示したが、複数の判定方法を用いて追尾制御を行うことができるか否かの判定を行ってもよい。例えば補正量が追尾閾値Th1以上の状態が所定時間TL以上経過した場合に追尾制御を行うことができないと判定し、且つ、位置ずれ量が閾値Th3以上の状態が所定時間T7以上経過した場合に追尾制御を行うことができないと判定してもよい。複数の判定方法を適宜に組み合わせることができる。このとき、判定方法に応じて警告表示を変更してもよいし、追尾制御を行うことができない理由に応じて警告表示を変更してもよい。理由としては、補正量が大きいことや、被写体の検出状態の低下、振れが大きいことなどが上げられる。しかしながら、警告表示の種類が多数であると、撮影者にとって煩雑となることがある。このため、異なる判定方法や異なる理由であったとしても、追尾制御を行えなくという制御状態は同じであることから、同じ警告表示とすることが好ましい。例えば、補正量が大きいためであっても被写体の検出状態の低下によるものであっても、同じ警告表示を用いることが好ましい。警告表示が1種類である場合でも、警告通知を行えば、撮影者に対してフレーミング動作によって被写体を追う動作を促すことはできるためである。いいかえると、異なる判定方法や異なる理由であっても、追尾制御を行うことができなくなるという制御状態と、警告表示により撮影者にフレーミング動作を促すという目的と、は同じであるため、警告表示は同じであることが好ましい。   In addition, in FIGS. 12 to 16, an example in which whether or not subject tracking control can be performed is determined by one determination method, but tracking control can be performed by using a plurality of determination methods. Whether or not it may be determined. For example, when it is determined that the tracking control cannot be performed when a state where the correction amount is equal to or greater than the tracking threshold Th1 has elapsed for a predetermined time TL and a state where the positional deviation amount is equal to or greater than the threshold Th3 has elapsed for a predetermined time T7 It may be determined that tracking control cannot be performed. A plurality of determination methods can be appropriately combined. At this time, the warning display may be changed according to the determination method, or the warning display may be changed according to the reason why the tracking control cannot be performed. The reason is that the correction amount is large, the detection state of the subject is lowered, and the shake is large. However, if there are many types of warning indications, it may be complicated for the photographer. For this reason, even if it is a different determination method or a different reason, the same warning display is preferable because the control state that the tracking control cannot be performed is the same. For example, it is preferable to use the same warning display regardless of whether the correction amount is large or due to a decrease in the detection state of the subject. This is because even when the warning display is of one type, if the warning notification is given, the photographer can be prompted to follow the subject by the framing operation. In other words, because the control state in which tracking control cannot be performed for different judgment methods and reasons, and the purpose of prompting the photographer to perform the framing operation by the warning display, the warning display is the same. Preferably they are the same.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

103 角速度計
105 CPU
109 振れ補正角度算出部
116 駆動制御部
117 被写体検出部
118 追尾量算出部

103 Angular velocity meter 105 CPU
109 shake correction angle calculation unit 116 drive control unit 117 subject detection unit 118 tracking amount calculation unit

Claims (18)

振れ検出手段により検出される振れ検出信号を取得して画像ブレの補正量を算出し、前記画像ブレを補正する像ブレ補正手段を制御する補正制御手段と、
撮影画像内の被写体の位置を検出し、前記撮影画像内の被写体の位置情報を取得する被写体検出手段と、
前記被写体検出手段により取得された前記被写体の位置情報に基づいて、前記被写体の追尾制御を行う追尾制御手段と、
前記追尾制御手段の制御状態を設定する設定手段と、を備え、
前記設定手段は、被写体の追尾が可能なモードに設定されていない第1の状態と、前記モードが設定されて追尾対象の被写体を選択することができる第2の状態とを含む複数の制御状態から、設定される制御状態を選択することで、前記追尾制御手段の制御状態を設定し、前記補正制御手段は、前記設定手段から選択された前記制御状態の情報を取得し、前記第1の状態での像ブレ補正効果より前記第2の状態での像ブレ補正効果を高くするように前記補正量を算出する特性を変更する制御を行うことを特徴とする制御装置。
A correction control unit that acquires a shake detection signal detected by the shake detection unit, calculates a correction amount of the image blur, and controls an image blur correction unit that corrects the image blur;
Subject detection means for detecting the position of the subject in the photographed image and obtaining position information of the subject in the photographed image;
Tracking control means for performing tracking control of the subject based on the position information of the subject acquired by the subject detection means;
Setting means for setting a control state of the tracking control means,
The setting means includes a plurality of control states including a first state in which a subject tracking mode is not set and a second state in which the mode is set and a tracking target subject can be selected. The control state of the tracking control unit is set by selecting the control state to be set, and the correction control unit acquires the information of the control state selected from the setting unit, and the first control unit A control apparatus that performs control to change a characteristic for calculating the correction amount so that the image blur correction effect in the second state is higher than the image blur correction effect in the state.
前記複数の制御状態は、被写体が選択され、追尾制御を行う第3の状態を含み、
前記補正制御手段は、前記第2の状態での像ブレ補正効果より前記第3の状態での像ブレ補正効果を高くすることを特徴とする請求項1に記載の制御装置。
The plurality of control states include a third state in which a subject is selected and tracking control is performed,
The control device according to claim 1, wherein the correction control unit makes the image blur correction effect in the third state higher than the image blur correction effect in the second state.
前記補正制御手段は、前記補正量を算出するフィルタを備え、該フィルタの特性を変更することにより、像ブレ補正効果の度合いを変更することを特徴とする請求項1または請求項2に記載の制御装置。   The said correction control means is provided with the filter which calculates the said correction amount, The degree of an image blurring correction effect is changed by changing the characteristic of this filter, The Claim 1 or Claim 2 characterized by the above-mentioned. Control device. 前記補正制御手段は、前記振れ検出信号を取得してパンニングまたはチルティングの判定を行い、判定結果により前記補正量を算出する特性を変更し、パンニングまたはチルティングが行われていると判定した場合には、パンニングまたはチルティングが行われていないと判定した場合よりも、前記補正量をさらに制御範囲の中心へ遷移させる処理を行うことで像ブレ補正効果の度合いを変更する制御を行うことを特徴とする請求項1乃至3のいずれか1項に記載の制御装置。   When the correction control means obtains the shake detection signal, determines panning or tilting, changes the characteristic for calculating the correction amount according to the determination result, and determines that panning or tilting is performed Therefore, it is possible to perform control to change the degree of image blur correction effect by performing processing for further shifting the correction amount to the center of the control range than when it is determined that panning or tilting is not performed. The control device according to claim 1, wherein the control device is a control device. 振れ検出手段により検出される振れ検出信号を取得して画像ブレの補正量を算出し、前記画像ブレを補正する像ブレ補正手段を制御する補正制御手段と、
撮影画像内の被写体の位置を検出し、前記撮影画像内の被写体の位置情報を取得する被写体検出手段と、
前記被写体検出手段により取得された前記被写体の位置情報に基づいて、前記撮影画像内の前記被写体の位置を移動させることで前記被写体の追尾制御を行う追尾制御手段と、を備え、
前記補正制御手段は、前記被写体検出手段による前記被写体の検出情報に基づいて、像ブレ補正効果の度合いを変更することを特徴とする制御装置。
A correction control unit that acquires a shake detection signal detected by the shake detection unit, calculates a correction amount of the image blur, and controls an image blur correction unit that corrects the image blur;
Subject detection means for detecting the position of the subject in the photographed image and obtaining position information of the subject in the photographed image;
Tracking control means for performing tracking control of the subject by moving the position of the subject in the captured image based on the position information of the subject acquired by the subject detection means;
The control device, wherein the correction control means changes a degree of an image blur correction effect based on detection information of the subject by the subject detection means.
前記被写体が検出されているか否かを判定する判定手段をさらに備え、
前記補正制御手段は、前記判定手段による判定情報を取得し、前記被写体が検出されていると判定された状態での像ブレ補正効果を、前記被写体が検出されていないと判定された状態での像ブレ補正効果よりも高くする制御を行うことを特徴とする請求項5に記載の制御装置。
A determination means for determining whether or not the subject is detected;
The correction control unit acquires the determination information by the determination unit, and the image blur correction effect in a state in which it is determined that the subject is detected is obtained in a state in which it is determined that the subject is not detected. The control device according to claim 5, wherein control is performed so that the image blur correction effect is higher.
前記追尾制御手段は、前記撮影画像内の前記被写体の位置を移動させて、前記撮影画像内の前記被写体の位置と、前記撮影画像内に予め設定された位置との距離を小さくすることで前記被写体の追尾制御を行い、
前記補正制御手段は、前記被写体の位置と前記予め設定された位置との距離が閾値未満である場合の像ブレ補正効果よりも、前記被写体の位置と前記予め設定された位置との距離が閾値以上の場合の像ブレ補正効果を低くする制御を行うことを特徴とする請求項5に記載の制御装置。
The tracking control means moves the position of the subject in the captured image to reduce the distance between the position of the subject in the captured image and a position set in advance in the captured image. Subject tracking control,
The correction control means is configured such that a distance between the subject position and the preset position is a threshold value rather than an image blur correction effect when a distance between the subject position and the preset position is less than the threshold value. The control apparatus according to claim 5, wherein control is performed to reduce an image blur correction effect in the above case.
検出された前記被写体の画像の信頼度を閾値と比較することで、前記被写体の画像の信頼度を判定する信頼度判定手段と、を備え、
前記補正制御手段は、前記信頼度判定手段による判定結果に基づいて、前記信頼度が前記閾値より小さい場合の像ブレ補正効果よりも、前記信頼度が前記閾値以上である場合の像ブレ補正効果を高くする制御を行うことを特徴とする請求項5に記載の制御装置。
A reliability determination unit that determines the reliability of the image of the subject by comparing the reliability of the detected image of the subject with a threshold;
The correction control means is based on the determination result by the reliability determination means, and the image blur correction effect when the reliability is greater than or equal to the threshold than the image blur correction effect when the reliability is smaller than the threshold. The control device according to claim 5, wherein control is performed to increase the value.
前記補正制御手段は、前記補正量を算出するフィルタを備え、該フィルタの特性を変更することにより、像ブレ補正効果の度合いを変更することを特徴とする請求項5乃至8のいずれか1項に記載の制御装置。   The said correction control means is provided with the filter which calculates the said correction amount, The degree of an image blur correction effect is changed by changing the characteristic of this filter, The any one of Claim 5 thru | or 8 characterized by the above-mentioned. The control device described in 1. 前記被写体の追尾制御が可能な状態であるか否かを判定する判定手段と、
前記判定手段により前記被写体の追尾制御が可能な状態でないと判定された場合に、警告を発する指示をする警告指示手段と、
を備えることを特徴とする請求項5乃至9のいずれか1項に記載の制御装置。
Determining means for determining whether or not the subject tracking control is possible;
Warning instruction means for giving an instruction to issue a warning when the determination means determines that the subject tracking control is not possible;
The control device according to claim 5, further comprising:
前記撮影画像内の前記被写体の位置をシフトさせる可動手段を備え、
前記追尾制御手段は、前記被写体を前記撮影画像内に予め設定された位置に移動させるために必要な前記可動手段の補正量である追尾補正量を算出し、前記可動手段を制御することで前記被写体を追尾することを特徴とする請求項5乃至10のいずれか1項に記載の制御装置。
Movable means for shifting the position of the subject in the captured image;
The tracking control means calculates a tracking correction amount that is a correction amount of the movable means necessary for moving the subject to a preset position in the captured image, and controls the movable means to control the movable means. The control device according to claim 5, wherein the subject is tracked.
振れ検出手段により検出される振れ検出信号を取得して画像ブレの補正量を算出し、前記画像ブレを補正する像ブレ補正手段を制御する補正制御手段と、
撮影画像内の被写体像の位置を検出し、前記撮影画像内の被写体の位置情報を取得する被写体検出手段と、
前記被写体検出手段により取得された前記被写体の位置情報に基づいて、前記撮影画像内の前記被写体像の位置を移動させることで前記被写体の追尾制御を行う追尾制御手段と、
前記被写体の追尾が可能な状態であるか否かを判定する判定手段と、
前記判定手段により前記被写体像の追尾が可能な状態でないと判定された場合に、警告を発する指示をする警告指示手段と、を備えることを特徴とする制御装置。
A correction control unit that acquires a shake detection signal detected by the shake detection unit, calculates a correction amount of the image blur, and controls an image blur correction unit that corrects the image blur;
Subject detection means for detecting the position of the subject image in the photographed image and obtaining position information of the subject in the photographed image;
Tracking control means for performing tracking control of the subject by moving the position of the subject image in the captured image based on the position information of the subject acquired by the subject detection means;
Determining means for determining whether or not the subject can be tracked;
A control apparatus comprising: warning instruction means for giving an instruction to issue a warning when it is determined by the determination means that the tracking of the subject image is not possible.
前記撮影画像内の前記被写体の位置をシフトさせる可動手段を備え、
前記判定手段は、前記可動手段を駆動するための補正量が閾値を超えている場合に、前記被写体の追尾が可能な状態でないと判定することを特徴とする請求項12に記載の制御装置。
Movable means for shifting the position of the subject in the captured image;
13. The control device according to claim 12, wherein the determination unit determines that the subject is not in a state where tracking is possible when a correction amount for driving the movable unit exceeds a threshold value.
前記判定手段は、前記撮影画像内における前記被写体像の位置が予め設定された位置に対して所定の距離以上離れている状態が所定時間以上続いた場合に、前記被写体の追尾が可能な状態でないと判定することを特徴とする請求項12または請求項13に記載の制御装置。   The determination unit is not in a state in which the subject can be tracked when a state where the position of the subject image in the captured image is separated from a preset position by a predetermined distance or more continues for a predetermined time or more. The control device according to claim 12 or 13, wherein the control device is determined. 前記判定手段は、前記撮影画像内における前記被写体像が追尾対象の被写体像であるという信頼度が閾値よりも小さい場合に、前記被写体の追尾が可能な状態でないと判定することを特徴とする請求項12乃至14のいずれか1項に記載の制御装置。   The determination unit determines that the subject is not in a state where tracking is possible when the reliability that the subject image in the captured image is a subject image to be tracked is smaller than a threshold. Item 15. The control device according to any one of Items 12 to 14. 前記判定手段は、追尾対象の被写体が検出できている状態から前記追尾対象の被写体が検出できていない状態となった場合に、前記追尾対象の被写体の追尾が可能な状態でないと判定することを特徴とする請求項12乃至15のいずれか1項に記載の制御装置。   The determination unit determines that the tracking target subject is not in a state where tracking is not possible when the tracking target subject is not detected from the tracking target subject detection state. The control device according to claim 12, wherein the control device is a control device. 前記判定手段は、前記制御装置の振れの大きさに基づいて、被写体を追尾可能であるか否かを判定することを特徴とする請求項12乃至16のいずれか1項に記載の制御装置。   The control device according to claim 12, wherein the determination unit determines whether or not the subject can be tracked based on a magnitude of shake of the control device. 被写体を撮像する撮像素子と、
請求項1乃至17のいずれか1項に記載の制御装置と、を備えることを特徴とする撮像装置。

An image sensor for imaging a subject;
An image pickup apparatus comprising: the control device according to claim 1.

JP2016218297A 2015-12-08 2016-11-08 Control device and control method, imaging device Active JP6833461B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/368,200 US10270973B2 (en) 2015-12-08 2016-12-02 Control device and imaging apparatus with a subject selectable mode with higher image blur correction
CN202010223939.XA CN111246117B (en) 2015-12-08 2016-12-08 Control device, image pickup apparatus, and control method
CN201611140487.9A CN107018288B (en) 2015-12-08 2016-12-08 Control device and image pickup apparatus
US16/299,891 US10659691B2 (en) 2015-12-08 2019-03-12 Control device and imaging apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015239747 2015-12-08
JP2015239747 2015-12-08
JP2015244288 2015-12-15
JP2015244288 2015-12-15

Publications (3)

Publication Number Publication Date
JP2017111430A true JP2017111430A (en) 2017-06-22
JP2017111430A5 JP2017111430A5 (en) 2019-12-26
JP6833461B2 JP6833461B2 (en) 2021-02-24

Family

ID=59079658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016218297A Active JP6833461B2 (en) 2015-12-08 2016-11-08 Control device and control method, imaging device

Country Status (2)

Country Link
JP (1) JP6833461B2 (en)
CN (2) CN111246117B (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180341A (en) * 2017-04-14 2018-11-15 キヤノン株式会社 Imaging apparatus, driving mechanism for imaging apparatus, and control method for them
WO2019026389A1 (en) * 2017-08-02 2019-02-07 ソニー株式会社 Information processing device, information processing method, and recording medium
JP2021108425A (en) * 2019-12-27 2021-07-29 キヤノン株式会社 Control device, imaging apparatus, and control method for the same
CN113194243A (en) * 2020-01-29 2021-07-30 三星电子株式会社 Method for automatically photographing image, image processing apparatus and system for performing the same
JPWO2020174911A1 (en) * 2019-02-28 2021-12-02 富士フイルム株式会社 Image display device, image display method, and program
US11265478B2 (en) 2019-12-20 2022-03-01 Canon Kabushiki Kaisha Tracking apparatus and control method thereof, image capturing apparatus, and storage medium
WO2022163390A1 (en) * 2021-01-27 2022-08-04 株式会社モルフォ Image processing device, control method, and program
WO2022196217A1 (en) * 2021-03-19 2022-09-22 富士フイルム株式会社 Imaging assistance device, imaging device, imaging assistance method, and program
GB2616944A (en) * 2022-01-14 2023-09-27 Canon Kk Image blur correction apparatus, control method therefor, imaging apparatus, program, and storage medium
WO2024017175A1 (en) * 2022-07-22 2024-01-25 维沃移动通信有限公司 Photographing preview method and apparatus, and electronic device and storage medium
US11968448B2 (en) 2019-10-29 2024-04-23 Fujifilm Corporation Imaging support device, imaging apparatus, imaging system, imaging support system, imaging support method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062340A (en) * 2017-09-26 2019-04-18 キヤノン株式会社 Image shake correction apparatus and control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09205575A (en) * 1996-01-26 1997-08-05 Sony Corp Tracking device and tracking method
JP2010056692A (en) * 2008-08-26 2010-03-11 Canon Inc Imaging apparatus and its control method
JP2010093362A (en) * 2008-10-03 2010-04-22 Nikon Corp Imaging apparatus and optical apparatus
JP2015130612A (en) * 2014-01-08 2015-07-16 キヤノン株式会社 Imaging apparatus and control method of the same

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050018051A1 (en) * 2003-07-25 2005-01-27 Nikon Corporation Shooting lens having vibration reducing function and camera system for same
JP2006295350A (en) * 2005-04-07 2006-10-26 Sony Corp Imaging apparatus and method of processing imaging result
JP4530961B2 (en) * 2005-06-30 2010-08-25 オリンパスイメージング株式会社 Electronic image stabilization device
JP2008187591A (en) * 2007-01-31 2008-08-14 Fujifilm Corp Imaging apparatus and imaging method
JP5188138B2 (en) * 2007-10-15 2013-04-24 キヤノン株式会社 Optical apparatus having image blur correction device
JP4958756B2 (en) * 2007-12-13 2012-06-20 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP2009222899A (en) * 2008-03-14 2009-10-01 Canon Inc Image blur correction apparatus
JP5054063B2 (en) * 2009-05-07 2012-10-24 パナソニック株式会社 Electronic camera, image processing apparatus, and image processing method
JP5478935B2 (en) * 2009-05-12 2014-04-23 キヤノン株式会社 Imaging device
JP5744437B2 (en) * 2010-08-18 2015-07-08 キヤノン株式会社 TRACKING DEVICE, TRACKING METHOD, AND PROGRAM
JP6103526B2 (en) * 2013-03-15 2017-03-29 オリンパス株式会社 Imaging device, image display device, and display control method for image display device
JP6074298B2 (en) * 2013-03-18 2017-02-01 キヤノン株式会社 Imaging apparatus, image processing apparatus, and control method thereof
JP6351321B2 (en) * 2013-05-28 2018-07-04 キヤノン株式会社 Optical apparatus, control method therefor, and control program
JP6296801B2 (en) * 2013-07-24 2018-03-20 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM
JP6494202B2 (en) * 2013-08-07 2019-04-03 キヤノン株式会社 Image shake correction apparatus, control method thereof, and imaging apparatus
JP6335058B2 (en) * 2013-09-24 2018-05-30 キヤノン株式会社 Imaging apparatus and imaging method
JP6056774B2 (en) * 2014-01-17 2017-01-11 ソニー株式会社 Imaging apparatus, imaging method, and program.
JP2015035001A (en) * 2014-11-04 2015-02-19 株式会社ニコン Shake correcting device and optical apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09205575A (en) * 1996-01-26 1997-08-05 Sony Corp Tracking device and tracking method
JP2010056692A (en) * 2008-08-26 2010-03-11 Canon Inc Imaging apparatus and its control method
JP2010093362A (en) * 2008-10-03 2010-04-22 Nikon Corp Imaging apparatus and optical apparatus
JP2015130612A (en) * 2014-01-08 2015-07-16 キヤノン株式会社 Imaging apparatus and control method of the same

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180341A (en) * 2017-04-14 2018-11-15 キヤノン株式会社 Imaging apparatus, driving mechanism for imaging apparatus, and control method for them
WO2019026389A1 (en) * 2017-08-02 2019-02-07 ソニー株式会社 Information processing device, information processing method, and recording medium
US11232581B2 (en) 2017-08-02 2022-01-25 Sony Group Corporation Information processing apparatus, information processing method, and recording medium
JPWO2020174911A1 (en) * 2019-02-28 2021-12-02 富士フイルム株式会社 Image display device, image display method, and program
JP7186854B2 (en) 2019-02-28 2022-12-09 富士フイルム株式会社 Image display device, image display method, and program
US11968448B2 (en) 2019-10-29 2024-04-23 Fujifilm Corporation Imaging support device, imaging apparatus, imaging system, imaging support system, imaging support method, and program
US11265478B2 (en) 2019-12-20 2022-03-01 Canon Kabushiki Kaisha Tracking apparatus and control method thereof, image capturing apparatus, and storage medium
JP7441040B2 (en) 2019-12-27 2024-02-29 キヤノン株式会社 Control device, imaging device and control method thereof
JP2021108425A (en) * 2019-12-27 2021-07-29 キヤノン株式会社 Control device, imaging apparatus, and control method for the same
CN113194243A (en) * 2020-01-29 2021-07-30 三星电子株式会社 Method for automatically photographing image, image processing apparatus and system for performing the same
CN113194243B (en) * 2020-01-29 2024-06-07 三星电子株式会社 Method for automatically photographing image, image processing apparatus and system for performing the same
JP2022115009A (en) * 2021-01-27 2022-08-08 株式会社モルフォ Control device, control method, and program
JP7209305B2 (en) 2021-01-27 2023-01-20 株式会社モルフォ Control device, control method, program
WO2022163390A1 (en) * 2021-01-27 2022-08-04 株式会社モルフォ Image processing device, control method, and program
WO2022196217A1 (en) * 2021-03-19 2022-09-22 富士フイルム株式会社 Imaging assistance device, imaging device, imaging assistance method, and program
GB2616944A (en) * 2022-01-14 2023-09-27 Canon Kk Image blur correction apparatus, control method therefor, imaging apparatus, program, and storage medium
WO2024017175A1 (en) * 2022-07-22 2024-01-25 维沃移动通信有限公司 Photographing preview method and apparatus, and electronic device and storage medium

Also Published As

Publication number Publication date
CN107018288A (en) 2017-08-04
JP6833461B2 (en) 2021-02-24
CN107018288B (en) 2020-04-07
CN111246117B (en) 2021-11-16
CN111246117A (en) 2020-06-05

Similar Documents

Publication Publication Date Title
JP6833461B2 (en) Control device and control method, imaging device
US10659691B2 (en) Control device and imaging apparatus
JP6486087B2 (en) Image blur correction apparatus, imaging apparatus, and control method
JP6727791B2 (en) Tracking control device, tracking control method, and imaging device
US9531938B2 (en) Image-capturing apparatus
US11729503B2 (en) Image capturing apparatus and control method thereof
JPWO2006082967A1 (en) Imaging device
KR20070102434A (en) Image recovery apparatus, camera, and program
JP6598537B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2018129659A (en) Image processing device, imaging device, and control method
KR20100067407A (en) Photographing control method and apparatus according to motion of digital photographing apparatus
US20230042807A1 (en) Electronic device
JP2018042098A (en) Blur correction device, control method therefor and imaging apparatus
JP6824710B2 (en) Zoom control device and zoom control method, imaging device
US10212364B2 (en) Zoom control apparatus, image capturing apparatus and zoom control method
JP2012160780A (en) Imaging device, image processing device, and image processing program
US9420161B2 (en) Image-capturing apparatus
JP2018010165A (en) Image blur correction device, method for controlling the same, and imaging apparatus
JP2011211531A (en) Imaging device
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6834988B2 (en) Control device
JP6584259B2 (en) Image blur correction apparatus, imaging apparatus, and control method
JP6858065B2 (en) Imaging device and its control method
JP2013197822A5 (en) Image blur correction apparatus, control method thereof, and control program
JP6778014B2 (en) Imaging device and its control method, program, storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6833461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151