JP7034619B2 - Image pickup device, its control method, and program, and storage medium - Google Patents

Image pickup device, its control method, and program, and storage medium Download PDF

Info

Publication number
JP7034619B2
JP7034619B2 JP2017139978A JP2017139978A JP7034619B2 JP 7034619 B2 JP7034619 B2 JP 7034619B2 JP 2017139978 A JP2017139978 A JP 2017139978A JP 2017139978 A JP2017139978 A JP 2017139978A JP 7034619 B2 JP7034619 B2 JP 7034619B2
Authority
JP
Japan
Prior art keywords
tracking
instruction
subject
image pickup
changing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017139978A
Other languages
Japanese (ja)
Other versions
JP2019022116A (en
Inventor
慶大 船津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017139978A priority Critical patent/JP7034619B2/en
Publication of JP2019022116A publication Critical patent/JP2019022116A/en
Application granted granted Critical
Publication of JP7034619B2 publication Critical patent/JP7034619B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02WCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
    • Y02W30/00Technologies for solid waste management
    • Y02W30/50Reuse, recycling or recovery technologies
    • Y02W30/82Recycling of waste of electrical or electronic equipment [WEEE]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、撮像装置、その制御方法、およびプログラム、並びに記憶媒体に関し、特に、被写体の追尾精度および操作性を向上することができる撮像装置に関する。 The present invention relates to an image pickup device, a control method thereof, a program, and a storage medium, and more particularly to an image pickup device capable of improving tracking accuracy and operability of a subject.

一般に、デジタルカメラなどの撮像装置において、被写体を自動的に追尾するものがある。この種の撮像装置において、十字ボタン又はタッチパネル操作によって、追尾する被写体の領域(追尾領域)を変更するようにしたものがある。そして、ここでは、被写体が指定されてから、所定の時間が経過するまで追尾領域の設定を制限するようにしている(特許文献1)。 In general, some image pickup devices such as digital cameras automatically track a subject. Some image pickup devices of this type change the area of the subject to be tracked (tracking area) by operating the cross-shaped button or the touch panel. Then, here, the setting of the tracking area is restricted until a predetermined time elapses after the subject is designated (Patent Document 1).

一方、ファインダーを覗いている状態で撮影準備動作を行った際に、撮影操作に必要な設定を可能とするとともに、誤操作を防止して操作性を向上させるようにした撮像装置がある(特許文献2)。これによって、特許文献2においては、ファインダーを覗いた状態で、被写体の追尾開始位置を変更することができる。 On the other hand, there is an image pickup device that enables settings necessary for shooting operations when performing a shooting preparation operation while looking through the viewfinder, and prevents erroneous operations to improve operability (Patent Documents). 2). Thereby, in Patent Document 2, the tracking start position of the subject can be changed while looking through the finder.

特開2013-143578号公報Japanese Unexamined Patent Publication No. 2013-143578 特開2004-165934号公報Japanese Unexamined Patent Publication No. 2004-165934

ところで、所謂コンパクトデジタルカメラにおいては、一般に追尾動作を継続する際には、1回目の追尾が終わった時点における被写体の位置(追尾位置)から2回目の追尾を開始する。一方、デジタル一眼レフカメラを使用するユーザーは、同一のシーンを複数回に亘って撮影することがある。このため、1回目の追尾が終わった時点における追尾位置で追尾を開始することなく、ユーザーの意思で設定した追尾位置で追尾を開始したい場合がある。よって、2回目の追尾の際にも1回目と同一の追尾開始位置で追尾を行うことが求められる。 By the way, in a so-called compact digital camera, generally, when the tracking operation is continued, the second tracking is started from the position (tracking position) of the subject at the time when the first tracking is completed. On the other hand, a user who uses a digital single-lens reflex camera may shoot the same scene multiple times. Therefore, there is a case where it is desired to start the tracking at the tracking position set by the user's intention without starting the tracking at the tracking position at the time when the first tracking is completed. Therefore, it is required to perform tracking at the same tracking start position as the first tracking even at the time of the second tracking.

そこで、特許文献1に記載のように、追尾終了を一区切りとして追尾動作をユーザーの意思で予め設定した条件に戻すようにすればよい。また、特許文献2に記載のように、ファインダーを覗きながらタッチパネルを操作して追尾待機中であれば追尾を開始する追尾位置、追尾動作中であれば追尾中の被写体の追尾位置を変更するようにすればよい。 Therefore, as described in Patent Document 1, the tracking operation may be returned to the preset condition by the user's intention with the tracking end as a break. Further, as described in Patent Document 2, the touch panel is operated while looking through the finder to change the tracking position for starting tracking if the tracking standby is in progress, and the tracking position for the subject being tracked if the tracking operation is in progress. It should be.

ところが、上述のように、ユーザーの意思で追尾位置を変更すると、次の追尾動作の開始位置として設定されてしまうことになって、一眼レフカメラに適した使い方を行うことが困難となる。つまり、従来の撮像装置においては、被写体の追尾精度を向上させつつ、操作性を向上させることが困難である。 However, as described above, if the tracking position is changed by the user's intention, it will be set as the start position of the next tracking operation, and it will be difficult to use the camera suitable for a single-lens reflex camera. That is, in the conventional image pickup apparatus, it is difficult to improve the operability while improving the tracking accuracy of the subject.

よって、本発明の目的は、被写体の追尾精度を向上させつつ、操作性を向上させることができる撮像装置、その制御方法、およびプログラム、並びに記憶媒体を提供することにある。 Therefore, an object of the present invention is to provide an image pickup apparatus capable of improving operability while improving the tracking accuracy of a subject, a control method thereof, a program, and a storage medium.

上記の目的を達成するため、本発明による撮像装置は、撮影の際に被写体の追尾を行う撮像装置であって、追尾指示があった際に追尾開始位置に位置する被写体を、前記追尾指示が保持されている場合に追尾する追尾手段と、前記被写体を追尾中にその追尾位置を変更する操作があると、当該操作に応じて前記追尾位置を変更する変更手段と、を有し、前記追尾手段は、第1の追尾指示による追尾が終了した後に、続いて第2の追尾指示あると、前記第1の追尾指示の際の前記追尾開始位置から追尾を開始し、前記第1の追尾指示による追尾中に前記追尾位置を変更する変更操作が行われ、その後、前記第1の追尾指示が保持された状態でなくなっても、前記変更手段は、当該変更操作が継続していると前記追尾位置の変更を行うことを特徴とする。 In order to achieve the above object, the image pickup apparatus according to the present invention is an image pickup device that tracks a subject at the time of shooting, and the tracking instruction indicates a subject located at a tracking start position when a tracking instruction is given. It has a tracking means for tracking when the subject is held, and a changing means for changing the tracking position according to the operation when the tracking position is changed while the subject is being tracked. When the second tracking instruction is subsequently given after the tracking by the first tracking instruction is completed, the means starts the tracking from the tracking start position at the time of the first tracking instruction, and the first tracking is performed. Even if the change operation for changing the tracking position is performed during the tracking by the instruction and then the first tracking instruction is no longer held, the changing means continues the change operation. It is characterized by changing the tracking position .

本発明によれば、被写体の追尾精度を向上させつつ、操作性を向上させることができる。 According to the present invention, it is possible to improve the operability while improving the tracking accuracy of the subject.

本発明の実施の形態による撮像装置の一例についてその外観を示す斜視図である。It is a perspective view which shows the appearance of the example of the image pickup apparatus by embodiment of this invention. 図1に示すカメラの一例についてその構成を撮影レンズユニットともに示すブロック図である。It is a block diagram which shows the structure of an example of the camera shown in FIG. 1 together with a photographing lens unit. 図2に示すカメラで行われる被写体の追尾を説明するための図である。It is a figure for demonstrating the tracking of a subject performed by the camera shown in FIG. 図2に示すカメラで行われる追尾開始枠の変更を説明するための図である。It is a figure for demonstrating the change of the tracking start frame performed by the camera shown in FIG. 図2に示すカメラで行われる追尾枠の変更を説明するための図である。It is a figure for demonstrating the change of the tracking frame performed by the camera shown in FIG. 図2に示すカメラで行われる1回目の追尾動作から2回目の追尾動作までの流れを説明するための図である。It is a figure for demonstrating the flow from the 1st tracking operation to the 2nd tracking operation performed by the camera shown in FIG. 2. 図2に示すカメラで行われる追尾動作を説明するためのフローチャートである。It is a flowchart for demonstrating the tracking operation performed by the camera shown in FIG. 本発明の第2の実施形態によるカメラを被写体に向けて構えた状態を示す図である。It is a figure which shows the state which held the camera toward the subject by the 2nd Embodiment of this invention. 追尾枠を変更する操作を行った際に追尾動作終了となる事態が生じる可能性があるシーンを示す図である。It is a figure which shows the scene which the situation which the tracking operation may end may occur when the operation which changes a tracking frame is performed. 本発明の第2の実施形態によるカメラで行われる追尾動作を説明するための図である。It is a figure for demonstrating the tracking operation performed by the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラで行われる追尾動作を説明するためのフローチャートである。It is a flowchart for demonstrating the tracking operation performed by the camera by the 2nd Embodiment of this invention. 本発明の第3の実施形態によるカメラにおける追尾動作の一例を説明するための図である。It is a figure for demonstrating an example of the tracking operation in the camera by the 3rd Embodiment of this invention.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。 Hereinafter, an example of the image pickup apparatus according to the embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態による撮像装置の一例についてその外観を示す斜視図である。そして、図1(a)は撮像光学系(撮影レンズユニット)を取り外して正面からみた斜視図であり、図1(b)は背面からみた斜視図である。 FIG. 1 is a perspective view showing the appearance of an example of an image pickup apparatus according to an embodiment of the present invention. FIG. 1A is a perspective view seen from the front with the imaging optical system (shooting lens unit) removed, and FIG. 1B is a perspective view seen from the back.

図示の撮像装置は、例えば、一眼レフタイプのデジタルカメラ(以下単にカメラと呼ぶ)100であり、カメラ100の背面側には表示部28が配置されている。表示部28には画像および各種情報が表示される。カメラ100の上面にはファインダー外表示部43が配置されており、ファインダー外表示部43には、例えば、シャッター速度および絞り値をはじめとするカメラ100の様々な設定値が表示される。 The illustrated image pickup device is, for example, a single-lens reflex type digital camera (hereinafter, simply referred to as a camera) 100, and a display unit 28 is arranged on the back side of the camera 100. Images and various information are displayed on the display unit 28. An out-of-viewfinder display unit 43 is arranged on the upper surface of the camera 100, and various set values of the camera 100 such as a shutter speed and an aperture value are displayed on the out-of-viewfinder display unit 43.

シャッターボタン61は撮影指示を行うための操作部材である。モード切替スイッチ60は各種モードを切り替えるための操作部材である。端子カバー40は外部機器とカメラ100とを接続する接続ケーブルなどのコネクタ(図示せず)を保護するカバーである。メイン電子ダイヤル71は操作部70に備えられた回転操作部材であり、このメイン電子ダイヤル71を回すことによって、シャッター速度および絞り値などの設定値の変更などを行うことができる。 The shutter button 61 is an operating member for giving a shooting instruction. The mode changeover switch 60 is an operation member for switching various modes. The terminal cover 40 is a cover that protects a connector (not shown) such as a connection cable that connects an external device and the camera 100. The main electronic dial 71 is a rotation operation member provided in the operation unit 70, and by turning the main electronic dial 71, it is possible to change set values such as a shutter speed and an aperture value.

電源スイッチ72はカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は操作部70に備えられる回転操作部材であり、選択枠の移動および画像送りなどを行う際に用いられる。十字キー74は操作部70に備えられ、上、下、左、および右部分の各々を押し込み可能な4方向キーである。そして、十字キー74の押した部分に応じた操作を行うことができる。 The power switch 72 is an operating member that switches the power of the camera 100 on and off. The sub-electronic dial 73 is a rotation operation member provided in the operation unit 70, and is used when moving a selection frame, feeding an image, or the like. The cross key 74 is provided on the operation unit 70, and is a four-way key capable of pushing each of the up, down, left, and right portions. Then, the operation can be performed according to the pressed portion of the cross key 74.

SETボタン75は操作部70に備えられた押しボタンであり、主に選択項目の決定などに用いられる。マルチコントローラー76は操作部70に備えられ、上、下、左、右、右上、右下、左上、および左下の計8方向のキー操作を行うことができる。 The SET button 75 is a push button provided on the operation unit 70, and is mainly used for determining selection items and the like. The multi-controller 76 is provided in the operation unit 70, and can perform key operations in a total of eight directions: up, down, left, right, upper right, lower right, upper left, and lower left.

LVボタン80は操作部70に備えられ、メニューボタンにおいてライブビュー(LV)のONおよびOFFを切り替えるボタンである。動画撮影モードにおいては、LVボタン80は動画撮影(記録)の開始および停止の指示に用いられる。 The LV button 80 is provided on the operation unit 70, and is a button for switching ON and OFF of the live view (LV) in the menu button. In the moving image shooting mode, the LV button 80 is used to instruct the start and stop of movie shooting (recording).

拡大ボタン77は操作部70に備えられ、ライブビュー表示において拡大モードのON、OFF、および拡大モード中の拡大率の変更を行うための操作ボタンである。さらに、拡大ボタン77は、再生モードにおいては再生画像を拡大し、拡大率を大きくするためのボタンとして機能する。縮小ボタン78は操作部70に備えられ、拡大した再生画像の拡大率を小さくし、表示された画像を縮小させるためのボタンである。 The enlargement button 77 is provided on the operation unit 70, and is an operation button for turning on / off the enlargement mode in the live view display and changing the enlargement ratio during the enlargement mode. Further, the enlargement button 77 functions as a button for enlarging the reproduced image and increasing the enlargement ratio in the reproduction mode. The reduction button 78 is provided on the operation unit 70, and is a button for reducing the enlargement ratio of the enlarged reproduced image and reducing the displayed image.

再生ボタン79は操作部70に備えられ、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下すると、再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。 The play button 79 is provided on the operation unit 70 and is an operation button for switching between a shooting mode and a play mode. When the reproduction button 79 is pressed during the shooting mode, the mode shifts to the reproduction mode, and the latest image among the images recorded on the recording medium 200 can be displayed on the display unit 28.

クイックリターンミラー12は、後述するシステム制御部50の制御によって、アクチュエータ(図示せず)によってアップダウンされる。通信端子10はカメラ100が撮影レンズユニットと通信を行うための通信端子である。接眼ファインダー16は撮影レンズユニットを介してフォーカシングスクリーン13に結像した光学像を観察する際に用いられる覗き込み型のファインダーである。そして、光学像の観察によってユーザーは焦点および構図を確認することができる。 The quick return mirror 12 is moved up and down by an actuator (not shown) under the control of the system control unit 50 described later. The communication terminal 10 is a communication terminal for the camera 100 to communicate with the photographing lens unit. The eyepiece finder 16 is a peep-type finder used when observing an optical image formed on a focusing screen 13 via a photographing lens unit. Then, by observing the optical image, the user can confirm the focus and composition.

蓋202は記録媒体200が格納されるスロットを覆うための蓋である。グリップ部90は、ユーザーがカメラ100を構えた際に右手で握りやすい形状に成形された保持部である。 The lid 202 is a lid for covering the slot in which the recording medium 200 is stored. The grip portion 90 is a holding portion formed into a shape that is easy to grip with the right hand when the user holds the camera 100.

図2は、図1に示すカメラの一例についてその構成を撮影レンズユニットともに示すブロック図である。 FIG. 2 is a block diagram showing the configuration of an example of the camera shown in FIG. 1 together with a photographing lens unit.

撮影レンズユニット(以下レンズユニットと呼ぶ)150は、カメラ100に交換可能な撮影レンズを搭載するレンズユニットである。レンズユニット150にはレンズ103が備えられており、通常、レンズ103は複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示されている。通信端子6はレンズユニット150がカメラ100と通信を行うための通信端子であり、通信端子10はカメラ100がレンズユニット150と通信を行うための通信端子である。 The photographing lens unit (hereinafter referred to as a lens unit) 150 is a lens unit in which an interchangeable photographing lens is mounted on the camera 100. The lens unit 150 is provided with a lens 103, and the lens 103 is usually composed of a plurality of lenses, but here, it is simply shown by only one lens. The communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the camera 100, and the communication terminal 10 is a communication terminal for the camera 100 to communicate with the lens unit 150.

レンズユニット150は通信端子6および10を介してシステム制御部50と通信を行う。そして、レンズシステム制御回路4は絞り駆動回路2によって絞り1を駆動制御し、さらに、AF駆動回路3によってレンズ103の位置を光軸に沿って変位させて焦点を合わせる。 The lens unit 150 communicates with the system control unit 50 via the communication terminals 6 and 10. Then, the lens system control circuit 4 drives and controls the diaphragm 1 by the diaphragm drive circuit 2, and further, the AF drive circuit 3 displaces the position of the lens 103 along the optical axis to focus.

カメラ100には、AEセンサー17が備えられており、AEセンサー17は、レンズユニット150を介して被写体の輝度を測光する。焦点検出部11はレンズ103のデフォーカス量を検出して、システム制御部50にデフォーカス量情報として出力する。システム制御部50は当該デフォーカス量情報に基づいてレンズユニット150を制御して、位相差AF制御を行う。 The camera 100 is provided with an AE sensor 17, and the AE sensor 17 measures the brightness of the subject via the lens unit 150. The focus detection unit 11 detects the defocus amount of the lens 103 and outputs it to the system control unit 50 as defocus amount information. The system control unit 50 controls the lens unit 150 based on the defocus amount information to perform phase difference AF control.

クイックリターンミラー(以下単にミラーと呼ぶ)12は、露光、ライブビュー撮影、および動画撮影の際に、システム制御部50の制御下で、アクチュエータ(図示せず)によってアップダウンされる。ミラー12は、レンズ103から入射した光学像を接眼ファインダー16側および撮像部22側に選択的に切替える。通常状態では、ミラー12は接眼ファインダー16に光学像を導く位置に配置される。一方、撮影の際又はライブビュー表示の際には、ミラー12は上方に跳ね上げられて、光学像が撮像部22に導かれる。つまり、撮影の際又はライブビュー表示の際には、ミラー12はミラーアップされてレンズユニット150の光路から待避する。 The quick return mirror (hereinafter simply referred to as a mirror) 12 is moved up and down by an actuator (not shown) under the control of the system control unit 50 during exposure, live view shooting, and moving image shooting. The mirror 12 selectively switches the optical image incident from the lens 103 to the eyepiece finder 16 side and the image pickup unit 22 side. In the normal state, the mirror 12 is arranged at a position where the optical image is guided to the eyepiece finder 16. On the other hand, during shooting or live view display, the mirror 12 is flipped upward and the optical image is guided to the image pickup unit 22. That is, at the time of shooting or live view display, the mirror 12 is mirrored up and evacuated from the optical path of the lens unit 150.

なお、ミラー12はその中央部において光の一部を透過可能なハーフミラーであり、光束の一部が焦点検出を行うための焦点検出部11に入射する。 The mirror 12 is a half mirror capable of transmitting a part of light in the central portion thereof, and a part of the light flux is incident on the focus detection unit 11 for performing focus detection.

撮影者は、ペンタプリズム14および接眼ファインダー16を介して、フォーカシングスクリーン13を観察し、レンズユニット150を介してフォーカシングスクリーン13に結像した光学像の焦点および構図の確認を行うことができる。 The photographer can observe the focusing screen 13 through the pentaprism 14 and the eyepiece finder 16 and confirm the focus and composition of the optical image formed on the focusing screen 13 through the lens unit 150.

シャッター101は、システム制御部50の制御下で、撮像部22の露光時間を制御するフォーカルプレーンシャッターである。 The shutter 101 is a focal plane shutter that controls the exposure time of the imaging unit 22 under the control of the system control unit 50.

撮像部22はCCD又はCMOSイメージセンサーなどの撮像素子を備えており、撮像素子によって光学像に応じた電気信号(アナログ信号)を出力する。A/D変換器23は、撮像部22の出力であるアナログ信号をデジタル信号に変換する。 The image pickup unit 22 includes an image pickup element such as a CCD or CMOS image sensor, and outputs an electric signal (analog signal) corresponding to the optical image by the image pickup element. The A / D converter 23 converts the analog signal, which is the output of the image pickup unit 22, into a digital signal.

画像処理部24は、A/D変換器23の出力であるデジタル信号又はメモリ制御部15から送られる画像データに対して所定の画素補間処理及び縮小処理などのリサイズ処理を行うとともに色変換処理を行う。 The image processing unit 24 performs resizing processing such as predetermined pixel interpolation processing and reduction processing on the digital signal output from the A / D converter 23 or image data sent from the memory control unit 15, and also performs color conversion processing. conduct.

また、画像処理部24は、撮像の結果得られた画像データを用いて所定の演算処理を行う。そして、システム制御部50は得られた演算結果に基づいて露光制御および測距制御を行う。これによって、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。さらに、画像処理部24は、撮像の結果得られた画像データを用いて所定の演算処理を行って、その演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。 In addition, the image processing unit 24 performs predetermined arithmetic processing using the image data obtained as a result of imaging. Then, the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-flash) processing are performed. Further, the image processing unit 24 performs a predetermined calculation process using the image data obtained as a result of imaging, and performs a TTL method AWB (auto white balance) process based on the calculation result.

A/D変換器23の出力であるデジタル信号は、画像処理部24およびメモリ制御部15を介して、或いはメモリ制御部15を介してメモリ32に画像データとして書き込まれる。メモリ32には、撮像の結果得られた画像データが格納されるとともに、表示部28に表示するための表示用画像データが格納される。メモリ32は、所定枚数の静止画像、所定時間の動画像、および音声を格納するための十分な記憶容量を備えている。 The digital signal output from the A / D converter 23 is written as image data in the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. Image data obtained as a result of imaging is stored in the memory 32, and display image data for display on the display unit 28 is stored. The memory 32 has a sufficient storage capacity for storing a predetermined number of still images, a moving image for a predetermined time, and audio.

メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用画像データをアナログ信号に変換して表示部28に送る。これによって、メモリ32に書き込まれた表示用画像データに応じた画像が表示部28に表示される。 The memory 32 also serves as a memory (video memory) for displaying an image. The D / A converter 19 converts the image display image data stored in the memory 32 into an analog signal and sends it to the display unit 28. As a result, the image corresponding to the display image data written in the memory 32 is displayed on the display unit 28.

表示部28は、例えば、LCDであり、メモリ32に蓄積された表示用画像データをD/A変換器19においてアナログ変換して表示部28に逐次転送して表示することによって、電子ビューファインダーとして機能する。これによって、スルー画像表示(ライブビュー表示)を行うことができる。 The display unit 28 is, for example, an LCD, and as an electronic viewfinder, the display image data stored in the memory 32 is analog-converted by the D / A converter 19 and sequentially transferred to the display unit 28 for display. Function. This makes it possible to display a through image (live view display).

ファインダー内表示部41は、光学ファインダー内で視認可能である。そして、ファインダー内表示部41には、ファインダー内表示部駆動回路42によって現在オートフォーカスが行われている測距点を示す枠(AF枠)およびカメラ100の設定状態を表すアイコンなどが表示される。 The display unit 41 in the finder is visible in the optical finder. Then, the display unit 41 in the viewfinder displays a frame (AF frame) indicating the AF point at which autofocus is currently being performed by the display unit drive circuit 42 in the viewfinder, an icon indicating the setting state of the camera 100, and the like. ..

ファインダー外表示部43には、ファインダー外表示部駆動回路44によって、シャッター速度および絞り値をはじめとするカメラの様々な設定値が表示される。 The out-of-viewfinder display unit 43 displays various settings of the camera, such as the shutter speed and the aperture value, by the out-of-viewfinder display unit drive circuit 44.

不揮発性メモリ56は、電気的に消去および記録可能なメモリであり、例えば、EEPROMが用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数およびプログラムなどが記憶される。なお、このプログラムとは、例えば、後述する各種フローチャートを実行するためのプログラムである。 The non-volatile memory 56 is a memory that can be electrically erased and recorded, and for example, EEPROM is used. The non-volatile memory 56 stores constants and programs for the operation of the system control unit 50. Note that this program is, for example, a program for executing various flowcharts described later.

システム制御部50は、少なくとも1つのプロセッサー又は回路を有する制御部であって、カメラ100全体を制御する。システム制御部50は、前述の不揮発性メモリ56に記録されたプログラムを実行することによって、後述する各処理を行う。 The system control unit 50 is a control unit having at least one processor or circuit, and controls the entire camera 100. The system control unit 50 performs each process described later by executing the program recorded in the above-mentioned non-volatile memory 56.

システムメモリ52として、例えば、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、および不揮発性メモリ56から読み出したプログラムなどが展開される。なお、システム制御部50はメモリ32、D/A変換器19、および表示部28などを制御することによって表示制御を行う。 As the system memory 52, for example, RAM is used. In the system memory 52, constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 56, and the like are expanded. The system control unit 50 controls the display by controlling the memory 32, the D / A converter 19, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間および内蔵された時計の時間を計測する計時部である。 The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock.

モード切替スイッチ60、第1シャッタースイッチ62、第2シャッタースイッチ64、および操作部70は、システム制御部50に各種の動作指示を入力するための操作部材である。 The mode changeover switch 60, the first shutter switch 62, the second shutter switch 64, and the operation unit 70 are operation members for inputting various operation instructions to the system control unit 50.

モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、および再生モードなどのいずれかに切り替える際に用いられる。静止画記録モードに含まれるモードとして、例えば、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、およびシャッター速度優先モード(Tvモード)がある。さらには、静止画記録モードに含まれるモードとして、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、およびカスタムモードなどがある。 The mode changeover switch 60 is used when switching the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image shooting mode, a reproduction mode, and the like. The modes included in the still image recording mode include, for example, an auto shooting mode, an auto scene discrimination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). Further, as a mode included in the still image recording mode, there are various scene modes, a program AE mode, a custom mode, and the like, which are shooting settings for each shooting scene.

モード切替スイッチ60を用いて、上述のモードのいずれかに直接切り替えることができる。また、モード切替スイッチ60によって撮影モードの一覧画面に一旦切り換えた後、表示された複数のモードのいずれかを選択して、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれる。 The mode changeover switch 60 can be used to directly switch to any of the above modes. Further, after switching to the shooting mode list screen once with the mode changeover switch 60, one of the displayed plurality of modes may be selected and switched using another operation member. Similarly, the moving image shooting mode includes a plurality of modes.

第1シャッタースイッチ62は、カメラ100に設けられたシャッターボタン61の操作途中、所謂半押し(撮影準備指示)でONとなって、第1のシャッタースイッチ信号SW1がONとなる。第1のシャッタースイッチ信号SW1に応答して、システム制御部50は、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などを開始する。 The first shutter switch 62 is turned on by a so-called half-pressing (shooting preparation instruction) during the operation of the shutter button 61 provided on the camera 100, and the first shutter switch signal SW1 is turned on. In response to the first shutter switch signal SW1, the system control unit 50 performs AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, EF (flash pre-flash) processing, and the like. Start.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、所謂全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2がONとなる。システム制御部50は、第2シャッタースイッチ信号SW2に応答して、撮像部22の信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理を開始する。 The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is turned on. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of shooting processes from reading the signal of the image pickup unit 22 to writing the image data to the recording medium 200.

操作部70に備えられた各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどによって、場面ごとに適宜機能が割り当てられて各種機能ボタンとして作用する。機能ボタンとして、例えば、メニューボタン、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、および属性変更ボタンがある。例えば、メニューボタンが押されると各種の設定を行うためのメニュー画面が表示部28に表示される。撮影者は、表示部28に表示されたメニュー画面と上下左右の4方向ボタンおよびSETボタンを用いて直感的に各種設定を行うことができる。 Each operation member provided in the operation unit 70 is assigned an appropriate function for each scene by selecting and operating various function icons displayed on the display unit 28, and acts as various function buttons. The function buttons include, for example, a menu button, an end button, a back button, an image feed button, a jump button, a narrowing button, and an attribute change button. For example, when the menu button is pressed, a menu screen for making various settings is displayed on the display unit 28. The photographer can intuitively make various settings by using the menu screen displayed on the display unit 28, the up / down / left / right four-direction buttons, and the SET button.

操作部70は、ユーザーからの操作を受け付ける入力部として用いられる。操作部70には、少なくとも次の操作部材が含まれる。例えば、操作部70は、シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、およびサブ電子ダイヤル73を有している。さらに、操作部70は、十字キー74、SETボタン75、マルチコントローラー76LVボタン80、拡大ボタン77、縮小ボタン78、および再生ボタン79を有している。 The operation unit 70 is used as an input unit for receiving an operation from the user. The operation unit 70 includes at least the following operation members. For example, the operation unit 70 has a shutter button 61, a main electronic dial 71, a power switch 72, and a sub electronic dial 73. Further, the operation unit 70 has a cross key 74, a SET button 75, a multi-controller 76LV button 80, an enlargement button 77, a reduction button 78, and a play button 79.

電源制御部80は、電池検出回路、DC-DCコンバータ、および通電するブロックを切り替えるスイッチ回路などを備えており、電池の装着の有無、電池の種類、および電池残量の検出を行う。また、電源制御部80は、その検出結果およびシステム制御部50の指示に基づいて、DC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部に供給する。 The power supply control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a required voltage to each unit including the recording medium 200 for a necessary period.

電源部30は、アルカリ電池又はリチウム電池等の一次電池、NiCd電池、NiMH電池、又はLi電池などの二次電池、そして、ACアダプターなどを備えている。記録媒体I/F18は、メモリカード又はハードディスクなどの記録媒体200とのインターフェースである。記録媒体200は、例えば、メモリカードであり、記録媒体200には、撮影によって得られた画像データが記録される。メモリカードは、例えば、半導体メモリによって構成される。 The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, and the like. The recording medium I / F18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is, for example, a memory card, and image data obtained by photographing is recorded on the recording medium 200. The memory card is composed of, for example, a semiconductor memory.

通信部54は、無線又は有線ケーブルによって外部機器と接続され、映像信号および音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)又はインターネットと接続可能である。通信部54は撮像部22による撮像の結果得られた画像データ(スルー画像を含む)および記録媒体200に記録された画像データを外部機器に送信する。さらに、通信部54は、外部機器から画像データおよびその他の各種情報を受信する。 The communication unit 54 is connected to an external device by a wireless or wired cable to transmit and receive video signals and audio signals. The communication unit 54 can be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 54 transmits the image data (including the through image) obtained as a result of the image pickup by the image pickup unit 22 and the image data recorded on the recording medium 200 to the external device. Further, the communication unit 54 receives image data and various other information from an external device.

姿勢検知部55は重力方向に対するカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、システム制御部50は、撮像部22による撮像の結果得られた画像がカメラ100を横に構えて撮影された画像であるか又は縦に構えて撮影された画像であるかを判別する。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を画像ファイルに付加するとともに、当該姿勢に応じて画像を回転して記録する。なお、姿勢検知部55として、加速度センサー又はジャイロセンサーなどが用いられる。 The posture detection unit 55 detects the posture of the camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 55, the system control unit 50 holds the image obtained as a result of the image pickup by the image pickup unit 22 as an image taken by holding the camera 100 horizontally or vertically. Determine if the image was taken. The system control unit 50 adds orientation information according to the posture detected by the posture detection unit 55 to the image file, and rotates and records the image according to the posture. An acceleration sensor, a gyro sensor, or the like is used as the posture detection unit 55.

操作部70には、表示部28に対する接触を検知可能なタッチパネル70aが含まれている。なお、タッチパネル70aと表示部28とは一体的に構成することができる。例えば,タッチパネル70aの光透過率を表示部28における表示を妨げないようにして、タッチパネル70aを表示部28の表示面に取り付ける。そして、タッチパネル70aにおける入力座標と表示部28の表示座標とを対応付ける。これによって、恰もユーザーが表示部28に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。 The operation unit 70 includes a touch panel 70a capable of detecting contact with the display unit 28. The touch panel 70a and the display unit 28 can be integrally configured. For example, the touch panel 70a is attached to the display surface of the display unit 28 so that the light transmittance of the touch panel 70a does not interfere with the display on the display unit 28. Then, the input coordinates on the touch panel 70a and the display coordinates of the display unit 28 are associated with each other. This makes it possible to configure a GUI (graphical user interface) as if the user can directly operate the screen displayed on the display unit 28.

システム制御部50はタッチパネル70aに対する次のタッチ操作およびタッチ状態を検出する。 The system control unit 50 detects the next touch operation and touch state for the touch panel 70a.

指又はペンで新たにタッチパネル70aをタッチ操作したこと。つまり、タッチ操作の開始(以下タッチダウン(Touch-Down)という)。 Touch operation of the touch panel 70a with a finger or a pen. That is, the start of the touch operation (hereinafter referred to as touch-down).

タッチパネル70aを指又はペンでタッチしている状態(以下タッチオン(Touch-On)という)。 A state in which the touch panel 70a is touched with a finger or a pen (hereinafter referred to as touch-on).

タッチパネル70aを指又はペンによってタッチ状態で移動すること(以下タッチムーブ(Touch-Move)と呼ぶ)。 Moving the touch panel 70a in a touch state with a finger or a pen (hereinafter referred to as Touch-Move).

タッチパネル70aにタッチしていた指又はペンを離したこと。つまり、タッチ操作の終了(以下タッチアップ(Touch-Up)という)。 The finger or pen that was touching the touch panel 70a was released. That is, the end of the touch operation (hereinafter referred to as touch-up (Touch-Up)).

タッチパネル70aになにもタッチしていない状態(以下タッチオフ(Touch-Off)という)。 A state in which nothing is touched on the touch panel 70a (hereinafter referred to as touch-off).

システム制御部50はタッチダウンを検出すると同時にタッチオンであることを検出する。タッチダウンの後,タッチアップが検出されない限り、システム制御部50はタッチオンの検出を継続する。なお、タッチムーブが検出されるのはタッチオンが検出されている状態である。 The system control unit 50 detects touch-down and at the same time detects touch-on. After the touchdown, the system control unit 50 continues to detect the touch-on unless the touch-up is detected. The touch move is detected when the touch-on is detected.

タッチオンを検出しても、タッチ位置が移動していなければ、システム制御部50はタッチムーブを検出しない。タッチアップを検出すると、システム制御部50はタッチオフとする。 Even if the touch-on is detected, if the touch position has not moved, the system control unit 50 does not detect the touch move. When the touch-up is detected, the system control unit 50 turns off the touch.

これらのタッチ操作および状態およびタッチパネル70aがタッチされた位置座標は内部バスを介してシステム制御部50に送られる。そして、システム制御部50は送られた情報に基づいてタッチパネル70aでどのような操作(タッチ操作)が行なわれたかを検出する。 These touch operations and states and the position coordinates to which the touch panel 70a is touched are sent to the system control unit 50 via the internal bus. Then, the system control unit 50 detects what kind of operation (touch operation) is performed on the touch panel 70a based on the transmitted information.

タッチムーブについては、システム制御部50は位置座標の変化に基づいて、タッチパネル70a上で移動する指又はペンの移動方向を、タッチパネル70a上の垂直成分および水平成分毎に検出する。システム制御部50は所定距離以上をタッチムーブしたことを検出すると、スライド操作(ドラッグ)が行なわれたと判定する。 For the touch move, the system control unit 50 detects the moving direction of the finger or the pen moving on the touch panel 70a for each of the vertical component and the horizontal component on the touch panel 70a, based on the change in the position coordinates. When the system control unit 50 detects that the touch move has been performed for a predetermined distance or more, it determines that the slide operation (drag) has been performed.

なお、タッチパネル70aに指をタッチした状態である程度の距離だけ素早く動かして離す操作をフリックと呼ぶ。言い替えると、フリックはタッチパネル70aを指ではじくように素早くなぞる操作である。 The operation of quickly moving and releasing the touch panel 70a by a certain distance while the finger is touched is called a flick. In other words, flicking is an operation of swiftly tracing the touch panel 70a as if flicking it with a finger.

所定距離以上を所定速度以上でタッチムーブしたことを検出して、その後タッチアップを検出すると、システム制御部50はフリックが行なわれたと判定する(ドラッグに続いてフリックがあったものと判定する)。 When it is detected that the touch move is performed over a predetermined distance at a predetermined speed or more and then the touch-up is detected, the system control unit 50 determines that the flick has been performed (it is determined that there was a flick following the drag). ..

複数箇所(例えば、2点)を同時にタッチ操作して、互いのタッチ位置を近づける操作をピンチインと呼び、互いのタッチ位置を遠ざける操作をピンチアウトと呼ぶ。ピンチアウトおよびピンチインを総称してピンチ操作(又は単にピンチ)と呼ぶ。 An operation of touching a plurality of points (for example, two points) at the same time to bring the touch positions closer to each other is called a pinch-in, and an operation of moving the touch positions away from each other is called a pinch-out. Pinch-out and pinch-in are collectively called pinch operation (or simply pinch).

タッチパネル70aとして、例えば、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、および光センサー方式などの様々な方式のタッチパネルが用いられる。なお、タッチパネルに対する接触があったことでタッチがあったと検出する方式およびタッチパネルに対する指又はペンの接近があったことでタッチがあったと検出する方式があるが、いずれかの方式を用いるようにすればよい。 As the touch panel 70a, various touch panels such as a resistance film method, a capacitance method, a surface acoustic wave method, an infrared ray method, an electromagnetic induction method, an image recognition method, and an optical sensor method are used. There are two methods, one is to detect that there is a touch due to contact with the touch panel and the other is to detect that there is a touch due to the approach of a finger or pen to the touch panel. Just do it.

図3は、図2に示すカメラで行われる被写体の追尾を説明するための図である。 FIG. 3 is a diagram for explaining tracking of a subject performed by the camera shown in FIG. 2.

図3には、接眼ファインダー16からみた被写体の構図が示されており、図中上から下に向う順に示すように被写体Aが移動するものとする。 FIG. 3 shows the composition of the subject as seen from the eyepiece finder 16, and it is assumed that the subject A moves as shown in the order from top to bottom in the figure.

図示のように、接眼ファインダー16からは複数の追尾候補枠301を観察することができる。図示の例では、合計5×7個の追尾候補枠301が構図に対して均等に配置されている。さらに、追尾待機中においては、接眼ファインダー16において追尾開始枠302を観察することができる。そして、追尾中においは、接眼ファインダー16において追尾枠303を観察することができる。なお、これら追尾候補枠301、追尾開始枠302、および追尾枠302は、システム制御部50の制御下で、ファインダー内表示部駆動回路42によって、ファインダー内表示部41に表示される。 As shown in the figure, a plurality of tracking candidate frames 301 can be observed from the eyepiece finder 16. In the illustrated example, a total of 5 × 7 tracking candidate frames 301 are evenly arranged with respect to the composition. Further, during the tracking standby, the tracking start frame 302 can be observed with the eyepiece finder 16. Then, during tracking, the tracking frame 303 can be observed in the eyepiece finder 16. The tracking candidate frame 301, the tracking start frame 302, and the tracking frame 302 are displayed on the display unit 41 in the finder by the display unit drive circuit 42 in the finder under the control of the system control unit 50.

システム制御部50は、第1のシャッタースイッチ信号SW1がONとなると、つまり、追尾開始操作が行われると、追尾対象である被写体Aが位置する追尾候補枠301の1つを追尾開始枠302とする。ここでは、被写体Aの顔領域の中心に位置する追尾候補枠301が追尾開始枠302とされる。 When the first shutter switch signal SW1 is turned on, that is, when the tracking start operation is performed, the system control unit 50 sets one of the tracking candidate frames 301 in which the subject A to be tracked is located as the tracking start frame 302. do. Here, the tracking candidate frame 301 located at the center of the face region of the subject A is referred to as the tracking start frame 302.

システム制御部50は、追尾開始枠302に基づいて画面(つまり、構図)における被写体の位置を検出する。そして、システム制御部50は被写体の移動に応じて追尾枠303を移動させる。図3に示す例では、システム制御部50は追尾開始枠302によって被写体Aの位置を特定して、被写体Aの移動に応じて追尾枠303を移動させる。ユーザーは追尾枠303によって追尾中の被写体を確認することができる。 The system control unit 50 detects the position of the subject on the screen (that is, composition) based on the tracking start frame 302. Then, the system control unit 50 moves the tracking frame 303 according to the movement of the subject. In the example shown in FIG. 3, the system control unit 50 specifies the position of the subject A by the tracking start frame 302, and moves the tracking frame 303 according to the movement of the subject A. The user can confirm the subject being tracked by the tracking frame 303.

図4は、図2に示すカメラで行われる追尾開始枠の変更を説明するための図である。 FIG. 4 is a diagram for explaining the change of the tracking start frame performed by the camera shown in FIG. 2.

図3で説明したように、追尾待機中においては、接眼ファインダー16において追尾候補枠301および追尾開始枠302を観察することができる。そして、追尾開始枠302は追尾待機中においてユーザー操作によって設定される。システム制御部50はタッチパネル70aにおけるタッチ操作又はマルチコントローラー(操作部材)76による上、下、左、右、右上、右下、左上、および左下の計8方向のキー操作を受け付ける。 As described with reference to FIG. 3, the tracking candidate frame 301 and the tracking start frame 302 can be observed in the eyepiece finder 16 during the tracking standby. Then, the tracking start frame 302 is set by a user operation during the tracking standby. The system control unit 50 accepts touch operations on the touch panel 70a or key operations in a total of eight directions of up, down, left, right, upper right, lower right, upper left, and lower left by the multi-controller (operation member) 76.

ユーザーはタッチパネル70a又は操作部材76の操作に応じて、複数の追尾候補枠301から1つの追尾開始枠302を選択することができる.そして、システム制御部50は追尾開始枠302に係る情報をシステムメモリ52に記憶する。これによって、システム制御部50は次の追尾動作における追尾開始枠としても用いることができる。 The user can select one tracking start frame 302 from the plurality of tracking candidate frames 301 according to the operation of the touch panel 70a or the operation member 76. Then, the system control unit 50 stores the information related to the tracking start frame 302 in the system memory 52. As a result, the system control unit 50 can also be used as a tracking start frame in the next tracking operation.

図5は、図2に示すカメラで行われる追尾枠の変更を説明するための図である。 FIG. 5 is a diagram for explaining the change of the tracking frame performed by the camera shown in FIG. 2.

図3で説明したように、追尾中においては、接眼ファインダー16において追尾候補枠301および追尾枠303を観察することができる。そして、追尾開始枠303は追尾中において、つまり、追尾開始から追尾終了までの間においてユーザー操作によって設定することができる。システム制御部50はタッチパネル70aにおけるタッチ操作又はマルチコントローラー(操作部材)76によるキー操作を受け付ける。 As described with reference to FIG. 3, during tracking, the tracking candidate frame 301 and the tracking frame 303 can be observed with the eyepiece finder 16. Then, the tracking start frame 303 can be set by a user operation during tracking, that is, from the start of tracking to the end of tracking. The system control unit 50 accepts a touch operation on the touch panel 70a or a key operation by the multi-controller (operation member) 76.

ユーザーはタッチパネル70a又は操作部材76の操作に応じて、複数の追尾候補枠301から1つの追尾候補枠301を選択して、当該選択した追尾候補枠301を追尾枠303に変更することができる.そして、システム制御部50は追尾開始枠302に係る情報を一時的にシステムメモリ52に記憶する。つまり、システム制御部50は1回の追尾動作が終了するまで当該情報をシステムメモリ52に記憶する。システム制御部50は追尾動作が終了すると当該情報を消去して次の追尾動作では追尾枠に係る情報を用いない。 The user can select one tracking candidate frame 301 from the plurality of tracking candidate frames 301 and change the selected tracking candidate frame 301 to the tracking frame 303 according to the operation of the touch panel 70a or the operation member 76. Then, the system control unit 50 temporarily stores the information related to the tracking start frame 302 in the system memory 52. That is, the system control unit 50 stores the information in the system memory 52 until one tracking operation is completed. When the tracking operation is completed, the system control unit 50 deletes the information and does not use the information related to the tracking frame in the next tracking operation.

図6は、図2に示すカメラで行われる1回目の追尾動作(第1の追尾指示による追尾)から2回目の追尾動作(第2の追尾指示による追尾)までの流れを説明するための図である。 FIG. 6 is a diagram for explaining a flow from the first tracking operation (tracking by the first tracking instruction) to the second tracking operation (tracking by the second tracking instruction) performed by the camera shown in FIG. Is.

図6においては、接眼ファインダー16から観察した被写体の構図が示されており、一回目の追尾待機中において、最初、追尾開始枠302は画面の中央部に位置している。この状態で、システム制御部50は、ユーザーによるタッチパネル70aのタッチ操作(ここでは、左方向の操作)を2回受け付けて、当初の追尾開始枠302から二つ左に位置する追尾候補枠301を追尾開始枠302に変更する。この結果、追尾開始枠302は被写体Aの顔領域に位置することになる。 FIG. 6 shows the composition of the subject observed from the eyepiece finder 16, and the tracking start frame 302 is initially located at the center of the screen during the first tracking standby. In this state, the system control unit 50 accepts the touch operation of the touch panel 70a by the user twice (here, the operation in the left direction), and receives the tracking candidate frame 301 located two left from the initial tracking start frame 302. Change to the tracking start frame 302. As a result, the tracking start frame 302 is located in the face region of the subject A.

ユーザーがシャッターボタン61を操作して、SW1をONとすると(第1の追尾指示があると)、システム制御部50は追尾開始枠302を追尾枠303として追尾を行う(1回目の追尾中)。この際、システム制御部50は追尾開始枠302が位置する被写体Aに関する情報を取得して,当該情報に基づいて被写体Aを追尾する。 When the user operates the shutter button 61 to turn on SW1 (when there is a first tracking instruction), the system control unit 50 tracks the tracking start frame 302 as the tracking frame 303 (during the first tracking). .. At this time, the system control unit 50 acquires information about the subject A in which the tracking start frame 302 is located, and tracks the subject A based on the information.

被写体が右側に移動すると、システム制御部50は被写体Aの移動に合わせて追尾枠303を移動させる。この際、画面の右側に存在する被写体Bと被写体Aとが交差すると、システム制御部50は追尾枠303を被写体Aから被写体Bに移動させようとする(乗り移り)。 When the subject moves to the right, the system control unit 50 moves the tracking frame 303 in accordance with the movement of the subject A. At this time, when the subject B existing on the right side of the screen and the subject A intersect, the system control unit 50 tries to move the tracking frame 303 from the subject A to the subject B (transfer).

このため、ユーザーは、前述のようにして追尾枠303の変更を行う。図示の例では、システム制御部50は、ユーザーによるタッチパネル70aのタッチ操作(ここでは、左方向の操作)を受け付けて、当初の追尾枠303から一つ左に位置する追尾候補枠301を追尾枠303に変更する。この結果、追尾枠303は被写体Aの顔領域に位置することになる。 Therefore, the user changes the tracking frame 303 as described above. In the illustrated example, the system control unit 50 accepts the touch operation of the touch panel 70a by the user (here, the operation in the left direction), and tracks the tracking candidate frame 301 located one left from the initial tracking frame 303. Change to 303. As a result, the tracking frame 303 is located in the face region of the subject A.

このように、ユーザーが意図しない被写体Bの追尾が行われる状態になると、ユーザーはタッチパネル70a(又は操作部材76)を用いて追尾枠303の変更を行うことができる。 In this way, when the user does not intend to track the subject B, the user can change the tracking frame 303 using the touch panel 70a (or the operation member 76).

ユーザーがシャッターボタン61を操作して、SW2をONとすると、システム制御部50は撮像部22による撮像を行う。撮像の際には、ユーザーは接眼ファインダー16を介して構図の確認をすることができない。そして、シャッターボタン61の操作が解除されて、SW1およびSW2がOFFとなると(第1の追尾指示が終了すると)、つまり、SW1およびSW2が開放されると、システム制御部50は回目の撮影を終了する。 When the user operates the shutter button 61 to turn on SW2, the system control unit 50 performs imaging by the imaging unit 22. At the time of imaging, the user cannot confirm the composition through the eyepiece finder 16. Then, when the operation of the shutter button 61 is released and SW1 and SW2 are turned off (when the first tracking instruction is completed), that is, when SW1 and SW2 are released, the system control unit 50 takes a second shot. finish.

その後、ユーザーが再びシャッターボタン61を操作して、SW1をONとすると(第2の追尾指示)、2回目の追尾が行われる。2回目の追尾が行われる場合には、まずシステム制御部50は追尾開始枠の変更を受け付ける追尾待機中となる。図示の例では、接眼ファインダー16によって被写体CおよびDが観察されており、追尾開始枠302が被写体Cの顔領域に位置づけられている。この場合、システム制御部50は、1回目の追尾終了後の追尾開始枠、つまり、ここでは2回目の追尾における追尾開始枠を、1回目の追尾の際にユーザーが設定した追尾開始枠と同一の位置とする。 After that, when the user operates the shutter button 61 again to turn on SW1 (second tracking instruction), the second tracking is performed. When the second tracking is performed, the system control unit 50 first waits for tracking to accept the change of the tracking start frame. In the illustrated example, the subjects C and D are observed by the eyepiece finder 16, and the tracking start frame 302 is positioned in the face region of the subject C. In this case, the system control unit 50 sets the tracking start frame after the first tracking, that is, the tracking start frame in the second tracking, to be the same as the tracking start frame set by the user at the time of the first tracking. The position of.

なお、1回目の追尾の際に、ユーザー操作によって追尾枠303を変更したが、追尾中の追尾枠303の変更は、2回目の追尾開始枠の位置に反映されない。また、接眼ファインダー16で観察される画面においては、追尾候補枠301、追尾開始枠302、および追尾枠303を区別可能に表示する。図示の例では、追尾開始枠302は二重線で囲まれた枠として表示され、追尾枠303は太線で囲まれた枠として表示される。これによって、ユーザーは追尾開始位置を容易に確認することができるとともに、現在の追尾位置を容易に確認することができる。 Although the tracking frame 303 was changed by the user operation at the time of the first tracking, the change of the tracking frame 303 during tracking is not reflected in the position of the second tracking start frame. Further, on the screen observed by the eyepiece finder 16, the tracking candidate frame 301, the tracking start frame 302, and the tracking frame 303 are displayed in a distinguishable manner. In the illustrated example, the tracking start frame 302 is displayed as a frame surrounded by a double line, and the tracking frame 303 is displayed as a frame surrounded by a thick line. As a result, the user can easily confirm the tracking start position and also can easily confirm the current tracking position.

図7は、図2に示すカメラで行われる追尾動作を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システム制御部50が不揮発メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することによって行われる。 FIG. 7 is a flowchart for explaining the tracking operation performed by the camera shown in FIG. 2. The process according to the illustrated flowchart is performed by the system control unit 50 expanding the program stored in the non-volatile memory 56 into the system memory 52 and executing the program.

追尾動作を開始すると、S701では、システム制御部50はシステムメモリ52に記憶した追尾開始位置に基づいて追尾開始枠の位置を決定する。 When the tracking operation is started, in S701, the system control unit 50 determines the position of the tracking start frame based on the tracking start position stored in the system memory 52.

S702では、システム制御部50は、タッチパネル70aに対してタッチダウンが行われたか否かを判定する。ダッチダウンが行われた場合はS703に進み、そうでない場合はS706に進む。 In S702, the system control unit 50 determines whether or not the touch panel 70a has been touched down. If the Dutch down is performed, the process proceeds to S703, and if not, the process proceeds to S706.

S703では、システム制御部50は、タッチパネル70aにおいてタッチムーブが行われたか否かを判定する。ダッチムーブが行われた場合はS704に進み、そうでない場合はS706に進む。 In S703, the system control unit 50 determines whether or not the touch move has been performed on the touch panel 70a. If a Dutch move is performed, proceed to S704, otherwise proceed to S706.

S704では、システム制御部50は、タッチムーブの方向に応じて追尾開始位置、つまり、追尾開始枠302を移動する。S705では,システム制御部50は、追尾開始位置をシステムメモリ52に記憶する。 In S704, the system control unit 50 moves the tracking start position, that is, the tracking start frame 302 according to the direction of the touch move. In S705, the system control unit 50 stores the tracking start position in the system memory 52.

S706では,システム制御部50は,タッチパネル70aにおいてタッチアップが行われたか否かを判定する。ダッチアップが行われた場合はS707に進み、そうでない場合はS703に戻る。 In S706, the system control unit 50 determines whether or not touch-up has been performed on the touch panel 70a. If the Dutch-up is done, it goes to S707, otherwise it goes back to S703.

S707では、システム制御部50は、SW1がONとなったか否かを判定する。SW1がONとなった場合はS708に進み、そうでない場合はS701に戻る。 In S707, the system control unit 50 determines whether or not SW1 is turned ON. If SW1 is ON, the process proceeds to S708, and if not, the process returns to S701.

S708では、システム制御部50は、追尾開始位置、つまり、追尾開始枠302が位置する被写体に係る情報(被写体情報)を取得する。S709では、システム制御部50は、S708で取得した被写体情報に基づいて追尾開始位置から被写体の追尾を開始する。 In S708, the system control unit 50 acquires the tracking start position, that is, the information (subject information) relating to the subject in which the tracking start frame 302 is located. In S709, the system control unit 50 starts tracking the subject from the tracking start position based on the subject information acquired in S708.

S710では、システム制御部50は、タッチパネル70aにおいてタッチダウンが行われたか否かを判定する。ダッチダウンが行われた場合はS711に進み、そうでない場合はS714に進む。 In S710, the system control unit 50 determines whether or not touchdown has been performed on the touch panel 70a. If the Dutch down is performed, the process proceeds to S711, and if not, the process proceeds to S714.

S711では、システム制御部50は追尾枠303の色を変更する(つまり、追尾枠の表示形態を変更する)。これによって、システム制御部50は追尾枠303を移動可能である旨をユーザーに報知する。 In S711, the system control unit 50 changes the color of the tracking frame 303 (that is, changes the display form of the tracking frame). As a result, the system control unit 50 notifies the user that the tracking frame 303 can be moved.

S712では、システム制御部50は、タッチパネル70aにおいてタッチムーブが行われたか否かを判定する。ダッチムーブが行われた場合はS713に進み、そうでない場合はS714に進む。 In S712, the system control unit 50 determines whether or not the touch move has been performed on the touch panel 70a. If a Dutch move has been performed, proceed to S713, otherwise proceed to S714.

S713では、システム制御部50は、タッチムーブの方向に応じて追尾位置(つまり、追尾枠303)を移動する。 In S713, the system control unit 50 moves the tracking position (that is, the tracking frame 303) according to the direction of the touch move.

S714では、システム制御部50は、SW1がONであるか否かを判定する。SW1がONである場合はS715に進み、そうでない場合はS701に戻る。 In S714, the system control unit 50 determines whether or not SW1 is ON. If SW1 is ON, the process proceeds to S715, and if not, the process returns to S701.

S715では、システム制御部50は、SW2がONとなったか否かを判定する。SW2がONとなった場合はS716に進み、そうでない場合はS710に戻る。 In S715, the system control unit 50 determines whether or not SW2 is turned ON. If SW2 is ON, the process proceeds to S716, and if not, the process returns to S710.

S716では、システム制御部50は撮像部22を用いて撮像処理を行う。そして、システム制御部50は追尾動作を終了する。 In S716, the system control unit 50 performs an image pickup process using the image pickup unit 22. Then, the system control unit 50 ends the tracking operation.

このようにして、追尾開始前においてはタッチパネル70aにおけるタッチ操作によって追尾開始枠を変更することができる。さらに、追尾中においては追尾枠の変更を行うことができる。そして、追尾開始前に変更された追尾開始枠をシステムメモリに記憶して、次の撮影の際の追尾開始枠に設定することができる。 In this way, before the start of tracking, the tracking start frame can be changed by a touch operation on the touch panel 70a. Furthermore, the tracking frame can be changed during tracking. Then, the tracking start frame changed before the start of tracking can be stored in the system memory and set as the tracking start frame for the next shooting.

このように、本発明の第1の実施形態では、追尾開始枠の設定および変更については、その設定および変更を次の追尾に反映させる。これによって、同一のシーンを複数回にわたって撮影する際には、2回目の追尾を1回目の追尾と同一の追尾開始位置から開始することができ、デジタル一眼レフカメラの操作性を向上させることができる。 As described above, in the first embodiment of the present invention, regarding the setting and change of the tracking start frame, the setting and change are reflected in the next tracking. As a result, when the same scene is shot multiple times, the second tracking can be started from the same tracking start position as the first tracking, and the operability of the digital single-lens reflex camera can be improved. can.

[第2の実施形態]
続いて、本発明の第2の実施形態によるカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は、図1および図2に示すカメラと同様である。
[Second Embodiment]
Subsequently, an example of the camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the cameras shown in FIGS. 1 and 2.

図8は、本発明の第2の実施形態によるカメラを被写体に向けて構えた状態を示す図である。 FIG. 8 is a diagram showing a state in which the camera according to the second embodiment of the present invention is held toward the subject.

撮影の際には、ユーザーは接眼ファインダー16を覗きつつ、被写体801が存在する構図を確認するとともに、被写体801を追尾するための追尾動作を確認する。前述のように、シャッターボタン61が半押しされてSW1がONとなると、追尾が行われる。一方、SW1がOFFの状態では、追尾待機中となる。 At the time of shooting, the user looks into the eyepiece finder 16 to confirm the composition in which the subject 801 exists, and also confirms the tracking operation for tracking the subject 801. As described above, when the shutter button 61 is half-pressed and SW1 is turned on, tracking is performed. On the other hand, when SW1 is OFF, the tracking standby is in progress.

追尾動作中においては、例えば、タッチパネル70aを用いて追尾枠の変更を行うことができるが、シャッターボタン61およびタッチパネル70aの配置を考慮すると、SW1をONとしつつ、タッチパネル70aをタッチ操作することは困難である。つまり、タッチパネル70aをタッチ操作する際には、SW1が解除、つまり、OFF状態となる可能性が高く、SW1が解除されれば追尾動作終了となって、追尾待機中の状態となってしまう。 During the tracking operation, for example, the tracking frame can be changed using the touch panel 70a, but considering the arrangement of the shutter button 61 and the touch panel 70a, it is not possible to touch the touch panel 70a while turning on SW1. Have difficulty. That is, when the touch panel 70a is touch-operated, there is a high possibility that the SW1 is released, that is, the OFF state is set, and if the SW1 is released, the tracking operation ends and the tracking standby state is reached.

そこで、第2の実施形態においては、SW1保持中(SW1ON)にタッチパネル70aを用いて追尾枠の変更が行われている際には、誤操作などによってSW1がOFFとなってもSW1解除を無効として追尾動作を継続する。これによって、追尾動作中におけるタッチパネルの操作性を向上させることができる。 Therefore, in the second embodiment, when the tracking frame is changed by using the touch panel 70a while the SW1 is being held (SW1ON), even if the SW1 is turned off due to an erroneous operation or the like, the SW1 release is invalidated. The tracking operation is continued. This makes it possible to improve the operability of the touch panel during the tracking operation.

図9は、追尾枠を変更する操作(変更操作)を行った際に追尾動作終了となる事態が生じる可能性があるシーンを示す図である。 FIG. 9 is a diagram showing a scene in which a situation in which the tracking operation may end may occur when an operation (change operation) for changing the tracking frame is performed.

いま、一回目の追尾動作が行われている場合に、被写体の乗り移りが生じたとする。そして、ユーザーはタッチパネル70aを用いて追尾枠303の変更を行ったものとする。この際、誤ってSW1を解除してしまうと(SW1OFF)、1回目の追尾動作が終了する。 Now, it is assumed that the subject is transferred when the first tracking operation is performed. Then, it is assumed that the user has changed the tracking frame 303 using the touch panel 70a. At this time, if SW1 is accidentally released (SW1OFF), the first tracking operation ends.

2回目の追尾に移行した際には、再度追尾を行うに当たっては、ユーザーは1回目の追尾終了の際の追尾枠303の位置で2回目の追尾を開始したい。ところが、前述のように、追尾枠の位置は次の追尾には反映されず、2回目の追尾開始枠302が1回目の追尾開始枠と同一の位置に設定される。つまり、追尾枠303の変更は受け付けられず、新たに追尾待機中となる。 When shifting to the second tracking, the user wants to start the second tracking at the position of the tracking frame 303 at the end of the first tracking when performing the tracking again. However, as described above, the position of the tracking frame is not reflected in the next tracking, and the second tracking start frame 302 is set to the same position as the first tracking start frame. That is, the change of the tracking frame 303 is not accepted, and the tracking standby is newly performed.

このため、2回目の追尾動作において、1回目の追尾終了時点と同一の位置に追尾開始枠を移動させるため、図示の例では、ユーザーはタッチパネルによって左向きの操作を2回、下向きの操作を1回行い、追尾開始枠302を変更させる必要がある。 Therefore, in the second tracking operation, the tracking start frame is moved to the same position as the time when the first tracking is completed. Therefore, in the illustrated example, the user performs a leftward operation twice and a downward operation 1 by the touch panel. It is necessary to repeat the process to change the tracking start frame 302.

上述のようにして、追尾開始枠302を移動させた後、ユーザーはSW1をONとして2回目の追尾動作を開始する。この場合、既に被写体が別の位置に移動していることがあり、この場合には、ユーザーはシャッターチャンスを逃してしまうことになる。 After moving the tracking start frame 302 as described above, the user turns on SW1 and starts the second tracking operation. In this case, the subject may have already moved to another position, in which case the user misses a photo opportunity.

このように、SW1をONとした状態でタッチパネルの操作を行う場合には、SW1の誤操作に起因してシャッターチャンスを逃してしまうことがある。 As described above, when the touch panel is operated with the SW1 turned on, the shutter chance may be missed due to the erroneous operation of the SW1.

図10は、本発明の第2の実施形態によるカメラで行われる追尾動作を説明するための図である。 FIG. 10 is a diagram for explaining a tracking operation performed by a camera according to a second embodiment of the present invention.

いま、一回目の追尾動作が行われている場合に、被写体の乗り移りが生じたとする。この結果、ユーザーはタッチパネル70aを用いて追尾枠303の変更を行う。この際、ユーザーは誤ってSW1を解除してしまったとする(SW1OFF)。 Now, it is assumed that the subject is transferred when the first tracking operation is performed. As a result, the user changes the tracking frame 303 using the touch panel 70a. At this time, it is assumed that the user accidentally releases SW1 (SW1 OFF).

ここでは、システム制御部50は、タッチパネル70aを操作している際に、SW1が解除されても追尾動作を継続する。この結果、システム制御部50は追尾枠の変更を受け付ける。その後、ユーザーは誤操作に気づいて、SW1をONすれば、システム制御部550は、タッチパネルの操作が終了してもそのまま追尾動作を継続する。 Here, the system control unit 50 continues the tracking operation even if the SW1 is released while operating the touch panel 70a. As a result, the system control unit 50 accepts the change of the tracking frame. After that, if the user notices the erroneous operation and turns on SW1, the system control unit 550 continues the tracking operation as it is even after the operation of the touch panel is completed.

図11は、本発明の第2の実施形態によるカメラで行われる追尾動作を説明するためのフローチャートである。 FIG. 11 is a flowchart for explaining the tracking operation performed by the camera according to the second embodiment of the present invention.

なお、図示のフローチャートに係る処理は、システム制御部50が不揮発メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することによって行われる。また、図11に示すフローチャートにおいて、図7に示すフローチャートのステップと同一のステップについては同一の参照符号を付して説明を省略する。 The process according to the illustrated flowchart is performed by the system control unit 50 expanding the program stored in the non-volatile memory 56 into the system memory 52 and executing the program. Further, in the flowchart shown in FIG. 11, the same steps as those in the flowchart shown in FIG. 7 are designated by the same reference numerals and the description thereof will be omitted.

S714において、SW1がONであると、システム制御部50はS715の処理を行う。一方、SW1がONでない場合にはS1117に進む。 In S714, when SW1 is ON, the system control unit 50 processes S715. On the other hand, if SW1 is not ON, the process proceeds to S1117.

S1117では、システム制御部50は、タッチパネル70aにおいてタッチアップが行われたか否かを判定する。ダッチアップが行われた場合はS701に戻り、そうでない場合はS712に戻る。 In S1117, the system control unit 50 determines whether or not touch-up has been performed on the touch panel 70a. If the Dutch-up is done, it returns to S701, otherwise it returns to S712.

このようにして、追尾中において、例えば、タッチパネルの操作に起因してSW1がOFFとなっても、追尾動作が継続される。従って,シャッターボタン操作のミスを防止してタッチパネルの操作性を向上することができる。 In this way, during tracking, even if SW1 is turned off due to, for example, an operation of the touch panel, the tracking operation is continued. Therefore, it is possible to prevent mistakes in shutter button operation and improve the operability of the touch panel.

このように、本発明の第2の実施形態では、追尾動作中において追尾指示がOFFとなったとしても、タッチパネル操作中であれば追尾動作を継続することができる。 As described above, in the second embodiment of the present invention, even if the tracking instruction is turned off during the tracking operation, the tracking operation can be continued as long as the touch panel is being operated.

[第3の実施形態]
次に、本発明の第3の実施形態によるカメラの一例について説明する。なお、第3の実施形態によるカメラの構成は、図1および図2に示すカメラと同様である。
[Third Embodiment]
Next, an example of the camera according to the third embodiment of the present invention will be described. The configuration of the camera according to the third embodiment is the same as that of the cameras shown in FIGS. 1 and 2.

図12は、本発明の第3の実施形態によるカメラにおける追尾動作の一例を説明するための図である。 FIG. 12 is a diagram for explaining an example of a tracking operation in a camera according to a third embodiment of the present invention.

前述のように、追尾待機中の際には、追尾開始枠302を変更することができる。追尾開始枠302を設定した後、SW1をONすると、システム制御部50は追尾動作を開始する。追尾動作中においては、システム制御部50は前述のように、被写体情報に基づいて追尾を行い、ユーザー操作に応じて追尾枠303を変更する。 As described above, the tracking start frame 302 can be changed while waiting for tracking. When SW1 is turned ON after setting the tracking start frame 302, the system control unit 50 starts the tracking operation. During the tracking operation, the system control unit 50 performs tracking based on the subject information as described above, and changes the tracking frame 303 according to the user operation.

図示の例では、SW1がONになると、システム制御部50は追尾動作を開始するとともに、所謂コンティニアスAFによる被写体追従を行う。なお、被写体追従については、SW1がONとなると行われるが、追尾中においてタッチパネルの操作中にSW1がOFFとされても、システム制御部50は被写体追従を行う。 In the illustrated example, when SW1 is turned on, the system control unit 50 starts the tracking operation and performs subject tracking by so-called continuous AF. Note that subject tracking is performed when SW1 is turned on, but the system control unit 50 performs subject tracking even if SW1 is turned off during operation of the touch panel during tracking.

このように、本発明の第3の実施形態では、追尾動作に合わせて、被写体追従を行うようにしている。 As described above, in the third embodiment of the present invention, subject tracking is performed according to the tracking operation.

なお、システム制御部50が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 The above-mentioned various controls described as being performed by the system control unit 50 may be performed by one hardware, or the entire device may be controlled by sharing the processing by a plurality of hardware. ..

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiment thereof, the present invention is not limited to these specific embodiments, and various embodiments within the range not deviating from the gist of the present invention are also included in the present invention. included. Further, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be appropriately combined.

また、上述した実施形態においては、本発明を一眼連カメラなどの撮像装置に適用した場合を例にして説明したが、これはこの例に限定されず、撮像部を備え、被写体を追尾する電子機器であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末、タブレット端末、スマートフォンなどに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to an image pickup device such as a single-lens reflex camera has been described as an example, but this is not limited to this example, and an electron having an image pickup unit and tracking a subject is provided. It is applicable if it is a device. That is, the present invention is applicable to personal computers, PDAs, mobile phone terminals, tablet terminals, smartphones and the like.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

16 接眼ファインダー
22 撮像部
28 表示部
32 メモリ
43 ファインダー外表示部
50 システム制御部
61 シャッターボタン
70 操作部
100 撮像装置(カメラ)
150 撮影レンズユニット
16 Eyepiece finder 22 Imaging unit 28 Display unit 32 Memory 43 Finder outside display unit 50 System control unit 61 Shutter button 70 Operation unit 100 Imaging device (camera)
150 Shooting lens unit

Claims (13)

撮影の際に被写体の追尾を行う撮像装置であって、
追尾指示があった際に追尾開始位置に位置する被写体を、前記追尾指示が保持されている場合に追尾する追尾手段と、
前記被写体を追尾中にその追尾位置を変更する操作があると、当該操作に応じて前記追尾位置を変更する変更手段と、を有し、
前記追尾手段は、第1の追尾指示による追尾が終了した後に、続いて第2の追尾指示あると、前記第1の追尾指示の際の前記追尾開始位置から追尾を開始し、
前記第1の追尾指示による追尾中に前記追尾位置を変更する変更操作が行われ、その後、前記第1の追尾指示が保持された状態でなくなっても、前記変更手段は、当該変更操作が継続していると前記追尾位置の変更を行う
ことを特徴とする撮像装置。
An image pickup device that tracks the subject during shooting.
A tracking means for tracking a subject located at the tracking start position when a tracking instruction is given when the tracking instruction is held, and a tracking means.
If there is an operation to change the tracking position while tracking the subject, the subject has a changing means for changing the tracking position according to the operation.
When the tracking means receives a second tracking instruction after the tracking by the first tracking instruction is completed, the tracking means starts tracking from the tracking start position at the time of the first tracking instruction .
Even if the change operation for changing the tracking position is performed during the tracking by the first tracking instruction and then the first tracking instruction is no longer held, the change operation continues. If so, the tracking position will be changed.
An imaging device characterized by this.
前記変更手段は、前記追尾指示がある前において、前記追尾開始位置を変更する操作があると、当該操作に応じて前記追尾開始位置を変更することを特徴とする請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the changing means changes the tracking start position according to the operation when the tracking start position is changed before the tracking instruction is given. .. 前記変更手段は、前記追尾位置を変更する操作が開始されると、前記追尾位置を示す追尾枠の表示形態を変更することを特徴とする請求項1又は2に記載の撮像装置。 The imaging device according to claim 1 or 2, wherein the changing means changes the display form of the tracking frame indicating the tracking position when the operation of changing the tracking position is started. 光学ファインダーを備え、当該光学ファインダーに前記追尾開始位置を示す追尾開始枠および前記追尾位置を示す追尾枠を表示する表示手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The invention according to any one of claims 1 to 3, wherein the optical finder is provided, and the optical finder is provided with a tracking start frame indicating the tracking start position and a display means for displaying the tracking frame indicating the tracking position. Imaging device. 前記表示手段は、前記追尾開始枠および前記追尾枠を区別可能な形態で表示することを特徴とする請求項4に記載の撮像装置。 The imaging device according to claim 4, wherein the display means displays the tracking start frame and the tracking frame in a distinguishable form. 前記追尾開始位置および前記追尾位置を変更する操作はタッチパネルにおけるタッチ操作であることを特徴とする請求項2に記載の撮像装置。 The image pickup apparatus according to claim 2, wherein the tracking start position and the operation of changing the tracking position are touch operations on a touch panel. 前記追尾手段は、前記第1の追尾指示による追尾が終了した後に、追尾位置を変更する操作が継続しておらず、続いて前記第2の追尾指示あると、前記第1の追尾指示による追尾中に前記変更手段によって追尾位置が変更されていても、前記追尾位置を変更する前の前記第1の追尾指示の際の前記追尾開始位置から追尾を開始することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 In the tracking means, after the tracking by the first tracking instruction is completed, the operation of changing the tracking position is not continued, and when the second tracking instruction is subsequently given, the first tracking instruction is used. Claim 1 is characterized in that even if the tracking position is changed by the changing means during tracking, the tracking is started from the tracking start position at the time of the first tracking instruction before the tracking position is changed. 6. The image pickup apparatus according to any one of 6. 前記追尾手段は、前記第1の追尾指示による追尾中に前記追尾位置を変更する変更操作が行われ、その後前記第1の追尾指示が保持された状態でなくなった後も当該変更操作が継続しており、続いて前記第2の追尾指示あると、前記変更操作に基づいて変更された追尾位置から追尾を開始することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The tracking means performs a change operation for changing the tracking position during tracking by the first tracking instruction, and then the change operation continues even after the first tracking instruction is no longer held. The imaging according to any one of claims 1 to 7 , wherein when the second tracking instruction is subsequently given, tracking is started from the tracking position changed based on the change operation. Device. 前記追尾指示が保持されている状態であると、追尾対象の被写体についてコンティニアスAFを行う制御手段を有することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The image pickup apparatus according to any one of claims 1 to 8 , further comprising a control means for performing continuous AF on a subject to be tracked when the tracking instruction is held. 前記追尾指示は、シャッターボタンを半押し状態とする撮影準備指示であることを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 9 , wherein the tracking instruction is a shooting preparation instruction in which the shutter button is half-pressed. 撮影の際に被写体の追尾を行う撮像装置の制御方法であって、
追尾指示があった際に追尾開始位置に位置する被写体を、前記追尾指示が保持されている場合に追尾する追尾ステップと、
前記被写体を追尾中にその追尾位置を変更する操作があると、当該操作に応じて前記追尾位置を変更する変更ステップと、を有し、
前記追尾ステップでは、第1の追尾指示による追尾が終了した後に、続いて第2の追尾指示あると、前記第1の追尾指示の際の前記追尾開始位置から追尾を開始し、
前記第1の追尾指示による追尾中に前記追尾位置を変更する変更操作が行われ、その後、前記第1の追尾指示が保持された状態でなくなっても、前記変更ステップは、当該変更操作が継続していると前記追尾位置の変更を行う
ことを特徴とする撮像装置の制御方法。
It is a control method of an image pickup device that tracks a subject during shooting.
A tracking step for tracking a subject located at the tracking start position when a tracking instruction is given when the tracking instruction is held, and a tracking step.
If there is an operation to change the tracking position while tracking the subject, it has a change step of changing the tracking position according to the operation.
In the tracking step, if there is a second tracking instruction after the tracking by the first tracking instruction is completed, the tracking is started from the tracking start position at the time of the first tracking instruction .
Even if a change operation for changing the tracking position is performed during tracking by the first tracking instruction and then the first tracking instruction is no longer held, the change operation continues in the change step. If so, the tracking position will be changed.
A control method for an image pickup apparatus, characterized in that.
コンピュータを、請求項1乃至10のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the image pickup apparatus according to any one of claims 1 to 10 . コンピュータを、請求項1乃至10のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for operating the computer as each means of the image pickup apparatus according to any one of claims 1 to 10 .
JP2017139978A 2017-07-19 2017-07-19 Image pickup device, its control method, and program, and storage medium Active JP7034619B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017139978A JP7034619B2 (en) 2017-07-19 2017-07-19 Image pickup device, its control method, and program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017139978A JP7034619B2 (en) 2017-07-19 2017-07-19 Image pickup device, its control method, and program, and storage medium

Publications (2)

Publication Number Publication Date
JP2019022116A JP2019022116A (en) 2019-02-07
JP7034619B2 true JP7034619B2 (en) 2022-03-14

Family

ID=65353575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017139978A Active JP7034619B2 (en) 2017-07-19 2017-07-19 Image pickup device, its control method, and program, and storage medium

Country Status (1)

Country Link
JP (1) JP7034619B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6785481B1 (en) 2020-05-22 2020-11-18 パナソニックIpマネジメント株式会社 Image tracking device
CN116803093A (en) 2021-01-25 2023-09-22 索尼集团公司 Imaging apparatus, imaging control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107396A (en) 2009-11-17 2011-06-02 Fujifilm Corp Autofocus system
JP2013143578A (en) 2012-01-06 2013-07-22 Canon Inc Image processing device and control method therefor
JP2013218062A (en) 2012-04-06 2013-10-24 Canon Inc Focus detector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107396A (en) 2009-11-17 2011-06-02 Fujifilm Corp Autofocus system
JP2013143578A (en) 2012-01-06 2013-07-22 Canon Inc Image processing device and control method therefor
JP2013218062A (en) 2012-04-06 2013-10-24 Canon Inc Focus detector

Also Published As

Publication number Publication date
JP2019022116A (en) 2019-02-07

Similar Documents

Publication Publication Date Title
JP6765956B2 (en) Imaging control device and its control method
JP5306266B2 (en) Imaging apparatus and control method thereof
JP6833506B2 (en) Imaging device and its control method
US9819857B2 (en) Electronic apparatus, control method for the same, and image capturing apparatus
JP6833505B2 (en) Imaging control device and its control method
JP6806572B2 (en) Imaging control device, imaging device, control method, program, and storage medium
JP7005334B2 (en) Electronic devices, their control methods and programs
JP6833507B2 (en) Imaging control device and its control method
JP2017123515A (en) Electronic apparatus and control method therefor
JP6833535B2 (en) Imaging device, control method and program of imaging device
JP2018013745A (en) Electronic equipment and control method therefor
CN112015266A (en) Electronic device, control method of electronic device, and computer-readable storage medium
JP6071616B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP6808480B2 (en) Imaging control device and its control method
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
JP6833509B2 (en) Imaging control device and its control method
JP5575290B2 (en) Imaging apparatus and control method thereof
JP7098490B2 (en) Imaging device and its control method
JP2017174029A (en) Image display device
JP2021028785A (en) Electronic apparatus and control method for electronic apparatus
JP2021097356A (en) Imaging control device
JP6708516B2 (en) Electronic device, control method thereof, and program
JP2020182185A (en) Imaging apparatus and display control method
JP2020106770A (en) Information processing device, information processing method, imaging device, and program
JP2018113538A (en) Imaging apparatus and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220302

R151 Written notification of patent or utility model registration

Ref document number: 7034619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151