JP6765902B2 - Display control device and its control method, program, and storage medium - Google Patents

Display control device and its control method, program, and storage medium Download PDF

Info

Publication number
JP6765902B2
JP6765902B2 JP2016169622A JP2016169622A JP6765902B2 JP 6765902 B2 JP6765902 B2 JP 6765902B2 JP 2016169622 A JP2016169622 A JP 2016169622A JP 2016169622 A JP2016169622 A JP 2016169622A JP 6765902 B2 JP6765902 B2 JP 6765902B2
Authority
JP
Japan
Prior art keywords
display
touch
control device
detection
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016169622A
Other languages
Japanese (ja)
Other versions
JP2018037861A (en
Inventor
誠司 小川
誠司 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2016169622A priority Critical patent/JP6765902B2/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN202011470667.XA priority patent/CN112653837B/en
Priority to PCT/JP2017/022254 priority patent/WO2018042824A1/en
Priority to CN202011474772.0A priority patent/CN112653838B/en
Priority to CN201780053511.1A priority patent/CN109644239B/en
Priority to EP17845835.2A priority patent/EP3509291B1/en
Priority to EP22183785.9A priority patent/EP4102827A1/en
Publication of JP2018037861A publication Critical patent/JP2018037861A/en
Priority to US16/284,314 priority patent/US10992853B2/en
Application granted granted Critical
Publication of JP6765902B2 publication Critical patent/JP6765902B2/en
Priority to US17/213,550 priority patent/US11272093B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Viewfinders (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、接近検知に応じて表示部の表示状態を制御する表示制御装置、表示制御方法、プログラム、及び記憶媒体に関する。 The present invention relates to a display control device, a display control method, a program, and a storage medium that control the display state of the display unit in response to proximity detection.

最近のデジタルカメラなどの撮像装置は、表示画面に対するタッチ操作で簡単にオートフォーカス位置(AF位置)を移動しながら撮影を行うことができるものもある。しかしながら、従来のファインダーを覗きながらの撮影(ファインダー撮影)の際には、多くのデジタルカメラではボタンやダイヤルなどの物理的な操作手段でのみAF位置の指定が行えるものが多く、タッチ操作により簡単にAF位置を変更することができなかった。 Some imaging devices such as recent digital cameras can take pictures while easily moving the autofocus position (AF position) by touching the display screen. However, when shooting while looking through the conventional viewfinder (viewfinder shooting), many digital cameras allow the AF position to be specified only by physical operation means such as buttons and dials, and it is easy to specify by touch operation. The AF position could not be changed.

このような背景のもと、特許文献1には、ファインダーを覗いている状態で、ファインダーとは別に設けられたタッチパネルに対するタッチ操作を有効とする技術(タッチパッド操作)が提案されている。特許文献1では、タッチ操作でのAF位置の指定方法として、タッチパネルとファインダー内の座標とを1対1に対応させる絶対座標方式と、タッチパネル上でのタッチムーブ(摺動操作)の移動量に応じてAF位置を移動させる相対座標方式とが提案されている。また、表示先を背面表示部とした場合と、ファインダーとした場合とで、タッチ操作による操作態様が異ならせることが提案されている。 Against this background, Patent Document 1 proposes a technique (touch pad operation) that enables a touch operation on a touch panel provided separately from the finder while looking through the finder. In Patent Document 1, as a method of specifying the AF position by touch operation, an absolute coordinate method in which the coordinates in the touch panel and the finder have a one-to-one correspondence and a movement amount of the touch move (sliding operation) on the touch panel are used. A relative coordinate method for moving the AF position accordingly has been proposed. Further, it has been proposed that the operation mode by the touch operation is different depending on whether the display destination is the rear display unit or the finder.

一方、赤外線センサーなどの近接センサーによって接眼を検知した場合に電子ビューファインダーを表示させ、離眼を検知した場合に電子ビューファインダーを非表示として、ファインダー外のディスプレイに表示先を切り替える撮像装置が知られている。特許文献2では、ファインダーを覗いている状態から、誤って目が離れてしまっても、短時間であればファインダー内の表示を非表示としないことが提案されている。 On the other hand, an imaging device that displays the electronic viewfinder when the eyepiece is detected by a proximity sensor such as an infrared sensor, hides the electronic viewfinder when the eyepiece is detected, and switches the display destination to a display outside the viewfinder. Has been done. Patent Document 2 proposes not to hide the display in the finder for a short time even if the eyes are accidentally taken away from the state of looking into the finder.

特開2012−089973号公報Japanese Unexamined Patent Publication No. 2012-089973 特開2014−209712号公報Japanese Unexamined Patent Publication No. 2014-209712

特許文献1では、タッチ操作の途中で誤って目がファインダーから離れてしまった場合には、タッチ操作の操作態様が意図せず変わってしまい、ファインダーを覗きながら行っていたタッチによる操作が意図せず継続できなくなってしまう。 In Patent Document 1, if the eyes are accidentally separated from the finder during the touch operation, the operation mode of the touch operation is unintentionally changed, and the touch operation performed while looking through the finder is intended. It will not be possible to continue.

特許文献2に開示された技術では、接眼状態でファインダー内に表示している場合にタッチ操作を行うことについて考慮されていない。 The technique disclosed in Patent Document 2 does not consider performing a touch operation when the image is displayed in the viewfinder in the eyepiece state.

また、タッチ操作に限らず、何らかの操作の途中を行うことに伴って誤って目がファインダーから離れてしまい、ファインダーを覗きながら行っていた操作が意図せず継続できなくなってしまうことがある。 In addition to the touch operation, the eyes may be accidentally separated from the finder by performing some operation in the middle, and the operation performed while looking into the finder may not be able to be continued unintentionally.

そこで本発明では、上記課題に鑑み、操作の途中で誤って目がファインダーから離れてしまった場合にも、ファイダ―を覗きながら行っていた操作を継続できるようにした表示制御装置を提供することを目的とする。 Therefore, in view of the above problems, the present invention provides a display control device capable of continuing the operation performed while looking through the finder even if the eyes are accidentally separated from the finder during the operation. With the goal.

上記課題を解決するために、本発明の表示制御装置は、
接眼ファインダーを介して視認可能な第1の表示手段と、
前記接眼ファインダーに物体が接近したことを検知する接近検知手段と、
ユーザーからの操作を受け付ける操作手段と、
前記接近検知手段による物体が接近したことの検知に応じて前記第1の表示手段を表示状態とし、前記接近検知手段による物体が離れたことの検知に応じて前記第1の表示手段を非表示状態とする制御手段であって、前記操作手段での操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合には、少なくとも該検知から所定時間が経過するか前記操作手段への操作が終了するまでは前記第1の表示手段の表示状態を維持するように制御する制御手段と
を有することを特徴とする。
In order to solve the above problems, the display control device of the present invention
The first display means that can be seen through the eyepiece finder,
An approach detection means for detecting that an object has approached the eyepiece finder,
Operation means that accepts operations from users and
The first display means is set to the display state in response to the detection that the object is approached by the approach detection means, and the first display means is hidden in response to the detection that the object is separated by the approach detection means. When the approach detecting means detects that an object has separated from the control means to be in a state while the operation by the operating means is being performed, at least a predetermined time has elapsed from the detection. It is characterized by having a control means for controlling so as to maintain the display state of the first display means until the operation on the operation means is completed.

本発明によれば、操作の途中で誤って目がファインダーから離れてしまった場合にも、ファイダ―を覗きながら行っていたタッチ操作を継続できる。 According to the present invention, even if the eyes are accidentally separated from the finder during the operation, the touch operation performed while looking through the finder can be continued.

デジタルカメラの背面の外観図。External view of the back of a digital camera. デジタルカメラの構成を示すブロック図。A block diagram showing the configuration of a digital camera. 撮影モード処理を示すフローチャート。A flowchart showing the shooting mode processing. AF枠表示更新処理を示すフローチャート。A flowchart showing an AF frame display update process. 表示先切替処理を示すフローチャート。A flowchart showing the display destination switching process. タッチダウン処理を示すフローチャート。A flowchart showing the touchdown process. タッチムーブ処理を示すフローチャート。A flowchart showing the touch move process. タッチアップ処理を示すフローチャート。A flowchart showing the touch-up process. タッチキャンセル処理を示すフローチャート。A flowchart showing the touch cancel process. 枠ボタン処理を示すフローチャート。A flowchart showing frame button processing. 撮影モードにおける表示画面を例示する図。The figure which illustrates the display screen in a shooting mode. メニュー画面の表示例を示す図。The figure which shows the display example of a menu screen. タッチ&ドラッグAF機能による画面表示例を示す図。The figure which shows the screen display example by a touch & drag AF function. タッチ&ドラッグAF機能による画面表示例を示す図。The figure which shows the screen display example by a touch & drag AF function.

以下に、本発明の実施の形態について添付図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<装置構成>
図1及び図2を参照して、本実施形態のデジタルカメラの機能及び外観について説明する。
<Device configuration>
The function and appearance of the digital camera of the present embodiment will be described with reference to FIGS. 1 and 2.

本実施形態のデジタルカメラ100の背面の外観を示す図1において、表示部101は画像や各種情報を表示する液晶表示パネル(LCD)等からなる。表示部101には、ファインダー外に配置された表示部である背面表示パネル101aと、ファインダー内の表示部である電子ビューファインダー(以下、EVF)101bが含まれる。EVF101bは、ユーザが覗き込み式の接眼ファインダーの接眼部を介して撮像画面をモニタすることが可能である(視認可能である)。シャッターボタン102は撮影指示を行うための操作部である。モード切替ボタン103は各種モードを切り替えるための操作部である。コネクタ107は接続ケーブル108とデジタルカメラ100とを接続するインターフェースである。操作部104はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材からなる操作部である。コントローラホイール106は操作部104に含まれる回転可能な電子ダイヤルである。電源スイッチ105は電源のオン、オフを切り替える操作部である。記録媒体109はメモリカードやハードディスク等の記録媒体である。記録媒体スロット110は記録媒体109を格納するためのスロットである。記録媒体スロット110に格納された記録媒体109は、デジタルカメラ100との通信が可能となる。蓋111は記録媒体スロット110の蓋である。図1では、蓋111を開けて記録媒体スロット110から記録媒体109の一部を取り出して露出させた状態を示している。 In FIG. 1 showing the appearance of the back surface of the digital camera 100 of the present embodiment, the display unit 101 includes a liquid crystal display panel (LCD) for displaying images and various information. The display unit 101 includes a rear display panel 101a, which is a display unit arranged outside the finder, and an electronic viewfinder (hereinafter, EVF) 101b, which is a display unit inside the finder. The EVF101b allows the user to monitor the image pickup screen via the eyepiece portion of the peep-type eyepiece finder (visible). The shutter button 102 is an operation unit for giving a shooting instruction. The mode switching button 103 is an operation unit for switching various modes. The connector 107 is an interface for connecting the connection cable 108 and the digital camera 100. The operation unit 104 is an operation unit composed of operation members such as various switches, buttons, and a touch panel that receive various operations from the user. The controller wheel 106 is a rotatable electronic dial included in the operation unit 104. The power switch 105 is an operation unit that switches the power on and off. The recording medium 109 is a recording medium such as a memory card or a hard disk. The recording medium slot 110 is a slot for storing the recording medium 109. The recording medium 109 stored in the recording medium slot 110 can communicate with the digital camera 100. The lid 111 is a lid of the recording medium slot 110. FIG. 1 shows a state in which a lid 111 is opened and a part of the recording medium 109 is taken out from the recording medium slot 110 to be exposed.

本実施形態のデジタルカメラ100の内部構成を示す図2において、撮影レンズ203はズームレンズ、フォーカスレンズを含むレンズ群である。シャッター204は絞り機能を備える。撮像部205は被写体の光学像を電気信号に変換するCCDやCMOS等で構成される撮像素子である。A/D変換器206は、アナログ信号をデジタル信号に変換する。A/D変換器206は、撮像部205から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア202は、デジタルカメラ100の、撮影レンズ203を含む撮像系を覆うことにより、撮影レンズ203、シャッター204、撮像部205を含む撮像系の汚れや破損を防止する。 In FIG. 2 showing the internal configuration of the digital camera 100 of the present embodiment, the photographing lens 203 is a lens group including a zoom lens and a focus lens. The shutter 204 has an aperture function. The image pickup unit 205 is an image pickup device composed of a CCD, CMOS, or the like that converts an optical image of a subject into an electric signal. The A / D converter 206 converts an analog signal into a digital signal. The A / D converter 206 is used to convert an analog signal output from the imaging unit 205 into a digital signal. The barrier 202 covers the imaging system of the digital camera 100 including the photographing lens 203 to prevent the imaging system including the photographing lens 203, the shutter 204, and the imaging unit 205 from being soiled or damaged.

画像処理部207は、A/D変換器206からのデータ、又は、メモリ制御部209からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部207では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部201が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部207ではさらに、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。 The image processing unit 207 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 206 or the data from the memory control unit 209. Further, in the image processing unit 207, a predetermined calculation process is performed using the captured image data, and the system control unit 201 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (auto-exposure) processing, and EF (flash pre-flash) processing are performed. Further, the image processing unit 207 performs a predetermined calculation process using the captured image data, and also performs a TTL method AWB (auto white balance) process based on the obtained calculation result.

A/D変換器206からの出力データは、画像処理部207及びメモリ制御部209を介して、或いは、メモリ制御部209を介してメモリ210に直接書き込まれる。メモリ210は、撮像部205によって得られ、A/D変換器206によりデジタルデータに変換された画像データや、表示部101に表示するための画像データを格納する。メモリ210は、所定枚数の静止画や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。 The output data from the A / D converter 206 is written directly to the memory 210 via the image processing unit 207 and the memory control unit 209, or via the memory control unit 209. The memory 210 stores image data obtained by the imaging unit 205 and converted into digital data by the A / D converter 206, and image data to be displayed on the display unit 101. The memory 210 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio.

また、メモリ210は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器208は、メモリ210に格納されている画像表示用のデータをアナログ信号に変換して表示部101に供給する。こうして、メモリ210に書き込まれた表示用の画像データはD/A変換器208を介して表示部101により表示される。表示部101は、LCD等の表示器上に、D/A変換器208からのアナログ信号に応じた表示を行う。A/D変換器206によって一旦A/D変換され、メモリ210に蓄積されたデジタル信号をD/A変換器208においてアナログ変換し、表示部101に逐次転送して表示することで、ライブビュー画像の表示を行える。 Further, the memory 210 also serves as a memory (video memory) for displaying an image. The D / A converter 208 converts the image display data stored in the memory 210 into an analog signal and supplies it to the display unit 101. In this way, the image data for display written in the memory 210 is displayed by the display unit 101 via the D / A converter 208. The display unit 101 displays on a display such as an LCD according to the analog signal from the D / A converter 208. The digital signal once A / D converted by the A / D converter 206 and stored in the memory 210 is analog-converted by the D / A converter 208 and sequentially transferred to the display unit 101 for display, thereby displaying a live view image. Can be displayed.

不揮発性メモリ213は、電気的に消去・記憶可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ213には、システム制御部201の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The non-volatile memory 213 is a memory that can be electrically erased and stored, and for example, EEPROM or the like is used. The non-volatile memory 213 stores constants, programs, and the like for the operation of the system control unit 201. The program referred to here is a program for executing various flowcharts described later in the present embodiment.

システム制御部201は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ213に記憶されたプログラムを実行することで、後述する本実施形態の各処理を実現する。212はシステムメモリであり、RAMが用いられる。システムメモリ212には、システム制御部201の動作用の定数、変数、不揮発性メモリ213から読み込んだプログラム等を展開する。また、システム制御部201はメモリ210、D/A変換器208、表示部101等を制御することにより表示制御も行う。 The system control unit 201 controls the entire digital camera 100. By executing the program stored in the non-volatile memory 213 described above, each process of the present embodiment described later is realized. Reference numeral 212 denotes a system memory, and RAM is used. In the system memory 212, constants and variables for the operation of the system control unit 201, programs read from the non-volatile memory 213, and the like are expanded. The system control unit 201 also performs display control by controlling the memory 210, the D / A converter 208, the display unit 101, and the like.

システムタイマー211は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system timer 211 is a time measuring unit that measures the time used for various controls and the time of the built-in clock.

モード切替ボタン103、第1シャッタースイッチ102a、第2シャッタースイッチ102b、操作部104はシステム制御部201に各種の動作指示を入力するための操作手段である。 The mode switching button 103, the first shutter switch 102a, the second shutter switch 102b, and the operation unit 104 are operation means for inputting various operation instructions to the system control unit 201.

モード切替ボタン103は、システム制御部201の動作モードを静止画撮影モード、動画記録モード、再生モードなどのいずれかに切り替える。静止画撮影モードに含まれるモードとして、オートモード、オートシーン判別モード、マニュアルモード、シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモードなどがある。モード切替ボタン103で、これらのモードのいずれかに直接切り替えられる。あるいは、モード切替ボタン103で撮影モード選択画面に一旦切り替えた後に、撮影モード選択画面に表示された、各撮影モードに対応する選択肢のいずれかを他の操作部材を用いて選択することで切り替えるようにしてもよい。同様に、動画記録モードにも複数のモードが含まれていてもよい。 The mode switching button 103 switches the operation mode of the system control unit 201 to any one of a still image shooting mode, a moving image recording mode, a playback mode, and the like. The modes included in the still image shooting mode include an auto mode, an auto scene discrimination mode, a manual mode, various scene modes for shooting settings for each scene, a program AE mode, and a custom mode. The mode switching button 103 directly switches to any of these modes. Alternatively, after switching to the shooting mode selection screen once with the mode switching button 103, switching is performed by selecting one of the options corresponding to each shooting mode displayed on the shooting mode selection screen using another operation member. It may be. Similarly, the moving image recording mode may include a plurality of modes.

第1シャッタースイッチ102aは、デジタルカメラ100に設けられたシャッターボタン102の操作途中、いわゆる半押し(撮影準備指示)でオンとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。 The first shutter switch 102a is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 102 provided on the digital camera 100, and the first shutter switch signal SW1 is generated. The first shutter switch signal SW1 starts shooting preparation processing such as AF processing, AE processing, AWB processing, and EF processing.

第2シャッタースイッチ102bは、シャッターボタン102の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部201は、第2シャッタースイッチ信号SW2により、撮像部205からの信号読み出しから記録媒体109に画像データを書き込むまでの一連の撮影処理を開始する。 The second shutter switch 102b is turned on when the operation of the shutter button 102 is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 201 starts a series of photographing processes from reading the signal from the imaging unit 205 to writing the image data to the recording medium 109 by the second shutter switch signal SW2.

操作部104の各操作部材は、表示部101に表示される種々の機能アイコンを選択操作することなどにより、シーンごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタンなどがある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部101に表示される。ユーザは、表示部101に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。 Each operation member of the operation unit 104 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 101, and acts as various function buttons. The function buttons include, for example, an end button, a back button, an image feed button, a jump button, a narrowing down button, and an attribute change button. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 101. The user can intuitively make various settings by using the menu screen displayed on the display unit 101 and the up / down / left / right four-direction buttons and the SET button.

コントローラホイール106は、操作部104に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。 The controller wheel 106 is a rotation-operable operation member included in the operation unit 104, and is used when instructing a selection item together with a direction button.

電源制御部214は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部214は、その検出結果及びシステム制御部201の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体109を含む各部へ供給する。 The power supply control unit 214 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 214 controls the DC-DC converter based on the detection result and the instruction of the system control unit 201, and supplies a necessary voltage to each unit including the recording medium 109 for a necessary period.

電源部215は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、リチウムイオン電池等の二次電池、ACアダプタ等からなる。記録媒体I/F216は、メモリカードやハードディスク等の記録媒体109とのインターフェースである。記録媒体109は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The power supply unit 215 is composed of a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a lithium ion battery, an AC adapter, or the like. The recording medium I / F 216 is an interface with a recording medium 109 such as a memory card or a hard disk. The recording medium 109 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like.

通信部217は、無線アンテナや有線ケーブルによって外部機器と通信可能に接続し、映像や音声の送受信を行う。通信部217は無線LAN(Local Area Network)やインターネットにも接続可能である。通信部217は撮像部205で撮像された画像データ(ライブビュー画像を含む)や、記録媒体109に記録されている画像ファイルを外部機器に送信でき、また、外部機器から画像データやその他の各種情報を受信できる。 The communication unit 217 is communicably connected to an external device by a wireless antenna or a wired cable, and transmits / receives video and audio. The communication unit 217 can also be connected to a wireless LAN (Local Area Network) and the Internet. The communication unit 217 can transmit the image data (including the live view image) captured by the image pickup unit 205 and the image file recorded on the recording medium 109 to an external device, and the image data and various other types from the external device. You can receive information.

姿勢検知部218は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部218で検知された姿勢に応じて、撮像部205で撮像された画像がデジタルカメラ100を横に構えて撮影されたものか、縦に構えて撮影されたものかを判別可能である。システム制御部201は、姿勢検知部218で検知された姿勢に関する情報を撮像部205で撮像された画像データに付加したり、画像データを回転して記憶することが可能である。姿勢検知部としては、加速度センサやジャイロセンサ等を用いることができる。 The posture detection unit 218 detects the posture of the digital camera 100 with respect to the direction of gravity. Depending on the posture detected by the posture detection unit 218, it is possible to determine whether the image captured by the image pickup unit 205 is taken by holding the digital camera 100 horizontally or vertically. .. The system control unit 201 can add information about the posture detected by the posture detection unit 218 to the image data captured by the image pickup unit 205, or rotate and store the image data. As the posture detection unit, an acceleration sensor, a gyro sensor, or the like can be used.

接眼検知部219はファインダーの接眼部に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)。システム制御部201は、接眼検知部219で検知された状態に応じて、背面表示パネル101aとEVF101bの表示(表示状態)/非表示(非表示状態)を切り替える。接眼検知部219は、例えば赤外線近接センサを用いることができ、EVF101bを内蔵するファインダーの接眼部への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部219の投光部(図示せず)から投光した赤外線が反射して赤外線近接センサの受光部(図示せず)に受光される。受光された赤外線の量によって、物体が接眼部からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部219は、接眼部への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、ファインダーの接眼部に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサは一例であって、接眼検知部219には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを採用してもよい。 The eyepiece detection unit 219 detects the approach (eyepiece) and separation (eyepiece) of the eye (object) to the eyepiece of the finder (approach detection). The system control unit 201 switches the display (display state) / non-display (non-display state) of the rear display panel 101a and the EVF 101b according to the state detected by the eyepiece detection unit 219. The eyepiece detection unit 219 can use, for example, an infrared proximity sensor, and can detect the approach of some object to the eyepiece of the finder containing the EVF101b. When an object approaches, the infrared rays projected from the light projecting unit (not shown) of the eyepiece detection unit 219 are reflected and received by the light receiving unit (not shown) of the infrared proximity sensor. From the amount of infrared rays received, it is possible to determine how close the object is to the eyepiece (eyepiece distance). In this way, the eyepiece detection unit 219 performs eyepiece detection for detecting the close distance of the object to the eyepiece. When an object approaching the eyepiece of the finder within a predetermined distance is detected from the non-eyepiece state (non-approaching state), it is determined that the eyepiece has been eyepieced. When the object that has detected the approach is separated by a predetermined distance or more from the eyepiece state (approaching state), it is assumed that the eye has been removed. The threshold value for detecting the eyepiece and the threshold value for detecting the eyepiece may be different, for example, by providing hysteresis. In addition, after the eyepiece is detected, the eyepiece is assumed to be in the eyepiece state until the eyepiece is detected. After the eyepiece is detected, it is assumed that the eyepiece is not in the eyepiece state until the eyepiece is detected. The infrared proximity sensor is an example, and the eyepiece detection unit 219 may employ another sensor as long as it can detect the approach of an eye or an object that can be regarded as an eyepiece.

なお、操作部104の1つとして、背面表示パネル101aに対する接触を検知可能なタッチパネル104aを有する。タッチパネル104aと背面表示パネル101aとは一体的に構成することができる。例えば、タッチパネル104aを光の透過率が背面表示パネル101aの表示を妨げないように構成し、背面表示パネル101aの表示面の上層に取り付ける。そして、タッチパネル104aにおける入力座標と、背面表示パネル101a上の表示座標とを対応付ける。これにより、あたかもユーザが背面表示パネル101a上に表示された画面を直接的に操作可能であるかのようなGUI(Grafical User Interface)を構成することができる。すなわち、タッチパネル104aにおけるタッチ検知面が背面表示パネル101aの表示面となる。また、背面表示パネル101aの表示素子と静電容量方式のタッチ検出(タッチ検知)用の電極がセパレータを挟まずに一体的に構成されたインセル型のタッチパネルディスプレイであってもよい。システム制御部201はタッチパネル104aへの以下の操作あるいは状態を検出できる。
・タッチパネル104aにタッチしていなかった指やペンが新たにタッチパネル104aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と呼ぶ)。
・タッチパネル104aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と呼ぶ)。
・タッチパネル104aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と呼ぶ)。
・タッチパネル104aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と呼ぶ)。
・タッチパネル104aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と呼ぶ)。
As one of the operation units 104, there is a touch panel 104a capable of detecting contact with the rear display panel 101a. The touch panel 104a and the rear display panel 101a can be integrally configured. For example, the touch panel 104a is configured so that the light transmittance does not interfere with the display of the rear display panel 101a, and is attached to the upper layer of the display surface of the rear display panel 101a. Then, the input coordinates on the touch panel 104a are associated with the display coordinates on the rear display panel 101a. As a result, it is possible to configure a GUI (Graphical User Interface) as if the user can directly operate the screen displayed on the rear display panel 101a. That is, the touch detection surface on the touch panel 104a becomes the display surface of the rear display panel 101a. Further, it may be an in-cell type touch panel display in which the display element of the rear display panel 101a and the electrode for touch detection (touch detection) of the capacitance method are integrally configured without sandwiching the separator. The system control unit 201 can detect the following operations or states on the touch panel 104a.
-A finger or pen that has not touched the touch panel 104a has newly touched the touch panel 104a. That is, the start of touch (hereinafter referred to as touch-down).
-The touch panel 104a is in a state of being touched with a finger or a pen (hereinafter, referred to as touch-on).
-The touch panel 104a is moved while being touched with a finger or a pen (hereinafter, referred to as a touch move (Touch-Move)).
-The finger or pen that was touching the touch panel 104a was released. That is, the end of touch (hereinafter referred to as touch-up (Touch-Up)).
-A state in which nothing is touched on the touch panel 104a (hereinafter, referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When touchdown is detected, it is also detected that it is touch-on. After touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch move is also detected when touch on is detected. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル104a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部201に通知される。システム制御部201は通知された情報に基づいてタッチパネル104a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル104a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル104a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル104a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行われたと判定するものとするまた、タッチパネル104a上をタッチダウンからタッチムーブすることなく素早くタッチアップすることをタップと呼ぶ。タップを素早く2回連続して行うことをダブルタップと呼ぶ。また、更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。 These operations / states and the position coordinates of the finger or pen touching on the touch panel 104a are notified to the system control unit 201 via the internal bus. The system control unit 201 determines what kind of operation (touch operation) has been performed on the touch panel 104a based on the notified information. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel 104a can also be determined for each vertical component and horizontal component on the touch panel 104a based on the change in the position coordinates. If it is detected that the touch move is performed over a predetermined distance, it is determined that the slide operation has been performed. The operation of quickly moving a finger on the touch panel for a certain distance and then releasing it is called flicking. In other words, flicking is an operation of quickly tracing the touch panel 104a as if flicking it with a finger. It can be determined that the flick has been performed when it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is. Further, when it is detected that the touch move is performed at a speed equal to or less than a predetermined distance, it is determined that the drag has been performed. Further, the touch panel 104a is quickly touched up without touch-moving. Is called a tap. Tapping quickly twice in a row is called double tapping. Further, a touch operation in which a plurality of points (for example, two points) are touched at the same time to bring the touch positions closer to each other is called a pinch-in, and a touch operation to move the touch positions away from each other is called a pinch-out. Pinch out and pinch in are collectively called pinch operation (or simply pinch).

タッチパネル104aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。 The touch panel 104a may be any of various touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. Good. Depending on the method, there are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel, but any method may be used.

なお、ハードウェアの構成は図2に示すものに限定されず、例えば1つのハードウェアが表示制御、通信制御、撮影制御、画像処理制御等を行い、デジタルカメラ100の各手段として機能してもよい。また、複数のハードウェアが協働して1つの手段として機能してもよい。 The hardware configuration is not limited to that shown in FIG. 2, and for example, even if one hardware performs display control, communication control, shooting control, image processing control, etc., and functions as each means of the digital camera 100. Good. Moreover, a plurality of hardware may cooperate and function as one means.

デジタルカメラ100は、少なくとも画像を再生するための再生モードと、撮影を行うための撮影モードとで、切り替えて使用することができる。撮影モードとしては、オートモードやマニュアルモード、複数のシーン別撮影モードを備えている。オートモードは、カメラの各種パラメータが、計測された露出値に基づいてデジタルカメラ100に組み込まれたプログラムにより自動的に決定されるモードである。マニュアルモードは、カメラの各種パラメータをユーザが自由に変更可能なモードである。シーン別撮影モードは、撮影シーン別にその撮影シーンに適したシャッター速度や絞り値、ストロボ発光状態、感度設定、ホワイトバランス(WB)設定等を組み合わせることによって実現されるモードである。デジタルカメラ100は、例えば、以下に記す(1)〜(3)のシーン別撮影モードを備えている。但し、これらのシーン別撮影モードに限定されるものではない。
(1)ポートレート撮影モード:背景をぼかして人物を浮き立たせるようにして人物撮影に特化したモード
(2)花撮影モード:マクロモードに設定し、彩度も高めに設定するモード
(3)スポーツ撮影モード:動きの早い被写体を撮影するのに特化した設定とする撮影モード
The digital camera 100 can be used by switching between at least a reproduction mode for reproducing an image and a photographing mode for performing an image. As a shooting mode, it has an auto mode, a manual mode, and a shooting mode for each of a plurality of scenes. The auto mode is a mode in which various parameters of the camera are automatically determined by a program incorporated in the digital camera 100 based on the measured exposure value. The manual mode is a mode in which the user can freely change various parameters of the camera. The scene-specific shooting mode is a mode realized by combining a shutter speed, an aperture value, a strobe light emission state, a sensitivity setting, a white balance (WB) setting, etc. suitable for the shooting scene for each shooting scene. The digital camera 100 includes, for example, the scene-specific shooting modes (1) to (3) described below. However, it is not limited to these scene-specific shooting modes.
(1) Portrait shooting mode: A mode specialized for portrait shooting by blurring the background to make the person stand out (2) Flower shooting mode: A mode in which the macro mode is set and the saturation is set high (3) Sports shooting mode: Shooting mode with settings specialized for shooting fast-moving subjects

撮影者は、撮影モード選択画面からデジタルカメラ100を所望の撮影モードに設定して撮影を行うことができる。 The photographer can set the digital camera 100 to a desired shooting mode from the shooting mode selection screen and shoot.

また、カメラ本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する制御装置としては、例えば、携帯電話の一種としてのスマートフォン、タブレットPC、デスクトップPCなどの装置がある。制御装置で行われた操作や制御装置で行われた処理に基づいて、制御装置から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置で表示できるようにしてもよい。 Further, the present invention can be applied not only to the camera body but also to a control device that remotely controls the image pickup device by communicating with the image pickup device (including a network camera) via wired or wireless communication. As a control device for remotely controlling the image pickup device, for example, there are devices such as a smartphone, a tablet PC, and a desktop PC as a kind of mobile phone. The image pickup device can be remotely controlled by notifying the command device to perform various operations and settings from the control device based on the operation performed by the control device and the process performed by the control device. Further, the live view image taken by the image pickup device may be received by the control device via wired or wireless communication and displayed.

<撮影処理>
次に、図3から図11を参照して、本実施形態のデジタルカメラ100による撮影モードについて説明する。
<Shooting process>
Next, the shooting mode by the digital camera 100 of the present embodiment will be described with reference to FIGS. 3 to 11.

なお、図3の処理は、不揮発性メモリ213に記録されたプログラムを、システムメモリ212に読み出してシステム制御部201が実行することにより実現する。デジタルカメラ100が撮影モードで起動されると、図3の撮影モード処理を開始する。 The process of FIG. 3 is realized by reading the program recorded in the non-volatile memory 213 into the system memory 212 and executing the program by the system control unit 201. When the digital camera 100 is activated in the shooting mode, the shooting mode processing of FIG. 3 is started.

S301では、システム制御部201は、撮影モードの初期化処理を行う。初期化処理とは、フラグや制御変数等を含むパラメータや設定値、設定モードを不揮発性メモリ213から読み出す等の処理である。また、システム制御部201は、記録媒体109の状態を確認し、異常等があれば後述の撮影情報表示時に警告等を表示する。 In S301, the system control unit 201 performs a shooting mode initialization process. The initialization process is a process of reading parameters including flags and control variables, setting values, and setting modes from the non-volatile memory 213. Further, the system control unit 201 confirms the state of the recording medium 109, and if there is an abnormality or the like, displays a warning or the like when displaying the shooting information described later.

S302では、システム制御部201は、撮像部205での撮像を行い、撮像された映像を、表示部101に含まれる背面表示パネル101aとEVF101bのうち、現在表示先となっているディスプレイにライブビュー画像(以下、LV画像)として表示する。以下、表示部101に含まれる背面表示パネル101aとEVF101bのうち、現在表示先となっているディスプレイに表示することを、単に「表示部101に表示する」と記載するものとする。 In S302, the system control unit 201 takes an image with the image pickup unit 205, and the captured image is live-viewed on the display currently being displayed among the rear display panel 101a and the EVF 101b included in the display unit 101. It is displayed as an image (hereinafter, LV image). Hereinafter, among the rear display panel 101a and the EVF 101b included in the display unit 101, displaying on the display currently being the display destination is simply described as "displaying on the display unit 101".

S303では、システム制御部201は、撮影に関わる情報表示を、LV画像に重畳して表示部101に表示する。情報表示として例えば、現在の撮影モードを表す撮影モードアイコン、電池残量表示、残り撮影枚数表示、シャッター速度や絞り値、感度、記録画質などの撮影設定情報を表示する。 In S303, the system control unit 201 superimposes the information display related to shooting on the LV image and displays it on the display unit 101. As information display, for example, shooting mode icon indicating the current shooting mode, battery remaining amount display, remaining shooting number display, shutter speed, aperture value, sensitivity, recording image quality, and other shooting setting information are displayed.

S304では、システム制御部201は、AF枠表示更新処理を行う(表示内容変更)。AF枠表示更新処理については図4を用いて後述する。 In S304, the system control unit 201 performs AF frame display update processing (display content change). The AF frame display update process will be described later with reference to FIG.

S305では、システム制御部201は、接眼検知部219の検知状態に変化があったか否かを判定する。検知状態に変化があった場合とは、非接眼状態からの接眼の検知、接眼状態からの離眼の検知のいずれかがあった場合である。検知状態に変化があった場合にはS306へ進み、変化がない場合はS307へ進む。 In S305, the system control unit 201 determines whether or not the detection state of the eyepiece detection unit 219 has changed. The case where the detection state is changed is the case where either the eyepiece is detected from the non-eyepiece state or the eyepiece is detected from the eyepiece state. If there is a change in the detection state, the process proceeds to S306, and if there is no change, the process proceeds to S307.

S306では、システム制御部201は、表示先切替処理を行う。表示先切替処理については図5を用いて後述する。 In S306, the system control unit 201 performs the display destination switching process. The display destination switching process will be described later with reference to FIG.

S307では、システム制御部201は、操作部104に含まれるメニューボタンが押下されたか否かを判定する。メニューボタンが押下されていた場合はS308へ進み、そうでない場合はS309へ進む。 In S307, the system control unit 201 determines whether or not the menu button included in the operation unit 104 has been pressed. If the menu button is pressed, the process proceeds to S308, and if not, the process proceeds to S309.

S308では、システム制御部201は、メニュー画面表示処理を行う。メニュー画面表示処理では、表示部101にメニュー画面を表示し、ユーザからの操作に応じた各種設定を行う。メニュー画面を閉じる操作(設定操作の完了操作、メニュー画面を抜ける操作、シャッターボタン102の半押し操作があるとメニュー画面処理を終了してS302に戻る。 In S308, the system control unit 201 performs a menu screen display process. In the menu screen display process, the menu screen is displayed on the display unit 101, and various settings are made according to the operation from the user. If there is an operation to close the menu screen (a completion operation of the setting operation, an operation to exit the menu screen, or a half-press operation of the shutter button 102, the menu screen processing is terminated and the process returns to S302.

図12(a)から図12(c)に、メニュー画面の表示例を示す。図12(a)は、撮影設定メニュー画面の表示例である。メニュー画面は、撮影設定メニュー、システム設定メニュー、再生設定メニューといったように、機能群ごとにグループ分けされており、それぞれの群に対応するタブを選択することで、対応する群を表示することができる。図12(a)は、撮影設定メニュータブ1201が選択され、撮影設定メニューが表示されている状態を示している。ユーザは操作部104に含まれる上下左右ボタンなどを押下することで、カーソル1204を移動させ、SETボタンを押下することで任意の機能の設定変更画面へ遷移する。メニュー項目1202は、AFモードを設定するためのメニュー項目であり、この項目を選択することで、AFモードを設定できる(AFモード設定)。AF(オートフォーカス)を行う位置の決定方式ごとに複数のAFモードが用意されており、ユーザは複数のAFモードのうちいずれかを選択して設定することができる。本実施形態では、AFモードとして、一点AFモードと、追尾モードのいずれかが設定できるものとする。一点AFモードは、撮影範囲の中央、あるいはユーザが指定した一点に焦点調節位置を表すAF枠を設定するAFモードである。一点AFモードでは、AF枠は被写体に変化があっても移動せず、顔などの被写体が検出されているか否かに関わらず、AF枠の位置から得られた情報(コントラスト値や位相差AF用のデフォーカス量)に基づいてAFが行われる。追尾モードでは、ユーザからの追尾指定がない場合(追尾待機中、追尾解除状態)は、デジタルカメラ100が自動的に主被写体と判定した被写体がAF対象(焦点調節位置)となる。人物の顔が検出された場合は顔を優先して主被写体としてAF対象にする。人物の顔が検出されていない場合は、動体、コントラスト値の高い被写体、中央に近い被写体などの所定の条件に従って主被写体をデジタルカメラ100が自動的に決定してAF対象とする。また、ユーザからの追尾指定がなされた後は、LV画像中で指定された被写体を追尾し続け、追尾している被写体をAF対象とする。例えばユーザが人物Aの顔を追尾指定した場合(追尾中)は、LV画像上で人物Aが移動しても人物Aの顔を追い続け、AF対象とする。また、人物以外を追尾対象とすることも可能であり(モノ追尾)、追尾指定された位置の色、コントラスト、形状などを条件として、同一の被写体がLV画像中で移動しても追い続け、AF対象とする。すなわち、追尾モードは追尾を行うことによるAF位置の決定が可能なAFモードである。なお、AFモードは一点AFモードと追尾モードに限るものではない。例えばユーザが指定した限定領域内で追尾を行うAFモード(「ゾーンAF」)などがあってもよい。設定したAFモードは、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。 12 (a) to 12 (c) show a display example of the menu screen. FIG. 12A is a display example of the shooting setting menu screen. The menu screen is divided into groups for each function group, such as the shooting setting menu, system setting menu, and playback setting menu, and the corresponding group can be displayed by selecting the tab corresponding to each group. it can. FIG. 12A shows a state in which the shooting setting menu tab 1201 is selected and the shooting setting menu is displayed. The user moves the cursor 1204 by pressing the up / down / left / right buttons included in the operation unit 104, and transitions to the setting change screen of an arbitrary function by pressing the SET button. Menu item 1202 is a menu item for setting the AF mode, and the AF mode can be set by selecting this item (AF mode setting). A plurality of AF modes are prepared for each method of determining the position for performing AF (autofocus), and the user can select and set one of the plurality of AF modes. In the present embodiment, either the one-point AF mode or the tracking mode can be set as the AF mode. The one-point AF mode is an AF mode in which an AF frame representing the focus adjustment position is set at the center of the shooting range or at one point specified by the user. In the one-point AF mode, the AF frame does not move even if the subject changes, and the information obtained from the position of the AF frame (contrast value and phase difference AF) regardless of whether or not a subject such as a face is detected. AF is performed based on the defocus amount for. In the tracking mode, when there is no tracking designation from the user (during tracking standby, tracking release state), the subject automatically determined by the digital camera 100 as the main subject is the AF target (focus adjustment position). When a person's face is detected, the face is given priority and the AF target is set as the main subject. When the face of a person is not detected, the digital camera 100 automatically determines the main subject according to predetermined conditions such as a moving object, a subject having a high contrast value, and a subject close to the center, and sets it as an AF target. Further, after the tracking designation is made by the user, the subject specified in the LV image is continuously tracked, and the tracked subject is set as the AF target. For example, when the user specifies to track the face of the person A (during tracking), even if the person A moves on the LV image, the face of the person A is continuously tracked and targeted for AF. It is also possible to track other than a person (mono tracking), and even if the same subject moves in the LV image, it will continue to be tracked, subject to the color, contrast, shape, etc. of the position specified for tracking. Target for AF. That is, the tracking mode is an AF mode in which the AF position can be determined by performing tracking. The AF mode is not limited to the one-point AF mode and the tracking mode. For example, there may be an AF mode (“zone AF”) in which tracking is performed within a limited area specified by the user. The set AF mode is stored in the non-volatile memory 213 and read out in the system memory 212 in the shooting mode processing.

図12(b)は、表示部101に表示されるタッチ&ドラッグAFに関する設定画面の表示例である。タッチ&ドラッグAFの設定画面は、撮影設定メニューに含まれるメニュー項目のうち、タッチ&ドラッグAFの項目が選択されると表示される。タッチ&ドラッグAFの設定画面では、画面タイトル1211と、各設定項目1212、1213、1214が表示される。 FIG. 12B is a display example of the setting screen related to the touch and drag AF displayed on the display unit 101. The touch & drag AF setting screen is displayed when the touch & drag AF item is selected from the menu items included in the shooting setting menu. On the touch and drag AF setting screen, the screen title 1211 and the setting items 1212, 1213, and 1214 are displayed.

設定項目1212では、タッチ&ドラッグAFを「する」または「しない」のいずれか設定可能である。「する」に設定した場合は、タッチ&ドラッグAFが有効(ON)となり、接眼状態でのタッチムーブに応じてAF位置を変更することが可能となる。「しない」に設定された場合は、タッチ&ドラッグAFが無効(OFF)となり、接眼状態でタッチムーブを行ってもAF位置は変更されない。タッチ&ドラッグAFが「しない」に設定された場合は、接眼が検知されたことに応じてタッチパネル104aでのタッチの検出を停止し、タッチパネル104aを駆動するための消費電力を削減するようにしてもよい。設定された内容は、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。 In the setting item 1212, either "Yes" or "No" can be set for the touch and drag AF. When set to "Yes", touch and drag AF is enabled (ON), and the AF position can be changed according to the touch move in the eyepiece state. When set to "No", touch and drag AF is disabled (OFF), and the AF position is not changed even if the touch move is performed while the eyepiece is in contact. When the touch & drag AF is set to "No", the touch detection on the touch panel 104a is stopped according to the detection of the eyepiece, and the power consumption for driving the touch panel 104a is reduced. May be good. The set contents are stored in the non-volatile memory 213 and read out in the system memory 212 in the shooting mode processing.

設定項目1213では、タッチ&ドラッグAFを「する」とした場合に、接眼検知中のタッチ操作に応じたAF位置の指定方法を、絶対位置指定と相対位置指定のいずれかに設定可能である。初期値は絶対位置指定である。絶対位置指定の場合、タッチパネル104aの操作面内の位置座標と、撮影範囲内のAF可能領域が一意に対応づけられ、タッチパネル104aがタッチされると、タッチされた位置に対応づけられた撮影範囲内の位置にAF位置が設定される。従って、例えばLV画像に写っている右下の被写体の位置をAF位置としたい場合には、ユーザはタッチパネル104aの右下の位置をタッチすればAF位置を右下に設定することができる。一方、相対位置指定の場合は、タッチパネル104aの操作面内の位置座標と、撮影範囲内のAF可能領域は一意に対応づけられない。相対位置指定では、タッチパネル104aに対するタッチムーブが行われると、タッチダウン位置に関わらず、現在設定されているAF位置から、タッチムーブの移動方向に、タッチムーブの移動量に応じた距離だけ、タッチ位置を移動させる。これは、パーソナルコンピュータにおけるマウスでのカーソル移動と類似の動作である。設定された内容は、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。 In the setting item 1213, when the touch and drag AF is set to "Yes", the AF position designation method according to the touch operation during eyepiece detection can be set to either absolute position designation or relative position designation. The initial value is absolute position specification. In the case of absolute position designation, the position coordinates in the operation surface of the touch panel 104a and the AF enable area within the shooting range are uniquely associated, and when the touch panel 104a is touched, the shooting range associated with the touched position is associated. The AF position is set to the inside position. Therefore, for example, when the position of the lower right subject in the LV image is desired to be the AF position, the user can set the AF position to the lower right by touching the lower right position of the touch panel 104a. On the other hand, in the case of the relative position designation, the position coordinates in the operation surface of the touch panel 104a and the AF enable area in the photographing range cannot be uniquely associated with each other. In the relative position designation, when a touch move is performed on the touch panel 104a, regardless of the touchdown position, the touch is touched from the currently set AF position in the movement direction of the touch move by a distance corresponding to the movement amount of the touch move. Move the position. This is similar to moving the cursor with a mouse on a personal computer. The set contents are stored in the non-volatile memory 213 and read out in the system memory 212 in the shooting mode processing.

設定項目1214では、タッチ&ドラッグAFを「する」に設定した場合に、接眼検知中のタッチ操作を受け付けるタッチパネル104aのタッチ領域の範囲(タッチ反応領域)を設定可能である。タッチ&ドラッグAFではEVF101bを覗きながらタッチ操作を行うため、例えばユーザの鼻がタッチパネル104aに触れてしまう可能性がある。この鼻のタッチがタッチ位置の移動指示操作として受け付けられると、AF位置が所望ではない位置に移動してしまう。これを防ぐために、タッチ反応領域を制限する手段が設けられている。タッチ反応領域ではない領域に鼻がタッチしてもタッチ位置の移動操作として受け付けられることはないので、鼻のタッチによってAF位置が所望ではない位置に移動してしまうことを防止できる。設定項目1214が選択されると、図12(c)に示す詳細設定画面が表示される。詳細設定画面にはタッチ反応領域をタッチパネル104aのうちいずれの領域にするかを選択可能な選択肢が表示される。これらの選択肢から選択された領域が、接眼状態におけるタッチ反応領域として設定され、タッチ反応領域として設定された領域以外は、接眼状態においてはタッチ無効の領域となる。タッチ反応領域として設定可能な選択肢には、「全体」、「右」、「左」、「右上」、「右下」、「左上」、「左下」があるものとするが、これらに限られない。なお、タッチ反応領域の設定は、タッチ&ドラッグAFが「する」に設定されていた場合の接眼状態に反映される設定である。タッチ&ドラッグAFが「しない」に設定された場合の接眼状態は設定項目1214の設定に関わらずタッチパネル104aの全体がタッチ無効領域(非反応領域)となる。非接眼状態では、タッチ&ドラッグAFの設定、及び設定項目1214の設定に関わらず、タッチパネル104aの全体がタッチ有効領域(反応領域)となる。 In the setting item 1214, when the touch & drag AF is set to "Yes", the range of the touch area (touch reaction area) of the touch panel 104a that accepts the touch operation during the eyepiece detection can be set. In the touch and drag AF, since the touch operation is performed while looking into the EVF101b, for example, the user's nose may touch the touch panel 104a. If this nose touch is accepted as a touch position movement instruction operation, the AF position will move to an undesired position. In order to prevent this, means for limiting the touch reaction area are provided. Even if the nose touches a region other than the touch reaction region, it is not accepted as a touch position movement operation, so that it is possible to prevent the AF position from moving to an undesired position due to the touch of the nose. When the setting item 1214 is selected, the detailed setting screen shown in FIG. 12C is displayed. On the detailed setting screen, options for selecting which of the touch panel 104a the touch reaction area should be set are displayed. The area selected from these options is set as the touch reaction area in the eyepiece state, and the area other than the area set as the touch reaction area is a touch invalid area in the eyepiece state. The options that can be set as the touch response area include "whole", "right", "left", "upper right", "lower right", "upper left", and "lower left", but are limited to these. Absent. The touch reaction area is set to be reflected in the eyepiece state when the touch & drag AF is set to "Yes". When the touch & drag AF is set to "No", the entire touch panel 104a is a touch invalid area (non-reactive area) regardless of the setting of the setting item 1214. In the non-eyepiece state, the entire touch panel 104a is the touch effective area (reaction area) regardless of the touch & drag AF setting and the setting item 1214.

図3の説明に戻り、S309では、システム制御部201は、操作部104に含まれるタッチ&ドラッグAFボタンが押下されたか否かを判定する。タッチ&ドラッグAFボタンが押下されていたらS310へ進み、そうでない場合はS311へ進む。 Returning to the description of FIG. 3, in S309, the system control unit 201 determines whether or not the touch and drag AF button included in the operation unit 104 has been pressed. If the touch and drag AF button is pressed, the process proceeds to S310. If not, the process proceeds to S311.

S310では、システム制御部201は、前述のタッチ&ドラッグAFの設定を「する」または「しない」に切り替え、設定変更されたことを示すガイダンスを表示する。すなわち、図12(b)で説明した設定画面を表示することなく、LV画像を表示したまま、設定項目1212の設定の変更を行うことが可能である。タッチ&ドラッグAFボタンの押下によって、タッチ&ドラッグAFの設定が「しない」から「する」に変更された場合の表示部101での表示例を図11(a)に示す。図11(a)に示すように、LV画像1131に重畳して、タッチ&ドラッグAFの設定値を表すガイダンス1132を表示する(図11(a)は、タッチ&ドラッグAFの設定を「する」に変更した際のガイダンス)。ガイダンス1132は、所定時間(例えば2秒)経過後に非表示にするものとする。なお、タッチ&ドラッグAFボタンは、ユーザが予め割り当て機能をカスタマイズすることが可能であり、タッチ&ドラッグAFの「する」または「しない」の切り替え以外の機能を割り当てる(登録する)ことも可能である。タッチ&ドラッグAFの「する」または「しない」の切り替え以外の機能が割り当てられていた場合には、S310の処理は行わず。その時点でタッチ&ドラッグAFボタンに割り当てられている機能を実行するものとする。タッチ&ドラッグAFボタンに割り当て可能な機能としては、例えば、動画の記録開始指示、ストロボの発光/非発光の設定切替、タッチダウンに応じて撮影を行うタッチシャッターのオン/オフ切替、絞り込み機能などがある。また、絞り込み機能とは、設定された絞りで撮影した場合に、どのようなピント具合になっているのか(どの程度のボケ味となるか)を確認することができる機能である。絞り込み機能を割り当てた際は、ボタンを押下し続けている間は、絞り込み機能が発動している状態となる。 In S310, the system control unit 201 switches the above-mentioned touch and drag AF setting to “Yes” or “No”, and displays a guidance indicating that the setting has been changed. That is, it is possible to change the setting of the setting item 1212 while displaying the LV image without displaying the setting screen described with reference to FIG. 12B. FIG. 11A shows an example of display on the display unit 101 when the touch & drag AF setting is changed from “not” to “yes” by pressing the touch & drag AF button. As shown in FIG. 11A, the guidance 1132 indicating the touch and drag AF setting value is displayed by superimposing the touch and drag AF on the LV image 1131 (FIG. 11A shows the touch and drag AF setting. Guidance when changing to). Guidance 1132 shall be hidden after a predetermined time (for example, 2 seconds) has elapsed. In addition, the touch & drag AF button can be customized by the user in advance, and it is also possible to assign (register) a function other than switching between "Yes" and "No" of Touch & Drag AF. is there. If a function other than switching "Yes" or "No" of Touch & Drag AF is assigned, the processing of S310 is not performed. At that point, the function assigned to the touch and drag AF button shall be executed. Functions that can be assigned to the Touch & Drag AF button include, for example, video recording start instruction, strobe flash / non-flash setting switching, touch shutter on / off switching for shooting according to touchdown, and narrowing down function. There is. The aperture function is a function that allows you to check what kind of focus is achieved (how much bokeh is achieved) when shooting with a set aperture. When the narrowing down function is assigned, the narrowing down function is activated as long as the button is held down.

S311では、システム制御部201は、タッチダウンを検出したか否かを判定する。タッチダウンがあった場合はS312へ進み、そうでない場合はS313へ進む。S312では、システム制御部201はタッチダウン処理を行う。タッチダウン処理については図6を用いて後述する。 In S311 the system control unit 201 determines whether or not a touchdown has been detected. If there is a touchdown, the process proceeds to S312, and if not, the process proceeds to S313. In S312, the system control unit 201 performs a touchdown process. The touchdown process will be described later with reference to FIG.

S313では、システム制御部201は、タッチオンの状態でタッチムーブを検出したか否かを判定する。タッチムーブがあった場合はS314へ進み、そうでない場合(タッチオフ状態を含む)はS315へ進む。S314では、システム制御部201は、タッチムーブ処理を行う。タッチムーブ処理については図7を用いて後述する。 In S313, the system control unit 201 determines whether or not the touch move is detected in the touch-on state. If there is a touch move, the process proceeds to S314, and if not, the process proceeds to S315 (including the touch-off state). In S314, the system control unit 201 performs a touch move process. The touch move process will be described later with reference to FIG.

S315では、システム制御部201は、タッチアップを検出したか否かを判定する。タッチアップがあった場合はS316へ進み、そうでない場合(元々タッチオフであった場合、後述のタッチキャンセル処理でタッチがキャンセルされた後の場合を含む)はS317へ進む。S316では、システム制御部201は、タッチアップ処理を行う。タッチアップ処理については図8を用いて後述する。 In S315, the system control unit 201 determines whether or not the touch-up is detected. If there is a touch-up, the process proceeds to S316, and if not (including the case where the touch-off was originally performed and the touch is canceled by the touch cancel process described later), the process proceeds to S317. In S316, the system control unit 201 performs a touch-up process. The touch-up process will be described later with reference to FIG.

S317では、システム制御部201は、タッチキャンセル操作を検出したか否かを判定する。タッチキャンセル処理があった場合はS319に進み、そうでない場はS320に進む。タッチキャンセル操作とは、例えばタッチオン状態におけるタッチパネル104a以外に対する操作(操作部104のうちタッチパネル104a以外に対する操作)のことである。タッチオン状態で操作部104が操作されると、タッチオン状態を解除し、操作部104の操作を有効とする。例えば、シャッターボタン102が半押しされると、タッチキャンセル処理を行い、撮影準備処理を開始する。S318では、システム制御部201は、タッチキャンセル処理を行う。タッチキャンセル処理については図9を用いて後述する。 In S317, the system control unit 201 determines whether or not the touch cancel operation has been detected. If there is a touch cancel process, the process proceeds to S319, and if not, the process proceeds to S320. The touch cancel operation is, for example, an operation for a touch panel other than the touch panel 104a in the touch-on state (an operation for the operation unit 104 other than the touch panel 104a). When the operation unit 104 is operated in the touch-on state, the touch-on state is released and the operation of the operation unit 104 becomes effective. For example, when the shutter button 102 is pressed halfway, the touch cancel process is performed and the shooting preparation process is started. In S318, the system control unit 201 performs a touch cancel process. The touch cancel process will be described later with reference to FIG.

S319では、システム制御部201は、操作部104に含まれる枠ボタンが押下されたか否かを判定する。枠ボタンが押下されていたらS320へ進み、そうでない場合はS321へ進む。S320では、システム制御部201は、枠ボタン処理を行う。枠ボタン処理については図10を用いて後述する。 In S319, the system control unit 201 determines whether or not the frame button included in the operation unit 104 has been pressed. If the frame button is pressed, the process proceeds to S320, and if not, the process proceeds to S321. In S320, the system control unit 201 performs frame button processing. The frame button processing will be described later with reference to FIG.

S321では、システム制御部201は、第1シャッタースイッチ102aおよび第2シャッタースイッチ102bがオンとなったか否かを判定する。これらのスイッチがオンされていたらS322へ進み、そうでない場合はS323に進む。 In S321, the system control unit 201 determines whether or not the first shutter switch 102a and the second shutter switch 102b are turned on. If these switches are turned on, the process proceeds to S322, otherwise the process proceeds to S323.

S322では、システム制御部201は、第1シャッタースイッチ102aのオン(シャッターボタン102の半押し)に応じた撮影準備処理、および、第2シャッタースイッチ102bのオン(シャッターボタン102の全押し)に応じた撮影処理を行う。S322の撮影準備処理では、タッチ&ドラッグAFなどにより、その時点で設定されているAF位置に基づいて、AF、AE、AWBなどの処理が行われる。 In S322, the system control unit 201 responds to the shooting preparation process corresponding to the on (half-pressing of the shutter button 102) of the first shutter switch 102a and the on (full pressing of the shutter button 102) of the second shutter switch 102b. Perform the shooting process. In the shooting preparation process of S322, processing such as AF, AE, and AWB is performed based on the AF position set at that time by touch and drag AF or the like.

S323では、システム制御部201は、撮影モード終了操作(電源をオフとする操作や再生モードに遷移する操作等)がなされたか否かを判定する。終了操作がなされていない場合はS324に進み、システム制御部201は、その他の処理を行う。例えば操作部104が操作されたことに応じて、シャッタースピードを変更するなどの処理を行う。S323で終了操作がされた場合は、撮影モード処理を終了する。 In S323, the system control unit 201 determines whether or not a shooting mode end operation (such as an operation of turning off the power or an operation of transitioning to the playback mode) has been performed. If the end operation has not been performed, the process proceeds to S324, and the system control unit 201 performs other processing. For example, processing such as changing the shutter speed is performed according to the operation of the operation unit 104. When the end operation is performed in S323, the shooting mode processing is ended.

<AF枠表示更新処理>
次に、図4を用いて、図3のS304におけるAF枠表示更新処理の詳細を説明する。
<AF frame display update process>
Next, the details of the AF frame display update process in S304 of FIG. 3 will be described with reference to FIG.

S401では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFであればS402へ進み、そうでない場合はS404へ進む。 In S401, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is one-point AF. If it is a one-point AF, proceed to S402, and if not, proceed to S404.

S404では、システム制御部201は、被写体を追尾中か否かを判定する。追尾中の場合はS405へ進み、そうでない場合はS406へ進む。 In S404, the system control unit 201 determines whether or not the subject is being tracked. If tracking is in progress, the process proceeds to S405, and if not, the process proceeds to S406.

S402では、システム制御部201は、一点AF枠を表示部101に表示する。一点AF枠表示の表示例を図11(b)に示す。図11(b)には、被写体1133を含むLV画像に重畳して、一点AF枠1134と、撮影パラメータを示す撮影情報1135を表示している。一点AF枠1134の位置は、タッチパネル104aに対する操作、あるいは枠移動モードにおける操作部104に含まれる上下左右ボタンなどの操作によって、LV画像中のユーザが指定した位置に移動させることができる。一点AF枠1134の位置が後述するS403でのAF位置となる。 In S402, the system control unit 201 displays the one-point AF frame on the display unit 101. A display example of the one-point AF frame display is shown in FIG. 11 (b). FIG. 11B displays a one-point AF frame 1134 and shooting information 1135 indicating shooting parameters superimposed on the LV image including the subject 1133. The position of the one-point AF frame 1134 can be moved to a position designated by the user in the LV image by operating the touch panel 104a or operating the up / down / left / right buttons included in the operation unit 104 in the frame movement mode. The position of the one-point AF frame 1134 is the AF position in S403, which will be described later.

S405では、システム制御部201は、追尾対象の位置と、追尾の実行中であることを示す追尾枠を表示部101に表示する。追尾枠の表示画面例を図11(d)に示す。図11(d)は、LV画像中の被写体1137を追尾している状態を示している。追尾対象の被写体の周辺に、追尾枠1138を表示して、この被写体を追尾中であることを示している。デジタルカメラ100をフレーミングして撮影範囲を変更しても、被写体1137が撮影範囲に収まっていれば、追尾枠1138は被写体1137を示し続ける。追尾枠1138の位置が後述するS403でのAF位置となる。 In S405, the system control unit 201 displays the position of the tracking target and the tracking frame indicating that the tracking is being executed on the display unit 101. An example of the display screen of the tracking frame is shown in FIG. 11 (d). FIG. 11D shows a state in which the subject 1137 in the LV image is being tracked. A tracking frame 1138 is displayed around the subject to be tracked to indicate that the subject is being tracked. Even if the digital camera 100 is framed to change the shooting range, the tracking frame 1138 continues to indicate the subject 1137 as long as the subject 1137 is within the shooting range. The position of the tracking frame 1138 is the AF position in S403, which will be described later.

S406では、システム制御部201は、顔検出処理(特定の被写体の検出処理)によってLV画像から顔(特定の被写体)が検出されているか否かを判定する。顔が検出されている場合はS407に進み、検出されていない場合はS408に進む。 In S406, the system control unit 201 determines whether or not a face (specific subject) is detected from the LV image by the face detection process (detection process of a specific subject). If the face is detected, the process proceeds to S407, and if the face is not detected, the process proceeds to S408.

S407では、システム制御部201は、検出された顔の位置を示す検出枠(検出指標)を表示部101に表示する。検出枠表示の画面例を図11(c)に示す。図11(c)は、LV画像から、顔1133を検出している状態を示している。検出対象の被写(顔)体の周辺に、検出枠1136を表示して、この顔を検出中であることを示している。なお、検出枠1136は被写体の検出結果に応じて、複数表示してもよい。すなわち、顔が複数検出されていれば検出枠1136(顔枠)は複数表示される。なお、顔は、LV画像を画像処理部207で解析することにより検出可能であるものとする。本実施形態では、画像処理部207で検出可能な特定の被写体として顔を検出できる例を説明しているが、人物の顔に限らず、LV画像中で主被写体としてデジタルカメラ100が自動的に決定したその他の被写体に対して検出枠1136を表示してもよい。例えば、顔以外に、動物の顔、動体、コントラストの高い被写体などを検出出来た場合、検出枠を表示してAF位置としてもよい。なお、顔が検出された場合は基本的には顔が主被写体として優先度が高くなる。検出枠1136の位置が後述するS403でのAF位置となる。 In S407, the system control unit 201 displays a detection frame (detection index) indicating the position of the detected face on the display unit 101. A screen example of the detection frame display is shown in FIG. 11 (c). FIG. 11C shows a state in which the face 1133 is detected from the LV image. A detection frame 1136 is displayed around the subject (face) to be detected to indicate that this face is being detected. A plurality of detection frames 1136 may be displayed depending on the detection result of the subject. That is, if a plurality of faces are detected, a plurality of detection frames 1136 (face frames) are displayed. It is assumed that the face can be detected by analyzing the LV image with the image processing unit 207. In the present embodiment, an example in which a face can be detected as a specific subject that can be detected by the image processing unit 207 is described, but the digital camera 100 is automatically used as the main subject in the LV image, not limited to the face of a person. The detection frame 1136 may be displayed for the determined other subject. For example, when an animal face, a moving object, a subject having high contrast, or the like can be detected in addition to the face, the detection frame may be displayed and set as the AF position. When a face is detected, the face is basically the main subject and the priority is high. The position of the detection frame 1136 becomes the AF position in S403 described later.

S407では、システム制御部201は、検出枠を非表示とする。すなわち、直前まで検出枠を表示していた場合は表示していた検出枠を消去し、直前も検出枠を表示していなかった場合は、引き続き検出枠を表示しない。 In S407, the system control unit 201 hides the detection frame. That is, if the detection frame is displayed until immediately before, the displayed detection frame is deleted, and if the detection frame is not displayed immediately before, the detection frame is not displayed continuously.

S408では、システム制御部201は、コンティニュアスAFを行う位置を、現在のAF位置に更新し、コンティニュアスAFを行う。コンティニュアスAFとは、ユーザによるAF実行操作がなくとも、撮影待機状態においてAF位置に自動的にピントを合わせ続けるように連続的(継続的)にAF動作を行う機能である。 In S408, the system control unit 201 updates the position where continuous AF is performed to the current AF position, and performs continuous AF. The continuous AF is a function that continuously (continuously) performs AF operation so as to automatically keep focusing on the AF position in the shooting standby state even if there is no AF execution operation by the user.

<表示先切替処理>
次に、図5を用いて、図3のS306における表示先切替処理の詳細を説明する。
<Display destination switching process>
Next, the details of the display destination switching process in S306 of FIG. 3 will be described with reference to FIG.

S501では、システム制御部201は、接眼検知部219が検知した状態変化が、非接眼状態から接眼状態への変化であったか否か(すなわち、接眼を検知したか)を判定する。非接眼状態から接眼状態への変化だった場合はS506へ進み、そうでない場合はS502へ進む。 In S501, the system control unit 201 determines whether or not the state change detected by the eyepiece detection unit 219 is a change from the non-eyepiece state to the eyepiece state (that is, whether the eyepiece is detected). If the change is from the non-eyepiece state to the eyepiece state, the process proceeds to S506, and if not, the process proceeds to S502.

S506では、システム制御部201は、表示先を背面表示パネル101aからEVF101bへ切り替える。S506では、表示先の切り替えの要因となった接眼状態への変化(接眼の検知)の前からタッチを検出していた(タッチオンであった)場合にも、すぐに表示先を背面表示パネル101aからEVF101bに切り替える。一方、S507で後述するが、S501でNOと判定された場合(離眼が検知された場合)は、接眼状態への変化前からタッチオンであった場合は、すぐには表示先の切り替えは行わない。 In S506, the system control unit 201 switches the display destination from the rear display panel 101a to the EVF 101b. In S506, even when the touch is detected (touch-on) before the change to the eyepiece state (eyepiece detection) that caused the switching of the display destination, the display destination is immediately changed to the rear display panel 101a. To switch to EVF101b. On the other hand, as will be described later in S507, when NO is determined in S501 (when eyepiece removal is detected), the display destination is immediately switched if the touch is on before the change to the eyepiece state. Absent.

S508では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFであればS515へ進み、そうでない場合は(追尾モードであれば)S510へ進む。 In S508, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is one-point AF. If it is a one-point AF, the process proceeds to S515. If not, the process proceeds to S510 (in the tracking mode).

S510では、システム制御部201は、ユーザに指定された被写体を追尾中であるか否かを判定する。追尾中であると判定した場合はS512に進み、そうでない場合はS515に進む。 In S510, the system control unit 201 determines whether or not the subject designated by the user is being tracked. If it is determined that tracking is in progress, the process proceeds to S512, and if not, the process proceeds to S515.

S512では、システム制御部201は、追尾解除方法を示す追尾解除ガイドをEVF101bに表示する。ユーザはこの表示を見て、必要に応じて被写体追尾解除を行うことが可能である。追尾解除ガイドはメッセージ表示や、アイコン表示などである。追尾解除は、追尾解除ガイドとしてのアイコンに対するタッチ操作(表示先が背面表示パネル101aである場合のみ)や、操作部104に含まれるボタン操作によって行えるものとする。 In S512, the system control unit 201 displays a tracking release guide indicating the tracking release method on the EVF 101b. The user can see this display and cancel the subject tracking if necessary. The tracking release guide includes message display and icon display. The tracking release can be performed by a touch operation on the icon as the tracking release guide (only when the display destination is the rear display panel 101a) or a button operation included in the operation unit 104.

一方、S502では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS503へ進み、そうでない場合はS507へ進む。S503では、システム制御部201は、現在の状態がタッチオンであるか(有効なタッチを検出しているか)否かを判定する。タッチオンである場合はS504へ進み、そうでない場合はS507へ進む。 On the other hand, in S502, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the above-mentioned touch and drag AF setting is "Yes". If it is set to "Yes", the process proceeds to S503. If not, the process proceeds to S507. In S503, the system control unit 201 determines whether or not the current state is touch-on (whether or not a valid touch is detected). If it is touch-on, the process proceeds to S504, and if not, the process proceeds to S507.

S504では、システム制御部201は、接眼検知部219において非接眼状態が所定時間継続したか(例えば2秒継続したか)否かを判定する。所定時間継続した場合はS505へ進み、そうでない場合はS507へ進む。 In S504, the system control unit 201 determines whether or not the non-eyepiece state has continued for a predetermined time (for example, for 2 seconds) in the eyepiece detection unit 219. If it continues for a predetermined time, the process proceeds to S505, and if not, the process proceeds to S507.

S505では、システム制御部201は、接眼検知部219の検知状態に変化があったか否かを判定する。S505の検知前は非接眼状態であるので、S505の処理は、すなわち、接眼を検知したか否かの判定である。変化があった場合(接眼を検知した場合)にはS501へ進み、変化がない場合(非接眼状態のままであれば)S503へ戻り、EVF101bの表示を維持する。 In S505, the system control unit 201 determines whether or not the detection state of the eyepiece detection unit 219 has changed. Since the eyepiece is not in the eyepiece state before the detection of S505, the process of S505 is, that is, a determination of whether or not the eyepiece is detected. If there is a change (when the eyepiece is detected), the process proceeds to S501, and if there is no change (if the non-eyepiece remains), the process returns to S503 and the display of EVF101b is maintained.

S507では、システム制御部201は、表示先をEVF101bから背面表示パネル101aへ切り替える。この表示先の切り替えは、S503からS505で説明したように接眼状態の変化前(離眼検知前)からタッチオンであった場合は、すぐには行われない。離眼検知時にタッチオフであった場合、および、離眼検知時にタッチオン(S503でYES)であったが、離眼検知後に非接眼状態が所定時間継続した場合(S504でYES)またはタッチオフとなった場合(S803でNO)に行われる。また、背面表示パネル101aへの切り替えと共に、タッチパネル104aのキャリブレーション(初期化処理)を行う。静電容量方式のタッチパネルでは、キャリブレーションによって、タッチ有無の判定のために基準とする静電容量値、あるいは静電容量の閾値を、キャリブレーションによって調整する。静電容量方式のタッチパネルにおいて、タッチされたままの状態でキャリブレーションを行うと、タッチの有無の判定、および/または、タッチオン状態でのタッチ位置の算出に誤判定やズレを生じさせるおそれがある。また、インセル型のタッチパネルにおいては、表示素子とタッチ検出用の電極がセパレータを挟まずに構成されているため、表示素子の駆動とタッチ検出が干渉するおそれがある。従って、背面表示パネル101aの表示開始とキャリブレーションを、タッチされたまま同時に行うと、タッチの有無の判定、および/またはタッチ位置の算出に誤判定やズレを生じさせる可能性が高い。これに対し、S507では、接眼状態の変化前(離眼検知前)からタッチオンであった場合は、キャリブレーションをすぐには行わないように制御しているため、キャリブレーションをより正確に行うことができる。なお、離眼後に非接眼状態が所定時間継続した場合(S504でYES)は、表示先をEVF101bから背面表示パネル101aへ切り替えるが、キャリブレーションはタッチオフとなるまで行わないようにしてもよい。この場合はタッチオフとなるとキャリブレーションを行う。なお、S503でタッチオンでないと判定された場合でも、後述する指定位置指標が表示されている間は、一連のタッチ操作の途中であると想定して、表示先の切り替えを抑制するようにS504に進むようにしてもよい。 In S507, the system control unit 201 switches the display destination from the EVF 101b to the rear display panel 101a. This switching of the display destination is not performed immediately when the touch-on is performed before the change of the eyepiece state (before the eyepiece detection is detected) as described in S503 to S505. It was touch-off when the eye-removal was detected, and touch-on (YES in S503) when the eye-removal was detected, but the non-eyepiece state continued for a predetermined time after the eye-removal was detected (YES in S504) or touch-off. This is done in the case (NO in S803). Further, along with switching to the rear display panel 101a, the touch panel 104a is calibrated (initialized). In the capacitance type touch panel, the capacitance value as a reference for determining the presence or absence of touch or the threshold value of the capacitance is adjusted by calibration by calibration. If calibration is performed while the touch panel is touched on a capacitive touch panel, there is a risk of erroneous judgment or misalignment in determining the presence or absence of touch and / or calculating the touch position in the touch-on state. .. Further, in the in-cell type touch panel, since the display element and the touch detection electrode are configured without sandwiching the separator, the drive of the display element and the touch detection may interfere with each other. Therefore, if the display of the rear display panel 101a is started and calibrated at the same time while being touched, there is a high possibility that an erroneous determination or deviation will occur in the determination of the presence or absence of touch and / or the calculation of the touch position. On the other hand, in S507, if the touch is turned on before the change of the eyepiece state (before the eyepiece detection is detected), the calibration is controlled so as not to be performed immediately, so that the calibration should be performed more accurately. Can be done. If the non-eyepiece state continues for a predetermined time after the eye is removed (YES in S504), the display destination is switched from the EVF101b to the rear display panel 101a, but the calibration may not be performed until the touch-off is reached. In this case, calibration is performed when touch-off occurs. Even if it is determined in S503 that the touch is not turned on, it is assumed that a series of touch operations are in progress while the designated position index described later is displayed, and the S504 is set to suppress the switching of the display destination. You may proceed.

S509では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFである場合はS515に進み、そうでない場合(追尾モードの場合)はS511に進む。 In S509, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is one-point AF. If it is a one-point AF, the process proceeds to S515, and if not (in the tracking mode), the process proceeds to S511.

S511では、システム制御部201は、指定位置指標(詳細後述)を表示中か否かを判定する。表示中の場合は処理を終了し、そうでない場合はS513へ進む。 In S511, the system control unit 201 determines whether or not the designated position index (details will be described later) is being displayed. If it is being displayed, the process ends, and if not, the process proceeds to S513.

S513では、システム制御部201は、EVF101bに追尾解除ガイドを表示していたか否かを判定する。表示していた場合はS514へ進み、そうでない場合は処理を終了する。 In S513, the system control unit 201 determines whether or not the tracking release guide is displayed on the EVF101b. If it is displayed, the process proceeds to S514, and if not, the process ends.

S514では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。 In S514, the system control unit 201 displays the tracking release guide on the rear display panel 101a. The tracking release guide is the same as that described in S512.

S515では、システム制御部201は、AF枠表示更新処理を行う。この処理は、図4で説明した処理である。A枠表示更新処理を行うと、表示先切替処理を終了する。 In S515, the system control unit 201 performs AF frame display update processing. This process is the process described with reference to FIG. When the A frame display update process is performed, the display destination switching process ends.

上述したように、接眼検知部219で離眼を検知しても、ユーザがタッチパネル104aを用いてタッチ操作を行っている間であれば、表示先の切り替えを行わない(S501からS507)。一方、接眼検知部219で離眼を検知した場合に、タッチ操作が行われていなければ、所定時間を待つことなく表示先を切り替える(S501からS506)。 As described above, even if the eyepiece detection unit 219 detects the eyepiece removal, the display destination is not switched as long as the user is performing the touch operation using the touch panel 104a (S501 to S507). On the other hand, when the eyepiece detection unit 219 detects eye separation, if the touch operation is not performed, the display destination is switched without waiting for a predetermined time (S501 to S506).

タッチ&ドラッグAFは、背面表示パネル101aを見ながらタッチパネル104aを操作する機能である。そして、ユーザが指を接眼検知部219の近くへ移動させた際や、タッチパネル104aを操作するために顔とタッチパネル104aの間に指を移動させることにより、誤って目を接眼検知部219から離してしまうことがある。この場合、システム制御部201が即座に表示先の切り替えを行ってしまうと、背面表示パネル101aへの操作が必要となるため、EVF101bを覗きながら撮影を行いたいユーザにとっては、操作に手間取り撮影機会を逃してしまうおそれがある。さらに、接眼の検知/非検知が繰り返されることでEVF101bの表示/非表示が繰り返し行われてしまい、使い勝手が良くない。さらに、誤って目が接眼検知部219から離れた際にはEVF101bを非表示としないで、背面表示パネル101aを同時に表示するような形態も考えられるが、この場合、消費電力の増加を招いてしまう。このような課題を解決するため、図5のような処理を行っている。 Touch & drag AF is a function of operating the touch panel 104a while looking at the rear display panel 101a. Then, when the user moves the finger near the eyepiece detection unit 219, or by moving the finger between the face and the touch panel 104a in order to operate the touch panel 104a, the eyes are mistakenly separated from the eyepiece detection unit 219. It may end up. In this case, if the system control unit 201 immediately switches the display destination, it is necessary to operate the rear display panel 101a. Therefore, for a user who wants to take a picture while looking into the EVF 101b, the operation takes time and a shooting opportunity. May be missed. Further, the repeated detection / non-detection of the eyepiece causes the EVF101b to be repeatedly displayed / hidden, which is not convenient. Further, when the eyes are accidentally separated from the eyepiece detection unit 219, the EVF 101b may not be hidden and the rear display panel 101a may be displayed at the same time. However, in this case, the power consumption is increased. It ends up. In order to solve such a problem, the processing as shown in FIG. 5 is performed.

なお、撮影シーンによっては、タッチしたまま表示先を切り替えたい場合もあると考えられるため、非接眼状態が所定時間継続した場合は(S504でYES)、背面表示パネル101aへ表示先を切り替えるようにしている。ただし、接眼検知部219で非接眼状態を検出している継続時間に関わらず、タッチ操作が継続している限りは(タッチ音である限りは)、背面表示パネル101aへ表示先を切り替えずに、EVF101bへの表示を維持しても良い。 Depending on the shooting scene, it may be desirable to switch the display destination while touching the eyepiece. Therefore, if the non-eyepiece state continues for a predetermined time (YES in S504), the display destination is switched to the rear display panel 101a. ing. However, regardless of the duration during which the eyepiece detection unit 219 detects the non-eyepiece state, as long as the touch operation continues (as long as it is a touch sound), the display destination is not switched to the rear display panel 101a. , The display on EVF101b may be maintained.

なお、S501でNOの場合にS502からS505の処理を行わずにS507へ進むようにしてもよい。すなわち、離眼を検知した場合に、タッチオンが検出されたか否かに関わらず、表示先をEVF101bから背面表示パネル101aに切り替えるようにしてもよい。 If NO in S501, the process may proceed to S507 without performing the processes from S502 to S505. That is, when the eye loss is detected, the display destination may be switched from the EVF 101b to the rear display panel 101a regardless of whether or not the touch-on is detected.

また、タッチ反応領域に設定された領域でのタッチオンであったか、またはタッチ反応領域以外の領域でのタッチオンであったかによって、S502からS505の処理を行うか否かを場合分けしてもよい。例えば、タッチ反応領域以外(タッチ無効領域)でタッチオンを検出していた場合に離眼を検知した場合は、タッチ反応領域以外でのタッチを対象として上述のS502からS505の処理を行う。タッチ無効領域で検出されたタッチは鼻による接触である可能性が高い。このようにすることで、鼻が接触したまま(すなわち実際は接眼したまま)、カメラの構え方を変えるなどしたために接眼が検知されなくなり、離眼と検知されてしまった状況で表示先が切り替わらないようにすることができる。一方、タッチ反応領域以外ではタッチオンを検出しておらず、タッチ反応領域でタッチオンを検出していた場合に離眼を検知した場合は、上述したS502からS505の処理を行うことなく、S507に進んで表示先を切り替えるようにしてもよい。この状況は、ユーザがタッチパネル104aを操作する指でタッチしまま、意図的に離眼し、背面表示パネル101aを確認しようとした可能性があるためである。 Further, whether or not the processing of S502 to S505 may be performed may be classified according to whether the touch-on is in the area set in the touch reaction area or the touch-on is in the area other than the touch reaction area. For example, when the eye loss is detected when the touch-on is detected in a region other than the touch response region (touch invalid region), the above-mentioned processes S502 to S505 are performed for the touch in the region other than the touch response region. The touch detected in the touch-disabled area is likely to be a nasal contact. By doing this, the eyepiece will not be detected because the nose is in contact (that is, the eyepiece is actually in contact) and the camera is held differently, and the display destination will not be switched in the situation where it is detected as an eyepiece. Can be done. On the other hand, if the touch-on is not detected in the area other than the touch reaction area and the eye loss is detected when the touch-on is detected in the touch reaction area, the process proceeds to S507 without performing the above-described processes S502 to S505. You may switch the display destination with. This situation is because there is a possibility that the user intentionally took his eyes off while touching the touch panel 104a with his finger to check the rear display panel 101a.

また、背面表示パネル101aを、デジタルカメラ100の本体部に対して任意の位置や姿勢に回動可能なチルト式モニタまたはバリアングル式モニタとして構成してもよい。この場合、デジタルカメラ100は、バリアングルモニタのカメラ本体部に対する位置や姿勢を検出するモニタ位置検出部を有するものとする。そして、背面表示パネル101aの表示面がカメラ背面側に露出する向き(すなわち、図1に示した状態と同じ向き)でバリアングルモニタが閉じられていることを検出した場合には上述のS502からS505の処理を行う。一方、バリアングルモニタが開いている場合は、上述のS502からS505の処理を行うことなく、S507に進んで表示先を切り替えるようにしてもよい。バリアングルモニタが開いている場合には、タッチパネル104aを操作するための指が顔や目の近くに位置することがなく、上述のような課題が発生しないためである。 Further, the rear display panel 101a may be configured as a tilt type monitor or a vari-angle type monitor that can be rotated to an arbitrary position or posture with respect to the main body of the digital camera 100. In this case, the digital camera 100 is assumed to have a monitor position detection unit that detects the position and orientation of the vari-angle monitor with respect to the camera body. When it is detected that the vari-angle monitor is closed in the direction in which the display surface of the rear display panel 101a is exposed to the back side of the camera (that is, the same direction as shown in FIG. 1), the above-mentioned S502 The process of S505 is performed. On the other hand, when the vari-angle monitor is open, the display destination may be switched by proceeding to S507 without performing the above-mentioned processes S502 to S505. This is because when the vari-angle monitor is open, the fingers for operating the touch panel 104a are not located near the face or eyes, and the above-mentioned problems do not occur.

なお、タッチオンの有無により表示先の切り替えを抑制する制御を例示したが、タッチ操作に限らず、他の操作部材の操作があった場合に、表示先の切り替えを抑制するようにしてもよい。例えば、前述の絞り込み機能を割り当てたボタンを操作中ならば表示先を切り替えない、としてもよい。また、EVF101bの接眼部に近い操作部材や、カメラ背面に備えられ、操作時に接眼しているユーザの顔とカメラ背面の間に指を挿入することになるような操作部材について、表示先の切り替えを抑制する制御(S502からS505)を行うようにしてもよい。操作する場合に接眼しているユーザの顔とデジタルカメラ100の間に指を挿入することになるような操作部材としては、例えばコントローラホイール106が考えられる。それ以外の操作部材としては例えば、シャッターボタン102の周りに設けられたズームレバーが考えられる。この場合、離眼検知をコントローラホイール106の回転操作の途中で判定した場合はS507に進まずにS504とS505の処理を行い、コントローラホイール106の回転操作が終了するか、非接眼となって所定時間が経過するとS507に進むようにする。一方、離眼を検知した場合にズームレバーが操作されていても、S503からS505に進むことなく、S507に進む。ズームレバーは、デジタルカメラ100のうちEVF101bの接眼面のある面(背面)とは異なる面(例えば上部、あるいはカメラ前面のレンズの鏡筒周り)に備えられた操作部材である。従ってズームレバーを操作する指の影響でユーザーの顔が意図せず接眼部から離れてしまう可能性が低い。 Although the control for suppressing the switching of the display destination depending on the presence or absence of touch-on has been illustrated, the switching of the display destination may be suppressed when there is an operation of another operating member, not limited to the touch operation. For example, the display destination may not be switched while the button to which the above-mentioned narrowing down function is assigned is being operated. Further, the operation member close to the eyepiece of the EVF101b and the operation member provided on the back of the camera and such that a finger is inserted between the face of the user who is in contact with the eye during operation and the back of the camera are displayed. Control (S502 to S505) for suppressing switching may be performed. For example, the controller wheel 106 can be considered as an operating member in which a finger is inserted between the face of the user who is in contact with the eye and the digital camera 100 when operating. As the other operating member, for example, a zoom lever provided around the shutter button 102 can be considered. In this case, if the eye-opening detection is determined in the middle of the rotation operation of the controller wheel 106, the processing of S504 and S505 is performed without proceeding to S507, and the rotation operation of the controller wheel 106 is completed or the controller wheel 106 is set to non-eye contact. When the time has passed, the process proceeds to S507. On the other hand, even if the zoom lever is operated when the eye loss is detected, the process proceeds to S507 without proceeding from S503 to S505. The zoom lever is an operating member provided on a surface (for example, the upper part or around the lens barrel of the lens on the front surface of the camera) different from the surface (rear surface) of the EVF101b having the eyepiece surface of the digital camera 100. Therefore, it is unlikely that the user's face will unintentionally move away from the eyepiece due to the influence of the finger operating the zoom lever.

また、タッチオンの有無に応じてタッチオンがあった場合に表示先の切り替えを抑制する制御を例示したが、タッチ操作の種類に応じて表示先の切り替えを抑制する制御のする/しないを切り替えてもよい。例えば単にタッチオンの状態が継続されている場合は、AF枠関連操作を行っていないとみなして、上記表示先の切り替えを抑制する制御を行わないとしてもよい。そして、タッチムーブ操作が所定時間内に繰り返し行われている状態においては、AF枠関連操作(タッチ&ドラッグAFでのAF枠の移動操作)が行われている途中であるとして、上記表示先の切り替えを抑制する制御を行うようにしてもよい。 In addition, although the control that suppresses the switching of the display destination when there is touch-on depending on the presence or absence of touch-on is illustrated, the control that suppresses the switching of the display destination may be switched depending on the type of touch operation. Good. For example, when the touch-on state is simply continued, it may be considered that the AF frame-related operation has not been performed, and the control for suppressing the switching of the display destination may not be performed. Then, in the state where the touch move operation is repeatedly performed within a predetermined time, it is assumed that the AF frame related operation (the AF frame moving operation by touch & drag AF) is being performed, and the above display destination Control to suppress switching may be performed.

<タッチダウン処理>
次に、図6を用いて、図3のS312におけるタッチダウン処理の詳細を説明する。
<Touchdown processing>
Next, the details of the touchdown process in S312 of FIG. 3 will be described with reference to FIG.

S601では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS602へ進み、そうでない場合はS610へ進む。 In S601, the system control unit 201 determines whether or not the display destination is the rear display panel 101a. If it is a rear display panel, proceed to S602, otherwise proceed to S610.

S602では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであればS603へ進み、そうでない場合は(追尾モードであれば)S606へ進む。 In S602, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is the one-point AF mode, the process proceeds to S603, and if not, the process proceeds to S606 (in the tracking mode).

S603では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応する背面表示パネル101a上の座標に一点AF枠を表示する。 In S603, the system control unit 201 displays a one-point AF frame at the coordinates on the rear display panel 101a corresponding to the touchdown position on the touch panel 104a.

S604では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠の位置に更新し、コンティニュアスAFを行う。 In S604, the system control unit 201 updates the position where the continuous AF is performed to the position of the current one-point AF frame, and performs the continuous AF.

S605では、システム制御部201は、一点AF枠の位置を中央に戻すガイドを背面表示パネル101aに表示する。ガイドは文字列によるガイダンスでもよく、アイコンでもよい。また、一点AF枠の位置を中央に戻す操作は、操作部104に含まれるボタン操作でもよく、タッチパネル104aへのタッチ操作でもよい。 In S605, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the rear display panel 101a. The guide may be a character string guidance or an icon. Further, the operation of returning the position of the one-point AF frame to the center may be a button operation included in the operation unit 104 or a touch operation on the touch panel 104a.

S606では、システム制御部201は、タッチパネル104aのタッチダウン位置に対応する背面表示パネル101aの座標の近傍で検出された被写体を追尾する。これによって追尾中の状態に遷移する。 In S606, the system control unit 201 tracks a subject detected in the vicinity of the coordinates of the rear display panel 101a corresponding to the touchdown position of the touch panel 104a. As a result, the state transitions to the tracking state.

S607では、システム制御部201は、背面表示パネル101aに表示されたLV画像において追尾している被写体を示す範囲に追尾枠1138を表示する。 In S607, the system control unit 201 displays the tracking frame 1138 in the range indicating the subject being tracked in the LV image displayed on the rear display panel 101a.

S608では、システム制御部201は、コンティニュアスAFを行う位置を、現在の追尾位置に更新し、コンティニュアスAFを行う。 In S608, the system control unit 201 updates the position where the continuous AF is performed to the current tracking position, and performs the continuous AF.

S609では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。 In S609, the system control unit 201 displays the tracking release guide on the rear display panel 101a. The tracking release guide is the same as that described in S512.

S610では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS611へ進み、そうでない場合は処理を終了する。 In S610, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the above-mentioned touch and drag AF setting is “Yes”. If it is set to "Yes", the process proceeds to S611, and if not, the process ends.

S611では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されていればS612へ進み、そうでない場合はS620へ進む。 In S611, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the setting of the AF position designation method described above is set to the absolute position designation. If the absolute position is set, the process proceeds to S612, and if not, the process proceeds to S620.

S612では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであれば共にS613へ進み、そうでない場合は(追尾モードであれば)S616へ進む。 In S612, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is a one-point AF, the process proceeds to S613, and if not, the process proceeds to S616 (in the tracking mode).

S613では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応するEVF101b上の位置に、一点AF枠を表示する。 In S613, the system control unit 201 displays a one-point AF frame at a position on the EVF 101b corresponding to the touchdown position on the touch panel 104a.

S614では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。 In S614, the system control unit 201 updates the position where continuous AF is performed to the current one-point AF frame position, and performs continuous AF.

S615では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。 In S615, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the EVF101b.

S616では、システム制御部201は、現在、被写体を追尾中か否かを判定する。追尾中であればS618へ進み、そうでない場合はS617へ進む。 In S616, the system control unit 201 determines whether or not the subject is currently being tracked. If tracking is in progress, the process proceeds to S618. If not, the process proceeds to S617.

S617では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。 In S617, the system control unit 201 releases the tracking of the subject and shifts to the tracking release state. As a result, the tracking frame 1138 is hidden.

S618では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応するEVF101b上の座標に、指定位置指標を表示する。すなわち、追尾実行中にタッチダウンがなされると追尾は解除され、代わりに、新たな追尾先を指定するために指定位置指標が表示される。図11(e)に、EVF101bにおける指定位置指標の表示例を示す。指定位置指標1139は、ユーザのタッチムーブ操作に応じて移動可能な指標(カーソル)であり、タッチ&ドラッグAF機能によるLV画像に対する現在の指定位置を示している。指定位置指標1139は、接眼状態かつタッチ操作中(タッチオン中)に表示され、非接眼状態、EVF101bが非表示の状態、タッチ&ドラッグAFが「しない」に設定されている場合には表示されない。また、指定位置指標1139は、EVF101bに表示され、背面表示パネル101aには表示されない。指定位置指標1139は、絶対位置指定に設定されている場合は、タッチパネル104aのタッチ位置に一意に対応づけられた位置に表示される。また、指定位置指標1139は、相対位置指定に設定されている場合には、タッチパネル104a上のタッチ位置がどこにあるかには関わらず、タッチムーブの方向と移動量に応じて現在位置から移動される。なお、指定位置指標1139の表示中にも、特定の被写体が検出されていれば、検出枠1136を表示する。 In S618, the system control unit 201 displays the designated position index at the coordinates on the EVF 101b corresponding to the touchdown position on the touch panel 104a. That is, if a touchdown is made during tracking execution, the tracking is canceled, and instead, a designated position index is displayed to specify a new tracking destination. FIG. 11 (e) shows a display example of the designated position index in EVF101b. The designated position index 1139 is an index (cursor) that can be moved according to the user's touch move operation, and indicates the current designated position with respect to the LV image by the touch and drag AF function. The designated position index 1139 is displayed in the eyepiece state and during the touch operation (during touch-on), and is not displayed in the non-eyepiece state, the EVF101b is in the non-display state, and the touch & drag AF is set to "No". Further, the designated position index 1139 is displayed on the EVF101b and is not displayed on the rear display panel 101a. When the designated position index 1139 is set to the absolute position designation, it is displayed at a position uniquely associated with the touch position of the touch panel 104a. Further, when the designated position index 1139 is set to the relative position designation, the designated position index 1139 is moved from the current position according to the direction and the amount of movement of the touch move regardless of where the touch position on the touch panel 104a is located. To. If a specific subject is detected even during the display of the designated position index 1139, the detection frame 1136 is displayed.

S619では、システム制御部201は、コンティニュアスAFを行う位置を、現在の被写体検出結果に基づく位置に更新し、コンティニュアスAFを行う。このコンティニュアスAFを行う位置は、指定位置指標1139に基づいた位置ではなく、デジタルカメラ100が自動的に主被写体と判定した被写体に基づく位置である。すなわち、追尾解除状態と同様のAF制御である。 In S619, the system control unit 201 updates the position where the continuous AF is performed to a position based on the current subject detection result, and performs the continuous AF. The position where the continuous AF is performed is not a position based on the designated position index 1139, but a position based on the subject automatically determined by the digital camera 100 as the main subject. That is, the AF control is the same as in the tracking release state.

S620では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであれば処理を終了し、そうでない場合は(追尾モードであれば)S621へ進む。 In S620, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is a one-point AF, the process ends, and if not, the process proceeds to S621 (in the tracking mode).

S621では、システム制御部201は、現在被写体を追尾中か否かを判定する。追尾中の場合S622へ進み、そうでない場合はS627へ進む。 In S621, the system control unit 201 determines whether or not the subject is currently being tracked. If tracking is in progress, the process proceeds to S622, otherwise the process proceeds to S627.

S622では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。すなわち、追尾実行中にタッチダウンがなされると追尾は解除され、代わりに、新たな追尾先を指定するために後述のS624で吸着中検出枠が表示されるか、S625で指定位置指標が表示される。 In S622, the system control unit 201 releases the tracking of the subject and shifts to the tracking release state. As a result, the tracking frame 1138 is hidden. That is, if a touchdown is performed during tracking execution, the tracking is canceled, and instead, the suction detection frame is displayed in S624 described later in order to specify a new tracking destination, or the designated position index is displayed in S625. Will be done.

S623では、システム制御部201は、追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置の近傍であるか(追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置から所定範囲以内であるか)否かを判定する。この判定では、例えば、顔(特定の被写体)が検出されている場合に、追尾解除時の追尾対象の範囲(追尾範囲)が検出されている顔(特定の被写体)の範囲と少なくとも一部重複している場合に、近傍であると判定する。また、顔(特定の被写体)が検出されている場合に、追尾解除時の追尾対象の範囲(追尾範囲)の中心が検出されている顔(特定の被写体)の範囲内である場合に、近傍であると判定してもよい。さらに、追尾していた対象が顔であったか否かの判定とし、追尾していた対象が顔であった場合にYESと判定してもよい。追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置の近傍であると判定した場合はS624に進み、そうでない場合はS625に進む。 In S623, the system control unit 201 detects whether the tracking position when the tracking is released is near the detection position of the face (specific subject) (the tracking position when the tracking is released is the detection of the face (specific subject)). Whether or not it is within a predetermined range from the position) is determined. In this determination, for example, when a face (specific subject) is detected, the range of the tracking target (tracking range) at the time of canceling tracking overlaps at least a part of the range of the detected face (specific subject). If it is, it is determined that it is in the vicinity. In addition, when a face (specific subject) is detected, if the center of the tracking target range (tracking range) at the time of canceling tracking is within the detected face (specific subject), the neighborhood It may be determined that. Further, it may be determined whether or not the tracked target is a face, and if the tracked target is a face, it may be determined as YES. If it is determined that the tracking position when the tracking is released is near the detection position of the face (specific subject), the process proceeds to S624, and if not, the process proceeds to S625.

S624では、システム制御部201は、S623で追尾解除時の追尾位置の近傍と判定された、検出されている顔(特定の被写体)を示す範囲に、吸着中検出枠1140を表示する。 In S624, the system control unit 201 displays the suction detection frame 1140 in the range indicating the detected face (specific subject) determined in S623 to be near the tracking position at the time of canceling the tracking.

S625では、システム制御部201は、追尾を解除する直前まで追尾枠を表示していたEVF101b上の座標に、指定位置指標1139を表示する。 In S625, the system control unit 201 displays the designated position index 1139 at the coordinates on the EVF101b that displayed the tracking frame until immediately before the tracking is released.

S626では、システム制御部201は、S619と同様に、コンティニュアスAFを行う位置を、指定位置指標の位置に関わらず、現在の被写体検出結果に基づいた位置に更新し、コンティニュアスAFを行う。 In S626, the system control unit 201 updates the position for performing continuous AF to a position based on the current subject detection result regardless of the position of the designated position index, and performs continuous AF, as in S619. Do.

S627では、システム制御部201は、EVF101bに、指定位置指標1139を表示中であるか否かを判定する。追尾モードで相対位置指定に設定されている場合には、後述するタッチアップ処理の際に、指定位置指標1139の位置で検出された被写体に吸着していなかった場合は、タッチアップ後も追尾対象を確定せずに指定位置指標1139が所定時間表示されたままとなる。これによって、相対位置指定によって、指定位置指標1139を、何回かに分けた連続したタッチによるタッチムーブ操作で所望の位置まで移動させることが可能である。 In S627, the system control unit 201 determines whether or not the designated position index 1139 is being displayed on the EVF101b. When the relative position is specified in the tracking mode, if the subject is not attracted to the subject detected at the position of the specified position index 1139 during the touch-up process described later, the tracking target is also after the touch-up. The designated position index 1139 remains displayed for a predetermined time without confirming. Thereby, by the relative position designation, the designated position index 1139 can be moved to a desired position by the touch move operation by the continuous touch divided into several times.

S627では、システム制御部201は、指定位置指標1139が表示中であるか否かを判定する。表示中の場合はS629に進み、そうでない場合はS628に進む。 In S627, the system control unit 201 determines whether or not the designated position index 1139 is being displayed. If it is displayed, the process proceeds to S629. If not, the process proceeds to S628.

S628では、システム制御部201は、EVF101bに表示されたLV画像の中央に、指定位置指標1139を表示する。すなわち、相対位置指定では、指定位置指標1139が表示されていない状態でタッチダウンされると、タッチダウン位置に関わらず、初期位置(中央)に指定位置指標1139が表示される。 In S628, the system control unit 201 displays the designated position index 1139 in the center of the LV image displayed on the EVF101b. That is, in the relative position designation, if the designated position index 1139 is not displayed and the touchdown is performed, the designated position index 1139 is displayed at the initial position (center) regardless of the touchdown position.

<タッチムーブ処理>
次に、図7を用いて、図3のS314におけるタッチムーブ処理の詳細を説明する。
<Touch move processing>
Next, the details of the touch move process in S314 of FIG. 3 will be described with reference to FIG. 7.

S701では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルである場合はS702へ進み、そうでない場合はS706へ進む。 In S701, the system control unit 201 determines whether or not the display destination is the rear display panel 101a. If it is a rear display panel, the process proceeds to S702, otherwise the process proceeds to S706.

S702では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFの場合はS703へ進み、そうでない場合は(追尾モードであれば)処理を終了する。すなわち、表示先が背面表示パネル101aで追尾モードである場合には、タッチムーブに応じた追尾対象の変更や、タッチムーブに応じた位置へのAFは行わない。S606乃至S608で前述した通り、追尾対象はタッチダウン位置に基づいて確定されており、その後タッチが継続してタッチムーブが行われても、タッチダウン位置に基づいて決定した追尾対象の追尾が継続される。 In S702, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. In the case of one-point AF, the process proceeds to S703, and if not, the process ends (in the tracking mode). That is, when the display destination is the rear display panel 101a and the tracking mode is set, the tracking target is not changed according to the touch move, and AF is not performed at the position corresponding to the touch move. As described above in S606 to S608, the tracking target is determined based on the touchdown position, and even if the touch is continued and the touch move is performed thereafter, the tracking target determined based on the touchdown position continues. Will be done.

S703では、システム制御部201は、タッチパネル104a上のタッチムーブ後の位置に対応する背面表示パネル101a上の座標に一点AF枠を表示する。 In S703, the system control unit 201 displays a one-point AF frame at the coordinates on the rear display panel 101a corresponding to the position after the touch move on the touch panel 104a.

S704では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠の位置に更新し、コンティニュアスAFを行う。 In S704, the system control unit 201 updates the position where the continuous AF is performed to the position of the current one-point AF frame, and performs the continuous AF.

S705では、システム制御部201は、一点AF枠の位置を中央に戻すガイドを背面表示パネル101aに表示する。中央に戻すガイドは、S605で説明したものと同様である。 In S705, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the rear display panel 101a. The guide for returning to the center is the same as that described in S605.

S706では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS707へ進み、「しない」に設定されている場合は処理を終了する。 In S706, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the above-mentioned touch and drag AF setting is “Yes”. If it is set to "Yes", the process proceeds to S707, and if it is set to "No", the process ends.

S707では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS708へ進み、そうでない場合は(相対位置指定であれば)S715へ進む。 In S707, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the setting of the AF position designation method described above is set to the absolute position designation. If the absolute position is set, the process proceeds to S708. If not, the process proceeds to S715 (if the relative position is specified).

S708では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFである場合はS709へ進み、そうでない場合はS712へ進む。 In S708, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is a one-point AF, the process proceeds to S709, and if not, the process proceeds to S712.

S709では、システム制御部201は、タッチパネル104a上のタッチムーブ後の位置に対応するEVF101b上の座標に一点AF枠を表示する。 In S709, the system control unit 201 displays a one-point AF frame at the coordinates on the EVF 101b corresponding to the position after the touch move on the touch panel 104a.

S710では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。 In S710, the system control unit 201 updates the position where continuous AF is performed to the current one-point AF frame position, and performs continuous AF.

S711では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。中央に戻すガイドは、S605で説明したものと同様である。 In S711, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the EVF101b. The guide for returning to the center is the same as that described in S605.

S712では、システム制御部201は、タッチパネル104a上のタッチムーブ後のタッチ位置に対応するEVF101b上の座標(LV画像上の指定位置)が、検出された被写体の近傍であるか否かを判定する。すなわち、LV画像上の指定位置が、検出された被写体の位置から所定範囲以内であるか否かを判定する。この判定は、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)内である場合に近傍であると判定するものとする。また、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)の外側である場合に、近傍ではないと判定するものとする。また、顔(特定の被写体)が検出されていない場合も、近傍ではないと判定するものとする。なお、近傍の判定はこれに限られない。例えば、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)を所定倍(例えば1.5倍)した範囲内に収まっている場合に近傍と判定してもよい。また、顔(特定の被写体)が検出されている場合に、タッチムーブによって移動された指定位置指標1139が示す範囲が、表示されている検出枠1136(顔検出枠)の範囲と少なくとも一部重なる位置となる場合に、近傍と判定してもよい。近傍である場合はS713へ進み、そうでない場合はS714へ進む。 In S712, the system control unit 201 determines whether or not the coordinates (designated position on the LV image) on the EVF 101b corresponding to the touch position after the touch move on the touch panel 104a are in the vicinity of the detected subject. .. That is, it is determined whether or not the designated position on the LV image is within a predetermined range from the position of the detected subject. This determination is made when the face (specific subject) is detected and the coordinates on the EVF101b corresponding to the touch position after the touch move are within the displayed detection frame 1136 (face detection frame). It shall be determined that it is in the vicinity. Further, when a face (specific subject) is detected, the coordinates on the EVF101b corresponding to the touch position after the touch move are outside the displayed detection frame 1136 (face detection frame). It shall be determined that it is not in the vicinity. Further, even when the face (specific subject) is not detected, it is determined that the face (specific subject) is not in the vicinity. The determination of the neighborhood is not limited to this. For example, when a face (a specific subject) is detected, the coordinates on the EVF101b corresponding to the touch position after the touch move are a predetermined times (for example, 1.) the displayed detection frame 1136 (face detection frame). If it is within the range (5 times), it may be determined to be in the vicinity. Further, when a face (a specific subject) is detected, the range indicated by the designated position index 1139 moved by the touch move overlaps at least a part of the range of the displayed detection frame 1136 (face detection frame). When it becomes a position, it may be determined to be in the vicinity. If it is in the vicinity, the process proceeds to S713, and if not, the process proceeds to S714.

S713では、システム制御部201は、EVF101bに表示されている検出枠1136と指定位置指標1139を非表示にし、吸着中検出枠1140を表示する。図11(f)に吸着中検出枠1140の表示例を示す。吸着中検出枠1140はLV画像に重畳して表示され、この状態でタッチアップがなされると、吸着中検出枠1140で囲まれた被写体が追尾対象となることを示している。吸着中検出枠1140は、タッチアップすると追尾対象となることを示すため、追尾枠1138と同様の形状で表示されるが、追尾枠1138との違いが識別可能なように、追尾枠1138と異なる色で表示される。吸着中検出枠1140の表示形態はこの例に限るものではなく、追尾中ではないがタッチアップされると追尾が開始されることが識別可能な表現であればよい。例えば、指定位置指標1139を表示したまま、追尾可能アイコンや追尾可能ガイドを表示したり、指定位置指標1139の色だけを変えるなど、他の表現で示してもよい。 In S713, the system control unit 201 hides the detection frame 1136 and the designated position index 1139 displayed on the EVF 101b, and displays the suction detection frame 1140. FIG. 11F shows a display example of the adsorption detection frame 1140. The adsorption detection frame 1140 is displayed superimposed on the LV image, and when touch-up is performed in this state, it indicates that the subject surrounded by the adsorption detection frame 1140 becomes the tracking target. The suction detection frame 1140 is displayed in the same shape as the tracking frame 1138 to indicate that it becomes a tracking target when touched up, but is different from the tracking frame 1138 so that the difference from the tracking frame 1138 can be identified. Displayed in color. The display form of the adsorption detection frame 1140 is not limited to this example, and any expression may be used as long as it is not during tracking but can be identified that tracking is started when touched up. For example, while the designated position index 1139 is displayed, the tracking icon or the tracking guide may be displayed, or only the color of the designated position index 1139 may be changed.

S714では、システム制御部201は、タッチパネル104a上のタッチムーブ後のタッチ位置に対応するEVF101b上の座標に、指定位置指標1139を表示する。 In S714, the system control unit 201 displays the designated position index 1139 at the coordinates on the EVF 101b corresponding to the touch position after the touch move on the touch panel 104a.

S715では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであればS716へ進み、そうでない場合は(追尾モードであれば)S719へ進む。 In S715, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is a one-point AF, the process proceeds to S716, and if not, the process proceeds to S719 (in the tracking mode).

S716では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた位置に対応するEVF101b上の座標に、一点AF枠を表示する。なお、この位置は、相対位置指定であるため、タッチ位置に一意に対応する位置ではない。 In S716, the system control unit 201 displays a one-point AF frame at the coordinates on the EVF 101b corresponding to the moving direction and the position corresponding to the moving amount of the touch move operation on the touch panel 104a. Since this position is a relative position designation, it is not a position uniquely corresponding to the touch position.

S717では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。 In S717, the system control unit 201 updates the position where continuous AF is performed to the current one-point AF frame position, and performs continuous AF.

S718では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。中央に戻すガイドは、S605で説明したものと同様である。 In S718, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the EVF101b. The guide for returning to the center is the same as that described in S605.

S719では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた位置に対応するEVF101b上の座標(LV画像上の指定位置)が、検出された被写体の近傍であるか否かを判定する。この判定は、前述したS712の判定と同様の判定であるが、検出枠1136(顔検出枠)との比較対象は、絶対位置指定ではないため、タッチムーブ後のタッチ位置に一意に対応する位置ではなく、相対位置指定によって指定された位置である。近傍であると判定された場合はS720へ進み、そうでない場合はS721へ進む。 In S719, the system control unit 201 has coordinates (designated positions on the LV image) on the EVF 101b corresponding to the movement direction and the position corresponding to the movement amount of the touch move operation on the touch panel 104a in the vicinity of the detected subject. Determine if it exists. This determination is the same as the determination of S712 described above, but since the comparison target with the detection frame 1136 (face detection frame) is not an absolute position designation, a position uniquely corresponding to the touch position after the touch move. Not the position specified by relative position specification. If it is determined to be in the vicinity, the process proceeds to S720, and if not, the process proceeds to S721.

S720では、システム制御部201は、S713と同様に、EVF101bに表示されている検出枠1136と指定位置指標1139を非表示にし、吸着中検出枠1140を表示する。 In S720, the system control unit 201 hides the detection frame 1136 and the designated position index 1139 displayed on the EVF101b and displays the suction detection frame 1140, similarly to S713.

S721では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた指定位置に対応するEVF101b上の座標に、指定位置指標1139を表示する(指標の表示位置変更処理)。この状態で指定位置指標1139の位置でコンティニュアスAFは行われず、現在の被写体検出結果に基づいた位置でコンティニュアスAFが行われる。なお、この状態ではAF動作を停止する(AFを行わない)ようにしても良い。 In S721, the system control unit 201 displays the designated position index 1139 at the coordinates on the EVF 101b corresponding to the movement direction and the movement amount of the touch move operation on the touch panel 104a (index display position change processing). ). In this state, continuous AF is not performed at the position of the designated position index 1139, but continuous AF is performed at the position based on the current subject detection result. In this state, the AF operation may be stopped (AF may not be performed).

<タッチアップ処理>
次に、図8を用いて、図3のS316におけるタッチアップ処理の詳細を説明する。
<Touch-up processing>
Next, the details of the touch-up process in S316 of FIG. 3 will be described with reference to FIG.

S801では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであれば処理を終了し、そうでない場合はS802へ進む。 In S801, the system control unit 201 determines whether or not the display destination is the rear display panel 101a. If it is the rear display panel, the process ends, and if not, the process proceeds to S802.

S802では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS803へ進み、そうでない場合は処理を終了する。 In S802, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the above-mentioned touch and drag AF setting is “Yes”. If it is set to "Yes", the process proceeds to S803, and if not, the process ends.

S803では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS804へ進み、そうでない場合はS809へ進む。 In S803, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the setting of the AF position designation method described above is set to the absolute position designation. If the absolute position is set, the process proceeds to S804, and if not, the process proceeds to S809.

S804では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであれば処理を終了し、そうでない場合は(追尾モードである場合は)S805へ進む。 In S804, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is the one-point AF mode, the process ends, and if not, the process proceeds to S805 (in the case of the tracking mode).

S805では、システム制御部201は、タッチパネル104a上のタッチアップ位置に対応するEVF101b上の座標(指定位置)に基づき、指定位置の近傍で検出された被写体の追尾を開始する(追尾中となる)。 In S805, the system control unit 201 starts tracking a subject detected in the vicinity of the designated position based on the coordinates (designated position) on the EVF 101b corresponding to the touch-up position on the touch panel 104a (tracking is in progress). ..

S806では、システム制御部201は、EVF101bに表示されたLV画像における追尾している被写体を示す範囲に、追尾枠1138を表示する。 In S806, the system control unit 201 displays the tracking frame 1138 in the range indicating the subject being tracked in the LV image displayed on the EVF101b.

S807では、システム制御部201は、コンティニュアスAFを行う位置を、現在の追尾位置に更新し、コンティニュアスAFを行う。 In S807, the system control unit 201 updates the position where the continuous AF is performed to the current tracking position, and performs the continuous AF.

S808では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。 In S808, the system control unit 201 displays the tracking release guide on the rear display panel 101a. The tracking release guide is the same as that described in S512.

S809では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであれば処理を終了し、そうでない場合は(追尾モードであれば)S810へ進む。 In S809, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is the one-point AF mode, the process ends, and if not, the process proceeds to S810 (in the tracking mode).

S810では、システム制御部201は、EVF101bに吸着中検出枠1140が表示されているか否かを判定する。表示されていればS813へ進み、そうでない場合はS811へ進む。 In S810, the system control unit 201 determines whether or not the adsorption detection frame 1140 is displayed on the EVF 101b. If it is displayed, the process proceeds to S813. If not, the process proceeds to S811.

S811では、システム制御部201は、操作部104に対して追尾確定待ちを中断する操作がなされたか否かを判定する。追尾確定待ちを中断する操作は、例えば、新しいタッチダウンや、操作部104に含まれるメニューボタンの押下による他の画面(メニュー画面)の表示指示などである。中断する操作がなされた場合は処理を終了し、そうでない場合はS812へ進む。なお、新しいタッチダウンがあった場合は、図3のS311で改めてタッチダウンがあったと判定され、図6のS627で、指定位置指標1139の表示中のタッチダウンがあったと判定される。 In S811, the system control unit 201 determines whether or not the operation unit 104 has been operated to interrupt the tracking confirmation wait. The operation of interrupting the tracking confirmation wait is, for example, a new touchdown, a display instruction of another screen (menu screen) by pressing a menu button included in the operation unit 104, or the like. If the operation to be interrupted is performed, the process is terminated, and if not, the process proceeds to S812. When there is a new touchdown, it is determined that there was a touchdown again in S311 of FIG. 3, and it is determined that there was a touchdown during display of the designated position index 1139 in S627 of FIG.

S812では、システム制御部201は、タッチアップを検出してから所定時間経過したか否かを判定する。所定時間は、ユーザが引き続き指定位置指標1139を移動させるために、連続した一連のタッチ操作における次の新たなタッチを行うまでの時間として十分であればよく、例えば1秒程度である。所定時間経過した場合はS813へ進み、そうでない場合はS811へ戻る。 In S812, the system control unit 201 determines whether or not a predetermined time has elapsed since the touch-up was detected. The predetermined time may be sufficient as the time until the next new touch in the continuous series of touch operations is performed in order for the user to continuously move the designated position index 1139, for example, about 1 second. If the predetermined time has elapsed, the process proceeds to S813, and if not, the process returns to S811.

S813では、システム制御部201は、EVF101b上に表示された指定位置指標1139の位置に基づき、指定位置指標1139の近傍で検出された被写体の追尾を開始する(追尾中となる)。 In S813, the system control unit 201 starts tracking the subject detected in the vicinity of the designated position index 1139 based on the position of the designated position index 1139 displayed on the EVF 101b (tracking is in progress).

S814からS816の処理は、S806〜S808の処理と同様であるので説明を省略する。 Since the processes of S814 to S816 are the same as the processes of S806 to S808, the description thereof will be omitted.

上述したように、AFモードが追尾モードかつ位置指定方法が相対位置指定である場合、タッチ&ドラッグAF機能により指定位置指標1139をLV画像上の任意の位置へ移動する際に、タッチアップ後所定時間経過後に追尾対象の被写体の確定を行う。 As described above, when the AF mode is the tracking mode and the position designation method is the relative position designation, when the designated position index 1139 is moved to an arbitrary position on the LV image by the touch and drag AF function, it is predetermined after touch-up. After the lapse of time, the subject to be tracked is confirmed.

このような形態としているのは、追尾モードでは、ある被写体から別の被写体へAF位置を移動させている途中にAFが開始されてしまうと、例えば背景にピントが合ってしまい追尾したい被写体がボケて検出されなくなってしまう不都合を防止するためである。 In the tracking mode, if AF is started while the AF position is being moved from one subject to another, for example, the background will be in focus and the subject to be tracked will be out of focus. This is to prevent the inconvenience of not being detected.

また、位置指定方法が相対位置指定方式の場合は、ユーザが指定位置指標を所望の被写体へ移動させるために、複数回タッチムーブ操作を行うことが想定されるため、タッチアップ後すぐに被写体の追尾が開始されてしまうと操作性が良くない。一方で、タッチアップ後にすぐに追尾を開始するようユーザが別途指示することも操作の手間が増えるために好ましくない。このような課題を解決するため、図7のS721や図8のS811、S812のような形態としている。 Further, when the position designation method is the relative position designation method, it is assumed that the user performs the touch move operation multiple times in order to move the designated position index to the desired subject, so that the subject is immediately touched up. Operability is not good once tracking is started. On the other hand, it is not preferable for the user to separately instruct the user to start tracking immediately after the touch-up because the operation is troublesome. In order to solve such a problem, the form is as shown in S721 in FIG. 7 and S811 and S812 in FIG.

また、既に指定位置指標が検出された被写体まで到達している(吸着中検出枠表示となっている)場合には、ユーザが所望の被写体まで指定位置指標を移動できたと想定し、確定まで所定時間経過を待たずにすぐに追尾被写体の確定を行うようにしている。これによって、追尾したい被写体が動いている場合にも追尾対象として指定しやすくなる。 In addition, when the designated position index has already reached the detected subject (the detection frame is displayed during adsorption), it is assumed that the user has been able to move the designated position index to the desired subject, and the designated position index is determined until confirmation. The tracking subject is confirmed immediately without waiting for the passage of time. This makes it easier to specify the subject to be tracked even when the subject to be tracked is moving.

<タッチキャンセル処理>
次に、図9を用いて、図3のS318におけるタッチキャンセル処理の詳細を説明する。
<Touch cancel processing>
Next, the details of the touch cancel process in S318 of FIG. 3 will be described with reference to FIG.

S901では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS911へ進み、そうでない場合はS902へ進む。 In S901, the system control unit 201 determines whether or not the display destination is the rear display panel 101a. If it is a rear display panel, proceed to S911, otherwise proceed to S902.

S902では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS903へ進み、そうでない場合はS911へ進む。 In S902, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the above-mentioned touch and drag AF setting is "Yes". If it is set to "Yes", the process proceeds to S903. If not, the process proceeds to S911.

S903では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードである場合はS911へ進み、そうでない場合はS904へ進む。 In S903, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is in the one-point AF mode, the process proceeds to S911, and if not, the process proceeds to S904.

S904では、システム制御部201は、EVF101bに指定位置指標1139を表示中か否かを判定する。表示中の場合はS905へ進み、そうでない場合はS911へ進む。 In S904, the system control unit 201 determines whether or not the designated position index 1139 is being displayed on the EVF101b. If it is displayed, the process proceeds to S905, and if not, the process proceeds to S911.

S905では、システム制御部201は、タッチキャンセル操作がシャッターボタン102の半押しによる第1シャッタースイッチ102aのオン(SW1オン)であったか否かを判定する。SW1オンであった場合はS906へ進み、そうでない場合はS907へ進む。 In S905, the system control unit 201 determines whether or not the touch cancel operation is the on (SW1 on) of the first shutter switch 102a by half-pressing the shutter button 102. If SW1 is on, the process proceeds to S906, otherwise the process proceeds to S907.

S906では、システム制御部201は、指定位置指標1109を非表示とする。S907では、システム制御部201は、EVF101b上に表示された指定位置指標1139の位置に基づき、指定位置指標1139の近傍で検出された被写体の追尾を開始する(追尾中となる)。この処理は図8のS813と同様である。すなわち、タッチキャンセル操作があると、タッチされたままであっても、SW1オンによる撮影準備指示があった場合には、その時点の指定位置指標1139の位置に基づいて追尾対象を確定し、追尾を開始すると共に、追尾位置で撮影準備処理が行われる。これにより、タッチアップを行わなくとも、指定位置指標1139が所望の被写体の位置となった時点で速やかに所望の被写体にAFを合わせた撮影を行うことが可能となる。タッチされたまま第1シャッタースイッチ102a以外の操作があった場合は、追尾対象を確定することなく、追尾解除状態のまま、タッチ操作をキャンセルする。 In S906, the system control unit 201 hides the designated position index 1109. In S907, the system control unit 201 starts tracking the subject detected in the vicinity of the designated position index 1139 based on the position of the designated position index 1139 displayed on the EVF 101b (tracking is in progress). This process is the same as S813 in FIG. That is, if there is a touch cancel operation, even if it is still touched, if there is a shooting preparation instruction by turning on SW1, the tracking target is determined based on the position of the designated position index 1139 at that time, and tracking is performed. As soon as it starts, the shooting preparation process is performed at the tracking position. As a result, it is possible to quickly perform shooting with AF adjusted to the desired subject when the designated position index 1139 reaches the position of the desired subject without touching up. If there is an operation other than the first shutter switch 102a while being touched, the touch operation is canceled while the tracking target is not fixed and the tracking is released.

S908から909の処理は、図8のS806からS808と同様であるので説明を省略する。S911では、システム制御部201は、図8のタッチアップ処理を行う。 Since the processing of S908 to 909 is the same as that of S806 to S808 of FIG. 8, the description thereof will be omitted. In S911, the system control unit 201 performs the touch-up process of FIG.

なお、図8で説明したS811における追尾確定待ちを中断する操作と、S905でYESとなるタッチされている途中でも追尾を開始する操作は、前述した例に限らない。操作部104に含まれる他の操作部材の操作でもよいし、ユーザの接眼/離眼による背面表示パネル101a/EVF101bの表示先の切り替えをトリガーとして追尾確定待ちの中断や追尾開始をしてもよい。 The operation of interrupting the tracking confirmation wait in S811 described with reference to FIG. 8 and the operation of starting tracking even while being touched to be YES in S905 are not limited to the above-mentioned examples. The operation of other operation members included in the operation unit 104 may be performed, or the switching of the display destination of the rear display panel 101a / EVF101b by the user's eyepiece / eyepiece may be used as a trigger to interrupt the tracking confirmation wait or start tracking. ..

<枠ボタン処理>
次に、図10を用いて、図3のS320における枠ボタン処理の詳細を説明する。
<Frame button processing>
Next, the details of the frame button processing in S320 of FIG. 3 will be described with reference to FIG.

S1001では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであればS1002へ進み、そうでない場合は(追尾モードであれば)S1005へ進む。 In S1001, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the AF mode is the one-point AF mode. If it is a one-point AF, the process proceeds to S1002, and if not, the process proceeds to S1005 (in the tracking mode).

S1002では、システム制御部201は、操作部104に含まれる枠ボタンが長押しされたか(所定時間以上押下され続けたか)否かを判定する。長押しされた場合はS1004へ進み、そうでない場合はS1003へ進む。 In S1002, the system control unit 201 determines whether or not the frame button included in the operation unit 104 has been pressed for a long time (whether it has been continuously pressed for a predetermined time or longer). If it is pressed and held, the process proceeds to S1004, otherwise the process proceeds to S1003.

S1003では、システム制御部201は、一点AF枠の位置を変更可能な枠移動モードへ遷移する。このモードでは、これまで述べてきたタッチパネル104aによる操作以外に、操作部104に含まれる上下左右ボタンやコントローラホイール106の操作に応じて、一点AF枠の移動を行うことが可能である。また、任意の位置でLV画像の拡大を行うことも可能である。 In S1003, the system control unit 201 shifts to the frame movement mode in which the position of the one-point AF frame can be changed. In this mode, in addition to the operation by the touch panel 104a described so far, it is possible to move the one-point AF frame in response to the operation of the up / down / left / right buttons and the controller wheel 106 included in the operation unit 104. It is also possible to enlarge the LV image at an arbitrary position.

S1004では、システム制御部201は、一点AF枠の位置を中央に戻す。S1005では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS1006へ進み、そうでない場合はS1007へ進む。 In S1004, the system control unit 201 returns the position of the one-point AF frame to the center. In S1005, the system control unit 201 determines whether or not the display destination is the rear display panel 101a. If it is a rear display panel, proceed to S1006, and if not, proceed to S1007.

S1006では、システム制御部201は、顔セレクトモードに遷移する。顔セレクトモードは、現在検出されている被写体の中で最も主顔に相応しいものを追尾する機能である。 In S1006, the system control unit 201 shifts to the face select mode. The face select mode is a function for tracking the subject most suitable for the main face among the currently detected subjects.

S1007では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法が絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS1008へ進み、そうでない場合はS1006へ進む。 In S1007, the system control unit 201 refers to the setting information held in the system memory 212, and determines whether or not the AF position designation method described above is set to the absolute position designation. If the absolute position is set, the process proceeds to S1008, and if not, the process proceeds to S1006.

S1008では、システム制御部201は、被写体を追尾中か否かを判定する。追尾中の場合はS1009へ進み、そうでない場合はS1006へ進む。 In S1008, the system control unit 201 determines whether or not the subject is being tracked. If tracking is in progress, the process proceeds to S1009, and if not, the process proceeds to S1006.

S1009では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。 In S1009, the system control unit 201 releases the tracking of the subject and shifts to the tracking release state. As a result, the tracking frame 1138 is hidden.

S1010では、システム制御部201は、図6のS619と同様に、コンティニュアスAFを行う位置を、現在の被写体検出結果に基づいた位置に更新し、コンティニュアスAFを行う。 In S1010, the system control unit 201 updates the position where continuous AF is performed to a position based on the current subject detection result, and performs continuous AF, as in S619 in FIG.

なお、ここまでEVF101bを例に説明したが、EVF101bではなく、光学ファインダーを備えた撮像装置にも本発明を適用可能である。その場合、以下のように置き換えて適用する。接眼検知部219は光学ファインダーの接眼部への接眼を検知する。接眼状態では、背面表示パネル101aを非表示とし、光学ファインダー内に備えられた情報表示用の液晶表示素子などの駆動を開始する。なお、光学ファインダー内の表示素子は非接眼状態で表示していてもよい。背面表示パネル101aには、非接眼状態でLV画像を表示していなくてもよく、LV画像以外の情報表示をしていたり、非表示としていてもよい。ただしタッチ&ドラッグAFが「する」に設定されている場合はタッチパネル104aは駆動しておくものとする。光学ファインダー内には、接眼状態でもLV画像は表示されず、代わりに光学像が視認できる。接眼状態において表示するものとして説明した、追尾枠、指定位置指標、吸着中検出枠は、光学ファインダー内において、光学像に重ねて予め定められた複数の表示素子によって表示する。検出枠は表示しても表示しなくてもよい。 Although the EVF101b has been described as an example so far, the present invention can be applied not to the EVF101b but also to an image pickup apparatus provided with an optical viewfinder. In that case, replace and apply as follows. The eyepiece detection unit 219 detects the eyepiece of the optical viewfinder to the eyepiece. In the eyepiece state, the rear display panel 101a is hidden, and the driving of the liquid crystal display element for information display provided in the optical viewfinder is started. The display element in the optical viewfinder may be displayed in a non-eyepiece state. The rear display panel 101a may not display the LV image in the non-eyepiece state, and may display or hide information other than the LV image. However, when the touch & drag AF is set to "Yes", the touch panel 104a shall be driven. The LV image is not displayed in the optical viewfinder even in the eyepiece state, and the optical image can be visually recognized instead. The tracking frame, the designated position index, and the adsorption detection frame described as being displayed in the eyepiece state are displayed by a plurality of predetermined display elements superimposed on the optical image in the optical viewfinder. The detection frame may or may not be displayed.

なお、ここまで述べた枠表現は、状況に応じて大きさが可変であってもよく、また一枠で構成されていなくてもよい。例えば光学ファインダーなど、予め表示部上に複数のAF点が表示されている場合には、タッチ位置を示す際にはタッチした指の位置および面積に応じて、複数のAF点の色を変更するなどして、タッチ位置を示すようにしてもよい。 The frame representation described so far may be variable in size depending on the situation, and may not be composed of one frame. For example, when a plurality of AF points are displayed on the display unit in advance such as in an optical viewfinder, the colors of the plurality of AF points are changed according to the position and area of the touched finger when indicating the touch position. The touch position may be indicated by such means.

また、S811の追尾確定までの待ち時間の長さは、ユーザが変更できてもよいし、撮影シーンに応じて自動で変更されてもよい。例えば、LV画像から動体の検出が可能である場合に動体の被写体が検出されている場面では、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定するようにしてもよい。もしくは、姿勢検知部218からの出力や、LV画像の時間軸相関の解析によりデジタルカメラ100自体が動いていると判定される場面では、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定するようにしてもよい。これらの場面では、ユーザはLV画像上で動体を追尾したいと考えていると想定できるためである。また、動きの多い被写体を撮影することを想定した撮影モードに設定されている場合、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定してもよい。動きの多い被写体を撮影することを想定した撮影モードは例えば、複数のシーン別撮影モードのうち、スポーツ撮影モード(前述)、打ち上げ花火モード、ペット(動物)撮影モード、子供(キッズ)撮影モードがある。また、動きの多い被写体を撮影することを想定した撮影モードではない撮影モード(動きの少ない被写体を撮影する撮影モード)としては例えば、ポートレート撮影モード、花撮影モード、料理撮影モード、オークション出品商品撮影モード、風景撮影モードがある。 Further, the length of the waiting time until the tracking confirmation of S811 may be changed by the user, or may be automatically changed according to the shooting scene. For example, in a scene where a moving object is detected when the moving object can be detected from the LV image, the tracking target is immediately determined even if the suction detection frame is not displayed according to the touch-up. May be good. Alternatively, in a scene where it is determined that the digital camera 100 itself is moving by the output from the attitude detection unit 218 or the analysis of the time axis correlation of the LV image, the suction detection frame may not be displayed in response to the touch-up. The tracking target may be determined immediately. This is because in these situations, it can be assumed that the user wants to track a moving object on the LV image. Further, when the shooting mode is set on the assumption that a subject with a lot of movement is shot, the tracking target may be determined immediately even if the suction detection frame is not displayed according to the touch-up. Shooting modes that assume shooting a subject with a lot of movement include, for example, sports shooting mode (described above), fireworks mode, pet (animal) shooting mode, and child (kids) shooting mode among multiple scene-specific shooting modes. .. In addition, as a shooting mode (shooting mode for shooting a subject with little movement) that is not a shooting mode assuming shooting of a subject with a lot of movement, for example, a portrait shooting mode, a flower shooting mode, a cooking shooting mode, an auction item There are shooting mode and landscape shooting mode.

また反対に、動画撮影時(動画の記録時)に誤って所望でない被写体を追尾してしまうことで、ピントが所望でない被写体に合ってしまうと、所望でない被写体にピントがあった状態も記録されてしまい、望ましくない。従って、動画撮影中(動画の記録中)は、ピントが意図しない被写体に合うことをより確実に防ぐため、被写体検出位置に指定位置指標を移動させた場合も、タッチアップから追尾確定まで所定時間待つこととしてもよい。この場合、指定位置指標の位置が被写体検出位置であるか否かに応じて、待つ時間に差を設け、指定位置指標の位置が被写体検出位置である場合のほうが確定待ち時間を短くしてもよい。 On the other hand, if an undesired subject is accidentally tracked when shooting a moving image (when recording a moving image) and the undesired subject is in focus, the undesired subject is also recorded. It is not desirable. Therefore, during movie shooting (during movie recording), in order to more reliably prevent the focus from focusing on an unintended subject, even if the designated position index is moved to the subject detection position, it takes a predetermined time from touch-up to tracking confirmation. You may wait. In this case, a difference is provided in the waiting time depending on whether or not the position of the designated position index is the subject detection position, and even if the fixed waiting time is shorter when the position of the designated position index is the subject detection position. Good.

なお、追尾確定時や、指定位置指標の検出枠への吸着時に、「近傍」という表現を用いたが、どの程度接近していたら各処理を行うかの閾値は、ユーザが変更できてもよいし、撮影シーンに応じて自動で変更されてもよい。例えば動体撮影を行うシーン、および動体撮影前提の撮影モード時には、動く被写体を捉えにくいと判断し、被写体から指定位置指標が通常よりも遠く離れていても、近傍と判定されるようにしてもよい。 Although the expression "neighborhood" is used when tracking is confirmed or when the designated position index is adsorbed to the detection frame, the user may be able to change the threshold value for performing each process when they are close to each other. However, it may be changed automatically according to the shooting scene. For example, in a scene where moving object shooting is performed or in a shooting mode premised on moving body shooting, it may be determined that it is difficult to capture a moving subject, and even if the designated position index is farther than usual from the subject, it may be determined to be in the vicinity. ..

<タッチ&ドラッグAF機能による画面表示例>
次に、図13(a)から図13(f2)を用いて、タッチ&ドラッグAF機能によって、LV画像中の右側の花の位置を追尾している状態から、左側の人物に追尾対象を変更しようとしてユーザがタッチムーブを行った場合の動作の一例を説明する。
<Screen display example using touch and drag AF function>
Next, using FIGS. 13 (a) to 13 (f2), the tracking target is changed from the state of tracking the position of the flower on the right side in the LV image to the person on the left side by the touch and drag AF function. An example of the operation when the user performs a touch move in an attempt will be described.

図13(a)から図13(c)、図13(d2)、図13(e2)、図13(f2)は、本実施形態における動作例を示している。図13(d1)、図13(e1)、図13(f1)は、本実施形態を適用しない場合の動作例を示しており、本実施形態の効果を説明するための比較である。図13(a)から図13(f2)の各図は、以下の状態であるものとする。
タッチ&ドラッグAF:「する」
位置指定方法:相対位置指定
タッチ反応領域:全面
接眼/非接眼:接眼状態
13 (a) to 13 (c), 13 (d2), 13 (e2), and 13 (f2) show operation examples in this embodiment. 13 (d1), 13 (e1), and 13 (f1) show an operation example when the present embodiment is not applied, and are comparisons for explaining the effect of the present embodiment. It is assumed that each of FIGS. 13 (a) to 13 (f2) is in the following state.
Touch & Drag AF: "Yes"
Position designation method: Relative position designation Touch reaction area: Full eyepiece / non-eyepiece: Eyepiece state

図13(a)は、タッチがなされていない(タッチオフ)である場合に、追尾中の例である。LV画像のうち一部の被写体である花を追尾しており、EVF101bにおいて、LV画像中の花に対して追尾枠1138が表示されている。タッチパネル104aには指を触れていない。 FIG. 13A is an example of tracking when the touch is not made (touch-off). A flower, which is a part of the subject in the LV image, is tracked, and in EVF101b, a tracking frame 1138 is displayed for the flower in the LV image. No finger is touched on the touch panel 104a.

図13(b)は、図13(a)の状態から、タッチダウンされた場合の例である。花の追尾は解除され、代わりに指定位置指標1139が表示される。被写体検出により、人物の顔が検出されるため、EVF101bにおいて、LV画像中の人物の顔に対して検出枠1136が表示される。タッチパネル104aには、指Fがタッチしている。 FIG. 13B is an example of a touchdown from the state of FIG. 13A. Flower tracking is canceled and the designated position index 1139 is displayed instead. Since the face of the person is detected by the subject detection, the detection frame 1136 is displayed on the face of the person in the LV image in the EVF101b. A finger F is touching the touch panel 104a.

図13(c)は、図13(b)の状態から、指Fを左上に向けてタッチムーブした場合の例である。指定位置指標1139は、タッチムーブに応じて左上に移動している。この例では、そのときたまたま移動してきた被写体の蝶の位置となっている。指Fがタッチパネル104aの左端近くまで移動したため、ユーザはこれ以上左側にタッチムーブすることは困難である。ところが、まだ所望する人物の位置まで指定位置指標1139が到達していないため、一旦タッチアップして再度右側にタッチダウンし、左側へタッチムーブを試みることになる。 FIG. 13 (c) is an example in which the finger F is touch-moved from the state of FIG. 13 (b) toward the upper left. The designated position index 1139 moves to the upper left in response to the touch move. In this example, it is the position of the butterfly of the subject that happened to move at that time. Since the finger F has moved to near the left end of the touch panel 104a, it is difficult for the user to touch move to the left side any more. However, since the designated position index 1139 has not yet reached the position of the desired person, the user touches up once, touches down to the right side again, and attempts a touch move to the left side.

図13(d1)は、図13(c)の状態でタッチアップが行われ、本実施形態で説明した追尾確定待ち(S811、S812)を行わずに追尾対象を確定した場合の例である。タッチアップした時点での指定位置指標1139の位置にあった蝶にすぐに追尾確定されてしまい、ユーザが所望した被写体ではない、蝶に対して追尾枠1138が表示され、追尾が開始されてしまう。 FIG. 13 (d1) is an example in which the touch-up is performed in the state of FIG. 13 (c) and the tracking target is confirmed without performing the tracking confirmation waiting (S811, S812) described in the present embodiment. Tracking is immediately confirmed for the butterfly that was at the position of the designated position index 1139 at the time of touch-up, and the tracking frame 1138 is displayed for the butterfly that is not the subject desired by the user, and tracking is started. ..

図13(e1)は、図13(d1)の状態からユーザが再度タッチダウンする前に蝶が移動してしまった場合の例である。蝶に対して追尾しているため、追尾枠1138は蝶と一緒に右側の花付近に移動してしまっている。 FIG. 13 (e1) is an example in which the butterfly moves from the state of FIG. 13 (d1) before the user touches down again. Since it is tracking the butterfly, the tracking frame 1138 has moved to the vicinity of the flower on the right side together with the butterfly.

図13(f1)は、図13(e1)の状態から、ユーザが改めてタッチダウンし、右側から左側にタッチムーブ(2回目のタッチムーブ)した場合の例である。指定位置指標1139の移動は、ユーザの意図に反して蝶に追尾して右側に移動してしまった追尾枠1138の位置(図13(e1))からとなるため、2回目のタッチムーブを行っても、指定位置指標1139を所望とする人物の位置に移動できない。このように、本実施形態で説明した追尾確定待ち(S811、S812)を行わない場合は、意図しない被写体に追尾してしまうことにより、ユーザによるAF位置の指定操作(追尾位置の指定操作)が阻害されてしまう場合がある。 FIG. 13 (f1) is an example of a case where the user touches down again from the state of FIG. 13 (e1) and makes a touch move (second touch move) from the right side to the left side. Since the designated position index 1139 is moved from the position of the tracking frame 1138 (FIG. 13 (e1)) that has been tracked to the butterfly and moved to the right against the user's intention, the second touch move is performed. However, the designated position index 1139 cannot be moved to the position of the desired person. In this way, when the tracking confirmation wait (S811, S812) described in the present embodiment is not performed, the AF position is specified by the user (tracking position specification operation) by tracking an unintended subject. It may be hindered.

一方、本実施形態で説明した追尾確定待ち(S811、S812)を行った場合の例を図13(d2)、図13(e2)、図13(f2)を用いて説明する。 On the other hand, an example in which the tracking confirmation wait (S811, S812) described in the present embodiment is performed will be described with reference to FIGS. 13 (d2), 13 (e2), and 13 (f2).

図13(d2)では、図13(c)の状態でタッチアップが行われ、本実施形態で説明した追尾確定待ち(S811、S812)を行っている状態の例である。図13(c)の時点(タッチアップ直前)で吸着中検出枠を表示していなかったため、S810でNOと判定され、すぐにはS813の追尾確定の処理は行われない。 FIG. 13 (d2) is an example of a state in which the touch-up is performed in the state of FIG. 13 (c) and the tracking confirmation wait (S811, S812) described in the present embodiment is performed. Since the adsorption detection frame was not displayed at the time of FIG. 13C (immediately before touch-up), it was determined as NO in S810, and the tracking confirmation process of S813 was not performed immediately.

図13(e2)は、図13(d2)の状態からユーザが再度タッチダウンする前に蝶が移動してしまった場合の例であり、被写体の状況は図13(e1)と同様のケースである。S811で追尾確定待ちの中断操作が行われず、S812でタッチアップ後所定時間も経過していなければ、蝶に対して追尾することはない。従って、蝶が右に移動しているが、指定位置指標1139はタッチアップ時点から移動していない。 FIG. 13 (e2) is an example of a case where the butterfly moves from the state of FIG. 13 (d2) before the user touches down again, and the situation of the subject is the same as that of FIG. 13 (e1). is there. If the interruption operation of waiting for the tracking confirmation is not performed in S811 and the predetermined time has not elapsed after the touch-up in S812, the butterfly is not tracked. Therefore, although the butterfly is moving to the right, the designated position index 1139 has not moved since the touch-up time.

図13(f2)は、図13(e2)の状態から、ユーザが改めてタッチダウンし、右側から左側にタッチムーブ(2回目のタッチムーブ)した場合の例である。指定位置指標1139の移動は、前回タッチアップした時点(図13(d2))に表示されていた位置から再開されるため、2回目のタッチムーブによって、所望とする人物の位置まで移動できている。その結果、指定位置指標1139は所望とする人物の検出枠1136に吸着し、吸着中検出枠1140が表示されている。この時点でタッチアップすれば、所定時間を待つことなく所望とする人物への追尾が開始されるため、人物が移動していたとしても確実に追尾できる。このように、本実施形態で説明した追尾確定待ち(S811、S812)を行った場合は、より操作性良く、より確実に、意図した被写体を追尾指定することができる。なお、図13(c)の状況において、ユーザが追尾したい被写体が蝶であった場合には、この時点でシャッターボタン102を半押しすれば図9のS907のタッチキャンセル処理によって蝶を追尾することができる。すなわち、本実施形態によれば、検出枠1136が表示されておらず動いている被写体であっても、追尾したい被写体であれば追尾確定待ちをすることなく(被写体を逃すことなく)追尾指定することが可能である。 FIG. 13 (f2) is an example of a case where the user touches down again from the state of FIG. 13 (e2) and makes a touch move (second touch move) from the right side to the left side. Since the movement of the designated position index 1139 is restarted from the position displayed at the time of the previous touch-up (FIG. 13 (d2)), the movement of the designated position index 1139 can be moved to the position of the desired person by the second touch move. .. As a result, the designated position index 1139 is adsorbed on the detection frame 1136 of the desired person, and the adsorbing detection frame 1140 is displayed. If you touch up at this point, tracking of the desired person is started without waiting for a predetermined time, so even if the person is moving, tracking can be performed reliably. In this way, when the tracking confirmation wait (S811, S812) described in the present embodiment is performed, it is possible to more reliably and more reliably track and specify the intended subject. In the situation of FIG. 13C, when the subject to be tracked by the user is a butterfly, if the shutter button 102 is pressed halfway at this point, the butterfly is tracked by the touch cancel process of S907 of FIG. Can be done. That is, according to the present embodiment, even if the detection frame 1136 is not displayed and the subject is moving, if the subject is to be tracked, the tracking is specified without waiting for the tracking confirmation (without missing the subject). It is possible.

図14(a)から図14(e2)を用いて、タッチ&ドラッグAFの機能によって、LV画像中の右側の人物を追尾している状態から、左側の人物に追尾対象を変更しようとして、ユーザがタッチムーブを行った場合の動作の一例を説明する。 Using FIGS. 14 (a) to 14 (e2), the user attempts to change the tracking target from the state in which the person on the right side in the LV image is being tracked to the person on the left side by the touch and drag AF function. An example of the operation when the touch move is performed will be described.

図14(a)、図14(b)、図14(c2)、図14(d2)、図14(e2)は、本実施形態における動作例を示している。図14(c1)、図14(d1)、図14(e1)、図14(f1)は、本実施形態を適用しない場合の動作例を示しており、本実施形態の効果を説明するための比較である。 14 (a), 14 (b), 14 (c2), 14 (d2), and 14 (e2) show operation examples in this embodiment. 14 (c1), 14 (d1), 14 (e1), and 14 (f1) show operation examples when the present embodiment is not applied, and are for explaining the effects of the present embodiment. It is a comparison.

図14(a)から図14(e2)の各図は、以下の状態であるものとする。
タッチ&ドラッグAF:「する」
位置指定方法:絶対位置指定
タッチ反応領域:全面
接眼/非接眼:接眼状態
It is assumed that each figure of FIGS. 14 (a) to 14 (e2) is in the following state.
Touch & Drag AF: "Yes"
Position designation method: Absolute position designation Touch reaction area: Full eyepiece / non-eyepiece: Eyepiece state

図14(a)は、タッチがなされていない(タッチオフ)である場合に、追尾中の例である。LV画像には、右側に1人と左側に1人の2人が写っており、右側の人物を追尾している。EVF101bにおいて、LV画像中の右側の人物に対して追尾枠1138が表示されている。また、右側の人物と左側の人物の奥には、かなり離れた距離の山が写っている。タッチパネル104aには指を触れていない。 FIG. 14A is an example of tracking when the touch is not made (touch-off). In the LV image, two people, one on the right side and one on the left side, are shown, and the person on the right side is being tracked. In EVF101b, the tracking frame 1138 is displayed for the person on the right side in the LV image. In addition, behind the person on the right and the person on the left, a mountain at a considerable distance is shown. No finger is touched on the touch panel 104a.

図14(b)は、図14(a)の状態から、タッチダウンされた場合の例である。右側の人物の追尾は解除され、代わりに、タッチ位置に対応する位置で検出された右側の人物の顔に対して吸着中検出枠1140が表示される。タッチパネル104aには、右側に指Fがタッチしている。 FIG. 14 (b) is an example of a touchdown from the state of FIG. 14 (a). The tracking of the person on the right side is canceled, and instead, the suction detection frame 1140 is displayed on the face of the person on the right side detected at the position corresponding to the touch position. A finger F is touching the touch panel 104a on the right side.

図14(c1)、図14(d1)、図14(e1)、図14(f1)は、図6で説明したS626、S627とは異なり、指定位置指標1139の位置でコンティニュアスAFを行った場合の動作例である。 14 (c1), 14 (d1), 14 (e1), and 14 (f1) show continuous AF at the position of the designated position index 1139, unlike S626 and S627 described with reference to FIG. This is an operation example when

図14(c1)は、図14(b)の状態から、指Fを左側の人物に向けてタッチムーブしている途中の例である。指定位置指標1139は、タッチムーブに応じて左に移動し、山の位置となっている。この例では、指定位置指標1139の位置でコンティニュアスAFが行われるため、山が合焦するようにAFが行われ、山にピントが合って手前の人物2人はボケている。手前の人物2人がボケて写っているため、LV画像から顔として検出できず、被写体枠1136は表示されていない。このとき、ユーザから見ても人物であると判別できないほど人物がボケる可能性もある。そうなるとユーザは所望とする左側の人物を見失うことになり、どこに向かってタッチムーブを続ければよいかわからなくなり、上手く追尾指定ができない。また、指定位置指標1139がユーザが合焦させたい被写体の位置であるか否かに関係なく、合焦状態が指定位置指標1139の位置に応じて頻繁に変動するため、LV画像が見づらいものとなる。 FIG. 14 (c1) is an example in the middle of touch-moving the finger F toward the person on the left side from the state of FIG. 14 (b). The designated position index 1139 moves to the left according to the touch move and becomes the position of the mountain. In this example, since continuous AF is performed at the position of the designated position index 1139, AF is performed so that the mountain is in focus, and the two people in the foreground are out of focus. Since the two people in the foreground are out of focus, they cannot be detected as faces in the LV image, and the subject frame 1136 is not displayed. At this time, there is a possibility that the person is blurred so that it cannot be identified as a person even from the user's point of view. In that case, the user loses sight of the desired person on the left side, does not know where to continue the touch move, and cannot properly specify the tracking. Further, regardless of whether the designated position index 1139 is the position of the subject that the user wants to focus on, the focusing state frequently changes according to the position of the designated position index 1139, which makes it difficult to see the LV image. Become.

図14(d1)は、図14(c1)の状態から更に左にタッチムーブし、指定位置指標1139が所望とする左側の人物の位置まで移動された直後の動作例を示している。指定位置指標1139でコンティニュアスAFを行うものの、図14(c1)で左側の人物がボケていために左側の人物に合焦するまでには少しの時間差があり、左側の人物の顔が検出されていない。従って指定位置指標1139が所望とする左側の人物の位置に達しているにも関わらず、吸着中検出枠1140が表示されない。従って、ユーザは所望とする左側の人物は追尾指定できないものと誤解するおそれがある。 FIG. 14 (d1) shows an operation example immediately after the touch move further to the left from the state of FIG. 14 (c1) and the designated position index 1139 is moved to the desired position of the person on the left side. Although continuous AF is performed with the designated position index 1139, there is a slight time lag before focusing on the left person because the left person is out of focus in FIG. 14 (c1), and the face of the left person is detected. It has not been. Therefore, although the designated position index 1139 has reached the desired position of the person on the left side, the suction detection frame 1140 is not displayed. Therefore, the user may misunderstand that the desired person on the left side cannot be tracked and specified.

図14(e1)は、図14(d1)の状態からタッチアップされた場合の例である。吸着中検出枠1140が表示されていない状態でタッチアップしたため、追尾確定待ち(S811、S812)が行われ、追尾対象はすぐには左側の人物に確定しない。この追尾確定待ちの間に左側の人物が移動してしまった場合には、タッチアップの時点では左側の人物の位置を指定できていたにもかかわらず、左側の人物を追尾指定できないこととなってしまう。 FIG. 14 (e1) is an example of a touch-up from the state of FIG. 14 (d1). Since the touch-up is performed while the suction detection frame 1140 is not displayed, the tracking confirmation wait (S811, S812) is performed, and the tracking target is not immediately confirmed to the person on the left side. If the person on the left moves while waiting for the tracking confirmation, the person on the left cannot be specified for tracking even though the position of the person on the left could be specified at the time of touch-up. It ends up.

図14(f1)は、図14(e1)の状態から、追尾確定待ち(S811、S812)を経て、所望とする左側の人物の追尾を開始した場合の例である。このように、本実施形態を適用しない図14(c1)、図14(d1)、図14(e1)、図14(f1)では、所望とする被写体(左側の人物)への追尾位置の移動操作が上手く行えない。また、所望とする被写体(左側の人物)に指定位置指標1139を移動した場合に、所望とする被写体(左側の人物)が合焦していない場合がある。この場合は、すぐに撮影を行った場合に撮影準備動作で合焦するまでの時間分、撮影タイミングが遅れる。すなわち、撮影機会を逃すおそれがある。 FIG. 14 (f1) is an example in which tracking of a desired left-hand person is started from the state of FIG. 14 (e1) through waiting for tracking confirmation (S811, S812). As described above, in FIGS. 14 (c1), 14 (d1), 14 (e1), and 14 (f1) to which the present embodiment is not applied, the tracking position is moved to the desired subject (person on the left side). I can't operate it well. Further, when the designated position index 1139 is moved to the desired subject (person on the left side), the desired subject (person on the left side) may not be in focus. In this case, if shooting is performed immediately, the shooting timing is delayed by the time required for focusing in the shooting preparation operation. That is, there is a risk of missing a shooting opportunity.

一方、本実施形態で説明したように、指定位置指標1139の表示中に、指定位置指標1139の位置に基づいたAFは行わない場合の例を図14(c2)、図14(d2)、図14(e2)を用いて説明する。 On the other hand, as described in the present embodiment, examples of the case where AF based on the position of the designated position index 1139 is not performed while the designated position index 1139 is being displayed are shown in FIGS. 14 (c2), 14 (d2), and FIGS. This will be described with reference to 14 (e2).

図14(c2)は、図14(b)の状態から、指Fを左側の人物に向けてタッチムーブしている途中の例である。指定位置指標1139は、タッチムーブに応じて左に移動し、山の位置となっている。本実施形態では、この状態で指定位置指標1139の位置でコンティニュアスAFは行わない(S626、S629、S721)。そのため、手前の人物2人に合焦し、それぞれの顔が検出され、それぞれの顔の位置に検出枠1136が表示される。従ってユーザは左側の人物の検出枠1136を目指してタッチムーブを継続すればよく、所望の被写体へのAF位置の移動(追尾対象の変更)を行いやすい。また、合焦状態が指定位置指標1139の位置に関わらずあまり変動しないため、LV画像が見づらくなることはない。 FIG. 14 (c2) is an example in the middle of touch-moving the finger F toward the person on the left side from the state of FIG. 14 (b). The designated position index 1139 moves to the left according to the touch move and becomes the position of the mountain. In the present embodiment, continuous AF is not performed at the position of the designated position index 1139 in this state (S626, S629, S721). Therefore, the two people in the foreground are focused, their faces are detected, and the detection frame 1136 is displayed at the position of each face. Therefore, the user only needs to continue the touch move aiming at the detection frame 1136 of the person on the left side, and it is easy to move the AF position (change the tracking target) to the desired subject. Further, since the focusing state does not fluctuate so much regardless of the position of the designated position index 1139, the LV image is not difficult to see.

図14(d2)は、図14(c2)の状態から更に左にタッチムーブし、指定位置指標1139が所望とする左側の人物の位置まで移動された直後の動作例を示している。指定位置指標1139が左側の検出枠1136の近傍となるため、左側の人物の検出枠に吸着し、吸着中検出枠1140が表示される。 FIG. 14 (d2) shows an operation example immediately after the touch move is further left from the state of FIG. 14 (c2) and the designated position index 1139 is moved to the desired position of the person on the left side. Since the designated position index 1139 is in the vicinity of the detection frame 1136 on the left side, it is attracted to the detection frame of the person on the left side, and the detection frame 1140 during adsorption is displayed.

図14(e2)は、図14(d2)の状態からタッチアップされた場合の例である。吸着中検出枠1140が表示されていた状態でタッチアップしたため、追尾確定待ち(S811、S812)を行うことなく、すぐさま左側の人物が追尾対象として確定され、追尾開始される。従って、タッチアップ後に左側の人物が移動した場合にも確実に左側の人物を追尾できる。また、所望とする被写体(左側の人物)に指定位置指標1139を移動した場合に、所望とする被写体(左側の人物)が合焦しているため、すぐに撮影を行った場合にも、すぐに合焦してすぐに撮影が行われる。すなわち、撮影機会を逃さずに撮影することができる。 FIG. 14 (e2) is an example of a touch-up from the state of FIG. 14 (d2). Since the touch-up was performed while the suction detection frame 1140 was displayed, the person on the left side was immediately confirmed as the tracking target and the tracking was started without waiting for the tracking confirmation (S811, S812). Therefore, even if the person on the left side moves after the touch-up, the person on the left side can be reliably tracked. In addition, when the designated position index 1139 is moved to the desired subject (the person on the left side), the desired subject (the person on the left side) is in focus, so that even if the photograph is taken immediately, the subject is immediately focused. The picture is taken immediately after focusing on. That is, it is possible to shoot without missing a shooting opportunity.

なお、システム制御部201が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 The above-mentioned various controls described as being performed by the system control unit 201 may be performed by one hardware, or the entire device may be controlled by sharing the processing among a plurality of hardware. ..

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiment thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明をEVFを覗きながらタッチ操作を行いAF枠を指定するタッチ&ドラッグAF機能を有するデジタルカメラに適用した場合を例にして説明したが、この例に限定されない。タッチ操作でAF枠を移動しながら撮影可能な機能を有する装置であれば適用可能である。また、また図5に係る表示先の切替処理に関しては、撮像機能を有さなくとも、接眼ファインダの表示を制御する表示制御装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォンなどに適用可能である。また、投影装置、ディスプレイを備える家電装置や車載装置、医療機器などに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to a digital camera having a touch-and-drag AF function for designating an AF frame by performing a touch operation while looking into the EVF has been described as an example, but the present invention is limited to this example. Not done. It can be applied to any device having a function of being able to shoot while moving the AF frame by touch operation. Further, the display destination switching process according to FIG. 5 can be applied to any display control device that controls the display of the eyepiece finder even if it does not have an imaging function. That is, the present invention is applicable to personal computers, PDAs, mobile phone terminals, portable image viewers, digital photo frames, music players, game machines, electronic book readers, tablet terminals, smartphones and the like. It can also be applied to home appliances equipped with projection devices and displays, in-vehicle devices, medical devices, and the like.

[他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (26)

接眼ファインダーを介して視認可能な第1の表示手段と、
前記接眼ファインダーに物体が接近したことを検知する接近検知手段と、
ユーザーからの操作を受け付ける操作手段と、
前記接近検知手段による物体が接近したことの検知に応じて前記第1の表示手段を表示状態とし、前記接近検知手段による物体が離れたことの検知に応じて前記第1の表示手段を非表示状態とする制御手段であって、前記操作手段での操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合には、少なくとも該検知から所定時間が経過するか前記操作手段への操作が終了するまでは前記第1の表示手段の表示状態を維持するように制御する制御手段と
を有することを特徴とする表示制御装置。
The first display means that can be seen through the eyepiece finder,
An approach detection means for detecting that an object has approached the eyepiece finder,
Operation means that accepts operations from users and
The first display means is set to the display state in response to the detection that the object is approached by the approach detection means, and the first display means is hidden in response to the detection that the object is separated by the approach detection means. When the approach detecting means detects that the object has separated from the control means to be in the state while the operation by the operating means is being performed, at least a predetermined time has elapsed from the detection. A display control device comprising a control means for controlling the display state of the first display means until the operation on the operation means is completed.
前記制御手段は、前記操作手段での操作が行われていない際に前記接近検知手段によって物体が離れたことを検知した場合には、該検知から前記所定時間が経過する前に前記第1の表示手段を非表示状態とするように制御することを特徴とする請求項1に記載の表示制御装置。 When the control means detects that the object has separated by the approach detecting means when the operation by the operating means is not performed, the first control means is used before the predetermined time elapses from the detection. The display control device according to claim 1, wherein the display means is controlled so as to be in a non-display state. 前記制御手段は、前記操作手段での操作が行われている際に前記接近検知手段による物体が離れたことを検知し、物体の非接近状態が前記所定時間継続した場合には前記操作手段への操作が継続していても前記第1の表示手段を非表示状態とするように制御することを特徴とする請求項1または2に記載の表示制御装置。 The control means detects that the object by the approach detecting means has separated while the operation by the operating means is being performed, and when the non-approaching state of the object continues for the predetermined time, the control means goes to the operating means. The display control device according to claim 1 or 2, wherein the first display means is controlled so as to be in a non-display state even if the operation of the above is continued. 前記制御手段は、前記操作手段での操作が行われている際に前記接近検知手段による物体が離れたことを検知し、前記操作手段への操作が継続している限りは、物体の非接近状態の継続時間に関わらず、前記第1の表示手段の表示状態を維持するように制御することを特徴とする請求項1または2に記載の表示制御装置。 The control means detects that the object by the approach detecting means has separated while the operation by the operating means is being performed, and as long as the operation to the operating means continues, the object is not approached. The display control device according to claim 1 or 2, wherein the display control device is controlled so as to maintain the display state of the first display means regardless of the duration of the state. 前記制御手段は、前記操作手段での操作が行われている際に前記接近検知手段による物体が離れたことを検知した後、前記操作手段への操作が終了した場合には、物体の非接近状態が前記所定時間に達していなくとも前記第1の表示手段を非表示状態とするように制御することを特徴とする請求項1乃至4の何れか1項に記載の表示制御装置。 When the control means detects that the object has been separated by the approach detecting means while the operation by the operating means is being performed, and then the operation to the operating means is completed, the object is not approached. The display control device according to any one of claims 1 to 4, wherein the first display means is controlled so as to be hidden even if the state does not reach the predetermined time. 前記接眼ファインダーの外部に配置された第2の表示手段を更に有し、
前記制御手段は、前記第1の表示手段を非表示状態とする場合に前記第2の表示手段を表示状態とすることを特徴とする請求項1乃至5のいずれか1項に記載の表示制御装置。
Further having a second display means arranged outside the eyepiece finder,
The display control according to any one of claims 1 to 5, wherein the control means puts the second display means into a display state when the first display means is put into a non-display state. apparatus.
前記操作手段は、タッチ検知面へのタッチ操作を検知可能なタッチパネルであることを特徴とする請求項1乃至5のいずれか1項に記載の表示制御装置。 The display control device according to any one of claims 1 to 5, wherein the operating means is a touch panel capable of detecting a touch operation on a touch detecting surface. 前記第2の表示手段は、表示面へのタッチを検知可能な、前記操作手段としてのタッチパネルであることを特徴とする請求項6に記載の表示制御装置。 The display control device according to claim 6, wherein the second display means is a touch panel as the operation means capable of detecting a touch on the display surface. 前記タッチパネルは、前記第2の表示手段が非表示である場合にもタッチ操作を受け付け可能であり、前記制御手段は、前記第2の表示手段が非表示状態で前記第1の表示手段が表示状態の際に行われたタッチ操作に応じて、前記第1の表示手段における表示内容の変更を伴う所定の処理を行うように制御することを特徴とする請求項8に記載の表示制御装置。 The touch panel can accept a touch operation even when the second display means is hidden, and the control means is displayed by the first display means while the second display means is hidden. The display control device according to claim 8, wherein the display control device is controlled so as to perform a predetermined process accompanied by a change in the display content in the first display means in response to a touch operation performed in the state. 前記制御手段は、前記タッチパネルのうち第1の領域に対するタッチ操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合には、少なくとも該検知から所定時間が経過するか前記操作手段への操作が終了するまでは前記第1の表示手段の表示状態を維持するように制御し、
前記タッチパネルのうち第2の領域に対するタッチ操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合には、該検知から前記所定時間が経過する前に前記第1の表示手段を非表示状態とするように制御することを特徴とする請求項7乃至9の何れか1項に記載の表示制御装置。
When the control means detects that the object has separated by the approach detecting means while the touch operation on the first region of the touch panel is being performed, at least a predetermined time elapses from the detection. Control is performed so that the display state of the first display means is maintained until the operation on the operation means is completed.
When the approach detecting means detects that the object has separated while the touch operation for the second region of the touch panel is being performed, the first one is performed before the predetermined time elapses from the detection. The display control device according to any one of claims 7 to 9, wherein the display means is controlled so as to be in a non-display state.
前記第1の領域は、前記第1の領域に対してタッチ操作が行われても前記第1の表示手段における表示内容の変更を伴う所定の処理を行わない無効領域であり、前記第2の領域は、前記第2の領域に対してタッチ操作が行われたことに応じて前記所定の処理を行う有効領域であることを特徴とする請求項10に記載の表示制御装置。 The first area is an invalid area in which even if a touch operation is performed on the first area, a predetermined process that involves changing the display content in the first display means is not performed, and the second area is described. The display control device according to claim 10, wherein the area is an effective area for performing the predetermined process in response to a touch operation being performed on the second area. 前記第2の表示手段は、前記表示制御装置の本体部に対して位置を変更可能なバリアングルモニタであり、前記制御手段は、前記バリアングルモニタが前記本体部に対して開いた位置である場合には、前記タッチパネルに対するタッチ操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合にも、該検知から前記所定時間が経過する前に前記第1の表示手段を非表示状態とするように制御することを特徴とする請求項8または9に記載の表示制御装置。 The second display means is a vari-angle monitor whose position can be changed with respect to the main body of the display control device, and the control means is a position where the vari-angle monitor is open with respect to the main body. In this case, even when the approach detecting means detects that the object has separated while the touch operation on the touch panel is being performed, the first display means is used before the predetermined time elapses from the detection. The display control device according to claim 8 or 9, wherein the display control device is controlled so as to be in a non-display state. 前記第1の表示手段が表示状態である場合と非表示状態である場合とで前記タッチパネルに対するタッチ操作の操作態様が異なることを特徴とする請求項7乃至12のいずれか1項に記載の表示制御装置。 The display according to any one of claims 7 to 12, wherein the operation mode of the touch operation on the touch panel differs depending on whether the first display means is in the display state or in the non-display state. Control device. 前記第1の表示手段が表示状態である場合には、前記タッチパネルに対してタッチが開始されたことに応じては特定の処理を施す位置は変更せず、タッチ位置の移動操作の移動量と移動方向に応じて前記特定の処理を施す位置を変更し、
前記第1の表示手段が非表示状態である場合には、前記タッチパネルに対するタッチが開始されたことに応じて、タッチが開始された位置に対応する位置に前記特定の処理を施す位置を変更することを特徴とする請求項7乃至13のいずれか1項に記載の表示制御装置。
When the first display means is in the display state, the position where the specific process is performed is not changed according to the start of touching the touch panel, and the movement amount of the touch position movement operation is used. The position where the specific process is applied is changed according to the moving direction.
When the first display means is in the non-display state, the position where the specific process is applied is changed to a position corresponding to the position where the touch is started in response to the start of touching the touch panel. The display control device according to any one of claims 7 to 13, characterized in that.
前記特定の処理は、撮影範囲のうち対象の位置に対するオートフォーカスであることを特徴とする請求項14に記載の表示制御装置。 The display control device according to claim 14, wherein the specific process is autofocus with respect to a target position in the photographing range. 前記第1の表示手段が表示状態である場合と非表示状態である場合とで前記タッチパネルにおける、所定の処理を指示するタッチ操作を受け付ける有効領域が異なることを特徴とする請求項7乃至15のいずれか1項に記載の表示制御装置。 Claims 7 to 15, wherein the effective area for receiving a touch operation instructing a predetermined process on the touch panel differs depending on whether the first display means is in the display state or in the non-display state. The display control device according to any one item. 前記第1の表示手段が表示状態である場合は、非表示状態である場合よりも前記有効領域が狭いことを特徴とする請求項16に記載の表示制御装置。 The display control device according to claim 16, wherein when the first display means is in the display state, the effective area is narrower than when the first display means is in the non-display state. 前記タッチパネルはインセル型のタッチパネルであることを特徴とする請求項7乃至17のいずれか1項に記載の表示制御装置。 The display control device according to any one of claims 7 to 17, wherein the touch panel is an in-cell type touch panel. 前記表示制御装置のうち、前記接眼ファインダーの接眼面のある面とは異なる面に備えられた、前記操作手段とは異なる第2の操作手段を更に有し、
前記制御手段は、前記操作手段への操作が行われていなければ、前記第2の操作手段操作への操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合にも、該検知から前記所定時間が経過する前に前記第1の表示手段を非表示状態とするように制御することを特徴とする請求項1乃至18の何れか1項に記載の表示制御装置。
The display control device further includes a second operating means different from the operating means, which is provided on a surface different from the surface having the eyepiece surface of the eyepiece finder.
When the control means detects that the object has separated by the approach detecting means while the operation for the second operating means operation is being performed if the operation for the operating means is not performed. The display control device according to any one of claims 1 to 18, wherein the first display means is controlled to be in a non-display state before the predetermined time elapses from the detection. ..
前記所定の処理は、オートフォーカスを行う位置を示す指標の表示位置の変更を伴う、オートフォーカスを行う位置の変更処理であることを特徴とする請求項9、11、16のいずれか1項に記載の表示制御装置。 The predetermined process is any one of claims 9, 11 and 16, characterized in that the process is a process of changing the position of autofocus, which involves changing the display position of an index indicating the position of autofocus. The display control device described. 前記表示制御装置は、撮像手段を有する撮像装置であり、前記接眼ファインダーは、前記撮像手段で撮像されたライブビュー画像が表示される電子ビューファインダー、あるいは被写体の光学像を視認可能な光学ファインダーであることを特徴とする請求項1乃至20にいずれか1項に記載の表示制御装置。 The display control device is an image pickup device having an image pickup means, and the eyepiece finder is an electronic viewfinder that displays a live view image captured by the image pickup means, or an optical viewfinder that can visually recognize an optical image of a subject. The display control device according to any one of claims 1 to 20, wherein the display control device is provided. 接眼ファインダーを介して視認可能な第1の表示手段と、
前記接眼ファインダーに物体が接近したことを検知する接近検知手段と、
ユーザーからの操作を受け付ける操作手段と、
を有する表示制御装置の制御方法であって、
前記接近検知手段による物体が接近したことの検知に応じて前記第1の表示手段を表示状態とし、前記接近検知手段による物体が離れたことの検知に応じて前記第1の表示手段を非表示状態とする制御ステップであって、前記操作手段での操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合には、少なくとも該検知から所定時間が経過するか前記操作手段への操作が終了するまでは前記第1の表示手段の表示状態を維持するように制御する制御ステップと
を有することを特徴とする表示制御装置の制御方法。
The first display means that can be seen through the eyepiece finder,
An approach detection means for detecting that an object has approached the eyepiece finder,
Operation means that accepts operations from users and
It is a control method of a display control device having
The first display means is set to the display state in response to the detection that the object is approached by the approach detection means, and the first display means is hidden in response to the detection that the object is separated by the approach detection means. In the control step of the state, when it is detected by the approach detecting means that the object has separated while the operation by the operating means is being performed, at least a predetermined time has elapsed from the detection or the said. A control method for a display control device, which comprises a control step for controlling the display state of the first display means until the operation on the operation means is completed.
接眼ファインダーを介して視認可能な第1の表示手段と、
前記接眼ファインダーの外部に配置された第2の表示手段と、
前記接眼ファインダーに物体が接近したことを検知する接近検知手段と、
ユーザーからの操作を受け付ける操作手段と、
前記接近検知手段による物体が接近したことの検知に応じて前記第2の表示手段を非表示状態とし、前記接近検知手段による物体が離れたことの検知に応じて前記第2の表示手段を表示状態とする制御手段であって、前記操作手段での操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合には、少なくとも該検知から所定時間が経過するか前記操作手段への操作が終了するまでは前記第2の表示手段の非表示状態を維持するように制御する制御手段と
を有することを特徴とする表示制御装置。
The first display means that can be seen through the eyepiece finder,
A second display means arranged outside the eyepiece finder, and
An approach detection means for detecting that an object has approached the eyepiece finder,
Operation means that accepts operations from users and
The second display means is hidden in response to the detection of the approaching object by the approach detecting means, and the second display means is displayed in response to the detection that the object has left by the approach detecting means. When the approach detecting means detects that the object has separated from the control means to be in the state while the operation by the operating means is being performed, at least a predetermined time has elapsed from the detection. A display control device comprising: a control means for controlling so as to maintain a non-display state of the second display means until the operation to the operation means is completed.
接眼ファインダーを介して視認可能な第1の表示手段と、
前記接眼ファインダーの外部に配置された第2の表示手段と、
前記接眼ファインダーに物体が接近したことを検知する接近検知手段と、
ユーザーからの操作を受け付ける操作手段と、
を有する表示制御装置の制御方法であって、
前記接近検知手段による物体が接近したことの検知に応じて前記第2の表示手段を非表示状態とし、前記接近検知手段による物体が離れたことの検知に応じて前記第2の表示手段を表示状態とする制御ステップであって、前記操作手段での操作が行われている際に前記接近検知手段によって物体が離れたことを検知した場合には、少なくとも該検知から所定時間が経過するか前記操作手段への操作が終了するまでは前記第2の表示手段の非表示状態を維持するように制御する制御ステップと
を有することを特徴とする表示制御装置の制御方法。
The first display means that can be seen through the eyepiece finder,
A second display means arranged outside the eyepiece finder, and
An approach detection means for detecting that an object has approached the eyepiece finder,
Operation means that accepts operations from users and
It is a control method of a display control device having
The second display means is hidden in response to the detection of the approaching object by the approach detecting means, and the second display means is displayed in response to the detection that the object has left by the approach detecting means. In the control step of the state, when it is detected by the approach detecting means that the object has separated while the operation by the operating means is being performed, at least a predetermined time has elapsed from the detection or the said. A control method for a display control device, which comprises a control step for controlling the second display means so as to maintain a non-display state until the operation on the operation means is completed.
コンピュータを、請求項1乃至21、23のいずれか1項に記載された表示制御装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the display control device according to any one of claims 1 to 21, 23. コンピュータを、請求項1乃至21、23のいずれか1項に記載された表示制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the display control device according to any one of claims 1 to 21, 23.
JP2016169622A 2016-08-31 2016-08-31 Display control device and its control method, program, and storage medium Active JP6765902B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2016169622A JP6765902B2 (en) 2016-08-31 2016-08-31 Display control device and its control method, program, and storage medium
PCT/JP2017/022254 WO2018042824A1 (en) 2016-08-31 2017-06-16 Imaging control apparatus, display control apparatus, and control method therefor
CN202011474772.0A CN112653838B (en) 2016-08-31 2017-06-16 Display control apparatus, control method thereof, and storage medium
CN201780053511.1A CN109644239B (en) 2016-08-31 2017-06-16 Image pickup control apparatus, display control apparatus, control method therefor, and storage medium
CN202011470667.XA CN112653837B (en) 2016-08-31 2017-06-16 Image pickup control apparatus, control method therefor, and storage medium
EP17845835.2A EP3509291B1 (en) 2016-08-31 2017-06-16 Imaging control apparatus and method therefor
EP22183785.9A EP4102827A1 (en) 2016-08-31 2017-06-16 Image capture control apparatus and control method therefor
US16/284,314 US10992853B2 (en) 2016-08-31 2019-02-25 Image capture control apparatus, display control apparatus, and control method for tracking a tracking target in a live view image
US17/213,550 US11272093B2 (en) 2016-08-31 2021-03-26 Image capture control apparatus, display control apparatus, and control method therefor to track a target and to determine an autofocus position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016169622A JP6765902B2 (en) 2016-08-31 2016-08-31 Display control device and its control method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2018037861A JP2018037861A (en) 2018-03-08
JP6765902B2 true JP6765902B2 (en) 2020-10-07

Family

ID=61567830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016169622A Active JP6765902B2 (en) 2016-08-31 2016-08-31 Display control device and its control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6765902B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7431567B2 (en) * 2019-12-10 2024-02-15 キヤノン株式会社 Electronic devices and their control methods, programs, and storage media
CN113792697B (en) * 2021-09-23 2023-09-05 重庆紫光华山智安科技有限公司 Target detection method, target detection device, electronic equipment and readable storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3397335B2 (en) * 1992-01-14 2003-04-14 キヤノン株式会社 Video camera
JP5872783B2 (en) * 2011-03-24 2016-03-01 オリンパス株式会社 Display device, display method, and display program

Also Published As

Publication number Publication date
JP2018037861A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
CN112653838B (en) Display control apparatus, control method thereof, and storage medium
JP6602361B2 (en) Electronic device and control method thereof
JP6397454B2 (en) IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP7049195B2 (en) Electronic devices and their control methods, programs, and storage media
JP6833535B2 (en) Imaging device, control method and program of imaging device
JP7433810B2 (en) Electronic devices, control methods for electronic devices, programs and storage media
JP7341729B2 (en) Electronic devices, control methods for electronic devices, programs, storage media
JP2019075699A (en) Electronic device and control method of the same
JP2021068208A (en) Electronic apparatus, control method for electronic apparatus, program, storage medium
JP7187190B2 (en) Electronic device, electronic device control method, program, storage medium
JP6765902B2 (en) Display control device and its control method, program, and storage medium
JP6765901B2 (en) Imaging device and its control method, program, and storage medium
JP2021141573A (en) Electronic apparatus
JP2021163182A (en) Electronic apparatus and method for controlling the same
JP2021022897A (en) Electronic apparatus, control method of electronic device, program, and recording medium
JP2021097356A (en) Imaging control device
JP2020197976A (en) Electronic apparatus, control method for electronic apparatus, program, and recording medium
JP6708516B2 (en) Electronic device, control method thereof, and program
JP2021071847A (en) Electronic device and control method for the same
US20210127054A1 (en) Electronic device and control method thereof
WO2023007904A1 (en) Electronic device, electronic device control method, program, and storage medium
JP7171252B2 (en) IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE
JP7254454B2 (en) IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE
JP2022095306A (en) Display control device and method for controlling the same
JP2022095264A (en) Display control device and method for controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200916

R151 Written notification of patent or utility model registration

Ref document number: 6765902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151