JP6397454B2 - IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM - Google Patents

IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Download PDF

Info

Publication number
JP6397454B2
JP6397454B2 JP2016170064A JP2016170064A JP6397454B2 JP 6397454 B2 JP6397454 B2 JP 6397454B2 JP 2016170064 A JP2016170064 A JP 2016170064A JP 2016170064 A JP2016170064 A JP 2016170064A JP 6397454 B2 JP6397454 B2 JP 6397454B2
Authority
JP
Japan
Prior art keywords
touch
tracking
display
predetermined time
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016170064A
Other languages
Japanese (ja)
Other versions
JP2018037893A (en
Inventor
誠司 小川
誠司 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2016170064A priority Critical patent/JP6397454B2/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN202011470667.XA priority patent/CN112653837B/en
Priority to PCT/JP2017/022254 priority patent/WO2018042824A1/en
Priority to EP17845835.2A priority patent/EP3509291B1/en
Priority to CN202011474772.0A priority patent/CN112653838B/en
Priority to EP22183785.9A priority patent/EP4102827A1/en
Priority to CN201780053511.1A priority patent/CN109644239B/en
Publication of JP2018037893A publication Critical patent/JP2018037893A/en
Application granted granted Critical
Publication of JP6397454B2 publication Critical patent/JP6397454B2/en
Priority to US16/284,314 priority patent/US10992853B2/en
Priority to US17/213,550 priority patent/US11272093B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、タッチ操作でフォーカス位置を変更可能な撮像制御装置に関する。 The present invention relates to an imaging control apparatus capable of changing a focus position by a touch operation.

最近のデジタルカメラなどの撮像装置は、表示画面に対するタッチ操作で簡単にオートフォーカス位置(AF位置)を移動しながら撮影を行うことができるものもある。しかしながら、従来のファインダーを覗きながらの撮影(ファインダー撮影)の際には、多くのデジタルカメラではボタンやダイヤルなどの物理的な操作手段でのみAF位置の指定が行えるものが多く、タッチ操作により簡単にAF位置を変更することができなかった。   Some recent imaging devices such as digital cameras can perform shooting while easily moving the autofocus position (AF position) by a touch operation on the display screen. However, when shooting while looking through the conventional viewfinder (finder shooting), many digital cameras can specify the AF position only with physical operation means such as buttons and dials. The AF position could not be changed.

このような背景のもと、特許文献1には、ファインダーを覗いている状態で、ファインダーとは別に設けられたタッチパネルに対するタッチ操作を有効とする技術(タッチパッド操作)が提案されている。特許文献1では、タッチ操作でのAF位置の指定方法として、タッチパネルとファインダー内の座標とを1対1に対応させる絶対座標方式と、タッチパネル上でのタッチムーブ(摺動操作)の移動量に応じてAF位置を移動させる相対座標方式とが提案されている。   Against this background, Patent Document 1 proposes a technique (touch pad operation) that enables a touch operation on a touch panel provided separately from the viewfinder while looking into the viewfinder. In Patent Document 1, as an AF position designation method in a touch operation, an absolute coordinate method in which the touch panel and the coordinates in the finder are associated one-to-one, and a movement amount of a touch move (sliding operation) on the touch panel are described. A relative coordinate method for moving the AF position in response to this has been proposed.

特開2012−089973号公報JP2012-089973A

しかしながら、上記特許文献1によれば、相対座標方式ではユーザが任意の被写体にAF位置を示すカーソル(AF枠)移動させた後、再度タッチダウン操作を行うことでカーソル位置をAF位置として確定するため、確定までの操作の手間が増えることになる。このような課題に対して、カーソル移動後に行われるタッチアップ操作に応じて被写体を確定することで操作の手間を減らすことが可能である。しかしながら、相対座標方式ではAF枠を所望の被写体に移動させている間にタッチムーブ(タッチアップ)操作が複数回行われることが想定されるため、タッチアップ操作後すぐに被写体の追尾が開始されると操作性が良くない。   However, according to Patent Document 1, in the relative coordinate method, after the user moves the cursor (AF frame) indicating the AF position to an arbitrary subject, the cursor position is determined as the AF position by performing a touchdown operation again. For this reason, the time and effort required for the determination are increased. In response to such a problem, it is possible to reduce the labor of the operation by determining the subject according to the touch-up operation performed after the cursor is moved. However, in the relative coordinate method, since it is assumed that the touch move (touch-up) operation is performed a plurality of times while the AF frame is moved to the desired subject, tracking of the subject is started immediately after the touch-up operation. The operability is not good.

本発明は、上記課題に鑑みてなされ、その目的は、タッチ操作で追尾対象を選択する際の操作の手間を削減し、利便性を向上させた撮像制御装置を実現することである。 The present invention has been made in view of the above problems, and an object of the present invention is to realize an imaging control device that reduces the time and effort of selecting a tracking target by a touch operation and improves convenience.

上記課題を解決し、目的を達成するために、本発明の撮像制御装置は、撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、前記ライブビュー画像から特定の被写体を検出する被写体検出手段と、タッチ操作を検出可能なタッチ検出手段と、前記タッチ検出手段によりタッチ位置を移動する移動操作を検出したことに応じて、表示手段において指標を前記移動操作の移動量に応じた位置に表示するよう制御する表示制御手段と、前記移動操作を行うタッチが離されてから所定の時間が経過したことに応じて、前記指標の位置に基づいて決定した追尾対象を前記追尾手段で追尾するように制御する制御手段と、を有し、前記制御手段は、前記特定の被写体から所定範囲以内であればタッチが離されたことに応じて前記所定の時間が経過するのを待たずに追尾を開始し、前記特定の被写体から所定範囲以内でない場合は前記所定の時間が経過してから追尾を行うように制御する。 In order to solve the above problems and achieve the object, an imaging control apparatus of the present invention detects a specific subject from a tracking unit that tracks a tracking target in a live view image captured by an imaging unit, and the live view image. Subject detection means, touch detection means capable of detecting a touch operation, and detection of a movement operation for moving the touch position by the touch detection means, and an indicator on the display means in accordance with the amount of movement of the movement operation. Display control means for controlling the display to be displayed at the selected position, and the tracking means determined based on the position of the index according to the elapse of a predetermined time after the touch for performing the moving operation is released. in possess control means for controlling so as to track, and said control means, before in response to the touch if the specific subject is within the predetermined range is released Start tracking without waiting for the elapse of a predetermined time, when the the specific subject is not within the predetermined range is controlled to perform the tracking after the elapse of the predetermined time.

本発明によれば、タッチ操作で追尾対象を選択する際の操作の手間を削減し、利便性を向上させた撮像制御装置を実現することができる。 According to the present invention, it is possible to realize an imaging control apparatus that reduces the time and effort of selecting a tracking target by a touch operation and improves convenience.

デジタルカメラの背面の外観図。The external view of the back of a digital camera. デジタルカメラの構成を示すブロック図。The block diagram which shows the structure of a digital camera. 撮影モード処理を示すフローチャート。The flowchart which shows imaging | photography mode processing. AF枠表示更新処理を示すフローチャート。The flowchart which shows AF frame display update processing. 表示先切替処理を示すフローチャート。The flowchart which shows a display destination switching process. タッチダウン処理を示すフローチャート。The flowchart which shows a touchdown process. タッチムーブ処理を示すフローチャート。The flowchart which shows a touch move process. タッチアップ処理を示すフローチャート。The flowchart which shows a touch-up process. タッチキャンセル処理を示すフローチャート。The flowchart which shows a touch cancellation process. 枠ボタン処理を示すフローチャート。The flowchart which shows a frame button process. 撮影モードにおける表示画面を例示する図。The figure which illustrates the display screen in imaging | photography mode. メニュー画面の表示例を示す図。The figure which shows the example of a display of a menu screen. タッチ&ドラッグAF機能による画面表示例を示す図。The figure which shows the example of a screen display by a touch & drag AF function. タッチ&ドラッグAF機能による画面表示例を示す図。The figure which shows the example of a screen display by a touch & drag AF function.

以下に、本発明の実施の形態について添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<装置構成>図1及び図2を参照して、本実施形態のデジタルカメラの機能及び外観について説明する。   <Apparatus Configuration> The function and appearance of the digital camera of this embodiment will be described with reference to FIGS.

本実施形態のデジタルカメラ100の背面の外観を示す図1において、表示部101は画像や各種情報を表示する液晶表示パネル(LCD)等からなる。表示部101には、ファインダー外に配置された表示部である背面表示パネル101aと、ファインダー内の表示部である電子ビューファインダー(以下、EVF)101bが含まれる。EVF101bは、ユーザが覗き込み式の接眼ファインダーの接眼部を介して撮像画面をモニタすることが可能である(視認可能である)。シャッターボタン102は撮影指示を行うための操作部である。モード切替ボタン103は各種モードを切り替えるための操作部である。コネクタ107は接続ケーブル108とデジタルカメラ100とを接続するインターフェースである。操作部104はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材からなる操作部である。コントローラホイール106は操作部104に含まれる回転可能な電子ダイヤルである。電源スイッチ105は電源のオン、オフを切り替える操作部である。記録媒体109はメモリカードやハードディスク等の記録媒体である。記録媒体スロット110は記録媒体109を格納するためのスロットである。記録媒体スロット110に格納された記録媒体109は、デジタルカメラ100との通信が可能となる。蓋111は記録媒体スロット110の蓋である。図1では、蓋111を開けて記録媒体スロット110から記録媒体109の一部を取り出して露出させた状態を示している。   In FIG. 1 showing the external appearance of the back of the digital camera 100 of the present embodiment, the display unit 101 is composed of a liquid crystal display panel (LCD) or the like for displaying images and various information. The display unit 101 includes a rear display panel 101a that is a display unit arranged outside the viewfinder, and an electronic viewfinder (hereinafter, EVF) 101b that is a display unit in the viewfinder. The EVF 101b allows the user to monitor the imaging screen via the eyepiece part of the eyepiece type eyepiece finder (viewable). The shutter button 102 is an operation unit for issuing a shooting instruction. A mode switching button 103 is an operation unit for switching various modes. A connector 107 is an interface for connecting the connection cable 108 and the digital camera 100. The operation unit 104 is an operation unit including operation members such as various switches, buttons, and a touch panel that accept various operations from the user. The controller wheel 106 is a rotatable electronic dial included in the operation unit 104. The power switch 105 is an operation unit that switches power on and off. The recording medium 109 is a recording medium such as a memory card or a hard disk. The recording medium slot 110 is a slot for storing the recording medium 109. The recording medium 109 stored in the recording medium slot 110 can communicate with the digital camera 100. A lid 111 is a lid of the recording medium slot 110. FIG. 1 shows a state in which the lid 111 is opened and a part of the recording medium 109 is taken out from the recording medium slot 110 and exposed.

本実施形態のデジタルカメラ100の内部構成を示す図2において、撮影レンズ203はズームレンズ、フォーカスレンズを含むレンズ群である。シャッター204は絞り機能を備える。撮像部205は被写体の光学像を電気信号に変換するCCDやCMOS等で構成される撮像素子である。A/D変換器206は、アナログ信号をデジタル信号に変換する。A/D変換器206は、撮像部205から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア202は、デジタルカメラ100の、撮影レンズ203を含む撮像系を覆うことにより、撮影レンズ203、シャッター204、撮像部205を含む撮像系の汚れや破損を防止する。   In FIG. 2 showing the internal configuration of the digital camera 100 of the present embodiment, a photographing lens 203 is a lens group including a zoom lens and a focus lens. The shutter 204 has an aperture function. The image pickup unit 205 is an image pickup element configured by a CCD, a CMOS, or the like that converts an optical image of a subject into an electric signal. The A / D converter 206 converts an analog signal into a digital signal. The A / D converter 206 is used to convert an analog signal output from the imaging unit 205 into a digital signal. The barrier 202 covers the imaging system including the imaging lens 203 of the digital camera 100, thereby preventing the imaging system including the imaging lens 203, the shutter 204, and the imaging unit 205 from becoming dirty or damaged.

画像処理部207は、A/D変換器206からのデータ、又は、メモリ制御部209からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部207では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部201が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部207ではさらに、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   The image processing unit 207 performs resizing processing and color conversion processing such as predetermined pixel interpolation and reduction on the data from the A / D converter 206 or the data from the memory control unit 209. The image processing unit 207 performs predetermined calculation processing using the captured image data, and the system control unit 201 performs exposure control and distance measurement control based on the obtained calculation result. Thereby, AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing of the TTL (through-the-lens) method are performed. The image processing unit 207 further performs predetermined arithmetic processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

A/D変換器206からの出力データは、画像処理部207及びメモリ制御部209を介して、或いは、メモリ制御部209を介してメモリ210に直接書き込まれる。メモリ210は、撮像部205によって得られ、A/D変換器206によりデジタルデータに変換された画像データや、表示部101に表示するための画像データを格納する。メモリ210は、所定枚数の静止画や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。   Output data from the A / D converter 206 is directly written into the memory 210 via the image processing unit 207 and the memory control unit 209 or via the memory control unit 209. The memory 210 stores image data obtained by the imaging unit 205 and converted into digital data by the A / D converter 206 and image data to be displayed on the display unit 101. The memory 210 has a storage capacity sufficient to store a predetermined number of still images and a predetermined time of moving images and audio.

また、メモリ210は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器208は、メモリ210に格納されている画像表示用のデータをアナログ信号に変換して表示部101に供給する。こうして、メモリ210に書き込まれた表示用の画像データはD/A変換器208を介して表示部101により表示される。表示部101は、LCD等の表示器上に、D/A変換器208からのアナログ信号に応じた表示を行う。A/D変換器206によって一旦A/D変換され、メモリ210に蓄積されたデジタル信号をD/A変換器208においてアナログ変換し、表示部101に逐次転送して表示することで、ライブビュー画像の表示を行える。   The memory 210 also serves as an image display memory (video memory). The D / A converter 208 converts the image display data stored in the memory 210 into an analog signal and supplies the analog signal to the display unit 101. Thus, the display image data written in the memory 210 is displayed on the display unit 101 via the D / A converter 208. The display unit 101 performs display according to an analog signal from the D / A converter 208 on a display such as an LCD. The digital signal once A / D converted by the A / D converter 206 and stored in the memory 210 is converted into an analog signal by the D / A converter 208 and sequentially transferred to the display unit 101 for display. Can be displayed.

不揮発性メモリ213は、電気的に消去・記憶可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ213には、システム制御部201の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。   The nonvolatile memory 213 is an electrically erasable / storable memory, and for example, an EEPROM or the like is used. The nonvolatile memory 213 stores constants, programs, and the like for operating the system control unit 201. Here, the program is a program for executing various flowcharts described later in the present embodiment.

システム制御部201は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ213に記憶されたプログラムを実行することで、後述する本実施形態の各処理を実現する。212はシステムメモリであり、RAMが用いられる。システムメモリ212には、システム制御部201の動作用の定数、変数、不揮発性メモリ213から読み込んだプログラム等を展開する。また、システム制御部201はメモリ210、D/A変換器208、表示部101等を制御することにより表示制御も行う。   The system control unit 201 controls the entire digital camera 100. By executing the program stored in the non-volatile memory 213 described above, each process of the present embodiment to be described later is realized. A system memory 212 uses a RAM. In the system memory 212, constants and variables for operation of the system control unit 201, programs read from the nonvolatile memory 213, and the like are expanded. The system control unit 201 also performs display control by controlling the memory 210, the D / A converter 208, the display unit 101, and the like.

システムタイマー211は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。   The system timer 211 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.

モード切替ボタン103、第1シャッタースイッチ102a、第2シャッタースイッチ102b、操作部104はシステム制御部201に各種の動作指示を入力するための操作手段である。   The mode switching button 103, the first shutter switch 102a, the second shutter switch 102b, and the operation unit 104 are operation means for inputting various operation instructions to the system control unit 201.

モード切替ボタン103は、システム制御部201の動作モードを静止画撮影モード、動画記録モード、再生モードなどのいずれかに切り替える。静止画撮影モードに含まれるモードとして、オートモード、オートシーン判別モード、マニュアルモード、シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモードなどがある。モード切替ボタン103で、これらのモードのいずれかに直接切り替えられる。あるいは、モード切替ボタン103で撮影モード選択画面に一旦切り替えた後に、撮影モード選択画面に表示された、各撮影モードに対応する選択肢のいずれかを他の操作部材を用いて選択することで切り替えるようにしてもよい。同様に、動画記録モードにも複数のモードが含まれていてもよい。   A mode switching button 103 switches the operation mode of the system control unit 201 to any one of a still image shooting mode, a moving image recording mode, a reproduction mode, and the like. As modes included in the still image shooting mode, there are an auto mode, an auto scene discrimination mode, a manual mode, various scene modes for setting shooting for each scene, a program AE mode, a custom mode, and the like. A mode switching button 103 is used to switch directly to one of these modes. Alternatively, after switching to the shooting mode selection screen once with the mode switching button 103, switching is performed by selecting one of the options corresponding to each shooting mode displayed on the shooting mode selection screen using another operation member. It may be. Similarly, the moving image recording mode may include a plurality of modes.

第1シャッタースイッチ102aは、デジタルカメラ100に設けられたシャッターボタン102の操作途中、いわゆる半押し(撮影準備指示)でオンとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。   The first shutter switch 102a is turned on when the shutter button 102 provided in the digital camera 100 is being operated, so-called half-press (shooting preparation instruction), and generates a first shutter switch signal SW1. In response to the first shutter switch signal SW1, shooting preparation processing such as AF processing, AE processing, AWB processing, and EF processing is started.

第2シャッタースイッチ102bは、シャッターボタン102の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部201は、第2シャッタースイッチ信号SW2により、撮像部205からの信号読み出しから記録媒体109に画像データを書き込むまでの一連の撮影処理を開始する。   The second shutter switch 102b is turned on when the operation of the shutter button 102 is completed, so-called full press (shooting instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 201 starts a series of shooting processes from reading a signal from the imaging unit 205 to writing image data on the recording medium 109.

操作部104の各操作部材は、表示部101に表示される種々の機能アイコンを選択操作することなどにより、シーンごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタンなどがある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部101に表示される。ユーザは、表示部101に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。   Each operation member of the operation unit 104 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit 101, and functions as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is pressed, various setting menu screens are displayed on the display unit 101. The user can make various settings intuitively using the menu screen displayed on the display unit 101 and the four-way buttons and the SET button.

コントローラホイール106は、操作部104に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。   The controller wheel 106 is a rotatable operation member included in the operation unit 104, and is used when a selection item is designated together with a direction button.

電源制御部214は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部214は、その検出結果及びシステム制御部201の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体109を含む各部へ供給する。   The power control unit 214 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is attached, the type of battery, and the remaining battery level. Further, the power control unit 214 controls the DC-DC converter based on the detection result and an instruction from the system control unit 201, and supplies a necessary voltage to each unit including the recording medium 109 for a necessary period.

電源部215は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、リチウムイオン電池等の二次電池、ACアダプタ等からなる。記録媒体I/F216は、メモリカードやハードディスク等の記録媒体109とのインターフェースである。記録媒体109は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。   The power supply unit 215 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a lithium ion battery, an AC adapter, or the like. The recording medium I / F 216 is an interface with the recording medium 109 such as a memory card or a hard disk. The recording medium 109 is a recording medium such as a memory card for recording a captured image, and includes a semiconductor memory, a magnetic disk, or the like.

通信部217は、無線アンテナや有線ケーブルによって外部機器と通信可能に接続し、映像や音声の送受信を行う。通信部217は無線LAN(Local Area Network)やインターネットにも接続可能である。通信部217は撮像部205で撮像された画像データ(ライブビュー画像を含む)や、記録媒体109に記録されている画像ファイルを外部機器に送信でき、また、外部機器から画像データやその他の各種情報を受信できる。   The communication unit 217 is communicably connected to an external device via a wireless antenna or a wired cable, and transmits and receives video and audio. The communication unit 217 can be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 217 can transmit image data (including a live view image) captured by the imaging unit 205 and an image file recorded on the recording medium 109 to an external device, and can also transmit image data and other various types from the external device. Can receive information.

姿勢検知部218は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部218で検知された姿勢に応じて、撮像部205で撮像された画像がデジタルカメラ100を横に構えて撮影されたものか、縦に構えて撮影されたものかを判別可能である。システム制御部201は、姿勢検知部218で検知された姿勢に関する情報を撮像部205で撮像された画像データに付加したり、画像データを回転して記憶することが可能である。姿勢検知部としては、加速度センサやジャイロセンサ等を用いることができる。   The posture detection unit 218 detects the posture of the digital camera 100 with respect to the direction of gravity. Depending on the attitude detected by the attitude detection unit 218, it is possible to determine whether an image captured by the imaging unit 205 was captured with the digital camera 100 held sideways or captured vertically. . The system control unit 201 can add information related to the posture detected by the posture detection unit 218 to the image data captured by the imaging unit 205, or rotate and store the image data. As the posture detection unit, an acceleration sensor, a gyro sensor, or the like can be used.

接眼検知部219はファインダーの接眼部に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)。システム制御部201は、接眼検知部219で検知された状態に応じて、背面表示パネル101aとEVF101bの表示(表示状態)/非表示(非表示状態)を切り替える。接眼検知部219は、例えば赤外線近接センサを用いることができ、EVF101bを内蔵するファインダーの接眼部への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部219の投光部(図示せず)から投光した赤外線が反射して赤外線近接センサの受光部(図示せず)に受光される。受光された赤外線の量によって、物体が接眼部からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部219は、接眼部への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、ファインダーの接眼部に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサは一例であって、接眼検知部219には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを採用してもよい。   The eyepiece detection unit 219 detects the approach (eyepiece) and separation (eyepiece) of the eye (object) with respect to the eyepiece part of the viewfinder (approach detection). The system control unit 201 switches display (display state) / non-display (non-display state) of the rear display panel 101a and the EVF 101b according to the state detected by the eyepiece detection unit 219. The eyepiece detection unit 219 can use, for example, an infrared proximity sensor, and can detect the approach of some object to the eyepiece of the finder incorporating the EVF 101b. When the object approaches, the infrared light projected from the light projecting unit (not shown) of the eyepiece detecting unit 219 is reflected and received by the light receiving unit (not shown) of the infrared proximity sensor. It is also possible to determine how far the object is approaching from the eyepiece (eyepiece distance) based on the amount of received infrared light. Thus, the eyepiece detection unit 219 performs eyepiece detection for detecting the proximity distance of the object to the eyepiece unit. When an object approaching within a predetermined distance from the eyepiece portion of the finder is detected from the non-eyepiece state (non-closed state), it is detected that the eyepiece is in contact. It is assumed that the eye is detected to be removed when the object whose approach has been detected is separated by a predetermined distance or more from the eyepiece state (approaching state). The threshold value for detecting the eyepiece and the threshold value for detecting the eye separation may be different, for example, by providing hysteresis. In addition, after detecting the eyepiece, it is assumed that the eyepiece state is maintained until eye separation is detected. After the eye separation is detected, it is assumed that the eyepiece is in the non-eyepiece state until the eyepiece is detected. Note that the infrared proximity sensor is an example, and the eyepiece detection unit 219 may employ another sensor as long as it can detect the approach of an eye or an object that can be regarded as an eyepiece.

なお、操作部104の1つとして、背面表示パネル101aに対する接触を検知可能なタッチパネル104aを有する。タッチパネル104aと背面表示パネル101aとは一体的に構成することができる。例えば、タッチパネル104aを光の透過率が背面表示パネル101aの表示を妨げないように構成し、背面表示パネル101aの表示面の上層に取り付ける。そして、タッチパネル104aにおける入力座標と、背面表示パネル101a上の表示座標とを対応付ける。これにより、あたかもユーザが背面表示パネル101a上に表示された画面を直接的に操作可能であるかのようなGUI(Grafical User Interface)を構成することができる。すなわち、タッチパネル104aにおけるタッチ検知面が背面表示パネル101aの表示面となる。また、背面表示パネル101aの表示素子と静電容量方式のタッチ検出(タッチ検知)用の電極がセパレータを挟まずに一体的に構成されたインセル型のタッチパネルディスプレイであってもよい。システム制御部201はタッチパネル104aへの以下の操作あるいは状態を検出できる。
・タッチパネル104aにタッチしていなかった指やペンが新たにタッチパネル104aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と呼ぶ)。
・タッチパネル104aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と呼ぶ)。
・タッチパネル104aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と呼ぶ)。
・タッチパネル104aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と呼ぶ)。
・タッチパネル104aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と呼ぶ)。
As one of the operation units 104, a touch panel 104a capable of detecting contact with the rear display panel 101a is provided. The touch panel 104a and the rear display panel 101a can be configured integrally. For example, the touch panel 104a is configured such that the light transmittance does not hinder the display of the rear display panel 101a, and is attached to the upper layer of the display surface of the rear display panel 101a. Then, the input coordinates on the touch panel 104a are associated with the display coordinates on the rear display panel 101a. Thereby, it is possible to configure a GUI (Graphical User Interface) as if the user can directly operate the screen displayed on the rear display panel 101a. That is, the touch detection surface of the touch panel 104a becomes the display surface of the rear display panel 101a. Further, an in-cell type touch panel display in which the display element of the rear display panel 101a and the capacitive touch detection (touch detection) electrode are integrally configured without sandwiching the separator may be used. The system control unit 201 can detect the following operations or states on the touch panel 104a.
-A finger or pen that has not touched the touch panel 104a newly touched the touch panel 104a. That is, the start of touch (hereinafter referred to as touch-down).
The touch panel 104a is touched with a finger or a pen (hereinafter referred to as touch-on).
The touch panel 104a is moved while being touched with a finger or a pen (hereinafter referred to as touch-move).
-The finger or pen that touched the touch panel 104a was released. That is, the end of the touch (hereinafter referred to as touch-up).
A state where nothing is touched on the touch panel 104a (hereinafter referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。   When touchdown is detected, it is also detected that touch-on is performed at the same time. After touch-down, unless touch-up is detected, normally touch-on continues to be detected. The touch move is detected in a state where touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all fingers or pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル104a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部201に通知される。システム制御部201は通知された情報に基づいてタッチパネル104a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル104a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル104a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル104a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行われたと判定するものとするまた、タッチパネル104a上をタッチダウンからタッチムーブすることなく素早くタッチアップすることをタップと呼ぶ。タップを素早く2回連続して行うことをダブルタップと呼ぶ。また、更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。   These operations / states and position coordinates where a finger or pen touches the touch panel 104a are notified to the system control unit 201 through the internal bus. The system control unit 201 determines what operation (touch operation) has been performed on the touch panel 104a based on the notified information. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel 104a can be determined for each vertical component / horizontal component on the touch panel 104a based on the change of the position coordinates. When it is detected that a touch movement has been performed for a predetermined distance or more, it is determined that a slide operation has been performed. An operation of quickly moving a certain distance while touching a finger on the touch panel and releasing it is called a flick. In other words, the flick is an operation of quickly tracing the touch panel 104a with a finger. If it is detected that a touch move is performed at a predetermined speed or more at a predetermined speed or more, and a touch-up is detected as it is, it can be determined that a flick has been performed. In addition, when it is detected that a touch move is performed at a predetermined distance or more at a speed lower than a predetermined speed, it is determined that a drag has been performed. Further, touch up on the touch panel 104a without touch moving from the touch down is performed quickly. Is called a tap. Performing the tap twice in quick succession is called a double tap. Furthermore, a touch operation in which a plurality of locations (for example, two points) are simultaneously touched to bring the touch positions closer to each other is referred to as a pinch-in, and a touch operation that moves the touch positions away from each other is referred to as a pinch-out. Pinch-out and pinch-in are collectively referred to as pinch operation (or simply pinch).

タッチパネル104aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。   The touch panel 104a may be any of various types of touch panels such as a resistive film type, a capacitance type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. Good. Depending on the method, there are a method for detecting that there is a touch due to contact with the touch panel, and a method for detecting that there is a touch due to the approach of a finger or pen to the touch panel, but either method may be used.

なお、ハードウェアの構成は図2に示すものに限定されず、例えば1つのハードウェアが表示制御、通信制御、撮影制御、画像処理制御等を行い、デジタルカメラ100の各手段として機能してもよい。また、複数のハードウェアが協働して1つの手段として機能してもよい。   The hardware configuration is not limited to that shown in FIG. 2. For example, one piece of hardware may perform display control, communication control, shooting control, image processing control, and the like and function as each unit of the digital camera 100. Good. A plurality of hardware may function as one means in cooperation.

デジタルカメラ100は、少なくとも画像を再生するための再生モードと、撮影を行うための撮影モードとで、切り替えて使用することができる。撮影モードとしては、オートモードやマニュアルモード、複数のシーン別撮影モードを備えている。オートモードは、カメラの各種パラメータが、計測された露出値に基づいてデジタルカメラ100に組み込まれたプログラムにより自動的に決定されるモードである。マニュアルモードは、カメラの各種パラメータをユーザが自由に変更可能なモードである。シーン別撮影モードは、撮影シーン別にその撮影シーンに適したシャッター速度や絞り値、ストロボ発光状態、感度設定、ホワイトバランス(WB)設定等を組み合わせることによって実現されるモードである。デジタルカメラ100は、例えば、以下に記す(1)〜(3)のシーン別撮影モードを備えている。但し、これらのシーン別撮影モードに限定されるものではない。
(1)ポートレート撮影モード:背景をぼかして人物を浮き立たせるようにして人物撮影に特化したモード
(2)花撮影モード:マクロモードに設定し、彩度も高めに設定するモード
(3)スポーツ撮影モード:動きの早い被写体を撮影するのに特化した設定とする撮影モード
撮影者は、撮影モード選択画面からデジタルカメラ100を所望の撮影モードに設定して撮影を行うことができる。
The digital camera 100 can be switched between at least a playback mode for playing back an image and a shooting mode for shooting. As shooting modes, an auto mode, a manual mode, and a plurality of scene-specific shooting modes are provided. The auto mode is a mode in which various parameters of the camera are automatically determined by a program incorporated in the digital camera 100 based on the measured exposure value. The manual mode is a mode in which the user can freely change various parameters of the camera. The scene-specific shooting mode is a mode realized by combining a shutter speed and an aperture value, a strobe light emission state, sensitivity setting, white balance (WB) setting, and the like suitable for each shooting scene. The digital camera 100 has, for example, the following scene-specific shooting modes (1) to (3). However, it is not limited to these scene-specific shooting modes.
(1) Portrait shooting mode: A mode specialized in shooting a person by blurring the background to make the person stand up (2) Flower shooting mode: A mode in which the macro mode is set and the saturation is set higher (3) Sports shooting mode: Shooting mode with special settings for shooting a fast-moving subject The photographer can set the digital camera 100 to a desired shooting mode and take a picture from the shooting mode selection screen.

また、カメラ本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する制御装置としては、例えば、携帯電話の一種としてのスマートフォン、タブレットPC、デスクトップPCなどの装置がある。制御装置で行われた操作や制御装置で行われた処理に基づいて、制御装置から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置で表示できるようにしてもよい。   In addition, the present invention can be applied not only to a camera body but also to a control device that communicates with an imaging device (including a network camera) via wired or wireless communication and controls the imaging device remotely. Examples of the control device that remotely controls the imaging device include devices such as a smartphone, a tablet PC, and a desktop PC as a kind of mobile phone. The imaging apparatus can be remotely controlled by notifying the imaging apparatus of commands for performing various operations and settings from the control apparatus based on operations performed by the control apparatus and processing performed by the control apparatus. Further, a live view image captured by the imaging device may be received via wired or wireless communication and displayed on the control device.

<撮影処理>次に、図3から図11を参照して、本実施形態のデジタルカメラ100による撮影モードについて説明する。   <Shooting Process> Next, referring to FIGS. 3 to 11, a shooting mode by the digital camera 100 of this embodiment will be described.

なお、図3の処理は、不揮発性メモリ213に記録されたプログラムを、システムメモリ212に読み出してシステム制御部201が実行することにより実現する。デジタルカメラ100が撮影モードで起動されると、図3の撮影モード処理を開始する。   3 is realized by reading a program recorded in the nonvolatile memory 213 to the system memory 212 and executing it by the system control unit 201. When the digital camera 100 is activated in the shooting mode, the shooting mode process of FIG. 3 is started.

S301では、システム制御部201は、撮影モードの初期化処理を行う。初期化処理とは、フラグや制御変数等を含むパラメータや設定値、設定モードを不揮発性メモリ213から読み出す等の処理である。また、システム制御部201は、記録媒体109の状態を確認し、異常等があれば後述の撮影情報表示時に警告等を表示する。   In step S301, the system control unit 201 performs imaging mode initialization processing. The initialization processing is processing such as reading parameters, setting values, and setting modes including flags and control variables from the nonvolatile memory 213. In addition, the system control unit 201 confirms the state of the recording medium 109, and if there is an abnormality, displays a warning or the like when displaying shooting information described later.

S302では、システム制御部201は、撮像部205での撮像を行い、撮像された映像を、表示部101に含まれる背面表示パネル101aとEVF101bのうち、現在表示先となっているディスプレイにライブビュー画像(以下、LV画像)として表示する。以下、表示部101に含まれる背面表示パネル101aとEVF101bのうち、現在表示先となっているディスプレイに表示することを、単に「表示部101に表示する」と記載するものとする。   In step S <b> 302, the system control unit 201 captures an image with the image capturing unit 205, and displays a live view of the captured image on the display that is currently the display destination among the rear display panel 101 a and the EVF 101 b included in the display unit 101. It displays as an image (hereinafter referred to as LV image). Hereinafter, displaying on the display which is the current display destination among the rear display panel 101a and the EVF 101b included in the display unit 101 is simply referred to as “display on the display unit 101”.

S303では、システム制御部201は、撮影に関わる情報表示を、LV画像に重畳して表示部101に表示する。情報表示として例えば、現在の撮影モードを表す撮影モードアイコン、電池残量表示、残り撮影枚数表示、シャッター速度や絞り値、感度、記録画質などの撮影設定情報を表示する。   In step S <b> 303, the system control unit 201 displays an information display related to photographing on the display unit 101 by superimposing the information display on the LV image. As the information display, for example, a shooting mode icon representing the current shooting mode, a battery remaining amount display, a remaining number of shots displayed, shooting setting information such as shutter speed, aperture value, sensitivity, and recording image quality are displayed.

S304では、システム制御部201は、AF枠表示更新処理を行う(表示内容変更)。AF枠表示更新処理については図4を用いて後述する。   In step S304, the system control unit 201 performs AF frame display update processing (display content change). The AF frame display update process will be described later with reference to FIG.

S305では、システム制御部201は、接眼検知部219の検知状態に変化があったか否かを判定する。検知状態に変化があった場合とは、非接眼状態からの接眼の検知、接眼状態からの離眼の検知のいずれかがあった場合である。検知状態に変化があった場合にはS306へ進み、変化がない場合はS307へ進む。   In step S <b> 305, the system control unit 201 determines whether the detection state of the eyepiece detection unit 219 has changed. The case where there is a change in the detection state is a case where there is either detection of an eyepiece from the non-eyepiece state or detection of an eye separation from the eyepiece state. If there is a change in the detection state, the process proceeds to S306, and if there is no change, the process proceeds to S307.

S306では、システム制御部201は、表示先切替処理を行う。表示先切替処理については図5を用いて後述する。   In step S306, the system control unit 201 performs display destination switching processing. The display destination switching process will be described later with reference to FIG.

S307では、システム制御部201は、操作部104に含まれるメニューボタンが押下されたか否かを判定する。メニューボタンが押下されていた場合はS308へ進み、そうでない場合はS309へ進む。   In step S <b> 307, the system control unit 201 determines whether a menu button included in the operation unit 104 has been pressed. If the menu button has been pressed, the process proceeds to S308, and if not, the process proceeds to S309.

S308では、システム制御部201は、メニュー画面表示処理を行う。メニュー画面表示処理では、表示部101にメニュー画面を表示し、ユーザからの操作に応じた各種設定を行う。メニュー画面を閉じる操作(設定操作の完了操作、メニュー画面を抜ける操作、シャッターボタン102の半押し操作があるとメニュー画面処理を終了してS302に戻る。   In step S308, the system control unit 201 performs menu screen display processing. In the menu screen display process, a menu screen is displayed on the display unit 101, and various settings are performed in accordance with user operations. If there is an operation for closing the menu screen (an operation for completing the setting operation, an operation for exiting the menu screen, or a half-press operation for the shutter button 102), the menu screen processing is terminated and the process returns to S302.

図12(a)から図12(c)に、メニュー画面の表示例を示す。図12(a)は、撮影設定メニュー画面の表示例である。メニュー画面は、撮影設定メニュー、システム設定メニュー、再生設定メニューといったように、機能群ごとにグループ分けされており、それぞれの群に対応するタブを選択することで、対応する群を表示することができる。図12(a)は、撮影設定メニュータブ1201が選択され、撮影設定メニューが表示されている状態を示している。ユーザは操作部104に含まれる上下左右ボタンなどを押下することで、カーソル1204を移動させ、SETボタンを押下することで任意の機能の設定変更画面へ遷移する。メニュー項目1202は、AFモードを設定するためのメニュー項目であり、この項目を選択することで、AFモードを設定できる(AFモード設定)。AF(オートフォーカス)を行う位置の決定方式ごとに複数のAFモードが用意されており、ユーザは複数のAFモードのうちいずれかを選択して設定することができる。本実施形態では、AFモードとして、一点AFモードと、追尾モードのいずれかが設定できるものとする。一点AFモードは、撮影範囲の中央、あるいはユーザが指定した一点に焦点調節位置を表すAF枠を設定するAFモードである。一点AFモードでは、AF枠は被写体に変化があっても移動せず、顔などの被写体が検出されているか否かに関わらず、AF枠の位置から得られた情報(コントラスト値や位相差AF用のデフォーカス量)に基づいてAFが行われる。追尾モードでは、ユーザからの追尾指定がない場合(追尾待機中、追尾解除状態)は、デジタルカメラ100が自動的に主被写体と判定した被写体がAF対象(焦点調節位置)となる。人物の顔が検出された場合は顔を優先して主被写体としてAF対象にする。人物の顔が検出されていない場合は、動体、コントラスト値の高い被写体、中央に近い被写体などの所定の条件に従って主被写体をデジタルカメラ100が自動的に決定してAF対象とする。また、ユーザからの追尾指定がなされた後は、LV画像中で指定された被写体を追尾し続け、追尾している被写体をAF対象とする。例えばユーザが人物Aの顔を追尾指定した場合(追尾中)は、LV画像上で人物Aが移動しても人物Aの顔を追い続け、AF対象とする。また、人物以外を追尾対象とすることも可能であり(モノ追尾)、追尾指定された位置の色、コントラスト、形状などを条件として、同一の被写体がLV画像中で移動しても追い続け、AF対象とする。すなわち、追尾モードは追尾を行うことによるAF位置の決定が可能なAFモードである。なお、AFモードは一点AFモードと追尾モードに限るものではない。例えばユーザが指定した限定領域内で追尾を行うAFモード(「ゾーンAF」)などがあってもよい。設定したAFモードは、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。   FIG. 12A to FIG. 12C show display examples of the menu screen. FIG. 12A is a display example of the shooting setting menu screen. The menu screen is grouped by function group, such as the shooting setting menu, system setting menu, and playback setting menu, and the corresponding group can be displayed by selecting the tab corresponding to each group. it can. FIG. 12A shows a state where the shooting setting menu tab 1201 is selected and the shooting setting menu is displayed. The user moves the cursor 1204 by pressing an up / down / left / right button included in the operation unit 104, and transitions to a setting change screen for an arbitrary function by pressing the SET button. The menu item 1202 is a menu item for setting the AF mode. By selecting this item, the AF mode can be set (AF mode setting). A plurality of AF modes are prepared for each position determination method for performing AF (autofocus), and the user can select and set one of the plurality of AF modes. In the present embodiment, it is assumed that either the single point AF mode or the tracking mode can be set as the AF mode. The one-point AF mode is an AF mode in which an AF frame representing the focus adjustment position is set at the center of the shooting range or at one point designated by the user. In the one-point AF mode, the AF frame does not move even if the subject changes, and information (contrast value and phase difference AF) obtained from the position of the AF frame regardless of whether a subject such as a face is detected or not. AF is performed on the basis of the defocus amount). In the tracking mode, when there is no tracking designation from the user (when tracking is on standby or in the tracking release state), the subject that the digital camera 100 automatically determines as the main subject is the AF target (focus adjustment position). When a human face is detected, the face is prioritized and set as an AF target as the main subject. When a human face is not detected, the digital camera 100 automatically determines the main subject as an AF target according to predetermined conditions such as a moving object, a subject with a high contrast value, and a subject near the center. Further, after the tracking designation from the user is made, the subject designated in the LV image is continuously tracked, and the subject being tracked is set as the AF target. For example, when the user designates tracking of the face of the person A (during tracking), even if the person A moves on the LV image, the face of the person A is continuously tracked and set as an AF target. In addition, it is possible to set a tracking target other than a person (mono tracking), and the tracking continues even if the same subject moves in the LV image, on the condition of the color, contrast, shape, etc. of the tracking specified position. Set as AF target. That is, the tracking mode is an AF mode in which the AF position can be determined by performing tracking. The AF mode is not limited to the single point AF mode and the tracking mode. For example, there may be an AF mode (“zone AF”) in which tracking is performed within a limited area designated by the user. The set AF mode is stored in the nonvolatile memory 213, and is read out to the system memory 212 in the photographing mode processing.

図12(b)は、表示部101に表示されるタッチ&ドラッグAFに関する設定画面の表示例である。タッチ&ドラッグAFの設定画面は、撮影設定メニューに含まれるメニュー項目のうち、タッチ&ドラッグAFの項目が選択されると表示される。タッチ&ドラッグAFの設定画面では、画面タイトル1211と、各設定項目1212、1213、1214が表示される。   FIG. 12B is a display example of a setting screen related to touch and drag AF displayed on the display unit 101. The touch & drag AF setting screen is displayed when the touch & drag AF item is selected from the menu items included in the shooting setting menu. On the setting screen for touch & drag AF, a screen title 1211 and setting items 1212, 1213 and 1214 are displayed.

設定項目1212では、タッチ&ドラッグAFを「する」または「しない」のいずれか設定可能である。「する」に設定した場合は、タッチ&ドラッグAFが有効(ON)となり、接眼状態でのタッチムーブに応じてAF位置を変更することが可能となる。「しない」に設定された場合は、タッチ&ドラッグAFが無効(OFF)となり、接眼状態でタッチムーブを行ってもAF位置は変更されない。タッチ&ドラッグAFが「しない」に設定された場合は、接眼が検知されたことに応じてタッチパネル104aでのタッチの検出を停止し、タッチパネル104aを駆動するための消費電力を削減するようにしてもよい。設定された内容は、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。   In the setting item 1212, either “Yes” or “No” can be set for the touch and drag AF. When “Yes” is set, touch & drag AF is enabled (ON), and the AF position can be changed according to the touch move in the eyepiece state. When “No” is set, the touch and drag AF is disabled (OFF), and the AF position is not changed even if the touch move is performed in the eyepiece state. When the touch & drag AF is set to “No”, detection of touch on the touch panel 104a is stopped in response to detection of the eyepiece, and power consumption for driving the touch panel 104a is reduced. Also good. The set contents are stored in the non-volatile memory 213 and read out to the system memory 212 in the shooting mode process.

設定項目1213では、タッチ&ドラッグAFを「する」とした場合に、接眼検知中のタッチ操作に応じたAF位置の指定方法を、絶対位置指定と相対位置指定のいずれかに設定可能である。初期値は絶対位置指定である。絶対位置指定の場合、タッチパネル104aの操作面内の位置座標と、撮影範囲内のAF可能領域が一意に対応づけられ、タッチパネル104aがタッチされると、タッチされた位置に対応づけられた撮影範囲内の位置にAF位置が設定される。従って、例えばLV画像に写っている右下の被写体の位置をAF位置としたい場合には、ユーザはタッチパネル104aの右下の位置をタッチすればAF位置を右下に設定することができる。一方、相対位置指定の場合は、タッチパネル104aの操作面内の位置座標と、撮影範囲内のAF可能領域は一意に対応づけられない。相対位置指定では、タッチパネル104aに対するタッチムーブが行われると、タッチダウン位置に関わらず、現在設定されているAF位置から、タッチムーブの移動方向に、タッチムーブの移動量に応じた距離だけ、タッチ位置を移動させる。これは、パーソナルコンピュータにおけるマウスでのカーソル移動と類似の動作である。設定された内容は、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。   In the setting item 1213, when touch & drag AF is set to “Yes”, the AF position designation method corresponding to the touch operation during eyepiece detection can be set to either absolute position designation or relative position designation. The initial value is an absolute position specification. In the case of absolute position designation, the position coordinates in the operation surface of the touch panel 104a and the AF-enabled area in the shooting range are uniquely associated, and when the touch panel 104a is touched, the shooting range associated with the touched position. The AF position is set at the inner position. Therefore, for example, when it is desired to set the position of the lower right subject in the LV image as the AF position, the user can set the AF position to the lower right by touching the lower right position of the touch panel 104a. On the other hand, in the case of relative position designation, the position coordinates in the operation surface of the touch panel 104a and the AF enabled area in the imaging range are not uniquely associated. In the relative position designation, when a touch move is performed on the touch panel 104a, the touch is moved by a distance corresponding to the amount of movement of the touch move from the currently set AF position to the movement direction of the touch move regardless of the touchdown position. Move position. This is an operation similar to cursor movement with a mouse in a personal computer. The set contents are stored in the non-volatile memory 213 and read out to the system memory 212 in the shooting mode process.

設定項目1214では、タッチ&ドラッグAFを「する」に設定した場合に、接眼検知中のタッチ操作を受け付けるタッチパネル104aのタッチ領域の範囲(タッチ反応領域)を設定可能である。タッチ&ドラッグAFではEVF101bを覗きながらタッチ操作を行うため、例えばユーザの鼻がタッチパネル104aに触れてしまう可能性がある。この鼻のタッチがタッチ位置の移動指示操作として受け付けられると、AF位置が所望ではない位置に移動してしまう。これを防ぐために、タッチ反応領域を制限する手段が設けられている。タッチ反応領域ではない領域に鼻がタッチしてもタッチ位置の移動操作として受け付けられることはないので、鼻のタッチによってAF位置が所望ではない位置に移動してしまうことを防止できる。設定項目1214が選択されると、図12(c)に示す詳細設定画面が表示される。詳細設定画面にはタッチ反応領域をタッチパネル104aのうちいずれの領域にするかを選択可能な選択肢が表示される。これらの選択肢から選択された領域が、接眼状態におけるタッチ反応領域として設定され、タッチ反応領域として設定された領域以外は、接眼状態においてはタッチ無効の領域となる。タッチ反応領域として設定可能な選択肢には、「全体」、「右」、「左」、「右上」、「右下」、「左上」、「左下」があるものとするが、これらに限られない。なお、タッチ反応領域の設定は、タッチ&ドラッグAFが「する」に設定されていた場合の接眼状態に反映される設定である。タッチ&ドラッグAFが「しない」に設定された場合の接眼状態は設定項目1214の設定に関わらずタッチパネル104aの全体がタッチ無効領域(非反応領域)となる。非接眼状態では、タッチ&ドラッグAFの設定、及び設定項目1214の設定に関わらず、タッチパネル104aの全体がタッチ有効領域(反応領域)となる。   In the setting item 1214, when touch & drag AF is set to “Yes”, it is possible to set a touch area range (touch reaction area) of the touch panel 104a that accepts a touch operation during eyepiece detection. In the touch and drag AF, a touch operation is performed while looking into the EVF 101b. For example, the user's nose may touch the touch panel 104a. When this nose touch is accepted as a touch position movement instruction operation, the AF position moves to an undesired position. In order to prevent this, a means for limiting the touch reaction area is provided. Even if the nose touches an area that is not a touch reaction area, it is not accepted as a movement operation of the touch position, so that it is possible to prevent the AF position from moving to an undesired position due to the nose touch. When the setting item 1214 is selected, a detailed setting screen shown in FIG. 12C is displayed. On the detailed setting screen, options that can select which area of the touch panel 104a is to be used as the touch reaction area are displayed. An area selected from these options is set as a touch reaction area in the eyepiece state, and areas other than the area set as the touch reaction area are inactive areas in the eyepiece state. Options that can be set as a touch response area include “all”, “right”, “left”, “upper right”, “lower right”, “upper left”, and “lower left”. Absent. Note that the setting of the touch reaction area is a setting reflected in the eyepiece state when the touch & drag AF is set to “Yes”. When the touch & drag AF is set to “OFF”, the entire touch panel 104a becomes a touch invalid area (non-reactive area) regardless of the setting of the setting item 1214. In the non-eyepiece state, the entire touch panel 104a becomes the touch effective area (reaction area) regardless of the setting of the touch & drag AF and the setting of the setting item 1214.

図3の説明に戻り、S309では、システム制御部201は、操作部104に含まれるタッチ&ドラッグAFボタンが押下されたか否かを判定する。タッチ&ドラッグAFボタンが押下されていたらS310へ進み、そうでない場合はS311へ進む。   Returning to the description of FIG. 3, in step S <b> 309, the system control unit 201 determines whether the touch and drag AF button included in the operation unit 104 has been pressed. If the touch & drag AF button is pressed, the process proceeds to S310, and if not, the process proceeds to S311.

S310では、システム制御部201は、前述のタッチ&ドラッグAFの設定を「する」または「しない」に切り替え、設定変更されたことを示すガイダンスを表示する。すなわち、図12(b)で説明した設定画面を表示することなく、LV画像を表示したまま、設定項目1212の設定の変更を行うことが可能である。タッチ&ドラッグAFボタンの押下によって、タッチ&ドラッグAFの設定が「しない」から「する」に変更された場合の表示部101での表示例を図11(a)に示す。図11(a)に示すように、LV画像1131に重畳して、タッチ&ドラッグAFの設定値を表すガイダンス1132を表示する(図11(a)は、タッチ&ドラッグAFの設定を「する」に変更した際のガイダンス)。ガイダンス1132は、所定時間(例えば2秒)経過後に非表示にするものとする。なお、タッチ&ドラッグAFボタンは、ユーザが予め割り当て機能をカスタマイズすることが可能であり、タッチ&ドラッグAFの「する」または「しない」の切り替え以外の機能を割り当てる(登録する)ことも可能である。タッチ&ドラッグAFの「する」または「しない」の切り替え以外の機能が割り当てられていた場合には、S310の処理は行わず。その時点でタッチ&ドラッグAFボタンに割り当てられている機能を実行するものとする。タッチ&ドラッグAFボタンに割り当て可能な機能としては、例えば、動画の記録開始指示、ストロボの発光/非発光の設定切替、タッチダウンに応じて撮影を行うタッチシャッターのオン/オフ切替、絞り込み機能などがある。また、絞り込み機能とは、設定された絞りで撮影した場合に、どのようなピント具合になっているのか(どの程度のボケ味となるか)を確認することができる機能である。絞り込み機能を割り当てた際は、ボタンを押下し続けている間は、絞り込み機能が発動している状態となる。   In step S310, the system control unit 201 switches the touch and drag AF setting to “Yes” or “No”, and displays guidance indicating that the setting has been changed. That is, it is possible to change the setting of the setting item 1212 while displaying the LV image without displaying the setting screen described with reference to FIG. FIG. 11A shows a display example on the display unit 101 when the touch & drag AF setting is changed from “No” to “Yes” by pressing the touch & drag AF button. As shown in FIG. 11A, the guidance 1132 representing the setting value of the touch and drag AF is displayed superimposed on the LV image 1131 (FIG. 11A “sets” the setting of the touch and drag AF. Guidance when changing to). The guidance 1132 is not displayed after a predetermined time (for example, 2 seconds) has elapsed. Note that the touch & drag AF button can be assigned in advance by the user, and a function other than switching between “Yes” and “No” of Touch & Drag AF can be assigned (registered). is there. If a function other than the touch / drag AF switching “Yes” or “No” is assigned, the process of S310 is not performed. It is assumed that the function assigned to the touch & drag AF button at that time is executed. Functions that can be assigned to the touch & drag AF button include, for example, an instruction to start recording a movie, a setting to turn on / off the flash, a touch shutter on / off switch for shooting in response to a touchdown, a narrowing function, etc. There is. In addition, the narrowing-down function is a function that allows the user to check what kind of focus is achieved (how much blurring is achieved) when shooting with a set aperture. When the narrowing function is assigned, the narrowing function is activated while the button is kept pressed.

S311では、システム制御部201は、タッチダウンを検出したか否かを判定する。タッチダウンがあった場合はS312へ進み、そうでない場合はS313へ進む。S312では、システム制御部201はタッチダウン処理を行う。タッチダウン処理については図6を用いて後述する。   In step S311, the system control unit 201 determines whether touchdown has been detected. If there is a touchdown, the process proceeds to S312; otherwise, the process proceeds to S313. In step S312, the system control unit 201 performs touchdown processing. The touchdown process will be described later with reference to FIG.

S313では、システム制御部201は、タッチオンの状態でタッチムーブを検出したか否かを判定する。タッチムーブがあった場合はS314へ進み、そうでない場合(タッチオフ状態を含む)はS315へ進む。S314では、システム制御部201は、タッチムーブ処理を行う。タッチムーブ処理については図7を用いて後述する。   In step S313, the system control unit 201 determines whether a touch move is detected in a touch-on state. If there is a touch move, the process proceeds to S314; otherwise (including the touch-off state), the process proceeds to S315. In step S314, the system control unit 201 performs touch move processing. The touch move process will be described later with reference to FIG.

S315では、システム制御部201は、タッチアップを検出したか否かを判定する。タッチアップがあった場合はS316へ進み、そうでない場合(元々タッチオフであった場合、後述のタッチキャンセル処理でタッチがキャンセルされた後の場合を含む)はS317へ進む。S316では、システム制御部201は、タッチアップ処理を行う。タッチアップ処理については図8を用いて後述する。   In step S315, the system control unit 201 determines whether touch-up has been detected. If there is a touch-up, the process proceeds to S316; otherwise (the case where the touch-off is originally included, including the case after the touch is canceled by a touch cancel process described later), the process proceeds to S317. In step S316, the system control unit 201 performs touch-up processing. The touch-up process will be described later with reference to FIG.

S317では、システム制御部201は、タッチキャンセル操作を検出したか否かを判定する。タッチキャンセル処理があった場合はS31に進み、そうでない場はS319に進む。タッチキャンセル操作とは、例えばタッチオン状態におけるタッチパネル104a以外に対する操作(操作部104のうちタッチパネル104a以外に対する操作)のことである。タッチオン状態で操作部104が操作されると、タッチオン状態を解除し、操作部104の操作を有効とする。例えば、シャッターボタン102が半押しされると、タッチキャンセル処理を行い、撮影準備処理を開始する。S318では、システム制御部201は、タッチキャンセル処理を行う。タッチキャンセル処理については図9を用いて後述する。 In step S317, the system control unit 201 determines whether a touch cancel operation has been detected. If there was a touch cancel the process proceeds to S31 8, place is not the case, the process proceeds to S3 19. The touch cancel operation is, for example, an operation other than the touch panel 104a in a touch-on state (an operation on the operation unit 104 other than the touch panel 104a). When the operation unit 104 is operated in the touch-on state, the touch-on state is canceled and the operation of the operation unit 104 is validated. For example, when the shutter button 102 is half-pressed, a touch cancel process is performed and a shooting preparation process is started. In step S318, the system control unit 201 performs touch cancellation processing. The touch cancellation process will be described later with reference to FIG.

S319では、システム制御部201は、操作部104に含まれる枠ボタンが押下されたか否かを判定する。枠ボタンが押下されていたらS320へ進み、そうでない場合はS321へ進む。S320では、システム制御部201は、枠ボタン処理を行う。枠ボタン処理については図10を用いて後述する。   In step S319, the system control unit 201 determines whether the frame button included in the operation unit 104 has been pressed. If the frame button has been pressed, the process proceeds to S320, and if not, the process proceeds to S321. In S320, the system control unit 201 performs a frame button process. The frame button process will be described later with reference to FIG.

S321では、システム制御部201は、第1シャッタースイッチ102aおよび第2シャッタースイッチ102bがオンとなったか否かを判定する。これらのスイッチがオンされていたらS322へ進み、そうでない場合はS323に進む。   In step S321, the system control unit 201 determines whether the first shutter switch 102a and the second shutter switch 102b are turned on. If these switches are turned on, the process proceeds to S322, and if not, the process proceeds to S323.

S322では、システム制御部201は、第1シャッタースイッチ102aのオン(シャッターボタン102の半押し)に応じた撮影準備処理、および、第2シャッタースイッチ102bのオン(シャッターボタン102の全押し)に応じた撮影処理を行う。S322の撮影準備処理では、タッチ&ドラッグAFなどにより、その時点で設定されているAF位置に基づいて、AF、AE、AWBなどの処理が行われる。   In step S322, the system control unit 201 responds to the shooting preparation process in response to the first shutter switch 102a being turned on (half-pressing the shutter button 102) and the second shutter switch 102b being turned on (full pressing of the shutter button 102). Perform the shooting process. In the shooting preparation processing in S322, AF, AE, AWB, and the like are performed based on the AF position set at that time by touch & drag AF or the like.

S323では、システム制御部201は、撮影モード終了操作(電源をオフとする操作や再生モードに遷移する操作等)がなされたか否かを判定する。終了操作がなされていない場合はS324に進み、システム制御部201は、その他の処理を行う。例えば操作部104が操作されたことに応じて、シャッタースピードを変更するなどの処理を行う。S323で終了操作がされた場合は、撮影モード処理を終了する。   In step S323, the system control unit 201 determines whether a shooting mode end operation (such as an operation for turning off the power or an operation for switching to the playback mode) has been performed. If the termination operation has not been performed, the process proceeds to S324, and the system control unit 201 performs other processing. For example, processing such as changing the shutter speed is performed in response to the operation unit 104 being operated. If the end operation is performed in S323, the shooting mode process is ended.

<AF枠表示更新処理>次に、図4を用いて、図3のS304におけるAF枠表示更新処理の詳細を説明する。   <AF Frame Display Update Processing> Next, details of the AF frame display update processing in S304 of FIG. 3 will be described with reference to FIG.

S401では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFであればS402へ進み、そうでない場合はS404へ進む。   In step S401, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the AF mode is single point AF. If it is one point AF, it will progress to S402, and if that is not right, it will progress to S404.

S404では、システム制御部201は、被写体を追尾中か否かを判定する。追尾中の場合はS405へ進み、そうでない場合はS406へ進む。   In step S404, the system control unit 201 determines whether the subject is being tracked. If tracking is in progress, the process proceeds to S405. If not, the process proceeds to S406.

S402では、システム制御部201は、一点AF枠を表示部101に表示する。一点AF枠表示の表示例を図11(b)に示す。図11(b)には、被写体1133を含むLV画像に重畳して、一点AF枠1134と、撮影パラメータを示す撮影情報1135を表示している。一点AF枠1134の位置は、タッチパネル104aに対する操作、あるいは枠移動モードにおける操作部104に含まれる上下左右ボタンなどの操作によって、LV画像中のユーザが指定した位置に移動させることができる。一点AF枠1134の位置が後述するS403でのAF位置となる。   In step S <b> 402, the system control unit 201 displays a one-point AF frame on the display unit 101. A display example of the single point AF frame display is shown in FIG. In FIG. 11B, a one-point AF frame 1134 and shooting information 1135 indicating shooting parameters are displayed superimposed on the LV image including the subject 1133. The position of the one-point AF frame 1134 can be moved to a position designated by the user in the LV image by an operation on the touch panel 104a or an operation of the up / down / left / right buttons included in the operation unit 104 in the frame movement mode. The position of the one-point AF frame 1134 becomes the AF position in S403 described later.

S405では、システム制御部201は、追尾対象の位置と、追尾の実行中であることを示す追尾枠を表示部101に表示する。追尾枠の表示画面例を図11(d)に示す。図11(d)は、LV画像中の被写体1137を追尾している状態を示している。追尾対象の被写体の周辺に、追尾枠1138を表示して、この被写体を追尾中であることを示している。デジタルカメラ100をフレーミングして撮影範囲を変更しても、被写体1137が撮影範囲に収まっていれば、追尾枠1138は被写体1137を示し続ける。追尾枠1138の位置が後述するS403でのAF位置となる。   In step S <b> 405, the system control unit 201 displays a tracking target position and a tracking frame indicating that tracking is being performed on the display unit 101. An example of a tracking frame display screen is shown in FIG. FIG. 11D shows a state in which the subject 1137 in the LV image is being tracked. A tracking frame 1138 is displayed around the subject to be tracked to indicate that this subject is being tracked. Even if the shooting range is changed by framing the digital camera 100, if the subject 1137 is within the shooting range, the tracking frame 1138 continues to show the subject 1137. The position of the tracking frame 1138 becomes an AF position in S403 described later.

S406では、システム制御部201は、顔検出処理(特定の被写体の検出処理)によってLV画像から顔(特定の被写体)が検出されているか否かを判定する。顔が検出されている場合はS407に進み、検出されていない場合はS408に進む。   In step S406, the system control unit 201 determines whether a face (specific subject) is detected from the LV image by the face detection processing (specific subject detection processing). If a face has been detected, the process proceeds to S407, and if no face has been detected, the process proceeds to S408.

S407では、システム制御部201は、検出された顔の位置を示す検出枠(検出指標)を表示部101に表示する。検出枠表示の画面例を図11(c)に示す。図11(c)は、LV画像から、顔1133を検出している状態を示している。検出対象の被写(顔)体の周辺に、検出枠1136を表示して、この顔を検出中であることを示している。なお、検出枠1136は被写体の検出結果に応じて、複数表示してもよい。すなわち、顔が複数検出されていれば検出枠1136(顔枠)は複数表示される。なお、顔は、LV画像を画像処理部207で解析することにより検出可能であるものとする。本実施形態では、画像処理部207で検出可能な特定の被写体として顔を検出できる例を説明しているが、人物の顔に限らず、LV画像中で主被写体としてデジタルカメラ100が自動的に決定したその他の被写体に対して検出枠1136を表示してもよい。例えば、顔以外に、動物の顔、動体、コントラストの高い被写体などを検出出来た場合、検出枠を表示してAF位置としてもよい。なお、顔が検出された場合は基本的には顔が主被写体として優先度が高くなる。検出枠1136の位置が後述するS403でのAF位置となる。   In step S <b> 407, the system control unit 201 displays a detection frame (detection index) indicating the detected face position on the display unit 101. An example of a detection frame display screen is shown in FIG. FIG. 11C shows a state in which the face 1133 is detected from the LV image. A detection frame 1136 is displayed around the subject (face) body to be detected to indicate that this face is being detected. A plurality of detection frames 1136 may be displayed according to the detection result of the subject. That is, if a plurality of faces are detected, a plurality of detection frames 1136 (face frames) are displayed. Note that the face can be detected by analyzing the LV image by the image processing unit 207. In the present embodiment, an example in which a face can be detected as a specific subject that can be detected by the image processing unit 207 is described. However, the digital camera 100 is not limited to a person's face and the digital camera 100 is automatically used as a main subject in an LV image. Detection frames 1136 may be displayed for other determined subjects. For example, when an animal face, moving object, high-contrast subject, etc. can be detected in addition to the face, a detection frame may be displayed as the AF position. When a face is detected, the priority is basically high as the face is the main subject. The position of the detection frame 1136 becomes an AF position in S403 described later.

S40では、システム制御部201は、検出枠を非表示とする。すなわち、直前まで検出枠を表示していた場合は表示していた検出枠を消去し、直前も検出枠を表示していなかった場合は、引き続き検出枠を表示しない。 In S40 8, the system control unit 201, and hides the detection frame. That is, when the detection frame is displayed until immediately before, the displayed detection frame is deleted, and when the detection frame is not displayed immediately before, the detection frame is not continuously displayed.

S40では、システム制御部201は、コンティニュアスAFを行う位置を、現在のAF位置に更新し、コンティニュアスAFを行う。コンティニュアスAFとは、ユーザによるAF実行操作がなくとも、撮影待機状態においてAF位置に自動的にピントを合わせ続けるように連続的(継続的)にAF動作を行う機能である。 In S40 3, the system control unit 201, the position for continuous AF, and updates the current AF position, performs continuous AF. Continuous AF is a function that performs an AF operation continuously (continuously) so as to automatically keep the focus at the AF position in the shooting standby state even if the user does not perform an AF execution operation.

<表示先切替処理>次に、図5を用いて、図3のS306における表示先切替処理の詳細を説明する。   <Display Destination Switching Process> Next, the details of the display destination switching process in S306 of FIG. 3 will be described with reference to FIG.

S501では、システム制御部201は、接眼検知部219が検知した状態変化が、非接眼状態から接眼状態への変化であったか否か(すなわち、接眼を検知したか)を判定する。非接眼状態から接眼状態への変化だった場合はS506へ進み、そうでない場合はS502へ進む。   In step S <b> 501, the system control unit 201 determines whether the state change detected by the eyepiece detection unit 219 is a change from a non-eyepiece state to an eyepiece state (that is, whether an eyepiece is detected). If it is a change from the non-eyepiece state to the eyepiece state, the process proceeds to S506, and if not, the process proceeds to S502.

S506では、システム制御部201は、表示先を背面表示パネル101aからEVF101bへ切り替える。S506では、表示先の切り替えの要因となった接眼状態への変化(接眼の検知)の前からタッチを検出していた(タッチオンであった)場合にも、すぐに表示先を背面表示パネル101aからEVF101bに切り替える。一方、S507で後述するが、S501でNOと判定された場合(離眼が検知された場合)は、接眼状態への変化前からタッチオンであった場合は、すぐには表示先の切り替えは行わない。   In step S506, the system control unit 201 switches the display destination from the rear display panel 101a to the EVF 101b. In S506, even when the touch is detected (touch-on) before the change to the eyepiece state (detection of the eyepiece) that causes the switching of the display destination, the display destination is immediately displayed on the rear display panel 101a. To EVF 101b. On the other hand, as will be described later in S507, if it is determined NO in S501 (when eye separation is detected), the display destination is immediately switched if the touch-on has occurred before the change to the eyepiece state. Absent.

S508では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFであればS515へ進み、そうでない場合は(追尾モードであれば)S510へ進む。   In step S <b> 508, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether the AF mode is single point AF. If it is a single point AF, the process proceeds to S515, and if not (the tracking mode), the process proceeds to S510.

S510では、システム制御部201は、ユーザに指定された被写体を追尾中であるか否かを判定する。追尾中であると判定した場合はS512に進み、そうでない場合はS515に進む。   In step S510, the system control unit 201 determines whether the subject specified by the user is being tracked. If it is determined that tracking is in progress, the process proceeds to S512, and if not, the process proceeds to S515.

S512では、システム制御部201は、追尾解除方法を示す追尾解除ガイドをEVF101bに表示する。ユーザはこの表示を見て、必要に応じて被写体追尾解除を行うことが可能である。追尾解除ガイドはメッセージ表示や、アイコン表示などである。追尾解除は、追尾解除ガイドとしてのアイコンに対するタッチ操作(表示先が背面表示パネル101aである場合のみ)や、操作部104に含まれるボタン操作によって行えるものとする。   In S512, the system control unit 201 displays a tracking cancellation guide indicating the tracking cancellation method on the EVF 101b. The user can see the display and cancel subject tracking as necessary. The tracking cancellation guide includes message display and icon display. The tracking cancellation can be performed by a touch operation on an icon as a tracking cancellation guide (only when the display destination is the rear display panel 101a) or a button operation included in the operation unit 104.

一方、S502では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS503へ進み、そうでない場合はS507へ進む。S503では、システム制御部201は、現在の状態がタッチオンであるか(有効なタッチを検出しているか)否かを判定する。タッチオンである場合はS504へ進み、そうでない場合はS507へ進む。   On the other hand, in step S <b> 502, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether or not the above-described touch and drag AF setting is “Yes”. If it is set to “Yes”, the process proceeds to S503, and if not, the process proceeds to S507. In step S503, the system control unit 201 determines whether the current state is touch-on (a valid touch is detected). If it is touch-on, the process proceeds to S504, and if not, the process proceeds to S507.

S504では、システム制御部201は、接眼検知部219において非接眼状態が所定時間継続したか(例えば2秒継続したか)否かを判定する。所定時間継続した場合はS505へ進み、そうでない場合はS507へ進む。   In step S <b> 504, the system control unit 201 determines whether the non-eyepiece state has continued for a predetermined time (for example, continued for 2 seconds) in the eyepiece detection unit 219. If it continues for a predetermined time, the process proceeds to S505, and if not, the process proceeds to S507.

S505では、システム制御部201は、接眼検知部219の検知状態に変化があったか否かを判定する。S505の検知前は非接眼状態であるので、S505の処理は、すなわち、接眼を検知したか否かの判定である。変化があった場合(接眼を検知した場合)にはS501へ進み、変化がない場合(非接眼状態のままであれば)S503へ戻り、EVF101bの表示を維持する。   In step S <b> 505, the system control unit 201 determines whether the detection state of the eyepiece detection unit 219 has changed. Since the eyepiece is in the non-eyepiece state before the detection in S505, the process in S505 is to determine whether or not an eyepiece has been detected. If there is a change (when an eyepiece is detected), the process proceeds to S501. If there is no change (if the eyepiece remains in the non-eyepiece state), the process returns to S503, and the display of the EVF 101b is maintained.

S507では、システム制御部201は、表示先をEVF101bから背面表示パネル101aへ切り替える。この表示先の切り替えは、S503からS505で説明したように接眼状態の変化前(離眼検知前)からタッチオンであった場合は、すぐには行われない。離眼検知時にタッチオフであった場合、および、離眼検知時にタッチオン(S503でYES)であったが、離眼検知後に非接眼状態が所定時間継続した場合(S504でYES)またはタッチオフとなった場合(S803でNO)に行われる。また、背面表示パネル101aへの切り替えと共に、タッチパネル104aのキャリブレーション(初期化処理)を行う。静電容量方式のタッチパネルでは、キャリブレーションによって、タッチ有無の判定のために基準とする静電容量値、あるいは静電容量の閾値を、キャリブレーションによって調整する。静電容量方式のタッチパネルにおいて、タッチされたままの状態でキャリブレーションを行うと、タッチの有無の判定、および/または、タッチオン状態でのタッチ位置の算出に誤判定やズレを生じさせるおそれがある。また、インセル型のタッチパネルにおいては、表示素子とタッチ検出用の電極がセパレータを挟まずに構成されているため、表示素子の駆動とタッチ検出が干渉するおそれがある。従って、背面表示パネル101aの表示開始とキャリブレーションを、タッチされたまま同時に行うと、タッチの有無の判定、および/またはタッチ位置の算出に誤判定やズレを生じさせる可能性が高い。これに対し、S507では、接眼状態の変化前(離眼検知前)からタッチオンであった場合は、キャリブレーションをすぐには行わないように制御しているため、キャリブレーションをより正確に行うことができる。なお、離眼後に非接眼状態が所定時間継続した場合(S504でYES)は、表示先をEVF101bから背面表示パネル101aへ切り替えるが、キャリブレーションはタッチオフとなるまで行わないようにしてもよい。この場合はタッチオフとなるとキャリブレーションを行う。なお、S503でタッチオンでないと判定された場合でも、後述する指定位置指標が表示されている間は、一連のタッチ操作の途中であると想定して、表示先の切り替えを抑制するようにS504に進むようにしてもよい。   In step S507, the system control unit 201 switches the display destination from the EVF 101b to the rear display panel 101a. The switching of the display destination is not immediately performed when touch-on is performed before the eyepiece state changes (before eye separation detection) as described in S503 to S505. If touch-off was detected at the time of eye separation detection and touch-on at the time of detection of eye separation (YES in S503), but the non-eyepiece state continued for a predetermined time after detection of eye separation (YES in S504), or touch-off occurred If this is the case (NO in S803), the process is performed. In addition to switching to the rear display panel 101a, calibration (initialization processing) of the touch panel 104a is performed. In a capacitive touch panel, the calibration adjusts the reference capacitance value or the threshold value of the capacitance by calibration. In a capacitive touch panel, if calibration is performed in a touched state, there is a risk of misjudgment or misalignment in determining whether there is a touch and / or calculating the touch position in a touch-on state. . In the in-cell type touch panel, since the display element and the touch detection electrode are configured without sandwiching the separator, the drive of the display element and the touch detection may interfere with each other. Therefore, if the display start and calibration of the rear display panel 101a are simultaneously performed while being touched, there is a high possibility of erroneous determination or misalignment in the determination of the presence or absence of touch and / or the calculation of the touch position. In contrast, in S507, when touch-on is performed before the eyepiece state changes (before eye separation detection), the calibration is controlled so that the calibration is not performed immediately. Can do. If the non-eyepiece state continues for a predetermined time after the eye separation (YES in S504), the display destination is switched from the EVF 101b to the rear display panel 101a, but the calibration may not be performed until the touch-off is performed. In this case, calibration is performed when touch-off occurs. Even if it is determined that the touch-on is not performed in S503, it is assumed that the touch is in the middle of a series of touch operations while a later-described designated position index is displayed, so that the switching of the display destination is suppressed in S504. You may make it go.

S509では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFである場合はS515に進み、そうでない場合(追尾モードの場合)はS511に進む。   In step S509, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether the AF mode is single point AF. If it is one point AF, the process proceeds to S515, and if not (in the tracking mode), the process proceeds to S511.

S511では、システム制御部201は、指定位置指標(詳細後述)を表示中か否かを判定する。表示中の場合は処理を終了し、そうでない場合はS513へ進む。   In step S511, the system control unit 201 determines whether a specified position index (details will be described later) is being displayed. If it is being displayed, the process is terminated; otherwise, the process proceeds to S513.

S513では、システム制御部201は、EVF101bに追尾解除ガイドを表示していたか否かを判定する。表示していた場合はS514へ進み、そうでない場合は処理を終了する。   In step S513, the system control unit 201 determines whether a tracking cancellation guide is displayed on the EVF 101b. If it is displayed, the process proceeds to S514, and if not, the process ends.

S514では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。   In S514, the system control unit 201 displays a tracking cancellation guide on the rear display panel 101a. The tracking cancellation guide is the same as that described in S512.

S515では、システム制御部201は、AF枠表示更新処理を行う。この処理は、図4で説明した処理である。A枠表示更新処理を行うと、表示先切替処理を終了する。   In step S515, the system control unit 201 performs AF frame display update processing. This process is the process described with reference to FIG. When the A frame display update process is performed, the display destination switching process is terminated.

上述したように、接眼検知部219で離眼を検知しても、ユーザがタッチパネル104aを用いてタッチ操作を行っている間であれば、表示先の切り替えを行わない(S501からS507)。一方、接眼検知部219で離眼を検知した場合に、タッチ操作が行われていなければ、所定時間を待つことなく表示先を切り替える(S501からS506)。   As described above, even if eye separation is detected by the eyepiece detection unit 219, the display destination is not switched while the user is performing a touch operation using the touch panel 104a (S501 to S507). On the other hand, when the eye contact detection unit 219 detects eye separation, if the touch operation is not performed, the display destination is switched without waiting for a predetermined time (S501 to S506).

タッチ&ドラッグAFは、背面表示パネル101aを見ながらタッチパネル104aを操作する機能である。そして、ユーザが指を接眼検知部219の近くへ移動させた際や、タッチパネル104aを操作するために顔とタッチパネル104aの間に指を移動させることにより、誤って目を接眼検知部219から離してしまうことがある。この場合、システム制御部201が即座に表示先の切り替えを行ってしまうと、背面表示パネル101aへの操作が必要となるため、EVF101bを覗きながら撮影を行いたいユーザにとっては、操作に手間取り撮影機会を逃してしまうおそれがある。さらに、接眼の検知/非検知が繰り返されることでEVF101bの表示/非表示が繰り返し行われてしまい、使い勝手が良くない。さらに、誤って目が接眼検知部219から離れた際にはEVF101bを非表示としないで、背面表示パネル101aを同時に表示するような形態も考えられるが、この場合、消費電力の増加を招いてしまう。このような課題を解決するため、図5のような処理を行っている。   Touch & drag AF is a function for operating the touch panel 104a while looking at the rear display panel 101a. Then, when the user moves his / her finger close to the eyepiece detection unit 219 or by moving the finger between the face and the touch panel 104a in order to operate the touch panel 104a, the eye is erroneously separated from the eyepiece detection unit 219. May end up. In this case, if the system control unit 201 immediately switches the display destination, an operation on the rear display panel 101a is required. Therefore, for a user who wants to take a picture while looking into the EVF 101b, a time-consuming photography opportunity is required for the operation. There is a risk of missing. Furthermore, display / non-display of the EVF 101b is repeatedly performed due to repeated detection / non-detection of the eyepiece, which is not convenient. Furthermore, when the eye is mistakenly moved away from the eyepiece detection unit 219, it is possible to display the rear display panel 101a at the same time without hiding the EVF 101b. In this case, however, the power consumption increases. End up. In order to solve such a problem, processing as shown in FIG. 5 is performed.

なお、撮影シーンによっては、タッチしたまま表示先を切り替えたい場合もあると考えられるため、非接眼状態が所定時間継続した場合は(S504でYES)、背面表示パネル101aへ表示先を切り替えるようにしている。ただし、接眼検知部219で非接眼状態を検出している継続時間に関わらず、タッチ操作が継続している限りは(タッチオンである限りは)、背面表示パネル101aへ表示先を切り替えずに、EVF101bへの表示を維持してもよい。   Depending on the shooting scene, it may be desired to switch the display destination while touching. Therefore, when the non-eyepiece state continues for a predetermined time (YES in S504), the display destination is switched to the rear display panel 101a. ing. However, regardless of the duration during which the eyepiece detection unit 219 detects the non-eyepiece state, as long as the touch operation continues (as long as the touch is on), the display destination is not switched to the rear display panel 101a. The display on the EVF 101b may be maintained.

なお、S501でNOの場合にS502からS505の処理を行わずにS507へ進むようにしてもよい。すなわち、離眼を検知した場合に、タッチオンが検出されたか否かに関わらず、表示先をEVF101bから背面表示パネル101aに切り替えるようにしてもよい。   If NO is obtained in S501, the process may proceed from S502 to S505 without performing the process from S502. That is, when eye separation is detected, the display destination may be switched from the EVF 101b to the rear display panel 101a regardless of whether or not touch-on is detected.

また、タッチ反応領域に設定された領域でのタッチオンであったか、またはタッチ反応領域以外の領域でのタッチオンであったかによって、S502からS505の処理を行うか否かを場合分けしてもよい。例えば、タッチ反応領域以外(タッチ無効領域)でタッチオンを検出していた場合に離眼を検知した場合は、タッチ反応領域以外でのタッチを対象として上述のS502からS505の処理を行う。タッチ無効領域で検出されたタッチは鼻による接触である可能性が高い。このようにすることで、鼻が接触したまま(すなわち実際は接眼したまま)、カメラの構え方を変えるなどしたために接眼が検知されなくなり、離眼と検知されてしまった状況で表示先が切り替わらないようにすることができる。一方、タッチ反応領域以外ではタッチオンを検出しておらず、タッチ反応領域でタッチオンを検出していた場合に離眼を検知した場合は、上述したS502からS505の処理を行うことなく、S507に進んで表示先を切り替えるようにしてもよい。この状況は、ユーザがタッチパネル104aを操作する指でタッチしまま、意図的に離眼し、背面表示パネル101aを確認しようとした可能性があるためである。   Further, whether to perform the processing from S502 to S505 may be divided depending on whether the touch-on is performed in the area set as the touch reaction area or the touch-on is performed in an area other than the touch reaction area. For example, when an eye separation is detected when touch-on is detected in a region other than the touch reaction region (touch invalid region), the above-described processing from S502 to S505 is performed for a touch outside the touch reaction region. There is a high possibility that the touch detected in the touch invalid area is a contact with the nose. By doing so, the eyepiece is not detected because the nose is in contact (that is, the eyepiece is actually in contact), the camera is changed, etc., and the display destination is not switched in a situation where it is detected that the eye is separated. Can be. On the other hand, if touch-on is not detected in areas other than the touch reaction area, and if an eye separation is detected when touch-on is detected in the touch reaction area, the process proceeds to S507 without performing the processing from S502 to S505 described above. The display destination may be switched with. This situation is because the user may intentionally remove his / her eye while touching with the finger operating the touch panel 104a to check the rear display panel 101a.

また、背面表示パネル101aを、デジタルカメラ100の本体部に対して任意の位置や姿勢に回動可能なチルト式モニタまたはバリアングル式モニタとして構成してもよい。この場合、デジタルカメラ100は、バリアングルモニタのカメラ本体部に対する位置や姿勢を検出するモニタ位置検出部を有するものとする。そして、背面表示パネル101aの表示面がカメラ背面側に露出する向き(すなわち、図1に示した状態と同じ向き)でバリアングルモニタが閉じられていることを検出した場合には上述のS502からS505の処理を行う。一方、バリアングルモニタが開いている場合は、上述のS502からS505の処理を行うことなく、S507に進んで表示先を切り替えるようにしてもよい。バリアングルモニタが開いている場合には、タッチパネル104aを操作するための指が顔や目の近くに位置することがなく、上述のような課題が発生しないためである。   Further, the rear display panel 101a may be configured as a tilt type monitor or a vari-angle type monitor that can be rotated to an arbitrary position or posture with respect to the main body of the digital camera 100. In this case, the digital camera 100 includes a monitor position detection unit that detects the position and orientation of the vari-angle monitor with respect to the camera body. When it is detected that the vari-angle monitor is closed in a direction in which the display surface of the rear display panel 101a is exposed on the camera rear side (that is, in the same direction as shown in FIG. 1), the above-described S502 is started. The process of S505 is performed. On the other hand, if the vari-angle monitor is open, the display destination may be switched to S507 without performing the processing from S502 to S505 described above. This is because when the vari-angle monitor is open, a finger for operating the touch panel 104a is not positioned near the face or eyes, and the above-described problem does not occur.

なお、タッチオンの有無により表示先の切り替えを抑制する制御を例示したが、タッチ操作に限らず、他の操作部材の操作があった場合に、表示先の切り替えを抑制するようにしてもよい。例えば、前述の絞り込み機能を割り当てたボタンを操作中ならば表示先を切り替えない、としてもよい。また、EVF101bの接眼部に近い操作部材や、カメラ背面に備えられ、操作時に接眼しているユーザの顔とカメラ背面の間に指を挿入することになるような操作部材について、表示先の切り替えを抑制する制御(S502からS505)を行うようにしてもよい。操作する場合に接眼しているユーザの顔とデジタルカメラ100の間に指を挿入することになるような操作部材としては、例えばコントローラホイール106が考えられる。それ以外の操作部材としては例えば、シャッターボタン102の周りに設けられたズームレバーが考えられる。この場合、離眼検知をコントローラホイール106の回転操作の途中で判定した場合はS507に進まずにS504とS505の処理を行い、コントローラホイール106の回転操作が終了するか、非接眼となって所定時間が経過するとS507に進むようにする。一方、離眼を検知した場合にズームレバーが操作されていても、S503からS505に進むことなく、S507に進む。ズームレバーは、デジタルカメラ100のうちEVF101bの接眼部のある面(背面)とは異なる面(例えば上部、あるいはカメラ前面のレンズの鏡筒周り)に備えられた操作部材である。したがって、ズームレバーを操作する指の影響でユーザの顔が意図せず接眼部から離れてしまう可能性が低い。   In addition, although control which suppresses switching of a display destination by the presence or absence of touch-on was illustrated, you may make it suppress not only touch operation but switching of a display destination when there exists operation of another operation member. For example, the display destination may not be switched if a button to which the above-described narrowing function is assigned is being operated. In addition, an operation member close to the eyepiece portion of the EVF 101b or an operation member that is provided on the rear surface of the camera and that inserts a finger between the user's face that is in eye contact during operation and the rear surface of the camera is displayed. Control (S502 to S505) that suppresses switching may be performed. For example, a controller wheel 106 can be considered as an operation member that inserts a finger between the face of the user who is in eye contact with the digital camera 100 when operating. As another operation member, for example, a zoom lever provided around the shutter button 102 can be considered. In this case, when eye separation detection is determined in the middle of the rotation operation of the controller wheel 106, the processing of S504 and S505 is performed without proceeding to S507, and the rotation operation of the controller wheel 106 is completed or the eyepiece is not in the eyepiece. When the time elapses, the process proceeds to S507. On the other hand, even if the zoom lever is operated when eye separation is detected, the process proceeds to S507 without proceeding to S505 from S503. The zoom lever is an operation member provided on a surface (for example, the upper part or around the lens barrel of the lens on the front surface of the camera) different from the surface (back surface) of the EVF 101b with the eyepiece portion of the digital camera 100. Therefore, it is unlikely that the user's face is unintentionally separated from the eyepiece due to the influence of the finger operating the zoom lever.

また、タッチオンの有無に応じてタッチオンがあった場合に表示先の切り替えを抑制する制御を例示したが、タッチ操作の種類に応じて表示先の切り替えを抑制する制御のする/しないを切り替えてもよい。例えば単にタッチオンの状態が継続されている場合は、AF枠関連操作を行っていないとみなして、上記表示先の切り替えを抑制する制御を行わないとしてもよい。そして、タッチムーブ操作が所定時間内に繰り返し行われている状態においては、AF枠関連操作(タッチ&ドラッグAFでのAF枠の移動操作)が行われている途中であるとして、上記表示先の切り替えを抑制する制御を行うようにしてもよい。   Moreover, although control which suppresses switching of a display destination when there is touch-on according to presence / absence of touch-on is illustrated, even if switching which controls to suppress switching of display destination according to the type of touch operation is switched Good. For example, when the touch-on state is continued, it may be considered that the AF frame related operation is not performed, and the control for suppressing the switching of the display destination may not be performed. Then, in a state where the touch move operation is repeatedly performed within a predetermined time, it is assumed that the AF frame related operation (AF frame moving operation by touch & drag AF) is being performed, and the display destination You may make it perform control which suppresses switching.

<タッチダウン処理>次に、図6を用いて、図3のS312におけるタッチダウン処理の詳細を説明する。   <Touchdown Processing> Next, details of the touchdown processing in S312 of FIG. 3 will be described with reference to FIG.

S601では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS602へ進み、そうでない場合はS610へ進む。   In step S601, the system control unit 201 determines whether the display destination is the rear display panel 101a. If it is a rear display panel, the process proceeds to S602, and if not, the process proceeds to S610.

S602では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであればS603へ進み、そうでない場合は(追尾モードであれば)S606へ進む。   In step S <b> 602, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether the AF mode is the single point AF mode. If it is the one-point AF mode, the process proceeds to S603; otherwise (if the tracking mode), the process proceeds to S606.

S603では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応する背面表示パネル101a上の座標に一点AF枠を表示する。   In step S603, the system control unit 201 displays a one-point AF frame at coordinates on the rear display panel 101a corresponding to the touchdown position on the touch panel 104a.

S604では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠の位置に更新し、コンティニュアスAFを行う。   In step S604, the system control unit 201 updates the position where the continuous AF is performed to the current position of the one-point AF frame, and performs the continuous AF.

S605では、システム制御部201は、一点AF枠の位置を中央に戻すガイドを背面表示パネル101aに表示する。ガイドは文字列によるガイダンスでもよく、アイコンでもよい。また、一点AF枠の位置を中央に戻す操作は、操作部104に含まれるボタン操作でもよく、タッチパネル104aへのタッチ操作でもよい。   In step S605, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the rear display panel 101a. The guide may be a text guidance or an icon. The operation for returning the position of the one-point AF frame to the center may be a button operation included in the operation unit 104 or a touch operation on the touch panel 104a.

S606では、システム制御部201は、タッチパネル104aのタッチダウン位置に対応する背面表示パネル101aの座標の近傍で検出された被写体を追尾する。これによって追尾中の状態に遷移する。   In S606, the system control unit 201 tracks the subject detected in the vicinity of the coordinates of the rear display panel 101a corresponding to the touchdown position of the touch panel 104a. This transitions to a tracking state.

S607では、システム制御部201は、背面表示パネル101aに表示されたLV画像において追尾している被写体を示す範囲に追尾枠1138を表示する。   In step S <b> 607, the system control unit 201 displays a tracking frame 1138 in a range indicating the subject being tracked in the LV image displayed on the rear display panel 101 a.

S608では、システム制御部201は、コンティニュアスAFを行う位置を、現在の追尾位置に更新し、コンティニュアスAFを行う。   In step S <b> 608, the system control unit 201 updates the position for performing continuous AF to the current tracking position, and performs continuous AF.

S609では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。   In step S609, the system control unit 201 displays a tracking cancellation guide on the rear display panel 101a. The tracking cancellation guide is the same as that described in S512.

S610では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS611へ進み、そうでない場合は処理を終了する。   In step S <b> 610, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether the above-described touch & drag AF setting is “Yes”. If it is set to “Yes”, the process proceeds to S611, and if not, the process ends.

S611では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されていればS612へ進み、そうでない場合はS620へ進む。   In step S611, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the setting of the AF position designation method is set to absolute position designation. If the absolute position designation is set, the process proceeds to S612, and if not, the process proceeds to S620.

S612では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであれば共にS613へ進み、そうでない場合は(追尾モードであれば)S616へ進む。   In step S612, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the AF mode is the single point AF mode. If it is single point AF, the process proceeds to S613, and if not (if tracking mode), the process proceeds to S616.

S613では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応するEVF101b上の位置に、一点AF枠を表示する。   In step S613, the system control unit 201 displays a one-point AF frame at a position on the EVF 101b corresponding to the touchdown position on the touch panel 104a.

S614では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。   In step S614, the system control unit 201 updates the position where continuous AF is performed to the current one-point AF frame position, and performs continuous AF.

S615では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。   In step S615, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the EVF 101b.

S616では、システム制御部201は、現在、被写体を追尾中か否かを判定する。追尾中であればS618へ進み、そうでない場合はS617へ進む。   In step S616, the system control unit 201 determines whether the subject is currently being tracked. If tracking is in progress, the process proceeds to S618, and if not, the process proceeds to S617.

S617では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。   In step S617, the system control unit 201 cancels the tracking of the subject and makes a transition to the tracking cancellation state. As a result, the tracking frame 1138 is not displayed.

S618では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応するEVF101b上の座標に、指定位置指標を表示する。すなわち、追尾実行中にタッチダウンがなされると追尾は解除され、代わりに、新たな追尾先を指定するために指定位置指標が表示される。図11(e)に、EVF101bにおける指定位置指標の表示例を示す。指定位置指標1139は、ユーザのタッチムーブ操作に応じて移動可能な指標(カーソル)であり、タッチ&ドラッグAF機能によるLV画像に対する現在の指定位置を示している。指定位置指標1139は、接眼状態かつタッチ操作中(タッチオン中)に表示され、非接眼状態、EVF101bが非表示の状態、タッチ&ドラッグAFが「しない」に設定されている場合には表示されない。また、指定位置指標1139は、EVF101bに表示され、背面表示パネル101aには表示されない。指定位置指標1139は、絶対位置指定に設定されている場合は、タッチパネル104aのタッチ位置に一意に対応づけられた位置に表示される。また、指定位置指標1139は、相対位置指定に設定されている場合には、タッチパネル104a上のタッチ位置がどこにあるかには関わらず、タッチムーブの方向と移動量に応じて現在位置から移動される。なお、指定位置指標1139の表示中にも、特定の被写体が検出されていれば、検出枠1136を表示する。   In step S618, the system control unit 201 displays the designated position index at coordinates on the EVF 101b corresponding to the touchdown position on the touch panel 104a. That is, when touchdown is performed during tracking execution, tracking is canceled, and instead, a specified position index is displayed to specify a new tracking destination. FIG. 11E shows a display example of the designated position index in the EVF 101b. The designated position index 1139 is an index (cursor) that can be moved according to the user's touch move operation, and indicates the current designated position with respect to the LV image by the touch & drag AF function. The designated position index 1139 is displayed in the eyepiece state and during the touch operation (touch-on state), and is not displayed when the non-eyepiece state, the EVF 101b is not displayed, and the touch and drag AF is set to “No”. The designated position index 1139 is displayed on the EVF 101b and is not displayed on the rear display panel 101a. When the designated position index 1139 is set to the absolute position designation, the designated position index 1139 is displayed at a position uniquely associated with the touch position of the touch panel 104a. When the designated position index 1139 is set to the relative position designation, the designated position index 1139 is moved from the current position in accordance with the direction and amount of movement of the touch move regardless of where the touch position is on the touch panel 104a. The Even when the designated position index 1139 is displayed, if a specific subject is detected, a detection frame 1136 is displayed.

S619では、システム制御部201は、コンティニュアスAFを行う位置を、現在の被写体検出結果に基づく位置に更新し、コンティニュアスAFを行う。このコンティニュアスAFを行う位置は、指定位置指標1139に基づいた位置ではなく、デジタルカメラ100が自動的に主被写体と判定した被写体に基づく位置である。すなわち、追尾解除状態と同様のAF制御である。   In step S619, the system control unit 201 updates the position where continuous AF is performed to a position based on the current subject detection result, and performs continuous AF. The position at which the continuous AF is performed is not a position based on the designated position index 1139 but a position based on the subject that the digital camera 100 automatically determines as the main subject. That is, the AF control is the same as in the tracking release state.

S620では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであれば処理を終了し、そうでない場合は(追尾モードであれば)S621へ進む。   In step S620, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the AF mode is the single point AF mode. If it is one-point AF, the process ends. If not (if in tracking mode), the process proceeds to S621.

S621では、システム制御部201は、現在被写体を追尾中か否かを判定する。追尾中の場合S622へ進み、そうでない場合はS627へ進む。   In step S621, the system control unit 201 determines whether the subject is currently being tracked. If tracking is in progress, the process advances to step S622; otherwise, the process advances to step S627.

S622では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。すなわち、追尾実行中にタッチダウンがなされると追尾は解除され、代わりに、新たな追尾先を指定するために後述のS624で吸着中検出枠が表示されるか、S625で指定位置指標が表示される。   In step S622, the system control unit 201 cancels the tracking of the subject and makes a transition to the tracking cancellation state. As a result, the tracking frame 1138 is not displayed. That is, when touchdown is performed during tracking, tracking is canceled, and instead, a suction detection frame is displayed in S624 to specify a new tracking destination, or a specified position index is displayed in S625. Is done.

S623では、システム制御部201は、追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置の近傍であるか(追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置から所定範囲以内であるか)否かを判定する。この判定では、例えば、顔(特定の被写体)が検出されている場合に、追尾解除時の追尾対象の範囲(追尾範囲)が検出されている顔(特定の被写体)の範囲と少なくとも一部重複している場合に、近傍であると判定する。また、顔(特定の被写体)が検出されている場合に、追尾解除時の追尾対象の範囲(追尾範囲)の中心が検出されている顔(特定の被写体)の範囲内である場合に、近傍であると判定してもよい。さらに、追尾していた対象が顔であったか否かの判定とし、追尾していた対象が顔であった場合にYESと判定してもよい。追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置の近傍であると判定した場合はS624に進み、そうでない場合はS625に進む。   In step S623, the system control unit 201 detects whether the tracking position when the tracking is canceled is in the vicinity of the detection position of the face (specific subject) (the tracking position when the tracking is canceled is the detection of the face (specific subject)). It is determined whether or not it is within a predetermined range from the position. In this determination, for example, when a face (specific subject) is detected, at least partly overlaps the range of the face (specific subject) in which the tracking target range (tracking range) at the time of tracking cancellation is detected. If it is, it is determined to be near. Also, when a face (specific subject) is detected, it is close when the center of the tracking target range (tracking range) at the time of tracking cancellation is within the detected face (specific subject) range It may be determined that Further, it may be determined whether or not the tracked target is a face, and YES may be determined when the tracked target is a face. If it is determined that the tracking position when the tracking is canceled is near the detection position of the face (specific subject), the process proceeds to S624; otherwise, the process proceeds to S625.

S624では、システム制御部201は、S623で追尾解除時の追尾位置の近傍と判定された、検出されている顔(特定の被写体)を示す範囲に、吸着中検出枠1140を表示する。   In S624, the system control unit 201 displays the during-suction detection frame 1140 in a range indicating the detected face (specific subject), which is determined in S623 to be near the tracking position at the time of tracking cancellation.

S625では、システム制御部201は、追尾を解除する直前まで追尾枠を表示していたEVF101b上の座標に、指定位置指標1139を表示する。   In step S625, the system control unit 201 displays the specified position index 1139 at the coordinates on the EVF 101b that has displayed the tracking frame until immediately before the tracking is canceled.

S626では、システム制御部201は、S619と同様に、コンティニュアスAFを行う位置を、指定位置指標の位置に関わらず、現在の被写体検出結果に基づいた位置に更新し、コンティニュアスAFを行う。   In S626, as in S619, the system control unit 201 updates the position where the continuous AF is performed to a position based on the current subject detection result regardless of the position of the designated position index. Do.

S627では、システム制御部201は、EVF101bに、指定位置指標1139を表示中であるか否かを判定する。追尾モードで相対位置指定に設定されている場合には、後述するタッチアップ処理の際に、指定位置指標1139の位置で検出された被写体に吸着していなかった場合は、タッチアップ後も追尾対象を確定せずに指定位置指標1139が所定時間表示されたままとなる。これによって、相対位置指定によって、指定位置指標1139を、何回かに分けた連続したタッチによるタッチムーブ操作で所望の位置まで移動させることが可能である。   In step S627, the system control unit 201 determines whether the designated position index 1139 is being displayed on the EVF 101b. When the relative position designation is set in the tracking mode, if the object detected at the position of the designated position index 1139 is not attracted during the touch-up process to be described later, the tracking target even after the touch-up is performed. The specified position index 1139 remains displayed for a predetermined time without confirming. Accordingly, the designated position index 1139 can be moved to a desired position by a touch move operation by continuous touch divided into several times by specifying the relative position.

S627では、システム制御部201は、指定位置指標1139が表示中であるか否かを判定する。表示中の場合はS629に進み、そうでない場合はS628に進む。   In step S627, the system control unit 201 determines whether the designated position index 1139 is being displayed. If it is being displayed, the process proceeds to S629. Otherwise, the process proceeds to S628.

S628では、システム制御部201は、EVF101bに表示されたLV画像の中央に、指定位置指標1139を表示する。すなわち、相対位置指定では、指定位置指標1139が表示されていない状態でタッチダウンされると、タッチダウン位置に関わらず、初期位置(中央)に指定位置指標1139が表示される。S629では、S619と同様に、コンティニュアスAFを行う位置を、現在の被写体検出結果に基づく位置に更新し、コンティニュアスAFを行う。 In step S628, the system control unit 201 displays the designated position index 1139 at the center of the LV image displayed on the EVF 101b. That is, in the relative position designation, when the touchdown is performed without the designated position index 1139 being displayed, the designated position index 1139 is displayed at the initial position (center) regardless of the touchdown position. In S629, as in S619, the position for performing continuous AF is updated to a position based on the current subject detection result, and continuous AF is performed.

<タッチムーブ処理>次に、図7を用いて、図3のS314におけるタッチムーブ処理の詳細を説明する。   <Touch Move Process> Next, the details of the touch move process in S314 of FIG. 3 will be described with reference to FIG.

S701では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルである場合はS702へ進み、そうでない場合はS706へ進む。   In step S701, the system control unit 201 determines whether the display destination is the rear display panel 101a. If it is a rear display panel, the process proceeds to S702, and if not, the process proceeds to S706.

S702では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFの場合はS703へ進み、そうでない場合は(追尾モードであれば)処理を終了する。すなわち、表示先が背面表示パネル101aで追尾モードである場合には、タッチムーブに応じた追尾対象の変更や、タッチムーブに応じた位置へのAFは行わない。S606からS608で前述した通り、追尾対象はタッチダウン位置に基づいて確定されており、その後タッチが継続してタッチムーブが行われても、タッチダウン位置に基づいて決定した追尾対象の追尾が継続される。   In step S <b> 702, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether or not the AF mode is the single point AF mode. In the case of single point AF, the process proceeds to S703, and if not (if in tracking mode), the process ends. That is, when the display destination is the rear display panel 101a and the tracking mode is selected, the tracking target is not changed according to the touch move, and the AF to the position according to the touch move is not performed. As described above in S606 to S608, the tracking target is determined based on the touch-down position, and the tracking of the tracking target determined based on the touch-down position continues even after the touch is continuously performed and the touch move is performed. Is done.

S703では、システム制御部201は、タッチパネル104a上のタッチムーブ後の位置に対応する背面表示パネル101a上の座標に一点AF枠を表示する。   In step S703, the system control unit 201 displays a one-point AF frame at coordinates on the rear display panel 101a corresponding to the position after the touch move on the touch panel 104a.

S704では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠の位置に更新し、コンティニュアスAFを行う。   In step S704, the system control unit 201 updates the position where the continuous AF is performed to the current position of the one-point AF frame, and performs the continuous AF.

S705では、システム制御部201は、一点AF枠の位置を中央に戻すガイドを背面表示パネル101aに表示する。中央に戻すガイドは、S605で説明したものと同様である。   In step S705, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the rear display panel 101a. The guide to return to the center is the same as that described in S605.

S706では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS707へ進み、「しない」に設定されている場合は処理を終了する。   In step S <b> 706, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether or not the above-described touch & drag AF setting is “Yes”. If it is set to “Yes”, the process proceeds to S707, and if it is set to “No”, the process ends.

S707では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS708へ進み、そうでない場合は(相対位置指定であれば)S715へ進む。   In step S <b> 707, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether or not the setting of the AF position designation method is set to absolute position designation. If the absolute position designation is set, the process proceeds to S708; otherwise (if relative position designation), the process proceeds to S715.

S708では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFである場合はS709へ進み、そうでない場合はS712へ進む。   In step S <b> 708, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether or not the AF mode is the single point AF mode. If it is one point AF, the process proceeds to S709, and if not, the process proceeds to S712.

S709では、システム制御部201は、タッチパネル104a上のタッチムーブ後の位置に対応するEVF101b上の座標に一点AF枠を表示する。   In step S709, the system control unit 201 displays a one-point AF frame at coordinates on the EVF 101b corresponding to the position after the touch move on the touch panel 104a.

S710では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。   In step S710, the system control unit 201 updates the position where the continuous AF is performed to the current one-point AF frame position, and performs the continuous AF.

S711では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。中央に戻すガイドは、S605で説明したものと同様である。   In step S711, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the EVF 101b. The guide to return to the center is the same as that described in S605.

S712では、システム制御部201は、タッチパネル104a上のタッチムーブ後のタッチ位置に対応するEVF101b上の座標(LV画像上の指定位置)が、検出された被写体の近傍であるか否かを判定する。すなわち、LV画像上の指定位置が、検出された被写体の位置から所定範囲以内であるか否かを判定する。この判定は、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)内である場合に近傍であると判定するものとする。また、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)の外側である場合に、近傍ではないと判定するものとする。また、顔(特定の被写体)が検出されていない場合も、近傍ではないと判定するものとする。なお、近傍の判定はこれに限られない。例えば、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)を所定倍(例えば1.5倍)した範囲内に収まっている場合に近傍と判定してもよい。また、顔(特定の被写体)が検出されている場合に、タッチムーブによって移動された指定位置指標1139が示す範囲が、表示されている検出枠1136(顔検出枠)の範囲と少なくとも一部重なる位置となる場合に、近傍と判定してもよい。近傍である場合はS713へ進み、そうでない場合はS714へ進む。   In step S712, the system control unit 201 determines whether the coordinates on the EVF 101b (designated position on the LV image) corresponding to the touch position after the touch move on the touch panel 104a are in the vicinity of the detected subject. . That is, it is determined whether or not the designated position on the LV image is within a predetermined range from the position of the detected subject. This determination is made when the face (specific subject) is detected and the coordinates on the EVF 101b corresponding to the touch position after the touch move are within the displayed detection frame 1136 (face detection frame). Assume that it is in the vicinity. Further, when a face (specific subject) is detected, and the coordinates on the EVF 101b corresponding to the touch position after the touch move are outside the displayed detection frame 1136 (face detection frame), Assume that it is not near. Further, even when a face (specific subject) is not detected, it is determined that the face is not near. The determination of the neighborhood is not limited to this. For example, when a face (specific subject) is detected, the coordinates on the EVF 101b corresponding to the touch position after the touch move are multiplied by a predetermined number (for example, 1.. If it is within the range of (5 times), it may be determined to be near. Further, when a face (specific subject) is detected, the range indicated by the designated position index 1139 moved by the touch move at least partially overlaps the range of the displayed detection frame 1136 (face detection frame). If it is a position, it may be determined as a neighborhood. If it is near, the process proceeds to S713, and if not, the process proceeds to S714.

S713では、システム制御部201は、EVF101bに表示されている検出枠1136と指定位置指標1139を非表示にし、吸着中検出枠1140を表示する。図11(f)に吸着中検出枠1140の表示例を示す。吸着中検出枠1140はLV画像に重畳して表示され、この状態でタッチアップがなされると、吸着中検出枠1140で囲まれた被写体が追尾対象となることを示している。吸着中検出枠1140は、タッチアップすると追尾対象となることを示すため、追尾枠1138と同様の形状で表示されるが、追尾枠1138との違いが識別可能なように、追尾枠1138と異なる色で表示される。吸着中検出枠1140の表示形態はこの例に限るものではなく、追尾中ではないがタッチアップされると追尾が開始されることが識別可能な表現であればよい。例えば、指定位置指標1139を表示したまま、追尾可能アイコンや追尾可能ガイドを表示したり、指定位置指標1139の色だけを変えるなど、他の表現で示してもよい。   In step S713, the system control unit 201 hides the detection frame 1136 and the specified position index 1139 displayed on the EVF 101b, and displays the suction detection frame 1140. FIG. 11F shows a display example of the during-adsorption detection frame 1140. The during-adsorption detection frame 1140 is displayed so as to be superimposed on the LV image, and when touch-up is performed in this state, it indicates that the subject surrounded by the during-adsorption detection frame 1140 is a tracking target. The suction detection frame 1140 is displayed in the same shape as the tracking frame 1138 to indicate that it becomes a tracking target when touched up, but is different from the tracking frame 1138 so that the difference from the tracking frame 1138 can be identified. Displayed in color. The display form of the during-adsorption detection frame 1140 is not limited to this example, and may be any expression that can identify that tracking is started when touched up, although tracking is not in progress. For example, with the specified position index 1139 being displayed, a trackable icon or a trackable guide may be displayed, or only the color of the specified position index 1139 may be changed.

S714では、システム制御部201は、タッチパネル104a上のタッチムーブ後のタッチ位置に対応するEVF101b上の座標に、指定位置指標1139を表示する。   In S714, the system control unit 201 displays the designated position index 1139 at the coordinates on the EVF 101b corresponding to the touch position after the touch move on the touch panel 104a.

S715では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであればS716へ進み、そうでない場合は(追尾モードであれば)S719へ進む。   In step S715, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the AF mode is the single point AF mode. If it is one point AF, the process proceeds to S716, and if not (in the tracking mode), the process proceeds to S719.

S716では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた位置に対応するEVF101b上の座標に、一点AF枠を表示する。なお、この位置は、相対位置指定であるため、タッチ位置に一意に対応する位置ではない。   In step S716, the system control unit 201 displays a one-point AF frame at coordinates on the EVF 101b corresponding to the position according to the movement direction and movement amount of the touch move operation on the touch panel 104a. Since this position is a relative position designation, it is not a position uniquely corresponding to the touch position.

S717では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。   In step S717, the system control unit 201 updates the position where continuous AF is performed to the current one-point AF frame position, and performs continuous AF.

S718では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。中央に戻すガイドは、S605で説明したものと同様である。   In step S718, the system control unit 201 displays a guide for returning the position of the one-point AF frame to the center on the EVF 101b. The guide to return to the center is the same as that described in S605.

S719では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた位置に対応するEVF101b上の座標(LV画像上の指定位置)が、検出された被写体の近傍であるか否かを判定する。この判定は、前述したS712の判定と同様の判定であるが、検出枠1136(顔検出枠)との比較対象は、絶対位置指定ではないため、タッチムーブ後のタッチ位置に一意に対応する位置ではなく、相対位置指定によって指定された位置である。近傍であると判定された場合はS720へ進み、そうでない場合はS721へ進む。   In step S719, the system control unit 201 sets the coordinates (designated position on the LV image) on the EVF 101b corresponding to the position according to the moving direction and the moving amount of the touch move operation on the touch panel 104a in the vicinity of the detected subject. It is determined whether or not there is. This determination is the same as the determination in S712 described above, but since the comparison target with the detection frame 1136 (face detection frame) is not the absolute position designation, the position uniquely corresponds to the touch position after the touch move. It is not the position specified by relative position specification. If it is determined to be near, the process proceeds to S720, and if not, the process proceeds to S721.

S720では、システム制御部201は、S713と同様に、EVF101bに表示されている検出枠1136と指定位置指標1139を非表示にし、吸着中検出枠1140を表示する。   In S720, as in S713, the system control unit 201 hides the detection frame 1136 and the specified position index 1139 displayed on the EVF 101b, and displays the during-adsorption detection frame 1140.

S721では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた指定位置に対応するEVF101b上の座標に、指定位置指標1139を表示する(指標の表示位置変更処理)。この状態で指定位置指標1139の位置でコンティニュアスAFは行われず、現在の被写体検出結果に基づいた位置でコンティニュアスAFが行われる。なお、この状態ではAF動作を停止する(AFを行わない)ようにしてもよい。   In step S721, the system control unit 201 displays the designated position index 1139 at coordinates on the EVF 101b corresponding to the designated position corresponding to the movement direction and amount of the touch move operation on the touch panel 104a (index display position change process). ). In this state, continuous AF is not performed at the position of the designated position index 1139, and continuous AF is performed at a position based on the current subject detection result. In this state, the AF operation may be stopped (AF is not performed).

<タッチアップ処理>次に、図8を用いて、図3のS316におけるタッチアップ処理の詳細を説明する。   <Touch-Up Process> Next, the details of the touch-up process in S316 of FIG. 3 will be described with reference to FIG.

S801では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであれば処理を終了し、そうでない場合はS802へ進む。   In step S801, the system control unit 201 determines whether the display destination is the rear display panel 101a. If it is a rear display panel, the process ends. If not, the process proceeds to S802.

S802では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS803へ進み、そうでない場合は処理を終了する。   In step S <b> 802, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether or not the above-described touch & drag AF setting is “Yes”. If it is set to “Yes”, the process proceeds to S803, and if not, the process ends.

S803では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS804へ進み、そうでない場合はS809へ進む。   In step S803, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the setting of the AF position designation method is set to absolute position designation. If the absolute position designation is set, the process proceeds to S804, and if not, the process proceeds to S809.

S804では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであれば処理を終了し、そうでない場合は(追尾モードである場合は)S805へ進む。   In step S804, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the AF mode is the single point AF mode. If it is the one-point AF mode, the process is terminated. If not (the tracking mode is selected), the process proceeds to S805.

S805では、システム制御部201は、タッチパネル104a上のタッチアップ位置に対応するEVF101b上の座標(指定位置)に基づき、指定位置の近傍で検出された被写体の追尾を開始する(追尾中となる)。   In step S805, the system control unit 201 starts tracking the subject detected near the specified position based on the coordinates (specified position) on the EVF 101b corresponding to the touch-up position on the touch panel 104a (being tracking). .

S806では、システム制御部201は、EVF101bに表示されたLV画像における追尾している被写体を示す範囲に、追尾枠1138を表示する。   In step S806, the system control unit 201 displays the tracking frame 1138 in a range indicating the subject being tracked in the LV image displayed on the EVF 101b.

S807では、システム制御部201は、コンティニュアスAFを行う位置を、現在の追尾位置に更新し、コンティニュアスAFを行う。   In step S807, the system control unit 201 updates the position for performing continuous AF to the current tracking position, and performs continuous AF.

S808では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。   In step S808, the system control unit 201 displays a tracking cancellation guide on the rear display panel 101a. The tracking cancellation guide is the same as that described in S512.

S809では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであれば処理を終了し、そうでない場合は(追尾モードであれば)S810へ進む。   In step S809, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether the AF mode is the single point AF mode. If it is the one-point AF mode, the process ends. If not (the tracking mode), the process proceeds to S810.

S810では、システム制御部201は、EVF101bに吸着中検出枠1140が表示されているか否かを判定する。表示されていればS813へ進み、そうでない場合はS811へ進む。   In step S810, the system control unit 201 determines whether or not the adsorption detection frame 1140 is displayed on the EVF 101b. If it is displayed, the process proceeds to S813, and if not, the process proceeds to S811.

S811では、システム制御部201は、操作部104に対して追尾確定待ちを中断する操作がなされたか否かを判定する。追尾確定待ちを中断する操作は、例えば、新しいタッチダウンや、操作部104に含まれるメニューボタンの押下による他の画面(メニュー画面)の表示指示などである。中断する操作がなされた場合は処理を終了し、そうでない場合はS812へ進む。なお、新しいタッチダウンがあった場合は、図3のS311で改めてタッチダウンがあったと判定され、図6のS627で、指定位置指標1139の表示中のタッチダウンがあったと判定される。   In step S <b> 811, the system control unit 201 determines whether an operation for interrupting the tracking determination wait has been performed on the operation unit 104. The operation for interrupting the tracking confirmation wait is, for example, a new touchdown or an instruction to display another screen (menu screen) by pressing a menu button included in the operation unit 104. If an operation to interrupt is performed, the process is terminated, and if not, the process proceeds to S812. If there is a new touchdown, it is determined in S311 in FIG. 3 that there has been a touchdown, and it is determined in S627 in FIG. 6 that there has been a touchdown during display of the designated position index 1139.

S812では、システム制御部201は、タッチアップを検出してから所定時間経過したか否かを判定する。所定時間は、ユーザが引き続き指定位置指標1139を移動させるために、連続した一連のタッチ操作における次の新たなタッチを行うまでの時間として十分であればよく、例えば1秒程度である。所定時間経過した場合はS813へ進み、そうでない場合はS811へ戻る。   In step S812, the system control unit 201 determines whether a predetermined time has elapsed since the touch-up was detected. The predetermined time only needs to be sufficient as the time until the next new touch in a series of continuous touch operations in order for the user to continuously move the designated position index 1139, and is, for example, about 1 second. If the predetermined time has elapsed, the process proceeds to S813, and if not, the process returns to S811.

S813では、システム制御部201は、EVF101b上に表示された指定位置指標1139の位置に基づき、指定位置指標1139の近傍で検出された被写体の追尾を開始する(追尾中となる)。   In step S813, the system control unit 201 starts tracking the subject detected in the vicinity of the specified position index 1139 based on the position of the specified position index 1139 displayed on the EVF 101b (being tracking).

S814からS816の処理は、S806〜S808の処理と同様であるので説明を省略する。   Since the processing from S814 to S816 is the same as the processing from S806 to S808, description thereof will be omitted.

上述したように、AFモードが追尾モードかつ位置指定方法が相対位置指定である場合、タッチ&ドラッグAF機能により指定位置指標1139をLV画像上の任意の位置へ移動する際に、タッチアップ後所定時間経過後に追尾対象の被写体の確定を行う。   As described above, when the AF mode is the tracking mode and the position designation method is the relative position designation, when the designated position index 1139 is moved to an arbitrary position on the LV image by the touch & drag AF function, the predetermined position after the touch-up is determined. The subject to be tracked is determined after a lapse of time.

このような形態としているのは、追尾モードでは、ある被写体から別の被写体へAF位置を移動させている途中にAFが開始されてしまうと、例えば背景にピントが合ってしまい追尾したい被写体がボケて検出されなくなってしまう不都合を防止するためである。   This is because, in tracking mode, if AF starts while moving the AF position from one subject to another, for example, the background is in focus and the subject you want to track is blurred. This is to prevent the inconvenience of being detected.

また、位置指定方法が相対位置指定方式の場合は、ユーザが指定位置指標を所望の被写体へ移動させるために、複数回タッチムーブ操作を行うことが想定されるため、タッチアップ後すぐに被写体の追尾が開始されてしまうと操作性が良くない。一方で、タッチアップ後にすぐに追尾を開始するようユーザが別途指示することも操作の手間が増えるために好ましくない。このような課題を解決するため、図7のS721や図8のS811、S812のような形態としている。   Further, when the position designation method is the relative position designation method, it is assumed that the user performs a touch move operation a plurality of times in order to move the designated position index to a desired subject. If tracking is started, operability is not good. On the other hand, it is not preferable for the user to separately instruct to start tracking immediately after the touch-up because the trouble of operation increases. In order to solve such a problem, forms such as S721 in FIG. 7 and S811 and S812 in FIG. 8 are adopted.

また、既に指定位置指標が検出された被写体まで到達している(吸着中検出枠表示となっている)場合には、ユーザが所望の被写体まで指定位置指標を移動できたと想定し、確定まで所定時間経過を待たずにすぐに追尾被写体の確定を行うようにしている。これによって、追尾したい被写体が動いている場合にも追尾対象として指定しやすくなる。   In addition, if the subject has already been detected for the designated position index (the detection frame is displayed during suction), it is assumed that the user has moved the designated position index to the desired subject, and the predetermined position index is determined until confirmation. The tracking subject is determined immediately without waiting for the passage of time. This makes it easy to specify a tracking target even when the subject to be tracked is moving.

<タッチキャンセル処理>次に、図9を用いて、図3のS318におけるタッチキャンセル処理の詳細を説明する。   <Touch Cancel Processing> Next, details of the touch cancel processing in S318 of FIG. 3 will be described with reference to FIG.

S901では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS911へ進み、そうでない場合はS902へ進む。   In step S901, the system control unit 201 determines whether the display destination is the rear display panel 101a. If it is a rear display panel, the process proceeds to S911, and if not, the process proceeds to S902.

S902では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS903へ進み、そうでない場合はS911へ進む。   In step S <b> 902, the system control unit 201 refers to the setting information stored in the system memory 212 and determines whether or not the above-described touch & drag AF setting is “Yes”. If “Yes” is set, the process proceeds to S903, and if not, the process proceeds to S911.

S903では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードである場合はS911へ進み、そうでない場合はS904へ進む。   In step S903, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the AF mode is the single point AF mode. If the one-point AF mode is selected, the process proceeds to S911. If not, the process proceeds to S904.

S904では、システム制御部201は、EVF101bに指定位置指標1139を表示中か否かを判定する。表示中の場合はS905へ進み、そうでない場合はS911へ進む。   In step S904, the system control unit 201 determines whether the designated position index 1139 is being displayed on the EVF 101b. If it is being displayed, the process proceeds to S905, and if not, the process proceeds to S911.

S905では、システム制御部201は、タッチキャンセル操作がシャッターボタン102の半押しによる第1シャッタースイッチ102aのオン(SW1オン)であったか否かを判定する。SW1オンであった場合はS906へ進み、そうでない場合はS907へ進む。   In step S <b> 905, the system control unit 201 determines whether the touch cancel operation is on (SW <b> 1 on) of the first shutter switch 102 a due to half-pressing of the shutter button 102. If SW1 is on, the process proceeds to S906, and if not, the process proceeds to S907.

S906では、システム制御部201は、指定位置指標1139を非表示とする。S907では、システム制御部201は、EVF101b上に表示された指定位置指標1139の位置に基づき、指定位置指標1139の近傍で検出された被写体の追尾を開始する(追尾中となる)。この処理は図8のS813と同様である。すなわち、タッチキャンセル操作があると、タッチされたままであっても、SW1オンによる撮影準備指示があった場合には、その時点の指定位置指標1139の位置に基づいて追尾対象を確定し、追尾を開始すると共に、追尾位置で撮影準備処理が行われる。これにより、タッチアップを行わなくとも、指定位置指標1139が所望の被写体の位置となった時点で速やかに所望の被写体にAFを合わせた撮影を行うことが可能となる。タッチされたまま第1シャッタースイッチ102a以外の操作があった場合は、追尾対象を確定することなく、追尾解除状態のまま、タッチ操作をキャンセルする。   In step S <b> 906, the system control unit 201 hides the designated position index 1139. In step S907, the system control unit 201 starts tracking the subject detected in the vicinity of the specified position index 1139 based on the position of the specified position index 1139 displayed on the EVF 101b (being tracking). This process is the same as S813 in FIG. In other words, if there is a touch cancel operation, even if the touch is kept being touched, and there is a shooting preparation instruction by turning on SW1, the tracking target is determined based on the position of the designated position index 1139 at that time, and tracking is performed. At the same time, the shooting preparation process is performed at the tracking position. Accordingly, it is possible to quickly perform shooting with AF on a desired subject when the designated position index 1139 reaches the position of the desired subject without performing touch-up. If there is an operation other than the first shutter switch 102a while being touched, the touch operation is canceled while the tracking release state is not established without determining the tracking target.

S908からS910の処理は、図8のS806からS808と同様であるので説明を省略する。S911では、システム制御部201は、図8のタッチアップ処理を行う。 Since the processing from S908 to S910 is the same as S806 to S808 in FIG. In step S911, the system control unit 201 performs the touch-up process illustrated in FIG.

なお、図8で説明したS811における追尾確定待ちを中断する操作と、S905でYESとなるタッチされている途中でも追尾を開始する操作は、前述した例に限らない。操作部104に含まれる他の操作部材の操作でもよいし、ユーザの接眼/離眼による背面表示パネル101a/EVF101bの表示先の切り替えをトリガーとして追尾確定待ちの中断や追尾開始をしてもよい。   Note that the operation for interrupting the tracking confirmation waiting in S811 described in FIG. 8 and the operation for starting tracking even during the touch being YES in S905 are not limited to the example described above. The operation of another operation member included in the operation unit 104 may be performed, or the tracking determination waiting may be interrupted or tracking may be triggered by switching the display destination of the rear display panel 101a / EVF 101b by the user's eyepiece / eye separation. .

<枠ボタン処理>次に、図10を用いて、図3のS320における枠ボタン処理の詳細を説明する。   <Frame Button Processing> Next, details of the frame button processing in S320 of FIG. 3 will be described with reference to FIG.

S1001では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであればS1002へ進み、そうでない場合は(追尾モードであれば)S1005へ進む。   In step S1001, the system control unit 201 refers to the setting information stored in the system memory 212, and determines whether or not the AF mode is the single point AF mode. If it is a one-point AF, the process proceeds to S1002, and if not (the tracking mode), the process proceeds to S1005.

S1002では、システム制御部201は、操作部104に含まれる枠ボタンが長押しされたか(所定時間以上押下され続けたか)否かを判定する。長押しされた場合はS1004へ進み、そうでない場合はS1003へ進む。   In step S <b> 1002, the system control unit 201 determines whether the frame button included in the operation unit 104 has been pressed for a long time (whether it has been pressed for a predetermined time or more). If the button is pressed for a long time, the process proceeds to S1004. Otherwise, the process proceeds to S1003.

S1003では、システム制御部201は、一点AF枠の位置を変更可能な枠移動モードへ遷移する。このモードでは、これまで述べてきたタッチパネル104aによる操作以外に、操作部104に含まれる上下左右ボタンやコントローラホイール106の操作に応じて、一点AF枠の移動を行うことが可能である。また、任意の位置でLV画像の拡大を行うことも可能である。   In step S1003, the system control unit 201 shifts to a frame movement mode in which the position of the one-point AF frame can be changed. In this mode, it is possible to move the one-point AF frame according to the operation of the up / down / left / right buttons and the controller wheel 106 included in the operation unit 104 in addition to the operation using the touch panel 104a described so far. It is also possible to enlarge the LV image at an arbitrary position.

S1004では、システム制御部201は、一点AF枠の位置を中央に戻す。S1005では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS1006へ進み、そうでない場合はS1007へ進む。   In step S1004, the system control unit 201 returns the position of the one-point AF frame to the center. In step S1005, the system control unit 201 determines whether the display destination is the rear display panel 101a. If it is a rear display panel, the process proceeds to S1006, and if not, the process proceeds to S1007.

S1006では、システム制御部201は、顔セレクトモードに遷移する。顔セレクトモードは、現在検出されている被写体の中で最も主顔に相応しいものを追尾する機能である。   In step S1006, the system control unit 201 transitions to the face selection mode. The face selection mode is a function for tracking the most suitable subject in the currently detected subject.

S1007では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法が絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS1008へ進み、そうでない場合はS1006へ進む。   In step S <b> 1007, the system control unit 201 refers to the setting information held in the system memory 212 and determines whether or not the above-described AF position designation method is set to absolute position designation. If the absolute position designation is set, the process proceeds to S1008, and if not, the process proceeds to S1006.

S1008では、システム制御部201は、被写体を追尾中か否かを判定する。追尾中の場合はS1009へ進み、そうでない場合はS1006へ進む。   In step S1008, the system control unit 201 determines whether the subject is being tracked. If tracking is in progress, the process proceeds to S1009, and if not, the process proceeds to S1006.

S1009では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。   In step S1009, the system control unit 201 cancels the tracking of the subject and makes a transition to the tracking cancellation state. As a result, the tracking frame 1138 is not displayed.

S1010では、システム制御部201は、図6のS619と同様に、コンティニュアスAFを行う位置を、現在の被写体検出結果に基づいた位置に更新し、コンティニュアスAFを行う。   In step S1010, the system control unit 201 updates the position for performing continuous AF to a position based on the current subject detection result, and performs continuous AF, as in step S619 of FIG.

なお、ここまでEVF101bを例に説明したが、EVF101bではなく、光学ファインダーを備えた撮像装置にも本発明を適用可能である。その場合、以下のように置き換えて適用する。接眼検知部219は光学ファインダーの接眼部への接眼を検知する。接眼状態では、背面表示パネル101aを非表示とし、光学ファインダー内に備えられた情報表示用の液晶表示素子などの駆動を開始する。なお、光学ファインダー内の表示素子は非接眼状態で表示していてもよい。背面表示パネル101aには、非接眼状態でLV画像を表示していなくてもよく、LV画像以外の情報表示をしていたり、非表示としていてもよい。ただしタッチ&ドラッグAFが「する」に設定されている場合はタッチパネル104aは駆動しておくものとする。光学ファインダー内には、接眼状態でもLV画像は表示されず、代わりに光学像が視認できる。接眼状態において表示するものとして説明した、追尾枠、指定位置指標、吸着中検出枠は、光学ファインダー内において、光学像に重ねて予め定められた複数の表示素子によって表示する。検出枠は表示しても表示しなくてもよい。   Although the EVF 101b has been described as an example so far, the present invention can be applied to an imaging apparatus including an optical viewfinder instead of the EVF 101b. In that case, replace and apply as follows. The eyepiece detection unit 219 detects an eyepiece to the eyepiece part of the optical viewfinder. In the eyepiece state, the rear display panel 101a is not displayed, and driving of an information display liquid crystal display element provided in the optical viewfinder is started. The display element in the optical viewfinder may be displayed in a non-eyepiece state. On the rear display panel 101a, an LV image may not be displayed in a non-eyepiece state, information other than the LV image may be displayed, or may not be displayed. However, when the touch & drag AF is set to “Yes”, the touch panel 104a is driven. In the optical viewfinder, the LV image is not displayed even in the eyepiece state, and the optical image can be visually recognized instead. The tracking frame, the specified position index, and the during-adsorption detection frame described as being displayed in the eyepiece state are displayed by a plurality of predetermined display elements superimposed on the optical image in the optical viewfinder. The detection frame may or may not be displayed.

なお、ここまで述べた枠表現は、状況に応じて大きさが可変であってもよく、また一枠で構成されていなくてもよい。例えば光学ファインダーなど、予め表示部上に複数のAF点が表示されている場合には、タッチ位置を示す際にはタッチした指の位置および面積に応じて、複数のAF点の色を変更するなどして、タッチ位置を示すようにしてもよい。   It should be noted that the frame representation described so far may be variable in size depending on the situation, or may not be composed of one frame. For example, when a plurality of AF points are previously displayed on the display unit such as an optical viewfinder, the colors of the plurality of AF points are changed according to the position and area of the touched finger when indicating the touch position. For example, the touch position may be indicated.

また、S811の追尾確定までの待ち時間の長さは、ユーザが変更できてもよいし、撮影シーンに応じて自動で変更されてもよい。例えば、LV画像から動体の検出が可能である場合に動体の被写体が検出されている場面では、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定するようにしてもよい。もしくは、姿勢検知部218からの出力や、LV画像の時間軸相関の解析によりデジタルカメラ100自体が動いていると判定される場面では、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定するようにしてもよい。これらの場面では、ユーザはLV画像上で動体を追尾したいと考えていると想定できるためである。また、動きの多い被写体を撮影することを想定した撮影モードに設定されている場合、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定してもよい。動きの多い被写体を撮影することを想定した撮影モードは例えば、複数のシーン別撮影モードのうち、スポーツ撮影モード(前述)、打ち上げ花火モード、ペット(動物)撮影モード、子供(キッズ)撮影モードがある。また、動きの多い被写体を撮影することを想定した撮影モードではない撮影モード(動きの少ない被写体を撮影する撮影モード)としては例えば、ポートレート撮影モード、花撮影モード、料理撮影モード、オークション出品商品撮影モード、風景撮影モードがある。   Further, the length of the waiting time until tracking is confirmed in S811 may be changed by the user, or may be automatically changed according to the shooting scene. For example, when a moving object can be detected from an LV image and a moving object is detected, the tracking target is determined immediately even when the suction detection frame is not displayed in response to touch-up. Also good. Alternatively, in a scene where the digital camera 100 itself is determined to be moving based on the output from the posture detection unit 218 or the analysis of the time axis correlation of the LV image, the detection frame during suction may not be displayed in response to touch-up. The tracking target may be fixed immediately. This is because in these scenes, it can be assumed that the user wants to track the moving object on the LV image. Further, when the shooting mode is set on the assumption that a subject with much movement is shot, the tracking target may be determined immediately even when the suction detection frame is not being displayed in response to touch-up. Shooting modes that are intended to shoot subjects with much movement include, for example, a sports shooting mode (described above), a fireworks display mode, a pet (animal) shooting mode, and a children (kids) shooting mode among a plurality of shooting modes by scene. . Moreover, as a shooting mode that is not a shooting mode that assumes shooting of a subject with a lot of movement (a shooting mode for shooting a subject with little movement), for example, a portrait shooting mode, a flower shooting mode, a cooking shooting mode, an auction exhibition product There are shooting modes and landscape shooting modes.

また反対に、動画撮影時(動画の記録時)に誤って所望でない被写体を追尾してしまうことで、ピントが所望でない被写体に合ってしまうと、所望でない被写体にピントがあった状態も記録されてしまい、望ましくない。従って、動画撮影中(動画の記録中)は、ピントが意図しない被写体に合うことをより確実に防ぐため、被写体検出位置に指定位置指標を移動させた場合も、タッチアップから追尾確定まで所定時間待つこととしてもよい。この場合、指定位置指標の位置が被写体検出位置であるか否かに応じて、待つ時間に差を設け、指定位置指標の位置が被写体検出位置である場合のほうが確定待ち時間を短くしてもよい。   On the other hand, if an undesired subject is accidentally tracked during movie shooting (movie recording), and the focus is adjusted to an undesired subject, the undesired subject is also recorded in focus. This is undesirable. Therefore, during movie shooting (during movie recording), even when the specified position index is moved to the subject detection position to prevent the subject from focusing on an unintended focus, a predetermined time is required from touch-up to tracking confirmation. You may wait. In this case, depending on whether or not the position of the designated position index is the subject detection position, there is a difference in the waiting time, and if the position of the designated position index is the subject detection position, the determination waiting time can be shortened. Good.

なお、追尾確定時や、指定位置指標の検出枠への吸着時に、「近傍」という表現を用いたが、どの程度接近していたら各処理を行うかの閾値は、ユーザが変更できてもよいし、撮影シーンに応じて自動で変更されてもよい。例えば動体撮影を行うシーン、および動体撮影前提の撮影モード時には、動く被写体を捉えにくいと判断し、被写体から指定位置指標が通常よりも遠く離れていても、近傍と判定されるようにしてもよい。   In addition, the expression “neighbor” is used when tracking is confirmed or when the specified position index is attracted to the detection frame. However, the user may be able to change the threshold of how close each process is performed. However, it may be automatically changed according to the shooting scene. For example, in a scene where moving body shooting is performed and in a shooting mode based on moving body shooting, it is determined that it is difficult to capture a moving subject, and it may be determined to be near even if the specified position index is far from the subject. .

<タッチ&ドラッグAF機能による画面表示例>
次に、図13(a)から図13(f2)を用いて、タッチ&ドラッグAF機能によって、LV画像中の右側の花の位置を追尾している状態から、左側の人物に追尾対象を変更しようとしてユーザがタッチムーブを行った場合の動作の一例を説明する。
<Screen display example by touch & drag AF function>
Next, using FIG. 13 (a) to FIG. 13 (f2), the tracking target is changed from the state of tracking the position of the right flower in the LV image to the left person by the touch and drag AF function. An example of the operation when the user performs a touch move will be described.

図13(a)から図13(c)、図13(d2)、図13(e2)、図13(f2)は、本実施形態における動作例を示している。図13(d1)、図13(e1)、図13(f1)は、本実施形態を適用しない場合の動作例を示しており、本実施形態の効果を説明するための比較である。図13(a)から図13(f2)の各図は、以下の状態であるものとする。
タッチ&ドラッグAF:「する」
位置指定方法:相対位置指定
タッチ反応領域:全面
接眼/非接眼:接眼状態
図13(a)は、タッチがなされていない(タッチオフ)である場合に、追尾中の例である。LV画像のうち一部の被写体である花を追尾しており、EVF101bにおいて、LV画像中の花に対して追尾枠1138が表示されている。タッチパネル104aには指を触れていない。
FIG. 13A to FIG. 13C, FIG. 13D2, FIG. 13E2 and FIG. 13F2 show operation examples in this embodiment. FIG. 13 (d1), FIG. 13 (e1), and FIG. 13 (f1) show operation examples when the present embodiment is not applied, and are comparisons for explaining the effects of the present embodiment. Each figure from FIG. 13A to FIG. 13F2 is in the following state.
Touch & Drag AF: “Yes”
Position designation method: relative position designation touch reaction area: full eyepiece / non-eyepiece: eyepiece state FIG. 13A shows an example of tracking when no touch is made (touch-off). A flower that is a part of the subject in the LV image is tracked, and a tracking frame 1138 is displayed for the flower in the LV image in the EVF 101b. A finger is not touched on the touch panel 104a.

図13(b)は、図13(a)の状態から、タッチダウンされた場合の例である。花の追尾は解除され、代わりに指定位置指標1139が表示される。被写体検出により、人物の顔が検出されるため、EVF101bにおいて、LV画像中の人物の顔に対して検出枠1136が表示される。タッチパネル104aには、指Fがタッチしている。   FIG. 13B is an example of a case where touchdown is performed from the state of FIG. Flower tracking is canceled and a designated position index 1139 is displayed instead. Since a human face is detected by subject detection, a detection frame 1136 is displayed for the human face in the LV image in the EVF 101b. A finger F touches the touch panel 104a.

図13(c)は、図13(b)の状態から、指Fを左上に向けてタッチムーブした場合の例である。指定位置指標1139は、タッチムーブに応じて左上に移動している。この例では、そのときたまたま移動してきた被写体の蝶の位置となっている。指Fがタッチパネル104aの左端近くまで移動したため、ユーザはこれ以上左側にタッチムーブすることは困難である。ところが、まだ所望する人物の位置まで指定位置指標1139が到達していないため、一旦タッチアップして再度右側にタッチダウンし、左側へタッチムーブを試みることになる。   FIG.13 (c) is an example at the time of touch-moving the finger F toward the upper left from the state of FIG.13 (b). The designated position index 1139 moves to the upper left according to the touch move. In this example, it is the position of the butterfly of the subject that happened to move at that time. Since the finger F has moved to near the left end of the touch panel 104a, it is difficult for the user to touch move to the left. However, since the designated position index 1139 has not yet reached the position of the desired person, the user touches up once, touches down to the right again, and tries to touch move to the left.

図13(d1)は、図13(c)の状態でタッチアップが行われ、本実施形態で説明した追尾確定待ち(S811、S812)を行わずに追尾対象を確定した場合の例である。タッチアップした時点での指定位置指標1139の位置にあった蝶にすぐに追尾確定されてしまい、ユーザが所望した被写体ではない、蝶に対して追尾枠1138が表示され、追尾が開始されてしまう。   FIG. 13D1 shows an example in which the touch-up is performed in the state of FIG. 13C and the tracking target is confirmed without performing the tracking confirmation waiting (S811, S812) described in the present embodiment. Tracking is immediately confirmed for the butterfly at the position of the designated position index 1139 at the time of touch-up, and a tracking frame 1138 is displayed for the butterfly that is not the subject desired by the user, and tracking is started. .

図13(e1)は、図13(d1)の状態からユーザが再度タッチダウンする前に蝶が移動してしまった場合の例である。蝶に対して追尾しているため、追尾枠1138は蝶と一緒に右側の花付近に移動してしまっている。   FIG. 13 (e1) is an example of a case where the butterfly has moved before the user touches down again from the state of FIG. 13 (d1). Since the tracking is performed with respect to the butterfly, the tracking frame 1138 has moved near the flower on the right side together with the butterfly.

図13(f1)は、図13(e1)の状態から、ユーザが改めてタッチダウンし、右側から左側にタッチムーブ(2回目のタッチムーブ)した場合の例である。指定位置指標1139の移動は、ユーザの意図に反して蝶に追尾して右側に移動してしまった追尾枠1138の位置(図13(e1))からとなるため、2回目のタッチムーブを行っても、指定位置指標1139を所望とする人物の位置に移動できない。このように、本実施形態で説明した追尾確定待ち(S811、S812)を行わない場合は、意図しない被写体に追尾してしまうことにより、ユーザによるAF位置の指定操作(追尾位置の指定操作)が阻害されてしまう場合がある。   FIG. 13 (f1) shows an example in which the user touches down again from the state of FIG. 13 (e1) and performs a touch move from the right side to the left side (second touch move). The specified position index 1139 is moved from the position of the tracking frame 1138 (FIG. 13 (e1)) that has been tracked by the butterfly and moved to the right against the user's intention, so the second touch move is performed. However, the designated position index 1139 cannot be moved to the desired position of the person. As described above, when the tracking confirmation wait (S811, S812) described in the present embodiment is not performed, the user performs an AF position designation operation (tracking position designation operation) by tracking an unintended subject. It may be obstructed.

一方、本実施形態で説明した追尾確定待ち(S811、S812)を行った場合の例を図13(d2)、図13(e2)、図13(f2)を用いて説明する。   On the other hand, an example in which the tracking confirmation wait (S811, S812) described in the present embodiment is performed will be described with reference to FIGS. 13 (d2), 13 (e2), and 13 (f2).

図13(d2)では、図13(c)の状態でタッチアップが行われ、本実施形態で説明した追尾確定待ち(S811、S812)を行っている状態の例である。図13(c)の時点(タッチアップ直前)で吸着中検出枠を表示していなかったため、S810でNOと判定され、すぐにはS813の追尾確定の処理は行われない。   FIG. 13D2 shows an example of a state in which the touch-up is performed in the state of FIG. 13C and the tracking confirmation wait (S811, S812) described in the present embodiment is performed. Since the suction detection frame is not displayed at the time of FIG. 13C (immediately before touch-up), NO is determined in S810, and the tracking confirmation process in S813 is not performed immediately.

図13(e2)は、図13(d2)の状態からユーザが再度タッチダウンする前に蝶が移動してしまった場合の例であり、被写体の状況は図13(e1)と同様のケースである。S811で追尾確定待ちの中断操作が行われず、S812でタッチアップ後所定時間も経過していなければ、蝶に対して追尾することはない。従って、蝶が右に移動しているが、指定位置指標1139はタッチアップ時点から移動していない。   FIG. 13 (e2) is an example in the case where the butterfly has moved before the user touches down again from the state of FIG. 13 (d2), and the situation of the subject is the same as in FIG. 13 (e1). is there. If the interruption operation for waiting for tracking confirmation is not performed in S811 and the predetermined time has not passed after touch-up in S812, the butterfly is not tracked. Therefore, the butterfly has moved to the right, but the designated position index 1139 has not moved since the touch-up time.

図13(f2)は、図13(e2)の状態から、ユーザが改めてタッチダウンし、右側から左側にタッチムーブ(2回目のタッチムーブ)した場合の例である。指定位置指標1139の移動は、前回タッチアップした時点(図13(d2))に表示されていた位置から再開されるため、2回目のタッチムーブによって、所望とする人物の位置まで移動できている。その結果、指定位置指標1139は所望とする人物の検出枠1136に吸着し、吸着中検出枠1140が表示されている。この時点でタッチアップすれば、所定時間を待つことなく所望とする人物への追尾が開始されるため、人物が移動していたとしても確実に追尾できる。このように、本実施形態で説明した追尾確定待ち(S811、S812)を行った場合は、より操作性良く、より確実に、意図した被写体を追尾指定することができる。なお、図13(c)の状況において、ユーザが追尾したい被写体が蝶であった場合には、この時点でシャッターボタン102を半押しすれば図9のS907のタッチキャンセル処理によって蝶を追尾することができる。すなわち、本実施形態によれば、検出枠1136が表示されておらず動いている被写体であっても、追尾したい被写体であれば追尾確定待ちをすることなく(被写体を逃すことなく)追尾指定することが可能である。   FIG. 13 (f2) is an example when the user touches down again from the state of FIG. 13 (e2) and performs a touch move from the right side to the left side (second touch move). Since the movement of the designated position index 1139 is resumed from the position displayed at the previous touch-up (FIG. 13 (d2)), the movement can be made to the position of the desired person by the second touch move. . As a result, the designated position index 1139 is attracted to the detection frame 1136 of the desired person, and the during-adsorption detection frame 1140 is displayed. If touch-up is performed at this time, tracking to a desired person is started without waiting for a predetermined time, so that even if the person is moving, tracking can be performed reliably. As described above, when the tracking confirmation waiting (S811, S812) described in the present embodiment is performed, it is possible to specify the tracking of the intended subject with higher operability and more certainty. In the situation of FIG. 13C, if the subject that the user wants to track is a butterfly, if the shutter button 102 is half-pressed at this time, the butterfly is tracked by the touch cancel processing of S907 of FIG. Can do. That is, according to the present embodiment, even if the subject is a moving subject without the detection frame 1136 being displayed, tracking is designated without waiting for tracking confirmation (without missing the subject) if the subject is to be tracked. It is possible.

図14(a)から図14(e2)を用いて、タッチ&ドラッグAFの機能によって、LV画像中の右側の人物を追尾している状態から、左側の人物に追尾対象を変更しようとして、ユーザがタッチムーブを行った場合の動作の一例を説明する。   14 (a) to 14 (e2), the user tries to change the tracking target from the state of tracking the right person in the LV image to the left person by the touch and drag AF function. An example of the operation when performing a touch move will be described.

図14(a)、図14(b)、図14(c2)、図14(d2)、図14(e2)は、本実施形態における動作例を示している。図14(c1)、図14(d1)、図14(e1)、図14(f1)は、本実施形態を適用しない場合の動作例を示しており、本実施形態の効果を説明するための比較である。   FIG. 14A, FIG. 14B, FIG. 14C2, FIG. 14D2, and FIG. 14E2 show operation examples in this embodiment. FIGS. 14 (c1), 14 (d1), 14 (e1), and 14 (f1) show examples of operations when the present embodiment is not applied, and are for explaining the effects of the present embodiment. It is a comparison.

図14(a)から図14(e2)の各図は、以下の状態であるものとする。
タッチ&ドラッグAF:「する」
位置指定方法:絶対位置指定
タッチ反応領域:全面
接眼/非接眼:接眼状態
図14(a)は、タッチがなされていない(タッチオフ)である場合に、追尾中の例である。LV画像には、右側に1人と左側に1人の2人が写っており、右側の人物を追尾している。EVF101bにおいて、LV画像中の右側の人物に対して追尾枠1138が表示されている。また、右側の人物と左側の人物の奥には、かなり離れた距離の山が写っている。タッチパネル104aには指を触れていない。
14A to 14E2 are assumed to be in the following states.
Touch & Drag AF: “Yes”
Position designation method: Absolute position designation Touch reaction area: Full-eyepiece / non-eyepiece: eyepiece state FIG. 14A shows an example of tracking when no touch is made (touch-off). In the LV image, one person is shown on the right side and one person is shown on the left side, and the right person is tracked. In the EVF 101b, a tracking frame 1138 is displayed for the right person in the LV image. In addition, there is a mountain at a far distance in the back of the person on the right and the person on the left. A finger is not touched on the touch panel 104a.

図14(b)は、図14(a)の状態から、タッチダウンされた場合の例である。右側の人物の追尾は解除され、代わりに、タッチ位置に対応する位置で検出された右側の人物の顔に対して吸着中検出枠1140が表示される。タッチパネル104aには、右側に指Fがタッチしている。   FIG. 14B is an example when the touchdown is performed from the state of FIG. The tracking of the right person is canceled, and instead, a suction detection frame 1140 is displayed for the face of the right person detected at the position corresponding to the touch position. A finger F touches the right side of the touch panel 104a.

図14(c1)、図14(d1)、図14(e1)、図14(f1)は、図6で説明したS626、S627とは異なり、指定位置指標1139の位置でコンティニュアスAFを行った場合の動作例である。   14 (c1), FIG. 14 (d1), FIG. 14 (e1), and FIG. 14 (f1) are different from S626 and S627 described in FIG. 6 in that continuous AF is performed at the position of the designated position index 1139. It is an example of operation in the case of.

図14(c1)は、図14(b)の状態から、指Fを左側の人物に向けてタッチムーブしている途中の例である。指定位置指標1139は、タッチムーブに応じて左に移動し、山の位置となっている。この例では、指定位置指標1139の位置でコンティニュアスAFが行われるため、山が合焦するようにAFが行われ、山にピントが合って手前の人物2人はボケている。手前の人物2人がボケて写っているため、LV画像から顔として検出できず、被写体枠1136は表示されていない。このとき、ユーザから見ても人物であると判別できないほど人物がボケる可能性もある。そうなるとユーザは所望とする左側の人物を見失うことになり、どこに向かってタッチムーブを続ければよいかわからなくなり、上手く追尾指定ができない。また、指定位置指標1139がユーザが合焦させたい被写体の位置であるか否かに関係なく、合焦状態が指定位置指標1139の位置に応じて頻繁に変動するため、LV画像が見づらいものとなる。   FIG. 14C1 is an example in the middle of touch moving the finger F toward the left person from the state of FIG. 14B. The designated position index 1139 moves to the left according to the touch move and is a mountain position. In this example, since the continuous AF is performed at the position of the designated position index 1139, the AF is performed so that the mountain is in focus, and the two people in front are out of focus because the mountain is in focus. Since the two persons in the foreground are blurred, they cannot be detected as faces from the LV image, and the subject frame 1136 is not displayed. At this time, there is a possibility that the person may be blurred so that the person cannot be determined from the user's viewpoint. In this case, the user loses sight of the desired left person, cannot know where to continue the touch move, and cannot specify the tracking well. In addition, regardless of whether or not the designated position index 1139 is the position of the subject that the user wants to focus on, the focus state frequently varies depending on the position of the designated position index 1139, so that the LV image is difficult to see. Become.

図14(d1)は、図14(c1)の状態から更に左にタッチムーブし、指定位置指標1139が所望とする左側の人物の位置まで移動された直後の動作例を示している。指定位置指標1139でコンティニュアスAFを行うものの、図14(c1)で左側の人物がボケていために左側の人物に合焦するまでには少しの時間差があり、左側の人物の顔が検出されていない。従って指定位置指標1139が所望とする左側の人物の位置に達しているにも関わらず、吸着中検出枠1140が表示されない。従って、ユーザは所望とする左側の人物は追尾指定できないものと誤解するおそれがある。   FIG. 14 (d1) shows an operation example immediately after the left side touch move from the state of FIG. 14 (c1) and the designated position index 1139 is moved to the desired left person position. Although continuous AF is performed with the designated position index 1139, the left person in FIG. 14 (c1) is out of focus, so there is a slight time difference until the left person is focused, and the left person's face is detected. It has not been. Therefore, the suction detection frame 1140 is not displayed even though the designated position index 1139 has reached the desired position of the left person. Therefore, the user may misunderstand that the desired left person cannot be specified for tracking.

図14(e1)は、図14(d1)の状態からタッチアップされた場合の例である。吸着中検出枠1140が表示されていない状態でタッチアップしたため、追尾確定待ち(S811、S812)が行われ、追尾対象はすぐには左側の人物に確定しない。この追尾確定待ちの間に左側の人物が移動してしまった場合には、タッチアップの時点では左側の人物の位置を指定できていたにもかかわらず、左側の人物を追尾指定できないこととなってしまう。   FIG. 14 (e1) is an example when touched up from the state of FIG. 14 (d1). Since the touch-up is performed in a state where the during-adsorption detection frame 1140 is not displayed, the tracking confirmation wait (S811, S812) is performed, and the tracking target is not immediately determined to the left person. If the left person moves while waiting for tracking confirmation, the left person cannot be specified for tracking even though the position of the left person can be specified at the time of touch-up. End up.

図14(f1)は、図14(e1)の状態から、追尾確定待ち(S811、S812)を経て、所望とする左側の人物の追尾を開始した場合の例である。このように、本実施形態を適用しない図14(c1)、図14(d1)、図14(e1)、図14(f1)では、所望とする被写体(左側の人物)への追尾位置の移動操作が上手く行えない。また、所望とする被写体(左側の人物)に指定位置指標1139を移動した場合に、所望とする被写体(左側の人物)が合焦していない場合がある。この場合は、すぐに撮影を行った場合に撮影準備動作で合焦するまでの時間分、撮影タイミングが遅れる。すなわち、撮影機会を逃すおそれがある。   FIG. 14 (f1) is an example in the case where tracking of the desired left person is started from the state of FIG. 14 (e1) through tracking confirmation waiting (S811, S812). As described above, in FIG. 14C1, FIG. 14D1, FIG. 14E1, and FIG. 14F1 to which the present embodiment is not applied, the tracking position is moved to the desired subject (left person). The operation cannot be performed well. Further, when the designated position index 1139 is moved to a desired subject (left person), the desired subject (left person) may not be in focus. In this case, when shooting is performed immediately, the shooting timing is delayed by an amount of time until focusing is performed in the shooting preparation operation. That is, there is a risk of missing a photographing opportunity.

一方、本実施形態で説明したように、指定位置指標1139の表示中に、指定位置指標1139の位置に基づいたAFは行わない場合の例を図14(c2)、図14(d2)、図14(e2)を用いて説明する。   On the other hand, as described in the present embodiment, an example in which AF based on the position of the designated position index 1139 is not performed while the designated position index 1139 is displayed is shown in FIGS. 14 (c2), 14 (d2), and FIG. 14 (e2).

図14(c2)は、図14(b)の状態から、指Fを左側の人物に向けてタッチムーブしている途中の例である。指定位置指標1139は、タッチムーブに応じて左に移動し、山の位置となっている。本実施形態では、この状態で指定位置指標1139の位置でコンティニュアスAFは行わない(S626、S629、S721)。そのため、手前の人物2人に合焦し、それぞれの顔が検出され、それぞれの顔の位置に検出枠1136が表示される。従ってユーザは左側の人物の検出枠1136を目指してタッチムーブを継続すればよく、所望の被写体へのAF位置の移動(追尾対象の変更)を行いやすい。また、合焦状態が指定位置指標1139の位置に関わらずあまり変動しないため、LV画像が見づらくなることはない。   FIG. 14 (c2) is an example in the middle of touch moving the finger F toward the left person from the state of FIG. 14 (b). The designated position index 1139 moves to the left according to the touch move and is a mountain position. In this embodiment, continuous AF is not performed at the position of the designated position index 1139 in this state (S626, S629, S721). Therefore, the two persons in front are in focus, each face is detected, and a detection frame 1136 is displayed at each face position. Accordingly, the user only needs to continue the touch move aiming at the detection frame 1136 of the left person, and can easily move the AF position to the desired subject (change the tracking target). Further, since the in-focus state does not vary much regardless of the position of the designated position index 1139, the LV image does not become difficult to see.

図14(d2)は、図14(c2)の状態から更に左にタッチムーブし、指定位置指標1139が所望とする左側の人物の位置まで移動された直後の動作例を示している。指定位置指標1139が左側の検出枠1136の近傍となるため、左側の人物の検出枠に吸着し、吸着中検出枠1140が表示される。   FIG. 14 (d2) shows an operation example immediately after the touch movement is further performed to the left from the state of FIG. 14 (c2) and the designated position index 1139 is moved to the desired position of the left person. Since the designated position index 1139 is in the vicinity of the left detection frame 1136, the specified position index 1139 is attracted to the left person detection frame, and the during-adsorption detection frame 1140 is displayed.

図14(e2)は、図14(d2)の状態からタッチアップされた場合の例である。吸着中検出枠1140が表示されていた状態でタッチアップしたため、追尾確定待ち(S811、S812)を行うことなく、すぐさま左側の人物が追尾対象として確定され、追尾開始される。従って、タッチアップ後に左側の人物が移動した場合にも確実に左側の人物を追尾できる。また、所望とする被写体(左側の人物)に指定位置指標1139を移動した場合に、所望とする被写体(左側の人物)が合焦しているため、すぐに撮影を行った場合にも、すぐに合焦してすぐに撮影が行われる。すなわち、撮影機会を逃さずに撮影することができる。   FIG. 14 (e2) is an example of a case where touch-up is performed from the state of FIG. 14 (d2). Since the touch-up is performed in a state where the during-adsorption detection frame 1140 is displayed, the person on the left side is immediately determined as a tracking target without performing tracking determination waiting (S811, S812), and tracking is started. Therefore, even when the left person moves after touch-up, the left person can be reliably tracked. Also, when the designated position index 1139 is moved to the desired subject (left person), the desired subject (left person) is in focus, so even if shooting is performed immediately, The photo is taken immediately after focusing. In other words, it is possible to shoot without missing the shooting opportunity.

なお、システム制御部201が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。   Note that the various controls described as being performed by the system control unit 201 may be performed by a single piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing. .

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。   Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

また、上述した実施形態においては、本発明をEVFを覗きながらタッチ操作を行いAF枠を指定するタッチ&ドラッグAF機能を有するデジタルカメラに適用した場合を例にして説明したが、この例に限定されない。タッチ操作でAF枠を移動しながら撮影可能な機能を有する装置であれば適用可能である。また、図5に係る表示先の切り替え処理に関しては、撮像機能を有していなくとも、接眼ファインダーの表示を制御する表示制御装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォンなどに適用可能である。また、投影装置、ディスプレイを備える家電装置や車載装置、医療機器などに適用可能である。   In the above-described embodiment, the case where the present invention is applied to a digital camera having a touch & drag AF function for designating an AF frame by performing a touch operation while looking into the EVF is described as an example. However, the present invention is not limited to this example. Not. Any device having a function capable of photographing while moving the AF frame by a touch operation can be applied. Further, the display destination switching process according to FIG. 5 can be applied to any display control apparatus that controls the display of the eyepiece finder without having an imaging function. That is, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, digital photo frames, music players, game machines, electronic book readers, tablet terminals, smartphones, and the like. Further, the present invention can be applied to a home appliance, a vehicle-mounted device, a medical device, and the like provided with a projection device and a display.

[他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100…デジタルカメラ、101…表示部、104…操作部、201…システム制御部 DESCRIPTION OF SYMBOLS 100 ... Digital camera, 101 ... Display part, 104 ... Operation part, 201 ... System control part

Claims (23)

撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、
前記ライブビュー画像から特定の被写体を検出する被写体検出手段と、
タッチ操作を検出可能なタッチ検出手段と、
前記タッチ検出手段によりタッチ位置を移動する移動操作を検出したことに応じて、表示手段において指標を前記移動操作の移動量に応じた位置に表示するよう制御する表示制御手段と、
前記移動操作を行うタッチが離されてから所定の時間が経過したことに応じて、前記指標の位置に基づいて決定した追尾対象を前記追尾手段で追尾するように制御する制御手段と、を有し、
前記制御手段は、前記特定の被写体から所定範囲以内であればタッチが離されたことに応じて前記所定の時間が経過するのを待たずに追尾を開始し、前記特定の被写体から所定範囲以内でない場合は前記所定の時間が経過してから追尾を行うように制御することを特徴とする撮像制御装置。
Tracking means for tracking the tracking target in the live view image captured by the imaging means;
Subject detection means for detecting a specific subject from the live view image;
Touch detection means capable of detecting a touch operation;
Display control means for controlling the display means to display an index at a position corresponding to the amount of movement of the moving operation in response to detecting the moving operation for moving the touch position by the touch detecting means;
Control means for controlling the tracking means to track the tracking target determined based on the position of the index when a predetermined time has passed since the touch for performing the moving operation was released. And
The control means starts tracking without waiting for the predetermined time to elapse according to the touch being released if the control means is within a predetermined range, and is within the predetermined range from the specific subject. If not , the imaging control apparatus controls to perform tracking after the predetermined time has elapsed .
前記表示制御手段は、タッチが検出されている間に前記指標の位置が前記特定の被写体から所定範囲以内となると、前記指標とは異なる検出枠を表示することを特徴とする請求項に記載の撮像制御装置。 Said display control means, the position of the index is within a predetermined range from the specific subject while the touch is detected, according to claim 1, characterized in that display different detection frame and the indicator Imaging control device. 撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、  Tracking means for tracking the tracking target in the live view image captured by the imaging means;
タッチ操作を検出可能なタッチ検出手段と、  Touch detection means capable of detecting a touch operation;
前記タッチ検出手段によりタッチ位置を移動する移動操作を検出したことに応じて、表示手段において指標を前記移動操作の移動量に応じた位置に表示するよう制御する表示制御手段と、  Display control means for controlling the display means to display an index at a position corresponding to the amount of movement of the moving operation in response to detecting the moving operation for moving the touch position by the touch detecting means;
前記移動操作を行うタッチが離されてから所定の時間が経過したことに応じて、前記指標の位置に基づいて決定した追尾対象を前記追尾手段で追尾するように制御する制御手段と、を有し、  Control means for controlling the tracking means to track the tracking target determined based on the position of the index when a predetermined time has passed since the touch for performing the moving operation was released. And
前記追尾対象の位置指定方法は、タッチ位置が操作面内の位置座標に対応づけられる絶対位置指定と、タッチ位置が操作面内の位置座標に対応づけられない相対位置指定のいずれかに設定可能であり、  The tracking target position designation method can be set to either absolute position designation in which the touch position is associated with position coordinates in the operation surface or relative position designation in which the touch position is not associated with position coordinates in the operation surface. And
前記制御手段は、前記絶対位置指定の場合はタッチが離されたこと応じて前記所定の時間が経過するのを待たずに追尾を開始し、前記相対位置指定の場合は前記所定の時間が経過してから追尾を行うように制御することを特徴とする撮像制御装置。  The control means starts tracking without waiting for the predetermined time to elapse in response to the touch being released in the case of the absolute position designation, and elapses of the predetermined time in the case of the relative position designation. Then, the imaging control apparatus is controlled so as to perform tracking.
前記追尾対象の位置指定方法は、タッチ位置が操作面内の位置座標に対応づけられる絶対位置指定と、タッチ位置が操作面内の位置座標に対応づけられない相対位置指定のいずれかに設定可能であり、
前記制御手段は、前記絶対位置指定の場合はタッチが離されたこと応じて前記所定の時間が経過するのを待たずに追尾を開始し、前記相対位置指定の場合は前記所定の時間が経過してから追尾を行うように制御することを特徴とする請求項1に記載の撮像制御装置。
The tracking target position designation method can be set to either absolute position designation in which the touch position is associated with position coordinates in the operation surface or relative position designation in which the touch position is not associated with position coordinates in the operation surface. And
The control means starts tracking without waiting for the predetermined time to elapse in response to the touch being released in the case of the absolute position designation, and elapses of the predetermined time in the case of the relative position designation. imaging control apparatus according to claim 1, wherein the controlled from to to perform tracking.
前記制御手段は、動画の記録中は、前記指標の位置が特定の被写体から所定範囲以内であるか否かに関わらず、かつ前記位置指定方法に関わらず、前記タッチが離された後、前記所定の時間が経過してから追尾を行うように制御することを特徴とする請求項3または4に記載の撮像制御装置。 The control means, during the recording of the moving image, regardless of whether or not the position of the index is within a predetermined range from a specific subject, and regardless of the position designation method, after the touch is released, 5. The imaging control apparatus according to claim 3 , wherein control is performed so that tracking is performed after a predetermined time has elapsed. 撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、  Tracking means for tracking the tracking target in the live view image captured by the imaging means;
タッチ操作を検出可能なタッチ検出手段と、  Touch detection means capable of detecting a touch operation;
前記タッチ検出手段によりタッチ位置を移動する移動操作を検出したことに応じて、表示手段において指標を前記移動操作の移動量に応じた位置に表示するよう制御する表示制御手段と、  Display control means for controlling the display means to display an index at a position corresponding to the amount of movement of the moving operation in response to detecting the moving operation for moving the touch position by the touch detecting means;
前記移動操作を行うタッチが離されてから所定の時間が経過したことに応じて、前記指標の位置に基づいて決定した追尾対象を前記追尾手段で追尾するように制御する制御手段と、を有し、  Control means for controlling the tracking means to track the tracking target determined based on the position of the index when a predetermined time has passed since the touch for performing the moving operation was released. And
前記制御手段は、前記所定の時間が経過するのを待っている間でも特定の操作が検出された場合はその時点から追尾を開始するように制御することを特徴とする撮像制御装置。  The imaging control apparatus according to claim 1, wherein the control unit performs control so that tracking is started from a certain time when a specific operation is detected while waiting for the predetermined time to elapse.
前記制御手段は、前記所定の時間が経過するのを待っている間でも特定の操作が検出された場合はその時点から追尾を開始するように制御することを特徴とする請求項1乃至5のいずれか1項に記載の撮像制御装置。   6. The control unit according to claim 1, wherein when a specific operation is detected while waiting for the predetermined time to elapse, tracking is started from that point. The imaging control device according to any one of claims. 追尾対象に対してオートフォーカスを行う第1のAFモードと、追尾対象に対してオートフォーカスを行わず、所定の位置でオートフォーカスを行う第2のAFモードのいずれかでAF動作を行うAF制御手段をさらに有することを特徴とする請求項1乃至のいずれか1項に記載の撮像制御装置。 AF control in which AF operation is performed in either the first AF mode in which auto-focusing is performed on a tracking target or the second AF mode in which auto-focusing is not performed on a tracking target and auto-focusing is performed at a predetermined position. imaging control apparatus according to any one of claims 1 to 7, further comprising means. 前記AF動作は、AF位置に自動的にピントを合わせ続けるように連続的にAF動作を行うコンティニュアスAFであることを特徴とする請求項に記載の撮像制御装置。 The imaging control apparatus according to claim 8 , wherein the AF operation is a continuous AF that continuously performs the AF operation so as to automatically keep the AF position in focus. 前記第2のAFモードの場合は、前記制御手段は、タッチが検出されなくなったことに応じてすぐにオートフォーカスを実行することを特徴とする請求項またはに記載の撮像制御装置。 The case of the second AF mode, the control means, the imaging control apparatus according to claim 8 or 9, characterized in that the touch to perform an autofocus immediately in response to no longer detected. ファインダーをさらに有し、
前記表示手段は、前記ファインダー内の表示手段であり、
前記タッチ検出手段は、前記ファインダー外の操作面に対するタッチ操作を検出可能であることを特徴とする請求項1乃至10のいずれか1項に記載の撮像制御装置。
It also has a viewfinder
The display means is a display means in the finder,
It said touch detection means, the imaging control device according to any one of claims 1 to 10, characterized in that it is capable of detecting a touch operation on the operating surface of the outside of the viewfinder.
前記ファインダー外に第2の表示手段を有し、前記タッチ検出手段は前記第2の表示手段の操作面に対するタッチ操作を検出可能であることを特徴とする請求項11に記載の撮像制御装置。 The imaging control apparatus according to claim 11 , further comprising a second display unit outside the viewfinder, wherein the touch detection unit is capable of detecting a touch operation on the operation surface of the second display unit. 前記ファインダー内の表示手段と前記第2の表示手段のいずれかに表示先を切り替え可能であり、
前記表示制御手段は、前記ファインダー内の表示手段が表示先となっている場合に、前記移動操作に応じた前記指標の表示制御を行うことを特徴とする請求項12に記載の撮像制御装置。
The display destination can be switched to either the display means in the viewfinder or the second display means,
The imaging control apparatus according to claim 12 , wherein the display control unit performs display control of the index according to the moving operation when the display unit in the finder is a display destination.
前記制御手段は、前記表示先が前記第2の表示手段となっている場合は、タッチ操作が検出されたことに応じて追尾を開始し、前記タッチ位置の移動操作があった場合でも追尾対象を変更しないように制御することを特徴とする請求項13に記載の撮像制御装置。 When the display destination is the second display unit, the control unit starts tracking when a touch operation is detected, and is subject to tracking even when the touch position is moved. 14. The imaging control apparatus according to claim 13 , wherein control is performed so as not to change. 前記所定の時間は、撮影の条件に応じて異なることを特徴とする請求項1乃至14のいずれか1項に記載の撮像制御装置。 Wherein the predetermined time, the imaging control device according to any one of claims 1 to 14, characterized in varies depending on the conditions of shooting. 第1の撮影モードの場合は第2の撮影モードの場合よりも前記所定の時間を短くし、
前記第1の撮影モードは、スポーツ撮影モード、打ち上げ花火モード、動物の撮影モード、子供の撮影モードの少なくとも1つであることを特徴とする請求項15に記載の撮像制御装置。
In the case of the first shooting mode, the predetermined time is made shorter than in the case of the second shooting mode,
16. The imaging control apparatus according to claim 15 , wherein the first shooting mode is at least one of a sports shooting mode, a fireworks display mode, an animal shooting mode, and a child shooting mode.
被写体として動体が検出されている場合は、検出されていない場合よりも前記所定の時間を短くすることを特徴とする請求項15に記載の撮像制御装置。 The imaging control apparatus according to claim 15 , wherein when the moving object is detected as a subject, the predetermined time is made shorter than when the moving object is not detected. 前記撮像制御装置の所定の動きが検出されている場合は、検出されていない場合よりも前記所定の時間を短くすることを特徴とする請求項15に記載の撮像制御装置。 16. The imaging control apparatus according to claim 15 , wherein when the predetermined movement of the imaging control apparatus is detected, the predetermined time is made shorter than when the predetermined movement is not detected. 撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、前記ライブビュー画像から特定の被写体を検出する被写体検出手段と、タッチ操作を検出可能なタッチ検出手段と、を有する撮像制御装置の制御方法であって、
前記タッチ検出手段によりタッチ位置を移動する移動操作を検出したことに応じて、表示手段において指標を前記移動操作の移動量に応じた位置に表示するよう制御する表示制御ステップと、
前記移動操作を行うタッチが離されてから所定時間が経過したことに応じて、前記指標の位置に基づいて決定した追尾対象を前記追尾手段で追尾するように制御する制御ステップと、を有し、
前記制御ステップでは、前記特定の被写体から所定範囲以内であればタッチが離されたことに応じて前記所定の時間が経過するのを待たずに追尾を開始し、前記特定の被写体から所定範囲以内でない場合は前記所定の時間が経過してから追尾を行うように制御することを特徴とする撮像制御装置の制御方法。
Imaging control comprising: tracking means for tracking a tracking target in a live view image captured by the imaging means ; subject detection means for detecting a specific subject from the live view image ; and touch detection means capable of detecting a touch operation. An apparatus control method comprising:
A display control step for controlling the display unit to display an index at a position corresponding to the movement amount of the moving operation in response to detecting the moving operation for moving the touch position by the touch detection unit;
Wherein in response to a moving operation time from when the touch is released in a predetermined performing has elapsed, have a, a control step for controlling to tracking by the tracking means tracking target determined based on the position of the indicator And
In the control step, if it is within a predetermined range from the specific subject, tracking is started without waiting for the predetermined time to elapse according to the touch being released, and within the predetermined range from the specific subject. If not, the control method of the imaging control apparatus, wherein the tracking is performed after the predetermined time has elapsed .
撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、タッチ操作を検出可能なタッチ検出手段と、を有する撮像制御装置の制御方法であって、  A control method of an imaging control apparatus comprising: tracking means for tracking a tracking target in a live view image captured by an imaging means; and touch detection means capable of detecting a touch operation.
前記タッチ検出手段によりタッチ位置を移動する移動操作を検出したことに応じて、表示手段において指標を前記移動操作の移動量に応じた位置に表示するよう制御する表示制御ステップと、  A display control step for controlling the display unit to display an index at a position corresponding to the movement amount of the moving operation in response to detecting the moving operation for moving the touch position by the touch detection unit;
前記移動操作を行うタッチが離されてから所定の時間が経過したことに応じて、前記指標の位置に基づいて決定した追尾対象を前記追尾手段で追尾するように制御する制御ステップと、を有し、  And a control step for controlling the tracking unit to track the tracking target determined based on the position of the index in response to a lapse of a predetermined time after the touch for performing the moving operation is released. And
前記追尾対象の位置指定方法は、タッチ位置が操作面内の位置座標に対応づけられる絶対位置指定と、タッチ位置が操作面内の位置座標に対応づけられない相対位置指定のいずれかに設定可能であり、  The tracking target position designation method can be set to either absolute position designation in which the touch position is associated with position coordinates in the operation surface or relative position designation in which the touch position is not associated with position coordinates in the operation surface. And
前記制御ステップでは、前記絶対位置指定の場合はタッチが離されたこと応じて前記所定の時間が経過するのを待たずに追尾を開始し、前記相対位置指定の場合は前記所定の時間が経過してから追尾を行うように制御することを特徴とする撮像制御装置の制御方法。  In the control step, tracking is started without waiting for the predetermined time to elapse in response to the touch being released in the case of the absolute position designation, and the predetermined time elapses in the case of the relative position designation. Then, the control method of the imaging control apparatus, wherein control is performed so that tracking is performed.
撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、タッチ操作を検出可能なタッチ検出手段と、を有する撮像制御装置の制御方法であって、  A control method of an imaging control apparatus comprising: tracking means for tracking a tracking target in a live view image captured by an imaging means; and touch detection means capable of detecting a touch operation.
前記タッチ検出手段によりタッチ位置を移動する移動操作を検出したことに応じて、表示手段において指標を前記移動操作の移動量に応じた位置に表示するよう制御する表示制御ステップと、  A display control step for controlling the display unit to display an index at a position corresponding to the movement amount of the moving operation in response to detecting the moving operation for moving the touch position by the touch detection unit;
前記移動操作を行うタッチが離されてから所定の時間が経過したことに応じて、前記指標の位置に基づいて決定した追尾対象を前記追尾手段で追尾するように制御する制御ステップと、を有し、  And a control step for controlling the tracking unit to track the tracking target determined based on the position of the index in response to a lapse of a predetermined time after the touch for performing the moving operation is released. And
前記制御ステップでは、前記所定の時間が経過するのを待っている間でも特定の操作が検出された場合はその時点から追尾を開始するように制御することを特徴とする撮像制御装置の制御方法。  In the control step, when a specific operation is detected while waiting for the predetermined time to elapse, control is performed so that tracking is started from that time point. .
コンピュータを、請求項1乃至18のいずれか1項に記載された撮像制御装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each unit of the imaging control apparatus according to any one of claims 1 to 18 . コンピュータを、請求項1乃至18のいずれか1項に記載された撮像制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each unit of the imaging control apparatus according to any one of claims 1 to 18 .
JP2016170064A 2016-08-31 2016-08-31 IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Active JP6397454B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2016170064A JP6397454B2 (en) 2016-08-31 2016-08-31 IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
PCT/JP2017/022254 WO2018042824A1 (en) 2016-08-31 2017-06-16 Imaging control apparatus, display control apparatus, and control method therefor
EP17845835.2A EP3509291B1 (en) 2016-08-31 2017-06-16 Imaging control apparatus and method therefor
CN202011474772.0A CN112653838B (en) 2016-08-31 2017-06-16 Display control apparatus, control method thereof, and storage medium
CN202011470667.XA CN112653837B (en) 2016-08-31 2017-06-16 Image pickup control apparatus, control method therefor, and storage medium
EP22183785.9A EP4102827A1 (en) 2016-08-31 2017-06-16 Image capture control apparatus and control method therefor
CN201780053511.1A CN109644239B (en) 2016-08-31 2017-06-16 Image pickup control apparatus, display control apparatus, control method therefor, and storage medium
US16/284,314 US10992853B2 (en) 2016-08-31 2019-02-25 Image capture control apparatus, display control apparatus, and control method for tracking a tracking target in a live view image
US17/213,550 US11272093B2 (en) 2016-08-31 2021-03-26 Image capture control apparatus, display control apparatus, and control method therefor to track a target and to determine an autofocus position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016170064A JP6397454B2 (en) 2016-08-31 2016-08-31 IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2018037893A JP2018037893A (en) 2018-03-08
JP6397454B2 true JP6397454B2 (en) 2018-09-26

Family

ID=61567871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016170064A Active JP6397454B2 (en) 2016-08-31 2016-08-31 IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP6397454B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7049195B2 (en) * 2018-06-28 2022-04-06 キヤノン株式会社 Electronic devices and their control methods, programs, and storage media
US11252322B2 (en) 2019-04-26 2022-02-15 Canon Kabushiki Kaisha Electronic device capable of performing control in accordance with a movement operation of an operating body and control method thereof
JP7301615B2 (en) 2019-06-17 2023-07-03 キヤノン株式会社 Electronic equipment and its control method
JP7321786B2 (en) 2019-06-17 2023-08-07 キヤノン株式会社 Electronic equipment and its control method
WO2021131562A1 (en) * 2019-12-27 2021-07-01 キヤノン株式会社 Electronic device, electronic device control method, program, and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017130A (en) * 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd Digital camera, program, and recording medium
JP5872783B2 (en) * 2011-03-24 2016-03-01 オリンパス株式会社 Display device, display method, and display program

Also Published As

Publication number Publication date
JP2018037893A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
WO2018042824A1 (en) Imaging control apparatus, display control apparatus, and control method therefor
JP6397454B2 (en) IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US11039073B2 (en) Electronic apparatus and method for controlling the same
JP7049195B2 (en) Electronic devices and their control methods, programs, and storage media
JP2019074928A (en) Electronic apparatus and control method thereof
JP7467071B2 (en) Electronic device, electronic device control method, program, and storage medium
JP6833535B2 (en) Imaging device, control method and program of imaging device
JP7341729B2 (en) Electronic devices, control methods for electronic devices, programs, storage media
JP2019075699A (en) Electronic device and control method of the same
JP7049179B2 (en) Imaging control device and its control method, program and storage medium
JP2021141573A (en) Electronic apparatus
JP6765902B2 (en) Display control device and its control method, program, and storage medium
JP6765901B2 (en) Imaging device and its control method, program, and storage medium
JP2021163182A (en) Electronic apparatus and method for controlling the same
KR102345767B1 (en) Image capturing control apparatus, control method, and storage medium
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
JP6393296B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, IMAGING CONTROL DEVICE, PROGRAM, AND STORAGE MEDIUM
JP6708516B2 (en) Electronic device, control method thereof, and program
JP2021097356A (en) Imaging control device
JP2020197976A (en) Electronic apparatus, control method for electronic apparatus, program, and recording medium
JP7171252B2 (en) IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE
JP7254454B2 (en) IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE
US20230254578A1 (en) Electronic device
JP2022095264A (en) Display control device and method for controlling the same
JP2022095306A (en) Display control device and method for controlling the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180831

R151 Written notification of patent or utility model registration

Ref document number: 6397454

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151