JP2020181512A - Electronic apparatus and control method thereof - Google Patents

Electronic apparatus and control method thereof Download PDF

Info

Publication number
JP2020181512A
JP2020181512A JP2019085966A JP2019085966A JP2020181512A JP 2020181512 A JP2020181512 A JP 2020181512A JP 2019085966 A JP2019085966 A JP 2019085966A JP 2019085966 A JP2019085966 A JP 2019085966A JP 2020181512 A JP2020181512 A JP 2020181512A
Authority
JP
Japan
Prior art keywords
movement
subject
electronic device
detected
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019085966A
Other languages
Japanese (ja)
Other versions
JP7277247B2 (en
Inventor
達哉 江平
Tatsuya Ehira
達哉 江平
大和 出岡
Yamato Ideoka
大和 出岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019085966A priority Critical patent/JP7277247B2/en
Publication of JP2020181512A publication Critical patent/JP2020181512A/en
Application granted granted Critical
Publication of JP7277247B2 publication Critical patent/JP7277247B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an electronic apparatus capable of performing a more comfortable movement operation according to a target selected as a selection position.SOLUTION: An electronic apparatus has a control means for performing control to change a selection position on an image according to a movement operation accompanying a movement of an operation body. The control means is configured to perform control, when the selection position specification mode is a first specification mode that does not relate to a specific subject detected by the subject detection means, to change the selection position according to a movement operation even when the integrated value of the operation amount by the movement operation does not exceed a first threshold value, and when the selection mode is a second specification mode for selecting the subject detected by the subject detection means, change the subject to be selected when the integrated value of the operation amount by the movement operation exceeds the first threshold value, according to the movement operation.SELECTED DRAWING: Figure 8

Description

本発明は電子機器に関し、特に操作体の移動を伴う移動操作に応じた制御の方法に関する。 The present invention relates to an electronic device, and more particularly to a control method according to a movement operation accompanied by movement of an operating body.

画像から特定の特徴を持つ被写体を検出し、検出された複数の被写体のいずれかをオートフォーカス(AF)などの対象として選択する電子機器が知られている。特許文献1には、ライブ画像から検出される顔を選択するか否かの切り替え操作、及び、顔を選択する場合に複数の顔の中から何れかの顔を選択する切り替え操作の双方を単一のボタン操作によって行うことが提案されている。特許文献2には、カメラ背面のタッチパネルへタッチして移動するタッチムーブに応じて、ファインダー内に表示された位置指標を、タッチムーブの方向と移動量に応じて現在位置から移動することが提案されている。そして、位置指標の移動先が、顔が検出されている位置であれば、その顔をAF対象として追尾することが提案されている。 There is known an electronic device that detects a subject having a specific feature from an image and selects one of a plurality of detected subjects as a target for autofocus (AF) or the like. Patent Document 1 simply describes both a switching operation of whether or not to select a face detected from a live image and a switching operation of selecting one of a plurality of faces when selecting a face. It has been proposed to do so with a single button operation. Patent Document 2 proposes that the position index displayed in the viewfinder is moved from the current position according to the direction and the amount of movement of the touch move in response to the touch move that moves by touching the touch panel on the back of the camera. Has been done. Then, if the destination of the position index is a position where a face is detected, it is proposed to track the face as an AF target.

特開2010−41629号公報JP-A-2010-41629 特開2018−037893号公報Japanese Unexamined Patent Publication No. 2018-037893

選択位置として選択可能な対象が、画像から検出される被写体(顔など)にかかわらない位置を指定可能な場合、選択位置は操作体(指など)の移動操作に滑らかに追従しなければ、操作性が悪いとユーザーが感じる可能性がある。一方、選択位置として選択可能な対象が画像から検出される被写体である場合、操作体の少しの移動操作で選択される被写体が変更されると、意図通りの被写体を選択するために細かい操作が要求される。したがって操作性が悪いとユーザーが感じる可能性がある。特許文献1、2では、選択位置として選択可能な対象が、画像から検出される特定の被写体であるのか否かに応じた、操作性のよい移動応答性について考慮されていない。 If the target that can be selected as the selection position can specify a position that is not related to the subject (face, etc.) detected from the image, the selection position must follow the movement operation of the operating body (fingers, etc.) smoothly. The user may feel that the sex is bad. On the other hand, when the target that can be selected as the selection position is a subject detected from the image, if the selected subject is changed by a slight movement operation of the operating body, detailed operations are performed to select the intended subject. Required. Therefore, the user may feel that the operability is poor. Patent Documents 1 and 2 do not consider the movement responsiveness with good operability depending on whether or not the object that can be selected as the selection position is a specific subject detected from the image.

そこで本発明は、選択位置として選択される対象に応じた、より操作感のよい移動操作を行えるようにした電子機器及びその制御方法を提供することを目的とする。 Therefore, it is an object of the present invention to provide an electronic device and a control method thereof that enable a more comfortable movement operation according to an object selected as a selection position.

上記課題を解決するために、本発明の電子機器は、
操作体の移動を伴う移動操作を検知する検知手段と、
画像から特定の被写体を検出する被写体検出手段と、
前記移動操作に応じて、画像上の選択位置を変更できるように制御する制御手段であって、
前記選択位置の指定モードが、前記被写体検出手段によって検出される前記特定の被写体にかかわらない第1の指定モードである場合は、前記検知手段で検知された移動操作に応じて、当該移動操作よる操作量の積算値が第1の閾値を超えなくても前記選択位置を変更し、
選択位置の指定モードが、前記被写体検出手段によって検出される被写体を選択する第2の指定モードである場合は、前記検知手段で検知された移動操作に応じて、当該移動操作による操作量の積算値が前記第1の閾値を超えると選択対象となる被写体を変更するように制御する制御手段とを有することを特徴とする。
In order to solve the above problems, the electronic device of the present invention
A detection means that detects a movement operation that involves the movement of the operating body,
Subject detection means that detects a specific subject from an image,
It is a control means for controlling so that the selected position on the image can be changed according to the movement operation.
When the designated mode of the selected position is the first designated mode not related to the specific subject detected by the subject detecting means, the moving operation is performed according to the moving operation detected by the detecting means. Even if the integrated value of the operation amount does not exceed the first threshold value, the selected position is changed.
When the selection mode of the selection position is the second designation mode for selecting the subject detected by the subject detection means, the operation amount by the movement operation is integrated according to the movement operation detected by the detection means. It is characterized by having a control means for controlling so as to change the subject to be selected when the value exceeds the first threshold value.

本発明によれば、選択位置として選択される対象に応じた、より操作感のよい移動操作が行える。 According to the present invention, it is possible to perform a moving operation with a better operability according to the target selected as the selected position.

本実施形態に係るカメラの外観図である。It is an external view of the camera which concerns on this embodiment. 本実施形態に係るカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the camera which concerns on this embodiment. 本実施形態に係るAF−ONボタンの構造を表す図である。It is a figure which shows the structure of the AF-ON button which concerns on this embodiment. 本実施形態に係る測距点を示す図である。It is a figure which shows the AF point which concerns on this embodiment. 本実施形態に係る測距ゾーンを示す図である。It is a figure which shows the distance measurement zone which concerns on this embodiment. 本実施形態に係るAF枠の移動を示す図である。It is a figure which shows the movement of the AF frame which concerns on this embodiment. 本実施形態に係るスライド応答処理のフローチャートである。It is a flowchart of slide response processing which concerns on this embodiment. 本実施形態に係る移動判定処理のフローチャートである。It is a flowchart of the movement determination process which concerns on this embodiment. 本実施形態に係るカメラの動作例を示す図である。It is a figure which shows the operation example of the camera which concerns on this embodiment. 本実施形態に係る選択位置移動処理のフローチャートである。It is a flowchart of selection position movement processing which concerns on this embodiment. 本実施形態に係るAF−ONボタンのスライド操作を示す図である。It is a figure which shows the slide operation of the AF-ON button which concerns on this embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1(a)、図1(b)は、本発明を適用可能な撮像装置(電子機器である)の一例としての一眼レフカメラ(以降、カメラと称する)100本体の外観図である。具体的には、図1(a)はカメラ100を第1面(前面)側から見た図であり、撮影レンズユニットを外した状態を示す。図1(b)は、カメラ100を第2面(背面)側から見た図である。第1面はカメラ前面であり、被写体側の面(撮像方向側の面)である。第2面はカメラの背面であって、第1の面の裏側(反対側)の面であり、ファインダー16を覗く撮影者側の面である。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. 1 (a) and 1 (b) are external views of a single-lens reflex camera (hereinafter referred to as a camera) 100 as an example of an imaging device (electronic device) to which the present invention can be applied. Specifically, FIG. 1A is a view of the camera 100 viewed from the first surface (front surface) side, and shows a state in which the photographing lens unit is removed. FIG. 1B is a view of the camera 100 as viewed from the second surface (back surface) side. The first surface is the front surface of the camera, which is the surface on the subject side (the surface on the imaging direction side). The second surface is the back surface of the camera, which is the surface on the back side (opposite side) of the first surface, and is the surface on the photographer side looking into the finder 16.

図1(a)に示すように、カメラ100には、横持ちでの撮影時にカメラ100を使用するユーザーがカメラ100を安定して握り、操作できるよう、前方に突出した第1グリップ部101が設けられている。またカメラ100には、縦持ちでの撮影時にカメラ100を使用するユーザーがカメラ100を安定して握り、操作できるよう、前方に突出した第2グリップ部102が設けられている。第1グリップ部101は、カメラ100の前面の第1の辺(図1(a)の左右にある2つの縦辺のうち左側の辺)に沿っており、第2グリップ部102は、前面のうち第1の辺と隣り合う第2の辺(図1(a)の上下にある2つの横辺のうち下側の辺)に沿っている。シャッターボタン103,105は、撮影指示を行うための操作部材である。メイン電子ダイヤル104,106は回転操作部材であり、メイン電子ダイヤル104,106を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。シャッターボタン103,105、及びメイン電子ダイヤル104,106は、操作部70に含まれる。シャッターボタン103とメイン電子ダイヤル104は横持ち撮影用、シャッターボタン105とメイン電子ダイヤル106は縦持ち撮影用として主に使用することができる。 As shown in FIG. 1 (a), the camera 100 has a first grip portion 101 projecting forward so that a user who uses the camera 100 can stably grip and operate the camera 100 when shooting horizontally. It is provided. Further, the camera 100 is provided with a second grip portion 102 protruding forward so that the user who uses the camera 100 can stably grip and operate the camera 100 when shooting vertically. The first grip portion 101 is along the first side (the left side of the two vertical sides on the left and right of FIG. 1A) on the front surface of the camera 100, and the second grip portion 102 is on the front surface. It is along the second side (the lower side of the two horizontal sides above and below FIG. 1A) adjacent to the first side. The shutter buttons 103 and 105 are operating members for giving a shooting instruction. The main electronic dials 104 and 106 are rotation operation members, and by turning the main electronic dials 104 and 106, set values such as a shutter speed and an aperture can be changed. The shutter buttons 103 and 105 and the main electronic dials 104 and 106 are included in the operation unit 70. The shutter button 103 and the main electronic dial 104 can be mainly used for horizontal holding photography, and the shutter button 105 and the main electronic dial 106 can be mainly used for vertical holding photography.

図1(b)において、表示部28は画像や各種情報を表示する。表示部28はタッチ操作を受付け可能(タッチ検出可能)なタッチパネル70aと重畳、もしくは一体となって設けられる。AF−ONボタン1,2は、焦点調節位置を設定したり、AFを開始したりするための操作部材であり、操作部70に含まれる。本実施形態では、AF−ONボタン1,2は、タッチ操作や押し込み操作を受け付けることが可能なタッチ操作部材(本実施形態では、赤外線式センサー)である。このような光学式の操作部材を、光学トラッキングポインター(OTP)と称するものとする。ユーザーは、横持ちで(カメラ100を横位置で構えた状態で)、ファインダー16を覗いたまま、AF−ONボタン1に対して、第1グリップ部101を握った右手の親指で、タッチ操作や、任意の2次元方向へのスライド操作を行うことができる。また、ユーザーは、縦持ちで、ファインダー16を覗いたまま、AF−ONボタン2に対して、第2グリップ部102を握った右手の親指で、タッチ操作や、任意の2次元方向へのスライド操作を行うことができる。縦持ちとは、カメラ100を横位置と90度異なる縦位置で構えた状態である。カメラ100を操作するユーザーは、AF−ONボタン1、またはAF−ONボタン2へのスライド操作で、表示部28に表示された測距点枠(AFに用いるAF枠の位置、焦点調節位置、焦点検出位置)を移動させることができる。また、ユーザーは、AF−ONボタン1、またはAF−ONボタン2への押し込み操作で、測距点枠の位置に基づくAFを即座に開始させることができる。AF−ONボタン1は横持ち撮影用、AF−ONボタン2は縦持ち撮影用として主に使用することができる。 In FIG. 1B, the display unit 28 displays an image and various information. The display unit 28 is provided on top of or integrally with the touch panel 70a capable of accepting touch operations (touch detection is possible). The AF-ON buttons 1 and 2 are operation members for setting the focus adjustment position and starting AF, and are included in the operation unit 70. In the present embodiment, the AF-ON buttons 1 and 2 are touch operation members (infrared type sensors in the present embodiment) capable of accepting touch operations and pushing operations. Such an optical operating member shall be referred to as an optical tracking pointer (OTP). The user holds the camera 100 horizontally (while holding the camera 100 in the horizontal position), and while looking through the viewfinder 16, touches the AF-ON button 1 with the thumb of the right hand holding the first grip portion 101. Or, the slide operation in any two-dimensional direction can be performed. In addition, the user can perform touch operation or slide in any two-dimensional direction with the thumb of the right hand holding the second grip portion 102 with respect to the AF-ON button 2 while holding the viewfinder 16 vertically. You can perform operations. The vertical holding is a state in which the camera 100 is held in a vertical position 90 degrees different from the horizontal position. The user who operates the camera 100 can slide the AF-ON button 1 or the AF-ON button 2 to display the AF point frame (the position of the AF frame used for AF, the focus adjustment position, etc.) displayed on the display unit 28. The focus detection position) can be moved. In addition, the user can immediately start AF based on the position of the AF point frame by pressing the AF-ON button 1 or the AF-ON button 2. The AF-ON button 1 can be mainly used for horizontal holding shooting, and the AF-ON button 2 can be mainly used for vertical holding shooting.

AF−ONボタン1,2の配置について説明する。図1(b)に示すように、AF−ONボタン1,2はカメラ100の背面に配置されている。そして、AF−ONボタン2は、カメラ100の背面のうち、他の頂点よりも、第1グリップ部101に沿った辺(第1の辺)と第2グリップ部102に沿った辺(第2の辺)との成す頂点に近い位置に配置されている。また、AF−ONボタン2のほうが、AF−ONボタン1よりも、第1グリップ部101に沿った辺と第2グリップ部102に沿った辺との成す上記頂点に近い位置に配置されている。カメラ100の背面のうち第1グリップ部101に沿った辺(第1の辺)とは、図1(b)における左右にある2つの縦辺のうち右側の辺である。カメラ100の背面のうち第2グリップ部102に沿った辺(第2の辺)とは、図1(b)における上下にある2つの横辺のうち下側の辺である。ここで、上述した頂点は、カメラ100の背面を多角形とみなした場合の当該多角形の頂点(仮想的な頂点)である。カメラ100の背面が完全な多角形であれば、上述した頂点は、当該多角形の頂点(カメラ100の実際の頂点)であってもよい。第1の辺は、図1(b)における左右方向の右側の辺(縦辺)であり、第2の辺は図1(b)における上下方向の下側の辺(横辺)であり、第1の辺と第2の辺との成す上述の頂点は、図1(b)における右下の頂点である。さらに、AF−ONボタン2は、第1グリップ部101に沿った辺(第1の辺)のうち、AF−ONボタン1がある側の端部(すなわち上端部)よりも、反対側の端部(下端部)に近い位置に配置されている。また、上述したシャッターボタン103は、第1グリップ部101を握った右手の人差し指で操作可能(押下可能)な位置に配置されており、シャッターボタン105は、第2グリップ部102を握った右手の人差し指で操作可能な位置に配置されている。そして、AF−ONボタン1のほうが、AF−ONボタン2よりも、シャッターボタン103に近い位置に配置されており、AF−ONボタン2のほうが、AF−ONボタン1よりも、シャッターボタン105に近い位置に配置されている。 The arrangement of the AF-ON buttons 1 and 2 will be described. As shown in FIG. 1B, the AF-ON buttons 1 and 2 are arranged on the back surface of the camera 100. Then, the AF-ON button 2 has a side (first side) along the first grip portion 101 and a side (second side) along the second grip portion 102 on the back surface of the camera 100, rather than other vertices. It is located near the apex formed by the side of). Further, the AF-ON button 2 is arranged at a position closer to the apex formed by the side along the first grip portion 101 and the side along the second grip portion 102 than the AF-ON button 1. .. The side (first side) of the back surface of the camera 100 along the first grip portion 101 is the right side of the two left and right vertical sides in FIG. 1B. The side (second side) of the back surface of the camera 100 along the second grip portion 102 is the lower side of the two upper and lower horizontal sides in FIG. 1 (b). Here, the above-mentioned vertices are vertices (virtual vertices) of the polygon when the back surface of the camera 100 is regarded as a polygon. If the back surface of the camera 100 is a perfect polygon, the above-mentioned vertices may be the vertices of the polygon (the actual vertices of the camera 100). The first side is the right side (vertical side) in the left-right direction in FIG. 1 (b), and the second side is the lower side (horizontal side) in the vertical direction in FIG. 1 (b). The above-mentioned apex formed by the first side and the second side is the lower right apex in FIG. 1 (b). Further, the AF-ON button 2 is an end of the side (first side) along the first grip portion 101 that is opposite to the end (that is, the upper end) on the side where the AF-ON button 1 is located. It is located near the part (lower end). Further, the shutter button 103 described above is arranged at a position where it can be operated (pressed) by the index finger of the right hand holding the first grip portion 101, and the shutter button 105 is arranged at a position where the right hand holding the second grip portion 102 can be operated. It is located in a position that can be operated with the index finger. The AF-ON button 1 is located closer to the shutter button 103 than the AF-ON button 2, and the AF-ON button 2 is located on the shutter button 105 rather than the AF-ON button 1. It is located close to each other.

なお、AF−ONボタン1,2は、タッチパネル70aとは異なる操作部材であり、表示機能は備えていない。また、後述する例では、AF−ONボタン1、2への操作で選択された測距位置を示すインジケーター(AF枠)を移動させる例を説明するが、AF−ONボタン1,2への操作に応じて実行される機能は特に限定されない。例えば、表示部28に表示され、かつ移動させることができるものであれば、AF−ONボタン1,2へのスライド操作で移動させるインジケーターはいかなるものでもよい。例えば、マウスカーソルのような、ポインティングカーソルであってもよいし、複数の選択肢(メニュー画面に表示された複数の項目など)のうち選択された選択肢を示すカーソルであってもよい。AF−ONボタン1へのスライド操作と、AF−ONボタン2へのスライド操作とで異なるインジケーターが移動してもよい。AF−ONボタン1,2への押し込み操作で実行される機能は、AF−ONボタン1,2へのスライド操作で実行される機能に関する他の機能であってもよい。 The AF-ON buttons 1 and 2 are operating members different from the touch panel 70a, and do not have a display function. Further, in the example described later, an example of moving the indicator (AF frame) indicating the AF position selected by the operation to the AF-ON buttons 1 and 2 will be described, but the operation to the AF-ON buttons 1 and 2 will be described. The function executed according to is not particularly limited. For example, any indicator may be used as long as it is displayed on the display unit 28 and can be moved by sliding the AF-ON buttons 1 and 2. For example, it may be a pointing cursor such as a mouse cursor, or it may be a cursor indicating a selected option from a plurality of options (such as a plurality of items displayed on a menu screen). Different indicators may move depending on the slide operation to the AF-ON button 1 and the slide operation to the AF-ON button 2. The function executed by the push operation to the AF-ON buttons 1 and 2 may be another function related to the function executed by the slide operation to the AF-ON buttons 1 and 2.

モード切り替えスイッチ60は、各種モードを切り替えるための操作部材である。電源スイッチ72は、カメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は選択枠の移動や画像送りなどを行う回転操作部材である。8方向キー74a,74bは、上、下、左、右、左上、左下、右上、右下方向にそれぞれ押し倒し可能な操作部材であり、8方向キー74a,74bの押し倒された方向に応じた処理が可能である。8方向キー74aは横持ち撮影用、8方向キー74bは縦持ち撮影用として主に使用することができる。SETボタン75は、主に選択項目の決定などに用いられる操作部材である。静止画/動画切り替えスイッチ77は、静止画撮影モードと動画撮影モードを切り替える操作部材である。LVボタン78は、ライブビュー(以下、LV)のONとOFFを切り替える操作部材である。LVがONとなると後述するミラー12が光軸から退避した退避位置に移動(ミラーアップ)して被写体光が後述する撮像部22に導かれ、LV画像の撮像が行われるLVモードとなる。LVモードでは、LV画像で被写体像を確認できる。LVがOFFとなるとミラー12が光軸上に移動(ミラーダウン)して被写体光が反射され、被写体光がファインダー16に導かれ、被写体の光学像(光学の被写体像)がファインダー16から視認可能なOVFモードとなる。再生ボタン79は、撮影モード(撮影画面)と再生モード(再生画面)とを切り替える操作部材である。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200(図2で後述する)に記録された画像のうち最新の画像を表示部28に表示させることができる。Qボタン76はクイック設定をするための操作部材であり、撮影画面においてQボタン76を押下すると設定値の一覧として表示されていた設定項目を選択可能になり、さらに設定項目を選択すると各設定項目の設定画面へと遷移することができるようになる。モード切り替えスイッチ60、電源スイッチ72、サブ電子ダイヤル73、8方向キー74a,74b、SETボタン75、Qボタン76、静止画/動画切り替えスイッチ77、LVボタン78、再生ボタン79は、操作部70に含まれる。メニューボタン81は、操作部70に含まれ、カメラ100の各種設定を行うための操作部材である。メニューボタン81が押されると各種の設定可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、サブ電子ダイヤル73、8方向キー74a,74b、SETボタン75、メイン電子ダイヤル104,106を用いて直感的に各種設定を行うことができる。ファインダー16はレンズユニットを通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型(接眼式)のファインダーである。INFOボタン82は操作部70に含まれ、カメラ100の各種情報を表示部28に表示することができる。 The mode changeover switch 60 is an operation member for switching various modes. The power switch 72 is an operating member that switches the power of the camera 100 on and off. The sub electronic dial 73 is a rotation operation member that moves a selection frame, feeds an image, and the like. The eight-direction keys 74a and 74b are operating members that can be pushed down in the up, down, left, right, upper left, lower left, upper right, and lower right directions, respectively, and the processing according to the pushed direction of the eight-direction keys 74a and 74b. Is possible. The 8-direction key 74a can be mainly used for horizontal holding photography, and the 8-direction key 74b can be mainly used for vertical holding photography. The SET button 75 is an operating member mainly used for determining selection items and the like. The still image / moving image switching switch 77 is an operation member for switching between the still image shooting mode and the moving image shooting mode. The LV button 78 is an operating member for switching ON and OFF of the live view (hereinafter, LV). When the LV is turned on, the mirror 12 described later moves (mirror up) to the retracted position retracted from the optical axis, the subject light is guided to the imaging unit 22 described later, and the LV mode in which the LV image is captured is set. In the LV mode, the subject image can be confirmed in the LV image. When the LV is turned off, the mirror 12 moves on the optical axis (mirror down), the subject light is reflected, the subject light is guided to the finder 16, and the optical image of the subject (optical subject image) can be visually recognized from the finder 16. OVF mode is set. The play button 79 is an operation member for switching between a shooting mode (shooting screen) and a playback mode (playback screen). By pressing the playback button 79 during the shooting mode, the playback mode can be entered, and the latest image among the images recorded on the recording medium 200 (described later in FIG. 2) can be displayed on the display unit 28. The Q button 76 is an operation member for quick setting. When the Q button 76 is pressed on the shooting screen, the setting items displayed as a list of setting values can be selected, and when the setting items are further selected, each setting item is selected. You will be able to transition to the setting screen of. The mode changeover switch 60, the power switch 72, the sub electronic dial 73, the 8-direction keys 74a and 74b, the SET button 75, the Q button 76, the still image / video changeover switch 77, the LV button 78, and the play button 79 are on the operation unit 70. included. The menu button 81 is included in the operation unit 70 and is an operation member for performing various settings of the camera 100. When the menu button 81 is pressed, various settable menu screens are displayed on the display unit 28. The user can intuitively make various settings by using the menu screen displayed on the display unit 28, the sub electronic dials 73, the 8-direction keys 74a and 74b, the SET button 75, and the main electronic dials 104 and 106. The finder 16 is a peep-type (eyepiece type) finder for confirming the focus and composition of the optical image of the subject obtained through the lens unit. The INFO button 82 is included in the operation unit 70, and various information of the camera 100 can be displayed on the display unit 28.

図2は、カメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ155は通常、フォーカスレンズ群、ズームレンズ群などの複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がカメラ100側と通信を行うための通信端子であり、通信端子10はカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路154によって、絞り駆動回路152を介して絞り151の制御を行い、AF駆動回路153を介してレンズ155の位置を変位させることで焦点を合わせる。レンズユニット150を装着可能な装着部を介してレンズユニット150は表示部28のある本体側に装着される。レンズユニット150として単焦点レンズやズームレンズなどの様々な種類のものを装着することができる。 FIG. 2 is a block diagram showing a configuration example of the camera 100. The lens unit 150 is a lens unit equipped with an interchangeable photographing lens. The lens 155 is usually composed of a plurality of lenses such as a focus lens group and a zoom lens group, but in FIG. 2, it is simply shown by only one lens. The communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the camera 100 side, and the communication terminal 10 is a communication terminal for the camera 100 to communicate with the lens unit 150 side. The lens unit 150 communicates with the system control unit 50 via these communication terminals 6 and 10. Then, the lens unit 150 controls the aperture 151 via the aperture drive circuit 152 by the internal lens system control circuit 154, and focuses by shifting the position of the lens 155 via the AF drive circuit 153. The lens unit 150 is mounted on the main body side where the display unit 28 is located via a mounting portion on which the lens unit 150 can be mounted. As the lens unit 150, various types of lenses such as a single focus lens and a zoom lens can be attached.

AEセンサー17は、レンズユニット150、クイックリターンミラー12を通ってフォーカシングスクリーン13上に結像した被写体(被写体光)の輝度を測光する。焦点検出部11は、クイックリターンミラー12を介して入射する像(被写体光)を撮像し、システム制御部50にデフォーカス量情報を出力する位相差検出方式のAFセンサーである。システム制御部50はデフォーカス量情報に基づいてレンズユニット150を制御し、位相差AFを行う。AFの方法は、位相差AFでなくてもよく、コントラストAFでもよい。また、位相差AFは、焦点検出部11を用いずに、撮像部22の撮像面で検出されたデフォーカス量に基づいて行ってもよい(撮像面位相差AF)。 The AE sensor 17 measures the brightness of the subject (subject light) imaged on the focusing screen 13 through the lens unit 150 and the quick return mirror 12. The focus detection unit 11 is a phase difference detection type AF sensor that captures an image (subject light) incident on the quick return mirror 12 and outputs defocus amount information to the system control unit 50. The system control unit 50 controls the lens unit 150 based on the defocus amount information and performs phase difference AF. The AF method does not have to be phase-difference AF, and may be contrast AF. Further, the phase difference AF may be performed based on the defocus amount detected on the imaging surface of the imaging unit 22 without using the focus detection unit 11 (imaging surface phase difference AF).

クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ155から入射した光束をファインダー16側と撮像部22側とに切り替えるためのミラーである。ミラー12は通常時はファインダー16へと光束を導く(反射させる)ように配されているが(ミラーダウン)、撮影やライブビュー表示が行われる場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。 The quick return mirror 12 (hereinafter referred to as the mirror 12) is instructed by the system control unit 50 at the time of exposure, live view shooting, and moving image shooting, and is moved up and down by an actuator (not shown). The mirror 12 is a mirror for switching the luminous flux incident from the lens 155 between the finder 16 side and the image pickup unit 22 side. Normally, the mirror 12 is arranged to guide (reflect) the luminous flux to the finder 16 (mirror down), but when shooting or live view display is performed, the light flux is guided to the imaging unit 22. It jumps upward and evacuates from the luminous flux (mirror lockup). Further, the mirror 12 is a half mirror so that a part of the light can be transmitted through the central portion thereof, and a part of the light flux is transmitted so as to be incident on the focus detection unit 11 for performing focus detection.

ユーザーは、ペンタプリズム14とファインダー16を介して、フォーカシングスクリーン13上に結像した像を観察することで、レンズユニット150を通して得た被写体の光学像の焦点状態や構図の確認が可能となる。 By observing the image formed on the focusing screen 13 through the pentaprism 14 and the finder 16, the user can confirm the focal state and composition of the optical image of the subject obtained through the lens unit 150.

フォーカルプレーンシャッター21(シャッター21)は、システム制御部50の制御で撮像部22の露光時間を制御するためのものである。 The focal plane shutter 21 (shutter 21) is for controlling the exposure time of the imaging unit 22 under the control of the system control unit 50.

撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(撮像センサー)である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。 The image pickup unit 22 is an image pickup device (imaging sensor) composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理や色変換処理)を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行われる。 The image processing unit 24 performs predetermined processing (resizing processing such as pixel interpolation and reduction and color conversion processing) on the data from the A / D converter 23 or the data from the memory control unit 15. Further, in the image processing unit 24, a predetermined calculation process is performed using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-flash) processing are performed. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and also performs a TTL method AWB (auto white balance) process based on the obtained calculation result.

メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。メモリ32は、メモリカードなどの着脱可能な記録媒体であっても、内蔵メモリであってもよい。 The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23, and image data for display on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio. The memory 32 may be a removable recording medium such as a memory card or a built-in memory.

表示部28は画像を表示するための背面モニタであり、図1(b)に示すようにカメラ100の背面に設けられている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。表示部28は、画像を表示するディスプレイであれば、液晶方式のディスプレイであっても、有機ELなど他の方式のディスプレイであってもよい。 The display unit 28 is a rear monitor for displaying an image, and is provided on the back surface of the camera 100 as shown in FIG. 1 (b). The D / A converter 19 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display unit 28. The display unit 28 may be a liquid crystal display or another display such as an organic EL as long as it is a display for displaying an image.

ファインダー内表示部41には、ファインダー内表示部駆動回路42を介して、現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコンなどが表示される。ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラ100の様々な設定値が表示される。 The display unit 41 in the viewfinder displays a frame (AF frame) indicating the AF point at which autofocus is currently being performed, an icon indicating the setting state of the camera, and the like via the display unit drive circuit 42 in the viewfinder. To. Various set values of the camera 100 such as the shutter speed and the aperture are displayed on the outside finder display unit 43 via the outside finder display unit drive circuit 44.

姿勢検知部55は、カメラ100の角度による姿勢を検出するためのセンサーである。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である、加速度センサーやジャイロセンサーを用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。 The posture detection unit 55 is a sensor for detecting the posture according to the angle of the camera 100. Based on the posture detected by the posture detection unit 55, whether the image taken by the image pickup unit 22 is an image taken by holding the camera 100 horizontally or an image taken by holding the camera 100 vertically. It can be discriminated. The system control unit 50 can add orientation information according to the posture detected by the posture detection unit 55 to the image file of the image captured by the image pickup unit 22, or rotate and record the image. is there. As the posture detection unit 55, an acceleration sensor, a gyro sensor, or the like can be used. It is also possible to detect the movement (pan, tilt, lift, whether or not it is stationary, etc.) of the camera 100 by using the acceleration sensor or the gyro sensor, which is the posture detection unit 55.

不揮発性メモリ56は、システム制御部50によって電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The non-volatile memory 56 is a memory that can be electrically erased and recorded by the system control unit 50, and for example, EEPROM or the like is used. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a program for executing various flowcharts described later in the present embodiment.

システム制御部50は、少なくとも1つのプロセッサー(回路を含む)を内蔵し、カメラ100全体を制御する。システム制御部50は、前記の不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52では、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。 The system control unit 50 incorporates at least one processor (including a circuit) and controls the entire camera 100. The system control unit 50 realizes each process of the present embodiment described later by executing the program recorded in the non-volatile memory 56. The system memory 52 develops constants and variables for the operation of the system control unit 50, programs read from the non-volatile memory 56, and the like. The system control unit 50 also controls the display by controlling the memory 32, the D / A converter 19, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切り替えスイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード等のいずれかに切り替える。静止画撮影モードには、Pモード(プログラムAE)、Mモード(マニュアル)等が含まれる。あるいは、モード切り替えスイッチ60でメニュー画面に一旦切り換えた後に、メニュー画面に含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。Mモードでは、絞り値、シャッター速度、ISO感度をユーザーが設定でき、ユーザー目的の露出で撮影を行うことができる。 The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock. The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image shooting mode, a moving image shooting mode, and the like. The still image shooting mode includes a P mode (program AE), an M mode (manual), and the like. Alternatively, after switching to the menu screen once with the mode changeover switch 60, the mode may be switched to any of these modes included in the menu screen by using another operation member. Similarly, the moving image shooting mode may include a plurality of modes. In the M mode, the aperture value, shutter speed, and ISO sensitivity can be set by the user, and shooting can be performed with the exposure desired by the user.

第1シャッタースイッチ62は、カメラ100に設けられたシャッターボタン103,105の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。またAEセンサー17による測光も行う。 The first shutter switch 62 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter buttons 103 and 105 provided on the camera 100, and the first shutter switch signal SW1 is generated. The system control unit 50 starts operations such as AF (auto focus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing by the first shutter switch signal SW1. Photometry is also performed by the AE sensor 17.

第2シャッタースイッチ64は、シャッターボタン103,105の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像ファイルとして画像を記録するまでの一連の撮影処理の動作を開始する。 The second shutter switch 64 is turned on when the operations of the shutter buttons 103 and 105 are completed, so-called fully pressed (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processes from reading the signal from the imaging unit 22 to recording the image as an image file on the recording medium 200 by the second shutter switch signal SW2.

電源制御部83は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部83は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源スイッチ72はカメラ100の電源のONとOFFを切り替えるためのスイッチである。 The power supply control unit 83 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 83 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power switch 72 is a switch for switching the power of the camera 100 on and off.

電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. The recording medium I / F18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like.

上述したように、カメラ100は、操作部70の一つとして、表示部28(タッチパネル70a)に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネル70aにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。システム制御部50はタッチパネル70aへの以下のタッチ操作、あるいは状態を検知できる。 As described above, the camera 100 has a touch panel 70a capable of detecting contact with the display unit 28 (touch panel 70a) as one of the operation units 70. The touch panel 70a and the display unit 28 can be integrally configured. For example, the touch panel 70a is configured so that the light transmittance does not interfere with the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel 70a are associated with the display coordinates on the display unit 28. As a result, it is possible to configure a GUI (graphical user interface) as if the user can directly operate the screen displayed on the display unit 28. The system control unit 50 can detect the following touch operation or the state of the touch panel 70a.

・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。 -A finger or pen that has not touched the touch panel 70a has newly touched the touch panel 70a. That is, the start of touch (hereinafter referred to as touch-down).

・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。 -The touch panel 70a is in a state of being touched with a finger or a pen (hereinafter, referred to as touch-on).

・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。 -The finger or pen is moving while touching the touch panel 70a (hereinafter, referred to as touch move (Touch-Move)).

・タッチパネル70aへタッチしていた指やペンをタッチパネル70aから離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。 -The finger or pen that was touching the touch panel 70a has been released from the touch panel 70a. That is, the end of touch (hereinafter referred to as touch-up (Touch-Up)).

・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。 -A state in which nothing is touched on the touch panel 70a (hereinafter, referred to as touch-off).

タッチダウンが検知されると、同時にタッチオンも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、タッチ位置が移動していなければタッチムーブは検知されない。タッチしていた全ての指やペンがタッチアップしたことが検知された後は、タッチオフとなる。 When touchdown is detected, touch-on is also detected at the same time. After touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch-on is also detected when touch-on is detected. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。またタッチパネル70a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検知され、そのままタッチアップが検知されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検知された場合はドラッグが行われたと判定するものとする。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検知する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検知する方式があるが、いずれの方式でもよい。 These operations / states and the position coordinates of the finger or pen touching on the touch panel 70a are notified to the system control unit 50 through the internal bus, and the system control unit 50 determines which on the touch panel 70a based on the notified information. Determine if such an operation has been performed. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel 70a can also be determined for each vertical component and horizontal component on the touch panel 70a based on the change in the position coordinates. Further, it is assumed that a stroke is drawn when the touch panel 70a is touched up from the touchdown through a constant touch move. The operation of drawing a stroke quickly is called flicking. Flicking is an operation of quickly moving a finger on the touch panel 70a by a certain distance and then releasing it as it is, in other words, an operation of swiftly tracing the touch panel 70a with a finger. It can be determined that the flick has been performed when it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is. Further, when it is detected that the touch move is performed at a speed equal to or less than a predetermined distance, it is determined that the drag has been performed. As the touch panel 70a, any of various touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method can be used. Good. There are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel, but either method may be used.

システム制御部50は、AF−ONボタン1,2からの通知(出力情報)により、AF−ONボタン1,2へのタッチ操作や押し込み操作を検知できる。システム制御部50は、AF−ONボタン1,2の出力情報に基づいて、AF−ONボタン1,2上における指などの動きの方向(以降、移動方向と称する)を、上、下、左、右、左上、左下、右上、右下の8方向で算出する。さらに、システム制御部50は、AF−ONボタン1,2の出力情報に基づいて、x軸方向、y軸方向の2次元方向でAF−ONボタン1,2上における指などの動きの量(以降、移動量(x,y)と称する)を算出する。システム制御部50は、さらにAF−ONボタン1,2への以下の操作、あるいは状態を検知できる。システム制御部50は、AF−ONボタン1とAF−ONボタン2のそれぞれについて個別に、移動方向や移動量(x,y)を算出したり、以下の操作・状態を検知したりする。 The system control unit 50 can detect a touch operation or a pressing operation on the AF-ON buttons 1 and 2 by the notification (output information) from the AF-ON buttons 1 and 2. Based on the output information of the AF-ON buttons 1 and 2, the system control unit 50 sets the direction of movement of the finger or the like on the AF-ON buttons 1 and 2 (hereinafter referred to as the moving direction) up, down, and left. , Right, upper left, lower left, upper right, lower right. Further, the system control unit 50 determines the amount of movement of a finger or the like on the AF-ON buttons 1 and 2 in the two-dimensional directions of the x-axis direction and the y-axis direction based on the output information of the AF-ON buttons 1 and 2. Hereinafter, the movement amount (referred to as x, y)) is calculated. The system control unit 50 can further detect the following operations or states of the AF-ON buttons 1 and 2. The system control unit 50 individually calculates the movement direction and the movement amount (x, y) for each of the AF-ON button 1 and the AF-ON button 2, and detects the following operations / states.

・AF−ONボタン1、またはAF−ONボタン2にタッチしていなかった指などが新たにAF−ONボタン1、またはAF−ONボタン2にタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。 -A finger or the like that has not touched the AF-ON button 1 or the AF-ON button 2 newly touches the AF-ON button 1 or the AF-ON button 2. That is, the start of touch (hereinafter referred to as touch-down).

・AF−ONボタン1、またはAF−ONボタン2を指などでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。 -The AF-ON button 1 or the AF-ON button 2 is in a state of being touched with a finger or the like (hereinafter, referred to as touch-on).

・指などがAF−ONボタン1、またはAF−ONボタン2をタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。 -A finger or the like is moving while touching the AF-ON button 1 or the AF-ON button 2 (hereinafter referred to as a touch move (Touch-Move)).

・AF−ONボタン1、またはAF−ONボタン2へタッチしていた指をAF−ONボタン1、またはAF−ONボタン2から離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。 -The finger that was touching the AF-ON button 1 or AF-ON button 2 has been released from the AF-ON button 1 or AF-ON button 2. That is, the end of touch (hereinafter referred to as touch-up (Touch-Up)).

・AF−ONボタン1、またはAF−ONボタン2に何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。 -A state in which nothing is touched on the AF-ON button 1 or the AF-ON button 2 (hereinafter, referred to as touch-off).

タッチダウンが検知されると、同時にタッチオンも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、移動量(x,y)が0であれば、タッチムーブは検知されない。タッチしていた全ての指などがタッチアップしたことが検知された後は、タッチオフとなる。 When touchdown is detected, touch-on is also detected at the same time. After touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch-on is also detected when touch-on is detected. Even if touch-on is detected, if the movement amount (x, y) is 0, the touch move is not detected. After it is detected that all the touched fingers have touched up, the touch-off is performed.

システム制御部50は、これらの操作・状態や移動方向、移動量(x,y)に基づいてAF−ONボタン1,2上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについては、AF−ONボタン1,2上での指などの移動として、上、下、左、右、左上、左下、右上、右下の8方向、またはx軸方向、y軸方向の2次元方向の移動を検知する。システム制御部50は、8方向のいずれかの方向への移動、またはx軸方向、y軸方向の2次元方向の片方もしくは両方への移動が検知された場合は、スライド操作が行われたと判定するものとする。本実施形態では、AF−ONボタン1,2は、赤外線方式のタッチセンサーであるものとする。ただし、抵抗膜方式、表面弾性波方式、静電容量方式、電磁誘導方式、画像認識方式、光センサー方式等、別の方式のタッチセンサーであってもよい。 The system control unit 50 determines what kind of operation (touch operation) is performed on the AF-ON buttons 1 and 2 based on these operations / states, the moving direction, and the moving amount (x, y). Regarding the touch move, the movement of the finger etc. on the AF-ON buttons 1 and 2 is 8 directions of up, down, left, right, upper left, lower left, upper right, lower right, or x-axis direction and y-axis direction. Detects movement in the two-dimensional direction. The system control unit 50 determines that the slide operation has been performed when the movement in any of the eight directions or the movement in one or both of the two-dimensional directions in the x-axis direction and the y-axis direction is detected. It shall be. In the present embodiment, the AF-ON buttons 1 and 2 are infrared touch sensors. However, a touch sensor of another method such as a resistive film method, a surface acoustic wave method, a capacitance method, an electromagnetic induction method, an image recognition method, or an optical sensor method may be used.

図3(a)、図3(b)を用いて、AF−ONボタン1の構造について説明する。AF−ONボタン2の構造はAF−ONボタン1の構造と同様のため、その説明は省略する。 The structure of the AF-ON button 1 will be described with reference to FIGS. 3 (a) and 3 (b). Since the structure of the AF-ON button 2 is the same as that of the AF-ON button 1, the description thereof will be omitted.

カバー310はAF−ONボタン1の外装カバーである。窓311はAF−ONボタン1の外装カバーの一部であり、投光部312から投光された光を透過する。カバー310は、カメラ100の外装カバー301よりも外に突起しており、押し込み可能となっている。投光部312は、窓311に向かう光を照射する発光ダイオードなどの発光デバイスである。投光部312から発せられる光は、可視光ではない光(赤外線)などが望ましい。窓311の表面(AF−ONボタン1の操作面)に指300がタッチしている場合には、投光部312から照射された光が、タッチしている指300の表面に反射し、反射光が受光部313によって受光(撮像)される。受光部313は、撮像センサーである。受光部313で撮像された画像に基づき、AF−ONボタン1の操作面に操作体(指300)が触れていない状態であるか、操作体がタッチしたか、タッチしている操作体がタッチしたまま移動しているか(スライド操作しているか)等を検知することができる。カバー310は弾性部材314で接地面316に設置されており、指300が窓311の表面を押し、カバー310が押し込まれることで、押し込み検知のためのスイッチ315にカバー310が触れる。これによってAF−ONボタン1が押し込まれたことが検知される。 The cover 310 is an exterior cover of the AF-ON button 1. The window 311 is a part of the exterior cover of the AF-ON button 1 and transmits the light projected from the light projecting unit 312. The cover 310 projects outward from the exterior cover 301 of the camera 100 and can be pushed in. The light projecting unit 312 is a light emitting device such as a light emitting diode that irradiates light toward the window 311. The light emitted from the light projecting unit 312 is preferably light (infrared light) other than visible light. When the finger 300 is touching the surface of the window 311 (the operation surface of the AF-ON button 1), the light emitted from the light projecting unit 312 is reflected and reflected on the surface of the touching finger 300. The light is received (imaging) by the light receiving unit 313. The light receiving unit 313 is an image sensor. Based on the image captured by the light receiving unit 313, the operation body (finger 300) is not touching the operation surface of the AF-ON button 1, the operation body is touched, or the touching operation body is touched. It is possible to detect whether the vehicle is moving (sliding operation) or the like. The cover 310 is an elastic member 314 and is installed on the ground plane 316. When the finger 300 pushes the surface of the window 311 and the cover 310 is pushed in, the cover 310 touches the switch 315 for pushing detection. As a result, it is detected that the AF-ON button 1 is pressed.

顔検出機能について説明する。システム制御部50は顔検出の対象の画像を画像処理部24に送る。システム制御部50の制御下で画像処理部24は、当該画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。 The face detection function will be described. The system control unit 50 sends an image to be face-detected to the image processing unit 24. Under the control of the system control unit 50, the image processing unit 24 applies a horizontal bandpass filter to the image data. Further, under the control of the system control unit 50, the image processing unit 24 applies a vertical bandpass filter to the processed image data. Edge components are detected from the image data by these horizontal and vertical bandpass filters.

その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。システム制御部50は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、顔の数などの特徴量をシステムメモリ52に記憶する。 After that, the system control unit 50 performs pattern matching on the detected edge components and extracts candidate groups for eyes, nose, mouth, and ears. Then, the system control unit 50 determines from the extracted eye candidate groups that satisfy the preset conditions (for example, the distance between the two eyes, the inclination, etc.) as the eye pair, and determines that the eye pair. Only those with are narrowed down as a candidate group for the eyes. Then, the system control unit 50 associates the narrowed-down eye candidate group with other parts (nose, mouth, ear) that form the corresponding face, and passes a preset non-face condition filter. , Detect the face. The system control unit 50 outputs the above face information according to the face detection result, and ends the process. At this time, a feature amount such as the number of faces is stored in the system memory 52.

以上のようにLV画像あるいは再生表示される画像を画像解析して、画像の特徴量を抽出して被写体情報を検出する(特定の被写体を検出する被写体検出を行う)ことが可能である。本実施形態では特定の被写体として顔を例に挙げたが、瞳、手、胴体、特定の個人、動体、文字、など、他の被写体も検出し、AF等の対象として選択することが可能である。 As described above, it is possible to perform image analysis on the LV image or the image to be reproduced and displayed, extract the feature amount of the image, and detect the subject information (subject detection for detecting a specific subject). In the present embodiment, the face is taken as an example as a specific subject, but other subjects such as eyes, hands, torso, specific individuals, moving objects, characters, etc. can also be detected and selected as targets for AF and the like. is there.

図3(a)は、AF−ONボタン1の操作面に指300がタッチしているが、AF−ONボタン1を押し込んでいない状態の概略図である。図3(b)は、AF−ONボタン1の操作面を指300が押圧することで、AF−ONボタン1が押し込まれ、AF−ONボタン1が押されたことが検知される状態の概略図である。図3(b)の押し込まれた状態から、指300をAF−ONボタン1の操作面から離せば、弾性部材314の力によってAF−ONボタン1はスイッチ315に触れない図3(a)の状態に戻る。なお、弾性部材314を接地面316に設置する例を説明したが、接地面316ではなく、外装カバー301に設置してもよい。また、AF−ONボタン1は、操作面への押し込みと、操作面でのタッチ操作とを検知可能なものであれば、図3(a)、図3(b)に示した構造に限るものではなく、他の構造としてもよい。 FIG. 3A is a schematic view of a state in which the finger 300 is touching the operation surface of the AF-ON button 1, but the AF-ON button 1 is not pressed. FIG. 3B is an outline of a state in which it is detected that the AF-ON button 1 is pushed and the AF-ON button 1 is pressed by the finger 300 pressing the operation surface of the AF-ON button 1. It is a figure. When the finger 300 is separated from the operation surface of the AF-ON button 1 from the pressed state of FIG. 3 (b), the AF-ON button 1 does not touch the switch 315 due to the force of the elastic member 314 (a). Return to the state. Although the example in which the elastic member 314 is installed on the ground plane 316 has been described, it may be installed on the exterior cover 301 instead of the ground plane 316. Further, the AF-ON button 1 is limited to the structures shown in FIGS. 3 (a) and 3 (b) as long as it can detect pressing into the operation surface and touch operation on the operation surface. However, it may be another structure.

OVFモードにて選択可能なAF枠について説明する。OVFモードでは、AF枠の選択モード(測距エリア選択モード)として、少なくとも以下の選択モードを含む複数の選択モードのうちいずれかを設定メニューより予めユーザーが選択して設定することができる。 The AF frame that can be selected in the OVF mode will be described. In the OVF mode, as the AF frame selection mode (distance measurement area selection mode), the user can select and set at least one of a plurality of selection modes including the following selection modes in advance from the setting menu.

・1点AF(任意選択)…191点の測距点(焦点調節領域)の中から、ピント合わせ(AF)に使う測距点をユーザーが1点選択する選択モード。後述するゾーンAFよりも狭い範囲が焦点調節領域となる。 1-point AF (arbitrary selection): A selection mode in which the user selects one AF point to be used for focusing (AF) from 191 AF points (focus adjustment area). The focus adjustment region is a range narrower than the zone AF described later.

・ゾーンAF(ゾーン任意選択)…複数の測距点を9つの測距ゾーン(焦点調節領域)に分類し、いずれかの測距ゾーンをユーザーが選択する選択モード。選択したゾーンに含まれる全ての測距点を用いて自動選択AFを行う。自動選択AFでは、対象となる測距点で測距された被写体のうち、自動的にピントを合わせるべき被写体と判定された被写体にピントが合うようにAFを行う。基本的には最も近距離にある被写体にピントが合うようにAFを行うが、画面上の位置や被写体のサイズ、被写体距離などの条件が加味されることもある。1点AFよりも被写体を捉えやすく、動きのある被写体を撮影するときにピントを合わせやすくなる。また、ピントを合わせるゾーンを絞っているため、構図における意図しない位置の被写体にピントが合ってしまうことも防止することができる。 -Zone AF (zone optional selection): A selection mode in which multiple AF points are classified into nine AF zones (focus adjustment areas) and the user selects one of the AF zones. Automatic selection AF is performed using all AF points included in the selected zone. In the automatic selection AF, AF is performed so that the subject that is determined to be the subject to be automatically focused among the subjects measured at the target AF point is in focus. Basically, AF is performed so that the subject at the closest distance is in focus, but conditions such as the position on the screen, the size of the subject, and the subject distance may be added. It is easier to capture the subject than single-point AF, and it is easier to focus when shooting a moving subject. Further, since the focus zone is narrowed down, it is possible to prevent the subject from being focused at an unintended position in the composition.

・自動選択AF…全ての測距点を用いて上述の自動選択AFを行うモード。ユーザーがAFエリアを選択することなく、AFに用いる測距点は全測距点の中から自動的に決定される。 -Automatic selection AF: A mode in which the above-mentioned automatic selection AF is performed using all AF points. The AF points used for AF are automatically determined from all the AF points without the user selecting the AF area.

図4(a)、図4(b)を用いて、1点AFで選択可能な測距点について説明する。図4(a)は、ファインダー内表示部41における選択可能な測距点と、選択された測距点の表示例である。ユーザーは、測距点群410のうちいずれか1点を選択することが可能である。選択された測距点はAF枠400として表示される。AF枠400は、実際には被写体の光学像と重畳して視認される。測距点群410のうち、選択されていない測距点は表示されないものとしてもよい。焦点検出部11は、測距点群410に含まれる測距点の各位置に対応する位置で焦点検出及びAFが可能である。測距点群410は、左側測距点群411、中央測距点群412、右側測距点群413に分類される。左側測距点群411と右側測距点群413にはそれぞれ、63点の測距点が9行7列の行列に配置されている。中央測距点群412には、65点の測距点が13行5列の行列に配置されている。1点AFでは、左側測距点群411、中央測距点群412、右側測距点群413に含まれる合計191点の測距点を選択候補として、いずれか1点をAFに用いるAF枠として選択することが可能である。図4(a)は、中央測距点群412に含まれる7行目3列目の測距点(中央の測距点)をAF枠400として選択した表示例である。図4(b)は、中央測距点群412に含まれる6行目4列目の測距点(中央の測距点)をAF枠400として選択した表示例である。図4(a)の状態からAF枠400を右に1回(後述の選択位置移動量=1を1回と称する)、上に1回移動させることで、図4(b)の状態とすることができる。また、図4(a)の状態からAF枠400を右上に1回移動させることでも図4(b)の状態とすることができる。 A range-finding point that can be selected by one-point AF will be described with reference to FIGS. 4 (a) and 4 (b). FIG. 4A is a display example of the selectable AF points on the display unit 41 in the finder and the selected AF points. The user can select any one of the AF point cloud 410. The selected AF point is displayed as the AF frame 400. The AF frame 400 is actually visually recognized by superimposing it on the optical image of the subject. Of the AF point group 410, unselected AF points may not be displayed. The focus detection unit 11 can perform focus detection and AF at positions corresponding to the respective positions of the focus points included in the focus point group 410. The AF point group 410 is classified into a left AF point group 411, a central AF point group 412, and a right AF point group 413. In the left AF point group 411 and the right AF point group 413, 63 AF points are arranged in a matrix of 9 rows and 7 columns, respectively. In the central AF point group 412, 65 AF points are arranged in a matrix of 13 rows and 5 columns. In the one-point AF, a total of 191 AF points included in the left AF point group 411, the central AF point group 412, and the right AF point group 413 are selected as selection candidates, and any one of them is used for AF. It is possible to select as. FIG. 4A is a display example in which the AF points (center AF points) in the 7th row and 3rd column included in the central AF point group 412 are selected as the AF frame 400. FIG. 4B is a display example in which the AF points (center AF points) in the 6th row and 4th column included in the central AF point group 412 are selected as the AF frame 400. By moving the AF frame 400 to the right once from the state of FIG. 4 (a) (the selection position movement amount = 1 described later is referred to as one time) and once upward, the state of FIG. 4 (b) is obtained. be able to. The state shown in FIG. 4B can also be obtained by moving the AF frame 400 to the upper right once from the state shown in FIG. 4A.

図5(a)〜図5(i)を用いて、ゾーンAFで選択可能な測距ゾーンについて説明する。図4(a)、図4(b)と同じものは同じ符号を用いて示している。ゾーンAFでは、図5(a)〜図5(i)にそれぞれ示す9つの測距ゾーンを選択候補として、1つのゾーンを選択することが可能である。図5(a)は、測距点群410のうち、中央の測距ゾーン(中央測距点群412に含まれる4〜10行目、1〜5列目の測距点群を含むゾーン)を選択してゾーンAF枠500を表示した例である。 The ranging zones that can be selected by the zone AF will be described with reference to FIGS. 5 (a) to 5 (i). The same materials as those in FIGS. 4 (a) and 4 (b) are shown using the same reference numerals. In the zone AF, it is possible to select one zone by using the nine ranging zones shown in FIGS. 5 (a) to 5 (i) as selection candidates. FIG. 5A shows the central ranging point group (zone including the ranging point groups in the 4th to 10th rows and the 1st to 5th columns included in the central ranging point group 412) in the ranging point group 410. Is an example in which the zone AF frame 500 is displayed by selecting.

図5(b)は、図5(a)の状態からゾーンAF枠500を上に1回移動させて、測距点群410のうち、上部の測距ゾーン(中央測距点群412に含まれる1〜7行目、1〜5列目の測距点群を含むゾーン)を選択した例である。同様に、図5(c)は、図5(a)の状態からゾーンAF枠500を下に1回移動させて下部の測距ゾーンを選択した例である。図5(d)は、図5(a)の状態からゾーンAF枠500を左に1回移動させて左部の測距ゾーンを選択した例である。図5(e)は、図5(a)の状態からゾーンAF枠500を左上に1回移動させて、あるいは左に1回と上に1回移動させて左上部の測距ゾーンを選択した例である。図5(f)は、図5(a)の状態からゾーンAF枠500を左下に1回移動させて、あるいは左に1回と下に1回移動させて左下部の測距ゾーンを選択した例である。図5(g)は、図5(a)の状態からゾーンAF枠500を右に1回移動させて右部の測距ゾーンを選択した例である。図5(h)は、図5(a)の状態からゾーンAF枠500を右上に1回移動させて、あるいは右に1回と上に1回移動させて右上部の測距ゾーンを選択した例である。図5(i)は、図5(a)の状態からゾーンAF枠500を右下に1回移動させて、あるいは右に1回と下に1回移動させて右下部の測距ゾーンを選択した例である。 FIG. 5 (b) shows that the zone AF frame 500 is moved upward once from the state of FIG. 5 (a), and is included in the upper AF zone (central AF point group 412) of the AF point group 410. This is an example in which the zone including the AF point cloud in the 1st to 7th rows and the 1st to 5th columns) is selected. Similarly, FIG. 5C is an example in which the zone AF frame 500 is moved downward once from the state of FIG. 5A to select the lower ranging zone. FIG. 5D is an example in which the zone AF frame 500 is moved to the left once from the state of FIG. 5A to select the ranging zone on the left side. In FIG. 5 (e), the zone AF frame 500 is moved from the state of FIG. 5 (a) once to the upper left, or once to the left and once upward to select the ranging zone in the upper left. This is an example. In FIG. 5 (f), the zone AF frame 500 is moved once to the lower left or once to the left and once to the lower left from the state of FIG. 5 (a) to select the ranging zone at the lower left. This is an example. FIG. 5 (g) is an example in which the zone AF frame 500 is moved to the right once from the state of FIG. 5 (a) to select the ranging zone on the right side. In FIG. 5 (h), the zone AF frame 500 is moved once to the upper right or once to the right and once to the upper right from the state of FIG. 5 (a) to select the ranging zone in the upper right part. This is an example. In FIG. 5 (i), the zone AF frame 500 is moved once to the lower right or once to the right and once to the lower right from the state of FIG. 5 (a) to select the ranging zone at the lower right. This is an example.

LVモードにて選択可能なAF枠について説明する。LVモードでは、AF枠の選択モード(測距エリア選択モード、AF方式)として、少なくとも以下の選択モードを含む複数の選択モードのうちいずれかを設定メニューより予めユーザーが選択して設定することができる。なお、動画の撮影待機状態(動画撮影モード)、動画の記録中も、LVモードであるものとする。 The AF frame that can be selected in the LV mode will be described. In the LV mode, as the AF frame selection mode (distance measurement area selection mode, AF method), the user can select and set at least one of a plurality of selection modes including the following selection modes in advance from the setting menu. it can. In addition, it is assumed that the LV mode is used even during the movie shooting standby state (movie shooting mode) and the movie recording.

・顔+追尾優先AF(顔+追尾AF)…LV画像から顔が検知されている場合には顔をAF対象として自動的に追尾してAFし、顔検知されていない場合には自動選択AFでAF位置を決定してAFを行う選択モード。LV画像から複数の顔が検知されている場合には、最初は自動選択で決定された顔にAF枠(顔追尾枠)が表示され、8方向キー74a,74bやAF−ONボタンへの左右操作で、右または左側の顔に追尾対象を切り替えることができる。また、表示部28にタッチすることで、顔または顔以外の被写体(モノ)を選択して追尾対象とし、追尾してAFを合わせることもできる。 -Face + tracking priority AF (face + tracking AF): When a face is detected from the LV image, the face is automatically tracked and AF is performed, and when the face is not detected, automatic selection AF is performed. A selection mode in which the AF position is determined with and AF is performed. When multiple faces are detected from the LV image, the AF frame (face tracking frame) is initially displayed on the face determined by automatic selection, and left and right to the 8-direction keys 74a and 74b and the AF-ON button. By operation, you can switch the tracking target to the right or left face. Further, by touching the display unit 28, a face or a subject (object) other than the face can be selected as a tracking target, and the AF can be adjusted by tracking.

・ライブ1点AF(任意選択)…65行87列に配置された5655点の測距点の中から、ピント合わせ(AF)に使う測距点をユーザーが1点選択する選択モード。選択された測距点について、撮像面位相差AF、あるいはコントラストAFにて焦点検出、AFが行われる。 -Live 1-point AF (arbitrary selection): A selection mode in which the user selects one AF point to be used for focusing (AF) from 5655 AF points arranged in 65 rows and 87 columns. Focus detection and AF are performed on the selected AF point by the imaging surface phase difference AF or contrast AF.

図6(a)を用いて、ライブ1点AFでのAF枠の移動について説明する。図6(a)は、LVモードでライブ1点AFに設定している場合の表示部28における表示例である。LV画像601に重畳して各種設定情報やタッチアイコン、AF枠600が表示される。AF枠600は、LV画像上での選択位置を示すインジケーターであり、8方向キー74a,74bでの方向指示操作、AF−ONボタンへのスライド操作に応じて移動可能である。これらの操作部材への操作のx方向、y方向の成分毎の操作量に所定の係数を掛けた分だけ、移動前のAF枠600の位置から相対的に移動し、例えばAF枠600´の位置に移動する。 The movement of the AF frame in the live one-point AF will be described with reference to FIG. 6A. FIG. 6A is a display example of the display unit 28 when the live 1-point AF is set in the LV mode. Various setting information, touch icons, and AF frame 600 are displayed on the LV image 601. The AF frame 600 is an indicator showing a selection position on the LV image, and can be moved according to a direction instruction operation with the eight-direction keys 74a and 74b and a slide operation to the AF-ON button. By multiplying the amount of operation for each component in the x-direction and y-direction of the operation on these operating members by a predetermined coefficient, the AF frame 600 moves relatively from the position before the movement, for example, the AF frame 600'. Move to position.

図6(b)を用いて、顔+追尾AFでのAF枠の移動について説明する。図6(b)は、LVモードで顔+追尾AFに設定しており、かつ、LV画像から複数の顔が検出されていて、1つの顔を追尾している場合の表示部28における表示例である。LV画像601に重畳して各種設定情報やタッチアイコン、AF枠610(ここでは、顔枠、追尾枠、顔追尾枠でもある)が表示される。LV画像601からは、顔621、顔622、顔623の3つの顔が検出されており、図示の例では顔621がAF対象として選択されて追尾されている。AF枠610は8方向キー74a,74bでの左右への方向指示操作、AF−ONボタンへの左右方向へのスライド操作に応じて、検出されている他の顔に移動可能である。例えば、AF−ONボタンに対する右方向へのスライド操作による移動量1(最小単位の移動量)の移動指示に応じて、選択変更前の現在選択中の顔621の右側にある顔のうち、選択中の顔に最も近い顔、すなわち顔622にAF枠を移動させることができる。顔622にAF枠を移動させると、AF枠610が非表示となりAF枠610´が表示される。この時、選択変更前の顔621から顔622へ、顔以外の位置を経由することなくAF枠が移動する。選択を切り替えるAF−ONボタンに対する左右方向へのスライド操作による顔の選択の変更についての詳細は後述する。 The movement of the AF frame in the face + tracking AF will be described with reference to FIG. 6B. FIG. 6B shows a display example on the display unit 28 when face + tracking AF is set in the LV mode, a plurality of faces are detected from the LV image, and one face is tracked. Is. Various setting information, touch icons, and AF frame 610 (here, it is also a face frame, a tracking frame, and a face tracking frame) are displayed by superimposing on the LV image 601. Three faces, face 621, face 622, and face 623, are detected from the LV image 601. In the illustrated example, face 621 is selected as an AF target and tracked. The AF frame 610 can be moved to another detected face in response to a left-right direction instruction operation with the eight-direction keys 74a and 74b and a left-right slide operation with the AF-ON button. For example, in response to a movement instruction of the movement amount 1 (minimum unit movement amount) by sliding the AF-ON button to the right, the face on the right side of the currently selected face 621 before the selection change is selected. The AF frame can be moved to the face closest to the inside face, that is, face 622. When the AF frame is moved to the face 622, the AF frame 610 is hidden and the AF frame 610'is displayed. At this time, the AF frame moves from the face 621 before the selection change to the face 622 without going through a position other than the face. Details of changing the face selection by sliding the AF-ON button to switch the selection in the left-right direction will be described later.

図7に、AF−ONボタンに対するスライド応答処理のフローチャートを示す。スライド応答処理は、AF−ONボタンを押し込むことなく操作面にタッチしてタッチムーブするスライド操作に応じた機能(例:AF枠の移動)の実行処理である。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。カメラ100を撮影モードで起動すると図7の処理を開始する。なお、カメラ100を撮影モードで起動した場合には、他の処理(例えば操作部70に含まれる他の操作部材の操作に応じた処理、AF−ONボタンの押し込みに応じた処理)も並行して行われるが、それらの説明は省略する。また、図7〜図10では、AF−ONボタン1に対するスライド操作への応答処理を説明するが、AF−ONボタン2についても同様に処理される。ただし、AF−ONボタン1に対するタッチオンが検知されている場合にはAF−ONボタン2に対するスライド応答処理は行わないものとする。これによって、AF−ONボタン1とAF−ONボタン2への操作の競合による誤動作を防止することができる(AF−ONボタン1へのスライド操作が優先される)。 FIG. 7 shows a flowchart of slide response processing for the AF-ON button. The slide response process is an execution process of a function (eg, movement of the AF frame) corresponding to a slide operation in which the operation surface is touched and touch-moved without pressing the AF-ON button. This process is realized by expanding the program recorded in the non-volatile memory 56 to the system memory 52 and executing it by the system control unit 50. When the camera 100 is started in the shooting mode, the process of FIG. 7 is started. When the camera 100 is started in the shooting mode, other processes (for example, a process corresponding to the operation of another operation member included in the operation unit 70, a process corresponding to the pressing of the AF-ON button) are also performed in parallel. However, their description will be omitted. Further, in FIGS. 7 to 10, the response processing to the slide operation for the AF-ON button 1 will be described, but the AF-ON button 2 is also processed in the same manner. However, when the touch-on to the AF-ON button 1 is detected, the slide response processing for the AF-ON button 2 is not performed. As a result, it is possible to prevent a malfunction due to a conflict between operations on the AF-ON button 1 and the AF-ON button 2 (priority is given to the slide operation on the AF-ON button 1).

S701では、システム制御部50は、AF−ONボタン1に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合にはS703に進み、そうでない場合にはS702に進む。本実施形態では、ここでタッチダウンがあったと判定された後の処理は、AF−ONボタン1の押し込みは検知されていない状態で行われる処理であるものとする。 In S701, the system control unit 50 determines whether or not there is a touchdown to the AF-ON button 1. If there is a touchdown, the process proceeds to S703, otherwise the process proceeds to S702. In the present embodiment, it is assumed that the process after it is determined that the touchdown has occurred is the process performed in a state where the pressing of the AF-ON button 1 is not detected.

S702では、スライド応答処理の終了条件(例えば電源オフ、再生モードへの移行など)が満たされたか否かを判定する。終了条件が満たされた場合にはスライド応答処理を終了し、そうでない場合はS701に進んで処理を繰り返す。 In S702, it is determined whether or not the end condition of the slide response processing (for example, power off, transition to the reproduction mode, etc.) is satisfied. If the end condition is satisfied, the slide response process is terminated, and if not, the process proceeds to S701 to repeat the process.

S703では、システム制御部50は、スライド操作に関する各種変数を初期化する。例えば、内部変数Nを0で初期化する。このNはサンプリング回数を示し、移動量を平均する際に用いる。Nが5に達するごとに、5回のサンプリングで得た移動量(タッチムーブ量、スライド量)を平均化した移動量を取得する。また、S703で、システム制御部50は、変数iを0に初期化する。このiは、タッチされてからの平均化した移動量の取得回数を示す。また、システム制御部50は、変数Dsumを0に初期化する。Dsumは1回のスライド操作における移動距離(操作量)の1回以上の取得期間(後述の50msec)での積算値であり、方向成分をもつ2次元座標値である。Dsumは、後述するように、タッチアップがされる前(すなわちタッチ中)であっても初期化されることがある変数である(すなわち、タッチダウンしてからのタッチの移動距離の全積算量を示しているとは限らない)。 In S703, the system control unit 50 initializes various variables related to the slide operation. For example, the internal variable N is initialized to 0. This N indicates the number of samplings and is used when averaging the amount of movement. Every time N reaches 5, the movement amount obtained by averaging the movement amounts (touch move amount, slide amount) obtained in the five samplings is acquired. Further, in S703, the system control unit 50 initializes the variable i to 0. This i indicates the number of acquisitions of the averaged movement amount since it was touched. Further, the system control unit 50 initializes the variable Dsum to 0. Dsum is an integrated value of the movement distance (operation amount) in one slide operation in one or more acquisition periods (50 msec described later), and is a two-dimensional coordinate value having a directional component. Dsum is a variable that may be initialized even before touch-up (ie, during touch), as will be described later (ie, the total cumulative amount of touch movement distance after touch-down). Does not always indicate).

S704では、システム制御部50は、AF−ONボタン1からの移動量の検出値の読み出し前のWait処理を行う。Wait期間は10msec(10ミリ秒)であるものとする。 In S704, the system control unit 50 performs Wait processing before reading the detected value of the movement amount from the AF-ON button 1. The Wait period is assumed to be 10 msec (10 milliseconds).

S705では、システム制御部50は、AF−ONボタン1から、X方向(横方向)の移動量の検出値(単位が距離ではないカウント値)Cxを取得する。同様に、S706では、システム制御部50は、AF−ONボタン1から、Y方向(縦方向)の移動量の検出値(単位が距離ではないカウント値)Cyを取得する。 In S705, the system control unit 50 acquires the detection value (count value whose unit is not the distance) Cx of the movement amount in the X direction (horizontal direction) from the AF-ON button 1. Similarly, in S706, the system control unit 50 acquires the detection value (count value whose unit is not the distance) Cy of the movement amount in the Y direction (vertical direction) from the AF-ON button 1.

S707では、システム制御部50は、S705で取得したX方向のカウント値Cxを配列CxnのN番目Cxn[N]に格納する。S708では、システム制御部50は、S706で取得したY方向のカウント値Cyを配列CynのN番目Cyn[N]に格納する。 In S707, the system control unit 50 stores the count value Cx in the X direction acquired in S705 in the Nth Cxn [N] of the array Cxn. In S708, the system control unit 50 stores the count value Cy in the Y direction acquired in S706 in the Nth Cyn [N] of the array Cyn.

S709では、システム制御部50は、サンプリング回数を表す変数Nをインクリメントする。 In S709, the system control unit 50 increments the variable N representing the number of samplings.

S710では、システム制御部50は、AF−ONボタン1からのタッチアップがあったか否かを判定する。AF−ONボタン1からのタッチアップがあった場合はS716に進み、そうでない場合、すなわち、AF−ONボタン1へのタッチが継続している場合にはS711へ進む。 In S710, the system control unit 50 determines whether or not there is a touch-up from the AF-ON button 1. If there is a touch-up from the AF-ON button 1, the process proceeds to S716, and if not, that is, if the touch to the AF-ON button 1 continues, the process proceeds to S711.

S711では、システム制御部50は、変数Nが5であるか否か、すなわち、サンプリング回数が5回に達したかどうかを判定する。N=5になった場合とは、初回であればタッチダウンがあってから50msecが経過した時点、初回より後であれば平均化した移動量を前回取得してから50msecが経過した時点である。本実施形態では、S704でのWait時間が10msecであることと、AF−ONボタン1へのスライド操作に対するAF枠の移動がユーザーに認識できるほど遅延する、すなわち応答性が悪いと体感されることは望ましくないこととから、N=5としている。つまり、平均化した距離の取得頻度を50msec毎としている。 In S711, the system control unit 50 determines whether or not the variable N is 5, that is, whether or not the number of samplings has reached 5. The case where N = 5 is the time when 50 msec has elapsed since the touchdown occurred for the first time, and the time when 50 msec has passed since the previous acquisition of the averaged movement amount after the first time. .. In the present embodiment, the wait time in S704 is 10 msec, and the movement of the AF frame in response to the slide operation to the AF-ON button 1 is delayed so that the user can recognize it, that is, the responsiveness is felt to be poor. Is not desirable, so N = 5. That is, the acquisition frequency of the averaged distance is set to every 50 msec.

S712では、システム制御部50は、Cxn[0]〜Cxn[N−1]までのカウント値の平均値(Cxave)と、Cyn[0]〜Cyn[N−1]までのカウント値の平均値(Cyave)を算出する。 In S712, the system control unit 50 has the average value (Cxave) of the count values from Cxn [0] to Cxn [N-1] and the average value of the count values from Cyn [0] to Cyn [N-1]. (Cyave) is calculated.

S713では、システム制御部50は、直近5回のAF−ONボタン1からの出力値の平均カウント値CxaveとCyaveを、単位μm(マイクロメートル)の距離XaveとYaveに換算する。具体的には、CxaveとCyaveにそれぞれ所定の計数を掛けてXaveとYave[μm]とする。このように、平均化してから距離に換算することで、ノイズの影響などによって、実際の指の移動量に対してAF枠の移動量が極端に不自然な移動量となってしまうことを防止している。また、S713で、システム制御部50は、変数iをインクリメントする。 In S713, the system control unit 50 converts the average count values Cxave and Cave of the output values from the AF-ON button 1 of the last five times into the distances Xave and Yave in the unit μm (micrometer). Specifically, Cxave and Cave are multiplied by predetermined counts to obtain Xave and Yave [μm], respectively. By averaging and then converting to distance in this way, it is possible to prevent the AF frame movement amount from becoming extremely unnatural with respect to the actual finger movement amount due to the effects of noise and the like. doing. Further, in S713, the system control unit 50 increments the variable i.

S714では、システム制御部50は、移動判定処理を行う。移動判定処理については図8を用いて後述する。 In S714, the system control unit 50 performs a movement determination process. The movement determination process will be described later with reference to FIG.

S715では、システム制御部50は、変数Nを0に初期化し、その後S704に進み、平均化した移動量の次の取得回のためのサンプリングを行う。 In S715, the system control unit 50 initializes the variable N to 0, then proceeds to S704 to perform sampling for the next acquisition of the averaged movement amount.

S716では、システム制御部50は、S712と同様の処理を実施する。S712と異なる点は、Nが5であるとは限らない点である。S716では、S712と異なり、平均化した移動量の取得間隔である変数N×10msecは50msecより短いことがある。 In S716, the system control unit 50 performs the same processing as in S712. The difference from S712 is that N is not always 5. In S716, unlike S712, the variable N × 10 msec, which is the acquisition interval of the averaged movement amount, may be shorter than 50 msec.

S717では、システム制御部50は、S713と同様にCxaveとCyaveをXaveとYave[μm]に換算し、iをインクリメントする。 In S717, the system control unit 50 converts Cxave and Cyber into Xave and Yave [μm] and increments i in the same manner as in S713.

S718では、システム制御部50は、S714と同様に移動判定処理を行う。移動判定処理については図8を用いて後述する。 In S718, the system control unit 50 performs the movement determination process in the same manner as in S714. The movement determination process will be described later with reference to FIG.

図8に、移動判定処理のフローチャートを示す。この処理は、前述の図7のS714、S718の処理の詳細である。また、この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。 FIG. 8 shows a flowchart of the movement determination process. This process is a detail of the process of S714 and S718 of FIG. 7 described above. Further, this process is realized by expanding the program recorded in the non-volatile memory 56 to the system memory 52 and executing the program by the system control unit 50.

S801では、システム制御部50は、前述の図7のS713またはS717で算出した(Xave,Yave)[μm]を変数diに代入する。変数diは、今回の取得回分(タッチアップされていない場合、直近50msec)のスライド操作の、方向成分をもつ移動量である。 In S801, the system control unit 50 substitutes (Xave, Yave) [μm] calculated in S713 or S717 of FIG. 7 described above into the variable di. The variable di is the amount of movement having a directional component in the slide operation of the current acquisition times (the latest 50 msec if not touched up).

S802では、システム制御部50は、現在の動作モードがOVFモードであるか否かを判定する。OVFモードである場合はS803に進み、そうでない場合はS820に進む。 In S802, the system control unit 50 determines whether or not the current operation mode is the OVF mode. If it is in the OVF mode, the process proceeds to S803, and if not, the process proceeds to S820.

S803では、システム制御部50は、移動量の積算値Dsum(方向成分をもつ2次元座標値)に、S801で代入された移動量diを加算する。 In S803, the system control unit 50 adds the movement amount di substituted in S801 to the integrated value Dsum (two-dimensional coordinate value having a directional component) of the movement amount.

S804では、システム制御部50は、測距エリア選択モードが1点AFに設定されているか否かを判定する。1点AFに設定されている場合にはS805に進み、そうでない場合にはS811に進む。 In S804, the system control unit 50 determines whether or not the ranging area selection mode is set to 1-point AF. If it is set to 1-point AF, the process proceeds to S805, and if not, the process proceeds to S811.

S805では、システム制御部50は、今回の取得回分(タッチアップされていない場合、直近50msec)のスライド操作の、移動速度(操作速度)を算出する。具体的には、移動速度Vdi=|di|/50[msec]として算出する。|di|=√(Xave+Yave)である。なお、|di|自体が一定時間(50msec)毎の移動量であるため移動速度に比例する。そのため、時間(50msec)で除算せず、後述するS806での閾値との比較を、|di|と閾値(|di|との比較用の閾値)との比較の処理としてもよい。 In S805, the system control unit 50 calculates the movement speed (operation speed) of the slide operation for the current acquisition times (the latest 50 msec if not touched up). Specifically, it is calculated as the moving speed Vdi = | di | / 50 [msec]. | Di | = √ (Xave 2 + Yave 2 ). Since | di | itself is the amount of movement at regular time intervals (50 msec), it is proportional to the movement speed. Therefore, instead of dividing by the time (50 msec), the comparison with the threshold value in S806 described later may be a process of comparing | di | with the threshold value (threshold value for comparison with | di |).

S806では、システム制御部50は、今回の取得回分のスライド操作の移動速度Vdiが閾値TH_Vを超えているか否かを判定する。移動速度Vdiが閾値TH_Vを超えている(所定速度よりも速い)場合にはS807に進み、そうでない場合(移動速度Vdiが閾値TH_V以下である場合)はS808に進む。 In S806, the system control unit 50 determines whether or not the movement speed Vdi of the slide operation for the acquisition times this time exceeds the threshold value TH_V. If the moving speed Vdi exceeds the threshold value TH_V (faster than the predetermined speed), the process proceeds to S807, and if not (when the moving speed Vdi is equal to or less than the threshold value TH_V), the process proceeds to S808.

S807では、システム制御部50は、S809で後述する判定用楕円に関するパラメータを以下のように設定する。 In S807, the system control unit 50 sets the parameters related to the determination ellipse described later in S809 as follows.

Thx=Thx1
Thy=Thy1
(Thy1<Thx1)
Thx1とThy1は予め不揮発性メモリ56に記録されていた値であり、Thx1>Thy1の関係を満たす。この関係を満たすように設定しているのは、後述する通り、横方向への指の移動よりも縦方向への指の移動の方が行いにくいことを考慮し、縦方向の方が横方向に比べて短い移動量でAF枠の移動を開始できるようにするためである。ThxとThyは条件によって異なる変数であるが、何れの場合でも、Thxは原点を中心とする判定用楕円の横幅を定義する値であり、Thyは原点を中心とする判定用楕円の縦幅を定義する値である。本実施形態では、何れの場合もThx>Thyを満たすため、判定用楕円の横幅=長軸=2Thxとなり、判定用楕円の縦幅=短軸=2Thyとなる。
Thx = Thx1
Thy = Th1
(Th1 <Thx1)
Thx1 and Th1 are values previously recorded in the non-volatile memory 56, and satisfy the relationship of Thx1> Th1. As will be described later, the reason why this relationship is satisfied is that the vertical direction is the horizontal direction, considering that it is more difficult to move the finger in the vertical direction than the horizontal direction. This is so that the movement of the AF frame can be started with a shorter movement amount than the above. Thx and Thy are variables that differ depending on the conditions, but in either case, Thx is a value that defines the width of the judgment ellipse centered on the origin, and Thy is the vertical width of the judgment ellipse centered on the origin. The value to define. In the present embodiment, since Thx> Thy is satisfied in each case, the width of the determination ellipse = long axis = 2Thx, and the vertical width of the determination ellipse = short axis = 2Th.

S808では、システム制御部50は、S809で後述する判定用楕円に関するパラメータを以下のように設定する。
Thx=Thx2
Thy=Thy2
(Thy2<Thx2)
(Thx1<Thx2、Thy1<Thy2)
Thx2とThy2は予め不揮発性メモリ56に記録されていた値であり、Thy2<Thx2の関係を満たす。この関係を満たすように設定しているのは、後述する通り、横方向への指の移動よりも縦方向への指の移動の方が行いにくいことを考慮し、縦方向の方が横方向に比べて短い移動量でAF枠の移動を開始できるようにするためである。
In S808, the system control unit 50 sets the parameters related to the determination ellipse described later in S809 as follows.
Thx = Thx2
Thy = Th2
(Th2 <Thx2)
(Thx1 <Thx2, Thy1 <Thy2)
Thx2 and Th2 are values previously recorded in the non-volatile memory 56, and satisfy the relationship of Thy2 <Thx2. As will be described later, the reason why this relationship is satisfied is that the vertical direction is the horizontal direction, considering that it is more difficult to move the finger in the vertical direction than the horizontal direction. This is so that the movement of the AF frame can be started with a shorter movement amount than the above.

また、Thx1<Thx2、Thy1<Thy2の関係を満たす。すなわち、(Thx1、Thy1)で定義される楕円よりも、(Thx2、Thx2)で定義される楕円の方が大きい。これによって、(Thx1、Thy1)で定義される小さい楕円を用いた判定よりも、(Thx2、Thx2)で定義される大きい楕円を用いた判定の方が、AF枠の移動を開始するまでに長い移動距離を要する。本実施形態では、指の移動速度が遅い場合に大きい楕円を用いた判定を行うため、指の移動速度が速い場合に比べてAF枠の移動を開始するまでに、あえて長い移動距離を要するようにする。これによって、ユーザーが指をゆっくり移動させて慎重にAF枠を移動させようとしている場合に、AF枠の移動が頻度高く起こり過ぎる、あるいはAF枠が大きい距離移動し過ぎるといったことを防止し、AF枠の位置を微調整することができる。言い換えれば、確実な一つずつ(1移動量毎)の移動を実現する。 Further, the relationship of Thx1 <Thx2 and Thy1 <Thy2 is satisfied. That is, the ellipse defined by (Thx2, Thx2) is larger than the ellipse defined by (Thx1, Thy1). As a result, the judgment using the large ellipse defined by (Thx2, Thx2) is longer than the judgment using the small ellipse defined by (Thx1, Thy1) before the AF frame starts moving. It takes a moving distance. In the present embodiment, since the determination using a large ellipse is performed when the finger movement speed is slow, it takes a long movement distance to start the movement of the AF frame as compared with the case where the finger movement speed is high. To. This prevents the AF frame from moving too frequently or the AF frame from moving too large a distance when the user slowly moves his or her finger to carefully move the AF frame. The position of the frame can be fine-tuned. In other words, it realizes reliable movement one by one (for each movement amount).

S809では、システム制御部50は、移動量の積算値Dsum(Xaveの積算値DsumxとYaveの積算値Dsumy)が、AF枠の移動可否の判定用楕円の縁または外に達したか否かを判定する。判定用楕円は以下の式1によって定義される楕円である。 In S809, the system control unit 50 determines whether or not the integrated value Dsum of the movement amount (the integrated value Dsumx of Xave and the integrated value Dsumy of Yave) reaches the edge or the outside of the ellipse for determining whether or not the AF frame can be moved. judge. The determination ellipse is an ellipse defined by the following equation 1.

Dsumx/Thx+Dsumy/Thy=1…式1
すなわち、S809では、システム制御部50は、以下の式2を満たしたか否かを判定する。
Dsumx 2 / Thx + Dsumy 2 / The = 1 ... Equation 1
That is, in S809, the system control unit 50 determines whether or not the following equation 2 is satisfied.

Dsumx/Thx+Dsumy/Thy≧1…式2
式2を満たしたと判定した場合は、S810に進む。式2を満たしていない場合、すなわち、移動量の積算値Dsumが、AF枠の移動可否の判定用楕円の内側である場合には、AF枠の移動(選択位置の移動)は行わず、移動判定処理を終了する。
Dsumx 2 / Thx + Dsumy 2 / The ≧ 1 ... Equation 2
If it is determined that the equation 2 is satisfied, the process proceeds to S810. If the equation 2 is not satisfied, that is, if the integrated value Dsum of the movement amount is inside the ellipse for determining whether or not the AF frame can be moved, the AF frame is not moved (movement of the selected position) and is moved. The judgment process ends.

S810では、システム制御部50は、選択位置移動処理1(AF枠の移動処理)を行う。選択位置移動処理1については図10(a)を用いて後述する。 In S810, the system control unit 50 performs the selection position movement process 1 (the AF frame movement process). The selection position movement process 1 will be described later with reference to FIG. 10A.

S809の判定によれば、移動方向が真横であった場合にはAF枠を移動するか否かの閾値はThxとなり、指の移動量がThx以上となった場合に真横(操作方向と平行)にAF枠が移動され、指の移動量がThx以下であった場合にはAF枠は移動されない。また、移動方向が真上であった場合にはAF枠を移動するか否かの閾値はThyとなり、指の移動量がThy以上となった場合に真上(操作方向と平行)にAF枠が移動され、指の移動量がThy以下であった場合にはAF枠は移動されない。 According to the determination of S809, the threshold value for whether or not to move the AF frame is Thx when the moving direction is right beside, and right beside (parallel to the operation direction) when the finger movement amount is Thx or more. When the AF frame is moved to Thx or less, the AF frame is not moved. If the movement direction is directly above, the threshold value for moving the AF frame is Thy, and if the finger movement amount is Thy or more, the AF frame is directly above (parallel to the operation direction). Is moved, and the AF frame is not moved when the amount of movement of the finger is Thy or less.

S811では、システム制御部50は、測距エリア選択モードがゾーンAFに設定されているか否かを判定する。ゾーンAFに設定されている場合にはS812に進み、そうでない場合(例えば自動選択AFに設定されている場合)には移動判定処理を終了する。 In S811, the system control unit 50 determines whether or not the ranging area selection mode is set to zone AF. If it is set to zone AF, the process proceeds to S812, and if not (for example, when it is set to automatic selection AF), the movement determination process ends.

S812では、システム制御部50は、S809で後述する判定用楕円に関するパラメータを以下のように設定する。
Thx=Thx3
Thy=Thy3
(Thy3<Thx3)
(Thx1<Thx2<Thx3、Thy1<Thy2<Thy3)
Thx3とThy3は予め不揮発性メモリ56に記録されていた値であり、Thy3<Thx3の関係を満たす。この関係を満たすように設定しているのは、後述する通り、横方向への指の移動よりも縦方向への指の移動の方が行いにくいことを考慮し、縦方向の方が横方向に比べて短い移動量でAF枠の移動を開始できるようにするためである。
In S812, the system control unit 50 sets the parameters related to the determination ellipse described later in S809 as follows.
Thx = Thx3
Thy = Th3
(Th3 <Thx3)
(Thx1 <Thx2 <Thx3, Thy1 <Thy2 <Thy3)
Thx3 and Th3 are values previously recorded in the non-volatile memory 56, and satisfy the relationship of Th3 <Thx3. As will be described later, the reason why this relationship is satisfied is that the vertical direction is the horizontal direction, considering that it is more difficult to move the finger in the vertical direction than the horizontal direction. This is so that the movement of the AF frame can be started with a shorter movement amount than the above.

また、Thx1<Thx2<Thx3、Thy1<Thy2<Thy3の関係を満たす。すなわち、(Thx1、Thy1)で定義される楕円、及び、(Thx2、Thx2)で定義される楕円よりも、(Thx3、Thy3)で定義される楕円の方が大きい。これによって、(Thx1、Thy1)、(Thx2、Thy2)で定義される小さい楕円を用いた判定よりも、(Thx3、Thx3)で定義される大きい楕円を用いた判定の方が、AF枠の移動を開始するまでにさらに長い移動距離を要する。本実施形態では、測距エリア選択モードがゾーンAFである場合に、(Thx3、Thx3)で定義される大きい楕円を用いた判定を行うため、AF枠の移動を開始するまでに、長い移動距離を要する。ゾーンAFである場合の選択可能位置(選択可能なゾーン)の数(9個)は、1点AFの場合(191個)に比べて少ない。また、ゾーンAFを端から端まで移動させても、移動量は最大で移動量2単位分である(例えば図5(d)の左端部のゾーンから図5(g)の右端部のゾーンへ移動する場合)。従ってゾーンAFにおいて選択位置をすばやくたくさん移動させたいという需要は小さい。一方で、選択位置の移動が、短い指の移動量で頻度高く起こり過ぎると、ユーザーが狙った選択位置(ゾーン)を選択し難くなるという課題が大きい。そこで本実施形態では、ゾーンAFのように選択可能位置が少ない場合に、選択位置の移動を開始するまでに、さらに長い移動距離を要するようにすることで、選択位置の微調整を行いやすくしている。言い換えれば、確実な一つずつ(1移動量毎)の移動を実現する。 Further, the relationship of Thx1 <Thx2 <Thx3 and Thy1 <Thy2 <Thy3 is satisfied. That is, the ellipse defined by (Thx1, Thy1) and the ellipse defined by (Thx3, Thy3) are larger than the ellipse defined by (Thx2, Thx2). As a result, the AF frame moves in the judgment using the large ellipse defined in (Thx3, Thx3) rather than the judgment using the small ellipse defined in (Thx1, Thy1), (Thx2, Thy2). It takes a longer travel distance to start. In the present embodiment, when the AF area selection mode is zone AF, the determination is performed using the large ellipse defined in (Thx3, Thx3), so that a long movement distance is required before the movement of the AF frame is started. Needs. The number of selectable positions (selectable zones) in the case of zone AF (9) is smaller than that in the case of 1-point AF (191). Further, even if the zone AF is moved from end to end, the maximum movement amount is 2 units of the movement amount (for example, from the left end zone in FIG. 5 (d) to the right end zone in FIG. 5 (g). When moving). Therefore, there is little demand for moving a lot of selected positions quickly in zone AF. On the other hand, if the movement of the selected position occurs too frequently with a short finger movement amount, there is a big problem that it becomes difficult for the user to select the selected selected position (zone). Therefore, in the present embodiment, when there are few selectable positions as in zone AF, it is easier to fine-tune the selected position by requiring a longer moving distance before starting the movement of the selected position. ing. In other words, it realizes reliable movement one by one (for each movement amount).

なお、ゾーンAFでのAF枠の移動量1(1回)あたりの移動量(移動距離)は、選択しているAF枠によって異なり、一定ではない。例えば、図5(a)の状態から左に1回移動した場合には図5(d)のようにファインダー内表示部41において測距点7個分の距離を移動する。一方、図5(a)の状態から上に1回移動した場合には図5(b)のようにファインダー内表示部41において測距点3個分の距離を移動する。従って、Thx2とThx3の関係と、Thx2を用いるケースの単位移動量D2(測距点1つ分)とThx3を用いるケースの単位移動量D3(ゾーンAFでは不定)の関係とは比例しない。すなわち、Thx2:Thx3≠D2:D3である。Thy2:Thy3についても同様である。 The movement amount (movement distance) per movement amount 1 (1 time) of the AF frame in the zone AF varies depending on the selected AF frame and is not constant. For example, when moving to the left once from the state of FIG. 5A, the distance of seven AF points is moved on the display unit 41 in the finder as shown in FIG. 5D. On the other hand, when moving upward once from the state of FIG. 5A, the distance of three AF points is moved on the display unit 41 in the finder as shown in FIG. 5B. Therefore, the relationship between Thx2 and Thx3 is not proportional to the relationship between the unit movement amount D2 (for one AF point) in the case of using Thx2 and the unit movement amount D3 (indefinite in zone AF) in the case of using Thx3. That is, Thx2: Thx3 ≠ D2: D3. The same applies to The2: The3.

S820では、システム制御部50は、現在の動作モードがLVモードであるか否かを判定する。LVモードである場合はS821に進み、そうでない場合はS824に進む。 In S820, the system control unit 50 determines whether or not the current operation mode is the LV mode. If it is in the LV mode, the process proceeds to S821, and if not, the process proceeds to S824.

S821では、システム制御部50は、AF方式(AF枠の選択モード)が顔+追尾AFに設定されているか否かを判定する。顔+追尾AFに設定されている場合はS823に進み、そうでない場合(例えば図6(a)に示したライブ1点AFに設定されている場合)にはS822に進む。 In S821, the system control unit 50 determines whether or not the AF method (AF frame selection mode) is set to face + tracking AF. If the face + tracking AF is set, the process proceeds to S823, and if not (for example, when the live 1-point AF shown in FIG. 6A is set), the process proceeds to S822.

S822では、システム制御部50は、選択位置移動処理2(AF枠の移動処理)を行う。選択位置移動処理2については図10(b)を用いて後述する。 In S822, the system control unit 50 performs the selection position movement process 2 (the AF frame movement process). The selection position movement process 2 will be described later with reference to FIG. 10 (b).

S823では、システム制御部50は、LVから検出された顔を選択した状態(例えば図6(b)に示す状態)であるか否かを判定する。顔を選択した状態でないと判定した場合にはS822に進む。S823で顔を選択した状態であると判定するとS805に進む。ただしこの場合のS805〜S810の処理では、diのうちy成分は無視して、x成分(左右方向への移動成分)のみを用いて処理を行う。顔の選択の移動(変更)において、1つ隣の顔は近い距離である場合(集合写真など)もあれば、遠い距離である場合(図6(b)のような場合)もある。従って、スライド操作の移動量に比例した距離にある顔を選択するというアルゴリズムとすると、1つ隣の顔を選択するためのスライド操作の操作量が、顔と顔の距離に応じて変わってしまい、一定の操作感とならない。そこで本実施形態では、顔の選択状態においては、操作量の積算値Dsumが判定用楕円を超えるたびに選択位置を1つずつ移動するS805〜S810の処理を行う。これによって、1つ隣の顔を選択するためのスライド操作の操作量が顔と顔の距離にかかわらずある程度一定の量となり、ユーザーの操作感を向上させることができる。なおこの場合でも、スライド操作の移動速度に応じて異なる大きさの判定用楕円と比較する処理は行うので、ゆっくり移動させるスライド操作での微調整も行いやすい。ただしこれに限るものではなく、顔の選択状態においては、スライド操作の移動速度にかかわらず同じ大きさの判定用楕円と比較する処理としてもよい。 In S823, the system control unit 50 determines whether or not the face detected from the LV is in the selected state (for example, the state shown in FIG. 6B). If it is determined that the face is not selected, the process proceeds to S822. If it is determined in S823 that the face is selected, the process proceeds to S805. However, in the processing of S805 to S810 in this case, the y component of the di is ignored and only the x component (moving component in the left-right direction) is used for the processing. In the movement (change) of face selection, the next face may be a short distance (such as a group photo) or a long distance (as shown in FIG. 6B). Therefore, if the algorithm is to select a face at a distance proportional to the movement amount of the slide operation, the operation amount of the slide operation for selecting the next face will change according to the distance between the faces. , The operation feeling is not constant. Therefore, in the present embodiment, in the face selection state, the processing of S805 to S810 for moving the selection position one by one each time the integrated value Dsum of the operation amount exceeds the determination ellipse is performed. As a result, the operation amount of the slide operation for selecting the next face becomes a certain amount regardless of the distance between the faces, and the operation feeling of the user can be improved. Even in this case, since the process of comparing with the ellipse for determination having a different size is performed according to the moving speed of the slide operation, it is easy to make fine adjustments by the slide operation of moving slowly. However, the present invention is not limited to this, and in the face selection state, a process of comparing with a determination ellipse of the same size may be performed regardless of the moving speed of the slide operation.

S824では、システム制御部50は、その他の動作モードにおけるAF−ONボタン1に対するスライド操作に応じた処理を行う。例えば、メニュー画面における選択カーソル移動操作などであるが、本実施形態では説明を省略する。 In S824, the system control unit 50 performs processing according to a slide operation on the AF-ON button 1 in other operation modes. For example, the operation of moving the selection cursor on the menu screen is performed, but the description thereof will be omitted in the present embodiment.

図9(a)〜図9(c)に、1点AFでAF−ONボタン1または2に対する1回のタッチ操作(タッチダウンからタッチアップまでの操作)が行われた場合の動作例を示す。なお図9(a)〜図9(c)で説明する各タッチ位置は仮想平面上でのタッチ位置であり、AF−ONボタン1または2でタッチを検知し始めた時点を位置P0とした、AF−ONボタン1または2で検知された指の移動量に基づく相対的なタッチ位置である。 9 (a) to 9 (c) show an operation example when one touch operation (operation from touchdown to touchup) for AF-ON button 1 or 2 is performed with one-point AF. .. Each touch position described with reference to FIGS. 9 (a) to 9 (c) is a touch position on a virtual plane, and the time when the AF-ON button 1 or 2 starts to detect the touch is set as the position P0. It is a relative touch position based on the amount of finger movement detected by the AF-ON button 1 or 2.

図9(a)では、位置P0から位置P2までのスライド操作(移動速度>閾値TH_V)が行われる。操作開始から50msec経過するまでに、タッチ位置は、移動量d1で位置P0から位置P1に移動し、位置P0を中心とする判定用楕円e1の外に出る。このため、50msec経過の時点で、選択位置移動処理1が行われ、AF枠が移動量1で、角度θ1によって決まる方向へ移動する。詳細は後述するが、このとき、選択位置移動処理1により、移動量diの積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P1にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 In FIG. 9A, a slide operation (movement speed> threshold value TH_V) from the position P0 to the position P2 is performed. By the time 50 msec elapses from the start of the operation, the touch position moves from the position P0 to the position P1 with the movement amount d1 and goes out of the determination ellipse e1 centered on the position P0. Therefore, when 50 msec elapses, the selection position movement process 1 is performed, and the AF frame moves in the direction determined by the angle θ1 with the movement amount 1. Details will be described later, but at this time, the integrated value Dsum of the movement amount di is reset to 0, and the center position of the determination ellipse is reset to the position P1 by the selection position movement process 1 (integrated value Dsum and the determination ellipse). Coordinate system is reset).

同様に、図9(a)では、50msec経過時点から100msec経過時点までの50msec期間に、タッチ位置は、移動量d2で位置P1から位置P2に移動し、位置P1を中心とする判定用楕円e1の外に出る。このため、100msec経過の時点でもAF枠が移動量1で、角度θ2によって決まる方向へ移動する。このときも、積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P2にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 Similarly, in FIG. 9A, the touch position moves from the position P1 to the position P2 with the movement amount d2 during the 50 msec period from the time when 50 msec elapses to the time when 100 msec elapses, and the determination ellipse e1 centered on the position P1. Go out of. Therefore, even after 100 msec has elapsed, the AF frame moves in the direction determined by the angle θ2 with the movement amount of 1. Also at this time, the integrated value Dsum is reset to 0, and the center position of the determination ellipse is reset to the position P2 (the integrated value Dsum and the coordinate system of the determination ellipse are reset).

図9(b)では、位置P0から位置P4までのスライド操作(移動速度>閾値TH_V)が行われる。操作開始から50msec経過するまでに、タッチ位置は、移動量d1で位置P0から位置P1に移動する。図9(b)の移動量d1は図9(a)の移動量d1と等しいが、図9(b)では、移動量d1でのタッチ位置の移動方向が図9(a)と異なり、50msec経過の時点でのタッチ位置P1は判定用楕円e1の内側にある。このため、50msec経過の時点では、選択位置移動処理1は行われず、AF枠は移動しない。このように、AF枠を移動する否かを楕円を用いて判断するため、タッチ位置の移動量diが同じであっても、タッチ位置の移動方向によってAF枠が移動したり、移動しなかったりする。また、タッチ位置の移動量の取得期間(50msec)の複数回分に亘る1回のスライド操作(すなわち、100msec以上に亘るスライド操作)で同じスライド距離をスライドさせても、タッチ位置の移動方向によってAF枠の移動量が異なる。例えば、X軸と平行に右に操作量(1回のタッチ操作でのタッチ位置のトータルの移動距離)が距離Mとなるスライド操作が行われた場合には、第1の移動量(例えば3)でAF枠の位置が右方向に移動する。一方、Y軸と平行に上に前述の距離Mと同じ操作量でスライド操作が行われた場合には、第1の移動量よりも大きい第2の移動量(例えば5)でAF枠の位置が上方向に移動する。 In FIG. 9B, a slide operation (movement speed> threshold value TH_V) from the position P0 to the position P4 is performed. By the time 50 msec elapses from the start of the operation, the touch position moves from the position P0 to the position P1 with the movement amount d1. The movement amount d1 in FIG. 9B is equal to the movement amount d1 in FIG. 9A, but in FIG. 9B, the movement direction of the touch position with the movement amount d1 is different from that in FIG. 9A, and is 50 msec. The touch position P1 at the time of lapse is inside the determination ellipse e1. Therefore, when 50 msec has elapsed, the selection position movement process 1 is not performed and the AF frame does not move. In this way, since it is determined using the ellipse whether or not to move the AF frame, the AF frame may or may not move depending on the movement direction of the touch position even if the movement amount di of the touch position is the same. To do. Further, even if the same slide distance is slid by one slide operation (that is, a slide operation over 100 msec or more) over a plurality of times of the acquisition period (50 msec) of the movement amount of the touch position, AF is performed depending on the movement direction of the touch position. The amount of movement of the frame is different. For example, when a slide operation is performed in which the operation amount (total movement distance of the touch position in one touch operation) is the distance M in parallel with the X axis, the first movement amount (for example, 3) is performed. ) Moves the position of the AF frame to the right. On the other hand, when the slide operation is performed parallel to the Y-axis with the same operation amount as the above-mentioned distance M, the position of the AF frame is the position of the AF frame with a second movement amount (for example, 5) larger than the first movement amount. Moves upwards.

そして、図9(b)では、50msec経過時点から100msec経過時点までの50msec期間に、タッチ位置は、移動量d2で位置P1から位置P2に移動し、位置P0を中心とする判定用楕円e1の外に出る。このため、100msec経過の時点で初めて、選択位置移動処理1が行われ、AF枠が移動量1で移動する。AF枠の移動方向は、移動量d1とd2とを積算した積算値Dsumを示す位置P0と位置P2を結ぶ線分(図中破線)と、Y軸との成す角θ1によって決まる。このとき、積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P2にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 Then, in FIG. 9B, the touch position moves from the position P1 to the position P2 with the movement amount d2 during the 50 msec period from the time when 50 msec elapses to the time when 100 msec elapses, and the determination ellipse e1 centered on the position P0. I go outside. Therefore, the selection position movement process 1 is performed only after 100 msec has elapsed, and the AF frame moves with the movement amount 1. The movement direction of the AF frame is determined by the line segment (broken line in the figure) connecting the position P0 and the position P2 indicating the integrated value Dsum obtained by integrating the movement amounts d1 and d2, and the angle θ1 formed by the Y axis. At this time, the integrated value Dsum is reset to 0, and the center position of the determination ellipse is reset to the position P2 (the integrated value Dsum and the coordinate system of the determination ellipse are reset).

同様に、図9(b)では、150msec経過するまでに、タッチ位置は、移動量d3で位置P2から位置P3に移動するが、位置P2を中心とする判定用楕円e1の外に出ないため、150msec経過の時点ではAF枠は移動しない。そして、200msec経過するまでに、タッチ位置は、移動量d4で位置P3から位置P4に移動し、位置P2を中心とする判定用楕円e1の外に出るため、200msec経過の時点でAF枠が移動量1で移動する。AF枠の移動方向は、移動量d3とd4とを積算した積算値Dsumを示す位置P2と位置P4を結ぶ線分(図中破線)と、Y軸との成す角θ2によって決まる。このとき、積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P4にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 Similarly, in FIG. 9B, the touch position moves from the position P2 to the position P3 with the movement amount d3 by the elapse of 150 msec, but does not go out of the determination ellipse e1 centered on the position P2. , The AF frame does not move after 150 msec has elapsed. Then, by the time 200 msec elapses, the touch position moves from the position P3 to the position P4 with the movement amount d4 and goes out of the determination ellipse e1 centered on the position P2, so that the AF frame moves when 200 msec elapses. Move with quantity 1. The movement direction of the AF frame is determined by the line segment (broken line in the figure) connecting the position P2 and the position P4 indicating the integrated value Dsum obtained by integrating the movement amounts d3 and d4, and the angle θ2 formed by the Y axis. At this time, the integrated value Dsum is reset to 0, and the center position of the determination ellipse is reset to the position P4 (the integrated value Dsum and the coordinate system of the determination ellipse are reset).

図9(c)では、位置P0から位置P5までのスライド操作が行われる。操作開始から50msec経過するまでに、タッチ位置は、移動量d1と閾値TH_Vよりも速い移動速度とで位置P0から位置P1に移動する。同様に、50msec経過時点から100msec経過時点までの50msec期間に、タッチ位置は、移動量d2と閾値TH_Vよりも速い移動速度とで位置P1から位置P2に移動する。このため、50msec経過の時点と、100msec経過の時点とでは、図9(a)、図9(b)と同様に、AF枠を移動するか否かがThx=Thx1かつThy=Thy1の判定用楕円e1を用いて判定され、AF枠がそれぞれ移動量1で移動する。 In FIG. 9C, the slide operation from the position P0 to the position P5 is performed. By the time 50 msec elapses from the start of the operation, the touch position moves from the position P0 to the position P1 with a movement amount d1 and a movement speed faster than the threshold value TH_V. Similarly, in the 50 msec period from the time when 50 msec has elapsed to the time when 100 msec has elapsed, the touch position moves from the position P1 to the position P2 with a movement amount d2 and a movement speed faster than the threshold value TH_V. Therefore, at the time when 50 msec has elapsed and when 100 msec has elapsed, whether or not to move the AF frame is for determining Thx = Thx1 and Thy = Thy1, as in FIGS. 9 (a) and 9 (b). Judgment is made using the ellipse e1, and each AF frame moves with a movement amount of 1.

その後、タッチ位置は閾値TH_Vよりも遅い移動速度で移動するため、AF枠を移動するか否かはThx=Thx2かつThy=Thy2の判定用楕円e2を用いて判定される。具体的には、100msec経過時点から150msec経過時点までの期間に、タッチ位置は、移動量d3で位置P2から位置P3に移動するが、位置P2を中心とする判定用楕円e2の外に出ないため、150msec経過の時点ではAF枠は移動しない。同様に、150msec経過時点から200msec経過時点までの50msec期間に、タッチ位置は、移動量d4で位置P3から位置P4に移動するが、位置P2を中心とする判定用楕円e2の外に出ないため、200msec経過の時点ではAF枠は移動しない。そして、200msec経過時点から250msec経過時点までの50msec期間に、タッチ位置は、移動量d5で位置P4から位置P5に移動し、位置P2を中心とする判定用楕円e2の外に出る。このため、250msec経過の時点で、選択位置移動処理1が行われ、AF枠が移動量1で移動する。AF枠の移動方向は、移動量d3〜d5が積算された積算値Dsumを示す位置P2と位置P5を結ぶ線分(図中破線)と、Y軸との成す角θ3によって決まる。このとき、積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P5にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 After that, since the touch position moves at a moving speed slower than the threshold value TH_V, whether or not to move the AF frame is determined using the determination ellipse e2 of Thx = Thx2 and Thy = Th2. Specifically, during the period from the time when 100 msec elapses to the time when 150 msec elapses, the touch position moves from the position P2 to the position P3 with the movement amount d3, but does not go out of the determination ellipse e2 centered on the position P2. Therefore, the AF frame does not move after 150 msec has elapsed. Similarly, during the 50 msec period from the time when 150 msec elapses to the time when 200 msec elapses, the touch position moves from the position P3 to the position P4 with the movement amount d4, but does not go out of the judgment ellipse e2 centered on the position P2. , The AF frame does not move after 200 msec has elapsed. Then, in the 50 msec period from the time when 200 msec has elapsed to the time when 250 msec has elapsed, the touch position moves from the position P4 to the position P5 with the movement amount d5, and goes out of the determination ellipse e2 centered on the position P2. Therefore, when 250 msec has elapsed, the selection position movement process 1 is performed, and the AF frame moves with the movement amount 1. The movement direction of the AF frame is determined by the line segment (broken line in the figure) connecting the position P2 and the position P5 indicating the integrated value Dsum in which the movement amounts d3 to d5 are integrated, and the angle θ3 formed by the Y axis. At this time, the integrated value Dsum is reset to 0, and the center position of the determination ellipse is reset to the position P5 (the integrated value Dsum and the coordinate system of the determination ellipse are reset).

常に判定用楕円e1を使用すれば、位置P2を中心とする判定用楕円e1の外にタッチ位置(位置P4)が出るため、200msec経過の時点でAF枠が移動する。本実施形態では、移動速度が遅い場合に判定用楕円e1よりも大きい判定用楕円e2を使用することで、このような移動が生じないようにしている。これにより、AF枠の移動応答性を敢えて低下させ、AF枠の微調整を行いやすくしている。 If the determination ellipse e1 is always used, the touch position (position P4) appears outside the determination ellipse e1 centered on the position P2, so that the AF frame moves after 200 msec has elapsed. In the present embodiment, when the moving speed is slow, the judgment ellipse e2, which is larger than the judgment ellipse e1, is used to prevent such movement. As a result, the movement responsiveness of the AF frame is intentionally lowered, making it easier to make fine adjustments to the AF frame.

ところで、図9(c)においてタッチ位置は移動量d2によって判定用楕円e1から大きく外に出る(位置P1から位置P2までの距離が位置P1から判定用楕円e1の縁までの距離の2倍以上ある)。しかし、位置P2のタイミングでのAF枠の移動量は移動量1である。このように、選択位置移動処理1によるAF枠の1回の移動量は、移動量diの1回の取得期間(50msec)に指がどんなに移動しても(判定用楕円を超えた先の指の移動量にかかわらず)固定である。すなわち、指の移動量とAF枠の移動量は比例関係にはない。このため、移動量diの1回の取得期間(50msec)内に終わるような素早いスライド操作の度に1つAF枠を移動する(例えば、小刻みに素早く3回スライド操作をするとAF枠が3つ分移動する)といった使用方法が可能となる。その結果、素早く確実にAF枠を1つずつ移動させることができるようになる。AF枠を移動させたい量に応じた回数指をスライドすることを好むユーザーであってもAF枠を一点ずつ移動させることができる。 By the way, in FIG. 9C, the touch position largely goes out from the determination ellipse e1 depending on the movement amount d2 (the distance from the position P1 to the position P2 is more than twice the distance from the position P1 to the edge of the determination ellipse e1). is there). However, the movement amount of the AF frame at the timing of the position P2 is the movement amount 1. In this way, the amount of one movement of the AF frame by the selection position movement process 1 is the amount of movement of the finger beyond the judgment ellipse no matter how much the finger moves during one acquisition period (50 msec) of the movement amount di. It is fixed (regardless of the amount of movement of). That is, the amount of movement of the finger and the amount of movement of the AF frame are not in a proportional relationship. For this reason, one AF frame is moved for each quick slide operation that ends within one acquisition period (50 msec) of the movement amount di (for example, if the slide operation is performed three times quickly in small steps, three AF frames are moved. (Move by minutes) can be used. As a result, the AF frames can be moved one by one quickly and surely. Even a user who prefers to slide his / her finger as many times as he / she wants to move the AF frame can move the AF frame one point at a time.

一方で、移動量diの2回以上の取得期間(100msec以上)に亘る1回のスライド操作で、連続してAF枠を大きく移動させることもできる。ある程度の速度で長くスライド操作すれば、50msec毎にAF枠が1つ移動し、1回のスライド操作で大きくAF枠を移動させることもできる。 On the other hand, it is also possible to continuously move the AF frame significantly by one slide operation over two or more acquisition periods (100 msec or more) of the movement amount di. If the sliding operation is performed for a long time at a certain speed, one AF frame can be moved every 50 msec, and the AF frame can be greatly moved by one sliding operation.

なお、図9(c)に示すような速度別閾値は、楕円とは異なる形状で設定してもよい。例えば、スライド操作の移動方向にかかわらず同じ閾値が使用されるように、移動速度ごとに異なる大きさの円で閾値を設定してもよい。 The velocity threshold as shown in FIG. 9C may be set in a shape different from that of the ellipse. For example, the threshold value may be set by a circle having a different size for each movement speed so that the same threshold value is used regardless of the movement direction of the slide operation.

なお、顔+追尾AFで顔を選択した状態の場合にも、1点AFと同様に、判定用楕円e1や判定用楕円e2を用いて、AF枠を移動するか否かが判定される。ゾーンAFの場合には、Thx=Thx3かつThy=Thy3の判定用楕円を用いて、AF枠を移動するか否かが判定される。ゾーンAFの場合には、移動速度による判定用楕円の切り替えは行われない。 Even in the case where the face is selected by the face + tracking AF, it is determined whether or not to move the AF frame by using the determination ellipse e1 and the determination ellipse e2 as in the case of the one-point AF. In the case of zone AF, it is determined whether or not to move the AF frame by using the determination ellipse of Thx = Thx3 and Thy = Th3. In the case of zone AF, the judgment ellipse is not switched according to the moving speed.

図10(a)に、選択位置移動処理1のフローチャートを示す。この処理は、前述の図8のS810の処理の詳細である。また、この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。 FIG. 10A shows a flowchart of the selected position movement process 1. This process is a detail of the process of S810 of FIG. 8 described above. Further, this process is realized by expanding the program recorded in the non-volatile memory 56 to the system memory 52 and executing the program by the system control unit 50.

S1001では、システム制御部50は、移動量の積算値Dsum(方向成分をもつ2次元座標値)のベクトル方向がなす角度θを算出する。図9(a)の場合、操作開始から50msec経過の時点で、移動量d1を積算値Dsumとして、積算値Dsumのなす角度θ1(位置P0から位置P1に向かう方向の、Y方向(縦方向)に対する角度)が算出され、積算値Dsumが0にリセットされる。そして、100msec経過の時点で、移動量d2を積算値Dsumとして、積算値Dsumのなす角度θ2が算出される。図9(b)の場合、50msec経過の時点では選択位置移動処理1は行われず、100msec経過の時点で、移動量d1と移動量d2の和(破線)を積算値Dsumとして、積算値Dsumのなす角度θ1が算出され、積算値Dsumが0にリセットされる。そして、150msec経過の時点では選択位置移動処理1は行われず、200msec経過の時点で、移動量d3と移動量d4の和(破線)を積算値Dsumとして、積算値Dsumのなす角度θ2が算出される。図9(c)の場合も同様に、50msec経過の時点、100msec経過の時点、及び、250msec経過の時点で角度θ1、角度θ2、及び、角度θ3が算出される。 In S1001, the system control unit 50 calculates the angle θ formed by the vector direction of the integrated value Dsum (two-dimensional coordinate value having a directional component) of the movement amount. In the case of FIG. 9A, when 50 msec has elapsed from the start of the operation, the movement amount d1 is set as the integrated value Dsum, and the angle θ1 formed by the integrated value Dsum (the Y direction (vertical direction) in the direction from the position P0 to the position P1). The angle with respect to) is calculated, and the integrated value Dsum is reset to 0. Then, when 100 msec has elapsed, the angle θ2 formed by the integrated value Dsum is calculated with the movement amount d2 as the integrated value Dsum. In the case of FIG. 9B, the selection position movement process 1 is not performed when 50 msec elapses, and when 100 msec elapses, the sum (broken line) of the movement amount d1 and the movement amount d2 is taken as the integrated value Dsum, and the integrated value Dsum The angle θ1 to be formed is calculated, and the integrated value Dsum is reset to 0. Then, the selected position movement process 1 is not performed when 150 msec elapses, and the angle θ2 formed by the integrated value Dsum is calculated by using the sum (broken line) of the movement amount d3 and the movement amount d4 as the integrated value Dsum when 200 msec elapses. To. Similarly, in the case of FIG. 9C, the angles θ1, the angle θ2, and the angle θ3 are calculated at the time points after 50 msec, 100 msec, and 250 msec.

S1002では、システム制御部50は、S1001で算出した角度θに基づいて、AF枠(選択位置)の移動方向を決定する。本実施形態では、以下のように、角度θを、上、下、左、右、左上、左下、右上、右下の8方向のいずれかに変換する。なお、移動方向の候補の数や向きは特に限定されない。 In S1002, the system control unit 50 determines the moving direction of the AF frame (selected position) based on the angle θ calculated in S1001. In the present embodiment, the angle θ is converted into any of eight directions of up, down, left, right, upper left, lower left, upper right, and lower right as follows. The number and directions of movement direction candidates are not particularly limited.

−22.5°(337.5°)<θ≦22.5°…移動方向:上
22.5°<θ≦67.5°…移動方向:右上
67.5°<θ≦112.5°…移動方向:右
112.5°<θ≦157.5°…移動方向:右下
157.5°<θ≦202.5°…移動方向:下
202.5°<θ≦247.5°…移動方向:左下
247.5°<θ≦292.5°…移動方向:左
292.5°<θ≦337.5°…移動方向:左上
S1003では、システム制御部50は、AF枠の移動量として固定値1を設定する。なお、AF枠の移動量は1でなくてもよく、予めユーザーが他の移動量を指定(設定)できてもよい。
-22.5 ° (337.5 °) <θ ≤ 22.5 ° ... Moving direction: Up 22.5 ° <θ ≤ 67.5 ° ... Moving direction: Upper right 67.5 ° <θ ≤ 112.5 ° ... Moving direction: Right 112.5 ° <θ ≤ 157.5 ° ... Moving direction: Lower right 157.5 ° <θ ≤ 202.5 ° ... Moving direction: Lower 202.5 ° <θ ≤ 247.5 ° ... Moving direction: Lower left 247.5 ° <θ ≤ 292.5 ° ... Moving direction: Left 292.5 ° <θ ≤ 337.5 ° ... Moving direction: Upper left In S1003, the system control unit 50 moves the AF frame. A fixed value of 1 is set as. The movement amount of the AF frame does not have to be 1, and the user may be able to specify (set) another movement amount in advance.

S1004では、システム制御部50は、S1002で決定した移動方向(上、下、左、右、左上、左下、右上、右下の8方向のいずれか)に、S1003で設定した移動量1で、AF枠を移動させる。例えば、図4(a)の状態から右上に移動量1でAF枠を移動させると、図4(b)の状態となる。なお、AF枠が測距点群の行または列の端にある場合は、AF枠は端を超える方向には動かない(端で突き当たる)。 In S1004, the system control unit 50 sets the movement amount 1 in S1003 in the movement direction (one of the eight directions of up, down, left, right, upper left, lower left, upper right, and lower right) determined in S1002. Move the AF frame. For example, when the AF frame is moved from the state of FIG. 4A to the upper right with a movement amount of 1, the state of FIG. 4B is obtained. If the AF frame is at the end of the row or column of the AF point group, the AF frame does not move in the direction beyond the end (it hits at the end).

S1005では、システム制御部50は、移動量の積算値Dsumを0にリセットする。 In S1005, the system control unit 50 resets the integrated value Dsum of the movement amount to 0.

図10(b)に、選択位置移動処理2のフローチャートを示す。この処理は、前述の図8のS822の処理の詳細である。また、この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。 FIG. 10B shows a flowchart of the selected position movement process 2. This process is a detail of the process of S822 of FIG. 8 described above. Further, this process is realized by expanding the program recorded in the non-volatile memory 56 to the system memory 52 and executing the program by the system control unit 50.

S1011では、システム制御部50は、移動量di、すなわち移動量(X=Xave,Y=Yave)[μm]を、ライブビュー画像(LV画像)のアスペクト比や大きさを考慮して、ライブビュー画像の座標系の相対移動量(X´,Y´)に変換する。 In S1011, the system control unit 50 displays the movement amount di, that is, the movement amount (X = Xave, Y = Yave) [μm] in consideration of the aspect ratio and size of the live view image (LV image). Convert to the relative movement amount (X', Y') of the coordinate system of the image.

S1012では、システム制御部50は、AF枠の移動量(X´,Y´)に係数値を乗算することで、AF枠の移動量を決定する。具体的には、S1011で得られた値X´に係数Kxを乗算することで最終的な値X´を決定し、S1011で得られた値Y´に係数Kyを乗算することで最終的な値Y´を決定する。なお、係数値=1とする場合はS1012の処理は行わなくてもよく、また係数値Kx,Kyは実数値であれば、いかなる値でもよい。 In S1012, the system control unit 50 determines the movement amount of the AF frame by multiplying the movement amount (X', Y') of the AF frame by the coefficient value. Specifically, the final value X'is determined by multiplying the value X'obtained in S1011 by the coefficient Kx, and the final value Y'by the coefficient Ky is multiplied by the value Y'obtained in S1011. Determine the value Y'. When the coefficient value = 1, the processing of S1012 may not be performed, and the coefficient values Kx and Ky may be any value as long as they are real values.

S1013では、システム制御部50は、S1012で決定した移動量(X´,Y´)で、AF枠を相対的に移動させる。右上へのスライド操作で、例えば図6(a)で説明したようなAF枠の移動(選択位置の移動)が行われる。 In S1013, the system control unit 50 relatively moves the AF frame with the movement amount (X', Y') determined in S1012. By the slide operation to the upper right, for example, the AF frame is moved (movement of the selected position) as described in FIG. 6A.

選択位置移動処理2では、スライド操作の移動距離が図8のS809で説明した楕円の閾値を超えなくとも、スライド操作の移動距離に比例してAF枠の移動(選択位置の移動)が行われる。例えば、LVモードにおいて、AF枠の選択モード(指定モード)が、顔が検知されているか否かに関わらないライブ1点AF(任意選択)である場合には、スライド操作に応じて選択位置移動処理2が行われる。従って、ライブ1点AF(任意選択)においては、X軸と平行に右にスライド操作が行われた場合に、スライド操作の移動距離の積算値が楕円の判定閾値(X軸と平行に右なので、距離Thx1)を超えなくても、AF枠の移動(選択位置の移動)が行われる。一方、LVモードにおいて、AF枠の選択モード(指定モード)が、LV画像から検出された顔を選択する顔+追尾優先AFである場合には、顔が検出されて選択されていればS823がYesとなり、S805に進む。そして、S805〜S808の処理を行った上で、S809で楕円の判定閾値を超えたと判定した場合に、スライド操作に応じた選択位置移動処理1が行われる。従って、顔+追尾優先AFにおいては、X軸と平行に右にスライド操作が行われた場合に、移動距離の積算値が楕円の判定閾値(X軸と平行に右なのでThx1またはThx2)を超えない限りAF枠の移動は行わず、楕円の判定閾値を超えるとAF枠を移動する。すなわち、選択対象の被写体(顔)を変更する。なお、LVモードにおける検出可能な他の種別の被写体(例えば瞳)を選択可能なAF枠の選択モードにおいて、上述の顔+追尾優先AFと同様の処理を行っても良い。すなわち、S809で楕円の判定閾値を超えたと判定した場合に、スライド操作に応じた選択位置移動処理1を行うようにしても良い。 In the selection position movement process 2, the AF frame is moved (movement of the selection position) in proportion to the movement distance of the slide operation even if the movement distance of the slide operation does not exceed the threshold value of the ellipse described in S809 of FIG. .. For example, in the LV mode, when the AF frame selection mode (designated mode) is live 1-point AF (arbitrary selection) regardless of whether or not a face is detected, the selection position is moved according to the slide operation. Process 2 is performed. Therefore, in live 1-point AF (arbitrary selection), when the slide operation is performed to the right in parallel with the X-axis, the integrated value of the movement distance of the slide operation is the elliptical judgment threshold (right in parallel with the X-axis). , The AF frame is moved (moved of the selected position) even if the distance Thx1) is not exceeded. On the other hand, in the LV mode, when the AF frame selection mode (designation mode) is a face that selects a face detected from the LV image + tracking priority AF, S823 is displayed if the face is detected and selected. It becomes Yes and proceeds to S805. Then, after performing the processes of S805 to S808, when it is determined in S809 that the determination threshold value of the ellipse is exceeded, the selection position movement process 1 according to the slide operation is performed. Therefore, in the face + tracking priority AF, when the slide operation is performed to the right in parallel with the X axis, the integrated value of the movement distance exceeds the elliptical judgment threshold value (Thx1 or Thx2 because it is right in parallel with the X axis). Unless otherwise, the AF frame is not moved, and when the elliptical judgment threshold is exceeded, the AF frame is moved. That is, the subject (face) to be selected is changed. In the AF frame selection mode in which another type of subject (for example, pupil) that can be detected in the LV mode can be selected, the same processing as the above-mentioned face + tracking priority AF may be performed. That is, when it is determined in S809 that the determination threshold value of the ellipse has been exceeded, the selection position movement process 1 according to the slide operation may be performed.

図11(a)〜図11(e)を用いて、AF−ONボタンのスライド操作における課題と、本実施形態の判定に楕円を用いること(縦方向の方が横方向に比べて少ない移動量でAF枠の移動を開始すること)による効果との一例について説明する。 Using FIGS. 11 (a) to 11 (e), the problem in the sliding operation of the AF-ON button and the use of an ellipse for the determination of the present embodiment (the amount of movement in the vertical direction is smaller than that in the horizontal direction). An example of the effect of (starting the movement of the AF frame) will be described.

図11(a)は、ユーザーが右手1100で第1グリップ部101を保持し、カメラ100を横位置で構えて、AF−ONボタン1を操作する様子を示す。図11(b)は、ユーザーが右手1100で第2グリップ部102を保持し、カメラ100を縦位置で構えて、AF−ONボタン2を操作する様子を示す。図11(c)は、ユーザーが右手1100で第1グリップ部101を保持し、カメラ100を縦位置で構えて、AF−ONボタン1を操作する様子を示す。図11(a)〜11(c)のいずれにおいても、ユーザーは右手1100の親指1101でAF−ONボタンを操作することになる。 FIG. 11A shows a user holding the first grip portion 101 with his / her right hand 1100, holding the camera 100 in a horizontal position, and operating the AF-ON button 1. FIG. 11B shows a user holding the second grip portion 102 with his / her right hand 1100, holding the camera 100 in the vertical position, and operating the AF-ON button 2. FIG. 11C shows a state in which the user holds the first grip portion 101 with the right hand 1100, holds the camera 100 in the vertical position, and operates the AF-ON button 1. In any of FIGS. 11 (a) to 11 (c), the user operates the AF-ON button with the thumb 1101 of the right hand 1100.

図11(d)は、AF−ONボタンへの横スライド操作(横方向のスライド操作、具体的には右へのスライド操作)が行われる様子を示す。状態1141は横スライド操作の開始状態であり、状態1142は横スライド操作中の状態であり、状態1143は横スライド操作の終了状態である。状態1141〜1143のように、横スライド操作は、指関節の付け根を支点として弧を描くような操作である。横スライド操作は比較的行いやすく(例えばAF−ONボタンへの接触圧や接触部分を維持しやすく)、横スライド操作では親指1101の大きな移動量が検出されやすい。特にOTPのような指の画像パターンの差分で指の移動を判定するデバイスの場合は、AF−ONボタンへの接触圧や接触部分を維持しやすい横スライド操作中に、人間の指紋の特徴を安定して検出しやすく、横スライド操作を検出しやすい。 FIG. 11D shows how a lateral slide operation (a lateral slide operation, specifically, a right slide operation) is performed on the AF-ON button. The state 1141 is the start state of the horizontal slide operation, the state 1142 is the state during the horizontal slide operation, and the state 1143 is the end state of the horizontal slide operation. As in the states 1141 to 1143, the lateral slide operation is an operation in which an arc is drawn with the base of the knuckle as a fulcrum. The lateral slide operation is relatively easy to perform (for example, it is easy to maintain the contact pressure and the contact portion with the AF-ON button), and the lateral slide operation tends to detect a large amount of movement of the thumb 1101. In particular, in the case of a device such as OTP that determines the movement of the finger based on the difference in the image pattern of the finger, the characteristics of the human fingerprint are displayed during the lateral slide operation that makes it easy to maintain the contact pressure and the contact portion with the AF-ON button. It is stable and easy to detect, and it is easy to detect horizontal slide operation.

図11(e)は、AF−ONボタンへの縦スライド操作(縦方向のスライド操作、具体的には上へのスライド操作)が行われる様子を示す。図11(e)において、上側の図は、背面側(AF−ONボタンの操作面に対して正面側)からAF−ONボタンを見た場合の模式図であり、下側の図は、側面側からAF−ONボタンを見た場合の模式図である。状態1151は縦スライド操作の開始状態であり、状態1152は縦スライド操作中の状態であり、状態1153は縦スライド操作の終了状態である。状態1151〜1153のように、縦スライド操作は、指関節を折り曲げたり伸ばしたりするような操作である。縦スライド操作は比較的行いにくく(例えばAF−ONボタンへの接触圧や接触部分を維持しにくく)、縦スライド操作では親指1101の大きな移動量が検出されにくい。特にOTPのような指の画像パターンの差分で指の移動を判定するデバイスの場合は、AF−ONボタンへの接触圧や接触部分を維持しにくい縦スライド操作中に、人間の指紋の特徴を安定して検出しにくく、縦スライド操作を検出しにくい。図11(e)では、親指1101の指先に近い部分がAF−ONボタンに接触して縦スライド操作が開始する(状態1151の側面図)。そして、親指1101の指先から遠ざかるようにAF−ONボタンへの接触部分が変化して縦スライド操作が終了する(状態1152,1153の側面図)。 FIG. 11E shows how a vertical slide operation (a vertical slide operation, specifically, an upward slide operation) is performed on the AF-ON button. In FIG. 11 (e), the upper view is a schematic view when the AF-ON button is viewed from the back side (front side with respect to the operation surface of the AF-ON button), and the lower view is a side view. It is a schematic diagram when the AF-ON button is seen from the side. The state 1151 is the start state of the vertical slide operation, the state 1152 is the state during the vertical slide operation, and the state 1153 is the end state of the vertical slide operation. As in the states 1151 to 1153, the vertical slide operation is an operation such as bending or extending the knuckle. It is relatively difficult to perform the vertical slide operation (for example, it is difficult to maintain the contact pressure and the contact portion with the AF-ON button), and it is difficult to detect a large amount of movement of the thumb 1101 in the vertical slide operation. Especially in the case of a device such as OTP that determines the movement of the finger based on the difference in the image pattern of the finger, the characteristics of the human fingerprint are exhibited during the vertical slide operation in which the contact pressure to the AF-ON button and the contact portion are difficult to maintain. It is difficult to detect stably and it is difficult to detect vertical slide operation. In FIG. 11 (e), the portion of the thumb 1101 near the fingertip touches the AF-ON button to start the vertical slide operation (side view of the state 1151). Then, the contact portion with the AF-ON button changes so as to move away from the fingertip of the thumb 1101, and the vertical slide operation ends (side view of states 1152, 1153).

このため、AF枠の移動開始のための移動量(指の移動量;閾値)を横スライド操作と縦スライド操作で同じとすると、縦スライド操作でAF枠が移動しにくく、ユーザーに縦スライド操作が行いにくいと感じさせてしまう。 Therefore, if the movement amount (finger movement amount; threshold value) for starting the movement of the AF frame is the same for the horizontal slide operation and the vertical slide operation, the AF frame is difficult to move in the vertical slide operation, and the user can perform the vertical slide operation. Makes me feel that it is difficult to do.

そこで本実施形態では、S809で説明したように、横方向に長い楕円を閾値として用い、縦方向の方が横方向に比べて少ない移動量でAF枠の移動が開始し、AF枠を同じ量移動させるのに縦方向の方が横方向に比べて指の移動量が少なく済むようにしている。例えば、図9(a)と図9(b)では同じ移動量2のAF枠の移動がされるが、移動量の縦成分が大きい図9(a)の方が少ない移動量(指の移動距離)でAF枠が2つ分動く。これにより、ユーザーは同等の操作感で様々な方向のスライド操作を行える。なお、縦方向の方が横方向に比べて少ない移動量でAF枠の移動が開始されればよく、本実施形態のような楕円を用いた判定に限るものではない。 Therefore, in the present embodiment, as described in S809, an ellipse long in the horizontal direction is used as a threshold value, and the AF frame starts moving in the vertical direction with a smaller amount of movement than in the horizontal direction, and the AF frame is used in the same amount. The amount of movement of the finger in the vertical direction is smaller than that in the horizontal direction. For example, in FIGS. 9A and 9B, the AF frame with the same movement amount 2 is moved, but the movement amount (finger movement) is smaller in FIG. 9A, which has a larger vertical component of the movement amount. The AF frame moves by two at the distance). As a result, the user can perform slide operations in various directions with the same operation feeling. It is sufficient that the movement of the AF frame is started in the vertical direction with a smaller amount of movement than in the horizontal direction, and the determination is not limited to the determination using the ellipse as in the present embodiment.

なお、本発明の電子機器は、AF−ONボタンを搭載した電子機器に限るものではなく、操作体(指やペン)の移動を検知してインジケーター(選択位置)を移動させる装置であれば本発明を適用可能である。例えば、ノートPCのタッチパッドへタッチした指(操作体)によるスライド操作に応じて、ノートPCのディスプレイに表示されたポインティングカーソルや項目選択カーソルなどのインジケーターを相対的に移動させる場合にも本発明を適用可能である。また、撮像装置において、タッチパネル式の背面ディスプレイに対する指(操作体)のタッチ操作でのスライド操作に応じて、光学ファインダーまたは電子ファインダー内に表示された測距点選択位置を示すインジケーターを移動させる場合にも適用可能である。タッチ操作に限るものではなく、部材を傾けて方向を指示するジョイスティックや、回転ダイヤルなどへの操作に応じてインジケーターを相対的に移動させる場合にも本発明を適用可能である。ウェアラブルデバイスなど少ない操作部材しか搭載できない機器にも本発明を適用可能である。さらに、空間ジェスチャーなどのユーザーの手(操作体)の動きなどを非接触で検知し、この動きに応じて例えばプロジェクタに表示されたインジケーターを移動させるものにも適用可能である。 The electronic device of the present invention is not limited to an electronic device equipped with an AF-ON button, as long as it is a device that detects the movement of an operating body (finger or pen) and moves an indicator (selected position). The invention is applicable. For example, the present invention is also used when the indicators such as the pointing cursor and the item selection cursor displayed on the display of the notebook PC are relatively moved in response to the slide operation by the finger (operation body) touching the touch pad of the notebook PC. Is applicable. Further, in the imaging device, when the indicator indicating the AF point selection position displayed in the optical viewfinder or the electronic viewfinder is moved in response to the slide operation by the touch operation of the finger (operation body) with respect to the touch panel type rear display. It is also applicable to. The present invention is not limited to the touch operation, and the present invention can also be applied to the case where the indicator is relatively moved in response to the operation of the joystick that tilts the member to indicate the direction, the rotary dial, or the like. The present invention can also be applied to devices such as wearable devices that can be equipped with a small number of operating members. Further, it can be applied to a device that detects a movement of a user's hand (operating body) such as a spatial gesture in a non-contact manner and moves an indicator displayed on a projector, for example, according to the movement.

なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 It should be noted that the above-mentioned various controls described as those performed by the system control unit 50 may be performed by one hardware, or a plurality of hardware (for example, a plurality of processors and circuits) share the processing to be a device. The whole control may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiment thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明を撮像装置に適用した場合を例にして説明したが、これはこの例に限定されず移動操作を検知可能な電子機器であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the image pickup apparatus has been described as an example, but this is not limited to this example, and any electronic device capable of detecting a moving operation can be applied. For example, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printer devices, digital photo frames, music players, game machines, electronic book readers, and the like. The present invention is also applicable to video players, display devices (including projection devices), tablet terminals, smartphones, AI speakers, home appliances, in-vehicle devices, and the like.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (16)

操作体の移動を伴う移動操作を検知する検知手段と、
画像から特定の被写体を検出する被写体検出手段と、
前記移動操作に応じて、画像上の選択位置を変更できるように制御する制御手段であって、
前記選択位置の指定モードが、前記被写体検出手段によって検出される前記特定の被写体にかかわらない第1の指定モードである場合は、前記検知手段で検知された移動操作に応じて、当該移動操作よる操作量の積算値が第1の閾値を超えなくても前記選択位置を変更し、
選択位置の指定モードが、前記被写体検出手段によって検出される被写体を選択する第2の指定モードである場合は、前記検知手段で検知された移動操作に応じて、当該移動操作による操作量の積算値が前記第1の閾値を超えると選択対象となる被写体を変更するように制御する制御手段と
を有することを特徴とする電子機器。
A detection means that detects a movement operation that involves the movement of the operating body,
Subject detection means that detects a specific subject from an image,
It is a control means for controlling so that the selected position on the image can be changed according to the movement operation.
When the designated mode of the selected position is the first designated mode not related to the specific subject detected by the subject detecting means, the moving operation is performed according to the moving operation detected by the detecting means. Even if the integrated value of the operation amount does not exceed the first threshold value, the selected position is changed.
When the selection mode of the selection position is the second designation mode for selecting the subject detected by the subject detection means, the operation amount by the movement operation is integrated according to the movement operation detected by the detection means. An electronic device comprising a control means for controlling so as to change a subject to be selected when the value exceeds the first threshold value.
前記検知手段は、前記操作体が操作面へタッチした状態で移動する操作を検知することを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, wherein the detection means detects an operation in which the operating body moves while touching the operation surface. 前記選択位置は、焦点調節位置であることを特徴とする請求項1または2に記載の電子機器。 The electronic device according to claim 1 or 2, wherein the selected position is a focus adjustment position. 前記特定の被写体は顔または瞳であることを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 3, wherein the specific subject is a face or eyes. 前記画像はライブビュー画像であることを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 4, wherein the image is a live view image. 前記制御手段は、前記第2の指定モードである場合は、1回の前記移動操作における操作量の1回以上の取得期間での積算値が前記第1の閾値を超えると、選択対象となる被写体を移動するように制御することを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。 In the case of the second designated mode, the control means becomes a selection target when the integrated value of the operation amount in one or more acquisition periods in the movement operation exceeds the first threshold value. The electronic device according to any one of claims 1 to 5, wherein the subject is controlled to move. 前記制御手段は、1回の前記移動操作における前記操作量の1回以上の取得期間での積算値が前記第1の閾値を超えると、前記第1の閾値を超えた時点を含む取得期間までの前記積算値のうち、前記閾値を超えた分の量にかかわらず、選択対象となる被写体を、変更前に選択されていた被写体から前記移動操作の方向側で最も近い被写体に変更するように制御することを特徴とする請求項6に記載の電子機器。 When the integrated value of the operation amount in one or more acquisition periods in one movement operation exceeds the first threshold value, the control means reaches the acquisition period including the time point when the first threshold value is exceeded. Of the integrated values of the above, regardless of the amount exceeding the threshold value, the subject to be selected is changed from the subject selected before the change to the subject closest to the moving operation direction side. The electronic device according to claim 6, wherein the electronic device is controlled. 前記検知手段は、前記電子機器の保持するためのグリップ部を持つ手の親指で操作可能な位置に配置されている操作部材の操作面に対する移動操作を検知することを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。 The detection means is characterized in that it detects a movement operation of an operation member arranged at a position that can be operated by the thumb of a hand having a grip portion for holding the electronic device with respect to the operation surface. The electronic device according to any one of 7. 前記電子機器は更に撮像手段を有し、前記画像は前記撮像手段で撮像される画像であることを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 7, wherein the electronic device further includes an image pickup means, and the image is an image captured by the image pickup means. 前記撮像手段での撮影の指示を行うシャッターボタンと、操作部材とを更に有し、
前記検知手段は、前記操作部材の操作面に対する前記移動操作を検知し、
前記操作部材は、右手の人差し指で前記シャッターボタンを押下可能な状態で前記電子機器を当該右手で保持した場合に、当該右手の親指で前記操作面に対して前記移動操作が可能な位置に配置されていることを特徴とする請求項9に記載の電子機器。
It further has a shutter button for instructing shooting by the imaging means and an operating member.
The detection means detects the movement operation with respect to the operation surface of the operation member, and
The operating member is arranged at a position where the moving operation can be performed with respect to the operating surface with the thumb of the right hand when the electronic device is held by the right hand in a state where the shutter button can be pressed with the index finger of the right hand. The electronic device according to claim 9, wherein the electronic device is provided.
前記操作部材は、前記移動操作とは異なる押し込み操作も可能な操作部材であることを特徴とする請求項8または10に記載の電子機器。 The electronic device according to claim 8 or 10, wherein the operating member is an operating member capable of a pushing operation different from the moving operation. 選択位置の指定モードが、前記被写体検出手段によって検出される被写体を選択する第2の指定モードである場合、前記制御手段は、
前記検知手段で検知されたた前記移動操作による操作量の積算値が前記第1の閾値を超えると、前記被写体検出手段で検出された被写体と関係のない位置を経由することなく、表示手段に表示された選択対象を示すインジケーターを移動するように制御することを特徴とする請求項1乃至11のいずれか1項に記載の電子機器
When the selection mode of the selection position is the second designation mode for selecting the subject detected by the subject detection means, the control means
When the integrated value of the operation amount by the movement operation detected by the detection means exceeds the first threshold value, the display means is displayed without passing through a position unrelated to the subject detected by the subject detection means. The electronic device according to any one of claims 1 to 11, wherein an indicator indicating a displayed selection target is controlled to move.
選択位置の指定モードが、前記被写体検出手段によって検出される被写体を選択する第2の指定モードである場合、前記制御手段は、
前記検知手段で検知された前記移動操作の速度が所定速度より速い場合には、前記移動操作による操作量の積算値が前記第1の閾値を超えると選択対象となる被写体を変更し、
前記検知手段で検知された前記移動操作の速度が前記所定速度より遅い場合には、前記移動操作による操作量の積算値が前記第1の閾値よりも大きい第2の閾値を超えると選択対象となる被写体を変更するように制御することを特徴とする請求項1乃至12のいずれか1項に記載の電子機器。
When the selection mode of the selection position is the second designation mode for selecting the subject detected by the subject detection means, the control means
When the speed of the movement operation detected by the detection means is faster than the predetermined speed, the subject to be selected is changed when the integrated value of the operation amount by the movement operation exceeds the first threshold value.
When the speed of the movement operation detected by the detection means is slower than the predetermined speed, if the integrated value of the operation amount by the movement operation exceeds the second threshold value larger than the first threshold value, the selection target is selected. The electronic device according to any one of claims 1 to 12, wherein the electronic device is controlled so as to change the subject.
操作体の移動を伴う移動操作を検知する検知ステップと、
画像から特定の被写体を検出する被写体検出ステップと、
前記移動操作に応じて、画像上の選択位置を変更できるように制御する制御ステップであって、
前記選択位置の指定モードが、前記被写体検出ステップによって検出される前記特定の被写体にかかわらない第1の指定モードである場合は、前記検知ステップで検知された移動操作に応じて、当該移動操作よる操作量の積算値が第1の閾値を超えなくても前記選択位置を変更し、
選択位置の指定モードが、前記被写体検出ステップによって検出される被写体を選択する第2の指定モードである場合は、前記検知ステップで検知された移動操作に応じて、当該移動操作による操作量の積算値が前記第1の閾値を超えると選択対象となる被写体を変更するように制御する制御ステップと
を有することを特徴とする電子機器の制御方法。
A detection step that detects a movement operation that involves the movement of the operating body,
A subject detection step that detects a specific subject from an image,
It is a control step that controls so that the selected position on the image can be changed according to the movement operation.
When the designated mode of the selected position is the first designated mode not related to the specific subject detected by the subject detection step, the movement operation is performed according to the movement operation detected in the detection step. Even if the integrated value of the operation amount does not exceed the first threshold value, the selected position is changed.
When the selection mode of the selection position is the second designation mode for selecting the subject detected by the subject detection step, the operation amount of the movement operation is integrated according to the movement operation detected in the detection step. A method for controlling an electronic device, which comprises a control step for controlling the subject to be selected when the value exceeds the first threshold value.
コンピュータを、請求項1乃至13のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 13. コンピュータを、請求項1乃至13のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
A computer-readable recording medium containing a program for causing the computer to function as each means of the electronic device according to any one of claims 1 to 13.
JP2019085966A 2019-04-26 2019-04-26 Electronic device and its control method Active JP7277247B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019085966A JP7277247B2 (en) 2019-04-26 2019-04-26 Electronic device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085966A JP7277247B2 (en) 2019-04-26 2019-04-26 Electronic device and its control method

Publications (2)

Publication Number Publication Date
JP2020181512A true JP2020181512A (en) 2020-11-05
JP7277247B2 JP7277247B2 (en) 2023-05-18

Family

ID=73024236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085966A Active JP7277247B2 (en) 2019-04-26 2019-04-26 Electronic device and its control method

Country Status (1)

Country Link
JP (1) JP7277247B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251682A (en) * 2005-03-14 2006-09-21 Fujinon Corp Automatic focusing system
JP2011034467A (en) * 2009-08-05 2011-02-17 Hitachi Ltd Operation device of cursor
JP2012079344A (en) * 2012-01-11 2012-04-19 Hitachi Ltd Information processor
WO2015029632A1 (en) * 2013-09-02 2015-03-05 ソニー株式会社 Information processing device, information processing method, and program
JP2019016906A (en) * 2017-07-06 2019-01-31 キヤノン株式会社 Electronic equipment and control method therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251682A (en) * 2005-03-14 2006-09-21 Fujinon Corp Automatic focusing system
JP2011034467A (en) * 2009-08-05 2011-02-17 Hitachi Ltd Operation device of cursor
JP2012079344A (en) * 2012-01-11 2012-04-19 Hitachi Ltd Information processor
WO2015029632A1 (en) * 2013-09-02 2015-03-05 ソニー株式会社 Information processing device, information processing method, and program
JP2019016906A (en) * 2017-07-06 2019-01-31 キヤノン株式会社 Electronic equipment and control method therefor

Also Published As

Publication number Publication date
JP7277247B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
CN112653838B (en) Display control apparatus, control method thereof, and storage medium
US11233941B2 (en) Electronic device that receives line of sight input, method of controlling electronic device, and non-transitory computer readable medium
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
US11412140B2 (en) Electronic device, control method of electronic device, and non-transitory computer-readable storage medium
US11252322B2 (en) Electronic device capable of performing control in accordance with a movement operation of an operating body and control method thereof
RU2754988C1 (en) Electronic device, control method and computer-readable medium
US11175737B2 (en) Electronic device for receiving line of sight input, method of controlling electronic device, and non-transitory computer readable medium
JP7327988B2 (en) Electronic device and its control method
US20210173527A1 (en) Electronic apparatus executing processing based on move operation
US11269499B2 (en) Electronic apparatus and control method for fine item movement adjustment
US11526264B2 (en) Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium
US11689807B2 (en) Image capture apparatus, method for controlling the same, and storage medium for improving an operation of moving a focal point detection region
US11245835B2 (en) Electronic device
JP2019022116A (en) Imaging apparatus, control method thereof, program, and storage medium
JP2021012619A (en) Electronic apparatus and method for controlling the same
JP7277247B2 (en) Electronic device and its control method
JP7317567B2 (en) Electronics
JP6708516B2 (en) Electronic device, control method thereof, and program
JP6393296B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, IMAGING CONTROL DEVICE, PROGRAM, AND STORAGE MEDIUM
US20230283897A1 (en) Image capture apparatus, method for controlling the same, and storage medium for improving an operation of moving a focal point detection region
JP2021085979A (en) Electronic apparatus and control method thereof, program, and storage medium
JP2021061531A (en) Imaging control device and control method thereof, program, and storage medium
JP2021068168A (en) Electronic apparatus, control method of electronic apparatus, program, and storage medium
JP2021152744A (en) Electronic device and control method thereof
JP2021012258A (en) Imaging apparatus and method for controlling the same, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7277247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151