JP7317567B2 - Electronics - Google Patents

Electronics Download PDF

Info

Publication number
JP7317567B2
JP7317567B2 JP2019085716A JP2019085716A JP7317567B2 JP 7317567 B2 JP7317567 B2 JP 7317567B2 JP 2019085716 A JP2019085716 A JP 2019085716A JP 2019085716 A JP2019085716 A JP 2019085716A JP 7317567 B2 JP7317567 B2 JP 7317567B2
Authority
JP
Japan
Prior art keywords
movement
electronic device
mode
integrated value
button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019085716A
Other languages
Japanese (ja)
Other versions
JP2020181492A (en
Inventor
大和 出岡
達哉 江平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019085716A priority Critical patent/JP7317567B2/en
Priority to US16/858,402 priority patent/US11252322B2/en
Publication of JP2020181492A publication Critical patent/JP2020181492A/en
Application granted granted Critical
Publication of JP7317567B2 publication Critical patent/JP7317567B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は電子機器に関し、特に操作体の移動を伴う移動操作に応じた制御の方法に関する。 The present invention relates to an electronic device, and more particularly to a control method according to a movement operation involving movement of an operating body.

指の接触を検知するタッチ操作部材を搭載した電子機器が存在する。そのような電子機器は、タッチ操作部材に対するタッチ操作に応じて、オブジェクトの選択や移動を制御する。特許文献1には、操作量(タッチ操作部材上での指の移動距離)が閾値以上のタッチ位置の移動操作があるとスクロール表示を開始する技術が開示されている。 There are electronic devices equipped with a touch operation member that detects finger contact. Such an electronic device controls selection and movement of an object according to a touch operation on a touch operation member. Japanese Patent Application Laid-Open No. 2004-200003 discloses a technique for starting scroll display when a touch position movement operation is performed with an operation amount (a finger moving distance on a touch operation member) equal to or greater than a threshold value.

特許2827612号公報Japanese Patent No. 2827612

ここで、ユーザーの好みや状況などによって、指をゆっくり移動させ選択位置を少しずつ正確に移動させたい場合や、指を素早く移動させ選択位置を素早く移動させたい場合などある。指をゆっくり移動させ選択位置を少しずつ正確に移動させたい場合に、指の移動に対する選択位置の移動の応答性が高いと、少ない指の移動距離で選択位置の移動が起こってしまい、ユーザーが意図する通りの細かな調整がやりにくい。一方、指を素早く移動させ選択位置を素早く移動させたい場合に、指の移動に対する選択位置の移動の応答性が低いと煩わしい。しかしながら、特許文献1に開示の技術では、上述の双方の場合の要求を満たすことについて考慮されておらず、また、指の移動に応じた選択位置の移動の開始までの、指の移動速度別の好適な応答性について考慮されていない。 Here, depending on the user's preference and circumstances, there are cases where it is desired to move the finger slowly to accurately move the selected position little by little, and there are cases where it is desired to move the finger quickly to quickly move the selected position. If you want to move the finger slowly and accurately move the selected position little by little, if the responsiveness of the movement of the selected position to the movement of the finger is high, the selected position will move with a short finger movement distance, and the user will not be able to move. It is difficult to make fine adjustments as intended. On the other hand, when it is desired to quickly move the finger to quickly move the selection position, it is troublesome if the responsiveness of the movement of the selection position to the movement of the finger is low. However, the technology disclosed in Patent Document 1 does not take into consideration the requirements for both of the above cases, and furthermore, there is no need to consider how to satisfy the requirements in both of the above cases. No consideration is given to the preferred responsiveness of

そこで本発明は、移動操作に応じた制御を、移動操作の操作速度に応じて好適に行うことのできる電子機器を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an electronic device that can appropriately perform control according to a movement operation according to the operation speed of the movement operation.

本発明の電子機器は、操作体の移動を伴う移動操作を検知する検知手段と、前記検知手段で検知された移動操作に応じて、当該移動操作移動量の積算値に基づいて、選択位置を移動するように制御する制御手段とを有し前記制御手段は、第1のモードにおいて前記検知手段により移動操作を検知した場合は、前記移動操作の操作速度が所定の速度よりも速い場合には前記積算値が第1の閾値を超えると前記選択位置を移動し、前記移動操作の操作速度が前記所定の速度よりも遅い場合には、前記積算値が前記第1の閾値を超えても第2の閾値を超えなければ前記選択位置を移動せず、前記積算値が前記第2の閾値を超えると前記選択位置を移動するように制御し、前記第1のモードよりも選択位置の候補が少ない第2のモードにおいて前記検知手段により移動操作を検知した場合は、前記移動操作の操作速度に関わらず、前記積算値が第3の閾値を超えたことに応じて前記選択位置を移動するように制御ることを特徴とする。 The electronic device of the present invention includes detection means for detecting a movement operation involving movement of an operating object, and in response to the movement operation detected by the detection means, a selection position is detected based on an integrated value of the amount of movement of the movement operation. and a control means for controlling the movement of the moving operation when the moving operation is detected by the detecting means in the first mode, when the operation speed of the moving operation is faster than a predetermined speed the selected position is moved when the integrated value exceeds the first threshold, and when the operation speed of the movement operation is slower than the predetermined speed, the integrated value exceeds the first threshold does not move the selected position unless the cumulative value exceeds the second threshold, and the selected position is controlled to move when the integrated value exceeds the second threshold. When the moving operation is detected by the detecting means in the second mode in which there are few candidates, the selected position is moved according to the integrated value exceeding the third threshold regardless of the operation speed of the moving operation. It is characterized by controlling to do .

本発明によれば、移動操作の操作速度を考慮して移動操作に応じた好適な制御を行うことができるようになる。 ADVANTAGE OF THE INVENTION According to this invention, the operation speed of a movement operation can be considered and suitable control according to movement operation can be performed now.

本実施形態に係るカメラの外観図である。1 is an external view of a camera according to this embodiment; FIG. 本実施形態に係るカメラの構成例を示すブロック図である。It is a block diagram showing a configuration example of a camera according to the present embodiment. 本実施形態に係るAF-ONボタンの構造を表す図である。4 is a diagram showing the structure of an AF-ON button according to the embodiment; FIG. 本実施形態に係る測距点を示す図である。FIG. 3 is a diagram showing distance measuring points according to the embodiment; 本実施形態に係る測距ゾーンを示す図である。FIG. 4 is a diagram showing ranging zones according to the embodiment; 本実施形態に係るAF枠の移動を示す図である。4A and 4B are diagrams showing movement of an AF frame according to the embodiment; FIG. 本実施形態に係るスライド応答処理のフローチャートである。6 is a flowchart of slide response processing according to the embodiment; 本実施形態に係る移動判定処理のフローチャートである。6 is a flowchart of movement determination processing according to the embodiment; 本実施形態に係るカメラの動作例を示す図である。It is a figure which shows the operation example of the camera which concerns on this embodiment. 本実施形態に係る選択位置移動処理のフローチャートである。6 is a flowchart of selection position movement processing according to the embodiment; 本実施形態に係るAF-ONボタンのスライド操作を示す図である。FIG. 5 is a diagram showing a slide operation of an AF-ON button according to the embodiment;

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1(a)、図1(b)は、本発明を適用可能な撮像装置(電子機器である)の一例としての一眼レフカメラ(以降、カメラと称する)100本体の外観図である。具体的には、図1(a)はカメラ100を第1面(前面)側から見た図であり、撮影レンズユニットを外した状態を示す。図1(b)は、カメラ100を第2面(背面)側から見た図である。第1面はカメラ前面であり、被写体側の面(撮像方向側の面)である。第2面はカメラの背面であって、第1の面の裏側(反対側)の面であり、ファインダー16を覗く撮影者側の面である。 Preferred embodiments of the present invention are described in detail below with reference to the accompanying drawings. 1A and 1B are external views of a single-lens reflex camera (hereinafter referred to as camera) 100 as an example of an imaging device (electronic device) to which the present invention can be applied. Specifically, FIG. 1A is a view of the camera 100 viewed from the first surface (front) side, and shows a state in which the photographing lens unit is removed. FIG. 1B is a view of the camera 100 viewed from the second surface (back surface) side. The first surface is the front surface of the camera, and is the surface on the subject side (the surface on the imaging direction side). The second surface is the back surface of the camera, which is the back side (opposite side) of the first surface, and is the surface on the side of the photographer looking through the finder 16 .

図1(a)に示すように、カメラ100には、横持ちでの撮影時にカメラ100を使用するユーザーがカメラ100を安定して握り、操作できるよう、前方に突出した第1グリップ部101が設けられている。またカメラ100には、縦持ちでの撮影時にカメラ100を使用するユーザーがカメラ100を安定して握り、操作できるよう、前方に突出した第2グリップ部102が設けられている。第1グリップ部101は、カメラ100の前面の第1の辺(図1(a)の左右にある2つの縦辺のうち左側の辺)に沿っており、第2グリップ部102は、前面のうち第1の辺と隣り合う第2の辺(図1(a)の上下にある2つの横辺のうち下側の辺)に沿っている。シャッターボタン103,105は、撮影指示を行うための操作部材である。メイン電子ダイヤル104,106は回転操作部材であり、メイン電子ダイヤル104,106を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。シャッターボタン103,105、及びメイン電子ダイヤル104,106は、操作部70に含まれる。シャッターボタン103とメイン電子ダイヤル104は横持ち撮影用、シャッターボタン105とメイン電子ダイヤル106は縦持ち撮影用として主に使用することができる。 As shown in FIG. 1A, the camera 100 has a first grip portion 101 that protrudes forward so that a user who uses the camera 100 can stably grip and operate the camera 100 when shooting horizontally. is provided. In addition, the camera 100 is provided with a second grip portion 102 protruding forward so that a user who uses the camera 100 can stably grip and operate the camera 100 when photographing while holding the camera 100 vertically. The first grip portion 101 is along the first side of the front surface of the camera 100 (the left side of the two vertical sides on the left and right sides in FIG. 1A), and the second grip portion 102 is along the front side. It is along the second side (the lower side of the two horizontal sides above and below in FIG. 1A) adjacent to the first side. Shutter buttons 103 and 105 are operation members for instructing shooting. Main electronic dials 104 and 106 are rotary operation members, and by turning the main electronic dials 104 and 106, setting values such as shutter speed and aperture can be changed. The shutter buttons 103 and 105 and the main electronic dials 104 and 106 are included in the operating section 70 . The shutter button 103 and the main electronic dial 104 can be mainly used for horizontally holding shooting, and the shutter button 105 and main electronic dial 106 can be mainly used for vertically holding shooting.

図1(b)において、表示部28は画像や各種情報を表示する。表示部28はタッチ操作を受付け可能(タッチ検出可能)なタッチパネル70aと重畳、もしくは一体となって設けられる。AF-ONボタン1,2は、焦点調節位置を設定したり、AFを開始したりするための操作部材であり、操作部70に含まれる。本実施形態では、AF-ONボタン1,2は、タッチ操作や押し込み操作を受け付けることが可能なタッチ操作部材(本実施形態では、赤外線式センサー)である。このような光学式の操作部材を、光学トラッキングポインター(OTP)と称するものとする。ユーザーは、横持ちで(カメラ100を横位置で構えた状態で)、ファインダー16を覗いたまま、AF-ONボタン1に対して、第1グリップ部101を握った右手の親指で、タッチ操作や、任意の2次元方向へのスライド操作を行うことができる。また、ユーザーは、縦持ちで、ファインダー16を覗いたまま、AF-ONボタン2に対して、第2グリップ部102を握った右手の親指で、タッチ操作や、任意の2次元方向へのスライド操作を行うことができる。縦持ちとは、カメラ100を横位置と90度異なる縦位置で構えた状態である。カメラ100を操作するユーザーは、AF-ONボタン1、またはAF-ONボタン2へのスライド操作で、表示部28に表示された測距点枠(AFに用いるAF枠の位置、焦点調節位置、焦点検出位置)を移動させることができる。また、ユーザーは、AF-ONボタン1、またはAF-ONボ
タン2への押し込み操作で、測距点枠の位置に基づくAFを即座に開始させることができる。AF-ONボタン1は横持ち撮影用、AF-ONボタン2は縦持ち撮影用として主に使用することができる。
In FIG. 1B, the display unit 28 displays images and various information. The display unit 28 is superimposed on or integrated with a touch panel 70a capable of receiving touch operations (touch detection is possible). AF-ON buttons 1 and 2 are operation members for setting a focus adjustment position and starting AF, and are included in the operation unit 70 . In this embodiment, the AF-ON buttons 1 and 2 are touch operation members (infrared sensors in this embodiment) capable of receiving touch operations and push operations. Such an optical operating member shall be referred to as an optical tracking pointer (OTP). While holding the camera 100 horizontally (holding the camera 100 horizontally) and looking through the viewfinder 16, the user touches the AF-ON button 1 with the thumb of the right hand holding the first grip portion 101. Alternatively, a sliding operation in any two-dimensional direction can be performed. In addition, while holding the camera vertically and looking through the viewfinder 16, the user can touch the AF-ON button 2 with the thumb of the right hand holding the second grip portion 102 or slide in any two-dimensional direction. operation can be performed. Holding vertically means holding the camera 100 in a vertical position that is 90 degrees different from the horizontal position. A user operating the camera 100 slides the AF-ON button 1 or the AF-ON button 2 to display the range-finding point frame (position of the AF frame used for AF, focus adjustment position, focus detection position) can be moved. Also, the user can immediately start AF based on the position of the focus detection point frame by pressing the AF-ON button 1 or AF-ON button 2 . The AF-ON button 1 can be mainly used for horizontally held shooting, and the AF-ON button 2 can be mainly used for vertically held shooting.

AF-ONボタン1,2の配置について説明する。図1(b)に示すように、AF-ONボタン1,2はカメラ100の背面に配置されている。そして、AF-ONボタン2は、カメラ100の背面のうち、他の頂点よりも、第1グリップ部101に沿った辺(第1の辺)と第2グリップ部102に沿った辺(第2の辺)との成す頂点に近い位置に配置されている。また、AF-ONボタン2のほうが、AF-ONボタン1よりも、第1グリップ部101に沿った辺と第2グリップ部102に沿った辺との成す上記頂点に近い位置に配置されている。カメラ100の背面のうち第1グリップ部101に沿った辺(第1の辺)とは、図1(b)における左右にある2つの縦辺のうち右側の辺である。カメラ100の背面のうち第2グリップ部102に沿った辺(第2の辺)とは、図1(b)における上下にある2つの横辺のうち下側の辺である。ここで、上述した頂点は、カメラ100の背面を多角形とみなした場合の当該多角形の頂点(仮想的な頂点)である。カメラ100の背面が完全な多角形であれば、上述した頂点は、当該多角形の頂点(カメラ100の実際の頂点)であってもよい。第1の辺は、図1(b)における左右方向の右側の辺(縦辺)であり、第2の辺は図1(b)における上下方向の下側の辺(横辺)であり、第1の辺と第2の辺との成す上述の頂点は、図1(b)における右下の頂点である。さらに、AF-ONボタン2は、第1グリップ部101に沿った辺(第1の辺)のうち、AF-ONボタン1がある側の端部(すなわち上端部)よりも、反対側の端部(下端部)に近い位置に配置されている。また、上述したシャッターボタン103は、第1グリップ部101を握った右手の人差し指で操作可能(押下可能)な位置に配置されており、シャッターボタン105は、第2グリップ部102を握った右手の人差し指で操作可能な位置に配置されている。そして、AF-ONボタン1のほうが、AF-ONボタン2よりも、シャッターボタン103に近い位置に配置されており、AF-ONボタン2のほうが、AF-ONボタン1よりも、シャッターボタン105に近い位置に配置されている。 The arrangement of AF-ON buttons 1 and 2 will be described. As shown in FIG. 1(b), the AF-ON buttons 1 and 2 are arranged on the rear surface of the camera 100. As shown in FIG. Then, the AF-ON button 2 is positioned closer to the side (first side) along the first grip portion 101 and the side (second ) is located near the vertex formed by Further, the AF-ON button 2 is arranged at a position closer to the vertex formed by the side along the first grip portion 101 and the side along the second grip portion 102 than the AF-ON button 1. . The side (first side) along the first grip portion 101 on the back surface of the camera 100 is the right side of the two vertical sides on the left and right in FIG. 1B. The side (second side) along the second grip portion 102 on the back surface of the camera 100 is the lower side of the two upper and lower horizontal sides in FIG. 1B. Here, the vertices described above are vertices (virtual vertices) of a polygon when the back surface of the camera 100 is regarded as a polygon. If the back surface of camera 100 is a complete polygon, the vertices mentioned above may be the vertices of the polygon (actual vertices of camera 100). The first side is the right side (vertical side) in the horizontal direction in FIG. 1(b), the second side is the lower side (horizontal side) in the vertical direction in FIG. 1(b), The vertex formed by the first side and the second side is the lower right vertex in FIG. 1(b). Further, the AF-ON button 2 is located at the opposite end of the side (first side) along the first grip portion 101 from the end on the side where the AF-ON button 1 is located (that is, the upper end). (lower end). Further, the shutter button 103 described above is arranged at a position where it can be operated (depressed) by the index finger of the right hand holding the first grip portion 101, and the shutter button 105 is arranged at a position where it can be operated (depressed) by the index finger of the right hand holding the second grip portion 102. It is positioned so that it can be operated with the index finger. The AF-ON button 1 is arranged closer to the shutter button 103 than the AF-ON button 2, and the AF-ON button 2 is closer to the shutter button 105 than the AF-ON button 1. placed in close proximity.

なお、AF-ONボタン1,2は、タッチパネル70aとは異なる操作部材であり、表示機能は備えていない。また、後述する例では、AF-ONボタン1、2への操作で選択された測距位置を示すインジケーター(AF枠)を移動させる例を説明するが、AF-ONボタン1,2への操作に応じて実行される機能は特に限定されない。例えば、表示部28に表示され、かつ移動させることができるものであれば、AF-ONボタン1,2へのスライド操作で移動させるインジケーターはいかなるものでもよい。例えば、マウスカーソルのような、ポインティングカーソルであってもよいし、複数の選択肢(メニュー画面に表示された複数の項目など)のうち選択された選択肢を示すカーソルであってもよい。AF-ONボタン1へのスライド操作と、AF-ONボタン2へのスライド操作とで異なるインジケーターが移動してもよい。AF-ONボタン1,2への押し込み操作で実行される機能は、AF-ONボタン1,2へのスライド操作で実行される機能に関する他の機能であってもよい。 Note that the AF-ON buttons 1 and 2 are operation members different from the touch panel 70a, and do not have a display function. In the example described later, an example will be described in which the indicator (AF frame) indicating the distance measurement position selected by operating the AF-ON buttons 1 and 2 is moved. The function executed according to is not particularly limited. For example, any indicator that can be moved by sliding the AF-ON buttons 1 and 2 can be used as long as it can be displayed on the display unit 28 and moved. For example, it may be a pointing cursor such as a mouse cursor, or may be a cursor that indicates a selected option among multiple options (such as multiple items displayed on a menu screen). Different indicators may move depending on whether the AF-ON button 1 is slid or the AF-ON button 2 is slid. The functions executed by pressing the AF-ON buttons 1 and 2 may be other functions related to the functions executed by sliding the AF-ON buttons 1 and 2 .

モード切り替えスイッチ60は、各種モードを切り替えるための操作部材である。電源スイッチ72は、カメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は選択枠の移動や画像送りなどを行う回転操作部材である。8方向キー74a,74bは、上、下、左、右、左上、左下、右上、右下方向にそれぞれ押し倒し可能な操作部材であり、8方向キー74a,74bの押し倒された方向に応じた処理が可能である。8方向キー74aは横持ち撮影用、8方向キー74bは縦持ち撮影用として主に使用することができる。SETボタン75は、主に選択項目の決定などに用いられる操作部材である。静止画/動画切り替えスイッチ77は、静止画撮影モードと動画撮影モードを切り替える操作部材である。LVボタン78は、ライブビュー(以下、LV)のONと
OFFを切り替える操作部材である。LVがONとなると後述するミラー12が光軸から退避した退避位置に移動(ミラーアップ)して被写体光が後述する撮像部22に導かれ、LV画像の撮像が行われるLVモードとなる。LVモードでは、LV画像で被写体像を確認できる。LVがOFFとなるとミラー12が光軸上に移動(ミラーダウン)して被写体光が反射され、被写体光がファインダー16に導かれ、被写体の光学像(光学の被写体像)がファインダー16から視認可能なOVFモードとなる。再生ボタン79は、撮影モード(撮影画面)と再生モード(再生画面)とを切り替える操作部材である。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200(図2で後述する)に記録された画像のうち最新の画像を表示部28に表示させることができる。Qボタン76はクイック設定をするための操作部材であり、撮影画面においてQボタン76を押下すると設定値の一覧として表示されていた設定項目を選択可能になり、さらに設定項目を選択すると各設定項目の設定画面へと遷移することができるようになる。モード切り替えスイッチ60、電源スイッチ72、サブ電子ダイヤル73、8方向キー74a,74b、SETボタン75、Qボタン76、静止画/動画切り替えスイッチ77、LVボタン78、再生ボタン79は、操作部70に含まれる。メニューボタン81は、操作部70に含まれ、カメラ100の各種設定を行うための操作部材である。メニューボタン81が押されると各種の設定可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、サブ電子ダイヤル73、8方向キー74a,74b、SETボタン75、メイン電子ダイヤル104,106を用いて直感的に各種設定を行うことができる。ファインダー16はレンズユニットを通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型(接眼式)のファインダーである。INFOボタン82は操作部70に含まれ、カメラ100の各種情報を表示部28に表示することができる。
The mode switching switch 60 is an operating member for switching between various modes. The power switch 72 is an operation member that switches the power of the camera 100 between ON and OFF. A sub-electronic dial 73 is a rotary operation member for moving a selection frame, feeding an image, and the like. The eight direction keys 74a and 74b are operation members that can be pushed down in the upward, downward, left, right, upper left, lower left, upper right, and lower right directions, respectively, and processing is performed according to the direction in which the eight direction keys 74a and 74b are pushed down. is possible. The 8-way key 74a can be mainly used for horizontally held shooting, and the 8-way key 74b can be mainly used for vertically held shooting. The SET button 75 is an operating member mainly used for determining selection items. A still image/moving image switching switch 77 is an operation member for switching between a still image shooting mode and a moving image shooting mode. The LV button 78 is an operation member for switching between ON and OFF of live view (hereinafter referred to as LV). When the LV is turned on, the mirror 12, which will be described later, moves to a retracted position (mirror-up) retracted from the optical axis, subject light is guided to the imaging unit 22, which will be described later, and an LV mode is entered in which an LV image is captured. In the LV mode, the subject image can be confirmed with the LV image. When the LV is turned off, the mirror 12 moves along the optical axis (mirror down), subject light is reflected, the subject light is guided to the finder 16, and an optical image of the subject (optical subject image) can be visually recognized from the finder 16. OVF mode. The playback button 79 is an operation member for switching between a shooting mode (shooting screen) and a playback mode (playback screen). By pressing the playback button 79 in the imaging mode, the mode is shifted to the playback mode, and the latest image among the images recorded in the recording medium 200 (described later in FIG. 2) can be displayed on the display unit 28. The Q button 76 is an operation member for quick setting. When the Q button 76 is pressed on the shooting screen, setting items displayed as a list of setting values can be selected. You will be able to transition to the setting screen of A mode switch 60, a power switch 72, a sub-electronic dial 73, eight direction keys 74a and 74b, a SET button 75, a Q button 76, a still image/moving image switch 77, an LV button 78, and a playback button 79 are provided on the operation unit 70. included. A menu button 81 is included in the operation unit 70 and is an operation member for performing various settings of the camera 100 . When the menu button 81 is pressed, a menu screen on which various settings can be made is displayed on the display unit 28 . The user can intuitively perform various settings using the menu screen displayed on the display unit 28, the sub electronic dial 73, the eight direction keys 74a and 74b, the SET button 75, and the main electronic dials 104 and . A finder 16 is a looking-in type (eyepiece type) finder for confirming the focus and composition of an optical image of a subject obtained through the lens unit. An INFO button 82 is included in the operation unit 70 and can display various information of the camera 100 on the display unit 28 .

図2は、カメラ100の構成例を示すブロック図である。 FIG. 2 is a block diagram showing a configuration example of the camera 100. As shown in FIG.

レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ155は通常、フォーカスレンズ群、ズームレンズ群などの複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がカメラ100側と通信を行うための通信端子であり、通信端子10はカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路154によって、絞り駆動回路152を介して絞り151の制御を行い、AF駆動回路153を介してレンズ155の位置を変位させることで焦点を合わせる。レンズユニット150を装着可能な装着部を介してレンズユニット150は表示部28のある本体側に装着される。レンズユニット150として単焦点レンズやズームレンズなどの様々な種類のものを装着することができる。 A lens unit 150 is a lens unit that mounts an interchangeable photographing lens. The lens 155 is normally composed of a plurality of lenses such as a focus lens group and a zoom lens group, but only one lens is shown in FIG. 2 for the sake of simplicity. A communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the camera 100 side, and a communication terminal 10 is a communication terminal for the camera 100 to communicate with the lens unit 150 side. The lens unit 150 communicates with the system control section 50 via these communication terminals 6 and 10 . The lens unit 150 controls the diaphragm 151 via the diaphragm driving circuit 152 by the internal lens system control circuit 154 and displaces the position of the lens 155 via the AF driving circuit 153 to focus. The lens unit 150 is mounted on the main body side where the display section 28 is located via a mounting section to which the lens unit 150 can be mounted. As the lens unit 150, various types of lenses such as a single focus lens and a zoom lens can be attached.

AEセンサー17は、レンズユニット150、クイックリターンミラー12を通ってフォーカシングスクリーン13上に結像した被写体(被写体光)の輝度を測光する。 The AE sensor 17 measures the luminance of an object (object light) formed on the focusing screen 13 through the lens unit 150 and the quick return mirror 12 .

焦点検出部11は、クイックリターンミラー12を介して入射する像(被写体光)を撮像し、システム制御部50にデフォーカス量情報を出力する位相差検出方式のAFセンサーである。システム制御部50はデフォーカス量情報に基づいてレンズユニット150を制御し、位相差AFを行う。AFの方法は、位相差AFでなくてもよく、コントラストAFでもよい。また、位相差AFは、焦点検出部11を用いずに、撮像部22の撮像面で検出されたデフォーカス量に基づいて行ってもよい(撮像面位相差AF)。 The focus detection unit 11 is a phase difference detection AF sensor that captures an image (object light) incident through the quick return mirror 12 and outputs defocus amount information to the system control unit 50 . The system control unit 50 controls the lens unit 150 based on the defocus amount information to perform phase difference AF. The AF method may be contrast AF instead of phase difference AF. Phase difference AF may be performed based on the defocus amount detected on the imaging surface of the imaging unit 22 without using the focus detection unit 11 (imaging surface phase difference AF).

クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ155から入射した光束をファインダー16側と撮像
部22側とに切り替えるためのミラーである。ミラー12は通常時はファインダー16へと光束を導く(反射させる)ように配されているが(ミラーダウン)、撮影やライブビュー表示が行われる場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。
The quick return mirror 12 (hereinafter referred to as mirror 12) is moved up and down by an actuator (not shown) according to an instruction from the system control unit 50 during exposure, live view shooting, and video shooting. The mirror 12 is a mirror for switching the luminous flux incident from the lens 155 between the finder 16 side and the imaging section 22 side. The mirror 12 is arranged so as to guide (reflect) the light flux to the viewfinder 16 in normal times (mirror down), but when shooting or live view display is performed, the mirror 12 is arranged to guide the light flux to the imaging unit 22. , and retreats from the luminous flux (mirror up). Further, the mirror 12 has a half-mirror at its central portion so that part of the light beam can be transmitted therethrough so that part of the light beam is incident on the focus detection unit 11 for focus detection.

ユーザーは、ペンタプリズム14とファインダー16を介して、フォーカシングスクリーン13上に結像した像を観察することで、レンズユニット150を通して得た被写体の光学像の焦点状態や構図の確認が可能となる。 By observing the image formed on the focusing screen 13 through the pentaprism 14 and the finder 16, the user can confirm the focus state and composition of the optical image of the subject obtained through the lens unit 150.

フォーカルプレーンシャッター21(シャッター21)は、システム制御部50の制御で撮像部22の露光時間を制御するためのものである。 The focal plane shutter 21 (shutter 21 ) is for controlling the exposure time of the imaging section 22 under the control of the system control section 50 .

撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(撮像センサー)である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。 The imaging unit 22 is an imaging device (imaging sensor) composed of a CCD, a CMOS device, or the like that converts an optical image into an electrical signal. The A/D converter 23 is used to convert the analog signal output from the imaging section 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理や色変換処理)を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行われる。 The image processing unit 24 performs predetermined processing (resize processing such as pixel interpolation and reduction, and color conversion processing) on data from the A/D converter 23 or data from the memory control unit 15 . Further, the image processing unit 24 performs predetermined arithmetic processing using captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained arithmetic results. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing are performed. The image processing unit 24 further performs predetermined arithmetic processing using the captured image data, and TTL AWB (Auto White Balance) processing is also performed based on the obtained arithmetic results.

メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。メモリ32は、メモリカードなどの着脱可能な記録媒体であっても、内蔵メモリであってもよい。 The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A/D converter 23 and image data to be displayed on the display unit 28 . The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined period of time, and audio. The memory 32 may be a removable recording medium such as a memory card, or may be a built-in memory.

表示部28は画像を表示するための背面モニタであり、図1(b)に示すようにカメラ100の背面に設けられている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。表示部28は、画像を表示するディスプレイであれば、液晶方式のディスプレイであっても、有機ELなど他の方式のディスプレイであってもよい。 The display unit 28 is a rear monitor for displaying images, and is provided on the rear surface of the camera 100 as shown in FIG. 1(b). The D/A converter 19 converts image display data stored in the memory 32 into an analog signal and supplies the analog signal to the display unit 28 . The display unit 28 may be a liquid crystal display or another display such as an organic EL display as long as it displays an image.

ファインダー内表示部41には、ファインダー内表示部駆動回路42を介して、現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコンなどが表示される。ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラ100の様々な設定値が表示される。 In the viewfinder display section 41, a frame (AF frame) indicating the range-finding point where autofocus is currently being performed, an icon indicating the setting state of the camera, and the like are displayed via the viewfinder display section driving circuit 42. be. Various setting values of the camera 100 such as the shutter speed and the aperture are displayed on the viewfinder display section 43 via the viewfinder display section driving circuit 44 .

姿勢検知部55は、カメラ100の角度による姿勢を検出するためのセンサーである。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりす
ることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である、加速度センサーやジャイロセンサーを用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
The orientation detection unit 55 is a sensor for detecting the orientation of the camera 100 based on its angle. Based on the posture detected by the posture detection unit 55, it is determined whether the image captured by the imaging unit 22 is an image captured with the camera 100 held horizontally or an image captured with the camera 100 held vertically. It is identifiable. The system control unit 50 can add direction information corresponding to the posture detected by the posture detection unit 55 to the image file of the image captured by the imaging unit 22, rotate the image, and record the image. be. An acceleration sensor, a gyro sensor, or the like can be used as the posture detection unit 55 . It is also possible to detect the movement of the camera 100 (pan, tilt, lift, whether it is stationary, etc.) using an acceleration sensor or a gyro sensor, which is the orientation detection unit 55 .

不揮発性メモリ56は、システム制御部50によって電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The nonvolatile memory 56 is a memory that can be electrically erased/recorded by the system control unit 50, and an EEPROM or the like is used, for example. The nonvolatile memory 56 stores constants, programs, etc. for the operation of the system control unit 50 . The program here is a program for executing various flowcharts described later in this embodiment.

システム制御部50は、少なくとも1つのプロセッサー(回路を含む)を内蔵し、カメラ100全体を制御する。システム制御部50は、前記の不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52では、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。 The system control unit 50 incorporates at least one processor (including circuitry) and controls the camera 100 as a whole. The system control unit 50 executes the programs recorded in the non-volatile memory 56 to realize each process of this embodiment, which will be described later. In the system memory 52, constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 56, and the like are developed. The system control unit 50 also performs display control by controlling the memory 32, the D/A converter 19, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切り替えスイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード等のいずれかに切り替える。静止画撮影モードには、Pモード(プログラムAE)、Mモード(マニュアル)等が含まれる。あるいは、モード切り替えスイッチ60でメニュー画面に一旦切り換えた後に、メニュー画面に含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。Mモードでは、絞り値、シャッター速度、ISO感度をユーザーが設定でき、ユーザー目的の露出で撮影を行うことができる。 A system timer 53 is a timer that measures the time used for various controls and the time of a built-in clock. The mode switching switch 60 switches the operation mode of the system control unit 50 to either a still image shooting mode, a moving image shooting mode, or the like. Still image shooting modes include P mode (program AE), M mode (manual), and the like. Alternatively, after switching to the menu screen once with the mode switching switch 60, any one of these modes included in the menu screen may be switched using another operation member. Similarly, the movie shooting mode may also include multiple modes. In the M mode, the user can set the aperture value, shutter speed, and ISO sensitivity, and can shoot with the user's intended exposure.

第1シャッタースイッチ62は、カメラ100に設けられたシャッターボタン103,105の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。またAEセンサー17による測光も行う。 The first shutter switch 62 is turned on when the shutter buttons 103 and 105 provided on the camera 100 are being operated, that is, when the shutter buttons 103 and 105 are pressed halfway (imaging preparation instruction), and the first shutter switch signal SW1 is generated. The system control unit 50 starts operations such as AF (auto focus) processing, AE (auto exposure) processing, AWB (auto white balance) processing, EF (flash pre-emission) processing, etc., in response to the first shutter switch signal SW1. Also, photometry by the AE sensor 17 is performed.

第2シャッタースイッチ64は、シャッターボタン103,105の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像ファイルとして画像を記録するまでの一連の撮影処理の動作を開始する。 The second shutter switch 64 is turned on when the operation of the shutter buttons 103 and 105 is completed, that is, when the shutter buttons 103 and 105 are fully pressed (imaging instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control section 50 starts a series of photographing processing operations from signal reading from the imaging section 22 to recording an image as an image file on the recording medium 200. FIG.

電源制御部83は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部83は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源スイッチ72はカメラ100の電源のONとOFFを切り替えるためのスイッチである。 The power supply control unit 83 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching blocks to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining amount of the battery. Also, the power supply control unit 83 controls the DC-DC converter based on the detection results and instructions from the system control unit 50, and supplies necessary voltage to each unit including the recording medium 200 for a necessary period. A power switch 72 is a switch for switching the power of the camera 100 between ON and OFF.

電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体20
0は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. A recording medium I/F 18 is an interface with a recording medium 200 such as a memory card or hard disk. recording medium 20
Reference numeral 0 denotes a recording medium such as a memory card for recording captured images, which is composed of a semiconductor memory, a magnetic disk, or the like.

上述したように、カメラ100は、操作部70の一つとして、表示部28(タッチパネル70a)に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネル70aにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。システム制御部50はタッチパネル70aへの以下のタッチ操作、あるいは状態を検知できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンをタッチパネル70aから離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
As described above, the camera 100 has, as one of the operation units 70, the touch panel 70a capable of detecting contact with the display unit 28 (touch panel 70a). The touch panel 70a and the display section 28 can be configured integrally. For example, the touch panel 70 a is configured so that the light transmittance does not interfere with the display of the display section 28 and is attached to the upper layer of the display surface of the display section 28 . Then, the input coordinates on the touch panel 70a and the display coordinates on the display unit 28 are associated with each other. This makes it possible to construct a GUI (Graphical User Interface) as if the user could directly operate the screen displayed on the display unit 28 . The system control unit 50 can detect the following touch operations or states on the touch panel 70a.
- A finger or pen that has not touched the touch panel 70a newly touches the touch panel 70a. That is, the start of touch (hereinafter referred to as Touch-Down).
- The touch panel 70a is in a state of being touched with a finger or a pen (hereinafter referred to as Touch-On).
- The finger or pen is moving while touching the touch panel 70a (hereinafter referred to as touch-move).
- The finger or pen touching the touch panel 70a is removed from the touch panel 70a. That is, the end of the touch (hereinafter referred to as Touch-Up).
A state in which nothing is touched on the touch panel 70a (hereinafter referred to as Touch-Off).

タッチダウンが検知されると、同時にタッチオンも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、タッチ位置が移動していなければタッチムーブは検知されない。タッチしていた全ての指やペンがタッチアップしたことが検知された後は、タッチオフとなる。 When touchdown is detected, touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. A touch-move is also detected when a touch-on is detected. Even if touch-on is detected, touch-move is not detected if the touch position does not move. After it is detected that all the fingers and pens that have touched have touched up, the touch is turned off.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。またタッチパネル70a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検知され、そのままタッチアップが検知されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検知された場合はドラッグが行われたと判定するものとする。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検知する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検知する方式があるが、いずれの方式でもよい。 The system control unit 50 is notified of these operations/states and the coordinates of the position where the finger or pen touches the touch panel 70a through the internal bus. Determine if any operation has been performed. As for the touch move, the moving direction of the finger or pen moving on the touch panel 70a can also be determined for each vertical component/horizontal component on the touch panel 70a based on the change in the position coordinates. Also, it is assumed that a stroke is drawn when touch-down on the touch panel 70a is touch-up after a certain touch-move. The operation of drawing strokes quickly is called a flick. A flick is an operation of quickly moving a finger a certain distance while touching the touch panel 70a and then releasing the finger, in other words, an operation of quickly tracing the touch panel 70a with the finger as if flicking. It is possible to determine that a flick has been performed when it is detected that a touch-move has been performed for a predetermined distance or more at a predetermined speed or more, and if a touch-up is detected as it is. Further, when it is detected that the touch-move is performed over a predetermined distance at a speed lower than the predetermined speed, it is determined that the drag is performed. The touch panel 70a may be any one of various types of touch panels such as a resistive film type, a capacitance type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, an optical sensor type, and the like. good. There is a method of detecting that there is a touch when there is contact with the touch panel, and a method of detecting that there is a touch when there is an approach of a finger or pen to the touch panel.

システム制御部50は、AF-ONボタン1,2からの通知(出力情報)により、AF-ONボタン1,2へのタッチ操作や押し込み操作を検知できる。システム制御部50は
、AF-ONボタン1,2の出力情報に基づいて、AF-ONボタン1,2上における指などの動きの方向(以降、移動方向と称する)を、上、下、左、右、左上、左下、右上、右下の8方向で算出する。さらに、システム制御部50は、AF-ONボタン1,2の出力情報に基づいて、x軸方向、y軸方向の2次元方向でAF-ONボタン1,2上における指などの動きの量(以降、移動量(x,y)と称する)を算出する。システム制御部50は、さらにAF-ONボタン1,2への以下の操作、あるいは状態を検知できる。システム制御部50は、AF-ONボタン1とAF-ONボタン2のそれぞれについて個別に、移動方向や移動量(x,y)を算出したり、以下の操作・状態を検知したりする。
・AF-ONボタン1、またはAF-ONボタン2にタッチしていなかった指などが新たにAF-ONボタン1、またはAF-ONボタン2にタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・AF-ONボタン1、またはAF-ONボタン2を指などでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・指などがAF-ONボタン1、またはAF-ONボタン2をタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・AF-ONボタン1、またはAF-ONボタン2へタッチしていた指をAF-ONボタン1、またはAF-ONボタン2から離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・AF-ONボタン1、またはAF-ONボタン2に何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
The system control unit 50 can detect a touch operation or a pressing operation on the AF-ON buttons 1 and 2 based on notifications (output information) from the AF-ON buttons 1 and 2. FIG. Based on the output information of the AF-ON buttons 1 and 2, the system control unit 50 controls the direction of movement of the finger or the like on the AF-ON buttons 1 and 2 (hereinafter referred to as the movement direction) up, down, left, and so on. , right, upper left, lower left, upper right, and lower right. Furthermore, based on the output information of the AF-ON buttons 1 and 2, the system control unit 50 determines the amount of movement of the finger or the like on the AF-ON buttons 1 and 2 ( hereinafter referred to as a movement amount (x, y)). The system control unit 50 can also detect the following operations or states of the AF-ON buttons 1 and 2. The system control unit 50 individually calculates the movement direction and movement amount (x, y) for each of the AF-ON button 1 and the AF-ON button 2, and detects the following operations/states.
・A finger that was not touching AF-ON button 1 or AF-ON button 2 has newly touched AF-ON button 1 or AF-ON button 2. That is, the start of touch (hereinafter referred to as Touch-Down).
・A state where the AF-ON button 1 or AF-ON button 2 is being touched with a finger or the like (hereinafter referred to as Touch-On).
- A finger or the like is moving while touching the AF-ON button 1 or AF-ON button 2 (hereinafter referred to as touch-move).
・The finger that was touching AF-ON button 1 or AF-ON button 2 has been removed from AF-ON button 1 or AF-ON button 2. That is, the end of the touch (hereinafter referred to as Touch-Up).
A state in which the AF-ON button 1 or AF-ON button 2 is not touched (hereinafter referred to as Touch-Off).

タッチダウンが検知されると、同時にタッチオンも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、移動量(x,y)が0であれば、タッチムーブは検知されない。タッチしていた全ての指などがタッチアップしたことが検知された後は、タッチオフとなる。 When touchdown is detected, touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. A touch-move is also detected when a touch-on is detected. Even if touch-on is detected, if the amount of movement (x, y) is 0, touch-move is not detected. After it is detected that all the fingers that have been in touch have touched up, the touch is turned off.

システム制御部50は、これらの操作・状態や移動方向、移動量(x,y)に基づいてAF-ONボタン1,2上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについては、AF-ONボタン1,2上での指などの移動として、上、下、左、右、左上、左下、右上、右下の8方向、またはx軸方向、y軸方向の2次元方向の移動を検知する。システム制御部50は、8方向のいずれかの方向への移動、またはx軸方向、y軸方向の2次元方向の片方もしくは両方への移動が検知された場合は、スライド操作が行われたと判定するものとする。本実施形態では、AF-ONボタン1,2は、赤外線方式のタッチセンサーであるものとする。ただし、抵抗膜方式、表面弾性波方式、静電容量方式、電磁誘導方式、画像認識方式、光センサー方式等、別の方式のタッチセンサーであってもよい。 The system control unit 50 determines what operation (touch operation) has been performed on the AF-ON buttons 1 and 2 based on these operations/states, movement direction, and movement amount (x, y). As for touch-move, the movement of a finger on the AF-ON buttons 1 and 2 can be performed in eight directions: up, down, left, right, upper left, lower left, upper right, lower right, or in the x-axis and y-axis directions. Detect movement in two-dimensional directions. The system control unit 50 determines that a slide operation has been performed when movement in any one of the eight directions or movement in one or both of the two-dimensional directions of the x-axis direction and the y-axis direction is detected. It shall be. In this embodiment, the AF-ON buttons 1 and 2 are infrared touch sensors. However, a touch sensor of another system such as a resistive film system, a surface acoustic wave system, a capacitive system, an electromagnetic induction system, an image recognition system, an optical sensor system, or the like may be used.

図3(a)、図3(b)を用いて、AF-ONボタン1の構造について説明する。AF-ONボタン2の構造はAF-ONボタン1の構造と同様のため、その説明は省略する。 The structure of the AF-ON button 1 will be described with reference to FIGS. 3(a) and 3(b). Since the structure of the AF-ON button 2 is similar to the structure of the AF-ON button 1, its explanation is omitted.

カバー310はAF-ONボタン1の外装カバーである。窓311はAF-ONボタン1の外装カバーの一部であり、投光部312から投光された光を透過する。カバー310は、カメラ100の外装カバー301よりも外に突起しており、押し込み可能となっている。投光部312は、窓311に向かう光を照射する発光ダイオードなどの発光デバイスである。投光部312から発せられる光は、可視光ではない光(赤外線)などが望ましい。窓311の表面(AF-ONボタン1の操作面)に指300がタッチしている場合には、投光部312から照射された光が、タッチしている指300の表面に反射し、反射光が受光部313によって受光(撮像)される。受光部313は、撮像センサーである。受光部313で撮像された画像に基づき、AF-ONボタン1の操作面に操作体(指300)
が触れていない状態であるか、操作体がタッチしたか、タッチしている操作体がタッチしたまま移動しているか(スライド操作しているか)等を検知することができる。カバー310は弾性部材314で接地面316に設置されており、指300が窓311の表面を押し、カバー310が押し込まれることで、押し込み検知のためのスイッチ315にカバー310が触れる。これによってAF-ONボタン1が押し込まれたことが検知される。
A cover 310 is an exterior cover for the AF-ON button 1 . The window 311 is a part of the exterior cover of the AF-ON button 1, and allows light projected from the light projecting section 312 to pass therethrough. The cover 310 protrudes outward from the exterior cover 301 of the camera 100 and can be pushed. The light projecting unit 312 is a light emitting device such as a light emitting diode that emits light toward the window 311 . The light emitted from the light projecting unit 312 is desirably non-visible light (infrared light). When the finger 300 is touching the surface of the window 311 (the operation surface of the AF-ON button 1), the light emitted from the light projecting unit 312 is reflected on the surface of the finger 300 that is touching. Light is received (imaged) by the light receiving unit 313 . The light receiving unit 313 is an imaging sensor. Based on the image captured by the light receiving unit 313, the operation body (finger 300) is placed on the operation surface of the AF-ON button 1.
It is possible to detect whether the is not touching, whether the operating body has touched, whether the touching operating body is moving while touching (is performing a slide operation), and the like. The cover 310 is installed on a ground surface 316 with an elastic member 314, and when the finger 300 presses the surface of the window 311 and the cover 310 is pushed, the cover 310 touches a switch 315 for detecting pushing. This detects that the AF-ON button 1 has been pressed.

顔検出機能について説明する。システム制御部50は顔検出の対象の画像を画像処理部24に送る。システム制御部50の制御下で画像処理部24は、当該画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。 The face detection function will be explained. The system control unit 50 sends an image for face detection to the image processing unit 24 . Under the control of the system control unit 50, the image processing unit 24 applies a horizontal bandpass filter to the image data. Also, under the control of the system controller 50, the image processor 24 applies a vertical bandpass filter to the processed image data. Edge components are detected from the image data by these horizontal and vertical bandpass filters.

その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。システム制御部50は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、顔の数などの特徴量をシステムメモリ52に記憶する。 After that, the system control unit 50 performs pattern matching on the detected edge components to extract a group of candidates for eyes, nose, mouth, and ears. Then, the system control unit 50 determines eye pairs that satisfy preset conditions (for example, the distance and inclination of the two eyes) from the group of extracted eye candidates. Only those that have are narrowed down as the candidate group of eyes. Then, the system control unit 50 associates the group of narrowed-down eye candidates with the corresponding other parts (nose, mouth, ears) forming the face, and passes them through a preset non-face condition filter. , to detect faces. The system control unit 50 outputs the face information according to the face detection result, and ends the process. At this time, the feature quantity such as the number of faces is stored in the system memory 52 .

以上のようにLV画像あるいは再生表示される画像を画像解析して、画像の特徴量を抽出して被写体情報を検出する(特定の被写体を検出する被写体検出を行う)ことが可能である。本実施形態では特定の被写体として顔を例に挙げたが、瞳、手、胴体、特定の個人、動体、文字、など、他の被写体も検出し、AF等の対象として選択することが可能である。 As described above, it is possible to perform image analysis of the LV image or the image to be reproduced and displayed, extract the feature amount of the image, and detect subject information (perform subject detection for detecting a specific subject). In the present embodiment, a face is taken as an example of a specific subject, but other subjects such as eyes, hands, torso, specific individuals, moving bodies, characters, etc. can also be detected and selected as targets for AF or the like. be.

図3(a)は、AF-ONボタン1の操作面に指300がタッチしているが、AF-ONボタン1を押し込んでいない状態の概略図である。図3(b)は、AF-ONボタン1の操作面を指300が押圧することで、AF-ONボタン1が押し込まれ、AF-ONボタン1が押されたことが検知される状態の概略図である。図3(b)の押し込まれた状態から、指300をAF-ONボタン1の操作面から離せば、弾性部材314の力によってAF-ONボタン1はスイッチ315に触れない図3(a)の状態に戻る。なお、弾性部材314を接地面316に設置する例を説明したが、接地面316ではなく、外装カバー301に設置してもよい。また、AF-ONボタン1は、操作面への押し込みと、操作面でのタッチ操作とを検知可能なものであれば、図3(a)、図3(b)に示した構造に限るものではなく、他の構造としてもよい。 FIG. 3A is a schematic diagram showing a state in which a finger 300 is touching the operation surface of the AF-ON button 1, but the AF-ON button 1 is not pressed. FIG. 3B is an outline of a state in which the finger 300 presses the operation surface of the AF-ON button 1, thereby pressing the AF-ON button 1 and detecting that the AF-ON button 1 has been pressed. It is a diagram. When the finger 300 is removed from the operation surface of the AF-ON button 1 from the pressed state shown in FIG. return to state. Although an example in which the elastic member 314 is installed on the ground surface 316 has been described, the elastic member 314 may be installed on the outer cover 301 instead of the ground surface 316 . Also, the AF-ON button 1 is limited to the structure shown in FIGS. 3(a) and 3(b) as long as it can detect the pressing of the operation surface and the touch operation on the operation surface. Instead, other structures may be used.

OVFモードにて選択可能なAF枠について説明する。OVFモードでは、AF枠の選択モード(測距エリア選択モード)として、少なくとも以下の選択モードを含む複数の選択モードのうちいずれかを設定メニューより予めユーザーが選択して設定することができる。
・1点AF(任意選択)…191点の測距点(焦点調節領域)の中から、ピント合わせ(AF)に使う測距点をユーザーが1点選択する選択モード。後述するゾーンAFよりも狭い範囲が焦点調節領域となる。
・ゾーンAF(ゾーン任意選択)…複数の測距点を9つの測距ゾーン(焦点調節領域)に分類し、いずれかの測距ゾーンをユーザーが選択する選択モード。選択したゾーンに含まれる全ての測距点を用いて自動選択AFを行う。自動選択AFでは、対象となる測距点で測距された被写体のうち、自動的にピントを合わせるべき被写体と判定された被写体にピントが合うようにAFを行う。基本的には最も近距離にある被写体にピントが合うよう
にAFを行うが、画面上の位置や被写体のサイズ、被写体距離などの条件が加味されることもある。1点AFよりも被写体を捉えやすく、動きのある被写体を撮影するときにピントを合わせやすくなる。また、ピントを合わせるゾーンを絞っているため、構図における意図しない位置の被写体にピントが合ってしまうことも防止することができる。
・自動選択AF…全ての測距点を用いて上述の自動選択AFを行うモード。ユーザーがAFエリアを選択することなく、AFに用いる測距点は全測距点の中から自動的に決定される。
AF frames selectable in the OVF mode will be described. In the OVF mode, the user can select and set one of a plurality of selection modes including at least the following selection modes in advance from a setting menu as the AF frame selection mode (distance measurement area selection mode).
・One-point AF (arbitrary selection): A selection mode in which the user selects one AF point to be used for focusing (AF) from 191 AF points (focusing areas). A range narrower than zone AF, which will be described later, is the focus adjustment area.
• Zone AF (optional zone selection): A selection mode in which a plurality of focus detection points are classified into nine focus detection zones (focus adjustment areas) and the user selects one of the focus detection zones. Automatic selection AF is performed using all distance measuring points included in the selected zone. In automatic selection AF, AF is performed so that a subject determined as a subject to be automatically focused among the subjects whose distances are measured at the target distance measuring point is brought into focus. Basically, AF is performed so that the subject at the closest distance is brought into focus, but conditions such as the position on the screen, the size of the subject, and the subject distance may be taken into account. It is easier to capture the subject than single-point AF, and it is easier to focus when shooting a moving subject. In addition, since the zone to be focused is narrowed down, it is possible to prevent the subject from being brought into focus at an unintended position in the composition.
• Automatic selection AF: A mode in which the above-described automatic selection AF is performed using all distance measuring points. The range-finding points used for AF are automatically determined from all range-finding points without the user having to select an AF area.

図4(a)、図4(b)を用いて、1点AFで選択可能な測距点について説明する。図4(a)は、ファインダー内表示部41における選択可能な測距点と、選択された測距点の表示例である。ユーザーは、測距点群410のうちいずれか1点を選択することが可能である。選択された測距点はAF枠400として表示される。AF枠400は、実際には被写体の光学像と重畳して視認される。測距点群410のうち、選択されていない測距点は表示されないものとしてもよい。焦点検出部11は、測距点群410に含まれる測距点の各位置に対応する位置で焦点検出及びAFが可能である。測距点群410は、左側測距点群411、中央測距点群412、右側測距点群413に分類される。左側測距点群411と右側測距点群413にはそれぞれ、63点の測距点が9行7列の行列に配置されている。中央測距点群412には、65点の測距点が13行5列の行列に配置されている。1点AFでは、左側測距点群411、中央測距点群412、右側測距点群413に含まれる合計191点の測距点を選択候補として、いずれか1点をAFに用いるAF枠として選択することが可能である。図4(a)は、中央測距点群412に含まれる7行目3列目の測距点(中央の測距点)をAF枠400として選択した表示例である。図4(b)は、中央測距点群412に含まれる6行目4列目の測距点(中央の測距点)をAF枠400として選択した表示例である。図4(a)の状態からAF枠400を右に1回(後述の選択位置移動量=1を1回と称する)、上に1回移動させることで、図4(b)の状態とすることができる。また、図4(a)の状態からAF枠400を右上に1回移動させることでも図4(b)の状態とすることができる。 Focus points selectable in single-point AF will be described with reference to FIGS. 4(a) and 4(b). FIG. 4(a) is a display example of selectable range-finding points and selected range-finding points in the viewfinder display section 41. FIG. The user can select any one point from the range-finding point group 410 . The selected focus point is displayed as an AF frame 400. FIG. The AF frame 400 is actually visually superimposed on the optical image of the subject. Among the group of ranging points 410, ranging points that have not been selected may not be displayed. The focus detection unit 11 is capable of focus detection and AF at positions corresponding to the positions of the distance measurement points included in the distance measurement point group 410 . The ranging point group 410 is classified into a left ranging point group 411 , a center ranging point group 412 and a right ranging point group 413 . In each of the left ranging point group 411 and the right ranging point group 413, 63 ranging points are arranged in a matrix of 9 rows and 7 columns. In the central focus point group 412, 65 focus points are arranged in a matrix of 13 rows and 5 columns. In single-point AF, a total of 191 ranging points included in the left ranging point group 411, the center ranging point group 412, and the right ranging point group 413 are selected as selection candidates, and any one point is used for AF. can be selected as FIG. 4A is a display example in which the focus detection point (central focus detection point) on the 7th row and the 3rd column included in the central focus point group 412 is selected as the AF frame 400 . FIG. 4B is a display example in which the range-finding point (central range-finding point) on the 6th row and the 4th column included in the central range-finding point group 412 is selected as the AF frame 400 . By moving the AF frame 400 once to the right from the state of FIG. 4(a) (a selection position moving amount=1, which will be described later, is referred to as one time) and once upward, the state of FIG. 4(b) is obtained. be able to. Also, the state shown in FIG. 4B can be obtained by moving the AF frame 400 once to the upper right from the state shown in FIG. 4A.

図5(a)~図5(i)を用いて、ゾーンAFで選択可能な測距ゾーンについて説明する。図4(a)、図4(b)と同じものは同じ符号を用いて示している。ゾーンAFでは、図5(a)~図5(i)にそれぞれ示す9つの測距ゾーンを選択候補として、1つのゾーンを選択することが可能である。図5(a)は、測距点群410のうち、中央の測距ゾーン(中央測距点群412に含まれる4~10行目、1~5列目の測距点群を含むゾーン)を選択してゾーンAF枠500を表示した例である。 Focusing zones that can be selected in zone AF will be described with reference to FIGS. 5(a) to 5(i). 4(a) and 4(b) are denoted by the same reference numerals. In zone AF, it is possible to select one zone from the nine ranging zones shown in FIGS. 5(a) to 5(i) as selection candidates. FIG. 5A shows the central ranging zone of the focusing point group 410 (the zone including the ranging points on the 4th to 10th rows and the 1st to 5th columns included in the central ranging point group 412). is selected to display a zone AF frame 500. FIG.

図5(b)は、図5(a)の状態からゾーンAF枠500を上に1回移動させて、測距点群410のうち、上部の測距ゾーン(中央測距点群412に含まれる1~7行目、1~5列目の測距点群を含むゾーン)を選択した例である。同様に、図5(c)は、図5(a)の状態からゾーンAF枠500を下に1回移動させて下部の測距ゾーンを選択した例である。図5(d)は、図5(a)の状態からゾーンAF枠500を左に1回移動させて左部の測距ゾーンを選択した例である。図5(e)は、図5(a)の状態からゾーンAF枠500を左上に1回移動させて、あるいは左に1回と上に1回移動させて左上部の測距ゾーンを選択した例である。図5(f)は、図5(a)の状態からゾーンAF枠500を左下に1回移動させて、あるいは左に1回と下に1回移動させて左下部の測距ゾーンを選択した例である。図5(g)は、図5(a)の状態からゾーンAF枠500を右に1回移動させて右部の測距ゾーンを選択した例である。図5(h)は、図5(a)の状態からゾーンAF枠500を右上に1回移動させて、あるいは右に1回と上に1回移動させて右上部の測距ゾーンを選択した例である。図5(i)は、図5(a)の状態からゾーンAF枠500を右下に1回移動させて、あるいは右に1回と下に1回移動させて右下部の測距ゾーンを選択した例である。 FIG. 5(b) shows the upper range-finding zone (included in the central range-finding point group 412) in the range-finding point group 410 by moving the zone AF frame 500 upward once from the state of FIG. 5(a). This is an example of selecting a zone that includes the range-finding point groups of the 1st to 7th rows and 1st to 5th columns. Similarly, FIG. 5(c) is an example in which the zone AF frame 500 is moved downward once from the state of FIG. 5(a) to select the lower ranging zone. FIG. 5(d) is an example in which the zone AF frame 500 is moved to the left once from the state of FIG. 5(a) to select the left ranging zone. In FIG. 5E, the zone AF frame 500 is moved from the state of FIG. For example. In FIG. 5(f), the zone AF frame 500 is moved to the lower left once from the state of FIG. For example. FIG. 5(g) is an example in which the zone AF frame 500 is moved once to the right from the state of FIG. 5(a) to select the right ranging zone. In FIG. 5(h), the zone AF frame 500 is moved to the upper right once from the state of FIG. For example. In FIG. 5(i), the zone AF frame 500 is moved from the state in FIG. This is an example of

LVモードにて選択可能なAF枠について説明する。LVモードでは、AF枠の選択モード(測距エリア選択モード、AF方式)として、少なくとも以下の選択モードを含む複数の選択モードのうちいずれかを設定メニューより予めユーザーが選択して設定することができる。なお、動画の撮影待機状態(動画撮影モード)、動画の記録中も、LVモードであるものとする。
・顔+追尾優先AF(顔+追尾AF)…LV画像から顔が検知されている場合には顔をAF対象として自動的に追尾してAFし、顔検知されていない場合には自動選択AFでAF位置を決定してAFを行う選択モード。LV画像から複数の顔が検知されている場合には、最初は自動選択で決定された顔にAF枠(顔追尾枠)が表示され、8方向キー74a,74bやAF-ONボタンへの左右操作で、右または左側の顔に追尾対象を切り替えることができる。また、表示部28にタッチすることで、顔または顔以外の被写体(モノ)を選択して追尾対象とし、追尾してAFを合わせることもできる。
・ライブ1点AF(任意選択)…65行87列に配置された5655点の測距点の中から、ピント合わせ(AF)に使う測距点をユーザーが1点選択する選択モード。選択された測距点について、撮像面位相差AF、あるいはコントラストAFにて焦点検出、AFが行われる。
AF frames selectable in the LV mode will be described. In LV mode, the user can select and set one of a plurality of selection modes including at least the following selection modes in advance from the setting menu as the AF frame selection mode (focus area selection mode, AF method). can. Note that the LV mode is assumed to be in the moving image shooting standby state (moving image shooting mode) and during recording of the moving image.
・Face + tracking priority AF (face + tracking AF): If a face is detected from the LV image, the face is automatically tracked as an AF target and AF is performed, and if the face is not detected, automatic selection AF A selection mode in which the AF position is determined with and AF is performed. When a plurality of faces are detected from the LV image, an AF frame (face tracking frame) is displayed on the face determined by automatic selection at first, and the left and right of the eight direction keys 74a and 74b and the AF-ON button are displayed. You can switch the tracking target to the right or left face by operating. Also, by touching the display unit 28, it is possible to select a face or a subject (object) other than the face as a tracking target, track it, and adjust the AF.
・Live 1-point AF (arbitrary selection): A selection mode in which the user selects one AF point to be used for focusing (AF) from 5,655 AF points arranged in 65 rows and 87 columns. Focus detection and AF are performed with image plane phase difference AF or contrast AF for the selected distance measuring point.

図6(a)を用いて、ライブ1点AFでのAF枠の移動について説明する。図6(a)は、LVモードでライブ1点AFに設定している場合の表示部28における表示例である。LV画像601に重畳して各種設定情報やタッチアイコン、AF枠600が表示される。AF枠600は、LV画像上での選択位置を示すインジケーターであり、8方向キー74a,74bでの方向指示操作、AF-ONボタンへのスライド操作に応じて移動可能である。これらの操作部材への操作のx方向、y方向の成分毎の操作量に所定の係数を掛けた分だけ、移動前のAF枠600の位置から相対的に移動し、例えばAF枠600´の位置に移動する。 Movement of the AF frame in live single-point AF will be described with reference to FIG. FIG. 6A is an example of display on the display unit 28 when live single-point AF is set in the LV mode. Various setting information, touch icons, and an AF frame 600 are displayed superimposed on the LV image 601 . The AF frame 600 is an indicator that indicates a selected position on the LV image, and can be moved according to a direction instruction operation with the 8-direction keys 74a and 74b and a slide operation to the AF-ON button. The AF frame 600 is relatively moved from the position before the movement by the amount obtained by multiplying the operation amount for each component in the x direction and the y direction of the operation to these operation members by a predetermined coefficient. Move to position.

図6(b)を用いて、顔+追尾AFでのAF枠の移動について説明する。図6(b)は、LVモードで顔+追尾AFに設定しており、かつ、LV画像から複数の顔が検出されていて、1つの顔を追尾している場合の表示部28における表示例である。LV画像601に重畳して各種設定情報やタッチアイコン、AF枠610(ここでは、顔枠、追尾枠、顔追尾枠でもある)が表示される。LV画像601からは、顔621、顔622、顔623の3つの顔が検出されており、図示の例では顔621がAF対象として選択されて追尾されている。AF枠610は8方向キー74a,74bでの左右への方向指示操作、AF-ONボタンへの左右方向へのスライド操作に応じて、検出されている他の顔に移動可能である。例えば、AF-ONボタンに対する右方向へのスライド操作による移動量1(最小単位の移動量)の移動指示に応じて、選択変更前の現在選択中の顔621の右側にある顔のうち、選択中の顔に最も近い顔、すなわち顔622にAF枠を移動させることができる。顔622にAF枠を移動させると、AF枠610が非表示となりAF枠610´が表示される。この時、選択変更前の顔621から顔622へ、顔以外の位置を経由することなくAF枠が移動する。選択を切り替えるAF-ONボタンに対する左右方向へのスライド操作による顔の選択の変更についての詳細は後述する。 Movement of the AF frame in face+tracking AF will be described with reference to FIG. 6(b). FIG. 6B is a display example on the display unit 28 when the LV mode is set to face+tracking AF, multiple faces are detected from the LV image, and one face is being tracked. is. Various setting information, touch icons, and an AF frame 610 (here, also a face frame, tracking frame, and face tracking frame) are displayed superimposed on the LV image 601 . Three faces, a face 621, a face 622, and a face 623, are detected from the LV image 601, and in the illustrated example, the face 621 is selected as an AF target and tracked. The AF frame 610 can be moved to another detected face in response to left and right direction instruction operations with the eight direction keys 74a and 74b and left and right slide operations on the AF-ON button. For example, in response to a movement instruction of a movement amount 1 (minimum unit movement amount) by a rightward sliding operation on the AF-ON button, a face on the right side of the currently selected face 621 before selection change is selected. The AF frame can be moved to the face closest to the inside face, that is, the face 622 . When the AF frame is moved to face 622, AF frame 610 is hidden and AF frame 610' is displayed. At this time, the AF frame moves from the face 621 before selection change to the face 622 without going through positions other than the face. The details of changing the face selection by sliding the AF-ON button for switching the selection in the horizontal direction will be described later.

図7に、AF-ONボタンに対するスライド応答処理のフローチャートを示す。スライド応答処理は、AF-ONボタンを押し込むことなく操作面にタッチしてタッチムーブするスライド操作に応じた機能(例:AF枠の移動)の実行処理である。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。カメラ100を撮影モードで起動すると図7の処理を開始する。なお、カメラ100を撮影モードで起動した場合には、他の処理(例えば操作部70に含まれる他の操作部材の操作に応じた処理、AF-ONボタンの押し込みに応じた
処理)も並行して行われるが、それらの説明は省略する。また、図7~図10では、AF-ONボタン1に対するスライド操作への応答処理を説明するが、AF-ONボタン2についても同様に処理される。ただし、AF-ONボタン1に対するタッチオンが検知されている場合にはAF-ONボタン2に対するスライド応答処理は行わないものとする。これによって、AF-ONボタン1とAF-ONボタン2への操作の競合による誤動作を防止することができる(AF-ONボタン1へのスライド操作が優先される)。
FIG. 7 shows a flowchart of slide response processing for the AF-ON button. The slide response process is a process of executing a function (eg, moving the AF frame) in response to a slide operation of touching and moving the operation surface without pressing the AF-ON button. This process is realized by loading the program recorded in the nonvolatile memory 56 into the system memory 52 and executing it by the system control unit 50 . When the camera 100 is activated in shooting mode, the process of FIG. 7 is started. Note that when the camera 100 is activated in the shooting mode, other processing (for example, processing in response to operation of other operation members included in the operation unit 70, processing in response to pressing of the AF-ON button) is also performed in parallel. are performed, but the description thereof is omitted. 7 to 10, response processing to a slide operation for AF-ON button 1 will be described, but AF-ON button 2 is also processed in the same way. However, when a touch-on to the AF-ON button 1 is detected, slide response processing to the AF-ON button 2 is not performed. As a result, it is possible to prevent erroneous operation due to competing operations of the AF-ON button 1 and the AF-ON button 2 (the slide operation to the AF-ON button 1 has priority).

S701では、システム制御部50は、AF-ONボタン1に対するタッチダウンがあったか否かを判定する。タッチダウンがあった場合にはS703に進み、そうでない場合にはS702に進む。本実施形態では、ここでタッチダウンがあったと判定された後の処理は、AF-ONボタン1の押し込みは検知されていない状態で行われる処理であるものとする。 In S701, the system control unit 50 determines whether or not the AF-ON button 1 has been touched down. If there is a touchdown, the process proceeds to S703; otherwise, the process proceeds to S702. In the present embodiment, it is assumed that the processing after it is determined that there has been a touchdown is processing that is performed in a state where the depression of the AF-ON button 1 is not detected.

S702では、スライド応答処理の終了条件(例えば電源オフ、再生モードへの移行など)が満たされたか否かを判定する。終了条件が満たされた場合にはスライド応答処理を終了し、そうでない場合はS701に進んで処理を繰り返す。 In S702, it is determined whether or not conditions for terminating the slide response process (for example, power off, transition to playback mode, etc.) are satisfied. If the termination condition is satisfied, the slide response process is terminated; otherwise, the process proceeds to S701 and repeats the process.

S703では、システム制御部50は、スライド操作に関する各種変数を初期化する。例えば、内部変数Nを0で初期化する。このNはサンプリング回数を示し、移動量を平均する際に用いる。Nが5に達するごとに、5回のサンプリングで得た移動量(タッチムーブ量、スライド量)を平均化した移動量を取得する。また、S703で、システム制御部50は、変数iを0に初期化する。このiは、タッチされてからの平均化した移動量の取得回数を示す。また、システム制御部50は、変数Dsumを0に初期化する。Dsumは1回のスライド操作における移動距離(操作量)の1回以上の取得期間(後述の50msec)での積算値であり、方向成分をもつ2次元座標値である。Dsumは、後述するように、タッチアップがされる前(すなわちタッチ中)であっても初期化されることがある変数である(すなわち、タッチダウンしてからのタッチの移動距離の全積算量を示しているとは限らない)。 In S703, the system control unit 50 initializes various variables related to the slide operation. For example, the internal variable N is initialized with 0. This N indicates the number of times of sampling and is used when averaging the amount of movement. Every time N reaches 5, a moving amount obtained by averaging the moving amounts (touch-move amount, slide amount) obtained by sampling five times is acquired. Also, in S703, the system control unit 50 initializes the variable i to 0. This i indicates the number of acquisition times of the average movement amount after being touched. Also, the system control unit 50 initializes the variable Dsum to zero. Dsum is an integrated value of the moving distance (operation amount) in one slide operation in one or more acquisition periods (50 msec, which will be described later), and is a two-dimensional coordinate value having a directional component. As will be described later, Dsum is a variable that may be initialized even before a touchup is performed (i.e., during a touch) (i.e., the total integrated amount of touch movement distance after touchdown ).

S704では、システム制御部50は、AF-ONボタン1からの移動量の検出値の読み出し前のWait処理を行う。Wait期間は10msec(10ミリ秒)であるものとする。 In S704, the system control unit 50 performs Wait processing before reading out the detected value of the amount of movement from the AF-ON button 1. FIG. It is assumed that the Wait period is 10 msec (10 milliseconds).

S705では、システム制御部50は、AF-ONボタン1から、X方向(横方向)の移動量の検出値(単位が距離ではないカウント値)Cxを取得する。同様に、S706では、システム制御部50は、AF-ONボタン1から、Y方向(縦方向)の移動量の検出値(単位が距離ではないカウント値)Cyを取得する。 In S705, the system control unit 50 acquires a detection value (a count value whose unit is not distance) Cx of the amount of movement in the X direction (horizontal direction) from the AF-ON button 1 . Similarly, in S706, the system control unit 50 acquires a detection value (a count value whose unit is not distance) Cy of the amount of movement in the Y direction (longitudinal direction) from the AF-ON button 1 .

S707では、システム制御部50は、S705で取得したX方向のカウント値Cxを配列CxnのN番目Cxn[N]に格納する。S708では、システム制御部50は、S706で取得したY方向のカウント値Cyを配列CynのN番目Cyn[N]に格納する。S709では、システム制御部50は、サンプリング回数を表す変数Nをインクリメントする。 In S707, the system control unit 50 stores the X-direction count value Cx acquired in S705 in the N-th Cxn[N] of the array Cxn. In S708, the system control unit 50 stores the Y-direction count value Cy obtained in S706 in the N-th Cyn[N] of the array Cyn. In S709, the system control unit 50 increments the variable N representing the number of times of sampling.

S710では、システム制御部50は、AF-ONボタン1からのタッチアップがあったか否かを判定する。AF-ONボタン1からのタッチアップがあった場合はS716に進み、そうでない場合、すなわち、AF-ONボタン1へのタッチが継続している場合にはS711へ進む。 In S710, the system control unit 50 determines whether or not the AF-ON button 1 has been touched up. If the AF-ON button 1 is touched up, the process advances to S716; otherwise, that is, if the AF-ON button 1 is continuously touched, the process advances to S711.

S711では、システム制御部50は、変数Nが5であるか否か、すなわち、サンプリ
ング回数が5回に達したかどうかを判定する。N=5になった場合とは、初回であればタッチダウンがあってから50msecが経過した時点、初回より後であれば平均化した移動量を前回取得してから50msecが経過した時点である。本実施形態では、S704でのWait時間が10msecであることと、AF-ONボタン1へのスライド操作に対するAF枠の移動がユーザーに認識できるほど遅延する、すなわち応答性が悪いと体感されることは望ましくないこととから、N=5としている。つまり、平均化した距離の取得頻度を50msec毎としている。
In S711, the system control unit 50 determines whether or not the variable N is 5, that is, whether or not the number of times of sampling has reached 5 times. The case where N=5 is when 50 msec has passed since there was a touchdown if it is the first time, and when 50 msec has passed since the averaged movement amount was obtained last time if it is after the first time. . In this embodiment, the Wait time in S704 is 10 msec, and the movement of the AF frame with respect to the slide operation to the AF-ON button 1 is delayed enough for the user to recognize, that is, the response is poor. is not desirable, so N=5. That is, the acquisition frequency of the averaged distance is every 50 msec.

S712では、システム制御部50は、Cxn[0]~Cxn[N-1]までのカウント値の平均値(Cxave)と、Cyn[0]~Cyn[N-1]までのカウント値の平均値(Cyave)を算出する。 In S712, the system control unit 50 calculates the average value (Cxave) of the count values from Cxn[0] to Cxn[N-1] and the average value of the count values from Cyn[0] to Cyn[N-1]. (Cyave) is calculated.

S713では、システム制御部50は、直近5回のAF-ONボタン1からの出力値の平均カウント値CxaveとCyaveを、単位μm(マイクロメートル)の距離XaveとYaveに換算する。具体的には、CxaveとCyaveにそれぞれ所定の計数を掛けてXaveとYave[μm]とする。このように、平均化してから距離に換算することで、ノイズの影響などによって、実際の指の移動量に対してAF枠の移動量が極端に不自然な移動量となってしまうことを防止している。また、S713で、システム制御部50は、変数iをインクリメントする。 In S713, the system control unit 50 converts the average count values Cxave and Cyave of the last five output values from the AF-ON button 1 into distances Xave and Yave in units of μm (micrometers). Specifically, Cxave and Cyave are respectively multiplied by predetermined coefficients to obtain Xave and Yave [μm]. By averaging and then converting to distance in this way, it is possible to prevent the amount of movement of the AF frame from becoming extremely unnatural with respect to the amount of movement of the actual finger due to the influence of noise, etc. are doing. Also, in S713, the system control unit 50 increments the variable i.

S714では、システム制御部50は、移動判定処理を行う。移動判定処理については図8を用いて後述する。 In S714, the system control unit 50 performs movement determination processing. The movement determination process will be described later using FIG.

S715では、システム制御部50は、変数Nを0に初期化し、その後S704に進み、平均化した移動量の次の取得回のためのサンプリングを行う。 In S715, the system control unit 50 initializes the variable N to 0, and then proceeds to S704 to perform sampling for the next acquisition of the averaged movement amount.

S716では、システム制御部50は、S712と同様の処理を実施する。S712と異なる点は、Nが5であるとは限らない点である。S716では、S712と異なり、平均化した移動量の取得間隔である変数N×10msecは50msecより短いことがある。 In S716, the system control unit 50 performs the same processing as in S712. A different point from S712 is that N is not always five. In S716, unlike S712, the variable N×10 msec, which is the averaged movement amount acquisition interval, may be shorter than 50 msec.

S717では、システム制御部50は、S713と同様にCxaveとCyaveをXaveとYave[μm]に換算し、iをインクリメントする。 In S717, the system control unit 50 converts Cxave and Cyave into Xave and Yave [μm], and increments i in the same manner as in S713.

S718では、システム制御部50は、S714と同様に移動判定処理を行う。移動判定処理については図8を用いて後述する。 In S718, the system control unit 50 performs movement determination processing as in S714. The movement determination process will be described later using FIG.

図8に、移動判定処理のフローチャートを示す。この処理は、前述の図7のS714、S718の処理の詳細である。また、この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。 FIG. 8 shows a flowchart of movement determination processing. This processing is the details of the processing of S714 and S718 in FIG. 7 described above. Also, this process is realized by loading the program recorded in the nonvolatile memory 56 into the system memory 52 and executing it by the system control unit 50 .

S801では、システム制御部50は、前述の図7のS713またはS717で算出した(Xave,Yave)[μm]を変数diに代入する。変数diは、今回の取得回分(タッチアップされていない場合、直近50msec)のスライド操作の、方向成分をもつ移動量である。 In S801, the system control unit 50 substitutes (Xave, Yave) [μm] calculated in S713 or S717 of FIG. 7 for the variable di. The variable di is the amount of movement having a directional component of the slide operation for the current acquisition (the most recent 50 msec if no touch-up has been performed).

S802では、システム制御部50は、現在の動作モードがOVFモードであるか否かを判定する。OVFモードである場合はS803に進み、そうでない場合はS820に進む。 In S802, the system control unit 50 determines whether or not the current operating mode is the OVF mode. If it is the OVF mode, proceed to S803; otherwise, proceed to S820.

S803では、システム制御部50は、移動量の積算値Dsum(方向成分をもつ2次元座標値)に、S801で代入された移動量diを加算する。 In S803, the system control unit 50 adds the movement amount di substituted in S801 to the movement amount integrated value Dsum (two-dimensional coordinate value having a direction component).

S804では、システム制御部50は、測距エリア選択モードが1点AFに設定されているか否かを判定する。1点AFに設定されている場合にはS805に進み、そうでない場合にはS811に進む。 In S804, the system control unit 50 determines whether or not the ranging area selection mode is set to one-point AF. If 1-point AF is set, the process proceeds to S805; otherwise, the process proceeds to S811.

S805では、システム制御部50は、今回の取得回分(タッチアップされていない場合、直近50msec)のスライド操作の、移動速度(操作速度)を算出する。具体的には、移動速度Vdi=|di|/50[msec]として算出する。|di|=√(Xave+Yave)である。なお、|di|自体が一定時間(50msec)毎の移動量であるため移動速度に比例する。そのため、時間(50msec)で除算せず、後述するS806での閾値との比較を、|di|と閾値(|di|との比較用の閾値)との比較の処理としてもよい。 In S<b>805 , the system control unit 50 calculates the movement speed (operation speed) of the slide operation for this acquisition (the most recent 50 msec if no touch-up has been performed). Specifically, the moving speed is calculated as Vdi=|di|/50 [msec]. |di|=√(Xave 2 +Yave 2 ). It should be noted that |di| itself is the amount of movement for each fixed time (50 msec), and therefore is proportional to the movement speed. Therefore, without dividing by the time (50 msec), the comparison with the threshold value in S806, which will be described later, may be the processing of comparing |di| with a threshold value (threshold value for comparison with |di|).

S806では、システム制御部50は、今回の取得回分のスライド操作の移動速度Vdiが閾値TH_Vを超えているか否かを判定する。移動速度Vdiが閾値TH_Vを超えている(所定速度よりも速い)場合にはS807に進み、そうでない場合(移動速度Vdiが閾値TH_V以下である場合)はS808に進む。 In S<b>806 , the system control unit 50 determines whether or not the moving speed Vdi of the slide operation for the current acquisition exceeds the threshold TH_V. If the moving speed Vdi exceeds the threshold TH_V (faster than the predetermined speed), the process proceeds to S807; otherwise (if the moving speed Vdi is equal to or less than the threshold TH_V), the process proceeds to S808.

S807では、システム制御部50は、S809で後述する判定用楕円に関するパラメータを以下のように設定する。
Thx=Thx1
Thy=Thy1
(Thy1<Thx1)
In S807, the system control unit 50 sets parameters relating to the determination ellipse described later in S809 as follows.
Thx = Thx1
Thy = Thy1
(Thy1<Thx1)

Thx1とThy1は予め不揮発性メモリ56に記録されていた値であり、Thx1>Thy1の関係を満たす。この関係を満たすように設定しているのは、後述する通り、横方向への指の移動よりも縦方向への指の移動の方が行いにくいことを考慮し、縦方向の方が横方向に比べて短い移動量でAF枠の移動を開始できるようにするためである。ThxとThyは条件によって異なる変数であるが、何れの場合でも、Thxは原点を中心とする判定用楕円の横幅を定義する値であり、Thyは原点を中心とする判定用楕円の縦幅を定義する値である。本実施形態では、何れの場合もThx>Thyを満たすため、判定用楕円の横幅=長軸=2Thxとなり、判定用楕円の縦幅=短軸=2Thyとなる。 Thx1 and Thy1 are values recorded in advance in the nonvolatile memory 56 and satisfy the relationship Thx1>Thy1. The reason why this relationship is satisfied is that, as will be explained later, it is more difficult to move the finger in the vertical direction than in the horizontal direction. This is so that the movement of the AF frame can be started with a shorter amount of movement compared to . Thx and Thy are variables that differ depending on conditions, but in any case, Thx is a value that defines the width of the judgment ellipse centered on the origin, and Thy is a value that defines the height of the judgment ellipse centered on the origin. A value to define. In the present embodiment, since Thx>Thy is satisfied in any case, the horizontal width of the determination ellipse=major axis=2Thx, and the vertical width of the determination ellipse=minor axis=2Thy.

S808では、システム制御部50は、S809で後述する判定用楕円に関するパラメータを以下のように設定する。
Thx=Thx2
Thy=Thy2
(Thy2<Thx2)
(Thx1<Thx2、Thy1<Thy2)
In S808, the system control unit 50 sets parameters relating to the determination ellipse described later in S809 as follows.
Thx = Thx2
Thy = Thy2
(Thy2<Thx2)
(Thx1<Thx2, Thy1<Thy2)

Thx2とThy2は予め不揮発性メモリ56に記録されていた値であり、Thy2<Thx2の関係を満たす。この関係を満たすように設定しているのは、後述する通り、横方向への指の移動よりも縦方向への指の移動の方が行いにくいことを考慮し、縦方向の方が横方向に比べて短い移動量でAF枠の移動を開始できるようにするためである。 Thx2 and Thy2 are values recorded in advance in the nonvolatile memory 56 and satisfy the relationship Thy2<Thx2. The reason why this relationship is satisfied is that, as will be explained later, it is more difficult to move the finger in the vertical direction than in the horizontal direction. This is so that the movement of the AF frame can be started with a shorter amount of movement compared to .

また、Thx1<Thx2、Thy1<Thy2の関係を満たす。すなわち、(Thx1、Thy1)で定義される楕円よりも、(Thx2、Thx2)で定義される楕円の方が大きい。これによって、(Thx1、Thy1)で定義される小さい楕円を用いた判定
よりも、(Thx2、Thx2)で定義される大きい楕円を用いた判定の方が、AF枠の移動を開始するまでに長い移動距離を要する。本実施形態では、指の移動速度が遅い場合に大きい楕円を用いた判定を行うため、指の移動速度が速い場合に比べてAF枠の移動を開始するまでに、あえて長い移動距離を要するようにする。これによって、ユーザーが指をゆっくり移動させて慎重にAF枠を移動させようとしている場合に、AF枠の移動が頻度高く起こり過ぎる、あるいはAF枠が大きい距離移動し過ぎるといったことを防止し、AF枠の位置を微調整することができる。言い換えれば、確実な一つずつ(1移動量毎)の移動を実現する。
In addition, the relationships Thx1<Thx2 and Thy1<Thy2 are satisfied. That is, the ellipse defined by (Thx2, Thx2) is larger than the ellipse defined by (Thx1, Thy1). As a result, the determination using the large ellipse defined by (Thx2, Thx2) takes longer to start moving the AF frame than the determination using the small ellipse defined by (Thx1, Thy1). Requires travel distance. In the present embodiment, since a large ellipse is used for determination when the finger movement speed is slow, a longer movement distance is required to start moving the AF frame than when the finger movement speed is high. to This prevents the AF frame from moving too frequently or moving the AF frame too far when the user is trying to move the AF frame carefully by slowly moving the finger. You can fine-tune the position of the frame. In other words, reliable one-by-one movement (every movement amount) is realized.

S809では、システム制御部50は、移動量の積算値Dsum(Xaveの積算値DsumxとYaveの積算値Dsumy)が、AF枠の移動可否の判定用楕円の縁または外に達したか否かを判定する。判定用楕円は以下の式1によって定義される楕円である。
Dsumx/Thx+Dsumy/Thy=1 …式1
In S809, the system control unit 50 determines whether or not the integrated value Dsum of the movement amount (the integrated value Dsumx of Xave and the integrated value Dsumy of Yave) has reached the edge or outside of the ellipse for determining whether the AF frame can be moved. judge. The decision ellipse is an ellipse defined by Equation 1 below.
Dsumx2 /Thx+ Dsumy2 /Thy=1 Equation 1

すなわち、S809では、システム制御部50は、以下の式2を満たしたか否かを判定する。
Dsumx/Thx+Dsumy/Thy≧1 …式2
That is, in S809, the system control unit 50 determines whether or not Expression 2 below is satisfied.
Dsumx2 /Thx+ Dsumy2 /Thy≧1 Equation 2

式2を満たしたと判定した場合は、S810に進む。式2を満たしていない場合、すなわち、移動量の積算値Dsumが、AF枠の移動可否の判定用楕円の内側である場合には、AF枠の移動(選択位置の移動)は行わず、移動判定処理を終了する。 If it is determined that Expression 2 is satisfied, the process proceeds to S810. If Expression 2 is not satisfied, that is, if the integrated value Dsum of the movement amount is inside the ellipse for determining whether the AF frame can be moved, the AF frame is not moved (moved to the selected position), but moved. End the determination process.

S810では、システム制御部50は、選択位置移動処理1(AF枠の移動処理)を行う。選択位置移動処理1については図10(a)を用いて後述する。 In S810, the system control unit 50 performs selection position movement processing 1 (AF frame movement processing). The selected position moving process 1 will be described later with reference to FIG. 10(a).

S809の判定によれば、移動方向が真横であった場合にはAF枠を移動するか否かの閾値はThxとなり、指の移動量がThx以上となった場合に真横(操作方向と平行)にAF枠が移動され、指の移動量がThx以下であった場合にはAF枠は移動されない。また、移動方向が真上であった場合にはAF枠を移動するか否かの閾値はThyとなり、指の移動量がThy以上となった場合に真上(操作方向と平行)にAF枠が移動され、指の移動量がThy以下であった場合にはAF枠は移動されない。 According to the determination in S809, if the movement direction is horizontal, the threshold for whether or not to move the AF frame is Thx. If the amount of movement of the finger is Thx or less, the AF frame is not moved. When the moving direction is right up, the threshold for whether or not to move the AF frame is Thy. is moved, and the AF frame is not moved if the amount of movement of the finger is less than or equal to Thy.

S811では、システム制御部50は、測距エリア選択モードがゾーンAFに設定されているか否かを判定する。ゾーンAFに設定されている場合にはS812に進み、そうでない場合(例えば自動選択AFに設定されている場合)には移動判定処理を終了する。 In S811, the system control unit 50 determines whether or not the ranging area selection mode is set to zone AF. If zone AF is set, the process proceeds to step S812, otherwise (for example, if automatic selection AF is set), the movement determination process ends.

S812では、システム制御部50は、S809で後述する判定用楕円に関するパラメータを以下のように設定する。
Thx=Thx3
Thy=Thy3
(Thy3<Thx3)
(Thx1<Thx2<Thx3、Thy1<Thy2<Thy3)
In S812, the system control unit 50 sets parameters relating to the determination ellipse described later in S809 as follows.
Thx = Thx3
Thy = Thy3
(Thy3<Thx3)
(Thx1<Thx2<Thx3, Thy1<Thy2<Thy3)

Thx3とThy3は予め不揮発性メモリ56に記録されていた値であり、Thy3<Thx3の関係を満たす。この関係を満たすように設定しているのは、後述する通り、横方向への指の移動よりも縦方向への指の移動の方が行いにくいことを考慮し、縦方向の方が横方向に比べて短い移動量でAF枠の移動を開始できるようにするためである。 Thx3 and Thy3 are values recorded in advance in the nonvolatile memory 56 and satisfy the relationship Thy3<Thx3. The reason why this relationship is satisfied is that, as will be explained later, it is more difficult to move the finger in the vertical direction than in the horizontal direction. This is so that the movement of the AF frame can be started with a shorter amount of movement compared to .

また、Thx1<Thx2<Thx3、Thy1<Thy2<Thy3の関係を満たす。すなわち、(Thx1、Thy1)で定義される楕円、及び、(Thx2、Thx2)
で定義される楕円よりも、(Thx3、Thy3)で定義される楕円の方が大きい。これによって、(Thx1、Thy1)、(Thx2、Thy2)で定義される小さい楕円を用いた判定よりも、(Thx3、Thx3)で定義される大きい楕円を用いた判定の方が、AF枠の移動を開始するまでにさらに長い移動距離を要する。本実施形態では、測距エリア選択モードがゾーンAFである場合に、(Thx3、Thx3)で定義される大きい楕円を用いた判定を行うため、AF枠の移動を開始するまでに、長い移動距離を要する。ゾーンAFである場合の選択可能位置(選択可能なゾーン)の数(9個)は、1点AFの場合(191個)に比べて少ない。また、ゾーンAFを端から端まで移動させても、移動量は最大で移動量2単位分である(例えば図5(d)の左端部のゾーンから図5(g)の右端部のゾーンへ移動する場合)。従ってゾーンAFにおいて選択位置をすばやくたくさん移動させたいという需要は小さい。一方で、選択位置の移動が、短い指の移動量で頻度高く起こり過ぎると、ユーザーが狙った選択位置(ゾーン)を選択し難くなるという課題が大きい。そこで本実施形態では、ゾーンAFのように選択可能位置が少ない場合に、選択位置の移動を開始するまでに、さらに長い移動距離を要するようにすることで、選択位置の微調整を行いやすくしている。言い換えれば、確実な一つずつ(1移動量毎)の移動を実現する。
Further, the relationships Thx1<Thx2<Thx3 and Thy1<Thy2<Thy3 are satisfied. That is, an ellipse defined by (Thx1, Thy1) and (Thx2, Thx2)
The ellipse defined by (Thx3, Thy3) is larger than the ellipse defined by . As a result, determination using the large ellipse defined by (Thx3, Thx3) is better than determination using the small ellipse defined by (Thx1, Thy1) and (Thx2, Thy2). It takes longer distance to start. In this embodiment, when the range-finding area selection mode is zone AF, determination is performed using a large ellipse defined by (Thx3, Thx3). requires. The number of selectable positions (selectable zones) for zone AF (9) is smaller than that for single-point AF (191). Also, even if the zone AF is moved from end to end, the maximum amount of movement is two units (for example, from the leftmost zone in FIG. 5(d) to the rightmost zone in FIG. 5(g)). when moving). Therefore, there is little demand to quickly move the selection position a lot in zone AF. On the other hand, if the movement of the selection position occurs too frequently with a short amount of finger movement, it becomes difficult for the user to select the desired selection position (zone). Therefore, in this embodiment, when the number of selectable positions is small as in zone AF, a longer movement distance is required before the movement of the selection position starts, thereby facilitating fine adjustment of the selection position. ing. In other words, reliable one-by-one movement (every movement amount) is realized.

なお、ゾーンAFでのAF枠の移動量1(1回)あたりの移動量(移動距離)は、選択しているAF枠によって異なり、一定ではない。例えば、図5(a)の状態から左に1回移動した場合には図5(d)のようにファインダー内表示部41において測距点7個分の距離を移動する。一方、図5(a)の状態から上に1回移動した場合には図5(b)のようにファインダー内表示部41において測距点3個分の距離を移動する。従って、Thx2とThx3の関係と、Thx2を用いるケースの単位移動量D2(測距点1つ分)とThx3を用いるケースの単位移動量D3(ゾーンAFでは不定)の関係とは比例しない。すなわち、Thx2:Thx3≠D2:D3である。Thy2:Thy3についても同様である。 Note that the movement amount (movement distance) per movement amount (one time) of the AF frame in zone AF differs depending on the selected AF frame and is not constant. For example, when the camera is moved once to the left from the state shown in FIG. 5(a), the distance corresponding to seven distance measuring points is moved in the viewfinder display section 41 as shown in FIG. 5(d). On the other hand, when it is moved once from the state of FIG. 5(a), it moves a distance corresponding to three distance measuring points in the viewfinder display section 41 as shown in FIG. 5(b). Therefore, the relationship between Thx2 and Thx3 is not proportional to the relationship between the unit movement amount D2 (one distance measuring point) when Thx2 is used and the unit movement amount D3 (indefinite in zone AF) when Thx3 is used. That is, Thx2:Thx3≠D2:D3. The same is true for Thy2:Thy3.

S820では、システム制御部50は、現在の動作モードがLVモードであるか否かを判定する。LVモードである場合はS821に進み、そうでない場合はS824に進む。 In S820, the system control unit 50 determines whether or not the current operating mode is the LV mode. If it is the LV mode, proceed to S821; otherwise, proceed to S824.

S821では、システム制御部50は、AF方式(AF枠の選択モード)が顔+追尾AFに設定されているか否かを判定する。顔+追尾AFに設定されている場合はS823に進み、そうでない場合(例えば図6(a)に示したライブ1点AFに設定されている場合)にはS822に進む。 In S821, the system control unit 50 determines whether or not the AF method (AF frame selection mode) is set to face+tracking AF. If the face+tracking AF is set, the process proceeds to S823; otherwise (for example, if the live single-point AF shown in FIG. 6A is set), the process proceeds to S822.

S822では、システム制御部50は、選択位置移動処理2(AF枠の移動処理)を行う。選択位置移動処理2については図10(b)を用いて後述する。 In S822, the system control unit 50 performs selection position movement processing 2 (AF frame movement processing). The selected position moving process 2 will be described later with reference to FIG. 10(b).

S823では、システム制御部50は、LVから検出された顔を選択した状態(例えば図6(b)に示す状態)であるか否かを判定する。顔を選択した状態でないと判定した場合にはS822に進む。S823で顔を選択した状態であると判定するとS805に進む。ただしこの場合のS805~S810の処理では、diのうちy成分は無視して、x成分(左右方向への移動成分)のみを用いて処理を行う。顔の選択の移動(変更)において、1つ隣の顔は近い距離である場合(集合写真など)もあれば、遠い距離である場合(図6(b)のような場合)もある。従って、スライド操作の移動量に比例した距離にある顔を選択するというアルゴリズムとすると、1つ隣の顔を選択するためのスライド操作の操作量が、顔と顔の距離に応じて変わってしまい、一定の操作感とならない。そこで本実施形態では、顔の選択状態においては、操作量の積算値Dsumが判定用楕円を超えるたびに選択位置を1つずつ移動するS805~S810の処理を行う。これによって、1つ隣の顔を選択するためのスライド操作の操作量が顔と顔の距離にかかわらずある程度一定の
量となり、ユーザーの操作感を向上させることができる。なおこの場合でも、スライド操作の移動速度に応じて異なる大きさの判定用楕円と比較する処理は行うので、ゆっくり移動させるスライド操作での微調整も行いやすい。ただしこれに限るものではなく、顔の選択状態においては、スライド操作の移動速度にかかわらず同じ大きさの判定用楕円と比較する処理としてもよい。
In S823, the system control unit 50 determines whether or not the face detected from the LV is selected (for example, the state shown in FIG. 6B). If it is determined that the face is not selected, the process advances to S822. If it is determined in S823 that the face has been selected, the process advances to S805. However, in the processing of S805 to S810 in this case, the y component of di is ignored and only the x component (horizontal direction movement component) is used. In the movement (change) of face selection, the adjacent face may be at a short distance (such as in a group photo) or at a long distance (case shown in FIG. 6B). Therefore, if the algorithm selects a face at a distance proportional to the amount of movement of the slide operation, the operation amount of the slide operation for selecting the adjacent face will change according to the distance between the faces. , does not give a constant feeling of operation. Therefore, in this embodiment, in the face selection state, the processing of S805 to S810 is performed to move the selection position by one each time the integrated value Dsum of the operation amount exceeds the determination ellipse. As a result, the operation amount of the slide operation for selecting the next face becomes constant to some extent regardless of the distance between the faces, and the user's operational feeling can be improved. Even in this case, since the process of comparing with the judgment ellipse of different size is performed according to the moving speed of the slide operation, it is easy to perform fine adjustment by the slide operation of slow movement. However, the present invention is not limited to this, and in the face selection state, processing may be performed in which comparison is made with the determination ellipse of the same size regardless of the moving speed of the slide operation.

S824では、システム制御部50は、その他の動作モードにおけるAF-ONボタン1に対するスライド操作に応じた処理を行う。例えば、メニュー画面における選択カーソル移動操作などであるが、本実施形態では説明を省略する。 In S824, the system control unit 50 performs processing according to the slide operation of the AF-ON button 1 in other operation modes. For example, a selection cursor movement operation on a menu screen, etc., will be omitted in this embodiment.

図9(a)~図9(c)に、1点AFでAF-ONボタン1または2に対する1回のタッチ操作(タッチダウンからタッチアップまでの操作)が行われた場合の動作例を示す。なお図9(a)~図9(c)で説明する各タッチ位置は仮想平面上でのタッチ位置であり、AF-ONボタン1または2でタッチを検知し始めた時点を位置P0とした、AF-ONボタン1または2で検知された指の移動量に基づく相対的なタッチ位置である。 9(a) to 9(c) show operation examples when one touch operation (operation from touchdown to touchup) is performed on the AF-ON button 1 or 2 in single-point AF. . Each touch position described in FIGS. 9(a) to 9(c) is a touch position on a virtual plane. It is a relative touch position based on the amount of finger movement detected by the AF-ON button 1 or 2 .

図9(a)では、位置P0から位置P2までのスライド操作(移動速度>閾値TH_V)が行われる。操作開始から50msec経過するまでに、タッチ位置は、移動量d1で位置P0から位置P1に移動し、位置P0を中心とする判定用楕円e1の外に出る。このため、50msec経過の時点で、選択位置移動処理1が行われ、AF枠が移動量1で、角度θ1によって決まる方向へ移動する。詳細は後述するが、このとき、選択位置移動処理1により、移動量diの積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P1にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 In FIG. 9A, a slide operation (moving speed>threshold value TH_V) from position P0 to position P2 is performed. By the time 50 msec has elapsed from the start of the operation, the touch position moves from the position P0 to the position P1 by the movement amount d1, and goes out of the determination ellipse e1 centered at the position P0. Therefore, when 50 msec have elapsed, the selected position movement process 1 is performed, and the AF frame moves by a movement amount of 1 in the direction determined by the angle θ1. Although the details will be described later, at this time, the integrated value Dsum of the movement amount di is reset to 0 by the selection position moving process 1, and the center position of the judgment ellipse is reset to the position P1 (the integrated value Dsum and the judgment ellipse coordinate system is reset).

同様に、図9(a)では、50msec経過時点から100msec経過時点までの50msec期間に、タッチ位置は、移動量d2で位置P1から位置P2に移動し、位置P1を中心とする判定用楕円e1の外に出る。このため、100msec経過の時点でもAF枠が移動量1で、角度θ2によって決まる方向へ移動する。このときも、積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P2にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 Similarly, in FIG. 9A, the touch position moves from the position P1 to the position P2 by the movement amount d2 in a period of 50 msec from the time when 50 msec has passed to the time when 100 msec has passed, and the determination ellipse e1 centered on the position P1 get out of Therefore, even after 100 msec has elapsed, the AF frame moves by a movement amount of 1 in the direction determined by the angle θ2. Also at this time, the integrated value Dsum is reset to 0, and the center position of the determination ellipse is reset to the position P2 (the integrated value Dsum and the coordinate system of the determination ellipse are reset).

図9(b)では、位置P0から位置P4までのスライド操作(移動速度>閾値TH_V)が行われる。操作開始から50msec経過するまでに、タッチ位置は、移動量d1で位置P0から位置P1に移動する。図9(b)の移動量d1は図9(a)の移動量d1と等しいが、図9(b)では、移動量d1でのタッチ位置の移動方向が図9(a)と異なり、50msec経過の時点でのタッチ位置P1は判定用楕円e1の内側にある。このため、50msec経過の時点では、選択位置移動処理1は行われず、AF枠は移動しない。このように、AF枠を移動する否かを楕円を用いて判断するため、タッチ位置の移動量diが同じであっても、タッチ位置の移動方向によってAF枠が移動したり、移動しなかったりする。また、タッチ位置の移動量の取得期間(50msec)の複数回分に亘る1回のスライド操作(すなわち、100msec以上に亘るスライド操作)で同じスライド距離をスライドさせても、タッチ位置の移動方向によってAF枠の移動量が異なる。例えば、X軸と平行に右に操作量(1回のタッチ操作でのタッチ位置のトータルの移動距離)が距離Mとなるスライド操作が行われた場合には、第1の移動量(例えば3)でAF枠の位置が右方向に移動する。一方、Y軸と平行に上に前述の距離Mと同じ操作量でスライド操作が行われた場合には、第1の移動量よりも大きい第2の移動量(例えば5)でAF枠の位置が上方向に移動する。 In FIG. 9B, a slide operation (moving speed>threshold value TH_V) from position P0 to position P4 is performed. The touch position moves from the position P0 to the position P1 by the movement amount d1 within 50 msec from the start of the operation. The movement amount d1 in FIG. 9B is equal to the movement amount d1 in FIG. 9A, but in FIG. The touch position P1 at the time of progress is inside the determination ellipse e1. Therefore, when 50 msec has elapsed, the selected position moving process 1 is not performed, and the AF frame does not move. In this way, since it is determined using the ellipse whether or not to move the AF frame, even if the movement amount di of the touch position is the same, the AF frame may or may not move depending on the movement direction of the touch position. do. In addition, even if the same slide distance is slid in one slide operation (that is, a slide operation over 100 msec or more) over a plurality of times during the acquisition period (50 msec) of the amount of movement of the touch position, AF The movement amount of the frame is different. For example, when a slide operation is performed to the right in parallel with the X-axis with an operation amount (total movement distance of the touch position in one touch operation) of a distance M, a first movement amount (for example, 3 ) to move the AF frame to the right. On the other hand, when the slide operation is performed in parallel with the Y-axis and with the same operation amount as the above-mentioned distance M, the position of the AF frame is shifted by a second movement amount (for example, 5) larger than the first movement amount. moves upward.

そして、図9(b)では、50msec経過時点から100msec経過時点までの50msec期間に、タッチ位置は、移動量d2で位置P1から位置P2に移動し、位置P
0を中心とする判定用楕円e1の外に出る。このため、100msec経過の時点で初めて、選択位置移動処理1が行われ、AF枠が移動量1で移動する。AF枠の移動方向は、移動量d1とd2とを積算した積算値Dsumを示す位置P0と位置P2を結ぶ線分(図中破線)と、Y軸との成す角θ1によって決まる。このとき、積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P2にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。
Then, in FIG. 9B, the touch position moves from position P1 to position P2 by a movement amount d2 in a period of 50 msec from the point at which 50 msec has elapsed to the point at which 100 msec has elapsed.
Go out of the judging ellipse e1 centered at 0. Therefore, the selected position moving process 1 is performed for the first time after 100 msec has elapsed, and the AF frame is moved by a moving amount of 1. FIG. The moving direction of the AF frame is determined by the angle θ1 between the line segment (broken line in the drawing) connecting the positions P0 and P2 indicating the integrated value Dsum of the moving amounts d1 and d2 and the Y axis. At this time, the integrated value Dsum is reset to 0, and the center position of the determination ellipse is reset to the position P2 (the integrated value Dsum and the coordinate system of the determination ellipse are reset).

同様に、図9(b)では、150msec経過するまでに、タッチ位置は、移動量d3で位置P2から位置P3に移動するが、位置P2を中心とする判定用楕円e1の外に出ないため、150msec経過の時点ではAF枠は移動しない。そして、200msec経過するまでに、タッチ位置は、移動量d4で位置P3から位置P4に移動し、位置P2を中心とする判定用楕円e1の外に出るため、200msec経過の時点でAF枠が移動量1で移動する。AF枠の移動方向は、移動量d3とd4とを積算した積算値Dsumを示す位置P2と位置P4を結ぶ線分(図中破線)と、Y軸との成す角θ2によって決まる。このとき、積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P4にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 Similarly, in FIG. 9B, the touch position moves from the position P2 to the position P3 by the movement amount d3 before 150 msec elapses, but does not go outside the determination ellipse e1 centered at the position P2. , the AF frame does not move after 150 msec. By the time 200 msec has passed, the touch position moves from the position P3 to the position P4 by the movement amount d4, and goes out of the determination ellipse e1 centered at the position P2. Move by amount 1. The moving direction of the AF frame is determined by the angle θ2 between the line segment (broken line in the figure) connecting the positions P2 and P4 indicating the integrated value Dsum of the moving amounts d3 and d4 and the Y axis. At this time, the integrated value Dsum is reset to 0, and the center position of the determination ellipse is reset to the position P4 (the integrated value Dsum and the coordinate system of the determination ellipse are reset).

図9(c)では、位置P0から位置P5までのスライド操作が行われる。操作開始から50msec経過するまでに、タッチ位置は、移動量d1と閾値TH_Vよりも速い移動速度とで位置P0から位置P1に移動する。同様に、50msec経過時点から100msec経過時点までの50msec期間に、タッチ位置は、移動量d2と閾値TH_Vよりも速い移動速度とで位置P1から位置P2に移動する。このため、50msec経過の時点と、100msec経過の時点とでは、図9(a)、図9(b)と同様に、AF枠を移動するか否かがThx=Thx1かつThy=Thy1の判定用楕円e1を用いて判定され、AF枠がそれぞれ移動量1で移動する。 In FIG. 9C, a slide operation from position P0 to position P5 is performed. The touch position moves from the position P0 to the position P1 with the moving amount d1 and the moving speed higher than the threshold TH_V by the time 50 msec has elapsed from the start of the operation. Similarly, the touch position moves from the position P1 to the position P2 at a moving amount d2 and a moving speed faster than the threshold TH_V in a 50 msec period from the time when 50 msec has passed to the time when 100 msec has passed. Therefore, when 50 msec has passed and when 100 msec has passed, as in FIGS. Determination is made using the ellipse e1, and each AF frame moves by a movement amount of 1.

その後、タッチ位置は閾値TH_Vよりも遅い移動速度で移動するため、AF枠を移動するか否かはThx=Thx2かつThy=Thy2の判定用楕円e2を用いて判定される。具体的には、100msec経過時点から150msec経過時点までの期間に、タッチ位置は、移動量d3で位置P2から位置P3に移動するが、位置P2を中心とする判定用楕円e2の外に出ないため、150msec経過の時点ではAF枠は移動しない。同様に、150msec経過時点から200msec経過時点までの50msec期間に、タッチ位置は、移動量d4で位置P3から位置P4に移動するが、位置P2を中心とする判定用楕円e2の外に出ないため、200msec経過の時点ではAF枠は移動しない。そして、200msec経過時点から250msec経過時点までの50msec期間に、タッチ位置は、移動量d5で位置P4から位置P5に移動し、位置P2を中心とする判定用楕円e2の外に出る。このため、250msec経過の時点で、選択位置移動処理1が行われ、AF枠が移動量1で移動する。AF枠の移動方向は、移動量d3~d5が積算された積算値Dsumを示す位置P2と位置P5を結ぶ線分(図中破線)と、Y軸との成す角θ3によって決まる。このとき、積算値Dsumが0にリセットされ、判定用楕円の中心位置が位置P5にリセットされる(積算値Dsumや判定用楕円の座標系が再設定される)。 After that, the touch position moves at a moving speed slower than the threshold TH_V, so whether or not to move the AF frame is determined using the determination ellipse e2 with Thx=Thx2 and Thy=Thy2. Specifically, the touch position moves from the position P2 to the position P3 by the movement amount d3 in the period from the time when 100 msec has passed to the time when 150 msec has passed, but does not go outside the judgment ellipse e2 centered at the position P2. Therefore, the AF frame does not move after 150 msec. Similarly, the touch position moves from position P3 to position P4 by a movement amount d4 in a period of 50 msec from the time when 150 msec has passed until the time when 200 msec has passed. , the AF frame does not move after 200 msec. Then, in a period of 50 msec from the time when 200 msec has passed until the time when 250 msec has passed, the touch position moves from the position P4 to the position P5 by the movement amount d5, and goes out of the judgment ellipse e2 centered at the position P2. Therefore, when 250 msec has elapsed, the selected position movement process 1 is performed, and the AF frame is moved by a movement amount of 1. FIG. The moving direction of the AF frame is determined by the angle θ3 between the line segment (broken line in the drawing) connecting the position P2 and the position P5 indicating the integrated value Dsum of the moving amounts d3 to d5 and the Y axis. At this time, the integrated value Dsum is reset to 0, and the center position of the judgment ellipse is reset to the position P5 (the integrated value Dsum and the coordinate system of the judgment ellipse are reset).

常に判定用楕円e1を使用すれば、位置P2を中心とする判定用楕円e1の外にタッチ位置(位置P4)が出るため、200msec経過の時点でAF枠が移動する。本実施形態では、移動速度が遅い場合に判定用楕円e1よりも大きい判定用楕円e2を使用することで、このような移動が生じないようにしている。これにより、AF枠の移動応答性を敢えて低下させ、AF枠の微調整を行いやすくしている。 If the determination ellipse e1 is always used, the touch position (position P4) will appear outside the determination ellipse e1 centered at the position P2, so the AF frame will move after 200 msec. In this embodiment, when the moving speed is slow, such a movement is prevented by using the determination ellipse e2 that is larger than the determination ellipse e1. As a result, the movement responsiveness of the AF frame is intentionally lowered to facilitate fine adjustment of the AF frame.

ところで、図9(c)においてタッチ位置は移動量d2によって判定用楕円e1から大
きく外に出る(位置P1から位置P2までの距離が位置P1から判定用楕円e1の縁までの距離の2倍以上ある)。しかし、位置P2のタイミングでのAF枠の移動量は移動量1である。このように、選択位置移動処理1によるAF枠の1回の移動量は、移動量diの1回の取得期間(50msec)に指がどんなに移動しても(判定用楕円を超えた先の指の移動量にかかわらず)固定である。すなわち、指の移動量とAF枠の移動量は比例関係にはない。このため、移動量diの1回の取得期間(50msec)内に終わるような素早いスライド操作の度に1つAF枠を移動する(例えば、小刻みに素早く3回スライド操作をするとAF枠が3つ分移動する)といった使用方法が可能となる。その結果、素早く確実にAF枠を1つずつ移動させることができるようになる。AF枠を移動させたい量に応じた回数指をスライドすることを好むユーザーであってもAF枠を一点ずつ移動させることができる。
By the way, in FIG. 9(c), the touch position is greatly outside the judgment ellipse e1 by the movement amount d2 (the distance from the position P1 to the position P2 is more than twice the distance from the position P1 to the edge of the judgment ellipse e1). be). However, the amount of movement of the AF frame at the timing of position P2 is 1. In this way, the amount of movement of the AF frame once by the selection position movement process 1 is the same regardless of how the finger moves during one acquisition period (50 msec) of the movement amount di (the finger beyond the judgment ellipse is fixed regardless of the amount of movement of That is, the amount of movement of the finger and the amount of movement of the AF frame are not in a proportional relationship. For this reason, one AF frame is moved each time a quick slide operation is performed within one acquisition period (50 msec) of the movement amount di (for example, three AF frames are movement) can be used. As a result, it becomes possible to quickly and reliably move the AF frames one by one. Even a user who prefers to slide his/her finger a number of times corresponding to the desired amount of movement of the AF frame can move the AF frame point by point.

一方で、移動量diの2回以上の取得期間(100msec以上)に亘る1回のスライド操作で、連続してAF枠を大きく移動させることもできる。ある程度の速度で長くスライド操作すれば、50msec毎にAF枠が1つ移動し、1回のスライド操作で大きくAF枠を移動させることもできる。 On the other hand, it is also possible to continuously move the AF frame greatly by one slide operation over two or more acquisition periods (100 msec or more) of the movement amount di. If the slide operation is performed for a long time at a certain speed, the AF frame moves by one every 50 msec, and the AF frame can be moved greatly by one slide operation.

なお、図9(c)に示すような速度別閾値は、楕円とは異なる形状で設定してもよい。例えば、スライド操作の移動方向にかかわらず同じ閾値が使用されるように、移動速度ごとに異なる大きさの円で閾値を設定してもよい。 It should be noted that the speed-specific thresholds as shown in FIG. 9C may be set in a shape different from the ellipse. For example, the threshold may be set with a circle of a different size for each movement speed so that the same threshold is used regardless of the movement direction of the slide operation.

なお、顔+追尾AFで顔を選択した状態の場合にも、1点AFと同様に、判定用楕円e1や判定用楕円e2を用いて、AF枠を移動するか否かが判定される。ゾーンAFの場合には、Thx=Thx3かつThy=Thy3の判定用楕円を用いて、AF枠を移動するか否かが判定される。ゾーンAFの場合には、移動速度による判定用楕円の切り替えは行われない。 Note that even when a face is selected in face+tracking AF, similarly to 1-point AF, determination ellipse e1 and determination ellipse e2 are used to determine whether or not to move the AF frame. In the case of zone AF, whether or not to move the AF frame is determined using a determination ellipse of Thx=Thx3 and Thy=Thy3. In the case of zone AF, the determination ellipse is not switched according to the moving speed.

図10(a)に、選択位置移動処理1のフローチャートを示す。この処理は、前述の図8のS810の処理の詳細である。また、この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。 FIG. 10(a) shows a flowchart of the selected position moving process 1. As shown in FIG. This process is the details of the process of S810 in FIG. 8 described above. Also, this process is realized by loading the program recorded in the nonvolatile memory 56 into the system memory 52 and executing it by the system control unit 50 .

S1001では、システム制御部50は、移動量の積算値Dsum(方向成分をもつ2次元座標値)のベクトル方向がなす角度θを算出する。図9(a)の場合、操作開始から50msec経過の時点で、移動量d1を積算値Dsumとして、積算値Dsumのなす角度θ1(位置P0から位置P1に向かう方向の、Y方向(縦方向)に対する角度)が算出され、積算値Dsumが0にリセットされる。そして、100msec経過の時点で、移動量d2を積算値Dsumとして、積算値Dsumのなす角度θ2が算出される。図9(b)の場合、50msec経過の時点では選択位置移動処理1は行われず、100msec経過の時点で、移動量d1と移動量d2の和(破線)を積算値Dsumとして、積算値Dsumのなす角度θ1が算出され、積算値Dsumが0にリセットされる。そして、150msec経過の時点では選択位置移動処理1は行われず、200msec経過の時点で、移動量d3と移動量d4の和(破線)を積算値Dsumとして、積算値Dsumのなす角度θ2が算出される。図9(c)の場合も同様に、50msec経過の時点、100msec経過の時点、及び、250msec経過の時点で角度θ1、角度θ2、及び、角度θ3が算出される。 In S1001, the system control unit 50 calculates the angle θ formed by the vector direction of the integrated value Dsum of the movement amount (two-dimensional coordinate value having a direction component). In the case of FIG. 9A, when 50 msec has elapsed from the start of the operation, the amount of movement d1 is set to the integrated value Dsum, and the angle θ1 formed by the integrated value Dsum (the direction from the position P0 to the position P1, in the Y direction (vertical direction) ) is calculated, and the integrated value Dsum is reset to zero. Then, when 100 msec has elapsed, the movement amount d2 is taken as the integrated value Dsum, and the angle θ2 formed by the integrated value Dsum is calculated. In the case of FIG. 9(b), the selected position movement process 1 is not performed after 50 msec, and the sum (dashed line) of the movement amount d1 and the movement amount d2 is set as the integrated value Dsum after 100 msec. The formed angle θ1 is calculated, and the integrated value Dsum is reset to zero. Then, when 150 msec has passed, the selected position movement process 1 is not performed, and when 200 msec has passed, the sum (dashed line) of the movement amount d3 and the movement amount d4 is taken as the integrated value Dsum, and the angle θ2 formed by the integrated value Dsum is calculated. be. Similarly, in the case of FIG. 9C, the angles θ1, θ2, and θ3 are calculated after 50 msec, 100 msec, and 250 msec have passed.

S1002では、システム制御部50は、S1001で算出した角度θに基づいて、AF枠(選択位置)の移動方向を決定する。本実施形態では、以下のように、角度θを、上、下、左、右、左上、左下、右上、右下の8方向のいずれかに変換する。なお、移動方向
の候補の数や向きは特に限定されない。
-22.5°(337.5°)<θ≦22.5°…移動方向:上
22.5°<θ≦67.5°…移動方向:右上
67.5°<θ≦112.5°…移動方向:右
112.5°<θ≦157.5°…移動方向:右下
157.5°<θ≦202.5°…移動方向:下
202.5°<θ≦247.5°…移動方向:左下
247.5°<θ≦292.5°…移動方向:左
292.5°<θ≦337.5°…移動方向:左上
In S1002, the system control unit 50 determines the movement direction of the AF frame (selected position) based on the angle θ calculated in S1001. In the present embodiment, the angle θ is converted into one of eight directions of up, down, left, right, upper left, lower left, upper right, and lower right, as follows. Note that the number and direction of moving direction candidates are not particularly limited.
-22.5° (337.5°) < θ ≤ 22.5° Moving direction: Up 22.5° < θ ≤ 67.5° Moving direction: Right upper 67.5° < θ ≤ 112.5° …moving direction: right 112.5°<θ≦157.5°…moving direction: lower right 157.5°<θ≦202.5°…moving direction: down 202.5°<θ≦247.5°… Direction of movement: Lower left 247.5°<θ≦292.5° Direction of movement: Left 292.5°<θ≦337.5° Direction of movement: Upper left

S1003では、システム制御部50は、AF枠の移動量として固定値1を設定する。なお、AF枠の移動量は1でなくてもよく、予めユーザーが他の移動量を指定(設定)できてもよい。 In S1003, the system control unit 50 sets a fixed value of 1 as the movement amount of the AF frame. Note that the amount of movement of the AF frame may not be 1, and the user may designate (set) another amount of movement in advance.

S1004では、システム制御部50は、S1002で決定した移動方向(上、下、左、右、左上、左下、右上、右下の8方向のいずれか)に、S1003で設定した移動量1で、AF枠を移動させる。例えば、図4(a)の状態から右上に移動量1でAF枠を移動させると、図4(b)の状態となる。なお、AF枠が測距点群の行または列の端にある場合は、AF枠は端を超える方向には動かない(端で突き当たる)。 In S1004, the system control unit 50 moves in the direction of movement determined in S1002 (one of the eight directions of up, down, left, right, upper left, lower left, upper right, and lower right) with the amount of movement 1 set in S1003. Move the AF frame. For example, when the AF frame is moved to the upper right by a movement amount of 1 from the state shown in FIG. 4A, the state shown in FIG. 4B is obtained. Note that when the AF frame is located at the end of the row or column of the range-finding point group, the AF frame does not move beyond the end (strikes at the end).

S1005では、システム制御部50は、移動量の積算値Dsumを0にリセットする。 In S1005, the system control unit 50 resets the integrated value Dsum of the movement amount to zero.

図10(b)に、選択位置移動処理2のフローチャートを示す。この処理は、前述の図8のS822の処理の詳細である。また、この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。 FIG. 10(b) shows a flowchart of the selected position moving process 2. As shown in FIG. This process is the details of the process of S822 in FIG. 8 described above. Also, this process is realized by loading the program recorded in the nonvolatile memory 56 into the system memory 52 and executing it by the system control unit 50 .

S1011では、システム制御部50は、移動量di、すなわち移動量(X=Xave,Y=Yave)[μm]を、ライブビュー画像(LV画像)のアスペクト比や大きさを考慮して、ライブビュー画像の座標系の相対移動量(X´,Y´)に変換する。 In S1011, the system control unit 50 calculates the movement amount di, that is, the movement amount (X=Xave, Y=Yave) [μm], considering the aspect ratio and size of the live view image (LV image). Convert to the relative movement amount (X', Y') of the coordinate system of the image.

S1012では、システム制御部50は、AF枠の移動量(X´,Y´)に係数値を乗算することで、AF枠の移動量を決定する。具体的には、S1011で得られた値X´に係数Kxを乗算することで最終的な値X´を決定し、S1011で得られた値Y´に係数Kyを乗算することで最終的な値Y´を決定する。なお、係数値=1とする場合はS1012の処理は行わなくてもよく、また係数値Kx,Kyは実数値であれば、いかなる値でもよい。 In S1012, the system control unit 50 multiplies the movement amount (X', Y') of the AF frame by a coefficient value to determine the movement amount of the AF frame. Specifically, the final value X' is determined by multiplying the value X' obtained in S1011 by a coefficient Kx, and the final value X' is determined by multiplying the value Y' obtained in S1011 by a coefficient Ky. Determine the value Y'. Note that if the coefficient value is 1, the process of S1012 may not be performed, and the coefficient values Kx and Ky may be any real values.

S1013では、システム制御部50は、S1012で決定した移動量(X´,Y´)で、AF枠を相対的に移動させる。右上へのスライド操作で、例えば図6(a)で説明したようなAF枠の移動(選択位置の移動)が行われる。 In S1013, the system control unit 50 relatively moves the AF frame by the movement amount (X', Y') determined in S1012. A slide operation to the upper right moves the AF frame (moves the selected position) as described with reference to FIG. 6A, for example.

選択位置移動処理2では、スライド操作の移動距離が図8のS809で説明した楕円の閾値を超えなくとも、スライド操作の移動距離に比例してAF枠の移動(選択位置の移動)が行われる。例えば、LVモードにおいて、AF枠の選択モード(指定モード)が、顔が検知されているか否かに関わらないライブ1点AF(任意選択)である場合には、スライド操作に応じて選択位置移動処理2が行われる。従って、ライブ1点AF(任意選択)においては、X軸と平行に右にスライド操作が行われた場合に、スライド操作の移動距離の積算値が楕円の判定閾値(X軸と平行に右なので、距離Thx1)を超えなくても、A
F枠の移動(選択位置の移動)が行われる。一方、LVモードにおいて、AF枠の選択モード(指定モード)が、LV画像から検出された顔を選択する顔+追尾優先AFである場合には、顔が検出されて選択されていればS823がYesとなり、S805に進む。そして、S805~S808の処理を行った上で、S809で楕円の判定閾値を超えたと判定した場合に、スライド操作に応じた選択位置移動処理1が行われる。従って、顔+追尾優先AFにおいては、X軸と平行に右にスライド操作が行われた場合に、移動距離の積算値が楕円の判定閾値(X軸と平行に右なのでThx1またはThx2)を超えない限りAF枠の移動は行わず、楕円の判定閾値を超えるとAF枠を移動する。すなわち、選択対象の被写体(顔)を変更する。なお、LVモードにおける検出可能な他の種別の被写体(例えば瞳)を選択可能なAF枠の選択モードにおいて、上述の顔+追尾優先AFと同様の処理を行っても良い。すなわち、こS809で楕円の判定閾値を超えたと判定した場合に、スライド操作に応じた選択位置移動処理1を行うようにしても良い。
In selection position movement processing 2, even if the movement distance of the slide operation does not exceed the elliptical threshold value described in S809 of FIG. 8, the AF frame is moved (moved the selection position) in proportion to the movement distance of the slide operation. . For example, in the LV mode, if the selection mode (designation mode) of the AF frame is live one-point AF (arbitrary selection) regardless of whether or not a face is detected, the selection position moves according to the slide operation. Processing 2 is performed. Therefore, in Live 1-point AF (arbitrary selection), when a slide operation is performed to the right parallel to the X axis, the integrated value of the movement distance of the slide operation is the ellipse determination threshold (because it is to the right parallel to the X axis, , even if the distance Thx1) is not exceeded, A
Movement of the F frame (movement of the selected position) is performed. On the other hand, in the LV mode, when the selection mode (designation mode) of the AF frame is the face+tracking priority AF that selects the face detected from the LV image, if the face is detected and selected, S823 is executed. It becomes Yes and progresses to S805. Then, after performing the processes of S805 to S808, when it is determined in S809 that the determination threshold for the ellipse is exceeded, selection position movement process 1 is performed according to the slide operation. Therefore, in face + tracking priority AF, when a slide operation is performed to the right parallel to the X axis, the integrated value of the moving distance exceeds the ellipse determination threshold (thx1 or Thx2 because it is right parallel to the X axis). The AF frame is not moved as long as it is not present, and is moved when the determination threshold of the ellipse is exceeded. That is, the subject (face) to be selected is changed. Note that the same processing as the above-described face+tracking priority AF may be performed in the AF frame selection mode that allows selection of other types of detectable subjects (eg pupils) in the LV mode. That is, if it is determined in S809 that the determination threshold for the ellipse has been exceeded, the selected position movement processing 1 may be performed according to the slide operation.

図11(a)~図11(e)を用いて、AF-ONボタンのスライド操作における課題と、本実施形態の判定に楕円を用いること(縦方向の方が横方向に比べて少ない移動量でAF枠の移動を開始すること)による効果との一例について説明する。 Using FIGS. 11(a) to 11(e), problems in the slide operation of the AF-ON button and the use of an ellipse for determination in the present embodiment (the amount of movement in the vertical direction is smaller than that in the horizontal direction). An example of the effect of starting the movement of the AF frame with ) will be described.

図11(a)は、ユーザーが右手1100で第1グリップ部101を保持し、カメラ100を横位置で構えて、AF-ONボタン1を操作する様子を示す。図11(b)は、ユーザーが右手1100で第2グリップ部102を保持し、カメラ100を縦位置で構えて、AF-ONボタン2を操作する様子を示す。図11(c)は、ユーザーが右手1100で第1グリップ部101を保持し、カメラ100を縦位置で構えて、AF-ONボタン1を操作する様子を示す。図11(a)~11(c)のいずれにおいても、ユーザーは右手1100の親指1101でAF-ONボタンを操作することになる。 FIG. 11A shows how the user operates the AF-ON button 1 while holding the first grip section 101 with the right hand 1100 and holding the camera 100 horizontally. FIG. 11(b) shows the user holding the second grip section 102 with the right hand 1100, holding the camera 100 in the vertical position, and operating the AF-ON button 2. FIG. FIG. 11(c) shows how the user holds the first grip section 101 with the right hand 1100, holds the camera 100 vertically, and operates the AF-ON button 1. FIG. In any of FIGS. 11(a) to 11(c), the user operates the AF-ON button with the thumb 1101 of the right hand 1100. FIG.

図11(d)は、AF-ONボタンへの横スライド操作(横方向のスライド操作、具体的には右へのスライド操作)が行われる様子を示す。状態1141は横スライド操作の開始状態であり、状態1142は横スライド操作中の状態であり、状態1143は横スライド操作の終了状態である。状態1141~1143のように、横スライド操作は、指関節の付け根を支点として弧を描くような操作である。横スライド操作は比較的行いやすく(例えばAF-ONボタンへの接触圧や接触部分を維持しやすく)、横スライド操作では親指1101の大きな移動量が検出されやすい。特にOTPのような指の画像パターンの差分で指の移動を判定するデバイスの場合は、AF-ONボタンへの接触圧や接触部分を維持しやすい横スライド操作中に、人間の指紋の特徴を安定して検出しやすく、横スライド操作を検出しやすい。 FIG. 11(d) shows how the AF-ON button is laterally slid (slide in the lateral direction, specifically to the right). State 1141 is the start state of the lateral slide operation, state 1142 is the state during the lateral slide operation, and state 1143 is the end state of the lateral slide operation. As in states 1141 to 1143, the lateral slide operation is an operation that draws an arc with the base of the finger joint as a fulcrum. The lateral slide operation is relatively easy to perform (for example, it is easy to maintain the contact pressure on the AF-ON button and the contact portion), and a large amount of movement of the thumb 1101 is easily detected in the lateral slide operation. In particular, in the case of devices such as OTP that determine finger movement based on differences in finger image patterns, the characteristics of human fingerprints can be captured during horizontal slide operations, which makes it easy to maintain the contact pressure and contact area on the AF-ON button. It is stable and easy to detect, and it is easy to detect horizontal slide operation.

図11(e)は、AF-ONボタンへの縦スライド操作(縦方向のスライド操作、具体的には上へのスライド操作)が行われる様子を示す。図11(e)において、上側の図は、背面側(AF-ONボタンの操作面に対して正面側)からAF-ONボタンを見た場合の模式図であり、下側の図は、側面側からAF-ONボタンを見た場合の模式図である。状態1151は縦スライド操作の開始状態であり、状態1152は縦スライド操作中の状態であり、状態1153は縦スライド操作の終了状態である。状態1151~1153のように、縦スライド操作は、指関節を折り曲げたり伸ばしたりするような操作である。縦スライド操作は比較的行いにくく(例えばAF-ONボタンへの接触圧や接触部分を維持しにくく)、縦スライド操作では親指1101の大きな移動量が検出されにくい。特にOTPのような指の画像パターンの差分で指の移動を判定するデバイスの場合は、AF-ONボタンへの接触圧や接触部分を維持しにくい縦スライド操作中に、人間の指紋の特徴を安定して検出しにくく、縦スライド操作を検出しにくい。図11(e)では、親指1101の指先に近い部分がAF-ONボタンに接触して縦スライド操作が開始する(状態1151の側面図)。そして、親指1101の指先から遠ざかるようにAF-ONボタンへの
接触部分が変化して縦スライド操作が終了する(状態1152,1153の側面図)。
FIG. 11E shows how the AF-ON button is vertically slid (a vertical slide operation, specifically, an upward slide operation). In FIG. 11(e), the upper diagram is a schematic diagram when the AF-ON button is viewed from the rear side (the front side with respect to the operation surface of the AF-ON button), and the lower diagram is a side view. FIG. 4 is a schematic diagram of the AF-ON button viewed from the side; State 1151 is the start state of the vertical slide operation, state 1152 is the state during the vertical slide operation, and state 1153 is the end state of the vertical slide operation. As in states 1151 to 1153, the vertical slide operation is an operation that bends and stretches the finger joints. A vertical slide operation is relatively difficult to perform (for example, it is difficult to maintain the contact pressure on the AF-ON button or the contact portion), and it is difficult to detect a large amount of movement of the thumb 1101 in the vertical slide operation. In particular, in the case of devices such as OTP that determine finger movement based on differences in finger image patterns, the characteristics of human fingerprints can be detected during vertical slide operations where it is difficult to maintain the contact pressure and contact area on the AF-ON button. Stably difficult to detect, difficult to detect vertical slide operation. In FIG. 11E, the portion of the thumb 1101 near the fingertip contacts the AF-ON button and the vertical slide operation starts (side view of state 1151). Then, the contact portion of the AF-ON button changes so as to move away from the tip of the thumb 1101, and the vertical slide operation ends (side views of states 1152 and 1153).

このため、AF枠の移動開始のための移動量(指の移動量;閾値)を横スライド操作と縦スライド操作で同じとすると、縦スライド操作でAF枠が移動しにくく、ユーザーに縦スライド操作が行いにくいと感じさせてしまう。 Therefore, if the amount of movement (finger movement amount; threshold value) for starting the movement of the AF frame is the same for the horizontal slide operation and the vertical slide operation, it is difficult for the user to move the AF frame by the vertical slide operation. It makes me feel that it is difficult to do.

そこで本実施形態では、S809で説明したように、横方向に長い楕円を閾値として用い、縦方向の方が横方向に比べて少ない移動量でAF枠の移動が開始し、AF枠を同じ量移動させるのに縦方向の方が横方向に比べて指の移動量が少なく済むようにしている。例えば、図9(a)と図9(b)では同じ移動量2のAF枠の移動がされるが、移動量の縦成分が大きい図9(a)の方が少ない移動量(指の移動距離)でAF枠が2つ分動く。これにより、ユーザーは同等の操作感で様々な方向のスライド操作を行える。なお、縦方向の方が横方向に比べて少ない移動量でAF枠の移動が開始されればよく、本実施形態のような楕円を用いた判定に限るものではない。 Therefore, in the present embodiment, as described in S809, an ellipse that is elongated in the horizontal direction is used as a threshold, and the movement of the AF frame is started with a smaller movement amount in the vertical direction than in the horizontal direction, and the AF frame is moved by the same amount. The amount of movement of the finger in the vertical direction is smaller than that in the horizontal direction. For example, in FIGS. 9A and 9B, the AF frame is moved by the same movement amount of 2, but FIG. distance) moves the AF frame by two. As a result, the user can perform slide operations in various directions with the same operational feeling. Note that the movement of the AF frame may be started with a smaller amount of movement in the vertical direction than in the horizontal direction, and the determination is not limited to the determination using an ellipse as in the present embodiment.

なお、本発明の電子機器は、AF-ONボタンを搭載した電子機器に限るものではなく、操作体(指やペン)の移動を検知してインジケーター(選択位置)を移動させる装置であれば本発明を適用可能である。例えば、ノートPCのタッチパッドへタッチした指(操作体)によるスライド操作に応じて、ノートPCのディスプレイに表示されたポインティングカーソルや項目選択カーソルなどのインジケーターを相対的に移動させる場合にも本発明を適用可能である。また、撮像装置において、タッチパネル式の背面ディスプレイに対する指(操作体)のタッチ操作でのスライド操作に応じて、光学ファインダーまたは電子ファインダー内に表示された測距点選択位置を示すインジケーターを移動させる場合にも適用可能である。タッチ操作に限るものではなく、部材を傾けて方向を指示するジョイスティックや、回転ダイヤルなどへの操作に応じてインジケーターを相対的に移動させる場合にも本発明を適用可能である。ウェアラブルデバイスなど少ない操作部材しか搭載できない機器にも本発明を適用可能である。さらに、空間ジェスチャーなどのユーザーの手(操作体)の動きなどを非接触で検知し、この動きに応じて例えばプロジェクタに表示されたインジケーターを移動させるものにも適用可能である。 The electronic device of the present invention is not limited to an electronic device equipped with an AF-ON button. Invention is applicable. For example, the present invention can also be used to relatively move an indicator such as a pointing cursor or an item selection cursor displayed on the display of a notebook PC in response to a slide operation by a finger (operator) that touches the touch pad of the notebook PC. is applicable. Also, in the imaging device, when the indicator indicating the selected position of the AF point displayed in the optical viewfinder or the electronic viewfinder is moved according to the slide operation by touching the touch panel type rear display with a finger (operator). It is also applicable to The present invention is not limited to touch operations, and can be applied to a joystick that tilts a member to indicate a direction, or a case in which an indicator is relatively moved according to an operation on a rotary dial or the like. The present invention can also be applied to a device such as a wearable device in which only a small number of operating members can be mounted. Further, the present invention can be applied to non-contact detection of motion of a user's hand (operator) such as spatial gestures, and movement of an indicator displayed on a projector, for example, according to the motion.

なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 Note that the various controls described above that are performed by the system control unit 50 may be performed by one piece of hardware, or a plurality of pieces of hardware (for example, a plurality of processors or circuits) may share the processing, so that the apparatus Overall control may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Moreover, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the present invention can be applied to the present invention. included. Furthermore, each embodiment described above merely shows one embodiment of the present invention, and it is also possible to combine each embodiment as appropriate.

また、上述した実施形態においては、本発明を撮像装置に適用した場合を例にして説明したが、これはこの例に限定されず移動操作を検知可能な電子機器であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。 Further, in the above-described embodiments, the case where the present invention is applied to an imaging device has been described as an example, but the present invention is not limited to this example and can be applied to any electronic device capable of detecting a movement operation. For example, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printers, digital photo frames, music players, game machines, electronic book readers, and the like. In addition, the present invention is applicable to video players, display devices (including projection devices), tablet terminals, smart phones, AI speakers, home appliances, vehicle-mounted devices, and the like.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにお
ける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100:カメラ 1,2:AF-ONボタン 50:システム制御部 100: camera 1, 2: AF-ON button 50: system control unit

Claims (18)

操作体の移動を伴う移動操作を検知する検知手段と、
前記検知手段で検知された移動操作に応じて、当該移動操作の移動量の積算値に基づいて、選択位置を移動するように制御する制御手段
を有し
前記制御手段は、
第1のモードにおいて前記検知手段により移動操作を検知した場合は、前記移動操作の操作速度が所定の速度よりも速い場合には前記積算値が第1の閾値を超えると前記選択位置を移動し、前記移動操作の操作速度が前記所定の速度よりも遅い場合には、前記積算値が前記第1の閾値を超えても第2の閾値を超えなければ前記選択位置を移動せず、前記積算値が前記第2の閾値を超えると前記選択位置を移動するように制御し、
前記第1のモードよりも選択位置の候補が少ない第2のモードにおいて前記検知手段により移動操作を検知した場合は、前記移動操作の操作速度に関わらず、前記積算値が第3の閾値を超えたことに応じて前記選択位置を移動するように制御
とを特徴とする電子機器。
a detection means for detecting a movement operation involving movement of the operating body;
a control means for controlling to move the selected position according to the movement operation detected by the detection means , based on the integrated value of the movement amount of the movement operation;
has
The control means is
When the moving operation is detected by the detecting means in the first mode, and the operation speed of the moving operation is faster than a predetermined speed, the selected position is moved when the integrated value exceeds the first threshold. and if the operation speed of the moving operation is slower than the predetermined speed, the selected position is not moved unless the integrated value exceeds the second threshold value even if the integrated value exceeds the first threshold value, and the integrated value controlling to move the selected position when the value exceeds the second threshold ;
When the detecting means detects a movement operation in the second mode, which has fewer candidates for the selection position than in the first mode, the integrated value exceeds the third threshold regardless of the operation speed of the movement operation. control to move the selected position according to the
An electronic device characterized by :
前記第3の閾値は前記第2の閾値よりも大きいthe third threshold is greater than the second threshold
ことを特徴とする請求項1に記載の電子機器。The electronic device according to claim 1, characterized by:
前記選択位置は、撮像手段で撮像する画像の焦点の調節に用いる焦点調節位置であり、The selected position is a focus adjustment position used for adjusting the focus of the image captured by the imaging means,
前記第1のモードは1点AFモードであり、the first mode is a single-point AF mode;
前記第2のモードはゾーンAFモードであるthe second mode is a zone AF mode;
ことを特徴とする請求項1または2に記載の電子機器。3. The electronic device according to claim 1, wherein:
前記1点AFモードは、ユーザー操作に応じて、複数の位置の中から1つの位置を前記選択位置として選択するモードであり、The one-point AF mode is a mode in which one position is selected from among a plurality of positions as the selected position according to a user operation,
前記ゾーンAFモードは、ユーザー操作に応じて、複数の位置を分類した複数のゾーンの中から1つのゾーンを前記選択位置として選択するモードであるThe zone AF mode is a mode in which one zone is selected as the selected position from among a plurality of zones in which a plurality of positions are classified according to user operation.
ことを特徴とする請求項3に記載の電子機器。4. The electronic device according to claim 3, characterized in that:
前記制御手段は、前記選択位置を移動するように制御する場合に、前記積算値にかかわらず、所定の移動量で前記選択位置を移動するように制御する
ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。
5. When controlling to move the selected position, the control means controls to move the selected position by a predetermined amount of movement regardless of the integrated value. The electronic device according to any one of .
前記所定の移動量は、最小単位の移動量である
ことを特徴とする請求項に記載の電子機器。
6. The electronic device according to claim 5 , wherein the predetermined amount of movement is a minimum unit of movement.
前記所定の移動量は、前記移動操作の前に予めユーザーにより指定された移動量であることを特徴とする請求項に記載の電子機器。 6. The electronic device according to claim 5 , wherein the predetermined amount of movement is a movement amount previously designated by a user before the movement operation. 前記制御手段は、前記選択位置を移動するように制御する場合に、前記選択位置を移動するように制御すると共に、前記積算値を0にリセットする
ことを特徴とする請求項1~のいずれか1項に記載の電子機器。
8. The method according to any one of claims 1 to 7 , wherein, when controlling to move the selected position, the control means controls to move the selected position and resets the integrated value to zero. 1. The electronic device according to 1.
前記検知手段は、前記操作体がタッチ操作部材へタッチした状態で移動する操作を検知する
ことを特徴とする請求項1~のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 8 , wherein the detection means detects an operation in which the operating body moves while touching the touch operation member.
前記選択位置は、表示手段に表示された複数の項目のうちの選択する項目の位置であることを特徴とする請求項1または2に記載の電子機器。 3. The electronic device according to claim 1 , wherein the selection position is a position of an item to be selected from among a plurality of items displayed on the display means. 前記選択位置は、撮像手段で撮像する画像の焦点の調節に用いる複数の焦点調節位置のうちの選択した焦点調節位置である
ことを特徴とする請求項1または2に記載の電子機器。
3. The electronic device according to claim 1 , wherein the selected position is a focus adjustment position selected from among a plurality of focus adjustment positions used to adjust the focus of an image captured by the imaging means.
前記検知手段は、前記電子機器を保持するためのグリップ部を持つ手の親指で操作可能な位置に配置されている操作部材の操作面に対する移動操作を検知する
ことを特徴とする請求項1~11のいずれか1項に記載の電子機器。
1 to 4, wherein the detection means detects a movement operation with respect to an operation surface of an operation member arranged at a position operable with a thumb of a hand holding a grip portion for holding the electronic device. 12. The electronic device according to any one of 11 .
前記電子機器は更に、撮像手段を有する
ことを特徴とする請求項1~12のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 12 , further comprising imaging means.
前記撮像手段での撮影の指示を行うシャッターボタンと、操作部材とを更に有し、
前記検知手段は、前記操作部材の操作面に対する前記移動操作を検知し、
前記操作部材は、右手の人差し指で前記シャッターボタンを押下可能な状態で前記電子機器を当該右手で保持した場合に、当該右手の親指で前記操作面に対して前記移動操作が可能な位置に配置されている
ことを特徴とする請求項13に記載の電子機器。
further comprising a shutter button for instructing photographing by the imaging means and an operating member;
The detection means detects the movement operation on the operation surface of the operation member,
The operation member is arranged at a position where the moving operation can be performed with the thumb of the right hand on the operation surface when the electronic device is held with the right hand in a state where the shutter button can be pressed with the index finger of the right hand. 14. The electronic device according to claim 13 , wherein the electronic device is
前記操作部材は、前記移動操作とは異なる押し込み操作も可能な操作部材である
ことを特徴とする請求項12または14に記載の電子機器。
15. The electronic device according to claim 12 , wherein the operation member is an operation member capable of a pressing operation different from the moving operation.
操作体の移動を伴う移動操作を検知する検知ステップと、
前記検知ステップで検知された移動操作に応じて、当該移動操作の移動量の積算値に基づいて、選択位置を移動するように制御する制御ステップ
を有し
前記制御ステップでは、
第1のモードにおいて移動操作を検知した場合は、前記移動操作の操作速度が所定の速度よりも速い場合には前記積算値が第1の閾値を超えると前記選択位置を移動し、前記
移動操作の操作速度が前記所定の速度よりも遅い場合には、前記積算値が前記第1の閾値を超えても第2の閾値を超えなければ前記選択位置を移動せず、前記積算値が前記第2の閾値を超えると前記選択位置を移動するように制御し、
前記第1のモードよりも選択位置の候補が少ない第2のモードにおいて移動操作を検知した場合は、前記移動操作の操作速度に関わらず、前記積算値が第3の閾値を超えたことに応じて前記選択位置を移動するように制御
とを特徴とする電子機器の制御方法。
a detection step of detecting a movement operation involving movement of the operating object;
a control step of controlling to move the selected position based on the integrated value of the movement amount of the movement operation detected in the detection step ;
has
In the control step,
When the moving operation is detected in the first mode, if the operation speed of the moving operation is faster than a predetermined speed, the selected position is moved when the integrated value exceeds the first threshold, and the moving operation is performed. is slower than the predetermined speed, the selected position is not moved unless the integrated value exceeds the second threshold value even if the integrated value exceeds the first threshold value, and the integrated value exceeds the first threshold value. Control to move the selected position when a threshold of 2 is exceeded ,
When a movement operation is detected in the second mode, which has fewer candidates for selection positions than in the first mode, regardless of the operation speed of the movement operation, when the integrated value exceeds the third threshold, to move the selected position
A control method for an electronic device, characterized by :
コンピュータを、請求項1~15のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 15 . コンピュータを、請求項1~15のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium storing a program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 15 .
JP2019085716A 2019-04-26 2019-04-26 Electronics Active JP7317567B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019085716A JP7317567B2 (en) 2019-04-26 2019-04-26 Electronics
US16/858,402 US11252322B2 (en) 2019-04-26 2020-04-24 Electronic device capable of performing control in accordance with a movement operation of an operating body and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085716A JP7317567B2 (en) 2019-04-26 2019-04-26 Electronics

Publications (2)

Publication Number Publication Date
JP2020181492A JP2020181492A (en) 2020-11-05
JP7317567B2 true JP7317567B2 (en) 2023-07-31

Family

ID=73024613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085716A Active JP7317567B2 (en) 2019-04-26 2019-04-26 Electronics

Country Status (1)

Country Link
JP (1) JP7317567B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257776A (en) 2012-06-13 2013-12-26 Tokai Rika Co Ltd Touch type input device
JP2016021151A (en) 2014-07-15 2016-02-04 キヤノン株式会社 Imaging device, control method thereof, program and record medium
JP2016177499A (en) 2015-03-19 2016-10-06 セイコーエプソン株式会社 Control device, control method for electronic equipment, and program
JP2017027305A (en) 2015-07-21 2017-02-02 トヨタ自動車株式会社 Input device
JP2017122984A (en) 2016-01-05 2017-07-13 キヤノン株式会社 Electronic apparatus and control method thereof
US20170308235A1 (en) 2014-12-26 2017-10-26 Shenzhen China Star Optoelectronics Technology Co., Ltd. Floating touch method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018085570A (en) * 2016-11-21 2018-05-31 キヤノン株式会社 Imaging apparatus, imaging method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257776A (en) 2012-06-13 2013-12-26 Tokai Rika Co Ltd Touch type input device
JP2016021151A (en) 2014-07-15 2016-02-04 キヤノン株式会社 Imaging device, control method thereof, program and record medium
US20170308235A1 (en) 2014-12-26 2017-10-26 Shenzhen China Star Optoelectronics Technology Co., Ltd. Floating touch method
JP2016177499A (en) 2015-03-19 2016-10-06 セイコーエプソン株式会社 Control device, control method for electronic equipment, and program
JP2017027305A (en) 2015-07-21 2017-02-02 トヨタ自動車株式会社 Input device
JP2017122984A (en) 2016-01-05 2017-07-13 キヤノン株式会社 Electronic apparatus and control method thereof

Also Published As

Publication number Publication date
JP2020181492A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
KR20170063388A (en) Electronic device and method for controlling the same
US11252322B2 (en) Electronic device capable of performing control in accordance with a movement operation of an operating body and control method thereof
RU2754988C1 (en) Electronic device, control method and computer-readable medium
JP7327988B2 (en) Electronic device and its control method
US11412140B2 (en) Electronic device, control method of electronic device, and non-transitory computer-readable storage medium
JP7317567B2 (en) Electronics
US11269499B2 (en) Electronic apparatus and control method for fine item movement adjustment
US11689807B2 (en) Image capture apparatus, method for controlling the same, and storage medium for improving an operation of moving a focal point detection region
JP7277247B2 (en) Electronic device and its control method
US11175737B2 (en) Electronic device for receiving line of sight input, method of controlling electronic device, and non-transitory computer readable medium
US11245835B2 (en) Electronic device
JP7433854B2 (en) Imaging control device, imaging control method, program, storage medium
JP2021012619A (en) Electronic apparatus and method for controlling the same
JP6708516B2 (en) Electronic device, control method thereof, and program
US20210173527A1 (en) Electronic apparatus executing processing based on move operation
US20230283897A1 (en) Image capture apparatus, method for controlling the same, and storage medium for improving an operation of moving a focal point detection region
JP2021085979A (en) Electronic apparatus and control method thereof, program, and storage medium
US11921925B2 (en) Image pickup apparatus including operation member for moving position of display object in screen
US11538191B2 (en) Electronic apparatus using calibration of a line of sight input, control method of electronic apparatus using calibration of a line of sight input, and non-transitory computer readable medium thereof
JP7210158B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP7361510B2 (en) Imaging device, its control method, program, storage medium
JP2021061531A (en) Imaging control device and control method thereof, program, and storage medium
JP2021068168A (en) Electronic apparatus, control method of electronic apparatus, program, and storage medium
JP2021163428A (en) Electronic device, method of controlling the same, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230719

R151 Written notification of patent or utility model registration

Ref document number: 7317567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151