JP2021068168A - Electronic apparatus, control method of electronic apparatus, program, and storage medium - Google Patents

Electronic apparatus, control method of electronic apparatus, program, and storage medium Download PDF

Info

Publication number
JP2021068168A
JP2021068168A JP2019192803A JP2019192803A JP2021068168A JP 2021068168 A JP2021068168 A JP 2021068168A JP 2019192803 A JP2019192803 A JP 2019192803A JP 2019192803 A JP2019192803 A JP 2019192803A JP 2021068168 A JP2021068168 A JP 2021068168A
Authority
JP
Japan
Prior art keywords
movement operation
speed
case
electronic device
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019192803A
Other languages
Japanese (ja)
Inventor
さやか 公文
Sayaka Kumon
さやか 公文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019192803A priority Critical patent/JP2021068168A/en
Publication of JP2021068168A publication Critical patent/JP2021068168A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To reduce the possibility of processing which is not desired by a user being executed in an electronic apparatus capable of receiving a movement operation by touch.SOLUTION: An electronic apparatus includes: an operation member for receiving a movement operation of moving a contact position in a state of being in contact with an operation surface; and control means for performing display control corresponding to the movement operation before the predetermined time elapses after detecting the movement operation when the speed of the movement operation is first and performing display control corresponding to the movement operation after the predetermined time elapses after detecting the movement operation when the speed of the movement operation is second slower than the first.SELECTED DRAWING: Figure 5

Description

本発明は、電子機器、電子機器の制御方法、プログラム、記憶媒体に関するものである。 The present invention relates to an electronic device, a control method for the electronic device, a program, and a storage medium.

従来、タッチ操作手段を搭載する電子機器が存在し、電子機器の操作性の向上を実現する制御方法が存在する。特許文献1には、タッチ開始直後の所定時間や、タッチ位置変化の加速度が所定値を超えた場合にはタッチ検出の周期を短くし、これ以外の場合には、タッチ検出の周期を長くすることによってユーザー操作の検出精度を向上させる方法が開示されている。 Conventionally, there are electronic devices equipped with touch operation means, and there are control methods for improving the operability of the electronic devices. According to Patent Document 1, the touch detection cycle is shortened when the predetermined time immediately after the start of touch or the acceleration of the touch position change exceeds the predetermined value, and the touch detection cycle is lengthened in other cases. By doing so, a method for improving the detection accuracy of user operations is disclosed.

特開2011−39709号公報Japanese Unexamined Patent Publication No. 2011-39709

しかしながら、特許文献1では、タッチ操作の速度が遅い場合に、検出周期(サンプリング周波数)を下げているに過ぎない。このため、例えば、タッチ面が押下された場合や、タッチ操作手段が配置された操作ボタンが押下された場合に、意図しないタッチ検出が行われて、ユーザーが所望しない処理が行われてしまう可能性がある。 However, in Patent Document 1, when the speed of the touch operation is slow, the detection cycle (sampling frequency) is merely lowered. Therefore, for example, when the touch surface is pressed or when the operation button on which the touch operation means is arranged is pressed, unintended touch detection may be performed and a process undesired by the user may be performed. There is sex.

そこで、本発明は、タッチによる移動操作を受け付け可能な電子機器において、ユーザーの所望しない処理が実行される可能性を低減することを目的とする。 Therefore, an object of the present invention is to reduce the possibility that a process undesired by the user is executed in an electronic device that can accept a movement operation by touch.

本発明の1つの態様は、
操作面に対して接触した状態で接触位置を移動する移動操作を受け付ける操作部材と、
前記移動操作の速度が第1の場合には前記移動操作を検知してから所定時間より前に前記移動操作に応じた表示制御を行い、
前記移動操作の速度が前記第1の場合よりも遅い第2の場合には前記移動操作を検知してから前記所定時間より後に前記移動操作に応じた表示制御を行うように制御する制御手段と
を有することを特徴とする電子機器である。
One aspect of the present invention is
An operation member that accepts a movement operation that moves the contact position while in contact with the operation surface,
When the speed of the movement operation is the first, display control according to the movement operation is performed before a predetermined time after the movement operation is detected.
In the second case where the speed of the movement operation is slower than that of the first case, a control means for controlling the display control according to the movement operation after the predetermined time after detecting the movement operation. It is an electronic device characterized by having.

本発明によれば、タッチによる移動操作を受け付け可能な電子機器において、ユーザーの所望しない処理が実行される可能性を低減することができる。 According to the present invention, it is possible to reduce the possibility that a process undesired by the user is executed in an electronic device that can accept a movement operation by touch.

実施形態に係るカメラの外観を示す図である。It is a figure which shows the appearance of the camera which concerns on embodiment. 実施形態に係るカメラの構成を示す図である。It is a figure which shows the structure of the camera which concerns on embodiment. 実施形態に係る遅延時間の決定処理を示すフローチャートである。It is a flowchart which shows the determination process of the delay time which concerns on embodiment. 実施形態に係る表示制御の処理を示すフローチャートである。It is a flowchart which shows the process of display control which concerns on embodiment. 実施形態に係る表示制御の処理のタイムチャートである。It is a time chart of the display control processing which concerns on embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1(a)、図1(b)は、本発明を適用可能な撮像装置(電子機器である)の一例としての一眼レフカメラ(以降、カメラと称する)100本体の外観図である。具体的には、図1(a)はカメラ100を第1面(前面)側から見た図であり、撮影レンズユニットを外した状態を示す。図1(b)は、カメラ100を第2面(背面)側から見た図である。第1面はカメラ前面であり、被写体側の面(撮像方向側の面)である。第2面はカメラの背面であって、第1の面の裏側(反対側)の面であり、ファインダー16を覗く撮影者側の面である。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. 1 (a) and 1 (b) are external views of a single-lens reflex camera (hereinafter referred to as a camera) 100 as an example of an imaging device (electronic device) to which the present invention can be applied. Specifically, FIG. 1A is a view of the camera 100 viewed from the first surface (front surface) side, and shows a state in which the photographing lens unit is removed. FIG. 1B is a view of the camera 100 as viewed from the second surface (rear surface) side. The first surface is the front surface of the camera, which is the surface on the subject side (the surface on the imaging direction side). The second surface is the back surface of the camera, which is the surface on the back side (opposite side) of the first surface, and is the surface on the photographer side looking into the finder 16.

図1(a)に示すように、カメラ100には、横持ちでの撮影時にカメラ100を使用するユーザーがカメラ100を安定して握り、操作できるよう、前方に突出した第1グリップ部101が設けられている。またカメラ100には、縦持ちでの撮影時にカメラ100を使用するユーザーがカメラ100を安定して握り、操作できるよう、前方に突出した第2グリップ部102が設けられている。第1グリップ部101は、カメラ100の前面の第1の辺(図1(a)の左右にある2つの縦辺のうち左側の辺)に沿っている。第2グリップ部102は、前面のうち第1の辺と隣り合う第2の辺(図1(a)の上下にある2つの横辺のうち下側の辺)に沿っている。シャッターボタン103,105は、撮影指示を行うための操作部材である。メイン電子ダイヤル104,106は回転操作部材であり、メイン電子ダイヤル104,106を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。シャッターボタン103,105、及びメイン電子ダイヤル104,106は、操作部70に含まれる。シャッターボタン103とメイン電子ダイヤル104は横持ち撮影用、シャッターボタン105とメイン電子ダイヤル106は縦持ち撮影用として主に使用することができる。 As shown in FIG. 1A, the camera 100 has a first grip portion 101 projecting forward so that a user who uses the camera 100 can stably grip and operate the camera 100 when shooting horizontally. It is provided. Further, the camera 100 is provided with a second grip portion 102 protruding forward so that the user who uses the camera 100 can stably grip and operate the camera 100 when shooting vertically. The first grip portion 101 is along the first side (the left side of the two vertical sides on the left and right of FIG. 1A) on the front surface of the camera 100. The second grip portion 102 is along a second side (the lower side of the two horizontal sides above and below FIG. 1A) adjacent to the first side of the front surface. The shutter buttons 103 and 105 are operating members for giving a shooting instruction. The main electronic dials 104 and 106 are rotation operation members, and by turning the main electronic dials 104 and 106, set values such as a shutter speed and an aperture can be changed. The shutter buttons 103 and 105 and the main electronic dials 104 and 106 are included in the operation unit 70. The shutter button 103 and the main electronic dial 104 can be mainly used for horizontal holding photography, and the shutter button 105 and the main electronic dial 106 can be mainly used for vertical holding photography.

図1(b)において、表示部28は画像や各種情報を表示する。表示部28はタッチ操作を受け付け可能(タッチ検出可能)なタッチパネル70aと重畳、もしくは一体となって設けられる。AF−ONボタン1,2は、焦点調節位置を設定したり、AFを開始したりするための操作部材であり、操作部70に含まれる。本実施形態では、AF−ONボタン1,2は、タッチ操作や押し込み操作を受け付けることが可能なタッチ操作部材(本実施形態では、赤外線式センサー)である。このような光学式の操作部材を、光学トラッキングポインター(OTP)と称するものとする。ユーザーは、横持ちで(カメラ100を横位置で構えた状態で)、ファインダー16を覗いたまま、AF−ONボタン1に対して、第1グリップ部101を握った右手の親指で、タッチ操作や、任意の2次元方向へのスライド操作を行うことができる。また、ユーザーは、縦持ちで、ファインダー16を覗いたまま、AF−ONボタン2に対して、第2グリップ部102を握った右手の親指で、タッチ操作や、任意の2次元方向へのスライド操作を行うことができる。縦持ちとは、カメラ100を横位置と90度異なる縦位置で構えた状態である。カメラ100を操作するユーザーは、AF−ONボタン1、またはAF−ONボタン2へのスライド操作で、表示部28に表示された測距点枠(AFに用いるAF枠の位置、焦点調節位置、焦点検出位置)を移動させることができる。また、ユーザーは、AF−ONボタン1、またはAF−ONボタン2への押し込み操作で、測距点枠の位置に基づくAFを即座に開始させることができる。AF−ONボタン1は横持ち撮影用、AF−ONボタン2は縦持ち撮影用として主に使用することができる。 In FIG. 1B, the display unit 28 displays an image and various information. The display unit 28 is provided on top of or integrally with the touch panel 70a capable of accepting touch operations (touch detection is possible). The AF-ON buttons 1 and 2 are operation members for setting the focus adjustment position and starting AF, and are included in the operation unit 70. In the present embodiment, the AF-ON buttons 1 and 2 are touch operation members (infrared type sensors in the present embodiment) capable of accepting touch operations and pushing operations. Such an optical operating member shall be referred to as an optical tracking pointer (OTP). The user holds the camera 100 horizontally (while holding the camera 100 in the horizontal position), and while looking through the viewfinder 16, touches the AF-ON button 1 with the thumb of the right hand holding the first grip portion 101. Or, the slide operation in any two-dimensional direction can be performed. In addition, the user can perform touch operation or slide in any two-dimensional direction with the thumb of the right hand holding the second grip portion 102 with respect to the AF-ON button 2 while holding the viewfinder 16 vertically. You can perform operations. The vertical holding is a state in which the camera 100 is held in a vertical position 90 degrees different from the horizontal position. The user who operates the camera 100 can slide the AF-ON button 1 or the AF-ON button 2 to display the AF point frame (the position of the AF frame used for AF, the focus adjustment position, etc.) displayed on the display unit 28. The focus detection position) can be moved. Further, the user can immediately start AF based on the position of the AF point frame by pressing the AF-ON button 1 or the AF-ON button 2. The AF-ON button 1 can be mainly used for horizontal holding shooting, and the AF-ON button 2 can be mainly used for vertical holding shooting.

AF−ONボタン1,2の配置について説明する。図1(b)に示すように、AF−ONボタン1,2はカメラ100の背面に配置されている。そして、AF−ONボタン2は、カメラ100の背面のうち、他の頂点よりも、第1グリップ部101に沿った辺(第1の辺)と第2グリップ部102に沿った辺(第2の辺)との成す頂点に近い位置に配置されている。また、AF−ONボタン2の方が、AF−ONボタン1よりも、第1グリップ部101に沿った辺と第2グリップ部102に沿った辺との成す上記頂点に近い位置に配
置されている。カメラ100の背面のうち第1グリップ部101に沿った辺(第1の辺)とは、図1(b)における左右にある2つの縦辺のうち右側の辺である。カメラ100の背面のうち第2グリップ部102に沿った辺(第2の辺)とは、図1(b)における上下にある2つの横辺のうち下側の辺である。ここで、上述した頂点は、カメラ100の背面を多角形とみなした場合の当該多角形の頂点(仮想的な頂点)である。カメラ100の背面が完全な多角形であれば、上述した頂点は、当該多角形の頂点(カメラ100の実際の頂点)であってもよい。第1の辺は、図1(b)における左右方向の右側の辺(縦辺)であり、第2の辺は図1(b)における上下方向の下側の辺(横辺)であり、第1の辺と第2の辺との成す上述の頂点は、図1(b)における右下の頂点である。さらに、AF−ONボタン2は、第1グリップ部101に沿った辺(第1の辺)のうち、AF−ONボタン1がある側の端部(すなわち上端部)よりも、反対側の端部(下端部)に近い位置に配置されている。また、上述したシャッターボタン103は、第1グリップ部101を握った右手の人差し指で操作可能(押下可能)な位置に配置されており、シャッターボタン105は、第2グリップ部102を握った右手の人差し指で操作可能な位置に配置されている。そして、AF−ONボタン1の方が、AF−ONボタン2よりも、シャッターボタン103に近い位置に配置されており、AF−ONボタン2の方が、AF−ONボタン1よりも、シャッターボタン105に近い位置に配置されている。
The arrangement of the AF-ON buttons 1 and 2 will be described. As shown in FIG. 1B, the AF-ON buttons 1 and 2 are arranged on the back surface of the camera 100. Then, the AF-ON button 2 has a side (first side) along the first grip portion 101 and a side (second side) along the second grip portion 102 on the back surface of the camera 100, rather than other vertices. It is located near the apex formed by the side of). Further, the AF-ON button 2 is arranged at a position closer to the apex formed by the side along the first grip portion 101 and the side along the second grip portion 102 than the AF-ON button 1. There is. The side (first side) of the back surface of the camera 100 along the first grip portion 101 is the right side of the two left and right vertical sides in FIG. 1 (b). The side (second side) of the back surface of the camera 100 along the second grip portion 102 is the lower side of the two upper and lower horizontal sides in FIG. 1 (b). Here, the above-mentioned vertices are vertices (virtual vertices) of the polygon when the back surface of the camera 100 is regarded as a polygon. If the back surface of the camera 100 is a perfect polygon, the above-mentioned vertices may be the vertices of the polygon (the actual vertices of the camera 100). The first side is the right side (vertical side) in the left-right direction in FIG. 1 (b), and the second side is the lower side (horizontal side) in the vertical direction in FIG. 1 (b). The above-mentioned apex formed by the first side and the second side is the lower right apex in FIG. 1 (b). Further, the AF-ON button 2 is an end of the side (first side) along the first grip portion 101 that is opposite to the end (that is, the upper end) on the side where the AF-ON button 1 is located. It is located near the part (lower end). Further, the shutter button 103 described above is arranged at a position where it can be operated (pressed) by the index finger of the right hand holding the first grip portion 101, and the shutter button 105 is arranged at a position where the right hand holding the second grip portion 102 can be operated. It is located in a position where it can be operated with the index finger. The AF-ON button 1 is located closer to the shutter button 103 than the AF-ON button 2, and the AF-ON button 2 is closer to the shutter button than the AF-ON button 1. It is arranged at a position close to 105.

なお、AF−ONボタン1,2は、タッチパネル70aとは異なる操作部材であり、表示機能は備えていない。また、後述する例では、AF−ONボタン1,2への操作で選択された測距位置を示すインジケーター(AF枠)を移動させる例を説明するが、AF−ONボタン1,2への操作に応じて実行される機能は特に限定されない。例えば、表示部28に表示され、かつ移動させることができるものであれば、AF−ONボタン1,2へのスライド操作で移動させるインジケーターはいかなるものでもよい。例えば、マウスカーソルのような、ポインティングカーソルであってもよいし、複数の選択肢(メニュー画面に表示された複数の項目など)のうち選択された選択肢を示すカーソルであってもよい。AF−ONボタン1へのスライド操作と、AF−ONボタン2へのスライド操作とで異なるインジケーターが移動してもよい。AF−ONボタン1,2への押し込み操作で実行される機能は、AF−ONボタン1,2へのスライド操作で実行される機能に関する他の機能であってもよい。 The AF-ON buttons 1 and 2 are operating members different from the touch panel 70a, and do not have a display function. Further, in the example described later, an example of moving the indicator (AF frame) indicating the distance measurement position selected by the operation to the AF-ON buttons 1 and 2 will be described, but the operation to the AF-ON buttons 1 and 2 will be described. The function executed according to the above is not particularly limited. For example, any indicator may be used as long as it is displayed on the display unit 28 and can be moved by sliding the AF-ON buttons 1 and 2. For example, it may be a pointing cursor such as a mouse cursor, or it may be a cursor indicating a selected option from a plurality of options (such as a plurality of items displayed on a menu screen). Different indicators may be moved by the slide operation to the AF-ON button 1 and the slide operation to the AF-ON button 2. The function executed by the push operation to the AF-ON buttons 1 and 2 may be another function related to the function executed by the slide operation to the AF-ON buttons 1 and 2.

モード切り替えスイッチ60は、各種モードを切り替えるための操作部材である。電源スイッチ72は、カメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は選択枠の移動や画像送りなどを行う回転操作部材である。8方向キー74a,74bは、上、下、左、右、左上、左下、右上、右下方向にそれぞれ押し倒し可能な操作部材であり、8方向キー74a,74bの押し倒された方向に応じた処理が可能である。8方向キー74aは横持ち撮影用、8方向キー74bは縦持ち撮影用として主に使用することができる。SETボタン75は、主に選択項目の決定などに用いられる操作部材である。静止画/動画切り替えスイッチ77は、静止画撮影モードと動画撮影モードを切り替える操作部材である。LVボタン78は、ライブビュー(以下、LV)のONとOFFを切り替える操作部材である。LVがONとなると後述するミラー12が光軸から退避した退避位置に移動(ミラーアップ)して被写体光が後述する撮像部22に導かれ、LV画像の撮像が行われるLVモードとなる。LVモードでは、LV画像で被写体像を確認できる。LVがOFFとなるとミラー12が光軸上に移動(ミラーダウン)して被写体光が反射され、被写体光がファインダー16に導かれ、被写体の光学像(光学の被写体像)がファインダー16から視認可能なOVFモードとなる。再生ボタン79は、撮影モード(撮影画面)と再生モード(再生画面)とを切り替える操作部材である。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200(図2で後述する)に記録された画像のうち最新の画像を表示部28に表示させることができる。Qボタン76はクイック設定をするための操作部材であり、撮影画面においてQボタン76を押
下すると設定値の一覧として表示されていた設定項目を選択可能になり、さらに設定項目を選択すると各設定項目の設定画面へと遷移することができるようになる。モード切り替えスイッチ60、電源スイッチ72、サブ電子ダイヤル73、8方向キー74a,74b、SETボタン75、Qボタン76、静止画/動画切り替えスイッチ77、LVボタン78、再生ボタン79は、操作部70に含まれる。メニューボタン81は、操作部70に含まれ、カメラ100の各種設定を行うための操作部材である。メニューボタン81が押されると各種の設定可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、サブ電子ダイヤル73、8方向キー74a,74b、SETボタン75、メイン電子ダイヤル104,106を用いて直感的に各種設定を行うことができる。ファインダー16はレンズユニットを通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型(接眼式)のファインダーである。INFOボタン82は操作部70に含まれ、カメラ100の各種情報を表示部28に表示することができる。
The mode changeover switch 60 is an operation member for switching various modes. The power switch 72 is an operating member that switches the power of the camera 100 on and off. The sub electronic dial 73 is a rotation operation member that moves a selection frame, feeds an image, and the like. The eight-direction keys 74a and 74b are operating members that can be pushed down in the up, down, left, right, upper left, lower left, upper right, and lower right directions, respectively, and the processing according to the pushed direction of the eight-direction keys 74a and 74b. Is possible. The 8-direction key 74a can be mainly used for horizontal holding photography, and the 8-direction key 74b can be mainly used for vertical holding photography. The SET button 75 is an operating member mainly used for determining selection items and the like. The still image / moving image switching switch 77 is an operation member for switching between the still image shooting mode and the moving image shooting mode. The LV button 78 is an operating member for switching ON and OFF of the live view (hereinafter, LV). When the LV is turned on, the mirror 12 described later moves (mirrors up) to the retracted position retracted from the optical axis, the subject light is guided to the imaging unit 22 described later, and the LV mode in which the LV image is captured is set. In the LV mode, the subject image can be confirmed in the LV image. When the LV is turned off, the mirror 12 moves on the optical axis (mirror down), the subject light is reflected, the subject light is guided to the finder 16, and the optical image of the subject (optical subject image) can be visually recognized from the finder 16. OVF mode is set. The play button 79 is an operation member for switching between a shooting mode (shooting screen) and a playback mode (playback screen). By pressing the playback button 79 during the shooting mode, the playback mode can be entered, and the latest image among the images recorded on the recording medium 200 (described later in FIG. 2) can be displayed on the display unit 28. The Q button 76 is an operation member for quick setting. When the Q button 76 is pressed on the shooting screen, the setting items displayed as a list of setting values can be selected, and when the setting items are further selected, each setting item is selected. You will be able to transition to the setting screen of. The mode changeover switch 60, the power switch 72, the sub electronic dial 73, the 8-direction keys 74a and 74b, the SET button 75, the Q button 76, the still image / video changeover switch 77, the LV button 78, and the play button 79 are on the operation unit 70. included. The menu button 81 is included in the operation unit 70 and is an operation member for performing various settings of the camera 100. When the menu button 81 is pressed, various settable menu screens are displayed on the display unit 28. The user can intuitively make various settings by using the menu screen displayed on the display unit 28, the sub electronic dials 73, the eight-direction keys 74a and 74b, the SET button 75, and the main electronic dials 104 and 106. The finder 16 is a peep-type (eyepiece type) finder for confirming the focus and composition of the optical image of the subject obtained through the lens unit. The INFORMATION button 82 is included in the operation unit 70, and various information of the camera 100 can be displayed on the display unit 28.

図2は、カメラ100の構成例を示すブロック図である。 FIG. 2 is a block diagram showing a configuration example of the camera 100.

レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ155は通常、フォーカスレンズ群、ズームレンズ群などの複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がカメラ100側と通信を行うための通信端子であり、通信端子10はカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路154によって、絞り駆動回路152を介して絞り151の制御を行い、AF駆動回路153を介してレンズ155の位置を変位させることで焦点を合わせる。レンズユニット150を装着可能な装着部を介してレンズユニット150は表示部28のある本体側に装着される。レンズユニット150として単焦点レンズやズームレンズなどの様々な種類のものを装着することができる。 The lens unit 150 is a lens unit equipped with an interchangeable photographing lens. The lens 155 is usually composed of a plurality of lenses such as a focus lens group and a zoom lens group, but in FIG. 2, it is simply shown by only one lens. The communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the camera 100 side, and the communication terminal 10 is a communication terminal for the camera 100 to communicate with the lens unit 150 side. The lens unit 150 communicates with the system control unit 50 via these communication terminals 6 and 10. Then, the lens unit 150 controls the aperture 151 via the aperture drive circuit 152 by the internal lens system control circuit 154, and focuses by shifting the position of the lens 155 via the AF drive circuit 153. The lens unit 150 is mounted on the main body side where the display unit 28 is located via a mounting portion on which the lens unit 150 can be mounted. As the lens unit 150, various types of lenses such as a single focus lens and a zoom lens can be attached.

AEセンサー17は、レンズユニット150、クイックリターンミラー12を通ってフォーカシングスクリーン13上に結像した被写体(被写体光)の輝度を測光する。 The AE sensor 17 measures the brightness of the subject (subject light) imaged on the focusing screen 13 through the lens unit 150 and the quick return mirror 12.

焦点検出部11は、クイックリターンミラー12を介して入射する像(被写体光)を撮像し、システム制御部50にデフォーカス量情報を出力する位相差検出方式のAFセンサーである。システム制御部50はデフォーカス量情報に基づいてレンズユニット150を制御し、位相差AFを行う。AFの方法は、位相差AFでなくてもよく、コントラストAFでもよい。また、位相差AFは、焦点検出部11を用いずに、撮像部22の撮像面で検出されたデフォーカス量に基づいて行ってもよい(撮像面位相差AF)。 The focus detection unit 11 is a phase difference detection type AF sensor that captures an image (subject light) incident on the quick return mirror 12 and outputs defocus amount information to the system control unit 50. The system control unit 50 controls the lens unit 150 based on the defocus amount information and performs phase difference AF. The AF method does not have to be phase-difference AF, and may be contrast AF. Further, the phase difference AF may be performed based on the defocus amount detected on the imaging surface of the imaging unit 22 without using the focus detection unit 11 (imaging surface phase difference AF).

クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ155から入射した光束をファインダー16側と撮像部22側とに切り替えるためのミラーである。ミラー12は通常時はファインダー16へと光束を導く(反射させる)ように配されているが(ミラーダウン)、撮影やライブビュー表示が行われる場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。 The quick return mirror 12 (hereinafter referred to as the mirror 12) is instructed by the system control unit 50 at the time of exposure, live view shooting, and moving image shooting, and is moved up and down by an actuator (not shown). The mirror 12 is a mirror for switching the luminous flux incident from the lens 155 between the finder 16 side and the image pickup unit 22 side. Normally, the mirror 12 is arranged so as to guide (reflect) the luminous flux to the finder 16 (mirror down), but when shooting or live view display is performed, the light flux is guided to the imaging unit 22. It jumps upward and evacuates from the luminous flux (mirror lockup). Further, the mirror 12 is a half mirror so that a part of the light can be transmitted through the central portion thereof, and a part of the light flux is transmitted so as to be incident on the focus detection unit 11 for performing focus detection.

ユーザーは、ペンタプリズム14とファインダー16を介して、フォーカシングスクリーン13上に結像した像を観察することで、レンズユニット150を通して得た被写体の光学像の焦点状態や構図の確認が可能となる。 By observing the image formed on the focusing screen 13 through the pentaprism 14 and the finder 16, the user can confirm the focal state and composition of the optical image of the subject obtained through the lens unit 150.

フォーカルプレーンシャッター21(シャッター21)は、システム制御部50の制御で撮像部22の露光時間を制御するためのものである。 The focal plane shutter 21 (shutter 21) is for controlling the exposure time of the imaging unit 22 under the control of the system control unit 50.

撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(撮像センサー)である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。 The image pickup unit 22 is an image pickup device (imaging sensor) composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理や色変換処理)を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24ではさらに、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行われる。 The image processing unit 24 performs predetermined processing (resizing processing such as pixel interpolation and reduction and color conversion processing) on the data from the A / D converter 23 or the data from the memory control unit 15. Further, in the image processing unit 24, a predetermined calculation process is performed using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (autoexposure) processing, and EF (flash pre-flash) processing are performed. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and also performs a TTL-type AWB (auto white balance) process based on the obtained calculation result.

メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。メモリ32は、メモリカードなどの着脱可能な記録媒体であっても、内蔵メモリであってもよい。 The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23, and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio. The memory 32 may be a detachable recording medium such as a memory card or a built-in memory.

表示部28は画像を表示するための背面モニタであり、図1(b)に示すようにカメラ100の背面に設けられている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。表示部28は、画像を表示するディスプレイであれば、液晶方式のディスプレイであっても、有機ELなど他の方式のディスプレイであってもよい。 The display unit 28 is a rear monitor for displaying an image, and is provided on the back surface of the camera 100 as shown in FIG. 1 (b). The D / A converter 19 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display unit 28. The display unit 28 may be a liquid crystal display or another display such as an organic EL as long as it is a display for displaying an image.

ファインダー内表示部41には、ファインダー内表示部駆動回路42を介して、現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコンなどが表示される。ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラ100の様々な設定値が表示される。 The display unit 41 in the viewfinder displays a frame (AF frame) indicating the AF point at which autofocus is currently being performed, an icon indicating the setting state of the camera, and the like via the display unit drive circuit 42 in the viewfinder. To. The outside viewfinder display unit 43 displays various setting values of the camera 100, such as the shutter speed and the aperture, via the outside viewfinder display unit drive circuit 44.

姿勢検知部55は、カメラ100の角度による姿勢を検出するためのセンサーである。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である、加速度センサーやジャイロセンサーを用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。 The posture detection unit 55 is a sensor for detecting the posture according to the angle of the camera 100. Based on the posture detected by the posture detection unit 55, whether the image taken by the image pickup unit 22 is an image taken by holding the camera 100 horizontally or an image taken by holding the camera 100 vertically. It can be discriminated. The system control unit 50 can add orientation information according to the posture detected by the posture detection unit 55 to the image file of the image captured by the image pickup unit 22, or rotate and record the image. is there. As the posture detection unit 55, an acceleration sensor, a gyro sensor, or the like can be used. It is also possible to detect the movement (pan, tilt, lift, whether or not it is stationary, etc.) of the camera 100 by using the acceleration sensor or the gyro sensor, which is the posture detection unit 55.

不揮発性メモリ56は、システム制御部50によって電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The non-volatile memory 56 is a memory that can be electrically erased and recorded by the system control unit 50, and for example, EEPROM or the like is used. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a program for executing various flowcharts described later in the present embodiment.

システム制御部50は、少なくとも1つのプロセッサー(回路を含む)を内蔵し、カメラ100全体を制御する。システム制御部50は、前記の不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52では、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。 The system control unit 50 incorporates at least one processor (including a circuit) and controls the entire camera 100. The system control unit 50 realizes each process of the present embodiment described later by executing the program recorded in the non-volatile memory 56. The system memory 52 develops constants and variables for the operation of the system control unit 50, programs read from the non-volatile memory 56, and the like. The system control unit 50 also controls the display by controlling the memory 32, the D / A converter 19, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切り替えスイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード等のいずれかに切り替える。静止画撮影モードには、Pモード(プログラムAE)、Mモード(マニュアル)等が含まれる。あるいは、モード切り替えスイッチ60でメニュー画面に一旦切り換えた後に、メニュー画面に含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。Mモードでは、絞り値、シャッター速度、ISO感度をユーザーが設定でき、ユーザー目的の露出で撮影を行うことができる。 The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock. The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image shooting mode, a moving image shooting mode, and the like. The still image shooting mode includes a P mode (program AE), an M mode (manual), and the like. Alternatively, after switching to the menu screen once with the mode changeover switch 60, the mode may be switched to any of these modes included in the menu screen by using another operation member. Similarly, the moving image shooting mode may include a plurality of modes. In the M mode, the aperture value, shutter speed, and ISO sensitivity can be set by the user, and shooting can be performed with the exposure desired by the user.

第1シャッタースイッチ62は、カメラ100に設けられたシャッターボタン103,105の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。またAEセンサー17による測光も行う。 The first shutter switch 62 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter buttons 103 and 105 provided on the camera 100, and the first shutter switch signal SW1 is generated. The system control unit 50 starts operations such as AF (autofocus) processing, AE (autoexposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing by the first shutter switch signal SW1. In addition, light measurement by the AE sensor 17 is also performed.

第2シャッタースイッチ64は、シャッターボタン103,105の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像ファイルとして画像を記録するまでの一連の撮影処理の動作を開始する。 The second shutter switch 64 is turned on when the operations of the shutter buttons 103 and 105 are completed, so-called fully pressed (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processes from reading the signal from the imaging unit 22 to recording the image as an image file on the recording medium 200 by the second shutter switch signal SW2.

電源制御部83は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部83は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源スイッチ72はカメラ100の電源のONとOFFを切り替えるためのスイッチである。 The power supply control unit 83 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 83 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power switch 72 is a switch for switching the power of the camera 100 on and off.

電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. The recording medium I / F18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like.

上述したように、カメラ100は、操作部70の一つとして、表示部28(タッチパネル70a)に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネル70aにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することがで
きる。システム制御部50はタッチパネル70aへの以下のタッチ操作、あるいは状態を検知できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンをタッチパネル70aから離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
As described above, the camera 100 has a touch panel 70a capable of detecting contact with the display unit 28 (touch panel 70a) as one of the operation units 70. The touch panel 70a and the display unit 28 can be integrally configured. For example, the touch panel 70a is configured so that the light transmittance does not interfere with the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel 70a are associated with the display coordinates on the display unit 28. As a result, it is possible to configure a GUI (graphical user interface) as if the user can directly operate the screen displayed on the display unit 28. The system control unit 50 can detect the following touch operation or the state of the touch panel 70a.
-A finger or pen that has not touched the touch panel 70a has newly touched the touch panel 70a. That is, the start of touch (hereinafter referred to as touch-down).
-The touch panel 70a is in a state of being touched with a finger or a pen (hereinafter, referred to as touch-on).
-The finger or pen is moving while touching the touch panel 70a (hereinafter, referred to as touch move (Touch-Move)).
-The finger or pen that was touching the touch panel 70a has been released from the touch panel 70a. That is, the end of touch (hereinafter referred to as touch-up (Touch-Up)).
-A state in which nothing is touched on the touch panel 70a (hereinafter, referred to as touch-off).

タッチダウンが検知されると、同時にタッチオンも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、タッチ位置が移動していなければタッチムーブは検知されない。タッチしていた全ての指やペンがタッチアップしたことが検知された後は、タッチオフとなる。 When touchdown is detected, touch-on is also detected at the same time. After a touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch move is also detected when touch on is detected. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。またタッチパネル70a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検知され、そのままタッチアップが検知されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検知された場合はドラッグが行われたと判定するものとする。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検知する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検知する方式があるが、いずれの方式でもよい。 These operations / states and the position coordinates of the finger or pen touching on the touch panel 70a are notified to the system control unit 50 through the internal bus, and the system control unit 50 determines which on the touch panel 70a based on the notified information. Determine if such an operation has been performed. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel 70a can also be determined for each vertical component and horizontal component on the touch panel 70a based on the change in the position coordinates. Further, it is assumed that a stroke is drawn when the touch panel 70a is touched up from the touchdown through a constant touch move. The operation of drawing a stroke quickly is called flicking. Flicking is an operation of quickly moving a finger on the touch panel 70a by a certain distance and then releasing it as it is, in other words, an operation of swiftly tracing the touch panel 70a with a finger. It can be determined that the flick has been performed when it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is. Further, when it is detected that the touch move is performed at a speed equal to or less than a predetermined distance, it is determined that the drag has been performed. The touch panel 70a may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. Good. There are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel, but either method may be used.

AF−ONボタン1,2は、焦点調節位置を設定したり、AFを開始したりするための操作部材であり、操作部70に含まれる。本実施形態では、AF−ONボタン1,2は、タッチ操作や押し込み操作を受け付けることが可能なタッチ操作部材である。ユーザーは、ファインダー16を覗いたまま、AF−ONボタン1、2に対して、それぞれ、第1グリップ部101、第2グリップ部102を握った右手の親指で、タッチ操作や、任意の2次元方向へのスライド操作を行うことができる。カメラ100を操作するユーザーは、AF−ONボタン1,2へのスライド操作で、表示部28やファインダー内表示部41に表示された測距点枠(AFに用いるAF枠の位置、焦点調節位置、焦点検出位置)を移動させることができる。また、ユーザーは、AF−ONボタン1,2への押し込み操作で、測距点枠の位置に基づくAFを即座に開始させることができる。 The AF-ON buttons 1 and 2 are operation members for setting the focus adjustment position and starting AF, and are included in the operation unit 70. In the present embodiment, the AF-ON buttons 1 and 2 are touch operation members capable of accepting touch operations and push operations. While looking through the viewfinder 16, the user can touch the AF-ON buttons 1 and 2 with the thumb of the right hand holding the first grip portion 101 and the second grip portion 102, respectively, or perform any two-dimensional operation. The slide operation in the direction can be performed. The user who operates the camera 100 can slide the AF-ON buttons 1 and 2 to display the AF point frame (the position of the AF frame used for AF, the focus adjustment position) displayed on the display unit 28 or the display unit 41 in the viewfinder. , Focus detection position) can be moved. In addition, the user can immediately start AF based on the position of the AF point frame by pressing the AF-ON buttons 1 and 2.

AF−ONボタン1,2の構造について説明する。AF−ONボタン1,2の操作面に
ユーザーの指がタッチしている場合には、AF−ONボタン1,2の内部の投光部から照射された光(例えば赤外光)が、タッチしている指に反射し、反射光がAF−ONボタン1,2内部の受光部で受光(撮像)される。受光部は、撮像センサー(赤外線センサー)である。受光部で撮像された画像に基づき、AF−ONボタン1,2の操作面に操作体(指)が触れていない状態であるか、操作体がタッチしたか、タッチしている操作体がタッチしたまま移動しているか(スライド操作しているか)等を検知することができる。スライド操作しているか否かは、操作面にタッチした指(操作体)に反射した光を撮像して得られた複数の画像の差分に基づき、指(操作体)の接触位置が移動することを検知することで判断する。また、AF−ONボタン1,2の外装カバーは弾性部材でデジタルカメラ100に設置されており、指がAF−ONボタン1,2の操作面を押し、外装カバーが押し込まれることで、押し込み検知のためのスイッチがオンとなる。これによってAF−ONボタン1,2が押し込まれたことが検知される。このような光学式の操作部材を、光学トラッキングポインター(OTP)と称するものとする。
The structure of the AF-ON buttons 1 and 2 will be described. When the user's finger touches the operation surface of the AF-ON buttons 1 and 2, the light (for example, infrared light) emitted from the light projecting part inside the AF-ON buttons 1 and 2 touches. It is reflected by the finger, and the reflected light is received (imaged) by the light receiving part inside the AF-ON buttons 1 and 2. The light receiving unit is an image sensor (infrared sensor). Based on the image captured by the light receiving unit, the operating body (finger) is not touching the operation surface of the AF-ON buttons 1 and 2, the operating body is touched, or the touching operating body is touching. It is possible to detect whether the vehicle is moving (sliding operation) or the like. Whether or not the slide operation is performed means that the contact position of the finger (operation body) moves based on the difference between a plurality of images obtained by imaging the light reflected by the finger (operation body) that touches the operation surface. Judgment is made by detecting. Further, the exterior covers of the AF-ON buttons 1 and 2 are elastic members and are installed on the digital camera 100. A finger presses the operation surface of the AF-ON buttons 1 and 2, and the exterior cover is pushed in to detect the push. The switch for is turned on. As a result, it is detected that the AF-ON buttons 1 and 2 are pressed. Such an optical operating member shall be referred to as an optical tracking pointer (OTP).

システム制御部50は、AF−ONボタン1,2からの通知(出力情報)により、AF−ONボタン1,2へのタッチ操作や押し込み操作を検知できる。システム制御部50は、AF−ONボタン1,2の出力情報に基づいて、AF−ONボタン1,2上における指などの動きの方向(以降、移動方向と称する)を、上、下、左、右、左上、左下、右上、右下の8方向で決定する。さらに、システム制御部50は、AF−ONボタン1,2の出力情報に基づいて、x軸方向、y軸方向の2次元方向でAF−ONボタン1,2上における指などの動きの量(以降、移動量(x,y)と称する)を決定する。システム制御部50は、さらにAF−ONボタン1,2への以下の操作、あるいは状態を検知できる。システム制御部50は、AF−ONボタン1とAF−ONボタン2のそれぞれについて個別に、移動方向や移動量(x,y)を決定したり、以下の操作・状態を検知したりする。
・AF−ONボタン1、またはAF−ONボタン2にタッチしていなかった指などが新たにAF−ONボタン1、またはAF−ONボタン2にタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・AF−ONボタン1、またはAF−ONボタン2を指などでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・指などがAF−ONボタン1、またはAF−ONボタン2をタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・AF−ONボタン1、またはAF−ONボタン2へタッチしていた指をAF−ONボタン1、またはAF−ONボタン2から離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・AF−ONボタン1、またはAF−ONボタン2に何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
The system control unit 50 can detect a touch operation or a pressing operation on the AF-ON buttons 1 and 2 by the notification (output information) from the AF-ON buttons 1 and 2. Based on the output information of the AF-ON buttons 1 and 2, the system control unit 50 sets the direction of movement of the finger or the like on the AF-ON buttons 1 and 2 (hereinafter referred to as the moving direction) up, down, and left. , Right, upper left, lower left, upper right, lower right. Further, the system control unit 50 determines the amount of movement of a finger or the like on the AF-ON buttons 1 and 2 in the two-dimensional directions of the x-axis direction and the y-axis direction based on the output information of the AF-ON buttons 1 and 2. Hereinafter, the movement amount (referred to as x, y)) is determined. The system control unit 50 can further detect the following operations or states of the AF-ON buttons 1 and 2. The system control unit 50 individually determines the movement direction and the movement amount (x, y) for each of the AF-ON button 1 and the AF-ON button 2, and detects the following operations / states.
-A finger or the like that has not touched the AF-ON button 1 or the AF-ON button 2 newly touches the AF-ON button 1 or the AF-ON button 2. That is, the start of touch (hereinafter referred to as touch-down).
-The AF-ON button 1 or the AF-ON button 2 is in a state of being touched with a finger or the like (hereinafter, referred to as touch-on).
-A finger or the like is moving while touching the AF-ON button 1 or the AF-ON button 2 (hereinafter, referred to as a touch move).
-The finger that was touching the AF-ON button 1 or AF-ON button 2 has been released from the AF-ON button 1 or AF-ON button 2. That is, the end of touch (hereinafter referred to as touch-up (Touch-Up)).
-A state in which nothing is touched on the AF-ON button 1 or the AF-ON button 2 (hereinafter, referred to as touch-off).

タッチダウンが検知されると、同時にタッチオンも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、移動量(x,y)が0であれば、タッチムーブは検知されない。タッチしていた全ての指などがタッチアップしたことが検知された後は、タッチオフとなる。 When touchdown is detected, touch-on is also detected at the same time. After a touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch move is also detected when touch on is detected. Even if touch-on is detected, if the movement amount (x, y) is 0, the touch move is not detected. After it is detected that all the touched fingers have touched up, the touch-off is performed.

システム制御部50は、これらの操作・状態や移動方向、移動量(x,y)に基づいてAF−ONボタン1,2上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについては、AF−ONボタン1,2上での指などの移動として、上、下、左、右、左上、左下、右上、右下の8方向、またはx軸方向、y軸方向の2次元方向の移動を検知する。システム制御部50は、8方向のいずれかの方向への移動、またはx軸方向、y軸方向の2次元方向の片方もしくは両方への移動が検知された場合は、スライド操作が行われたと判定するものとする。AF−ONボタン1,2上に指をタッチし、スライド
操作することなく、所定時間以内にタッチを離す操作があった場合に、タップ操作が行われたと判定するものとする。本実施形態では、AF−ONボタン1,2は、赤外線方式のタッチセンサーであるものとする。ただし、抵抗膜方式、表面弾性波方式、静電容量方式、電磁誘導方式、画像認識方式、光センサー方式等、別の方式のタッチセンサーであってもよい。
The system control unit 50 determines what kind of operation (touch operation) is performed on the AF-ON buttons 1 and 2 based on these operations / states, the moving direction, and the moving amount (x, y). Regarding the touch move, the movement of the finger etc. on the AF-ON buttons 1 and 2 is in the eight directions of up, down, left, right, upper left, lower left, upper right, lower right, or in the x-axis direction and y-axis direction. Detects movement in the two-dimensional direction. The system control unit 50 determines that the slide operation has been performed when the movement in any of the eight directions or the movement in one or both of the two-dimensional directions in the x-axis direction and the y-axis direction is detected. It shall be. It is determined that the tap operation has been performed when the finger is touched on the AF-ON buttons 1 and 2 and the touch is released within a predetermined time without performing the slide operation. In the present embodiment, the AF-ON buttons 1 and 2 are infrared touch sensors. However, a touch sensor of another method such as a resistive film method, a surface acoustic wave method, a capacitance method, an electromagnetic induction method, an image recognition method, or an optical sensor method may be used.

[移動操作に応じた表示制御]
以下、AF−ONボタン1の操作面に接触した状態で接触位置を移動する移動操作(タッチムーブ)に応じた表示制御の方法について、図3および図4のフローチャートと図5のタイムチャートを参照して説明する。本実施形態では、移動操作の速度が遅い場合には、当該移動操作を表示に反映させるまでの時間(遅延時間)を長くすることによってユーザーの意図しない処理が実行される可能性を低減する。また、本実施形態では、AF−ONボタン1への移動操作(タッチムーブ)によってAF枠が移動するものとして説明するが、タッチムーブに応じて、例えば、ポインタ(位置指標)の位置の移動や露光値の変更などの任意の処理が行われてよい。
[Display control according to movement operation]
Hereinafter, with reference to the flowcharts of FIGS. 3 and 4 and the time chart of FIG. 5, the display control method according to the movement operation (touch move) for moving the contact position while in contact with the operation surface of the AF-ON button 1. I will explain. In the present embodiment, when the speed of the movement operation is slow, the possibility that the processing unintended by the user is executed is reduced by increasing the time (delay time) until the movement operation is reflected on the display. Further, in the present embodiment, the AF frame is described as being moved by the movement operation (touch move) to the AF-ON button 1. However, depending on the touch move, for example, the position of the pointer (position index) may be moved. Arbitrary processing such as changing the exposure value may be performed.

図3は、移動操作を表示に反映させるまでの時間(遅延時間)を決定する処理を示すフローチャートである。図4は、遅延時間に応じた表示制御の処理を示すフローチャートである。図5は、これらの処理に関するタイムチャートの一例である。図5のタイムチャートでは、横軸は、左から右に進むに従って、時間(時刻)が経過していることを示している。また、図5では、後述する表示停止操作、タッチムーブの移動量、タッチムーブの速度、移動量に応じた表示のタイミング、当該移動量に応じた表示の時間変化を示している。 FIG. 3 is a flowchart showing a process of determining a time (delay time) until the movement operation is reflected on the display. FIG. 4 is a flowchart showing a display control process according to the delay time. FIG. 5 is an example of a time chart relating to these processes. In the time chart of FIG. 5, the horizontal axis indicates that time (time) has elapsed from left to right. Further, FIG. 5 shows a display stop operation, which will be described later, a movement amount of the touch move, a speed of the touch move, a display timing according to the movement amount, and a time change of the display according to the movement amount.

なお、以下では、S301およびS401の処理の開始時点では、サンプリング番号nに対応する期間が処理の対象であるものとして説明する。ここで、サンプリング番号nは、図3および図4のフローチャートの処理において、それぞれ独立に保持されているものとする。例えば、図3のフローチャートの処理においてサンプリング番号nが増加させられた場合にも、図4のフローチャートの処理においてサンプリング番号nは増加しないものとする。 In the following description, it is assumed that the period corresponding to the sampling number n is the target of the processing at the start of the processing of S301 and S401. Here, it is assumed that the sampling number n is independently held in the processing of the flowcharts of FIGS. 3 and 4. For example, even if the sampling number n is increased in the processing of the flowchart of FIG. 3, the sampling number n is not increased in the processing of the flowchart of FIG.

なお、図3および図4のフローチャートの処理は、不揮発性メモリ56に記憶したプログラムをシステムメモリ52に展開して、システム制御部50が実行することで実現する。また、システム制御部50は、図3と図4のフローチャートが示す処理を、同時に並行して実行するものとする。 The processing of the flowcharts of FIGS. 3 and 4 is realized by expanding the program stored in the non-volatile memory 56 into the system memory 52 and executing the program by the system control unit 50. Further, the system control unit 50 shall execute the processes shown in the flowcharts of FIGS. 3 and 4 in parallel at the same time.

(遅延時間の決定処理)
まず、図3のフローチャートを用いて、ユーザーの移動操作(タッチムーブ)をAF−ONボタン1が受け付けてから、当該移動操作を画面表示に反映させるまでの時間である遅延時間を決定する処理について説明する。
(Determining delay time)
First, using the flowchart of FIG. 3, the process of determining the delay time, which is the time from when the AF-ON button 1 accepts the user's movement operation (touch move) until the movement operation is reflected on the screen display. explain.

S301では、システム制御部50は、表示部28またはファインダー内表示部41において画像を表示することが可能であるか否かを判定する。表示可能である場合にはS302に遷移して、そうでない場合にはS301の処理が再度行われる。 In S301, the system control unit 50 determines whether or not the image can be displayed on the display unit 28 or the display unit 41 in the finder. If it can be displayed, the transition to S302 is performed, and if not, the processing of S301 is performed again.

S302では、システム制御部50は、AF−ONボタン1へのユーザーのタッチをしたままでの移動操作(タッチムーブ)を検出して、移動量(x,y)を取得する。S302では、システム制御部50は、サンプリング周期T0ごとに移動量(x,y)を取得する。つまり、AF−ONボタン1は、サンプリング周期T0ごとに移動操作を受け付けているといえる。 In S302, the system control unit 50 detects a movement operation (touch move) while the user touches the AF-ON button 1 and acquires a movement amount (x, y). In S302, the system control unit 50 acquires the movement amount (x, y) for each sampling cycle T0. That is, it can be said that the AF-ON button 1 accepts the movement operation every sampling cycle T0.

S303では、システム制御部50は、取得した移動量(x,y)から、タッチ操作による移動の速度Vを検出(決定)する。ここで、システム制御部50は、所定サンプリング期間(サンプリング周期T0の一部の期間)における移動の速度の平均値や中央値や最頻値などを速度Vとするフィルタ処理をして、速度Vを決定してもよい。なお、速度Vは、サンプリング番号nに対応する期間に対応する速度を示しており、例えば、サンプリング番号n−1に対応する期間に対応する速度は速度Vn−1として説明する。 In S303, the system control unit 50 detects (determines) the speed V n of the movement by the touch operation from the acquired movement amount (x, y). Here, the system control unit 50 a filtering process for a predetermined sampling period average value, a median value and a mode value and velocity V n of the speed of movement in the (partial period of the sampling period T0), the speed V n may be determined. The speed V n indicates a speed corresponding to the period corresponding to the sampling number n. For example, the speed corresponding to the period corresponding to the sampling number n-1 will be described as the speed V n-1.

S304では、システム制御部50は、検出した速度Vが予め設定した速度閾値Vthよりも小さいか否かを判定する。速度Vが速度閾値Vthよりも小さい場合には、S305に遷移し、そうでない場合にはS306に遷移する。つまり、受け付けたタッチムーブが速い場合にはS306に遷移し、タッチムーブが遅い場合にはS305に遷移する。 In S304, the system control unit 50 determines whether the speed V n detected is smaller than the speed threshold value Vth which is set in advance. If the velocity V n is smaller than the velocity threshold value Vth, the transition to S305 is performed, and if not, the transition to S306 is performed. That is, if the received touch move is fast, the transition to S306 is performed, and if the touch move is slow, the transition to S305 is performed.

S305では、システム制御部50は、遅延時間Tとして時間T1を設定する。ここで、遅延時間Tとは、本実施形態では、図5に示すように、サンプリング番号nに対応する期間において移動量を取得してから(タッチムーブを受け付けてから)、当該移動量に応じた表示がされるまでに経過する時間を示す。本実施形態では、タッチムーブをAF−ONボタン1が受け付けてから遅延時間Tが経過すると、タッチムーブの移動量に応じた位置にAF枠が移動する。図5に示す例では、時刻t1〜時刻t2の期間に移動量が取得された場合には、当該移動量に対する遅延時間Tとして時間T1が設定される。なお、S305において、システム制御部50は、遅延時間T(時間T1)を、速度Vと速度閾値Vthの差分が大きいほど長い時間に決定してもよい。 In S305, the system control unit 50 sets the time T1 as the delay time T n. Here, the delay time T n, in the present embodiment, as shown in FIG. 5, (after receiving a touch move) after obtaining the movement amount during the period corresponding to the sampling number n, the amount of movement Indicates the time elapsed until the corresponding display is displayed. In the present embodiment, when the touch move is AF-ON button 1 reception delay time T n elapses after, AF frame at a position corresponding to the movement amount of the touch move moves. In the example shown in FIG. 5, when the amount of movement is acquired during the time period from t1~ time t2, time T1 as a delay time T n with respect to the amount of movement is set. Incidentally, in S305, the system control unit 50, the delay time T n (time T1), may be determined to be longer as the difference of the velocity V n and the speed threshold value Vth is great.

S306では、システム制御部50は、時間T1よりも短い時間T2を遅延時間Tとして設定する。時間T2は0であってもよい。図5に示す例では、時刻t0〜時刻t1および時刻t2〜時刻t4の期間に移動量が取得された場合には、当該移動量に対する遅延時間Tとして時間T2が設定される。 In S306, the system control unit 50 sets the shorter T2 than the time T1 as a delay time T n. The time T2 may be zero. In the example shown in FIG. 5, when the amount of movement is acquired for a period of time t0~ time t1 and time t2~ time t4, the time T2 as the delay time T n with respect to the amount of movement is set.

ここで、S304〜S306において、システム制御部50は、所定サンプリング期間における速度Vが速度閾値Vthを下回る期間の割合が所定割合以上である場合に遅延時間Tとして時間T1を設定してもよい。このとき、システム制御部50は、速度Vが速度閾値Vthを下回る期間の割合が所定割合未満である場合に遅延時間Tとして時間T2を設定してもよい。また、システム制御部50は、所定サンプリング期間において速度Vが速度閾値Vthを下回る期間の割合が所定割合以上である場合に、当該下回る期間が長いほど、より長い遅延時間Tを決定してもよい。さらには、S304〜S306において、システム制御部50は、所定サンプリング期間における複数の時点における速度から速度Vを決定し、当該複数の時点の数が少ないほど、より長い遅延時間Tを決定してもよい。これは、当該複数の時点の数が少なければ、速度Vの正確性(信頼度)が低いため、検出された操作がユーザーの意図した操作であるか否かが明確でないので、遅延時間Tが十分に長いことが好ましいためである。ここで、複数の時点の数は、ユーザー操作によって変更可能であってもよい。 Here, in S304 to S306, the system control unit 50, even if the percentage of time that the speed V n in a predetermined sampling period falls below a speed threshold value Vth is set to time T1 as a delay time T n when the predetermined ratio or more Good. At this time, the system control unit 50, the proportion of the period during which the velocity V n is below a speed threshold value Vth may be set time T2 as the delay time T n when it is less than a predetermined ratio. The system control unit 50, when the ratio of the period below the velocity V n is the speed threshold value Vth in a predetermined sampling period is a predetermined ratio or more, more the below period is longer, determines a longer delay time T n May be good. Further, in S304 to S306, the system control unit 50 determines the speed V n from the speeds at a plurality of time points in a predetermined sampling period, and the smaller the number of the plurality of time points, the longer the delay time Tn is determined. You may. This is because smaller the number of the plurality of time points, for the accuracy of the velocity V n (reliability) is low, since the detected operation whether it is intended operation of the user is not clear, the delay time T This is because it is preferable that n is sufficiently long. Here, the number at a plurality of time points may be changed by a user operation.

S307では、システム制御部50は、サンプリング番号nを1だけインクリメントする。つまり、S307では、システム制御部50は、図3のフローチャートにおける処理対象の期間を次の期間に変更している。なお、上述のように、S307において、システム制御部50が、サンプリング番号nをインクリメントしても、図4が示すフローチャートの処理におけるサンプリング番号nはインクリメントされない。 In S307, the system control unit 50 increments the sampling number n by 1. That is, in S307, the system control unit 50 changes the period to be processed in the flowchart of FIG. 3 to the next period. As described above, even if the system control unit 50 increments the sampling number n in S307, the sampling number n in the processing of the flowchart shown in FIG. 4 is not incremented.

S308では、システム制御部50は、表示部28またはファインダー内表示部41の
表示を終了するための操作がされたか否かを判定する。ここで、例えば、ユーザーが所定のボタンを押下していた場合に、システム制御部50は、当該表示を終了するための操作がされたと判定することができる。当該操作がされた場合には、本フローチャートの処理が全て終了する。そうでない場合は、S309に進む。
In S308, the system control unit 50 determines whether or not an operation for ending the display of the display unit 28 or the display unit 41 in the finder has been performed. Here, for example, when the user presses a predetermined button, the system control unit 50 can determine that the operation for ending the display has been performed. When the operation is performed, all the processing of this flowchart ends. If not, the process proceeds to S309.

S309では、システム制御部50は、前回のS302の処理の開始時点からサンプリング周期T0が経過したか否かを判定する。サンプリング周期T0が経過した場合にはS302に遷移し、そうでない場合にはS309の処理が再度行われる。 In S309, the system control unit 50 determines whether or not the sampling cycle T0 has elapsed since the start of the previous processing of S302. If the sampling cycle T0 has elapsed, the transition to S302 is performed, and if not, the processing of S309 is performed again.

(遅延時間に応じた表示制御の処理)
次に、図4のフローチャートを用いて、S305またはS306において設定した遅延時間に基づいて、受け付けたユーザーの移動操作(タッチムーブ)に応じた表示のタイミングを制御する処理(表示制御)について説明する。
(Display control processing according to delay time)
Next, using the flowchart of FIG. 4, a process (display control) for controlling the display timing according to the received user's move operation (touch move) based on the delay time set in S305 or S306 will be described. ..

S401では、システム制御部50は、S303において速度Vを検出(決定)したか否かを判定する。言い換えると、S401では、システム制御部50は、サンプリング番号nについてのタッチムーブをAF−ONボタン1が受け付けたか否かを判定している。速度Vが検出されている場合にはS402に遷移して、そうでない場合にはS401の処理が再度行われる。 In S401, the system control unit 50 determines whether the velocity V n detected (determined) in S303. In other words, in S401, the system control unit 50 determines whether or not the AF-ON button 1 has accepted the touch move for the sampling number n. If the velocity V n is detected, the transition to S402 is performed, and if not, the process of S401 is performed again.

S402では、システム制御部50は、S308と同様に、表示部28またはファインダー内表示部41の表示を終了するための操作がされたか否かを判定する。当該操作がされた場合にはS409に遷移し、そうでない場合にはS403に遷移する。 In S402, the system control unit 50 determines whether or not an operation for ending the display of the display unit 28 or the display unit 41 in the finder has been performed, similarly to S308. If the operation is performed, the transition to S409 is performed, and if not, the transition to S403 is performed.

S403では、システム制御部50は、移動停止操作がされたか否かを判定する。移動停止操作がされた場合にはS408に遷移し、そうでない場合にはS404に遷移する。移動停止操作には、例えば、タッチムーブによって移動させられたポインタが表示された位置に対して、AFや被写体の選択の確定などの処理を実行するための操作がある。また、本実施形態では、移動停止操作は、現在のサンプリング番号nにおける移動量を破棄することになる操作であり、つまり、当該移動量を表示に反映させないようにする操作であるといえる。より詳細には、システム制御部50は、タッチムーブを受け付けてから遅延時間Tが経過するまでに、移動停止操作がされた場合には、サンプリング番号nに対応する表示制御(S407の処理)を実行しないようにする。図5の例でも、移動停止操作がされた時刻t3および時刻t5の直前に取得した移動量は、表示には反映されていない。 In S403, the system control unit 50 determines whether or not the movement stop operation has been performed. If the movement stop operation is performed, the transition to S408 is performed, and if not, the transition to S404 is performed. The movement stop operation includes, for example, an operation for executing a process such as AF or confirmation of the selection of the subject at the position where the pointer moved by the touch move is displayed. Further, in the present embodiment, it can be said that the movement stop operation is an operation in which the movement amount at the current sampling number n is discarded, that is, an operation in which the movement amount is not reflected in the display. More specifically, the system controller 50, before the delay time elapses T n after receiving a touch move, when the travel stop operation has been performed, (processing S407) the display control corresponding to the sampling number n Do not execute. Even in the example of FIG. 5, the movement amount acquired immediately before the time t3 and the time t5 when the movement stop operation is performed is not reflected in the display.

ここで、移動停止操作は、AF−ONボタン1の操作面に対する押下操作(押圧操作)でもよいし、操作面に対するタッチダウン(接触)、タッチアップ(接触の解除)の操作でもよい。より詳細には、移動停止操作は、タッチムーブとは異なるAF−ONボタン1の操作面にされる操作であり、かつ、新たにされる(継続的にされている操作でない)操作であればよい。なお、図5では、AF−ONボタン1の操作面に対する押下操作を例に用いており、システム制御部50が時刻t3において新たに押下操作を検出し、時刻t5において新たに押下の解除操作を検出したことを示している。ここで、例えば、AF−ONボタン1の押下操作がされると、システム制御部50は、AF枠の現在の表示位置にAFを実行する。なお、AFなどの移動停止操作に応じた処理は、当該操作がされると遅延することなく実行される。 Here, the movement stop operation may be a pressing operation (pressing operation) on the operation surface of the AF-ON button 1, or a touchdown (contact) or touchup (release of contact) operation on the operation surface. More specifically, if the movement stop operation is an operation that is performed on the operation surface of the AF-ON button 1 that is different from the touch move, and is a new (not a continuous operation) operation. Good. In FIG. 5, the pressing operation on the operation surface of the AF-ON button 1 is used as an example, the system control unit 50 newly detects the pressing operation at time t3, and newly releases the pressing operation at time t5. Indicates that it has been detected. Here, for example, when the AF-ON button 1 is pressed, the system control unit 50 executes AF at the current display position of the AF frame. It should be noted that the processing corresponding to the movement stop operation such as AF is executed without delay when the operation is performed.

S404では、システム制御部50は、速度Vを検出してから(タッチムーブを受け付けてから)遅延時間Tが経過したか否かを判定する。遅延時間Tが経過している場合はS407に遷移し、そうでない場合にはS405に遷移する。 In S404, the system control unit 50, from the detection of the velocity V n (from accepting touch move) it determines whether the delay time T n has elapsed. If the delay time Tn has elapsed, the transition to S407 occurs, and if not, the transition to S405 occurs.

S405では、システム制御部50は、速度Vを検出してから(タッチムーブを受け付けてから)サンプリング周期T0が経過したか否かを判定する。サンプリング周期T0が経過している場合はS406に遷移し、そうでない場合にはS402に遷移する。 In S405, the system control unit 50 determines whether or not the sampling cycle T0 has elapsed after detecting the velocity V n (after receiving the touch move). If the sampling cycle T0 has elapsed, the transition to S406 is performed, and if not, the transition to S402 is performed.

S406では、システム制御部50は、遅延時間Tn+1とサンプリング周期T0との和より遅延時間Tが大きいか否かを判定する。遅延時間Tの方が大きければS408に遷移して、そうでなければS402に遷移する。つまり、システム制御部50は、タッチムーブを受け付けてから遅延期間Tが経過するまでに、その後に受け付けたタッチムーブに応じた表示制御がされる場合には、サンプリング番号nに対応する表示制御を実行しないようにしている。これは、遅延時間Tの方が大きければ、サンプリング番号nに対応する移動量の反映が、サンプリング番号n+1に対応する移動量の反映より後にされてしまい、ユーザーの操作性が悪いためである。このため、このような現象が発生しないように、遅延時間Tの方が大きければ、S408に遷移することで、サンプリング番号nに対応する移動量の反映を行わないようにしている。 In S406, the system control unit 50 determines whether or not the delay time Tn is larger than the sum of the delay time Tn + 1 and the sampling period T0. The transition to the S408 it is larger, the delay time T n, a transition to S402 otherwise. That is, the system control unit 50 from accepting touch move until the elapse of the delay period T n, if it is the subsequent display control corresponding to the touch move the accepted, the display control corresponding to the sampling number n Is not executed. This is because if the delay time T n is larger, the movement amount corresponding to the sampling number n is reflected later than the movement amount corresponding to the sampling number n + 1, and the user's operability is poor. .. Therefore, as this phenomenon does not occur, the larger the better the delay time T n, makes a transition to S408, is not carried out to reflect the movement amount corresponding to the sampling number n.

S407では、システム制御部50は、表示部28またはファインダー内表示部41にタッチムーブ(移動量)に応じた表示をする表示イベントを実行する。本実施形態では、システム制御部50は、表示部28またはファインダー内表示部41の画面におけるAF枠を、移動量に応じた位置に移動させる。 In S407, the system control unit 50 executes a display event for displaying on the display unit 28 or the display unit 41 in the finder according to the touch move (movement amount). In the present embodiment, the system control unit 50 moves the AF frame on the screen of the display unit 28 or the display unit 41 in the finder to a position according to the amount of movement.

S408では、システム制御部50は、サンプリング番号nを1だけインクリメントする。つまり、S408では、システム制御部50は、図4のフローチャートにおける処理対象の期間を次の期間に変更している。 In S408, the system control unit 50 increments the sampling number n by 1. That is, in S408, the system control unit 50 changes the period to be processed in the flowchart of FIG. 4 to the next period.

S409では、システム制御部50は、表示部28またはファインダー内表示部41における画像の表示を終了する。 In S409, the system control unit 50 ends the display of the image on the display unit 28 or the display unit 41 in the finder.

このように、タッチムーブの速度が遅い場合には、タッチムーブを受け付けてから(サンプリング周期T0の開始時点から)当該タッチムーブの移動量に応じた表示までの遅延時間を設けている。つまり、タッチムーブの速度が速い場合には、タッチムーブを検知してから所定時間より前にタッチムーブに応じた表示制御が行われ、タッチムーブの速度が遅い場合にはタッチムーブを検知してから所定時間より後にタッチムーブに応じた表示制御が行われる。このように、遅延させることによれば、例えば、AF−ONボタン1の押下に伴って僅かな移動量の移動操作を受け付けてしまった場合に、システム制御部50は、当該移動操作の直前の移動量を無視した位置に当該押下に応じた処理を行うことができる。つまり、遅延して表示されるより前に、押下に応じた処理が実行できるため、ユーザーの意図しない移動操作が当該押下に応じた処理に影響することを抑制することができる。 As described above, when the speed of the touch move is slow, a delay time is provided from the reception of the touch move to the display according to the movement amount of the touch move (from the start time of the sampling cycle T0). That is, when the speed of the touch move is high, the display control is performed according to the touch move before a predetermined time after the touch move is detected, and when the speed of the touch move is slow, the touch move is detected. The display is controlled according to the touch move after a predetermined time. According to the delay in this way, for example, when a movement operation of a small amount of movement is accepted by pressing the AF-ON button 1, the system control unit 50 immediately before the movement operation. The process corresponding to the pressing can be performed at the position where the movement amount is ignored. That is, since the process corresponding to the pressing can be executed before the display is delayed, it is possible to suppress the influence of the movement operation not intended by the user on the processing corresponding to the pressing.

また、タッチムーブを受け付けてから遅延時間Tが経過するまでに、タッチムーブ以外の操作(移動停止操作)が新たに検出された場合には、その直前(直近)に検出した移動量を表示に反映させていない。さらに、サンプリング番号nに対応する移動量の反映が、サンプリング番号n+1に対応する移動量の反映よりも後になる場合には、サンプリング番号nに対応する移動量の反映を行わない。これらによって、ユーザーが意図しない操作が、表示に反映してしまう可能性をさらに低減することができる。 Further, before the delay time elapses T n after receiving a touch move, when an operation other than touch move (move stop operation) is newly detected, displays a moving amount detected immediately before (last) Not reflected in. Further, when the movement amount corresponding to the sampling number n is reflected after the movement amount corresponding to the sampling number n + 1 is reflected, the movement amount corresponding to the sampling number n is not reflected. As a result, it is possible to further reduce the possibility that an operation not intended by the user is reflected in the display.

なお、上述では、AF−ONボタン1に対する操作を用いて、図3および図4が示すフローチャートを説明したが、操作面に対して接触しての移動操作(タッチムーブ)を受け付ける操作部材であれば本実施形態は適用可能である。例えば、AF−ONボタン1の代
わりに、タッチパネル70aに対する操作に応じて当該フローチャートの処理が実行されてもよい。
In the above description, the flowcharts shown in FIGS. 3 and 4 have been described using the operation for the AF-ON button 1, but any operating member that accepts a movement operation (touch move) in contact with the operation surface. For example, this embodiment is applicable. For example, instead of the AF-ON button 1, the processing of the flowchart may be executed according to the operation on the touch panel 70a.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 It should be noted that the above-mentioned various controls described as those performed by the system control unit 50 may be performed by one hardware, or a plurality of hardware (for example, a plurality of processors and circuits) share the processing to be a device. The whole control may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明をカメラに適用した場合を例にして説明したが、これはこの例に限定されずタッチをした状態での移動操作を受け付け可能である操作部材を有する電子機器であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to a camera has been described as an example, but this is not limited to this example, and has an operating member capable of accepting a moving operation in a touched state. It can be applied to any electronic device. That is, the present invention can be applied to a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a printer device including a display, a digital photo frame, a music player, a game machine, an electronic book reader, and the like.

また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。 Further, the present invention can be applied not only to the image pickup device main body but also to a control device that communicates with the image pickup device (including a network camera) via wired or wireless communication and remotely controls the image pickup device. As a device for remotely controlling the image pickup device, for example, there are devices such as smartphones, tablet PCs, and desktop PCs. The image pickup device can be controlled remotely by notifying the image pickup device of commands for performing various operations and settings from the control device side based on the operations performed on the control device side and the processes performed on the control device side. is there. Further, the live view image taken by the imaging device may be received via wired or wireless communication and displayed on the control device side.

なお、上記の各実施形態の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ASIC、FPGA、DSPなどのハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリ(記憶媒体)とを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。 It should be noted that each functional unit of each of the above embodiments may or may not be individual hardware. The functions of two or more functional units may be realized by common hardware. Each of the plurality of functions of one functional unit may be realized by individual hardware. Two or more functions of one functional unit may be realized by common hardware. Further, each functional unit may or may not be realized by hardware such as ASIC, FPGA, and DSP. For example, the device may have a processor and a memory (storage medium) in which a control program is stored. Then, the function of at least a part of the functional parts of the device may be realized by the processor reading the control program from the memory and executing it.

(その他の実施形態)
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It is also possible to realize the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:カメラ、1:AF−ONボタン、50:システム制御部、28:表示部、
41:ファインダー内表示部
100: Camera, 1: AF-ON button, 50: System control unit, 28: Display unit,
41: Display in the viewfinder

Claims (19)

操作面に対して接触した状態で接触位置を移動する移動操作を受け付ける操作部材と、
前記移動操作の速度が第1の場合には前記移動操作を検知してから所定時間より前に前記移動操作に応じた表示制御を行い、
前記移動操作の速度が前記第1の場合よりも遅い第2の場合には前記移動操作を検知してから前記所定時間より後に前記移動操作に応じた表示制御を行うように制御する制御手段と
を有することを特徴とする電子機器。
An operation member that accepts a movement operation that moves the contact position while in contact with the operation surface,
When the speed of the movement operation is the first, display control according to the movement operation is performed before a predetermined time after the movement operation is detected.
In the second case where the speed of the movement operation is slower than that of the first case, a control means for controlling the display control according to the movement operation after the predetermined time after detecting the movement operation. An electronic device characterized by having.
前記制御手段は、前記移動操作の速度が前記第2の場合には、前記操作部材が前記移動操作を受け付けてから当該移動操作に応じた表示制御を行うまでの遅延時間を、前記第1の場合よりも長くするように制御する
ことを特徴とする請求項1に記載の電子機器。
When the speed of the movement operation is the second, the control means sets the delay time from when the operation member receives the movement operation to when the display control is performed according to the movement operation. The electronic device according to claim 1, wherein the electronic device is controlled so as to be longer than the case.
操作面に対して接触した状態で接触位置を移動する移動操作を受け付ける操作部材と、
前記移動操作に応じて表示手段の表示制御をし、かつ、前記移動操作の速度が第1の場合よりも遅い第2の場合には、前記操作部材が前記移動操作を受け付けてから当該移動操作に応じた表示制御を行うまでの遅延時間を、前記第1の場合よりも長くするように制御する制御手段と
を有することを特徴とする電子機器。
An operation member that accepts a movement operation that moves the contact position while in contact with the operation surface,
In the second case where the display control of the display means is performed according to the movement operation and the speed of the movement operation is slower than that of the first case, the movement operation is performed after the operation member receives the movement operation. An electronic device having a control means for controlling the delay time until display control according to the above is made longer than in the first case.
前記移動操作の速度とは、所定の期間における速度の平均値または中央値または最頻値である
ことを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 3, wherein the speed of the moving operation is an average value, a median value, or a mode value of the speed in a predetermined period.
前記第1の場合は、前記移動操作の速度が所定速度以上である場合であり、
前記第2の場合は、前記移動操作の速度が前記所定速度未満である場合である
ことを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
The first case is a case where the speed of the movement operation is equal to or higher than a predetermined speed.
The electronic device according to any one of claims 1 to 4, wherein the second case is a case where the speed of the moving operation is less than the predetermined speed.
前記第1の場合は、前記移動操作の速度が所定速度以上である場合であり、
前記第2の場合は、前記移動操作の速度が前記所定速度未満である場合であり、
前記制御手段は、前記第2の場合には、前記遅延時間を、前記移動操作の速度と前記所定速度との差分が大きいほど長くする
ことを特徴とする請求項2または3に記載の電子機器。
The first case is a case where the speed of the movement operation is equal to or higher than a predetermined speed.
The second case is a case where the speed of the movement operation is less than the predetermined speed.
The electronic device according to claim 2 or 3, wherein in the second case, the control means increases the delay time as the difference between the speed of the movement operation and the predetermined speed increases. ..
前記第1の場合とは、所定の期間における前記移動操作の速度が所定速度未満である期間の割合が所定割合未満である場合であり、
前記第2の場合とは、前記所定の期間における前記移動操作の速度が前記所定速度未満である期間の割合が前記所定割合以上である場合である
ことを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
The first case is a case where the ratio of the period in which the speed of the movement operation is less than the predetermined speed in the predetermined period is less than the predetermined ratio.
The second case is any of claims 1 to 3, wherein the ratio of the period in which the speed of the movement operation is less than the predetermined speed in the predetermined period is equal to or more than the predetermined ratio. The electronic device according to item 1.
前記第1の場合とは、所定の期間における前記移動操作の速度が所定速度未満である期間の割合が所定割合未満である場合であり、
前記第2の場合とは、前記所定の期間における前記移動操作の速度が前記所定速度未満である期間の割合が前記所定割合以上である場合であり、
前記制御手段は、前記遅延時間を、前記所定の期間における当該移動操作の速度が前記所定速度未満である期間の割合が大きいほど長くする
ことを特徴とする請求項2または3に記載の電子機器。
The first case is a case where the ratio of the period in which the speed of the movement operation is less than the predetermined speed in the predetermined period is less than the predetermined ratio.
The second case is a case where the ratio of the period in which the speed of the movement operation is less than the predetermined speed in the predetermined period is equal to or more than the predetermined ratio.
The electronic device according to claim 2 or 3, wherein the control means increases the delay time as the ratio of the period in which the speed of the moving operation in the predetermined period is less than the predetermined speed increases. ..
前記制御手段は、
前記移動操作の速度を、所定の期間における複数の時点における速度から決定し、
前記遅延時間を、前記複数の時点の数が少ないほど長くする
ことを特徴とする請求項2、3、6、8のいずれか1項のいずれか1項に記載の電子機器。
The control means
The speed of the movement operation is determined from the speed at a plurality of time points in a predetermined period.
The electronic device according to any one of claims 2, 3, 6, and 8, wherein the delay time is increased as the number of the plurality of time points is smaller.
前記制御手段は、前記操作部材が前記移動操作を受け付けてから前記移動操作に応じた表示制御を行うまでの期間において、前記移動操作とは異なる前記操作面に対する操作を新たに前記操作部材が受け付けた場合には、当該移動操作に応じた表示制御を行わないようにする
ことを特徴とする請求項1乃至9のいずれか1項に記載の電子機器。
In the control means, during the period from when the operating member receives the moving operation to when the display control is performed according to the moving operation, the operating member newly accepts an operation on the operating surface different from the moving operation. In that case, the electronic device according to any one of claims 1 to 9, wherein the display control according to the movement operation is not performed.
前記移動操作とは異なる前記操作面に対する操作は、前記操作面に対する接触の解除を含む
ことを特徴とする請求項10に記載の電子機器。
The electronic device according to claim 10, wherein an operation on the operation surface different from the movement operation includes a release of contact with the operation surface.
前記操作部材は、さらに前記操作面に対する押圧操作を受け付け、
前記移動操作とは異なる前記操作面に対する操作は、前記操作部材に対する押圧または押圧の解除を含む
ことを特徴とする請求項10または11に記載の電子機器。
The operating member further receives a pressing operation on the operating surface, and receives the pressing operation.
The electronic device according to claim 10 or 11, wherein the operation on the operation surface different from the movement operation includes pressing or releasing the pressing on the operating member.
前記制御手段は、前記操作部材が第1の期間に前記移動操作を受け付けてから前記移動操作に応じた表示制御を行うまでの期間において、当該移動操作より後の第2の期間に前記操作部材が受け付けた移動操作に応じた表示制御を行う場合には、前記第1の期間に受け付けた移動操作に応じた表示制御を行わないようにする
ことを特徴とする請求項1乃至12のいずれか1項に記載の電子機器。
In the period from when the operating member receives the moving operation in the first period to when the display control is performed according to the moving operation, the control means is used in the second period after the moving operation. Any one of claims 1 to 12, characterized in that, when performing display control according to the movement operation received by the above-mentioned first period, display control according to the movement operation received during the first period is not performed. The electronic device according to item 1.
前記操作部材は、前記操作面にタッチした操作体に反射した光を撮像して得られた画像に基づき、前記操作体の接触位置が移動することによる前記移動操作を検知する
ことを特徴とする請求項1乃至13のいずれか1項に記載の電子機器。
The operating member is characterized in that it detects the moving operation due to the movement of the contact position of the operating body based on an image obtained by imaging the light reflected by the operating body touching the operating surface. The electronic device according to any one of claims 1 to 13.
前記操作部材はタッチパネルである
ことを特徴とする請求項1乃至13のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 13, wherein the operating member is a touch panel.
操作面に対して接触した状態で接触位置を移動する移動操作を受け付ける操作部材を有する電子機器の制御方法であって、
前記移動操作の速度が第1の場合には前記移動操作を検知してから所定時間より前に前記移動操作に応じた表示制御を行い、
前記移動操作の速度が前記第1の場合よりも遅い第2の場合には前記移動操作を検知してから前記所定時間より後に前記移動操作に応じた表示制御を行うように制御する制御工程を有することを特徴とする制御方法。
A control method for an electronic device having an operating member that accepts a moving operation that moves the contact position while in contact with the operating surface.
When the speed of the movement operation is the first, display control according to the movement operation is performed before a predetermined time after the movement operation is detected.
In the second case where the speed of the movement operation is slower than that of the first case, a control step of controlling the display control according to the movement operation after the predetermined time after detecting the movement operation is performed. A control method characterized by having.
操作面に対して接触した状態で接触位置を移動する移動操作を受け付ける操作部材を有する電子機器の制御方法であって、
前記移動操作の速度が第1の場合よりも遅い第2の場合には、前記操作部材が前記移動操作を受け付けてから当該移動操作に応じた表示制御を行うまでの遅延時間を、前記第1の場合よりも長くする制御をする制御工程と、
前記移動操作に応じて表示手段の表示制御をする表示制御工程と、
を有することを特徴とする制御方法。
A control method for an electronic device having an operating member that accepts a moving operation that moves the contact position while in contact with the operating surface.
In the second case where the speed of the movement operation is slower than that of the first case, the delay time from when the operation member receives the movement operation to when the display control according to the movement operation is performed is set as the first time. A control process that controls the length longer than in the case of
A display control step that controls the display of the display means according to the movement operation, and
A control method characterized by having.
コンピュータを、請求項1乃至15のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 15. コンピュータを、請求項1乃至15のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the electronic device according to any one of claims 1 to 15.
JP2019192803A 2019-10-23 2019-10-23 Electronic apparatus, control method of electronic apparatus, program, and storage medium Pending JP2021068168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019192803A JP2021068168A (en) 2019-10-23 2019-10-23 Electronic apparatus, control method of electronic apparatus, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019192803A JP2021068168A (en) 2019-10-23 2019-10-23 Electronic apparatus, control method of electronic apparatus, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2021068168A true JP2021068168A (en) 2021-04-30

Family

ID=75637400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019192803A Pending JP2021068168A (en) 2019-10-23 2019-10-23 Electronic apparatus, control method of electronic apparatus, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2021068168A (en)

Similar Documents

Publication Publication Date Title
JP6742730B2 (en) Electronic device and control method thereof
JP2017123515A (en) Electronic apparatus and control method therefor
JP2018013745A (en) Electronic equipment and control method therefor
US10419678B2 (en) Imaging control apparatus and method for controlling the same
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
JP2020181447A (en) Electronic apparatus and control method thereof
JP7433854B2 (en) Imaging control device, imaging control method, program, storage medium
CN111866368B (en) Electronic device, control method thereof, and computer-readable storage medium
JP6701027B2 (en) Imaging device, control method thereof, and program
US11245835B2 (en) Electronic device
JP7377088B2 (en) Electronic devices and their control methods, programs, and storage media
US11689807B2 (en) Image capture apparatus, method for controlling the same, and storage medium for improving an operation of moving a focal point detection region
JP2019071507A (en) Electronic device, control method, program, and storage medium
JP2021012619A (en) Electronic apparatus and method for controlling the same
JP6708516B2 (en) Electronic device, control method thereof, and program
JP2021047360A (en) Image capturing device
JP2020181513A (en) Electronic apparatus, and control method thereof
JP2021068168A (en) Electronic apparatus, control method of electronic apparatus, program, and storage medium
JP7466304B2 (en) Imaging device, control method thereof, program, and storage medium
JP7210158B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
US11418715B2 (en) Display control apparatus and control method therefor
JP2021085979A (en) Electronic apparatus and control method thereof, program, and storage medium
JP6855317B2 (en) Imaging device, control method of imaging device, program, and recording medium
JP2021061531A (en) Imaging control device and control method thereof, program, and storage medium
JP2020181512A (en) Electronic apparatus and control method thereof