JP6686996B2 - Electronic devices and programs - Google Patents

Electronic devices and programs Download PDF

Info

Publication number
JP6686996B2
JP6686996B2 JP2017195512A JP2017195512A JP6686996B2 JP 6686996 B2 JP6686996 B2 JP 6686996B2 JP 2017195512 A JP2017195512 A JP 2017195512A JP 2017195512 A JP2017195512 A JP 2017195512A JP 6686996 B2 JP6686996 B2 JP 6686996B2
Authority
JP
Japan
Prior art keywords
camera
panel
unit
input
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017195512A
Other languages
Japanese (ja)
Other versions
JP2018010695A (en
Inventor
佐藤 彰洋
彰洋 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017195512A priority Critical patent/JP6686996B2/en
Publication of JP2018010695A publication Critical patent/JP2018010695A/en
Application granted granted Critical
Publication of JP6686996B2 publication Critical patent/JP6686996B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、電子機器およびプログラムに関する。   The present invention relates to an electronic device and a program.

撮像装置本体の側面に角度調整可能に設けられた表示パネルにタッチパネル方式の各種操作ボタンを設け、操作ボタンの操作タイミングに対して表示パネルの変位が所定の時間内に生じた場合に、誤操作と判断して動作を無効にする撮像装置が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2005−39582号公報
A touch panel type operation button is provided on the display panel that is provided on the side surface of the imaging device body so that the angle can be adjusted. There is known an imaging device that makes a determination and invalidates the operation (see, for example, Patent Document 1).
[Prior Art Document]
[Patent Document]
[Patent Document 1] Japanese Patent Laid-Open No. 2005-39582

ユーザ操作によって操作部が変位し易い状況にあるか否かによって、操作部に入力された操作を受け付けるか否かを適切に判断することができないという課題があった。   There is a problem that it is not possible to appropriately determine whether or not to accept an operation input to the operation unit, depending on whether or not the operation unit is easily displaced by the user operation.

本発明の第1の態様においては、電子機器は、ユーザが操作する操作部位を有する操作部と、操作部位が操作された場合における操作部の変位を検出する変位検出部と、変位検出部により検出された変位量と、操作部からの入力を受け付けるか否かを判断するための操作部の変位量の基準値とに基づいて、操作部からの入力を受け付けるか否かを判断する判断部とを備え、操作部が有する第1部位が操作される場合の基準値と、操作部が有する第2部位が操作される場合の基準値とが異なる。   In the first aspect of the present invention, the electronic device includes an operation unit having an operation portion operated by a user, a displacement detection unit that detects displacement of the operation unit when the operation portion is operated, and a displacement detection unit. A determination unit that determines whether to accept an input from the operation unit, based on the detected displacement amount and a reference value of the displacement amount of the operation unit that determines whether to accept an input from the operation unit. And a reference value when the first portion of the operation unit is operated is different from a reference value when the second portion of the operation unit is operated.

本発明の第2の態様においては、電子機器は、ユーザが操作する操作部位を有する操作部と、操作部位が操作された場合における前記操作部の変位を検出する変位検出部と、変位検出部により検出された変位量と、前記操作部からの入力を受け付けるか否かを判断するための前記操作部の変位量の基準値とに基づいて、前記操作部からの入力を受け付けるか否かを判断する判断部とを備え、操作部が操作される場合に前記操作部が変位する第1方向に前記操作部が変位したことが検出された場合の前記基準値と、前記第1方向とは反対の第2方向に前記操作部が変位したことが検出された場合の前記基準値とが異なる。   In a second aspect of the present invention, an electronic device includes an operation unit having an operation site operated by a user, a displacement detection unit that detects displacement of the operation unit when the operation site is operated, and a displacement detection unit. Based on the displacement amount detected by, and the reference value of the displacement amount of the operation unit for determining whether to accept the input from the operation unit, whether to accept the input from the operation unit, A reference value when the displacement of the operating portion is detected in a first direction in which the operating portion is displaced when the operating portion is operated, and the first direction. The reference value differs when it is detected that the operating portion is displaced in the opposite second direction.

本発明の第3の態様においては、電子機器は、ユーザが操作する操作部位を有する操作部と、操作部位が操作された場合における前記操作部の変位を検出する変位検出部と、変位検出部により検出された変位量と、前記操作部からの入力を受け付けるか否かを判断するための前記操作部の変位量の基準値とに基づいて、前記操作部からの入力を受け付けるか否かを判断する判断部とを備え、操作部位が操作される操作内容が第1の操作内容である場合の前記基準値と、前記操作部位が操作される操作内容が第2の操作内容である場合の前記基準値とが異なる。   In a third aspect of the present invention, an electronic device includes an operation unit having an operation portion operated by a user, a displacement detection unit detecting displacement of the operation unit when the operation portion is operated, and a displacement detection unit. Based on the displacement amount detected by, and the reference value of the displacement amount of the operation unit for determining whether to accept the input from the operation unit, whether to accept the input from the operation unit, A reference value when the operation content for operating the operation site is the first operation content, and a case where the operation content for operating the operation site is the second operation content. The reference value is different.

本発明の第4の態様においては、電子機器は、本体部と、本体部に対して可動に設けられ、ユーザが操作する操作部位を有する操作部と、操作部位が操作された場合における前記操作部の変位を検出する変位検出部と、変位検出部により検出された変位量と、前記操作部からの入力を受け付けるか否かを判断するための前記操作部の変位量の基準値とに基づいて、前記操作部からの入力を受け付けるか否かを判断する判断部とを備え、操作部が操作されたときに前記操作部が前記本体部に対して第1の位置にある場合の前記基準値と、前記操作部が操作されたときに前記操作部が前記本体部に対して第2の位置にある場合の前記基準値とが異なる。   In a fourth aspect of the present invention, an electronic device includes a main body, an operation unit provided movably with respect to the main body, and having an operation part operated by a user, and the operation when the operation part is operated. Based on a displacement detection unit that detects the displacement of the section, a displacement amount detected by the displacement detection unit, and a reference value of the displacement amount of the operation unit for determining whether to accept an input from the operation unit. And a determination unit that determines whether or not an input from the operation unit is accepted, and the reference when the operation unit is in the first position with respect to the main body unit when the operation unit is operated. The value is different from the reference value when the operating section is in the second position with respect to the main body section when the operating section is operated.

本発明の第5の態様においては、電子機器は、表示部の一つの表示面内の異なる位置に表示された第1オブジェクトおよび第2オブジェクトのそれぞれのオブジェクトに対するユーザ操作を検出する検出部と、前記検出部で検出されたユーザ操作が誤操作であったか否かを判断する誤操作判断部と、誤操作判断部により前記第1オブジェクトに対するユーザ操作が誤操作と判断された場合に、前記第2オブジェクトの表示位置を変更することなく、前記第1オブジェクトの表示に代えて、前記第1オブジェクトに対応するユーザ操作を受け付ける第3オブジェクトを、前記誤操作と判断された前記第1オブジェクトに対する前記ユーザ操作が検出された位置とは異なる位置に表示させる制御部とを備える。   In a fifth aspect of the present invention, the electronic device includes a detection unit that detects a user operation performed on each of the first object and the second object displayed at different positions on one display surface of the display unit, An erroneous operation determination unit that determines whether or not the user operation detected by the detection unit is an erroneous operation, and a display position of the second object when the erroneous operation determination unit determines that the user operation on the first object is an erroneous operation. Instead of changing the display of the first object, the third object that accepts the user operation corresponding to the first object is detected as the user operation for the first object that is determined to be the erroneous operation. And a control unit for displaying at a position different from the position.

本発明の第6の態様においては、電子機器は、予め定められた操作方法に基づくユーザ操作を検出する検出部と、検出部により検出されたユーザ操作が誤操作であったか否かを判断する誤操作判断部と、誤操作判断部により第1操作方法に基づくユーザ操作が誤操作と判断された場合に、前記第1操作方法に基づくユーザ操作に応じて受け付ける指示を、前記第1操作方法とは異なる第2操作方法に基づくユーザ操作に応じて受け付ける制御部とを備える。   In the sixth aspect of the present invention, the electronic device includes a detection unit that detects a user operation based on a predetermined operation method, and an erroneous operation determination that determines whether the user operation detected by the detection unit is an erroneous operation. And a second operation different from the first operation method, when the user operation based on the first operation method is determined to be an error operation by the operation unit and the error operation determination unit, an instruction to be received according to the user operation based on the first operation method is received. And a control unit that receives a user operation based on an operation method.

本発明の第7の態様においては、プログラムは、上記電子機器としてコンピュータを機能させる。   In the seventh aspect of the present invention, the program causes a computer to function as the electronic device.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the above summary of the invention does not enumerate all the necessary features of the invention. Further, a sub-combination of these feature groups can also be an invention.

カメラ10の外観の一例を示す。An example of the external appearance of the camera 10 is shown. パネル50がカメラ本体130に対して変位している状態のカメラ10の外観の他の一例を示す。Another example of the appearance of the camera 10 in a state where the panel 50 is displaced with respect to the camera body 130 is shown. カメラ10のブロック構成の一例を示す。An example of a block configuration of the camera 10 is shown. パネル50がカメラ本体130に対して更に変位した状態のカメラ10の外観の一例を示す。An example of the appearance of the camera 10 in a state where the panel 50 is further displaced with respect to the camera body 130 is shown. パネル50がカメラ本体130に対して更に変位した状態のカメラ10の外観の一例を示す。An example of the appearance of the camera 10 in a state where the panel 50 is further displaced with respect to the camera body 130 is shown. パネル50がカメラ本体130に対して更に変位した状態のカメラ10の外観の一例を示す。An example of the appearance of the camera 10 in a state where the panel 50 is further displaced with respect to the camera body 130 is shown. 操作部位が属するエリア毎に適用される閾値の変化を説明するための模式図である。FIG. 6 is a schematic diagram for explaining a change in threshold applied to each area to which an operation part belongs. パネル50の位置に応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。An example of information stored in order to apply the threshold according to the position of the panel 50 is shown in a table format. 操作部位に応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。An example of information stored in order to apply the threshold according to the operation site is shown in a table format. 操作部位に応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。An example of information stored in order to apply the threshold according to the operation site is shown in a table format. 操作内容に応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。An example of information stored to apply the threshold value according to the operation content is shown in a table format. 合計スコアに応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。An example of information stored in order to apply the threshold value according to the total score is shown in a table format. 誤操作があった場合のオブジェクトの表示位置の変更例を模式的に示す。An example of changing the display position of an object when an erroneous operation is performed is schematically shown. オブジェクト71の表示位置が変更された画面の他の一例を示す。7 shows another example of the screen in which the display position of the object 71 is changed. オブジェクト71の表示位置が変更された画面の更なる他の一例を示す。14 shows still another example of the screen in which the display position of the object 71 is changed. 誤操作があった場合の操作方法の変更例を模式的に示す。The example of change of the operation method when there is an erroneous operation is shown schematically. 誤操作があった場合のオブジェクトの操作方法の他の変更例を模式的に示す。The other example of a change of the operation method of an object when there is an erroneous operation is shown typically. 自動焦点調節(AF)に係る誤操作の判断方法の一例を説明する図である。It is a figure explaining an example of the erroneous operation judgment method concerning automatic focus adjustment (AF). AFに係る誤操作の判断方法の他の一例を説明する図である。It is a figure explaining another example of the erroneous operation determination method concerning AF. AF対象位置を指定する操作方法の変更例の一例を模式的に示す。An example of a modification of the operation method for designating the AF target position is schematically shown. ユーザインタフェースを変更した場合に表示する確認画面の一例を模式的に示す。An example of the confirmation screen displayed when the user interface is changed is schematically shown. カメラ10における動作フローの一例を示す。An example of an operation flow in the camera 10 is shown. 操作判断タスクによってカメラ10で実行される処理フローの一例を示す。An example of a processing flow executed by the camera 10 according to the operation determination task is shown. ユーザインタフェースの変更処理に関する処理の一例を示す。An example of the process regarding a user interface change process is shown. ライブビューの動作を行っている場合の誤操作検出処理の一例を示す。An example of an erroneous operation detection process when a live view operation is performed will be described. ユーザインタフェースの変更処理に関する処理の一例を示す。An example of the process regarding a user interface change process is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須で2あるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Further, not all of the combinations of features described in the embodiments are essential to the solving means of the invention.

図1は、カメラ10の外観の一例を示す。カメラ10は、パネル50、カメラ本体130およびレンズユニット120を備える。カメラ10は、電子機器の一例としての撮像装置である。カメラ10は、一例としてレンズ交換式の一眼レフレックスカメラである。レンズユニット120は、カメラ本体130に着脱可能に装着される。   FIG. 1 shows an example of the external appearance of the camera 10. The camera 10 includes a panel 50, a camera body 130, and a lens unit 120. The camera 10 is an imaging device as an example of an electronic device. The camera 10 is, for example, a lens interchangeable single-lens reflex camera. The lens unit 120 is detachably attached to the camera body 130.

パネル50は、本体部の一例としてのカメラ本体130に対して可動に設けられる。図1は、パネル50がカメラ本体130に収容されている場合の外観の一例を示す。   The panel 50 is movably provided with respect to a camera body 130 as an example of a body portion. FIG. 1 shows an example of an external appearance when the panel 50 is housed in the camera body 130.

パネル50は、連結部40によりカメラ本体130に連結される。連結部40は、パネル50およびカメラ本体130を、カメラ本体130に対する表示面60の角度を可変に連結する。連結部40は、カメラ本体130に対してパネル50を開閉可能に回転させるヒンジ部を有してよい。   The panel 50 is connected to the camera body 130 by the connecting portion 40. The connecting portion 40 connects the panel 50 and the camera body 130 such that the angle of the display surface 60 with respect to the camera body 130 is variable. The connection part 40 may include a hinge part that rotates the panel 50 so that the panel 50 can be opened and closed with respect to the camera body 130.

レンズユニット120を通過した被写体光は、ファインダ窓163を通じてユーザに提供される。カメラ本体130は、パネル50が収容される位置の近傍に、ユーザにより操作される操作ボタン90が設けられる。   The subject light that has passed through the lens unit 120 is provided to the user through the finder window 163. The camera body 130 is provided with an operation button 90 operated by a user near the position where the panel 50 is housed.

図2は、パネル50がカメラ本体130に対して変位している状態のカメラ10の外観の他の一例を示す。パネル50は、パネル50を開閉する第1の回転軸Aの周りに回転する。図2は、パネル50がカメラ本体130に収容された図1の状態から、パネル50を第1の回転軸であるA軸の周りに回転させた状態を示す。   FIG. 2 shows another example of the external appearance of the camera 10 in a state where the panel 50 is displaced with respect to the camera body 130. The panel 50 rotates about a first rotation axis A that opens and closes the panel 50. FIG. 2 shows a state in which the panel 50 is rotated around the A axis which is the first rotation axis from the state of FIG. 1 in which the panel 50 is housed in the camera body 130.

カメラ本体130の筐体には、パネル50を収容する収容部30を有する。図2は、図1に示すようにパネル50が収容部30に収容された状態から、パネル50をA軸のまわりに回転させた状態を示す。図2は、パネル50が収容部30に収容された状態から、一例としてA軸周りに180°回転させた状態を示す。この状態からパネル50を反対方向に180°回転させると、図1に示すように表示面60を内側にして収容部30に収容された状態になる。図1に示す状態では、パネル50をカメラ本体130に収容し、表示面60を外部から保護することができる。このように、パネル50は、カメラ本体130に対して、A軸まわりに開閉可能に設けられる。本実施形態では、パネル50が収容部30に収容された状態からパネル50をA軸まわりに回転させる場合の回転方向を、回転の正方向として扱う。また、パネル50が収容部30に収容されている場合の回転角を0°とする。   The housing of the camera body 130 has a housing portion 30 that houses the panel 50. FIG. 2 shows a state in which the panel 50 is rotated around the A axis from the state in which the panel 50 is accommodated in the accommodating portion 30 as shown in FIG. FIG. 2 shows a state in which the panel 50 is accommodated in the accommodating portion 30 and is rotated about the A axis by 180 °, for example. When the panel 50 is rotated 180 ° in the opposite direction from this state, the panel 50 is accommodated in the accommodating portion 30 with the display surface 60 inside as shown in FIG. In the state shown in FIG. 1, the panel 50 can be housed in the camera body 130 to protect the display surface 60 from the outside. In this way, the panel 50 is provided so as to be openable and closable around the A axis with respect to the camera body 130. In the present embodiment, the rotation direction when the panel 50 is rotated about the A axis from the state where the panel 50 is accommodated in the accommodation unit 30 is treated as the positive rotation direction. The rotation angle when the panel 50 is housed in the housing unit 30 is 0 °.

図2に示すようにパネル50がA軸周りに180°回転した位置にある場合に、連結部40は、パネル50のA軸周りの回転を制限する回転制限機構を有する。例えば、連結部40は、A軸周りに180°回転した状態においては、パネル50を負の回転方向に一定値を超える大きさの力を加えなければ、負の回転方向に回転しない機構を有する。これに対し、連結部40は、パネル50の回転角がA軸周りに180°未満である状態では、A軸周りに180°回転した状態にある場合に比べて小さい力を加えるだけで回転する。   As shown in FIG. 2, when the panel 50 is in a position rotated by 180 ° around the A axis, the connecting portion 40 has a rotation limiting mechanism that limits the rotation of the panel 50 around the A axis. For example, the connecting portion 40 has a mechanism that does not rotate in the negative rotation direction unless a force exceeding a certain value is applied to the panel 50 in the negative rotation direction in the state of being rotated by 180 ° around the A axis. . On the other hand, in the state where the rotation angle of the panel 50 is less than 180 ° around the A axis, the connecting portion 40 rotates by applying a small force as compared with the case where the panel 50 is rotated around the A axis by 180 °. .

パネル50は、表示面60に種々のオブジェクトを表示する表示機能を有する。また、パネル50は、表示面60を介してユーザ操作を受け付けるタッチパネル機能を有する。図2には、タッチ操作用のオブジェクトの一例としてのオブジェクト70、オブジェクト71、オブジェクト72、オブジェクト73およびオブジェクト74が、被写体像とともに表示面60に表示された状態が例示されている。   The panel 50 has a display function of displaying various objects on the display surface 60. The panel 50 also has a touch panel function of accepting a user operation via the display surface 60. FIG. 2 illustrates a state in which an object 70, an object 71, an object 72, an object 73, and an object 74, which are examples of touch operation objects, are displayed on the display surface 60 together with a subject image.

オブジェクト70は、ユーザからの焦点距離を指定する操作の入力位置を示すオジェクトである。オブジェクト71は、閃光モードを指定するユーザ操作の入力位置を示すオブジェクトである。オブジェクト72は、接写モードで動作するか否かを選択するユーザ操作の入力位置を示すオブジェクトである。オブジェクト73は、カメラ10の露出補正を指示するユーザ操作の入力位置を示すオブジェクトである。オブジェクト73は、カメラ10の動作設定を指示するユーザ操作の入力位置を示すオブジェクトである。パネル50は、ユーザが操作する操作部位を有する操作部の一例である。表示面60においてオブジェクト70等を表示させた部位が、ユーザが操作する操作部位となる。   The object 70 is an object indicating the input position of the operation of designating the focal length from the user. The object 71 is an object indicating the input position of the user operation for designating the flash mode. The object 72 is an object indicating an input position of a user operation for selecting whether to operate in the close-up mode. The object 73 is an object indicating an input position of a user operation for instructing the exposure correction of the camera 10. The object 73 is an object indicating an input position of a user operation for instructing the operation setting of the camera 10. The panel 50 is an example of an operation unit having an operation part operated by a user. The part where the object 70 and the like are displayed on the display surface 60 is the operation part operated by the user.

例えば、カメラ10は、表示面60においてオブジェクト71を表示させた部位がタッチされた場合、閃光モードを変更する。例えば、カメラ10は、現在の閃光モードが閃光を禁止する閃光禁止モードである場合に、閃光を許可する閃光許可モードに変更する。現在の閃光モードが閃光許可モードである場合に、閃光禁止モードに変更する。また、カメラ10は、表示面60においてオブジェクト72を表示させた部位がタッチされたと判断した場合、接写モードの状態を変更する。例えば、カメラ10は、接写モードで動作する状態にある場合に、接写モードで動作しない状態に変更し、接写モードで動作しない状態にある場合に、接写モードで動作する状態に変更する。   For example, the camera 10 changes the flash mode when the part where the object 71 is displayed on the display surface 60 is touched. For example, when the current flash mode is the flash prohibit mode that prohibits the flash, the camera 10 changes to the flash enable mode that permits the flash. If the current flash mode is the flash permission mode, change to the flash prohibit mode. In addition, when the camera 10 determines that the part where the object 72 is displayed on the display surface 60 is touched, the camera 10 changes the state of the close-up mode. For example, when the camera 10 is in a state of operating in the close-up mode, it is changed to a state of not operating in the close-up mode, and when it is not operating in the close-up mode, it is changed to a state of operating in the close-up mode.

また、カメラ10は、表示面60においてオブジェクト73を表示させた部位がタッチされたと判断した場合、露出補正の補正量を変更するためのオブジェクトをパネル50に表示させる。カメラ10は、当該オブジェクトを表示した位置へのユーザ操作に基づき、露出補正の補正量を示す指示を取得する。カメラ10は、表示面60においてオブジェクト74を表示させた部位がタッチされたと判断した場合、設定メニューを表示させる。カメラ10は、当該設定メニューへのユーザ操作に基づき、カメラ10の撮影モードや撮像条件等の指示を取得する。   Further, when the camera 10 determines that the part where the object 73 is displayed on the display surface 60 is touched, the camera 10 displays an object for changing the correction amount of the exposure correction on the panel 50. The camera 10 acquires an instruction indicating a correction amount of exposure correction based on a user operation on the position where the object is displayed. When the camera 10 determines that the part where the object 74 is displayed on the display surface 60 is touched, the camera 10 displays the setting menu. The camera 10 acquires an instruction such as a shooting mode or an imaging condition of the camera 10 based on a user operation on the setting menu.

カメラ10は、表示面60においてオブジェクト70を表示させた部位がタッチされたと判断した場合、操作内容に応じて焦点距離を変更する。カメラ10は、オブジェクト70を表示させた部位に対してスライド操作がなされた場合に、スライドの方向に応じて焦点距離を増加させるか減少させるかを判断する。第1の方向のスライド操作を検出した場合に、焦点距離を増加させ、第1の方向とは反対の第2の方向のスライド操作を検出した場合に、焦点距離を減少させる。また、焦点距離の変化量を示す指示は、スライド量で判断される。カメラ10は、スライド量に応じた量だけ、レンズユニット120の焦点距離を変化させる。   When the camera 10 determines that the part displaying the object 70 on the display surface 60 is touched, the camera 10 changes the focal length according to the operation content. When the slide operation is performed on the part where the object 70 is displayed, the camera 10 determines whether to increase or decrease the focal length according to the slide direction. The focal length is increased when the slide operation in the first direction is detected, and the focal length is decreased when the slide operation in the second direction opposite to the first direction is detected. Further, the instruction indicating the change amount of the focal length is determined by the slide amount. The camera 10 changes the focal length of the lens unit 120 by an amount according to the amount of slide.

カメラ10は、閾値を用いて、表示面60のオブジェクト70、オブジェクト71、オブジェクト72またはオブジェクト73の表示部位からの入力を受け付けるか否かを判断する。ここで、カメラ10は、表示面60のオブジェクト70、オブジェクト71、オブジェクト72またはオブジェクト73の表示部位が操作されたことを検出した場合に、パネル50のA軸周りの回転角が180°未満であるときには、比較的に大きい閾値を決定する。一方、パネル50のA軸周りの回転角が180°であるときには、カメラ10は、比較的に小さい閾値を決定する。   The camera 10 uses the threshold value to determine whether to accept an input from the display part of the object 70, the object 71, the object 72, or the object 73 on the display surface 60. Here, when the camera 10 detects that the display part of the object 70, the object 71, the object 72, or the object 73 on the display surface 60 is operated, the rotation angle of the panel 50 around the A axis is less than 180 °. At some point, a relatively large threshold is determined. On the other hand, when the rotation angle of the panel 50 around the A axis is 180 °, the camera 10 determines a relatively small threshold value.

そして、カメラ10は、表示面60が操作された後に生じたパネル50の回転量が当該閾値を超えない場合に、表示面60からの入力を受け付ける。このように、パネル50が変位し易い状況にある場合には、比較的に大きい閾値を決定する。そのため、パネル50が変位し易い状況では、比較的に大きな変位が検出されても表示面60からの入力を受け付けることができる。一方、パネル50が変位しにくい状況にある場合には、比較的に小さい閾値を決定する。そのため、パネル50が変位しにくい状況では、比較的に小さな変位が検出されただけで表示面60からの入力を受け付けないようにすることができる。そのため、例えばパネル50を回転させる操作をしている最中に表示面60に偶然触れてしまうことで誤動作する可能性を低減できる。   Then, the camera 10 accepts an input from the display surface 60 when the rotation amount of the panel 50 generated after the display surface 60 is operated does not exceed the threshold value. In this way, when the panel 50 is easily displaced, a relatively large threshold value is determined. Therefore, in the situation where the panel 50 is easily displaced, it is possible to receive an input from the display surface 60 even if a relatively large displacement is detected. On the other hand, when the panel 50 is in a state where it is difficult to displace, a relatively small threshold value is determined. Therefore, in a situation where the panel 50 is difficult to be displaced, it is possible to prevent the input from the display surface 60 from being accepted only when a relatively small displacement is detected. Therefore, for example, it is possible to reduce the possibility of malfunction due to accidentally touching the display surface 60 during the operation of rotating the panel 50.

図3は、カメラ10のブロック構成の一例を示す。本図ではレンズユニット120が装着された状態のカメラ10のブロック構成を示す。   FIG. 3 shows an example of a block configuration of the camera 10. This figure shows the block configuration of the camera 10 with the lens unit 120 attached.

レンズユニット120は、レンズマウント接点121を有するレンズマウントを備える。カメラ本体130は、カメラマウント接点131を有するカメラマウントを備える。レンズマウントとカメラマウントとが係合してレンズユニット120とカメラ本体130とが一体化されると、レンズマウント接点121とカメラマウント接点131とが接続される。レンズMPU123は、レンズマウント接点121およびカメラマウント接点131を介してカメラMPU140と接続され、相互に通信しつつ協働してレンズユニット120を制御する。   The lens unit 120 includes a lens mount having a lens mount contact 121. The camera body 130 includes a camera mount having a camera mount contact 131. When the lens mount and the camera mount are engaged and the lens unit 120 and the camera body 130 are integrated, the lens mount contact 121 and the camera mount contact 131 are connected. The lens MPU 123 is connected to the camera MPU 140 via the lens mount contact 121 and the camera mount contact 131, and controls the lens unit 120 in cooperation with each other while communicating with each other.

レンズユニット120は、レンズ群122、レンズ駆動部124およびレンズMPU123を有する。被写体光は、レンズユニット120が有する光学系としてのレンズ群122を光軸に沿って透過して、カメラ本体130に入射する。メインミラー145は、レンズ群122の光軸を中心とする被写体光束中に進出した進出状態と、被写体光束から退避した退避状態を取り得る。   The lens unit 120 includes a lens group 122, a lens driving unit 124, and a lens MPU 123. The subject light passes through the lens group 122 as an optical system of the lens unit 120 along the optical axis and enters the camera body 130. The main mirror 145 can be in an advanced state where the main mirror 145 has advanced into the subject light flux centered on the optical axis of the lens group 122 and a retracted state where the subject light flux is retracted.

メインミラー145が進出状態にある場合、メインミラー145は、レンズ群122を通過した被写体光束の一部を反射する。具体的には、進出位置にある場合のメインミラー145の光軸近傍領域は、ハーフミラーとして形成されている。光軸近傍領域に入射した被写体光束の一部は透過し、他の一部は反射する。メインミラー145により反射された被写体光束はファインダ部147に導かれて、ユーザに観察される。ユーザは、ファインダ部147を通じて構図等を確認することができる。ファインダ部147は、被写体光束に基づく被写体像とともに、撮像動作の設定状態を示す情報等を含む種々の情報をユーザに提示する表示デバイスを含んでよい。   When the main mirror 145 is in the advanced state, the main mirror 145 reflects a part of the subject light flux that has passed through the lens group 122. Specifically, the area near the optical axis of the main mirror 145 in the advanced position is formed as a half mirror. Part of the subject light flux incident on the region near the optical axis is transmitted and the other part is reflected. The subject light flux reflected by the main mirror 145 is guided to the finder unit 147 and observed by the user. The user can check the composition and the like through the finder unit 147. The finder section 147 may include a subject image based on the subject light flux, and a display device that presents various kinds of information including information indicating the setting state of the imaging operation to the user.

メインミラー145の光軸近傍領域を透過した被写体光束の一部は、サブミラー146で反射されて、AFユニット142へ導かれる。AFユニット142は、被写体光束を受光する複数の光電変換素子列を有する。光電変換素子列は、合焦状態にある場合には位相が一致した信号を出力し、前ピン状態または後ピン状態にある場合には、位相ずれした信号を出力する。位相のずれ量は、焦点状態からのずれ量に対応する。AFユニット142は、光電変換素子列の出力を相関演算することで位相差を検出して、位相差を示す位相差信号をカメラMPU140へ出力する。   A part of the subject light flux that has passed through the area near the optical axis of the main mirror 145 is reflected by the sub mirror 146 and guided to the AF unit 142. The AF unit 142 has a plurality of photoelectric conversion element arrays that receive a subject light flux. The photoelectric conversion element array outputs a signal with a matched phase when it is in focus, and outputs a signal with a shifted phase when it is in a front focus state or a rear focus state. The phase shift amount corresponds to the shift amount from the focus state. The AF unit 142 detects the phase difference by performing a correlation operation on the output of the photoelectric conversion element array, and outputs a phase difference signal indicating the phase difference to the camera MPU 140.

レンズ群122の焦点状態は、カメラMPU140等の制御により、AFユニット142からの位相差信号を用いて調節される。例えば、位相差信号から検出された焦点状態に基づき、カメラMPU140によってレンズ群122が含むフォーカスレンズの目標位置が決定され、決定された目標位置に向けてレンズMPU123の制御によってフォーカスレンズの位置が制御される。具体的には、レンズMPU123は、一例としてフォーカスレンズモータを含むレンズ駆動部124を制御して、レンズ群122を構成するフォーカスレンズを移動させる。このように、メインミラー145がダウンして進出状態にある場合に、位相差検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。AFユニット142は、被写体像における複数の領域のそれぞれにおいて焦点状態を調節すべく、複数の領域にそれぞれ対応する複数の位置にそれぞれ光電変換素子列が設けられる。   The focus state of the lens group 122 is adjusted using the phase difference signal from the AF unit 142 under the control of the camera MPU 140 or the like. For example, the target position of the focus lens included in the lens group 122 is determined by the camera MPU 140 based on the focus state detected from the phase difference signal, and the position of the focus lens is controlled by the control of the lens MPU 123 toward the determined target position. To be done. Specifically, the lens MPU 123 controls the lens driving unit 124 including a focus lens motor, for example, to move the focus lens forming the lens group 122. Thus, when the main mirror 145 is down and in the advanced state, the focus state of the lens group 122 is detected by the phase difference detection method and focus adjustment is performed. The AF unit 142 is provided with photoelectric conversion element rows at a plurality of positions corresponding to the plurality of areas, respectively, in order to adjust the focus state in each of the plurality of areas of the subject image.

測光素子144は、光学ファインダ部に導かれた光束の一部の光束を受光する。光学ファインダ部に導かれた他の光束は、ファインダ窓163に導かれて、ユーザに被写体像として提示される。測光素子144が有する光電変換素子で検出された被写体の輝度情報は、カメラMPU140に出力される。カメラMPU140は、測光素子144から取得した輝度情報に基づき、AE評価値を算出して露出制御に用いる。   The photometric element 144 receives a part of the light beam guided to the optical finder. The other light flux guided to the optical finder is guided to the finder window 163 and presented to the user as a subject image. The brightness information of the subject detected by the photoelectric conversion element included in the photometric element 144 is output to the camera MPU 140. The camera MPU 140 calculates an AE evaluation value based on the brightness information acquired from the photometric element 144 and uses it for exposure control.

メインミラー145が被写体光束から退避すると、サブミラー146はメインミラー145に連動して被写体光束から退避する。撮像素子132のレンズ群122側には、メカニカルシャッタの一例としてのフォーカルプレーンシャッタ143が設けられる。メインミラー145が退避状態にあり、フォーカルプレーンシャッタ143が開状態にある場合、レンズ群122を透過した被写体光束は、撮像素子132の受光面に入射する。   When the main mirror 145 retracts from the subject light flux, the sub mirror 146 interlocks with the main mirror 145 and retracts from the subject light flux. A focal plane shutter 143 as an example of a mechanical shutter is provided on the lens group 122 side of the image sensor 132. When the main mirror 145 is in the retracted state and the focal plane shutter 143 is in the open state, the subject light flux that has passed through the lens group 122 is incident on the light receiving surface of the image sensor 132.

撮像素子132は、撮像部として機能する。撮像素子132は、レンズ群122を通過した被写体光束により被写体を撮像する。撮像素子132としては、例えばCCDセンサ、CMOSセンサ等の固体撮像素子を含む。撮像素子132は、被写体光束を受光する複数の光電変換素子を有しており、複数の光電変換素子でそれぞれ生じた蓄積電荷量に応じたアナログ信号をアナログ処理部133へ出力する。アナログ処理部133は、撮像素子132から出力されたアナログ信号に対して、感度補正処理、OBクランプ処理等のアナログ処理を施して、A/D変換器134へ出力する。A/D変換器134は、アナログ処理部133から出力されたアナログ信号を、画像データを表すデジタル信号に変換して出力する。撮像素子132、アナログ処理部133およびA/D変換器134は、カメラMPU140からの指示を受けた駆動部148により駆動される。   The image pickup device 132 functions as an image pickup unit. The image sensor 132 images a subject with the light flux of the subject that has passed through the lens group 122. The image sensor 132 includes, for example, a solid-state image sensor such as a CCD sensor or a CMOS sensor. The image pickup element 132 has a plurality of photoelectric conversion elements that receive a subject light flux, and outputs an analog signal corresponding to the amount of accumulated charge generated in each of the plurality of photoelectric conversion elements to the analog processing unit 133. The analog processing unit 133 performs analog processing such as sensitivity correction processing and OB clamp processing on the analog signal output from the image sensor 132, and outputs the analog signal to the A / D converter 134. The A / D converter 134 converts the analog signal output from the analog processing unit 133 into a digital signal representing image data and outputs the digital signal. The image sensor 132, the analog processing unit 133, and the A / D converter 134 are driven by the driving unit 148 that receives an instruction from the camera MPU 140.

A/D変換器134からデジタル信号で出力した画像データは、ASIC135に入力される。ASIC135は、画像処理機能に関連する回路等を一つにまとめた集積回路である。ASIC135は、揮発性メモリの一例としてのRAM136の少なくとも一部のメモリ領域を、画像データを一時的に記憶するバッファ領域として使用して、RAM136に記憶させた画像データに対して種々の画像処理を施す。ASIC135による画像処理としては、欠陥画素補正、ホワイトバランス補正、色補間処理、色補正、ガンマ補正、輪郭強調処理、画像データの圧縮処理等を例示することができる。撮像素子132が連続して撮像した場合、順次に出力される画像データはバッファ領域に順次に記憶される。撮像素子132が連続して撮像することにより得られた複数の画像データは、連続する静止画の画像データ、または、動画を構成する各画像の画像データとして、バッファ領域に順次に記憶される。RAM136は、ASIC135において動画データを処理する場合にフレームを一時的に記憶するフレームメモリとしても機能する。   The image data output as a digital signal from the A / D converter 134 is input to the ASIC 135. The ASIC 135 is an integrated circuit in which circuits related to the image processing function are integrated. The ASIC 135 uses at least a part of a memory area of the RAM 136 as an example of a volatile memory as a buffer area for temporarily storing image data, and performs various image processing on the image data stored in the RAM 136. Give. Examples of image processing performed by the ASIC 135 include defective pixel correction, white balance correction, color interpolation processing, color correction, gamma correction, contour enhancement processing, and image data compression processing. When the image sensor 132 continuously captures images, sequentially output image data is sequentially stored in the buffer area. A plurality of image data obtained by the imaging device 132 taking images continuously are sequentially stored in the buffer area as image data of continuous still images or image data of each image forming a moving image. The RAM 136 also functions as a frame memory that temporarily stores a frame when processing moving image data in the ASIC 135.

ASIC135における画像処理としては、記録用の画像データを生成する処理の他、表示用の画像データを生成する処理、自動焦点調節(AF)用の画像データ処理を例示できる。また、ASIC135における画像処理としては、AF処理用のコントラスト量を検出する処理等を含む。具体的には、ASIC135は、画像データからコントラスト量を検出してカメラMPU140に供給する。例えば、ASIC135は、光軸方向の異なる位置にフォーカスレンズを位置させて撮像することにより得られた複数の画像データのそれぞれからコントラスト量を検出する。カメラMPU140は、検出されたコントラスト量とフォーカスレンズの位置とに基づいて、レンズ群122の焦点状態を調節する。例えば、カメラMPU140は、コントラスト量を増大させるようフォーカスレンズの目標位置を決定して、レンズMPU123に、決定された目標位置に向けてフォーカスレンズの位置を制御させる。このように、メインミラー145がアップして退避状態にある場合に、コントラスト検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。このように、カメラMPU140は、ASIC135およびレンズMPU123と協働して、レンズ群122の焦点調節を行う。   Examples of the image processing in the ASIC 135 include processing for generating image data for recording, processing for generating image data for display, and image data processing for automatic focus adjustment (AF). Further, the image processing in the ASIC 135 includes processing for detecting the contrast amount for AF processing. Specifically, the ASIC 135 detects the contrast amount from the image data and supplies it to the camera MPU 140. For example, the ASIC 135 detects the contrast amount from each of a plurality of image data obtained by locating the focus lens at different positions in the optical axis direction and capturing an image. The camera MPU 140 adjusts the focus state of the lens group 122 based on the detected contrast amount and the position of the focus lens. For example, the camera MPU 140 determines the target position of the focus lens so as to increase the contrast amount, and causes the lens MPU 123 to control the position of the focus lens toward the determined target position. In this way, when the main mirror 145 is up and in the retracted state, the focus state of the lens group 122 is detected by the contrast detection method and focus adjustment is performed. In this way, the camera MPU 140 cooperates with the ASIC 135 and the lens MPU 123 to adjust the focus of the lens group 122.

ASIC135は、A/D変換器134から出力された画像データを記録する場合、規格化された画像フォーマットの画像データに変換する。例えば、ASIC135は、静止画の画像データを、JPEG等の規格に準拠した符号化形式で符号化された静止画データを生成するための圧縮処理を行う。また、ASIC135は、複数のフレームを、QuickTime、H.264、MPEG2、Motion JPEG等の規格に準拠した符号化方式で符号化された動画データを生成するための圧縮処理を行う。   When recording the image data output from the A / D converter 134, the ASIC 135 converts the image data into image data of a standardized image format. For example, the ASIC 135 performs compression processing for generating still image data in which image data of a still image is encoded in an encoding format that conforms to a standard such as JPEG. In addition, the ASIC 135 transmits a plurality of frames to QuickTime, H.264, and H.264. A compression process is performed to generate moving image data that has been encoded by an encoding method that complies with standards such as H.264, MPEG2, and Motion JPEG.

ASIC135は、生成した静止画データ、動画データ等の画像データを、不揮発性の記録媒体の一例としての外部メモリ180へ出力して記録させる。例えば、ASIC135は、静止画ファイル、動画ファイルとして外部メモリ180に記録させる。外部メモリ180としては、フラッシュメモリ等の半導体メモリを例示することができる。具体的には、外部メモリ180としては、SDメモリカード、CFストレージカード、XQDメモリカード等の種々のメモリカードを例示することができる。RAM136に記憶されている画像データは、記録媒体IF150を通じて外部メモリ180へ転送される。また、外部メモリ180に記録されている画像データは、記録媒体IF150を通じてRAM136へ転送され、表示等の処理に供される。記録媒体IF150としては、上述したメモリカードに対するアクセスを制御するカードコントローラを例示することができる。   The ASIC 135 outputs the generated image data such as still image data and moving image data to an external memory 180 as an example of a nonvolatile recording medium for recording. For example, the ASIC 135 causes the external memory 180 to record the still image file and the moving image file. As the external memory 180, a semiconductor memory such as a flash memory can be exemplified. Specifically, as the external memory 180, various memory cards such as an SD memory card, a CF storage card, and an XQD memory card can be exemplified. The image data stored in the RAM 136 is transferred to the external memory 180 via the recording medium IF 150. Further, the image data recorded in the external memory 180 is transferred to the RAM 136 through the recording medium IF 150 and provided for processing such as display. As the recording medium IF 150, the card controller that controls access to the memory card described above can be exemplified.

ASIC135は、記録用の画像データの生成に並行して、表示用の画像データを生成する。例えば、ASIC135は、いわゆるライブビュー動作時に、液晶表示デバイス等の表示ユニット138に表示させる表示用の画像データを生成する。また、画像の再生時においては、ASIC135は、外部メモリ180から読み出された画像データから表示用の画像データを生成する。生成された表示用の画像データは、表示制御部137の制御に従ってアナログの信号に変換され、表示ユニット138に表示される。また、撮像により得られた画像データに基づく画像表示と共に、当該画像データに基づく画像表示をすることなく、カメラ10の各種設定に関する様々なメニュー項目や、オブジェクト71等のタッチパネル用のオブジェクトも、ASIC135および表示制御部137の制御により重畳される等して表示ユニット138に表示される。   The ASIC 135 generates image data for display in parallel with generation of image data for recording. For example, the ASIC 135 generates image data for display to be displayed on the display unit 138 such as a liquid crystal display device during the so-called live view operation. Further, at the time of reproducing an image, the ASIC 135 generates image data for display from the image data read from the external memory 180. The generated image data for display is converted into an analog signal under the control of the display control unit 137 and displayed on the display unit 138. In addition to the image display based on the image data obtained by imaging, various menu items related to various settings of the camera 10 and touch panel objects such as the object 71 are displayed on the ASIC 135 without displaying the image based on the image data. And it is displayed on the display unit 138 by being superposed by the control of the display controller 137.

表示ユニット138には、タッチセンサ52が設けられる。タッチセンサ52は、表示面60の略全面に設けられてよい。タッチセンサ52としては、抵抗膜方式、静電容量方式等の種々の検出方式のタッチセンサを適用できる。タッチセンサ52の出力は、接触位置検出部160に出力され、接触位置検出部160においてタッチ位置が算出され、カメラMPU140へ出力される。例えば、接触位置検出部160は、表示面60におけるタッチ位置のX座標およびY座標を算出して、カメラMPU140へ供給する。カメラMPU140は、接触位置検出部160から出力されたタッチ位置の座標および表示ユニット138に表示させている表示内容に応じてユーザ指示を特定して、表示面60に対するユーザ操作を受け付ける旨を判断した場合に、ユーザ指示に応じて10の各部を制御する。これにより、表示面60に対するユーザの指先やペン等先による操作に追従して、カメラ10の各部を制御することができる。   The display unit 138 is provided with the touch sensor 52. The touch sensor 52 may be provided on substantially the entire surface of the display surface 60. As the touch sensor 52, a touch sensor of various detection methods such as a resistance film type and a capacitance type can be applied. The output of the touch sensor 52 is output to the contact position detection unit 160, the touch position is calculated in the contact position detection unit 160, and output to the camera MPU 140. For example, the contact position detection unit 160 calculates the X coordinate and the Y coordinate of the touch position on the display surface 60 and supplies the X coordinate and the Y coordinate to the camera MPU 140. The camera MPU 140 specifies the user instruction according to the coordinates of the touch position output from the contact position detection unit 160 and the display content displayed on the display unit 138, and determines that the user operation on the display surface 60 is accepted. In this case, each unit of 10 is controlled according to a user instruction. As a result, each unit of the camera 10 can be controlled by following the operation of the user's fingertip or pen tip on the display surface 60.

連結部40には、第1回転検出部42および第2回転検出部44が設けられる。第1回転検出部42および第2回転検出部44は、作部位が操作された場合におけるパネル50の変位を検出する変位検出部の一例である。第1回転検出部42は、A軸まわりのパネル50の回転角に応じた出力値をカメラMPU140へ出力する。第2回転検出部44は、パネル50の長辺に対応するB軸まわりのパネル50の回転角に応じた出力値をカメラMPU140へ出力する。カメラMPU140は、ASIC135、表示制御部137等と協働して、表示ユニット138に表示させる表示内容を、第1回転検出部42および第2回転検出部44の出力値に応じて制御する。例えば、カメラMPU140は、上述したように、表示面60におけるオブジェクト70等の表示位置を制御する。   The connecting portion 40 is provided with a first rotation detecting portion 42 and a second rotation detecting portion 44. The first rotation detection unit 42 and the second rotation detection unit 44 are an example of a displacement detection unit that detects the displacement of the panel 50 when the work site is operated. The first rotation detection unit 42 outputs an output value according to the rotation angle of the panel 50 around the A axis to the camera MPU 140. The second rotation detection unit 44 outputs to the camera MPU 140 an output value corresponding to the rotation angle of the panel 50 around the B axis corresponding to the long side of the panel 50. The camera MPU 140 cooperates with the ASIC 135, the display control unit 137, and the like to control the display content displayed on the display unit 138 according to the output values of the first rotation detection unit 42 and the second rotation detection unit 44. For example, the camera MPU 140 controls the display position of the object 70 or the like on the display surface 60, as described above.

操作入力部141は、ユーザから操作を受け付ける。操作入力部141は、操作ボタン90、レリーズボタン、再生ボタンや動画ボタン等のボタン式の操作部材、マルチセレクタやコマンドダイヤル等の回転式の操作部材、ライブビュースイッチや電源スイッチ等のスイッチ式の操作部材等、各種操作部材等を含む。カメラMPU140は、操作入力部141が操作されたことを検知して、操作に応じた動作を実行する。例えば、カメラMPU140は、レリーズボタン12が押し込まれた場合に、焦点位置の調節動作または撮影動作を実行するようにカメラ10の各部を制御する。   The operation input unit 141 receives an operation from the user. The operation input unit 141 includes operation buttons 90, a release button, button-type operation members such as a play button and a movie button, rotary operation members such as a multi-selector and a command dial, and switch-type operation members such as a live view switch and a power switch. It includes various operating members such as operating members. The camera MPU 140 detects that the operation input unit 141 has been operated, and executes an operation according to the operation. For example, the camera MPU 140 controls each unit of the camera 10 so as to perform the focus position adjusting operation or the photographing operation when the release button 12 is pressed.

角度センサ170は、カメラ本体130の向きを検出する。例えば、角度センサ170は、カメラ本体130の3軸方向の傾きを検出する。レンズユニット120がカメラ本体130に装着されている場合、レンズユニット120の光軸は、カメラ本体130に対して固定される。したがって、角度センサ170は、レンズユニット120の光軸の向きを検出できる。角度センサ170としては、ジャイロセンサ等を例示することができる。アイセンサ172は、ファインダ窓163をユーザが見ているか否かを検出する。アイセンサ172は、例えばファインダ窓163の近傍に設けられ、近傍に存在するか否かを示す情報をカメラMPU140へ出力する。カメラMPU140は、アイセンサ172の出力に基づき、ユーザがファインダ窓163を見ているか否かを判断する。カメラMPU140は、ファインダ窓163の近傍に存在する物体がアイセンサ172によって検出されている場合に、ユーザがファインダ窓163を見ていると判断してよい。   The angle sensor 170 detects the orientation of the camera body 130. For example, the angle sensor 170 detects the tilt of the camera body 130 in the three axis directions. When the lens unit 120 is attached to the camera body 130, the optical axis of the lens unit 120 is fixed to the camera body 130. Therefore, the angle sensor 170 can detect the direction of the optical axis of the lens unit 120. A gyro sensor or the like can be exemplified as the angle sensor 170. The eye sensor 172 detects whether the user is looking at the finder window 163. The eye sensor 172 is provided, for example, in the vicinity of the finder window 163 and outputs information indicating whether or not the eye sensor 172 exists in the vicinity to the camera MPU 140. The camera MPU 140 determines whether the user is looking at the finder window 163 based on the output of the eye sensor 172. The camera MPU 140 may determine that the user is looking at the finder window 163 when an object existing near the finder window 163 is detected by the eye sensor 172.

カメラ10は、上記に説明した制御を含めて、カメラMPU140およびASIC135により直接的または間接的に制御される。カメラ10の動作に必要な定数、変数等のパラメータ、プログラム等は、システムメモリ139に格納される。システムメモリ139は、電気的に消去・記憶可能な不揮発性メモリであり、例えばフラッシュROM、EEPROM等により構成される。システムメモリ139は、パラメータ、プログラム等を、カメラ10の非動作時にも失われないように格納する。システムメモリ139に記憶されたパラメータ、プログラム等は、RAM136に展開され、カメラ10の制御に利用される。カメラ本体130内の、ASIC135、RAM136、システムメモリ139、表示制御部137、カメラMPU140、第1回転検出部42、および、第2回転検出部44は、バス等の接続インタフェース149により相互に接続され、各種のデータをやりとりする。   The camera 10 is directly or indirectly controlled by the camera MPU 140 and the ASIC 135, including the control described above. Parameters such as constants and variables necessary for the operation of the camera 10 and programs are stored in the system memory 139. The system memory 139 is a non-volatile memory that can be electrically erased and stored, and is composed of, for example, a flash ROM, an EEPROM or the like. The system memory 139 stores parameters, programs and the like so as not to be lost even when the camera 10 is not operating. The parameters, programs, etc. stored in the system memory 139 are expanded in the RAM 136 and used for controlling the camera 10. The ASIC 135, the RAM 136, the system memory 139, the display control unit 137, the camera MPU 140, the first rotation detection unit 42, and the second rotation detection unit 44 in the camera body 130 are mutually connected by a connection interface 149 such as a bus. , Exchange various data.

カメラ本体130の各部、パネル50の各部、レンズユニット120の各部および外部メモリ180は、カメラMPU140の制御により、電源回路192を介して電源190から電力供給を受ける。電源190は、ニッケル水素電池、リチウムイオン電池等の二次電池、乾電池等の非充電式の一次電池等であってよい。電池としての電源190は、カメラ本体130に対して着脱可能に装着される。電源190は、商用電源であってもよい。   Each part of the camera body 130, each part of the panel 50, each part of the lens unit 120, and the external memory 180 are supplied with power from the power supply 190 via the power supply circuit 192 under the control of the camera MPU 140. The power supply 190 may be a nickel-hydrogen battery, a secondary battery such as a lithium-ion battery, or a non-rechargeable primary battery such as a dry battery. The power source 190 as a battery is detachably attached to the camera body 130. The power source 190 may be a commercial power source.

図4は、パネル50がカメラ本体130に対して更に変位した状態のカメラ10の外観の一例を示す。図3は、図2に示すようにパネル50がA軸周りに180°回転された状態から、パネル50を回転軸Bの周りに回転させた状態を示す。一例として、パネル50をB軸の周りに45°回転させた状態を示す。図4の状態からパネル50をB軸の周りに−45°回転させることで、パネル50とカメラ本体130との位置関係は図2に示す位置関係に戻る。本実施形態では、図2に示した状態から図4に示した状態へパネル50をB軸まわりに回転させる場合の回転方向を、B軸周りの回転の正方向として扱う。また、図2に示した状態のB軸周りの回転角を0°として扱う。   FIG. 4 shows an example of the external appearance of the camera 10 in a state where the panel 50 is further displaced with respect to the camera body 130. FIG. 3 shows a state in which the panel 50 is rotated around the rotation axis B from the state in which the panel 50 is rotated about the A axis by 180 ° as shown in FIG. As an example, a state in which the panel 50 is rotated by 45 ° around the B axis is shown. By rotating the panel 50 about the B axis by −45 ° from the state of FIG. 4, the positional relationship between the panel 50 and the camera body 130 returns to the positional relationship shown in FIG. 2. In the present embodiment, the rotation direction when the panel 50 is rotated around the B axis from the state shown in FIG. 2 to the state shown in FIG. 4 is treated as the positive direction of rotation around the B axis. Further, the rotation angle around the B axis in the state shown in FIG. 2 is treated as 0 °.

連結部40は、パネル50を2軸のまわりに独立して回転させる2軸回転ヒンジを有する。したがって、パネル50は、カメラ本体130の位置を固定した状態で、2軸のまわりにそれぞれ独立して回転することができる。一例として、連結部40は、A軸周りの回転角は0°から180°の範囲で回転可能であり、B軸周りの回転角は−180°から180°の範囲で回転可能である。このように、カメラ10は、いわゆるバリアングルの表示・操作部材であるパネル50を有する。このため、ユーザは、様々な体勢でカメラ10を操作することができる。   The connecting portion 40 has a biaxial rotation hinge that rotates the panel 50 independently about two axes. Therefore, the panel 50 can rotate independently about the two axes with the position of the camera body 130 fixed. As an example, the connecting portion 40 can rotate in the range of 0 ° to 180 ° around the A axis, and can rotate in the range of −180 ° to 180 ° around the B axis. As described above, the camera 10 has the panel 50 which is a so-called variable angle display / operation member. Therefore, the user can operate the camera 10 in various postures.

カメラMPU140は、オブジェクト71の表示部位が操作された場合に、オブジェクト72の表示部位が操作された場合に適用した閾値より大きい閾値を適用する。このように、カメラMPU140は、B軸周りに回転し易い状況にある場合に、B軸周りに回転しにくい状況にある場合より大きい閾値を決定する。これにより、比較的に大きい回転が生じた場合でも、表示面60から入力された操作を受け付ける。   When the display part of the object 71 is operated, the camera MPU 140 applies a threshold value larger than the threshold value applied when the display part of the object 72 is operated. In this way, the camera MPU 140 determines a threshold value that is larger when the camera MPU 140 is likely to rotate around the B-axis and is more difficult to rotate around the B-axis. As a result, even if a relatively large rotation occurs, the operation input from the display surface 60 is accepted.

なお、カメラ本体130にはレリーズボタン12が設けられる。カメラ10は、レリーズボタン12の押し込みを検出した場合に、焦点位置を調節する動作または撮影動作を行う。カメラ10は、これらの操作部材や、パネル50のタッチパネル機能を通じて、ユーザから様々な指示を受け付けることができる。   The camera body 130 is provided with the release button 12. When the camera 10 detects that the release button 12 has been pressed, the camera 10 performs the operation of adjusting the focus position or the shooting operation. The camera 10 can receive various instructions from the user through these operation members and the touch panel function of the panel 50.

図5は、パネル50がカメラ本体130に対して更に変位した状態のカメラ10の外観の一例を示す。図5は、図4に示すようにパネルがB軸周りに45°回転された状態から、パネル50をB軸周りにさらに135°回転させた状態を示す。図5に示されるように、表示面60を、図2に示す状態での表示面60の向きとは反対向きに向けることができる。なお、図2に示すようにB軸周りの回転角が0°の場合から、パネル50をB軸周りに−180°回転させることによっても、図5に示す状態にすることができる。   FIG. 5 shows an example of an external appearance of the camera 10 in a state where the panel 50 is further displaced with respect to the camera body 130. FIG. 5 shows a state in which the panel 50 is further rotated about the B axis by 135 ° from the state in which the panel is rotated about the B axis by 45 ° as shown in FIG. As shown in FIG. 5, the display surface 60 can be oriented in a direction opposite to the orientation of the display surface 60 in the state shown in FIG. Note that the state shown in FIG. 5 can also be obtained by rotating the panel 50 by −180 ° around the B axis from the case where the rotation angle around the B axis is 0 ° as shown in FIG.

なお、連結部40は、B軸周りの回転を制限する回転制限機構を有する。例えば、図3に示すようにパネル50のB軸周りの回転角が0°である場合や、図5に示すようにパネル50のB軸周りの回転角が180°または−180°である場合は、B軸周りの回転が制限されている状態にある。これに対し、図4に示すように、B軸周りの回転角が0°、180°および−180°のいずれでもない場合は、パネル50はB軸周りの回転が制限されていない状態にある。例えば、連結部40は、B軸周りの回転が制限された状態にある場合、B軸周りに回転が制限された状態にない場合より、回転しにくい。したがって、カメラMPU140は、B軸周りの角度が180°または−180°である場合より、B軸周りの角度がそれら以外の角度である場合に、大きい閾値を適用する。   The connecting portion 40 has a rotation limiting mechanism that limits rotation around the B axis. For example, when the rotation angle around the B axis of the panel 50 is 0 ° as shown in FIG. 3, or when the rotation angle around the B axis of the panel 50 is 180 ° or −180 ° as shown in FIG. Is in a state where the rotation around the B axis is restricted. On the other hand, as shown in FIG. 4, when the rotation angle around the B axis is neither 0 °, 180 ° nor −180 °, the panel 50 is in a state where the rotation around the B axis is not restricted. . For example, when the rotation around the B axis is restricted, the connecting portion 40 is less likely to rotate than when the rotation around the B axis is not restricted. Therefore, the camera MPU 140 applies a larger threshold when the angle around the B axis is another angle than when the angle around the B axis is 180 ° or −180 °.

なお、カメラMPU140は、B軸周りの回転角が180°である場合と、B軸周りの角度が−180°である場合とで、表示面60における同じ部位が操作された場合に適用する閾値を異ならせる。具体的には、B軸周りの角度が180°である場合は、パネル50を正方向に更に回転させることはできない。一方、B軸周りの角度が−180°である場合は、パネル50を正方向に回転させることができる。そのため、カメラMPU140は、B軸周りの角度が−180°である場合には、B軸周りの角度が180°である場合より、正方向の回転方向についての閾値を大きくする。   It should be noted that the camera MPU 140 applies a threshold value when the same portion on the display surface 60 is operated, when the rotation angle around the B axis is 180 ° and when the rotation angle around the B axis is −180 °. Be different. Specifically, when the angle around the B axis is 180 °, the panel 50 cannot be further rotated in the positive direction. On the other hand, when the angle around the B axis is −180 °, the panel 50 can be rotated in the positive direction. Therefore, when the angle around the B axis is −180 °, the camera MPU 140 makes the threshold value in the positive rotation direction larger than when the angle around the B axis is 180 °.

逆に、B軸周りの角度が180°である場合は、パネル50を負方向に回転させることはできる。一方、B軸周りの角度が−180°である場合は、パネル50を負方向に更に回転させることができる。そのため、カメラMPU140は、B軸周りの角度が180°である場合には、B軸周りの角度が−180°である場合より、負方向の回転方向についての閾値を大きくする。   On the contrary, when the angle around the B axis is 180 °, the panel 50 can be rotated in the negative direction. On the other hand, when the angle around the B axis is −180 °, the panel 50 can be further rotated in the negative direction. Therefore, when the angle around the B axis is 180 °, the camera MPU 140 increases the threshold value in the negative rotation direction more than when the angle around the B axis is −180 °.

このように、連結部40によって、パネル50がカメラ本体130に対して第1の位置にある場合に、パネル50がカメラ本体130に対して第2の位置にある場合よりカメラ本体130に対する回転を強く制限される。カメラMPU140は、操作部位が操作されたときにパネル50がカメラ本体130に対して第2の位置にある場合の閾値を、パネル50が操作されたときにパネル50がカメラ本体130に対して第1の位置にある場合より大きくする。このため、A軸およびB軸まわりの回転制限機構による回転のしにくさを考慮して、適切な閾値を選択することができる。   As described above, the connecting portion 40 allows the panel 50 to rotate relative to the camera body 130 when the panel 50 is in the first position with respect to the camera body 130, compared to when the panel 50 is in the second position with respect to the camera body 130. Strongly restricted. The camera MPU 140 sets the threshold when the panel 50 is in the second position with respect to the camera body 130 when the operation part is operated, and sets the threshold when the panel 50 is operated with respect to the camera body 130. Make it larger than when it is in position 1. Therefore, an appropriate threshold value can be selected in consideration of the difficulty of rotation by the rotation limiting mechanism around the A axis and the B axis.

図6は、パネル50がカメラ本体130に対して更に変位した状態のカメラ10の外観の一例を示す。図6は、表示面60を外側にしてパネル50が収容部30に収容された状態を示す。具体的には、図6は、図5に示すようにA軸周りの回転角が180°であり、B軸周りの回転角が180°または−180°である状態から、パネル50をA軸周りに−180°回転させた状態を示す。   FIG. 6 shows an example of the external appearance of the camera 10 in a state where the panel 50 is further displaced with respect to the camera body 130. FIG. 6 shows a state in which the panel 50 is housed in the housing unit 30 with the display surface 60 facing outward. Specifically, in FIG. 6, as shown in FIG. 5, the panel 50 is moved from the A-axis to the A-axis when the rotation angle about the A-axis is 180 ° and the rotation angle about the B-axis is 180 ° or −180 °. It shows a state of being rotated by -180 ° around it.

パネル50が収容部30に収容されている場合、表示面60に対する操作によってパネル50は容易には回転しない。そのため、カメラMPU140は、パネル50が収容部30に収容されている場合、比較的に小さい閾値を適用する。カメラMPU140は、パネル50が収容部30に収容されていない場合に適用する閾値より小さい閾値を適用してよい。   When the panel 50 is housed in the housing unit 30, the panel 50 does not easily rotate due to the operation on the display surface 60. Therefore, the camera MPU 140 applies a relatively small threshold when the panel 50 is housed in the housing unit 30. The camera MPU 140 may apply a threshold smaller than the threshold applied when the panel 50 is not housed in the housing unit 30.

図7は、操作部位が属するエリア毎に適用される閾値の変化を説明するための模式図である。カメラMPU140は、操作部位が属する表示面60のエリア毎に、異なる閾値を適用する。   FIG. 7 is a schematic diagram for explaining a change in the threshold applied to each area to which the operation part belongs. The camera MPU 140 applies different thresholds to each area of the display surface 60 to which the operation part belongs.

例えば、A軸周りの回転について考えると、エリア3、エリア6およびエリア9のいずれかのエリア内の操作部位が操作された場合より、エリア1、エリア4およびエリア7のいずれかのエリア内の操作部位が操作された場合の方が、パネル50は小さい力で回転する。カメラMPU140は、ユーザが操作した操作部位がエリア1、エリア4およびエリア7のいずれかのエリア内にある場合に適用する閾値を、ユーザが操作した操作部位がエリア3、エリア6およびエリア9のいずれかのエリア内にある場合に適用する閾値より大きくする。   For example, when considering the rotation around the A-axis, it is possible to determine whether the area 1, the area 4, or the area 7 is located more than the area 3, the area 6 or the area 9 is operated. The panel 50 rotates with a smaller force when the operation part is operated. The camera MPU 140 sets the threshold value applied when the operation part operated by the user is in any one of the areas 1, 4, and 7 as the operation part operated by the user in the areas 3, 6, and 9. It is set to be larger than the threshold applied when it is in any area.

同様に、エリア3、エリア6およびエリア9のいずれかのエリア内の操作部位が操作された場合より、エリア2、エリア5およびエリア8のいずれかのエリア内の操作部位が操作された場合の方が、パネル50は小さい力で回転する。カメラMPU140は、ユーザが操作した操作部位がエリア2、エリア5およびエリア8のいずれかのエリア内にある場合に適用する閾値を、ユーザが操作した操作部位がエリア3、エリア6およびエリア9のいずれかのエリア内にある場合に適用する閾値より大きくする。   Similarly, in the case where an operation part in any one of the areas 2, 5, and 8 is operated, as compared with the case where the operation part in any one of the areas 3, 6, and 9 is operated. However, the panel 50 rotates with a small force. The camera MPU 140 sets the threshold value to be applied when the operation part operated by the user is in any one of the areas 2, 5, and 8 as the operation part operated by the user in the areas 3, 6, and 9. It is set to be larger than the threshold applied when it is in any area.

同様に、エリア2、エリア5およびエリア8のいずれかのエリア内の操作部位が操作された場合より、エリア1、エリア4およびエリア7のいずれかのエリア内の操作部位が操作された場合の方が、パネル50は小さい力で回転する。カメラMPU140は、ユーザが操作した操作部位がエリア1、エリア4およびエリア7のいずれかのエリア内にある場合に適用する閾値を、ユーザが操作した操作部位がエリア2、エリアおよびエリア8のいずれかのエリア内にある場合に適用する閾値より大きくする。   Similarly, a case where an operation part in any one of the areas 1, 4, and 7 is operated rather than a case where the operation part in any one of the areas 2, 5, and 8 is operated However, the panel 50 rotates with a small force. The camera MPU 140 sets the threshold value to be applied when the operation part operated by the user is in any one of the areas 1, 4, and 7 as the operation part operated by the user is either area 2, area 8 or area 8. It is set to be larger than the threshold applied when the area is within the area.

このように、カメラMPU140が、検出されたパネル50の回転量と、パネル50からの入力を受け付けるか否かを判断するためのパネル50の回転量の閾値とに基づいて、パネル50からの入力を受け付けるか否かを判断する。このとき、カメラMPU140は、パネル50が有する第1部位が操作される場合の閾値と、パネル50が有する第2部位が操作される場合の閾値とを異ならせる。   In this way, the camera MPU 140 inputs from the panel 50 based on the detected rotation amount of the panel 50 and the threshold value of the rotation amount of the panel 50 for determining whether to accept the input from the panel 50. It is determined whether or not to accept. At this time, the camera MPU 140 sets the threshold when the first part of the panel 50 is operated to be different from the threshold when the second part of the panel 50 is operated.

次に、B軸周りの正方向の回転について考えると、パネル50は、エリア4、エリア5およびエリア6のいずれかのエリア内の操作部位が操作された場合より、エリア1、エリア2およびエリア3のいずれかのエリア内の操作部位が操作された場合の方が、小さい力で回転する。カメラMPU140は、ユーザが操作した操作部位がエリア1、エリア2およびエリア3のいずれかのエリア内にある場合に適用する閾値を、ユーザが操作した操作部位がエリア4、エリア5およびエリア6のいずれかのエリア内にある場合の閾値より大きくする。   Next, considering the rotation in the positive direction around the B-axis, the panel 50 has the area 1, the area 2, and the area 2 as compared with the case where the operation part in any one of the area 4, the area 5 and the area 6 is operated. When an operation part in any of the areas 3 is operated, the operation part rotates with a smaller force. The camera MPU 140 sets the threshold value to be applied when the operation part operated by the user is in any one of the areas 1, 2, and 3 as the operation part operated by the user in areas 4, 5, and 6. It should be larger than the threshold value when it is in any area.

B軸周りの負方向の回転について考えると、パネル50は、エリア4、エリア5およびエリア6のいずれかのエリア内の操作部位が操作された場合より、エリア7、エリア8およびエリア9のいずれかのエリア内の操作部位が操作された場合の方が、小さい力で回転する。カメラMPU140は、ユーザが操作した操作部位がエリア7、エリア8およびエリア9のいずれかのエリア内にある場合に適用する閾値を、ユーザが操作した操作部位がエリア4、エリア5およびエリア6のいずれかのエリア内にある場合の閾値より大きくする。   Considering the rotation in the negative direction around the B-axis, the panel 50 can be operated in any one of the areas 7, 8 and 9 as compared with the case where the operation part in any one of the areas 4, 5, and 6 is operated. When the operation part in that area is operated, it rotates with a smaller force. The camera MPU 140 sets the threshold value to be applied when the operation part operated by the user is in any one of the areas 7, 8 and 9 as the operation part operated by the user in areas 4, 5, and 6. It should be larger than the threshold value when it is in any area.

なお、エリア7、エリア8およびエリア9のいずれかのエリア内の操作部位が操作された場合、パネル50はB軸周りの正方向には回転する可能性は小さい。そこで、カメラMPU140は、エリア7、エリア8およびエリア9のいずれかのエリア内の操作部位が操作された場合、パネル50のB軸周りの正方向の回転の閾値を、他のエリア内の操作部位が操作された場合に適用するいずれの閾値より低く決定する。また、エリア1、エリア2およびエリア3のいずれかのエリア内の操作部位が操作された場合、パネル50はB軸周りの負方向に回転する可能性は小さい。そこで、カメラMPU140は、エリア1、エリア2およびエリア3のいずれかのエリア内の操作部位が操作された場合、パネル50のB軸周りの負方向の回転の閾値を、他のエリア内の操作部位が操作された場合に適用するいずれの閾値より低く決定する。   It should be noted that when an operation part in any one of the areas 7, 8, and 9 is operated, the panel 50 is unlikely to rotate in the positive direction around the B axis. Therefore, when the operation part in any one of the areas 7, 8, and 9 is operated, the camera MPU 140 sets the threshold value of the positive rotation of the panel 50 around the B axis in the operation in the other areas. It is determined to be lower than any threshold applied when the part is manipulated. Further, when the operation part in any one of the areas 1, 2, and 3 is operated, the panel 50 is unlikely to rotate in the negative direction around the B axis. Therefore, when the operation part in any one of the areas 1, 2, and 3 is operated, the camera MPU 140 sets the threshold value of the rotation of the panel 50 around the B axis in the negative direction to the operation in another area. It is determined to be lower than any threshold applied when the part is manipulated.

このように、パネル50は、カメラ本体130に対して回転軸の周りに回転可能に設けられている。カメラMPU140は、パネル50の回転量の閾値として、回転軸まわりのパネル50の回転量の閾値を決定する。具体的には、カメラMPU140は、パネル50において回転軸から離れた第1部位が操作された場合に、当該第1部位より回転軸に近い第2部位が操作された場合と比較して、より大きい閾値を決定する。そして、カメラMPU140は、検出された回転軸まわりのパネル50の回転量が、決定した閾値を超えない場合に、パネル50からの入力を受け付ける旨を判断する。より具体的には、カメラMPU140は、パネル50において回転軸から離れた第1部位が操作された場合に、ユーザによって当該第1部位が操作された場合にパネル50が回転する第1回転方向への回転の閾値として第1閾値を決定し、回転軸に対して当該第1部位とは反対側の第2部位が操作された場合に、第1回転方向への回転の閾値として第1閾値より小さい第2閾値を決定する。このため、ユーザが表示面60を操作した場合と、誤操作によって表示面60に触れてしまった場合とを適切に判断することができる。   In this way, the panel 50 is provided rotatably around the rotation axis with respect to the camera body 130. The camera MPU 140 determines the threshold value of the rotation amount of the panel 50 around the rotation axis as the threshold value of the rotation amount of the panel 50. Specifically, the camera MPU 140 is more effective when a first part of the panel 50 that is away from the rotation axis is operated than when a second part that is closer to the rotation axis than the first part is operated. Determine a large threshold. Then, the camera MPU 140 determines to accept the input from the panel 50 when the detected rotation amount of the panel 50 around the rotation axis does not exceed the determined threshold value. More specifically, the camera MPU 140 moves in a first rotation direction in which the panel 50 rotates when the user operates the first portion of the panel 50 that is away from the rotation axis. The first threshold is determined as the rotation threshold of the rotation axis, and when the second portion on the opposite side of the rotation axis with respect to the rotation axis is operated, the rotation threshold in the first rotation direction is greater than the first threshold. A small second threshold is determined. Therefore, it is possible to appropriately determine whether the user operates the display surface 60 or touches the display surface 60 by an erroneous operation.

図8は、パネル50の位置に応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。カメラMPU140は、パネル50とカメラ本体130との間の位置関係を示す情報に対応づけて、パネル50の変位しにくさを示すスコアを記憶する。後述するように、カメラMPU140は、スコアが低いほど、大きい閾値を適用する。図8に例示したスコアは、A軸周りの回転に対するスコアとしても、B軸周りの回転に対するスコアとしても適用できる。   FIG. 8 shows an example of information stored in order to apply a threshold value according to the position of the panel 50 in a table format. The camera MPU 140 stores a score indicating the degree of difficulty of displacement of the panel 50 in association with the information indicating the positional relationship between the panel 50 and the camera body 130. As will be described later, the camera MPU 140 applies a larger threshold as the score becomes lower. The score illustrated in FIG. 8 can be applied as a score for rotation around the A axis and a score for rotation around the B axis.

カメラMPU140は、位置関係を示す情報として、パネル50が収容部30に収容された収容位置にあることを示す情報、A軸またはB軸に対して回転制限された回転制限位置にあることを示す情報、および、その他の位置にあることを示す情報に対応づけて、スコアを記憶する。具体的には、カメラMPU140は、パネル50が収容位置にあることを示す情報、回転制限位置にあることを示す情報、その他の位置にあることを示す情報の順に、大きいスコアを対応づけて記憶する。   The camera MPU 140 indicates, as the information indicating the positional relationship, information indicating that the panel 50 is in the accommodation position accommodated in the accommodation unit 30, and indicates that the panel 50 is in the rotation restriction position rotation-restricted with respect to the A axis or the B axis. The score is stored in association with the information and the information indicating that it is located at another position. Specifically, the camera MPU 140 stores a large score in association with information indicating that the panel 50 is in the storage position, information indicating that the panel 50 is in the rotation limit position, and information indicating that the panel 50 is in another position. To do.

図9は、操作部位に応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。カメラMPU140は、接触部位を示す情報に対応づけて、パネル50の変位しにくさを示すスコアを記憶する。後述するように、カメラMPU140は、スコアが低いほど、大きい閾値を適用する。図9は、A軸周りの回転に対するスコアを示す。   FIG. 9 shows an example of information stored in order to apply the threshold value according to the operation site in a table format. The camera MPU 140 stores the score indicating the degree of difficulty of displacement of the panel 50 in association with the information indicating the contact portion. As will be described later, the camera MPU 140 applies a larger threshold as the score becomes lower. FIG. 9 shows the score for rotation about the A axis.

カメラMPU140は、操作部位を示す情報として、接触位置がエリア3、エリア6およびエリア9を含む第1エリア内にあることを示す情報、接触位置がエリア2、エリア5およびエリア8を含む第2エリア内にあることを示す情報、ならびに、接触位置がエリア1、エリア4およびエリア7を含む第3エリア内にあることを示す情報に対応づけて、スコアを記憶する。具体的には、カメラMPU140は、接触位置が第1エリアにあることを示す情報、接触位置が第2エリアにあることを示す情報、接触位置が第3エリアにあることを示す情報の順に、大きいスコアを対応づけて記憶する。   The camera MPU 140 has, as the information indicating the operation part, information indicating that the contact position is within the first area including the area 3, the area 6 and the area 9, and the second contact position including the area 2, the area 5 and the area 8. The score is stored in association with the information indicating that it is within the area and the information indicating that the contact position is within the third area including area 1, area 4, and area 7. Specifically, the camera MPU 140, in the order of information indicating that the contact position is in the first area, information indicating that the contact position is in the second area, and information indicating that the contact position is in the third area, Correspond and store a large score.

図10は、操作部位に応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。カメラMPU140は、接触位置を示す情報に対応づけて、パネル50の変位しにくさを示すスコアを記憶する。後述するように、カメラMPU140は、スコアが低いほど、大きい閾値を適用する。図10は、B軸周りの回転に対するスコアを示す。   FIG. 10 shows an example of information stored in order to apply a threshold value according to the operation site, in a table format. The camera MPU 140 stores the score indicating the degree of difficulty of displacement of the panel 50 in association with the information indicating the contact position. As will be described later, the camera MPU 140 applies a larger threshold as the score becomes lower. FIG. 10 shows the score for rotation around the B axis.

カメラMPU140は、操作部位を示す情報として、接触位置がエリア1、エリア2およびエリア3を含む第4エリア内にあることを示す情報、接触位置がエリア4、エリア5およびエリア6を含む第5エリア内にあることを示す情報、ならびに、接触位置がエリア7、エリア8およびエリア9を含む第6エリア内にあることを示す情報に対応づけて、スコアを記憶する。具体的には、カメラMPU140は、接触位置が第4エリアにあることを示す情報に対応づけて、接触位置が第5エリアにあることを示す情報に対応づけて記憶されているスコア値より小さい値を記憶する。また、カメラMPU140は、接触位置が第6エリアにあることを示す情報に対応づけて、接触位置が第2エリアにあることを示す情報に対応づけてスコア値より小さい値を記憶する。   The camera MPU 140 has information indicating that the contact position is within the fourth area including the area 1, area 2, and area 3 as the information indicating the operation portion, and the contact position is the area 5 including the area 4, area 5, and area 5. The score is stored in association with the information indicating that the contact position is within the area and the information indicating that the contact position is within the sixth area including the area 7, the area 8, and the area 9. Specifically, the camera MPU 140 is smaller than the score value stored in association with the information indicating that the contact position is in the fourth area and in association with the information indicating that the contact position is in the fifth area. Remember the value. Further, the camera MPU 140 stores a value smaller than the score value in association with the information indicating that the contact position is in the sixth area and in association with the information indicating that the contact position is in the second area.

なお、図10に例示したスコアは、パネル50を操作することによってパネル50が回転する回転方向についてのスコアを示す。エリア1、エリア2およびエリア3を含む第4エリアに対応づけて記憶されるスコアは、B軸周りの正方向の回転方向についてのスコアを示す。また、エリア7、エリア8およびエリア9を含む第6エリアに対応づけて記憶されるスコアは、B軸周りの負方向の回転方向についてのスコアを示す。   The score illustrated in FIG. 10 indicates the score in the rotation direction in which the panel 50 is rotated by operating the panel 50. The score stored in association with the fourth area including area 1, area 2, and area 3 indicates the score in the positive rotation direction around the B axis. Further, the score stored in association with the sixth area including area 7, area 8 and area 9 indicates the score in the negative rotation direction around the B axis.

図11は、操作内容に応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。カメラMPU140は、操作内容を示す情報に対応づけて、パネル50の変位しにくさを示すスコアを記憶する。後述するように、カメラMPU140は、スコアが小さいほど、大きい閾値を適用する。図11に例示したスコアは、A軸周りの回転に対するスコアとしても、B軸周りの回転に対するスコアとしても適用できる。   FIG. 11 shows an example of information stored in order to apply a threshold value according to the operation content in a table format. The camera MPU 140 stores a score indicating how hard the panel 50 is to be displaced in association with the information indicating the operation content. As will be described later, the camera MPU 140 applies a larger threshold as the score becomes smaller. The score illustrated in FIG. 11 can be applied as a score for rotation around the A axis and a score for rotation around the B axis.

カメラMPU140は、操作内容を示す情報として、操作内容がシングルタッチ操作であることを示す情報、操作内容がスライド操作であることを示す情報、操作内容がマルチタッチ操作であることを示す情報、および、操作内容が長押し操作であることを示す情報に対応づけて、スコアを記憶する。具体的には、カメラMPU140は、ユーザ操作がシングルタッチ操作であることを示す情報に対応づけて、ユーザ操作がスライド操作であることを示す情報、ユーザ操作がマルチタッチ操作にあることを示す情報およびユーザ操作が長押し操作であることを示す情報のいずれの情報に対応づけて記憶されているスコアより、大きいスコアを記憶する。   The camera MPU 140, as the information indicating the operation content, information indicating that the operation content is a single touch operation, information indicating that the operation content is a slide operation, information indicating that the operation content is a multi-touch operation, and , The score is stored in association with the information indicating that the operation content is a long-press operation. Specifically, the camera MPU 140 associates information indicating that the user operation is a single-touch operation, information indicating that the user operation is a slide operation, and information indicating that the user operation is a multi-touch operation. And, a score larger than the score stored in association with any of the information indicating that the user operation is a long-press operation is stored.

一例として、ユーザ操作がスライド操作であることを示す情報およびユーザ操作がマルチタッチ操作にあることを示す情報に対応づけて記憶されているスコアは、同じであってよい。また、ユーザ操作がスライド操作であることを示す情報およびユーザ操作がマルチタッチ操作にあることを示す情報に対応づけて記憶されているスコアは、ユーザ操作が長押し操作にあることを示す情報に対応づけて記憶されているスコアより大きくてよい。   As an example, the score stored in association with the information indicating that the user operation is a slide operation and the information indicating that the user operation is a multi-touch operation may be the same. The score stored in association with the information indicating that the user operation is a slide operation and the information indicating that the user operation is a multi-touch operation is the information indicating that the user operation is a long-press operation. It may be larger than the score stored in association.

なお、図11に示すスコアは、スコアの一例である。スライド操作であることを示す情報に対応づけて記憶されるスコアは、マルチタッチ操作であることを示す情報に対応づけて記憶されるスコアより大きくてもよく、小さくてもよい。パネル50が変位し易いか否かに応じてスコア値やスコアの大小関係が設定されてよい。   The score shown in FIG. 11 is an example of the score. The score stored in association with the information indicating the slide operation may be larger or smaller than the score stored in association with the information indicating the multi-touch operation. A score value or a magnitude relation of scores may be set depending on whether or not the panel 50 is easily displaced.

例えば、スライド操作をする場合とシングルタップ操作をする場合とを比較すると、スライド操作をする場合の方が、パネル50が回転し易い。そのため、スライド操作等のようにパネル50が回転し易い操作内容に対して大きい閾値を適用することで、誤操作と判断される可能性を低減することができる。なお、シングルタッチ操作とは、タップ操作を含む。マルチタッチ操作とは、ダブルタップ操作等、予め定められた時間内に複数回のタップ操作を続けて行う操作を含む。スライド操作とは、ドラッグ操作、フリック操作、ピンチ操作を含む。長押し操作は、予め定められた時間以上にわたって押し続けるホールド操作を含む。   For example, comparing the case of performing the slide operation and the case of performing the single tap operation, the panel 50 is more easily rotated when the slide operation is performed. Therefore, by applying a large threshold value to an operation content such as a slide operation in which the panel 50 easily rotates, it is possible to reduce the possibility that the operation is determined to be an erroneous operation. The single touch operation includes a tap operation. The multi-touch operation includes an operation such as a double tap operation in which a plurality of tap operations are continuously performed within a predetermined time. The slide operation includes a drag operation, a flick operation, and a pinch operation. The long-pressing operation includes a holding operation in which the pressing operation is continued for a predetermined time or longer.

図12は、合計スコアに応じた閾値を適用するために記憶する情報の一例を、テーブル形式で示す。カメラMPU140は、合計スコアを示す情報に対応づけて、閾値を記憶する。カメラMPU140は、より大きい合計スコアに対応づけて、より大きい閾値を記憶する。より具体的には、カメラMPU140は、合計スコアが0であることを示す情報、合計スコアが5〜20であることを示す情報、合計スコアが0であることを示す情報、合計スコアが25〜30であることを示す情報に対応づけて、回転量の閾値としてそれぞれ10°、5°および1°を記憶する。   FIG. 12 shows an example of information stored in order to apply the threshold value according to the total score in a table format. The camera MPU 140 stores the threshold value in association with the information indicating the total score. The camera MPU 140 stores a larger threshold value in association with a larger total score. More specifically, the camera MPU 140 has information indicating that the total score is 0, information indicating that the total score is 5 to 20, information indicating that the total score is 0, and a total score of 25 to The rotation amount thresholds of 10 °, 5 °, and 1 ° are stored in association with the information indicating that the rotation amount is 30.

カメラMPU140は、パネル50の位置、操作部位が属するエリアおよび操作内容のそれぞれについて、スコアの合計値を算出する。このとき、カメラMPU140は、軸A周りの回転方向およびB軸周りの回転方向のそれぞれについて、スコアの合計値を算出する。カメラMPU140は、算出したスコアの合計値に適合する合計スコアを示す情報に対応づけて記憶している閾値を、操作部位からの入力を受け付けるか否かを判断するための閾値として適用する。   The camera MPU 140 calculates the total score value for each of the position of the panel 50, the area to which the operation part belongs, and the operation content. At this time, the camera MPU 140 calculates the total score value for each of the rotation direction around the axis A and the rotation direction around the B axis. The camera MPU 140 applies the threshold value stored in association with the information indicating the total score that matches the calculated total score value, as the threshold value for determining whether to accept an input from the operation site.

このように、表示面60からの入力を受け付けるか否かを判断する場合に、パネル50が操作される場合にパネル50が回転する第1方向にパネル50が回転したことが検出された場合の閾値と、第1方向とは反対の第2方向にパネル50が回転したことが検出された場合の閾値とを異ならせることができる。また、操作部位が操作される操作内容が第1の操作内容である場合の閾値と、操作部位が操作される操作内容が第2の操作内容である場合の閾値とを異ならせることができる。例えば、操作内容が特定位置に対するタッチ操作である場合と、操作内容がスライド操作である場合とで、異なる閾値を適用することができる。また、操作部位が操作されたときにパネル50がカメラ本体130に対して第1の位置にある場合の閾値と、操作部位が操作されたときにパネル50がカメラ本体130に対して第2の位置にある場合の閾値とを異ならせることができる。   As described above, when it is determined whether or not the input from the display surface 60 is received, it is detected that the panel 50 is rotated in the first direction in which the panel 50 is rotated when the panel 50 is operated. The threshold value and the threshold value when it is detected that the panel 50 is rotated in the second direction opposite to the first direction can be different. Further, the threshold when the operation content on which the operation part is operated is the first operation content and the threshold value when the operation content on which the operation part is operated is the second operation content can be made different. For example, different thresholds can be applied when the operation content is a touch operation for a specific position and when the operation content is a slide operation. Further, the threshold value when the panel 50 is in the first position with respect to the camera body 130 when the operation portion is operated, and the threshold when the panel 50 is in the second position with respect to the camera body 130 when the operation portion is operated. It is possible to make the threshold different from the position.

このように、カメラMPU140は、パネル50が回転し易い状況であるか否かを総合的に判断することができる。そして、カメラMPU140は、パネル50の回転し易い状況にあると判断した場合に、大きな閾値を適用して、表示面60からの入力を受け付けるか否かを判断する。そのため、パネル50が回転し易い状況でユーザが行った操作によってパネル50が大きく回転してしまった場合でも、有効な操作として受け付けられる可能性を高めることができる。   In this way, the camera MPU 140 can comprehensively determine whether or not the panel 50 is in a state where it is easy to rotate. Then, when the camera MPU 140 determines that the panel 50 is easily rotated, it applies a large threshold value and determines whether to accept an input from the display surface 60. Therefore, even if the panel 50 is largely rotated by an operation performed by the user in a situation where the panel 50 is easily rotated, the possibility of being accepted as an effective operation can be increased.

図13から図20に関連して、誤操作と判断された場合のユーザインタフェースの変更に関するカメラ10の動作について説明する。図13から図20においては、一例としてライブビューの動作を行っている場合に表示面60に表示される画面を用いて説明する。ライブビューの動作を行っている場合、撮像素子132における順次の撮像動作に応じて順次に生成される画像データに基づいて、順次に被写体像が領域1310に表示される。   The operation of the camera 10 regarding the change of the user interface when it is determined to be an erroneous operation will be described with reference to FIGS. 13 to 20. 13 to 20, a screen displayed on the display surface 60 when the live view operation is performed will be described as an example. When the live view operation is performed, the subject images are sequentially displayed in the region 1310 based on the image data that is sequentially generated in accordance with the sequential imaging operation of the image sensor 132.

図13は、誤操作があった場合のオブジェクトの表示位置の変更例を模式的に示す。画面1300において、オブジェクト70、オブジェクト71、オブジェクト72、オブジェクト73はおよびオブジェクト74は、被写体像が表示される領域1310に重畳して表示される。被写体像は、一例として表示面60の全領域に表示される。   FIG. 13 schematically shows an example of changing the display position of an object when an erroneous operation is performed. On the screen 1300, the object 70, the object 71, the object 72, the object 73, and the object 74 are displayed so as to be superimposed on the area 1310 in which the subject image is displayed. The subject image is displayed on the entire area of the display surface 60 as an example.

カメラMPU140は、表示面60内におけるオブジェクト71の表示位置を含む領域1320が操作された場合において、当該操作が誤操作と判断すると、オブジェクト71に対応する指示を受け付けるオブジェクトの表示位置を変更する。これにより、オブジェクト71に対応する指示を受け付ける位置が変更される。   When the area 1320 including the display position of the object 71 on the display surface 60 is operated, the camera MPU 140 changes the display position of the object that accepts the instruction corresponding to the object 71 if the operation is determined to be an erroneous operation. As a result, the position for receiving the instruction corresponding to the object 71 is changed.

画面1350は、オブジェクト71の表示位置が変更された画面の一例を示す。カメラMPU140は、オブジェクト1371の表示位置に対するユーザ操作を、画面1300におけるオブジェクト71に対応する指示として受け付ける。カメラMPU140は、領域1320に重ならない位置にオブジェクト1371を表示させる。画面1350の例では、カメラMPU140は、オブジェクト1371の大きさをオブジェクト71より小さくする。一例としてオブジェクト1371の横方向の幅はオブジェクト71より小さく、オブジェクト1371の縦方向の幅はオブジェクト71と同じである。このように、オブジェクト1371の形状とオブジェクト71の形状は異なる。画面1350において表示面60におけるオブジェクト1371の表示位置の重心は、オブジェクト71の表示位置の重心とは異なる。   The screen 1350 shows an example of a screen in which the display position of the object 71 is changed. The camera MPU 140 receives a user operation on the display position of the object 1371 as an instruction corresponding to the object 71 on the screen 1300. The camera MPU 140 displays the object 1371 at a position that does not overlap the area 1320. In the example of the screen 1350, the camera MPU 140 makes the size of the object 1371 smaller than that of the object 71. As an example, the width of the object 1371 in the horizontal direction is smaller than that of the object 71, and the width of the object 1371 in the vertical direction is the same as that of the object 71. Thus, the shape of the object 1371 and the shape of the object 71 are different. The center of gravity of the display position of the object 1371 on the display surface 60 on the screen 1350 is different from the center of gravity of the display position of the object 71.

画面1350におけるオブジェクト1371以外のオブジェクトであるオブジェクト70、オブジェクト72〜オブジェクト74の表示位置は、画面1300と同じである。そのため、他のオブジェクトの表示位置に対するオブジェクト1371の相対的な表示位置は、他のオブジェクトの表示位置に対するオブジェクト71の相対的な表示位置とは異なる。   The display positions of the objects 70 and 72 to 74, which are objects other than the object 1371 on the screen 1350, are the same as those on the screen 1300. Therefore, the relative display position of the object 1371 with respect to the display position of the other object is different from the relative display position of the object 71 with respect to the display position of the other object.

図14は、オブジェクト71の表示位置が変更された画面の他の一例を示す。画面1400において、カメラMPU140は、オブジェクト1471の表示位置に対するユーザ操作を、画面1300におけるオブジェクト71と同一の指示を受け付けるユーザ操作として受け付ける。   FIG. 14 shows another example of the screen in which the display position of the object 71 is changed. On the screen 1400, the camera MPU 140 receives a user operation for the display position of the object 1471 as a user operation for receiving the same instruction as the object 71 on the screen 1300.

画面1400において、オブジェクト1471の大きさおよび形状はオブジェクト71と同じである。オブジェクト1471の表示位置は、オブジェクト71の表示位置から移動させた位置にある。画面1400において表示面60におけるオブジェクト1471の表示位置の重心は、オブジェクト71の表示位置の重心とは異なる。このように、カメラMPU140は、オブジェクト71と同一の指示を受け付けるオブジェクト1471を、領域1320に重ならない位置に表示させる。   On the screen 1400, the size and shape of the object 1471 are the same as the object 71. The display position of the object 1471 is a position moved from the display position of the object 71. The center of gravity of the display position of the object 1471 on the display surface 60 on the screen 1400 is different from the center of gravity of the display position of the object 71. In this way, the camera MPU 140 displays the object 1471 that receives the same instruction as the object 71 at a position that does not overlap the area 1320.

画面1350と同様、画面1400におけるオブジェクト1471以外のオブジェクト70、オブジェクト72〜オブジェクト74の表示位置は、画面1300と同じである。そのため、画面1350と同様、他のオブジェクトの表示位置に対するオブジェクト1471の相対的な表示位置は、他のオブジェクトの表示位置に対するオブジェクト71の相対的な表示位置とは異なる。   Similar to the screen 1350, the display positions of the objects 70 and the objects 72 to 74 other than the object 1471 on the screen 1400 are the same as the screen 1300. Therefore, similar to the screen 1350, the relative display position of the object 1471 to the display position of the other object is different from the relative display position of the object 71 to the display position of the other object.

図15は、オブジェクト71の表示位置が変更された画面の更なる他の一例を示す。画面1500において、カメラMPU140は、オブジェクト1571の表示位置に対するユーザ操作を、画面1300におけるオブジェクト71と同一の指示を受け付けるユーザ操作として受け付ける。   FIG. 15 shows still another example of the screen in which the display position of the object 71 is changed. On the screen 1500, the camera MPU 140 receives a user operation for the display position of the object 1571 as a user operation for receiving the same instruction as the object 71 on the screen 1300.

画面1500において、オブジェクト1571の大きさはオブジェクト71と同じである。オブジェクト1571の表示位置は、オブジェクト71の表示位置から移動させた位置にある。画面1500において表示面60におけるオブジェクト1571の表示位置の重心は、オブジェクト71の表示位置の重心とは異なる。   On the screen 1500, the size of the object 1571 is the same as that of the object 71. The display position of the object 1571 is a position moved from the display position of the object 71. The center of gravity of the display position of the object 1571 on the display surface 60 on the screen 1500 is different from the center of gravity of the display position of the object 71.

図14の例とは異なり、オブジェクト71からオブジェクト1571へのオブジェクトの移動方向は、画面1300におけるオブジェクト71、オブジェクト72およびオブジェクト73が並ぶ方向に一致する。具体的には、オブジェクト1571は、オブジェクト71の表示位置よりオブジェクト72の表示位置に近い位置に表示される。この場合、カメラMPU140は、オブジェクト72に対応するオブジェクトおよびオブジェクト73に対応するオブジェクトの表示位置も移動させる。オブジェクト1572は、オブジェクト72に対応するオブジェクトであり、カメラMPU140は、オブジェクト1572の表示位置に対するユーザ操作を、画面1300においてオブジェクト72と同一の指示を行うユーザ操作として受け付ける。オブジェクト1573は、オブジェクト73に対応するオブジェクトであり、カメラMPU140は、オブジェクト1573の表示位置に対するユーザ操作を、画面1300においてオブジェクト73と同一の指示を行うユーザ操作として受け付ける。   Unlike the example of FIG. 14, the moving direction of the object from the object 71 to the object 1571 coincides with the direction in which the object 71, the object 72, and the object 73 are arranged on the screen 1300. Specifically, the object 1571 is displayed at a position closer to the display position of the object 72 than the display position of the object 71. In this case, the camera MPU 140 also moves the display positions of the object corresponding to the object 72 and the object corresponding to the object 73. The object 1572 is an object corresponding to the object 72, and the camera MPU 140 receives a user operation for the display position of the object 1572 as a user operation for giving the same instruction as the object 72 on the screen 1300. The object 1573 is an object corresponding to the object 73, and the camera MPU 140 receives a user operation for the display position of the object 1573 as a user operation for giving the same instruction as the object 73 on the screen 1300.

オブジェクト1571とオブジェクト1572との間の距離は、オブジェクト71とオブジェクト72との間の距離より小さい。オブジェクト1572とオブジェクト1573との間の距離は、オブジェクト72とオブジェクト73との間の距離より小さい。このように、カメラMPU140は、隣接するオブジェクトの間の表示間隔を短くする。   The distance between the objects 1571 and 1572 is smaller than the distance between the objects 71 and 72. The distance between the object 1572 and the object 1573 is smaller than the distance between the object 72 and the object 73. In this way, the camera MPU 140 shortens the display interval between adjacent objects.

なお、オブジェクト1571は、オブジェクト71の表示位置より、オブジェクト72の表示位置から遠い位置に表示させてもよい。この場合、隣接するオブジェクトの間の表示間隔を長くしてよい。このように、カメラMPU140は、オブジェクトの表示位置を複数のオブジェクトが並ぶ方向に移動させる場合に、隣接するオブジェクトの間の表示間隔を変えて、隣接するオブジェクトの間隔を一致させてよい。   Note that the object 1571 may be displayed at a position farther from the display position of the object 72 than the display position of the object 71. In this case, the display interval between adjacent objects may be lengthened. Thus, when moving the display position of an object in the direction in which a plurality of objects are arranged, the camera MPU 140 may change the display interval between the adjacent objects so that the intervals between the adjacent objects match.

画面1500におけるオブジェクト70の表示位置は、画面1300と同じである。また、画面1500におけるオブジェクト74の表示位置は、画面1300と同じである。そのため、オブジェクト70の表示位置に対するオブジェクト1571の相対的な表示位置は、オブジェクト70の表示位置に対するオブジェクト71の相対的な表示位置とは異なる。また、オブジェクト74の表示位置に対するオブジェクト1571の相対的な表示位置は、オブジェクト74の表示位置に対するオブジェクト71の相対的な表示位置とは異なる。オブジェクト1572およびオブジェクト1573についても同様である。   The display position of the object 70 on the screen 1500 is the same as the screen 1300. The display position of the object 74 on the screen 1500 is the same as that on the screen 1300. Therefore, the display position of the object 1571 relative to the display position of the object 70 is different from the display position of the object 71 relative to the display position of the object 70. Further, the relative display position of the object 1571 with respect to the display position of the object 74 is different from the relative display position of the object 71 with respect to the display position of the object 74. The same applies to the object 1572 and the object 1573.

図16は、誤操作があった場合の操作方法の変更例を模式的に示す。図16および図17では、露出補正の補正量を設定する操作方法を取り上げて、操作方法の変更例を説明する。   FIG. 16 schematically shows a modification example of the operation method when there is an erroneous operation. 16 and 17, a modification example of the operation method will be described by taking up the operation method for setting the correction amount of the exposure correction.

画面1600は、画面1300においてオブジェクト73がタッチされた場合に表示される。画面1600は、露出補正の補正量を設定する露出補正量設定画面である。画面1600において、オブジェクト1610およびオブジェクト1640は、被写体像が表示される領域1310に重畳して表示される。オブジェクト1640は、露出補正量設定画面から元の画面1300に戻る操作を受け付けるオブジェクトである。   The screen 1600 is displayed when the object 73 is touched on the screen 1300. A screen 1600 is an exposure correction amount setting screen for setting a correction amount for exposure correction. On the screen 1600, the object 1610 and the object 1640 are displayed so as to be superimposed on the area 1310 in which the subject image is displayed. The object 1640 is an object that receives an operation for returning from the exposure correction amount setting screen to the original screen 1300.

オブジェクト1610は、露出補正の補正量を指示するユーザ操作を受け付けるオブジェクトである。オブジェクト1610は、スライダーオブジェクトであり、ユーザによるスライド操作を受け付ける。オブジェクト1610は、現在設定されている補正量を示すとともに、スライド操作を受け付ける位置を示すオブジェクト1612を含む。ユーザは、オブジェクト1612の表示位置をタッチしてスライド操作することにより、露出補正の補正量を一段ずつ指定する。   The object 1610 is an object that receives a user operation for instructing a correction amount of exposure correction. The object 1610 is a slider object and receives a slide operation by the user. The object 1610 includes an object 1612 that indicates the correction amount that is currently set and that indicates the position where the slide operation is received. The user touches the display position of the object 1612 and performs a slide operation to specify the correction amount of the exposure correction step by step.

カメラMPU140は、表示面60内におけるオブジェクト1612の表示位置を含む領域1620が操作された場合において、当該操作が誤操作と判断すると、露出補正の補正量を設定する操作の操作方法を変更する。カメラMPU140は、露出補正の補正量を設定するユーザ操作の操作方法を、領域1620の位置とは異なる位置で当該ユーザ操作を受け付ける操作方法に変更する。   When the area 1620 including the display position of the object 1612 on the display surface 60 is operated, the camera MPU 140 determines that the operation is an erroneous operation, and changes the operation method of the operation for setting the correction amount of the exposure correction. The camera MPU 140 changes the operation method of the user operation for setting the correction amount of the exposure correction to an operation method of accepting the user operation at a position different from the position of the area 1620.

画面1650は、操作方法が変更された画面の一例を示す。カメラMPU140は、ユーザ操作の操作方法を、スライド操作を受け付けるオブジェクト1610からタッチ操作を受け付けるオブジェクト1660に変更する。オブジェクト1660は、被写体像が表示される領域1310に重畳して表示される。   The screen 1650 shows an example of a screen whose operation method has been changed. The camera MPU 140 changes the operation method of the user operation from the object 1610 that receives the slide operation to the object 1660 that receives the touch operation. The object 1660 is displayed so as to be superimposed on the area 1310 in which the subject image is displayed.

オブジェクト1660は、オブジェクト1661、オブジェクト1662およびオブジェクト1663を含む。オブジェクト1663は、現在設定されている補正量を示すオブジェクトである。オブジェクト1663の表示位置が操作されても、露出補正の補正量を指示するユーザ操作としては受け付けられない。   The object 1660 includes an object 1661, an object 1662 and an object 1663. The object 1663 is an object indicating the currently set correction amount. Even if the display position of the object 1663 is operated, it is not accepted as a user operation for instructing a correction amount of exposure correction.

カメラMPU140は、オブジェクト1661がタッチ操作された場合に、露出補正の補正量を一段上げる。カメラMPU140は、オブジェクト1662がタッチ操作された場合に、露出補正の補正量を一段下げる。オブジェクト1661およびオブジェクト1662は、領域1620とは異なる位置に表示される。   The camera MPU 140 further raises the correction amount of the exposure correction when the object 1661 is touch-operated. The camera MPU 140 further lowers the correction amount of exposure correction when the object 1662 is touch-operated. The object 1661 and the object 1662 are displayed at positions different from the area 1620.

図17は、誤操作があった場合のオブジェクトの操作方法の他の変更例を模式的に示す。画面1700は、画面1650で説明した操作方法とは異なる操作方法で露出補正の補正量を設定する露出補正量設定画面である。画面1700において、オブジェクト1640およびオブジェクト1710は、被写体像が表示される領域1310に重畳して表示される。   FIG. 17 schematically shows another modification example of the operation method of an object when an erroneous operation is performed. A screen 1700 is an exposure correction amount setting screen for setting a correction amount for exposure correction by an operation method different from the operation method described on the screen 1650. On the screen 1700, the object 1640 and the object 1710 are displayed so as to be superimposed on the area 1310 in which the subject image is displayed.

オブジェクト1710は、タッチ操作によりユーザ操作を受け付ける。オブジェクト1710は、タッチ操作を受け付ける複数のオブジェクト1712a〜オブジェクト1712gを含む。オブジェクト1712a〜1712gは、それぞれ異なる補正量に対応する。カメラMPU140は、オブジェクト1712a〜1712gのいずれかの表示位置がタッチされた場合に、露出補正の補正量を、タッチされたオブジェクト1712に対応する補正量に変更する。オブジェクト1712a〜オブジェクト1712gは、領域1620とは異なる位置に表示される。   The object 1710 receives a user operation by a touch operation. The object 1710 includes a plurality of objects 1712a to 1712g that accept touch operations. The objects 1712a to 1712g correspond to different correction amounts. When the display position of any of the objects 1712a to 1712g is touched, the camera MPU 140 changes the correction amount of the exposure correction to the correction amount corresponding to the touched object 1712. The objects 1712a to 1712g are displayed at positions different from the area 1620.

現在設定されている補正量は、対応するオブジェクト1712を他のオブジェクトとは異なる色で表示することにより示される。画面1700の例では、補正量0に対応するオブジェクト1712dが、他のオブジェクトとは異なる色で表示されている。   The currently set correction amount is indicated by displaying the corresponding object 1712 in a color different from that of other objects. In the example of the screen 1700, the object 1712d corresponding to the correction amount 0 is displayed in a color different from that of other objects.

図18は、自動焦点調節(AF)に係る誤操作の判断方法の一例を説明する図である。ここでは、焦点調節を行うエリアをユーザが指定する場合を取り上げて説明する。例えば、カメラ10は、タッチされた位置をAFエリアに設定して焦点調節を行うタッチAFの機能と、タッチされた位置をAFエリアに設定して焦点調節を行うとともに撮影を行うタッチシャッタの機能とを有する。タッチAFおよびタッチシャッタのいずれの動作を行うかは、ユーザにより設定される。   FIG. 18 is a diagram illustrating an example of a method of determining an erroneous operation related to automatic focus adjustment (AF). Here, a case where the user specifies an area for focus adjustment will be described. For example, the camera 10 has a touch AF function of setting a touched position in an AF area for focus adjustment, and a touch shutter function of setting a touched position in an AF area for focus adjustment and shooting. Have and. Which of the touch AF operation and the touch shutter operation is performed is set by the user.

ここでは、シングルポイントAFでAF動作を行う場合を取り上げて説明する。シングルポイントAFでは、焦点調節を行うエリアが、ユーザにより指定された位置を含むエリアに固定される。画面1800において、ユーザは、特定の位置にたいしてシングルクリックのタッチ操作を行うことにより、AF対象位置を指定する。カメラMPU140は、被写体像が表示される領域1310における、オブジェクト70〜オブジェクト74の表示位置以外の位置に対するタッチ操作を検出した場合に、タッチ操作された位置を含むエリアをAF対象位置として決定する。カメラMPU140は、決定したエリアを示すAF枠1810を、領域1310に重畳して表示させる。   Here, the case where the AF operation is performed by the single point AF will be described as an example. In single-point AF, the area for focus adjustment is fixed to the area including the position designated by the user. On the screen 1800, the user specifies the AF target position by performing a single-click touch operation on the specific position. When the camera MPU 140 detects a touch operation on a position other than the display position of the objects 70 to 74 in the area 1310 in which the subject image is displayed, the camera MPU 140 determines the area including the touched position as the AF target position. The camera MPU 140 superimposes the AF frame 1810 indicating the determined area on the area 1310 and displays it.

カメラMPU140は、タッチ操作された位置を含むエリアに表示されている被写体像1820に対応する被写体を、追尾対象被写体に決定する。そして、カメラMPU140は、追尾対象被写体の動き量を検出して、検出した動き量に基づいて、AF対象位置を指定する操作が誤操作であるか否かを判断する。   The camera MPU 140 determines the subject corresponding to the subject image 1820 displayed in the area including the touched position as the tracking target subject. Then, the camera MPU 140 detects the amount of movement of the tracking target subject, and based on the detected amount of movement, determines whether the operation for specifying the AF target position is an erroneous operation.

画面1850は、追尾対象被写体が画面内において移動した場合の画面を示す。画面1850における被写体像1870は、被写体像1820に対応する被写体と判断した被写体の像である。カメラMPU140は、被写体像1820の位置から被写体像1870の位置までの被写体の動き量を算出して、動き量が予め定められた値より大きい場合に、AF対象位置を指定する操作が誤操作であったと判断する。   A screen 1850 shows a screen when the tracking target subject moves within the screen. The subject image 1870 on the screen 1850 is an image of a subject determined to be a subject corresponding to the subject image 1820. The camera MPU 140 calculates the amount of movement of the subject from the position of the subject image 1820 to the position of the subject image 1870, and if the amount of movement is greater than a predetermined value, the operation of specifying the AF target position is an erroneous operation. Determine that

例えば、カメラMPU140は、被写体像1820の位置と被写体像1870の位置との間の距離が予め定められた値を超えた場合に、AF対象位置の指定操作が誤操作であったと判断する。例えば、カメラMPU140は、追尾対象被写体の動き速度が予め定められた速く、かつ、被写体像1820の位置と被写体像1870の位置との間の距離が予め定められた値を超えた場合に、AF対象位置の指定操作が誤操作であったと判断する。なお、被写体像1820の位置と被写体像1870の位置との間の距離として、追尾対象被写体の動きに沿う距離を適用してもよい。   For example, the camera MPU 140 determines that the AF target position designation operation is an erroneous operation when the distance between the position of the subject image 1820 and the position of the subject image 1870 exceeds a predetermined value. For example, if the movement speed of the tracking target subject is fast and the distance between the position of the subject image 1820 and the position of the subject image 1870 exceeds a predetermined value, the camera MPU 140 performs AF. It is determined that the operation of designating the target position was an erroneous operation. The distance along the movement of the tracking target subject may be applied as the distance between the position of the subject image 1820 and the position of the subject image 1870.

図19は、AFに係る誤操作の判断方法の他の一例を説明する図である。画面1900は、追尾対象被写体の被写体像1920が、カメラ10の撮影範囲外に出ている状態を示す。カメラMPU140は、追尾対象被写体がカメラ10の撮影範囲外に出た場合にも、AF対象位置の指定操作が誤操作であったと判断する。例えば、カメラMPU140は、追尾対象被写体の動き速度が予め定められた速く、かつ、追尾対象被写体がカメラ10の撮影範囲外に出た場合に、AF対象位置の指定操作が誤操作であったと判断する。   FIG. 19 is a diagram illustrating another example of a method of determining an erroneous operation related to AF. The screen 1900 shows a state in which the subject image 1920 of the tracking target subject is outside the shooting range of the camera 10. The camera MPU 140 determines that the AF target position specifying operation was an erroneous operation even when the tracking target subject goes out of the shooting range of the camera 10. For example, the camera MPU 140 determines that the AF target position designation operation is an erroneous operation when the movement speed of the tracking target subject is a predetermined high speed and the tracking target subject goes out of the shooting range of the camera 10. .

なお、撮影範囲とは、画像データとして外部メモリ180に記録される範囲を示す。カメラ10で撮像される全領域が画像データとして記録される場合は、追尾対象被写体がカメラ10による撮像可能範囲外に出た場合に、AF対象位置の指定操作が誤操作であったと判断される。カメラ10で撮像される撮像可能範囲内のうちの一部の領域が画像データとして記録される場合は、当該一部の領域に対応する画角外に追尾対象被写体が出た場合に、AF対象位置の指定操作が誤操作であったと判断される。   The shooting range indicates a range recorded as image data in the external memory 180. When the entire area imaged by the camera 10 is recorded as image data, it is determined that the AF target position designation operation was an erroneous operation when the tracking target subject is outside the image capturing range of the camera 10. In the case where a part of the image capturing range captured by the camera 10 is recorded as image data, if the tracking target subject comes out of the angle of view corresponding to the part of the area, the AF target is detected. It is determined that the position specifying operation was an erroneous operation.

図20は、AF対象位置を指定する操作方法の変更例の一例を模式的に示す。カメラMPU140は、画面2000において、オブジェクト70〜オブジェクト74の表示位置以外の位置に対するタッチ操作を検出した場合に、タッチ位置の軌跡2010を特定する。カメラMPU140は、軌跡2010に基づいてAF対象位置を決定する。例えば、カメラMPU140は、タッチ位置の軌跡が閉じていると判断した場合に、軌跡2010で囲まれる位置をAF対象位置として決定する。カメラMPU140は、タッチ位置の軌跡が閉じていないと判断した場合は、AF対象位置を指示する操作として受け付ない。カメラMPU140は、AF対象位置を指示する操作を受け付けた場合、画面2050に示すように、決定したAF対象位置を含むAF枠2060を表示させる。   FIG. 20 schematically shows an example of a modification of the operation method for designating the AF target position. When the camera MPU 140 detects a touch operation on the screen 2000 other than the display positions of the objects 70 to 74, the camera MPU 140 specifies the trajectory 2010 of the touch position. The camera MPU 140 determines the AF target position based on the trajectory 2010. For example, when the camera MPU 140 determines that the trajectory of the touch position is closed, the camera MPU 140 determines the position surrounded by the trajectory 2010 as the AF target position. If the camera MPU 140 determines that the trajectory of the touch position is not closed, it does not accept the operation as an instruction for the AF target position. When the camera MPU 140 receives the operation of designating the AF target position, the camera MPU 140 displays the AF frame 2060 including the determined AF target position, as shown in the screen 2050.

このように、カメラMPU140は、AF対象位置の指定する操作方法を、シングルクリックのタッチ操作からスライド操作に変更する。なお、カメラMPU140は、AF対象位置の指定する操作方法を、例えばシングルクリックのタッチ操作からダブルクリックのタッチ操作に変更してもよい。このように、カメラMPU140は、AF対象位置を指定する操作方法を、予め定められた時間内に複数回続けて行わるタッチ操作に変更してもよい。   In this way, the camera MPU 140 changes the operation method for specifying the AF target position from the single-click touch operation to the slide operation. The camera MPU 140 may change the operation method for specifying the AF target position, for example, from a single-click touch operation to a double-click touch operation. In this way, the camera MPU 140 may change the operation method for designating the AF target position to a touch operation that is continuously performed a plurality of times within a predetermined time.

図21は、ユーザインタフェースを変更した場合に表示する確認画面2100の一例を模式的に示す。確認画面2100は、アイコンの位置を変更することを選択するためのオブジェクト2110と、操作方向を変更することを選択するためのオブジェクト2120と、ユーザインタフェースを変更しないことを選択するためのオブジェクト2130とを含む。   FIG. 21 schematically shows an example of the confirmation screen 2100 displayed when the user interface is changed. The confirmation screen 2100 includes an object 2110 for selecting to change the position of the icon, an object 2120 for selecting to change the operation direction, and an object 2130 for selecting not to change the user interface. including.

オブジェクト2110が選択された場合、図13から図15に関連して説明したように、誤操作と判断された操作がなされたオブジェクトの位置が変更される。オブジェクト2120が選択された場合、図16、図15、図18および図20に関連して説明したように、操作方法が変更される。オブジェクト2130が選択された場合、オブジェクトの位置および操作方法はいずれも変更されない。   When the object 2110 is selected, the position of the object on which the operation determined to be an erroneous operation is performed is changed as described with reference to FIGS. 13 to 15. When the object 2120 is selected, the operation method is changed as described with reference to FIGS. 16, 15, 18, and 20. When the object 2130 is selected, neither the position of the object nor the operation method is changed.

図22は、カメラ10における動作フローの一例を示す。図22は、カメラ10の起動から終了までの処理フローを示す。本フローは、例えば操作入力部141の一部としての電源スイッチがON位置に切り替えられた場合に、開始される。本フローは、カメラMPU140が主体となってカメラ10の各部を制御することにより実行される。   FIG. 22 shows an example of the operation flow of the camera 10. FIG. 22 shows a processing flow from the activation of the camera 10 to the termination thereof. This flow is started, for example, when the power switch as a part of the operation input unit 141 is switched to the ON position. This flow is executed by the camera MPU 140 controlling the respective units of the camera 10.

ステップS2200において、カメラMPU140は、カメラ10の初期設定を行う。例えば、カメラMPU140は、カメラ10を制御するための各種パラメータ等を、システムメモリ139からRAM136に展開する。展開されたパラメータとしては、図8から図12にかけて説明した情報等を例示することができる。また、カメラMPU140は、例えば操作入力部141の一部としての撮影モードダイヤル等の状態、および、展開されたパラメータ等に基づき、カメラ10の各部の動作条件を設定する。動作条件としては、撮影モード、撮像条件等を例示できる。撮影モードとしては、連写モード、単写モード、バルブ撮影モード等を例示することができる。撮像条件としては、露光時間、絞り値、撮像感度等を例示できる。   In step S2200, the camera MPU 140 initializes the camera 10. For example, the camera MPU 140 expands various parameters for controlling the camera 10 from the system memory 139 to the RAM 136. As the expanded parameters, the information described in FIGS. 8 to 12 can be exemplified. Further, the camera MPU 140 sets the operating condition of each unit of the camera 10 based on, for example, the state of the shooting mode dial as a part of the operation input unit 141, the developed parameters, and the like. Examples of the operating condition include a shooting mode and an imaging condition. Examples of the shooting mode include continuous shooting mode, single shooting mode, bulb shooting mode, and the like. As the imaging condition, an exposure time, an aperture value, an imaging sensitivity, etc. can be exemplified.

また、ステップS2200において、表示面60からの入力を受け付けるか否かを判断する操作判断タスクも起動される。本操作判断タスクが実行する処理については、図23に関連して説明する。   Further, in step S2200, the operation determination task for determining whether or not to accept the input from the display surface 60 is also activated. The processing executed by this operation determination task will be described with reference to FIG.

続いて、ステップS2202において、カメラMPU140は、初期設定で設定された内容を表示ユニット138等に表示させる。例えば、カメラMPU140は、撮影モード、撮像条件等の情報を、アイコン表示等の種々の形式で表示ユニット138に表示させる。   Subsequently, in step S2202, the camera MPU 140 causes the display unit 138 or the like to display the contents set in the initial settings. For example, the camera MPU 140 causes the display unit 138 to display information such as a shooting mode and an imaging condition in various formats such as icon display.

続いて、ステップS2204において、カメラMPU140は、生じたイベントを特定する。ここでは、操作入力部141またはタッチセンサ52に対する操作に基づくイベントとして、設定操作に基づくイベント、レリーズボタン12に対する操作に基づくイベント、再生操作に基づくイベントを特に取り上げて説明する。   Subsequently, in step S2204, the camera MPU 140 identifies the event that has occurred. Here, as an event based on an operation on the operation input unit 141 or the touch sensor 52, an event based on a setting operation, an event based on an operation on the release button 12, and an event based on a reproduction operation will be particularly taken up and described.

ステップS2204において、動作設定を行う旨の操作で生じたイベントと判断された場合、指示された設定処理を行う(ステップS2210)。例えば、カメラMPU140は、オブジェクト74を表示させた位置がタッチされたと判断した場合に、設定処理を行う。設定処理としては、撮像条件を設定する処理、AFエリアモードを設定する処理等を例示することができる。本ステップで動作設定が変更された場合、変更された動作設定に応じてパラメータ変数が変更される。   When it is determined in step S2204 that the event has occurred due to the operation for performing the operation setting, the instructed setting process is performed (step S2210). For example, the camera MPU 140 performs the setting process when it is determined that the position where the object 74 is displayed is touched. Examples of the setting process include a process of setting an imaging condition and a process of setting an AF area mode. When the operation setting is changed in this step, the parameter variable is changed according to the changed operation setting.

ステップS2204において、レリーズボタン12に対する操作に基づくイベントと判断された場合、レリーズボタン12の押し込みに応じて焦点調節または撮影を行う(ステップS2212)。   When it is determined in step S2204 that the event is based on the operation on the release button 12, focus adjustment or shooting is performed according to the release button 12 being pressed (step S2212).

ステップS2204において、再生を行う旨の操作で生じたイベントと判断された場合、再生処理を行う(ステップS2214)。例えば、本ステップの処理としては、外部メモリ180に記録されている画像データに基づいてサムネイル表示等を行う処理、ユーザにより選択された画像データに基づいて表示ユニット138に画像を表示させる処理等を例示することができる。   When it is determined in step S2204 that the event has occurred due to the operation of performing reproduction, reproduction processing is performed (step S2214). For example, as the process of this step, a process of displaying a thumbnail based on the image data recorded in the external memory 180, a process of displaying an image on the display unit 138 based on the image data selected by the user, and the like. It can be illustrated.

ステップS2204において、イベントが生じていないと判断された場合、ステップS2220に処理を進める。ステップS2210、ステップS2212、ステップS2214の処理が完了した場合も、ステップS2220に処理を進める。   If it is determined in step S2204 that an event has not occurred, the process proceeds to step S2220. Even when the processes of step S2210, step S2212, and step S2214 are completed, the process proceeds to step S2220.

ステップS2220においては、電源をOFFするか否かを判断する。例えば、電源スイッチがOFF位置に切り換えられた場合や、カメラ10が動作を開始してから予め定められた期間、ユーザ指示が無い状態が継続した場合等に、電源をOFFすると判断する。電源をOFFすると判断した場合は、終了処理を行い(ステップS2222)、本フローを終了する。電源をOFFしないと判断した場合はステップS2204に処理を移行させる。   In step S2220, it is determined whether or not the power is turned off. For example, when the power switch is switched to the OFF position, or when there is no user instruction for a predetermined period after the camera 10 starts operating, it is determined that the power is turned off. If it is determined to turn off the power, end processing is performed (step S2222), and this flow is ended. If it is determined that the power is not turned off, the process proceeds to step S2204.

図23は、操作判断タスクによってカメラ10で実行される処理フローの一例を示す。本フローは、カメラMPU140が主体となって、操作判断タスクに従ってカメラ10の各部を制御することにより実行される。   FIG. 23 shows an example of a processing flow executed by the camera 10 according to the operation determination task. This flow is executed by the camera MPU 140 as a main body and controlling each unit of the camera 10 according to the operation determination task.

本フローが開始すると、カメラMPU140は、タッチ操作の有無を判断する(ステップS2302)。タッチ操作がないと判断された場合、ステップS2316に処理を移行する。   When this flow starts, the camera MPU 140 determines whether or not there is a touch operation (step S2302). If it is determined that there is no touch operation, the process proceeds to step S2316.

タッチ操作があると判断された場合、タッチ操作に応じて処理を行う(ステップS2304)。例えば、カメラMPU140は、オブジェクト70の表示部位に対してスライド操作されることに応じて、焦点距離を変更する。また、カメラMPU140は、オブジェクト71の表示位置が操作されることに応じて、閃光モードを変更する。また、カメラMPU140は、オブジェクト72の表示位置が操作されることに応じて、接写モードの状態を変更する。また、カメラMPU140は、オブジェクト73の表示位置が操作されることに応じて、露出補正量設定画面を表示させる。また、カメラMPU140は、オブジェクト74の表示位置が操作されることに応じて、カメラ10の設定メニューを表示させる。また、タッチシャッタの設定が選択されている場合に、ライブビュー動作中においては、オブジェクト以外の領域に対するタッチ操作を検出した場合には、タッチ操作で指定された位置に対して焦点調節が行われ、撮影が行われる。   If it is determined that there is a touch operation, processing is performed according to the touch operation (step S2304). For example, the camera MPU 140 changes the focal length in response to the slide operation on the display part of the object 70. Further, the camera MPU 140 changes the flash mode according to the operation of the display position of the object 71. Further, the camera MPU 140 changes the state of the close-up mode in response to the operation of the display position of the object 72. Further, the camera MPU 140 displays the exposure correction amount setting screen in response to the display position of the object 73 being operated. Further, the camera MPU 140 causes the setting menu of the camera 10 to be displayed in response to the operation of the display position of the object 74. In addition, when the touch shutter setting is selected and a touch operation on an area other than the object is detected during live view operation, focus adjustment is performed on the position specified by the touch operation. , Shooting is performed.

続いて、ステップS2306において、カメラMPU140は、誤操作を検出する処理を行う。ステップS2306の処理については、図24に関連して説明する。続いて、ステップS2308において誤操作の有無を判断する。誤操作があったと判断された場合、タッチ操作に応じた処理をキャンセルする(ステッS2310)。例えば、ステップS2304において焦点距離を変更した場合は、焦点距離を変更前に戻す。閃光モードを変更した場合は、閃光モードを変更前に戻す。接写モードを変更した場合は、接写モードを変更前の状態に戻す。また、露出補正設定画面を表示した場合は、露出補正設定画面の表示をキャンセルして、元の画面に戻す。また、設定メニューを表示した場合は、設定メニューの表示をキャンセルして、設定動作を行う動作モードを終了する。   Subsequently, in step S2306, the camera MPU 140 performs a process of detecting an erroneous operation. The process of step S2306 will be described with reference to FIG. Subsequently, in step S2308, it is determined whether or not there is an erroneous operation. If it is determined that there is an erroneous operation, the process corresponding to the touch operation is canceled (step S2310). For example, when the focal length is changed in step S2304, the focal length is returned to the value before the change. When the flash mode is changed, the flash mode is returned to before the change. When the close-up mode is changed, the close-up mode is returned to the state before the change. When the exposure compensation setting screen is displayed, the display of the exposure compensation setting screen is canceled and the screen returns to the original screen. When the setting menu is displayed, the display of the setting menu is canceled and the operation mode for performing the setting operation is ended.

続いて、ステップS2312において、タッチ操作をキャンセルした旨をユーザに通知する。タッチ操作をキャンセルした旨は、例えば表示面60の全体を予め定められた時間にわたってグレーアウト表示させることで通知してよい。その他、タッチ操作をキャンセルした旨のメッセージを予め定められた時間にわたって表示面60に表示させてもよい。また、表示面60の全体を点滅表示させることで通知してもよい。また、音声によって通知してもよい。   Subsequently, in step S2312, the user is notified that the touch operation has been canceled. The fact that the touch operation has been canceled may be notified by, for example, displaying the entire display surface 60 in gray-out for a predetermined time. In addition, a message indicating that the touch operation has been canceled may be displayed on the display surface 60 for a predetermined time. Alternatively, the notification may be made by blinking the entire display surface 60. Moreover, you may notify by voice.

続いて、ユーザインタフェースの変更処理に関する処理を行う(ステップS2314)。ステップS2314の処理については、図26に関連して説明する。ステップS2314の処理が完了すると、ステップS2316に処理を移行する。   Subsequently, processing related to the user interface change processing is performed (step S2314). The process of step S2314 will be described with reference to FIG. When the process of step S2314 is completed, the process proceeds to step S2316.

ステップS2316において、動作を終了するか否かを判断する。例えば、図22のステップS2222の終了動作において、操作判断タスクを終了する旨が通知された場合に、動作を終了すると判断する。動作を終了しないと判断された場合は、ステップS2302に処理を移行する。動作を終了すると判断された場合は、本フローを終了する。   In step S2316, it is determined whether the operation is finished. For example, in the ending operation of step S2222 of FIG. 22, when it is notified that the operation determination task is to be ended, it is determined that the operation is ended. If it is determined that the operation is not completed, the process moves to step S2302. If it is determined to end the operation, this flow ends.

図24は、ユーザインタフェースの変更処理に関する処理の一例を示す。本フローは、に図23のステップS2314の処理に適用できる。   FIG. 24 shows an example of processing relating to the processing for changing the user interface. This flow can be applied to the process of step S2314 of FIG.

本フローが開始すると、ステップS2302で検出されたタッチ操作から予め定められた時間が経過するまでの間に生じたパネル50の変位を検出して、変位方向の判断を行う(ステップS2402)。具体的には、カメラMPU140は、回転量および回転方向を検出して、パネル50の回転方向が、表示面60を操作することで回転する方向であるか、表示面60を操作することで回転する方向でないかを判断する。カメラMPU140は、第1回転検出部42および第2回転検出部44の出力に基づいて、パネル50の回転量および回転方向を検出する。ステップS2402の判断において、パネル50の回転方向が表示面60を操作することで回転する方向でない判断された場合、ステップS2422に処理を移行する。ステップS2422では、カメラMPU140は誤操作が検出されたと判断して、本フローを終了する。   When this flow starts, the displacement of the panel 50 that has occurred during the predetermined time from the touch operation detected in step S2302 is detected, and the displacement direction is determined (step S2402). Specifically, the camera MPU 140 detects the rotation amount and the rotation direction, and determines whether the rotation direction of the panel 50 is the rotation direction by operating the display surface 60 or the rotation direction by operating the display surface 60. Judge whether it is not the direction to do. The camera MPU 140 detects the rotation amount and the rotation direction of the panel 50 based on the outputs of the first rotation detection unit 42 and the second rotation detection unit 44. When it is determined in step S2402 that the rotation direction of the panel 50 is not the rotation direction by operating the display surface 60, the process proceeds to step S2422. In step S2422, the camera MPU 140 determines that an erroneous operation has been detected, and ends this flow.

ステップS2402の判断において、パネル50の回転方向が表示面60を操作することで回転する方向であると判断された場合、カメラMPU140は閾値を決定する(ステップS2404)。例えば、カメラMPU140は、上述したようにスコアの合計値に対応する閾値を選択する。   When it is determined in step S2402 that the rotation direction of the panel 50 is the rotation direction by operating the display surface 60, the camera MPU 140 determines the threshold value (step S2404). For example, the camera MPU 140 selects the threshold value corresponding to the total score value as described above.

続いて、ステップS2406において、検出されたパネル50の回転量が、ステップS2404で決定した閾値を超えるか否かを判断する。パネル50の回転量が閾値を超えると判断された場合、ステップS2422に処理を移行する。   Subsequently, in step S2406, it is determined whether or not the detected rotation amount of the panel 50 exceeds the threshold value determined in step S2404. If it is determined that the rotation amount of the panel 50 exceeds the threshold value, the process proceeds to step S2422.

ステップS2406の判断においてパネル50の回転量が閾値を超ないと判断された場合、ステップS2302で検出された操作がすぐにキャンセルされたか否かを判断する(ステップS2408)。例えば、オブジェクト73の操作を検出して露出補正設定画面を表示した場合に、他のオブジェクトが操作されることなく予め定められた時間内にオブジェクト1640が操作された場合に、操作がすぐにキャンセルされたと判断する。   When it is determined in step S2406 that the rotation amount of the panel 50 does not exceed the threshold value, it is determined whether the operation detected in step S2302 is immediately canceled (step S2408). For example, when the operation of the object 73 is detected and the exposure compensation setting screen is displayed, if the object 1640 is operated within a predetermined time without other objects being operated, the operation is immediately canceled. Judge that it was done.

ステップS2408の判断において操作がすぐにキャンセルされたと判断した場合は、ステップS2422に処理を移行する。ステップS2408の判断において操作がすぐにキャンセルされていないと判断した場合は、ステップS2302で検出された操作がファインダ窓163を見ている最中に操作されたものであるか否かを判断する(ステップS2410)。ファインダ窓163を見ている最中に操作されたと判断した場合は、ステップS2422に処理を移行する。ファインダ窓163を見ている最中に操作されたと判断した場合は、ステップS2422に処理を移行する。ファインダ窓163を見ている最中に操作されたものでないと判断した場合は、ステップS2302で検出された操作があったタイミングが、操作入力部141が操作されたタイミング、または、ユーザがカメラ本体130を把持したタイミングに近いか否かを判断する(ステップS2412)。操作されたタイミングが、操作入力部141が操作されたタイミングに近いか、ユーザがカメラ本体130を把持したタイミングに近いと判断された場合、ステップS2422に処理を移行する。ステップS2412においては、カメラMPU140は、操作されたタイミングが、操作入力部141が操作されたタイミングの前後の予め定められた時間内にある場合に、ステップS2302で検出された操作があったタイミングが操作入力部141が操作されたタイミングに近いと判断する。ユーザがカメラ本体130を把持したタイミングに近いか否かを判断する場合も同様である。   If it is determined in step S2408 that the operation has been immediately canceled, the process advances to step S2422. When it is determined in step S2408 that the operation has not been canceled immediately, it is determined whether the operation detected in step S2302 is an operation performed while looking at the finder window 163 ( Step S2410). If it is determined that the operation has been performed while looking at the finder window 163, the process proceeds to step S2422. If it is determined that the operation has been performed while looking at the finder window 163, the process proceeds to step S2422. When it is determined that the operation is not performed while looking at the finder window 163, the timing when the operation detected in step S2302 is the timing when the operation input unit 141 is operated or the user operates the camera body. It is determined whether it is close to the timing of gripping 130 (step S2412). When it is determined that the operation timing is close to the operation input unit 141 operation timing or the user grips the camera body 130, the process proceeds to step S2422. In step S2412, when the operated timing is within a predetermined time before and after the operation input unit 141 is operated, the camera MPU 140 determines that the operation detected in step S2302 is detected. It is determined that it is close to the timing when the operation input unit 141 is operated. The same is true when it is determined whether or not the user is close to the timing of gripping the camera body 130.

ステップS2412の判断において、操作されたタイミングが、操作入力部141が操作されたタイミングに近くなく、かつ、ユーザがカメラ本体130を把持したタイミングにも近くないと判断された場合、ライブビューの動作を行っているか否かを判断する(ステップS2414)。ライブビューの動作を行っていると判断した場合、タッチAFまたはタッチシャッタの動作を行う設定であるか否かを判断する(ステップS2416)。タッチAまたはタッチシャッタを行う設定である場合、ライブビュー中の操作の有無を検出する(ステップS2418)。ステップS2418の処理については、図25に関連して説明する。   If it is determined in step S2412 that the operation timing is not close to the operation input portion 141 operation timing and is not close to the user gripping the camera body 130, the live view operation is performed. It is determined whether or not (step S2414). When it is determined that the live view operation is being performed, it is determined whether the setting is to perform the touch AF or touch shutter operation (step S2416). If the setting is to perform touch A or touch shutter, the presence or absence of an operation during live view is detected (step S2418). The process of step S2418 will be described with reference to FIG.

ステップS2416の判断において、タッチAFの動作を行う設定でもなく、タッチシャッタの動作を行う設定でもないと判断した場合は、誤操作が検出されなかったと判断して(ステップS2420)、本フローを終了する。ステップS2414の判断において、ライブビューの動作を行っていないと判断した場合は、ステップS2420に処理を移行する。   If it is determined in step S2416 that neither the setting for performing the touch AF operation nor the setting for performing the touch shutter operation is performed, it is determined that no erroneous operation has been detected (step S2420), and the present flow ends. . If it is determined in step S2414 that the live view operation is not being performed, the process proceeds to step S2420.

本フローのステップS2412においてタイミングの比較対象とする操作入力部141は、ステップS2302でユーザ操作が検出されたオブジェクトの表示位置に近い位置に位置する操作入力部に限定してよい。例えば、図6に示したように表示面60が外を向いた状態で収容部30に収容されている場合において、操作ボタン90が操作されたタイミングに近いタイミングでオブジェクト74が操作されたときには、誤操作と判断してよい。一方、操作ボタン90の操作を受け付けたタイミングに近いタイミングでオブジェクト73が操作されたときには、誤操作でないと判断してよい。   The operation input unit 141 whose timing is to be compared in step S2412 of this flow may be limited to the operation input unit located near the display position of the object for which the user operation is detected in step S2302. For example, as shown in FIG. 6, when the display surface 60 is housed in the housing unit 30 with the surface facing outward, when the object 74 is operated at a timing close to the timing when the operation button 90 is operated, It may be judged as an erroneous operation. On the other hand, when the object 73 is operated at a timing close to the timing at which the operation of the operation button 90 is accepted, it may be determined that the operation is not an erroneous operation.

図25は、ライブビューの動作を行っている場合の誤操作検出処理の一例を示す。本フローは、図24のステップS2418の処理に適用できる。ここでは、AFエリアモードとして、シングルポイントAFまたはターゲット追尾AFに設定されている場合を取り上げて説明する。ターゲット追尾AFは、ユーザにより指定された位置の被写体を追尾してAFエリアを設定するAFエリアモードである。したがって、ターゲット追尾AFが選択されている場合、AFエリアは追尾対象被写体の移動に応じて移動する場合がある。   FIG. 25 shows an example of the erroneous operation detection process when the live view operation is being performed. This flow can be applied to the process of step S2418 of FIG. Here, the case where the AF area mode is set to single point AF or target tracking AF will be described. Target tracking AF is an AF area mode in which an object at a position designated by the user is tracked and an AF area is set. Therefore, when the target tracking AF is selected, the AF area may move according to the movement of the tracking target subject.

本フローが開始すると、AFエリアモードを判断する(ステップS2502)。AFエリアモードがシングルポイントAFに設定されている場合、AF対象の被写体の動きが高速であるか否かを判断する(ステップS2504)。例えば、追尾対象被写体の動く速さが予め定められた値より大きい場合に、AF対象の被写体の動きが高速であると判断する。タッチAFの動作を行う旨が選択されている場合は、AF位置の指定操作を受け付けてから予め定められた時間内の追尾対象被写体の動きが高速であるか否かを判断してよい。タッチシャッタの動作を行う旨が選択されている場合、撮影を行うまでの追尾対象被写体の動きが高速であるか否かを判断してよい。   When this flow starts, the AF area mode is determined (step S2502). When the AF area mode is set to single point AF, it is determined whether or not the movement of the AF target object is fast (step S2504). For example, when the moving speed of the tracking target subject is larger than a predetermined value, it is determined that the AF target subject moves at high speed. When it is selected to perform the touch AF operation, it may be determined whether or not the movement of the tracking target subject is high speed within a predetermined time after the AF position designation operation is received. When the operation of the touch shutter is selected, it may be determined whether or not the tracking target subject moves at high speed until shooting.

AF対象の被写体の動きが高速である場合、カメラMPU140は、AF対象の被写体が予め定められた距離以上の距離を移動したか、撮影範囲外に移動したか否かを判断する(ステップS2506)。AF対象の被写体が予め定められた距離以上の距離を移動したと判断された場合、または、AF対象の被写体が撮影範囲外に移動したと判断された場合、誤操作があったと判断して(ステップS2508)、本フローを終了する。ステップS2506の判断において、AF対象の被写体が予め定められた距離以上の距離を移動しておらず、かつ、AF対象の被写体が撮影範囲外に移動していないと判断された場合、誤操作がんかったと判断して(ステップS2510)、本フローを終了する。ステップS2504の判断において、AF対象の被写体の動きが高速でないと判断した場合、ステップS2510に処理を移行する。   When the AF subject is moving at high speed, the camera MPU 140 determines whether the AF subject moves a distance equal to or more than a predetermined distance or moves out of the shooting range (step S2506). . If it is determined that the AF target subject has moved a distance equal to or greater than a predetermined distance, or if it is determined that the AF target subject has moved outside the shooting range, it is determined that there is an erroneous operation (step (S2508), this flow ends. If it is determined in step S2506 that the AF target subject has not moved a distance equal to or greater than a predetermined distance, and the AF target subject has not moved outside the shooting range, a malfunction operation is performed. When it is determined that the answer is yes (step S2510), this flow ends. If it is determined in step S2504 that the AF subject is not moving at high speed, the process advances to step S2510.

ステップS2502の判断において、AFエリアモードがターゲット追尾AFの設定であると判断した場合、カメラMPU140は、カメラ10の向きの変化の有無を検出して、カメラ10の向きの変化があったか否かを判断する(ステップS2512)。例えば、カメラMPU140は、角度センサ170の出力に基づいて、カメラ10の向きの変化量が予め定められた値より大きい場合に、カメラ10の向きの変化があったと判断する。カメラ10の向きの変化がなかったと判断された場合、ステップS2510に処理を移行する。カメラ10の向きの変化があったと判断された場合、AF対象の被写体の動きとカメラの向きの動きが異なるか否かを判断する(ステップS2514)。   When it is determined in step S2502 that the AF area mode is the target tracking AF setting, the camera MPU 140 detects whether or not the orientation of the camera 10 has changed, and determines whether or not the orientation of the camera 10 has changed. It is determined (step S2512). For example, the camera MPU 140 determines that the orientation of the camera 10 has changed, based on the output of the angle sensor 170, when the amount of change in the orientation of the camera 10 is larger than a predetermined value. If it is determined that the orientation of the camera 10 has not changed, the process moves to step S2510. If it is determined that the orientation of the camera 10 has changed, it is determined whether the movement of the AF target subject and the movement of the camera orientation are different (step S2514).

ステップS2514においては、カメラMPU140は、追尾対象被写体が動く方向にカメラ10の向きが追従していると判断した場合に、AF対象の被写体の動きとカメラの向きの動きが異ならないと判断する。例えば、カメラMPU140は、カメラ10の向きの動きが、追尾対象被写体が動く方向の動き成分を有していると判断した場合に、AF対象の被写体の動きとカメラの向きの動きが異ならないと判断する。カメラ10の向きの動きが、追尾対象被写体が動く方向の動き成分を有している場合でも、例えばカメラ10の向きの動きが追尾対象被写体の動きに対して高速であり、予め定められた時間内に追尾対象被写体が撮影範囲外の位置に移動したと判断された場合は、AF対象の被写体の動きとカメラの向きの動きが異なると判断する。カメラ10の向きの動きに対する追尾対象被写体の相対的な動きは、撮像により得られた画像データから背景に対する追尾対象被写体の動きに基づいて検出してよい。   In step S2514, when the camera MPU 140 determines that the orientation of the camera 10 follows the direction in which the tracking target subject moves, it determines that the movement of the AF target subject does not differ from the movement of the camera orientation. For example, when the camera MPU 140 determines that the movement in the direction of the camera 10 has a movement component in the direction in which the tracking target subject moves, the movement of the AF target subject does not differ from the movement of the camera direction. to decide. Even when the movement in the direction of the camera 10 has a movement component in the direction in which the tracking target subject moves, for example, the movement in the direction of the camera 10 is faster than the movement of the tracking target subject, and the predetermined time is set. When it is determined that the tracking target subject has moved to a position outside the photographing range, it is determined that the movement of the AF target subject and the movement of the camera direction are different. The relative movement of the tracking target subject with respect to the movement of the direction of the camera 10 may be detected based on the movement of the tracking target subject with respect to the background from the image data obtained by imaging.

ステップS2514の判断において、AF対象の被写体の動きとカメラの向きの動きが異なると判断した場合は、ステップS2510に処理を移行する。ステップS2514の判断において、AF対象の被写体の動きとカメラの向きの動きが異ならないと判断した場合は、ステップS2508に処理を移行する。   If it is determined in step S2514 that the movement of the AF subject is different from the movement of the camera direction, the process advances to step S2510. If it is determined in step S2514 that the movement of the AF subject is not different from the movement of the camera direction, the process advances to step S2508.

図26は、ユーザインタフェースの変更処理に関する処理の一例を示す。本フローは、図23のステップS2314の処理に適用できる。   FIG. 26 shows an example of processing relating to the processing for changing the user interface. This flow can be applied to the process of step S2314 of FIG.

本フローが開始すると、カメラMPU140は、ステップS2302で検出された操作について、予め定められた時間内に生じた誤操作の回数をカウントする(ステップS2602)。例えば、カメラMPU140は、予め定められた時間内に生じた誤操作の回数を示す変数をインクリメントする。誤操作の回数を示す変数は、オブジェクト毎に用意されている。カメラMPU140は、当該変数に対応する誤操作が検出された最後のタイミングを示す情報を記憶しており、当該変数は、誤操作が検出された最後のタイミングから予め定められた時間が経過した場合に0に初期化されてよい。当該変数は、動作パラメータとしてシステムメモリ139に格納される。   When this flow starts, the camera MPU 140 counts the number of erroneous operations that have occurred within a predetermined time with respect to the operation detected in step S2302 (step S2602). For example, the camera MPU 140 increments a variable indicating the number of erroneous operations that have occurred within a predetermined time. A variable indicating the number of erroneous operations is prepared for each object. The camera MPU 140 stores information indicating the last timing at which an erroneous operation corresponding to the variable is detected, and the variable is 0 when a predetermined time has elapsed from the last timing at which the erroneous operation was detected. May be initialized to. The variable is stored in the system memory 139 as an operation parameter.

続いて、カメラMPU140は、誤操作の頻度が基準値を超えるか否かを判断する(ステップS2604)。誤操作の頻度は、誤操作が生じた回数を予め定められた時間で除算した値を適用してよい。誤操作の頻度が基準値を超える場合、ユーザインタフェースを変更するか否かの確認画面を表示させる(S2606)。例えば、図21に関連して説明した確認画面2100を表示させる。   Subsequently, the camera MPU 140 determines whether the frequency of erroneous operations exceeds the reference value (step S2604). As the frequency of erroneous operations, a value obtained by dividing the number of times erroneous operations occur by a predetermined time may be applied. If the frequency of erroneous operations exceeds the reference value, a confirmation screen as to whether or not to change the user interface is displayed (S2606). For example, the confirmation screen 2100 described with reference to FIG. 21 is displayed.

続いて、ユーザインタフェースを変更するか否かを判断する(ステップS2608)。例えば、オブジェクト2110またはオブジェクト2120が選択された場合に、ユーザインタフェースを変更すると判断し、オブジェクト2130が選択された場合に、ユーザインタフェースを変更しないと判断する。ユーザインタフェースを変更すると判断された場合、カメラMPU140はユーザインタフェースを変更して(ステップS2610)、本フローを終了する。ユーザインタフェースを変更しないと判断された場合、カメラMPU140はユーザインタフェースを変更することなく本フローを終了する。ステップS2604の判断において、誤操作の頻度が基準値を超えない場合、ユーザインタフェースを変更することなく本フローを終了する。   Subsequently, it is determined whether to change the user interface (step S2608). For example, when the object 2110 or the object 2120 is selected, it is determined that the user interface is changed, and when the object 2130 is selected, it is determined that the user interface is not changed. When it is determined to change the user interface, the camera MPU 140 changes the user interface (step S2610) and ends this flow. When it is determined that the user interface is not changed, the camera MPU 140 ends this flow without changing the user interface. In the determination of step S2604, if the frequency of erroneous operation does not exceed the reference value, this flow ends without changing the user interface.

以上の説明において、カメラ10において本体部および表示部を連結する形態として、連結部40によってパネル50をカメラ本体130に対して可動に連結する形態を例示した。しかし、本体部と表示部とは任意の連結部材で連結されてよい。また、本実施形態のパネル50は、カメラ本体130に対して回転式の操作部である。他の形態として、スライド式の操作部であってもよい。すなわち、パネル50等の操作部の変位は、回転に限らず、様々な方向の変位を適用の対象とすることができる。また、本実施形態では閾値を用いて操作を受け付けるか否かを判断するとした。しかし、閾値に限らず、種々の基準値を用いて操作を受け付けるか否かを判断してよい。   In the above description, as a mode of connecting the main body section and the display section in the camera 10, a mode in which the panel 50 is movably connected to the camera main body 130 by the connecting section 40 has been illustrated. However, the main body portion and the display portion may be connected by any connecting member. Further, the panel 50 of the present embodiment is a rotary operation unit with respect to the camera body 130. As another form, it may be a slide type operation unit. That is, the displacement of the operation unit such as the panel 50 is not limited to rotation, and displacements in various directions can be applied. Further, in the present embodiment, it is assumed that the threshold value is used to determine whether or not the operation is accepted. However, not only the threshold value but also various reference values may be used to determine whether or not to accept the operation.

カメラ10においてパネル50の角度を検出する検出器としては、連結部40内に第1回転検出部42および第2回転検出部44を例示した。しかし、パネル50の変位を検出する変位検出部として種々の検出方式の検出部を適用できる。例えば、パネル50の内部に設けた方位センサを、変位検出部として適用できる。また、パネル50の内部に磁石を設け、カメラ本体130に設けた磁気センサで磁力を検出する方式を採用してもよい。   As the detector that detects the angle of the panel 50 in the camera 10, the first rotation detection unit 42 and the second rotation detection unit 44 are illustrated in the connection unit 40. However, as a displacement detection unit that detects the displacement of the panel 50, detection units of various detection methods can be applied. For example, the azimuth sensor provided inside the panel 50 can be applied as the displacement detector. Alternatively, a method may be adopted in which a magnet is provided inside the panel 50 and a magnetic sensor provided in the camera body 130 detects the magnetic force.

上記の説明において、カメラMPU140の動作として説明した処理は、カメラMPU140がプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。また、上記の説明においてASIC135により実現される処理は、プロセッサによって実現することができる。例えば、ASIC135の動作として説明した処理は、プロセッサがプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。すなわち、本実施形態のカメラ10に関連して説明した処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。   In the above description, the processing described as the operation of the camera MPU 140 is realized by the camera MPU 140 controlling each hardware included in the camera 10 according to a program. Further, the processing realized by the ASIC 135 in the above description can be realized by the processor. For example, the processing described as the operation of the ASIC 135 is realized by the processor controlling each hardware included in the camera 10 according to a program. That is, in the processing described in relation to the camera 10 of the present embodiment, the processor operates according to the program to control each hardware, and each hardware including the processor, the memory, and the like cooperate with the program. It can be realized by operating. That is, the processing can be realized by a so-called computer device. The computer device may load a program that controls execution of the above-described processing, operate according to the read program, and execute the processing. The computer device can load the program from a computer-readable recording medium that stores the program.

また、本実施形態において、レンズユニット120が装着された状態のカメラ10を、撮像装置の一例として取り上げた。しかし、撮像装置とは、レンズユニット120が装着されていないカメラ本体130およびパネル50を含む概念である。撮像装置としては、レンズ交換式カメラの一例である一眼レフレックスカメラの他に、レンズ非交換式カメラの一例であるコンパクトデジタルカメラ、ミラーレス式カメラ、ビデオカメラ、撮像機能付きの携帯電話機、撮像機能付きの携帯情報端末、撮像機能を有する種々の電子機器を適用の対象とすることができる。撮像装置は電子機器の一例である。電子機器としては、携帯電話、携帯情報端末、いわゆるタブレットやノートパソコン等のコンピュータ、音楽データ再生装置、カーナビ等のナビゲーション装置、リモートコントロール装置等、種々の機器を適用の対象とすることができる。   Further, in the present embodiment, the camera 10 with the lens unit 120 attached is taken as an example of the imaging device. However, the image pickup device is a concept including the camera body 130 and the panel 50 to which the lens unit 120 is not attached. As the imaging device, in addition to a single-lens reflex camera that is an example of an interchangeable lens camera, a compact digital camera that is an example of a non-interchangeable lens camera, a mirrorless camera, a video camera, a mobile phone with an imaging function, an imaging A portable information terminal having a function and various electronic devices having an imaging function can be applied. The imaging device is an example of an electronic device. As the electronic device, various devices such as a mobile phone, a portable information terminal, a computer such as a so-called tablet or a notebook computer, a music data reproducing device, a navigation device such as a car navigation system, and a remote control device can be applied.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   Although the present invention has been described using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is apparent to those skilled in the art that various modifications and improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such modifications or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, the specification, and the drawings is, in particular, “before” or “prior to”. It should be noted that the output of the previous process can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the operation flow in the claims, the specification, and the drawings is described by using “first,” “next,” and the like for convenience, it means that it is essential to carry out in this order. Not a thing.

10 カメラ、12 レリーズボタン、30 収容部、40 連結部、42 第1回転検出部、44 第2回転検出部、52 タッチセンサ、50 パネル、60 表示面、70、71、72、73、74 オブジェクト、120 レンズユニット、121 レンズマウント接点、122 レンズ群、123 レンズMPU、124 レンズ駆動部、130 カメラ本体、131 カメラマウント接点、132 撮像素子、133 アナログ処理部、134 A/D変換器、135 ASIC、136 RAM、137 表示制御部、138 表示ユニット、139 システムメモリ、140 カメラMPU、141 操作入力部、142 AFユニット、143 フォーカルプレーンシャッタ、144 測光素子、145 メインミラー、146 サブミラー、147 ファインダ部、148 駆動部、149 接続インタフェース、150 記録媒体IF、160 接触位置検出部、170 角度センサ、172 アイセンサ、180 外部メモリ、190 電源、192 電源回路 10 camera, 12 release button, 30 housing section, 40 connecting section, 42 first rotation detecting section, 44 second rotation detecting section, 52 touch sensor, 50 panel, 60 display surface, 70, 71, 72, 73, 74 object , 120 lens unit, 121 lens mount contact, 122 lens group, 123 lens MPU, 124 lens drive section, 130 camera body, 131 camera mount contact, 132 image sensor, 133 analog processing section, 134 A / D converter, 135 ASIC 136 RAM, 137 display control unit, 138 display unit, 139 system memory, 140 camera MPU, 141 operation input unit, 142 AF unit, 143 focal plane shutter, 144 photometric element, 145 main mirror, 146 submirror, 1 47 viewfinder section, 148 drive section, 149 connection interface, 150 recording medium IF, 160 contact position detection section, 170 angle sensor, 172 eye sensor, 180 external memory, 190 power supply, 192 power supply circuit

Claims (5)

第1の部材と、
前記第1の部材に対して変位可能に設けられ、操作部を有する第2の部材と、
前記第1の部材に対する前記第2の部材の変位量を検出する検出部と、
前記操作部への入力に基づいて処理を行う制御部と、を備え、
前記制御部は、前記操作部への入力がされた場合の前記検出部で検出される前記変位量が基準値以下である場合に前記操作部への入力に基づく処理を実行し、前記操作部への入力がされた場合の前記検出部で検出される前記変位量が基準値より大きい場合に前記操作部への入力に基づく処理を実行しない電子機器。
A first member,
A second member that is displaceably provided with respect to the first member and that has an operating portion;
A detection unit that detects a displacement amount of the second member with respect to the first member;
A control unit that performs processing based on an input to the operation unit,
The control unit executes a process based on an input to the operation unit when the displacement amount detected by the detection unit when an input is made to the operation unit is equal to or less than a reference value, and the operation unit The electronic device that does not execute the process based on the input to the operation unit when the displacement amount detected by the detection unit when the input to the operation unit is larger than the reference value .
請求項1に記載の電子機器において、
前記第2の部材は、前記第1の部材に回動可能に設けれ、
前記検出部は、前記第1の部材に対する前記第2の部材の回転量を検出し、
前記制御部は、前記操作部への入力がされた場合の前記検出部で検出される前記回転量が基準値以下である場合に前記操作部への入力に基づく処理を実行し、前記操作部への入力がされた場合の前記検出部で検出される前記回転量が基準値より大きい場合に前記操作部への入力に基づく処理を実行しない電子機器。
The electronic device according to claim 1,
The second member is rotatably provided on the first member,
The detection unit detects a rotation amount of the second member with respect to the first member,
The control unit executes a process based on an input to the operation unit when the rotation amount detected by the detection unit when an input is made to the operation unit is equal to or less than a reference value, and the operation unit The electronic device that does not execute the process based on the input to the operation unit when the rotation amount detected by the detection unit when the input to the operation unit is larger than the reference value .
請求項に記載の電子機器において、
前記第2の部材が前記第1の部材に対して第1の位置にある場合の前記基準値と、前記第2の部材が前記第1の部材に対して第2の位置にある場合の前記基準値とが異なる電子機器。
The electronic device according to claim 2 ,
The reference value when the second member is at the first position with respect to the first member, and the reference value when the second member is at the second position with respect to the first member. An electronic device whose standard value is different .
請求項2又は3に記載の電子機器において、
前記操作部は、操作が行われる操作面を有し、
前記制御部は、前記操作面への入力がされた場合の前記検出部で検出される前記回転量が基準値以下である場合に前記操作面への入力に基づく処理を実行し、前記操作面への入力がされた場合の前記検出部で検出される前記回転量が基準値より大きい場合に前記操作面への入力に基づく処理を実行しない電子機器。
The electronic device according to claim 2 or 3 ,
The operation unit has an operation surface on which an operation is performed,
The control unit executes a process based on the input to the operation surface when the rotation amount detected by the detection unit when an input is made to the operation surface is equal to or less than a reference value, The electronic device that does not execute the process based on the input to the operation surface when the rotation amount detected by the detection unit when the input to the operation surface is larger than the reference value .
第1の部材と、前記第1の部材に対して変位可能に設けられ、操作部を有する第2の部材と、を備える電子機器のプロセッサに実行されるプログラムであって、
前記第1の部材に対する前記第2の部材の変位量を検出する検出処理と、
前記操作部への入力に基づいて処理を行う制御処理と、を前記プロセッサに実行させ、
前記制御処理は、前記操作部への入力がされた場合の前記検出処理で検出される前記変位量が基準値以下である場合に前記操作部への入力に基づく処理を実行し、前記操作部への入力がされた場合の前記検出処理で検出される前記変位量が基準値より大きい場合に前記操作部への入力に基づく処理を実行しないプログラム。
A program executed by a processor of an electronic device including a first member and a second member displaceably provided with respect to the first member and having an operation unit,
A detection process of detecting a displacement amount of the second member with respect to the first member;
A control process of performing a process based on an input to the operation unit, and causing the processor to execute,
The control process executes a process based on an input to the operation unit when the displacement amount detected in the detection process when an input is made to the operation unit is equal to or less than a reference value, and the operation unit A program that does not execute the process based on the input to the operation unit when the displacement amount detected by the detection process when the input to the operation unit is larger than a reference value .
JP2017195512A 2017-10-05 2017-10-05 Electronic devices and programs Active JP6686996B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017195512A JP6686996B2 (en) 2017-10-05 2017-10-05 Electronic devices and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017195512A JP6686996B2 (en) 2017-10-05 2017-10-05 Electronic devices and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013172458A Division JP6221504B2 (en) 2013-08-22 2013-08-22 Electronic equipment and programs

Publications (2)

Publication Number Publication Date
JP2018010695A JP2018010695A (en) 2018-01-18
JP6686996B2 true JP6686996B2 (en) 2020-04-22

Family

ID=60993834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017195512A Active JP6686996B2 (en) 2017-10-05 2017-10-05 Electronic devices and programs

Country Status (1)

Country Link
JP (1) JP6686996B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008160619A (en) * 2006-12-26 2008-07-10 Kyocera Mita Corp Image forming apparatus, and display panel control program
JP4600501B2 (en) * 2008-03-26 2010-12-15 ブラザー工業株式会社 Image processing device
JP4626685B2 (en) * 2008-07-31 2011-02-09 ブラザー工業株式会社 Input device and multifunction peripheral device
JP2010171703A (en) * 2009-01-22 2010-08-05 Nikon Corp Image recording apparatus
JP5800361B2 (en) * 2011-12-14 2015-10-28 アルパイン株式会社 Display control device and display device using the same

Also Published As

Publication number Publication date
JP2018010695A (en) 2018-01-18

Similar Documents

Publication Publication Date Title
KR101968054B1 (en) Image capturing apparatus and method
KR101719590B1 (en) Image capturing apparatus and control method thereof
JP6748582B2 (en) Imaging device, control method thereof, program, and recording medium
CN104349051B (en) The control method of object detection device and object detection device
JP5970937B2 (en) Display control apparatus and display control method
EP2688283B1 (en) Dynamic region of interest adaptation and image capture device providing same
US9036073B2 (en) Imaging apparatus and for controlling an automatic focus (AF) area and an enlargement area in a live view
US20120113056A1 (en) Input device, input method, and computer readable storage device
JP5251779B2 (en) Portable electronic device, control method, program, imaging system
CN103716533B (en) Camera head and the control method of camera head
JP5709816B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
CN107517345A (en) Shooting preview method and capture apparatus
JP5765594B2 (en) Imaging apparatus and method, and program
US8872955B2 (en) Digital photographing apparatus and method of controlling the same
JP6686996B2 (en) Electronic devices and programs
JP6221504B2 (en) Electronic equipment and programs
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP4368106B2 (en) Imaging apparatus and method, and program
JP2015036845A (en) Electronic device and program
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP2018031981A (en) Imaging device and control method of the same
JP6393296B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, IMAGING CONTROL DEVICE, PROGRAM, AND STORAGE MEDIUM
JP2012019321A (en) Imaging apparatus, control method thereof, program, and storage medium
JP6708516B2 (en) Electronic device, control method thereof, and program
JP6069922B2 (en) Electronic apparatus, imaging apparatus, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R150 Certificate of patent or registration of utility model

Ref document number: 6686996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250