JP6708516B2 - Electronic device, control method thereof, and program - Google Patents

Electronic device, control method thereof, and program Download PDF

Info

Publication number
JP6708516B2
JP6708516B2 JP2016154792A JP2016154792A JP6708516B2 JP 6708516 B2 JP6708516 B2 JP 6708516B2 JP 2016154792 A JP2016154792 A JP 2016154792A JP 2016154792 A JP2016154792 A JP 2016154792A JP 6708516 B2 JP6708516 B2 JP 6708516B2
Authority
JP
Japan
Prior art keywords
distance
touch
range
finder
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016154792A
Other languages
Japanese (ja)
Other versions
JP2018023068A (en
Inventor
拓人 鈴木
拓人 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016154792A priority Critical patent/JP6708516B2/en
Publication of JP2018023068A publication Critical patent/JP2018023068A/en
Application granted granted Critical
Publication of JP6708516B2 publication Critical patent/JP6708516B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Viewfinders (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、電子装置、その制御方法、プログラムおよび記録媒体に関する。 The present invention relates to an electronic device, a control method thereof, a program, and a recording medium.

電子装置の一例である撮像装置には、構図を確認するための光学ファインダや電子ビューファインダとは別に、撮影した画像を確認するための背面ディスプレイが設けられているものがある。また、背面ディスプレイには、ユーザが撮像モードを選択したり各種設定をしたりするためにタッチパネルが設けられているものがある。
このような撮像装置を用いて、ユーザがファインダを覗きながら撮影する場合、カメラの背面タッチパネルにユーザの顔の一部が接触してしまい、タッチパネルがユーザの意図しない接触を検出してしまうことがあった。
特許文献1に開示された撮像装置は、予め登録されている、光学ファインダを覗く眼の情報からタッチパネルのうち接触による入力が可能な入力可能領域を設定し、入力可能領域以外への接触に応じた動作を行わないようにした技術が開示されている。
2. Description of the Related Art An image pickup apparatus, which is an example of an electronic apparatus, includes a rear display for confirming a photographed image, in addition to an optical finder and an electronic viewfinder for confirming composition. Further, some rear displays are provided with a touch panel for the user to select an imaging mode and make various settings.
When a user takes a picture while looking through a finder using such an imaging device, a part of the user's face may come into contact with the rear touch panel of the camera, and the touch panel may detect a touch that the user does not intend. there were.
The imaging device disclosed in Patent Document 1 sets an inputtable area in the touch panel that allows input by touching, based on preregistered eye information looking into the optical viewfinder, and responds to a touch other than the inputtable area. A technique is disclosed in which such an operation is not performed.

特開2009−260681号公報JP, 2009-260681, A

しかしながら、特許文献1の撮像装置では、ファインダに接眼したときに入力可能領域を一律な範囲に設定してしまうために、顔の一部が接触するほど接眼しないユーザにとっては、タッチによる入力可能領域が制限され、操作性が悪くなってしまう。
本発明は上述したような問題点に鑑みてなされたものであり、ファインダに接眼したときの操作性を向上させることを目的とする。
However, in the imaging device of Patent Document 1, since the inputtable area is set to a uniform range when the eyepiece is in contact with the finder, for a user who does not contact the eye such that a part of the face touches, the inputtable area by touch Is restricted, and the operability deteriorates.
The present invention has been made in view of the above-mentioned problems, and an object thereof is to improve operability when an eyepiece is attached to a finder.

本発明の電子装置は、ファインダと、前記ファインダに対する物体の近接を検知する検知手段と、前記ファインダと異なる位置に配置される表示手段と、前記表示手段に対するタッチ操作を検出するタッチ検出手段と、前記検知手段によって検知される物体が前記ファインダに対して第1の距離である場合には前記表示手段を表示状態とし、前記検知手段によって検知される物体が前記ファインダに対して前記第1の距離よりも近い第2の距離である場合には、前記表示手段を非表示、または、前記第1の距離の場合に比べて前記表示手段の輝度を低減した状態で、前記タッチ操作の有効範囲を第1の範囲とし、前記検知手段によって検知される物体が前記ファインダに対して前記第2の距離よりも近い第3の距離である場合には、前記表示手段を非表示、または、前記第1の距離の場合に比べて前記表示手段の輝度を低減した状態で、かつ、前記タッチ操作の有効範囲を前記第1の範囲よりも小さい第2の範囲とするようにし、前記物体が前記ファインダに対して前記第3の距離よりも近い第4の距離の場合には前記タッチ操作の有効範囲を前記第2の範囲よりも小さい第3の範囲にするように制御する制御手段と、を有する。 The electronic device of the present invention includes a finder, a detection unit that detects the proximity of an object to the finder, a display unit that is arranged at a position different from the finder, and a touch detection unit that detects a touch operation on the display unit. When the object detected by the detecting means is at the first distance to the finder, the display means is set to the display state, and the object detected by the detecting means is at the first distance to the finder. When the second distance is shorter than that, the effective range of the touch operation is set in the state where the display means is not displayed or the brightness of the display means is reduced as compared with the case where the first distance is set. In the first range, when the object detected by the detection means is a third distance closer to the finder than the second distance, the display means is hidden or the first range is displayed. In the state in which the brightness of the display means is reduced as compared with the case of the distance, the effective range of the touch operation is set to the second range that is smaller than the first range, and the object is the finder. On the other hand, in the case of a fourth distance shorter than the third distance, there is provided control means for controlling the effective range of the touch operation to be a third range smaller than the second range. ..

本発明によれば、ファインダに接眼したときの操作性を向上させることができる。 According to the present invention, it is possible to improve the operability when the finder is in contact with the eye.

デジタルカメラの外観を示す図である。It is a figure which shows the external appearance of a digital camera. デジタルカメラの構成を示す図である。It is a figure which shows the structure of a digital camera. デジタルカメラの動作を示すフローチャートである。It is a flow chart which shows operation of a digital camera. ユーザの顔の位置に応じた有効範囲と表示状態とを示す概念図である。It is a conceptual diagram which shows the effective range and the display state according to the position of a user's face. ユーザがタッチ操作で行うことができる設定の例を示す図である。It is a figure which shows the example of the setting which a user can perform by touch operation. ユーザがタッチ操作で行うことができる設定の例を示す図である。It is a figure which shows the example of the setting which a user can perform by touch operation. 絶対位置制御について説明するための図である。It is a figure for demonstrating absolute position control. 相対位置制御について説明するための図である。It is a figure for demonstrating relative position control. ファインダを覗く眼に応じた有効範囲を示す図である。It is a figure which shows the effective range according to the eye which looks in a finder. ファインダを覗く眼が右眼か左眼かを説明するための図である。It is a figure for demonstrating whether the eye which looks in a finder is a right eye or a left eye.

以下、本発明の好適な実施形態について図面を参照して説明する。本実施形態では、電子装置の一例として撮像装置、具体的にはデジタルカメラ100を用いるものとする。
図1(a)、(b)は、デジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
デジタルカメラ100は、上面にシャッターボタン101、メイン電子ダイヤル102、モード切替スイッチ103、ファインダ外表示部104等を備える。シャッターボタン101は、撮影の準備あるいは撮影を指示するための操作部である。メイン電子ダイヤル102は、シャッター速度や絞り等の設定値を変更するための回転式の操作部である。モード切替スイッチ103は、各種モードを切替えるための操作部である。モード切替スイッチ103により静止画撮影モード、動画撮影モード等に切替えられる。ファインダ外表示部104は、シャッター速度や絞り等の様々な設定値を表示する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the present embodiment, an imaging device, specifically a digital camera 100, is used as an example of the electronic device.
1A and 1B are external views of the digital camera 100. 1A is a front perspective view of the digital camera 100, and FIG. 1B is a rear perspective view of the digital camera 100.
The digital camera 100 is provided with a shutter button 101, a main electronic dial 102, a mode changeover switch 103, a viewfinder outside display section 104, and the like on its upper surface. The shutter button 101 is an operation unit for instructing to prepare for shooting or to shoot. The main electronic dial 102 is a rotary operation unit for changing set values such as shutter speed and aperture. The mode change switch 103 is an operation unit for switching various modes. A mode change switch 103 is used to switch to a still image shooting mode, a moving image shooting mode, or the like. The out-of-view display unit 104 displays various setting values such as shutter speed and aperture.

また、デジタルカメラ100は、背面に表示部105、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113を備える。また、デジタルカメラ100は、ファインダ114、接眼検知部115等を備える。
表示部105は、画像や各種情報を表示する。表示部105は、表示手段の一例である。また、表示部105は、ライブビュー撮影においてライブビュー画像を表示したり、静止画撮影後のクイックレビュー画像を表示したり、動画記録中の画像を表示したりする。電源スイッチ106は、デジタルカメラ100の電源のオンおよびオフを切替える操作部である。サブ電子ダイヤル107は、選択枠の移動や画像送り等を行うための回転式の操作部である。十字キー108は、上下左右にそれぞれ押下可能なキー(4方向キー)であり、押下した位置に応じた操作が可能である。SETボタン109は、主に選択項目を決定するときに押下される操作部である。
The digital camera 100 also includes a display unit 105, a power switch 106, a sub electronic dial 107, a cross key 108, a SET button 109, a live view button 110, an enlarge button 111, a reduce button 112, and a play button 113 on the back surface. The digital camera 100 also includes a finder 114, an eyepiece detection unit 115, and the like.
The display unit 105 displays images and various information. The display unit 105 is an example of a display unit. In addition, the display unit 105 displays a live view image in live view shooting, a quick review image after shooting a still image, or an image being recorded as a moving image. The power switch 106 is an operation unit that switches on and off the power of the digital camera 100. The sub electronic dial 107 is a rotary operation unit for moving a selection frame, moving an image, and the like. The cross key 108 is a key (four-direction key) that can be pressed up, down, left, and right, and can be operated according to the pressed position. The SET button 109 is an operation unit that is mainly pressed when deciding a selection item.

ライブビューボタン110は、静止画撮影モードにおいてはファンダー撮影モードとライブビュー撮影モードとを切替え、動画撮影モードにおいては動画撮影(記録)の開始、停止を指示するための操作部である。拡大ボタン111は、ライブビュー画像の表示において拡大モードのオン、オフおよび拡大モード中の拡大率を変更するための操作部である。また、拡大ボタン111は、再生モードにおいて再生画像の拡大率を大きくするときに用いられる。縮小ボタン112は拡大された再生画像の拡大率を小さくし、表示された画像を縮小させるための操作部である。再生ボタン113は、撮影モードと再生モードとを切替えるためのボタンである。静止画撮影モードあるいは動画撮影モード中に再生ボタン113が押下されることで、再生モードに切替えられ、表示部105に記録媒体に記録された画像のうち最新の画像が表示される。ファインダ114は、後述するフォーカシングスクリーンを観察することで、被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。なお、ファインダ114は、光学系ファインダあるいは電子ファインダの何れであってもよい。接眼検知部115は、ファインダ114に対する物体の近接、具体的にはユーザの顔の近接を検知する。 The live view button 110 is an operation unit for switching between the finder shooting mode and the live view shooting mode in the still image shooting mode, and for instructing start and stop of moving image shooting (recording) in the moving image shooting mode. The enlargement button 111 is an operation unit for changing the enlargement mode ON/OFF and the enlargement ratio during the enlargement mode in displaying the live view image. The enlargement button 111 is used to increase the enlargement ratio of the reproduced image in the reproduction mode. The reduction button 112 is an operation unit for reducing the enlargement ratio of the enlarged reproduced image and reducing the displayed image. The playback button 113 is a button for switching between the shooting mode and the playback mode. By pressing the play button 113 in the still image shooting mode or the moving image shooting mode, the playback mode is switched to, and the latest image among the images recorded on the recording medium is displayed on the display unit 105. The finder 114 is a looking-in type finder for confirming the focus and composition of an optical image of a subject by observing a focusing screen described later. The finder 114 may be either an optical finder or an electronic finder. The eyepiece detection unit 115 detects the proximity of an object to the finder 114, specifically the proximity of the user's face.

また、デジタルカメラ100の右側にはグリップ部116、蓋部117等を備え、左側には端子カバー118等を備える。グリップ部116は、ユーザがデジタルカメラ100を構えたときに右手で握り易いように形成された保持部である。蓋部117は、記録媒体を格納するスロットを閉塞するための蓋である。端子カバー118は、外部機器の接続ケーブル等を接続するコネクタを保護するためのカバーである。
また、デジタルカメラ100の内部には、アクチュエータによってアップダウンされるクイックリターンミラー119が配置される。また、デジタルカメラ100には、着脱可能なレンズユニットと通信するための通信端子120を備える。
Further, the digital camera 100 has a grip 116, a lid 117 and the like on the right side, and a terminal cover 118 and the like on the left side. The grip portion 116 is a holding portion formed so that the user can easily hold it with the right hand when holding the digital camera 100. The lid 117 is a lid for closing a slot for storing a recording medium. The terminal cover 118 is a cover for protecting a connector that connects a connection cable or the like of an external device.
Further, a quick return mirror 119 that is moved up and down by an actuator is arranged inside the digital camera 100. The digital camera 100 also includes a communication terminal 120 for communicating with the detachable lens unit.

図2は、デジタルカメラ100の構成を示す図である。なお、図1と同一の構成は、同一符号を付してその説明を適宜、省略する。デジタルカメラ100は、着脱可能なレンズユニット201が装着される。
まず、レンズユニット201について説明する。
レンズユニット201は、絞り202、レンズ群203、絞り駆動回路204、AF(オートフォーカス)駆動回路205、レンズ制御回路206、通信端子207等を有する。絞り202は、開口径が調整可能に構成される。レンズ群203は、複数枚のレンズから構成される。絞り駆動回路204は、絞り202の開口径を制御することで光量を調整する。AF駆動回路205は、レンズ群203を駆動させて焦点を合わせる。レンズ制御回路206は、後述するシステム制御部の指示に基づいて、絞り駆動回路204、AF駆動回路205等を制御する。レンズ制御回路206は、絞り駆動回路204を介して絞り202の制御を行い、AF駆動回路205を介してレンズ群203の位置を変位させることで焦点を合わせる。レンズ制御回路206は、デジタルカメラ100との間で通信可能である。具体的には、レンズユニット201の通信端子207と、デジタルカメラ100の通信端子120とを介して通信される。
FIG. 2 is a diagram showing the configuration of the digital camera 100. The same components as those in FIG. 1 are designated by the same reference numerals and the description thereof will be appropriately omitted. A detachable lens unit 201 is attached to the digital camera 100.
First, the lens unit 201 will be described.
The lens unit 201 has an aperture 202, a lens group 203, an aperture drive circuit 204, an AF (autofocus) drive circuit 205, a lens control circuit 206, a communication terminal 207, and the like. The diaphragm 202 is configured so that the aperture diameter can be adjusted. The lens group 203 is composed of a plurality of lenses. The diaphragm driving circuit 204 adjusts the amount of light by controlling the aperture diameter of the diaphragm 202. The AF drive circuit 205 drives the lens group 203 to focus it. The lens control circuit 206 controls the diaphragm drive circuit 204, the AF drive circuit 205, etc. based on an instruction from a system control unit described later. The lens control circuit 206 controls the aperture 202 via the aperture drive circuit 204, and displaces the position of the lens group 203 via the AF drive circuit 205 to adjust the focus. The lens control circuit 206 can communicate with the digital camera 100. Specifically, communication is performed via the communication terminal 207 of the lens unit 201 and the communication terminal 120 of the digital camera 100.

次に、デジタルカメラ100について説明する。
デジタルカメラ100は、クイックリターンミラー119、フォーカシングスクリーン208、ペンタプリズム209、AE(自動露出)センサ210、焦点検出部211、ファインダ114、シャッター212、撮像部213、システム制御部214を有する。
クイックリターンミラー119(以下、ミラー119)は、露光、ライブビュー画像の表示、動画撮影をする場合に、システム制御部214の指示に基づいてアクチュエータによりアップダウンされる。ミラー119は、レンズ群203から入射した光束をファインダ114側または撮像部213側に切替える。通常の場合には、ミラー119は光束をファインダ114側に導くように配置される。一方、撮影する場合やライブビュー画像を表示する場合には、ミラー119は光束を撮像部213に導くように上方に跳ね上がり待避する(ミラーアップ)。また、ミラー119は、中央部が光の一部を透過するハーフミラーで構成され、光束の一部が焦点検出を行うための焦点検出部211に入射するように透過させる。AEセンサ210は、レンズユニット201を通した被写体の輝度を測光する。焦点検出部211は、ミラー119により透過された光束に基づいてデフォーカス量を検出する。システム制御部214はデフォーカス量に基づいてレンズユニット201を制御し、位相差AFを行う。撮影者は、ペンタプリズム209とファインダ114を介して、フォーカシングスクリーン208を観察することで、レンズユニット201を通して得た被写体の光学像の焦点や構図を確認することができる。シャッター212は、システム制御部214の指示に基づいて撮像部213の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部213は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。
Next, the digital camera 100 will be described.
The digital camera 100 includes a quick return mirror 119, a focusing screen 208, a pentaprism 209, an AE (automatic exposure) sensor 210, a focus detection unit 211, a finder 114, a shutter 212, an image pickup unit 213, and a system control unit 214.
The quick return mirror 119 (hereinafter, mirror 119) is moved up and down by an actuator based on an instruction from the system control unit 214 when exposure, live view image display, and moving image shooting are performed. The mirror 119 switches the light flux incident from the lens group 203 to the finder 114 side or the image pickup unit 213 side. In a normal case, the mirror 119 is arranged so as to guide the light beam to the finder 114 side. On the other hand, when shooting or displaying a live view image, the mirror 119 jumps upward so as to guide the light flux to the imaging unit 213 and retracts (mirror up). The mirror 119 is composed of a half mirror whose central portion transmits a part of the light, and transmits a part of the light flux so that the light flux is incident on a focus detection unit 211 for performing focus detection. The AE sensor 210 measures the brightness of the subject through the lens unit 201. The focus detection unit 211 detects the defocus amount based on the light flux transmitted by the mirror 119. The system control unit 214 controls the lens unit 201 based on the defocus amount, and performs phase difference AF. The photographer can confirm the focus and composition of the optical image of the subject obtained through the lens unit 201 by observing the focusing screen 208 via the pentaprism 209 and the finder 114. The shutter 212 is a focal plane shutter that can freely control the exposure time of the imaging unit 213 based on an instruction from the system control unit 214. The image pickup unit 213 is an image pickup device including a CCD, a CMOS device, or the like that converts an optical image into an electric signal.

また、デジタルカメラ100は、A/D変換器215、メモリ制御部216、画像処理部217、メモリ218、D/A変換器219、表示部105を有する。A/D変換器215は、撮像部213から出力されるアナログ信号をデジタル信号に変換する。画像処理部217は、A/D変換器215からのデータまたはメモリ制御部216からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部217では、撮影した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部214が露光制御、測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)処理が行われる。更に、画像処理部217では、撮影した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。 The digital camera 100 also includes an A/D converter 215, a memory control unit 216, an image processing unit 217, a memory 218, a D/A converter 219, and a display unit 105. The A/D converter 215 converts the analog signal output from the imaging unit 213 into a digital signal. The image processing unit 217 performs resizing processing such as predetermined pixel interpolation and reduction, and color conversion processing on the data from the A/D converter 215 or the data from the memory control unit 216. Further, the image processing unit 217 performs a predetermined calculation process using the captured image data, and the system control unit 214 performs exposure control and distance measurement control based on the obtained calculation result. Through this processing, AF processing, AE processing, and EF (flash pre-emission) processing of the TTL (through the lens) system are performed. Further, the image processing unit 217 performs predetermined arithmetic processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

A/D変換器215からの画像データは、画像処理部217およびメモリ制御部216を介して、または、メモリ制御部216を介してメモリ218に直接書き込まれる。メモリ218は、撮像部213によって得られA/D変換器215によりデジタルデータに変換された画像データや、表示部105に表示するための画像データを格納する。メモリ218は、所定枚数の静止画像や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。また、メモリ218は、画像表示用のメモリ(ビデオメモリ)を兼ねている。 The image data from the A/D converter 215 is directly written in the memory 218 via the image processing unit 217 and the memory control unit 216, or via the memory control unit 216. The memory 218 stores image data obtained by the image pickup unit 213 and converted into digital data by the A/D converter 215, and image data to be displayed on the display unit 105. The memory 218 has a storage capacity sufficient to store a predetermined number of still images and a moving image and sound for a predetermined time. The memory 218 also serves as a memory (video memory) for image display.

D/A変換器219は、メモリ218に格納されている表示用の画像データをアナログ信号に変換して表示部105に供給する。したがって、メモリ218に書き込まれた表示用の画像データは、D/A変換器219を介して表示部105により表示される。表示部105は、LCD等の表示器上にD/A変換器219からのアナログ信号に応じた表示を行う。A/D変換器215によって一度A/D変換されメモリ218に蓄積されたデジタル信号をD/A変換器219でアナログ変換し、表示部105に逐次転送して表示することでライブビュー画像を表示(スルー表示)でき、電子ビューファインダとして機能する。 The D/A converter 219 converts the image data for display stored in the memory 218 into an analog signal and supplies the analog signal to the display unit 105. Therefore, the image data for display written in the memory 218 is displayed on the display unit 105 via the D/A converter 219. The display unit 105 displays on an indicator such as an LCD according to the analog signal from the D/A converter 219. A digital signal once A/D converted by the A/D converter 215 and stored in the memory 218 is converted into an analog signal by the D/A converter 219, and sequentially transferred to the display unit 105 for display to display a live view image. (Through display) is possible and it functions as an electronic viewfinder.

また、デジタルカメラ100は、ファインダ内表示部220、ファインダ内表示駆動回路221、ファインダ外表示部104、ファインダ外表示駆動回路222、不揮発性メモリ223、システムメモリ224、システムタイマー225を有する。ファインダ内表示部220は、ファインダ内表示駆動回路221を介して現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコン等を表示する。ファインダ外表示部104は、ファインダ外表示駆動回路222を介してシャッター速度や絞り等の設定値を表示する。不揮発性メモリ223は、電気的に消去・記憶可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ223には、システム制御部214の動作用の定数、プログラム、閾値等が記憶される。このプログラムは、後述するフローチャートの処理を実行するためのプログラムである。 The digital camera 100 also includes a viewfinder display unit 220, a viewfinder display drive circuit 221, a viewfinder display unit 104, a viewfinder display drive circuit 222, a non-volatile memory 223, a system memory 224, and a system timer 225. The in-viewfinder display unit 220 displays a frame (AF frame) indicating a focus detection point on which autofocus is currently performed via the in-viewfinder display drive circuit 221, an icon indicating a setting state of the camera, and the like. The out-of-view display unit 104 displays setting values such as the shutter speed and the aperture via the out-of-view display drive circuit 222. The non-volatile memory 223 is a memory that can be electrically erased and stored, and for example, an EEPROM or the like is used. The non-volatile memory 223 stores constants, programs, threshold values, etc. for the operation of the system control unit 214. This program is a program for executing the processing of the flowchart described below.

システムメモリ224は、例えばRAMが用いられる。システムメモリ224には、システム制御部214の動作用の定数、変数、不揮発性メモリ223から読み出したプログラム等が展開される。システムタイマー225は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
システム制御部214は、デジタルカメラ100全体を制御する。システム制御部214は、上述した不揮発性メモリ223に記憶されたプログラムを実行することで、後述する各処理を実現する。また、システム制御部214は、メモリ218、D/A変換器219、表示部105等を制御することにより表示制御も行う。システム制御部214は、制御手段の一例である。
A RAM is used as the system memory 224, for example. In the system memory 224, constants and variables for operation of the system control unit 214, programs read from the non-volatile memory 223, and the like are expanded. The system timer 225 is a time measuring unit that measures time used for various controls and time of a built-in clock.
The system control unit 214 controls the entire digital camera 100. The system control unit 214 realizes each processing described below by executing the program stored in the nonvolatile memory 223 described above. The system control unit 214 also controls display by controlling the memory 218, the D/A converter 219, the display unit 105, and the like. The system control unit 214 is an example of control means.

また、デジタルカメラ100は、モード切替スイッチ103、第1シャッタースイッチ226、第2シャッタースイッチ227、操作部228等のシステム制御部214に各種の動作指示を入力するための操作手段を有する。
モード切替スイッチ103は、静止画撮影モード、動画撮影モードおよび再生モード等の何れかに切替えるための操作部である。システム制御部214は、モード切替スイッチ103により切替えられたモードを設定する。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ103により、上述したモードの何れかに直接切替えることができる。また、モード切替スイッチ103によりメニューボタンに一旦切替えた後に、メニューボタンに含まれる上述したモードの何れかに、他の操作部を用いて切替えてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
The digital camera 100 also has operation means for inputting various operation instructions to the system control unit 214 such as the mode changeover switch 103, the first shutter switch 226, the second shutter switch 227, and the operation unit 228.
The mode switch 103 is an operation unit for switching to any of a still image shooting mode, a moving image shooting mode, a reproduction mode, and the like. The system control unit 214 sets the mode switched by the mode switch 103. The modes included in the still image shooting mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). Further, there are various scene modes which are shooting settings for each shooting scene, a program AE mode, a custom mode, and the like. The mode switch 103 can be used to directly switch to any of the above-mentioned modes. In addition, after the menu button is once switched by the mode switch 103, the operation mode may be switched to any of the above-described modes included in the menu button by using another operation unit. Similarly, the moving image shooting mode may include a plurality of modes.

第1シャッタースイッチ226は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生させる。システム制御部214は、第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。
第2シャッタースイッチ227は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生させる。システム制御部214は、第2シャッタースイッチ信号SW2により、撮像部213からの信号読み出しから記録媒体230に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The first shutter switch 226 is turned on by a so-called half-press (shooting preparation instruction) during operation of the shutter button 101 to generate the first shutter switch signal SW1. The system control unit 214 starts operations such as AF processing, AE processing, AWB processing, and EF processing in response to the first shutter switch signal SW1.
The second shutter switch 227 is turned on when the operation of the shutter button 101 is completed, so-called full-pressing (imaging instruction), and generates the second shutter switch signal SW2. By the second shutter switch signal SW2, the system control unit 214 starts a series of photographing processing operations from signal reading from the image pickup unit 213 to writing image data in the recording medium 230.

操作部228は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部228は、表示部105に表示される種々の機能アイコンを選択操作すること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押下されると各種の設定可能なメニュー画面が表示部105に表示される。ユーザは表示部105に表示されたメニュー画面と、十字キー108やSETボタン109とを用いて直感的に各種設定を行うことができる。操作部228は例えば、シャッターボタン101、メイン電子ダイヤル102、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113が含まれる。 The operation unit 228 is various operation members as an input unit that receives an operation from a user. The operation unit 228 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit 105, and functions as various function buttons. The function buttons include, for example, an end button, a return button, an image advance button, a jump button, a narrow-down button, an attribute change button, and the like. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 105. The user can intuitively perform various settings by using the menu screen displayed on the display unit 105, the cross key 108, and the SET button 109. The operation unit 228 includes, for example, a shutter button 101, a main electronic dial 102, a power switch 106, a sub electronic dial 107, a cross key 108, a SET button 109, a live view button 110, an enlarge button 111, a reduce button 112, and a play button 113. Be done.

なお、操作部228の一つとして、表示部105に対する接触を検出可能なタッチパネル229を有する。タッチパネル229は、タッチ検出手段の一例である。タッチパネル229と表示部105とは一体的に構成することができる。例えば、光の透過率が表示部105の表示を妨げないように、タッチパネル229を表示部105の表示面の上層に取り付ける。そして、タッチパネル229における入力座標と、表示部105上の表示座標とを対応付けることで、恰もユーザが表示部105上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成することができる。タッチパネル229は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。また、方式によって、タッチパネル229に対する接触があったことでタッチがあったと検出する方式や、タッチパネル229に対する指やペンの接近があったことでタッチがあったと検出する方式があるが、何れの方式であってもよい。 Note that a touch panel 229 that can detect contact with the display portion 105 is provided as one of the operation portions 228. The touch panel 229 is an example of a touch detection unit. The touch panel 229 and the display unit 105 can be integrally configured. For example, the touch panel 229 is attached to the upper layer of the display surface of the display unit 105 so that the light transmittance does not hinder the display of the display unit 105. Then, by associating the input coordinates on the touch panel 229 with the display coordinates on the display unit 105, a GUI (graphical user) as if the user can directly operate the screen displayed on the display unit 105. Interface) can be configured. The touch panel 229 can use any one of various methods such as a resistance film method, an electrostatic capacity method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. Depending on the method, there is a method of detecting that there is a touch due to the touch on the touch panel 229, and a method of detecting that there is a touch due to the approach of the finger or pen to the touch panel 229. May be

システム制御部214はタッチパネル229に対する以下の操作、あるいは状態を検出できる。
(1)タッチパネル229にタッチしていなかった指やペンが新たにタッチパネル229にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)という)。
(2)タッチパネル229を指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)という)。
(3)タッチパネル229を指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)という)。
(4)タッチパネル229へタッチしていた指やペンを離したこと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)という)。
(5)タッチパネル229に何もタッチしていない状態(以下、タッチオフ(Touch−Off)という)。
(6)タッチパネル229には接触していないが、タッチパネル229へ指やペンが近接している状態であること(以下、ホバー(Hover)という)。
なお、タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
The system control unit 214 can detect the following operations or states on the touch panel 229.
(1) A finger or pen that has not touched the touch panel 229 newly touches the touch panel 229, that is, the touch is started (hereinafter referred to as touch-down).
(2) The touch panel 229 is in a state of being touched with a finger or a pen (hereinafter, referred to as touch-on).
(3) The touch panel 229 is being moved while being touched with a finger or a pen (hereinafter, referred to as Touch-Move).
(4) Release of the finger or pen touching the touch panel 229, that is, the end of the touch (hereinafter referred to as touch-up).
(5) A state in which nothing is touched on the touch panel 229 (hereinafter referred to as touch-off).
(6) The touch panel 229 is not in contact with the touch panel 229, but a finger or a pen is in proximity to the touch panel 229 (hereinafter, referred to as “hover”).
When the touchdown is detected, it is also detected that the touch is on. After touchdown, touchon is normally detected unless touchup is detected. A touch move is also detected when touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position moves. After it is detected that all the touched fingers or pens have touched up, the touch is turned off.

上述した操作・状態やタッチパネル229上に指やペンがタッチしている座標は内部バスを通じてシステム制御部214に通知される。システム制御部214は通知された情報に基づいてタッチパネル229上でどのような操作が行なわれたかを判定する。タッチムーブについては、システム制御部214はタッチパネル229上で移動する指やペンの移動方向を座標の変化に基づいて、タッチパネル229上の垂直成分・水平成分毎に判定できる。また、タッチパネル229上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル229上に指をタッチしたまま、ある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル229上を指ではじくように素早くなぞる操作である。システム制御部214は所定距離以上を所定速度以上でタッチムーブしたことを検出し、そのままタッチアップが検出されるとフリックが行なわれたと判定する。また、システム制御部214は、所定距離以上、所定速度未満でタッチムーブしたことを検出した場合はドラッグが行なわれたと判定する。 The system control unit 214 is notified of the above-described operation/state and the coordinates of the finger or pen touching the touch panel 229 through the internal bus. The system control unit 214 determines what operation is performed on the touch panel 229 based on the notified information. Regarding the touch move, the system control unit 214 can determine the moving direction of the finger or pen moving on the touch panel 229 for each vertical component/horizontal component on the touch panel 229 based on the change in the coordinates. In addition, it is assumed that a stroke is drawn when the touch panel 229 is touched down, touched up through a certain touch move, and then touched up. The operation to draw a stroke quickly is called flick. The flick is an operation in which a finger is quickly touched on the touch panel 229, quickly moved by a certain distance, and then released, in other words, an operation of quickly tracing the touch panel 229 with a finger. The system control unit 214 detects that a touch move has been performed for a predetermined distance or more at a predetermined speed or more, and if the touch-up is detected as it is, it is determined that the flick is performed. Further, the system control unit 214 determines that the drag is performed when it is detected that the touch move is performed at a predetermined distance or more and less than the predetermined speed.

また、デジタルカメラ100は、電源制御部231、電源部232、記録媒体I/F233、通信部234、姿勢検知部235、接眼検知部115等を有する。電源制御部231は、電池検出回路、DC−DCコンバータ、通電するブロックを切替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部231は、その検出結果およびシステム制御部214の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体230を含む各部へ供給する。電源部232は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F233は、メモリカードやハードディスク等の記録媒体230とのインターフェースである。記録媒体230は、撮影された画像を記憶するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。通信部234は、デジタルカメラ100を無線または有線ケーブルによって外部機器に接続し、映像信号や音声信号の送受信を行う。また、通信部234は、撮像部213で撮影した画像(ライブビュー画像を含む)や、記録媒体230に記憶された画像を送信したり、外部機器から画像データやその他の各種情報を受信したりすることができる。なお、通信部234は、無線LAN(Local Area Network)やインターネットとも接続可能である。姿勢検知部235は、重力方向に対するデジタルカメラ100の姿勢を検知する。システム制御部214は、姿勢検知部235により検知された姿勢に基づいて、撮像部213で撮影された画像がデジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるか判別することができる。なお、システム制御部214は、姿勢検知部235で検知された姿勢に応じた向き情報を、撮像部213で撮像された画像データに付加したり、画像を回転して記憶したりすることができる。姿勢検知部235には加速度センサやジャイロセンサ等を用いることができる。 The digital camera 100 also includes a power supply control unit 231, a power supply unit 232, a recording medium I/F 233, a communication unit 234, a posture detection unit 235, and an eyepiece detection unit 115. The power supply control unit 231 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches blocks to be energized, and the like, and detects whether or not the battery is mounted, the type of battery, and the remaining battery level. Further, the power supply control unit 231 controls the DC-DC converter based on the detection result and the instruction of the system control unit 214, and supplies a necessary voltage to each unit including the recording medium 230 for a necessary period. The power supply unit 232 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, a Li battery, an AC adapter, or the like. The recording medium I/F 233 is an interface with the recording medium 230 such as a memory card or a hard disk. The recording medium 230 is a recording medium such as a memory card for storing captured images, and is composed of a semiconductor memory, a magnetic disk, or the like. The communication unit 234 connects the digital camera 100 to an external device by a wireless or wired cable and transmits/receives a video signal and an audio signal. The communication unit 234 also transmits an image (including a live view image) captured by the image capturing unit 213, an image stored in the recording medium 230, and receives image data and various other information from an external device. can do. The communication unit 234 can also be connected to a wireless LAN (Local Area Network) or the Internet. The posture detection unit 235 detects the posture of the digital camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 235, the system control unit 214 determines whether the image photographed by the image pickup unit 213 is the image photographed with the digital camera 100 horizontally or vertically. It is possible to discriminate whether or not it is an image. The system control unit 214 can add orientation information corresponding to the orientation detected by the orientation detection unit 235 to the image data captured by the imaging unit 213, or can rotate and store the image. .. An acceleration sensor, a gyro sensor, or the like can be used as the attitude detection unit 235.

接眼検知部115は、ファインダ114の周囲に配置される。本実施形態の接眼検知部115は、ユーザの顔がファインダ114に近接しているか否か、具体的にはファインダ114からユーザの顔までの距離を検知する。接眼検知部115は、例えば赤外線近接センサを用いることができ、ファインダ114への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部115の投光部(図示せず)から投光した赤外線が反射して赤外線近接センサの受光部(図示せず)に受光される。受光された赤外線の量によって、物体が接眼部からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部115は、ファインダ114への物体の近接距離を検知する接眼検知を行う。非接眼状態から、ファインダ114に対して所定距離以内に近づく物体が検出された場合に、接眼がされたと検出するものとする。接眼状態から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていても良い。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサは一例であって、接眼検知部115には、ユーザの接眼とみなせる接近を検知できるものであれば他のセンサを採用してもよい。
接眼検知部115は検知した情報をシステム制御部214に通知し、システム制御部214は接眼検知部115により検知された情報に基づいてタッチパネル229の有効範囲を制御することでファインダ114に接眼したときの操作性を向上させることができる。
以下、具体的にシステム制御部214がタッチパネル229の有効範囲を制御する処理について説明する。
The eyepiece detection unit 115 is arranged around the finder 114. The eyepiece detection unit 115 of the present embodiment detects whether or not the user's face is close to the finder 114, specifically, the distance from the finder 114 to the user's face. The eyepiece detection unit 115 can use, for example, an infrared proximity sensor and can detect the approach of any object to the finder 114. When an object approaches, the infrared light projected from the light projecting unit (not shown) of the eyepiece detection unit 115 is reflected and received by the light receiving unit (not shown) of the infrared proximity sensor. The distance from the eyepiece portion to the object (eyepiece distance) can also be determined by the amount of infrared rays received. In this way, the eyepiece detection unit 115 performs eyepiece detection for detecting the proximity distance of the object to the finder 114. When an object approaching the finder 114 within a predetermined distance is detected in the non-eyepiece state, it is assumed that the eyepiece is detected. It is assumed that it is detected that the object has been detached from the eye contact state when the object whose approach has been detected is separated by a predetermined distance or more. The threshold value for detecting eye contact and the threshold value for detecting eye contact may be different, for example, by providing hysteresis. Further, after detecting the eyepiece, the eyepiece state is assumed until the eyepiece is detected. After detecting the eye separation, it is assumed that the eye is not in the eye contact state until the eye contact is detected. Note that the infrared proximity sensor is an example, and the eyepiece detection unit 115 may employ another sensor as long as it can detect the approach that can be regarded as the eyepiece of the user.
The eyepiece detection unit 115 notifies the system control unit 214 of the detected information, and the system control unit 214 controls the effective range of the touch panel 229 based on the information detected by the eyepiece detection unit 115 so that the viewfinder 114 is contacted with the eye. The operability of can be improved.
Hereinafter, a process in which the system control unit 214 specifically controls the effective range of the touch panel 229 will be described.

ここでは、デジタルカメラ100の動作について図3のフローチャートを参照して説明する。なお、図3のフローチャートの処理は、不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開してシステム制御部214が実行することで実現する。
S300では、システム制御部214は電源スイッチ106がオンに切替えられる操作に応じて電源制御部231を介してデジタルカメラ100に電源を投入する。
S301では、システム制御部214はタッチパネル229のタッチ操作の有効範囲を、タッチパネル229の全面に設定する。タッチパネル229の有効範囲を全面に設定することで、システム制御部214はタッチパネル229の全面においてユーザのタッチ操作を検出することができる。
Here, the operation of the digital camera 100 will be described with reference to the flowchart of FIG. The process of the flowchart in FIG. 3 is realized by expanding the program stored in the non-volatile memory 223 into the system memory 224 and executing it by the system control unit 214.
In step S300, the system control unit 214 turns on the power of the digital camera 100 via the power control unit 231 in response to the operation of turning on the power switch 106.
In S301, the system control unit 214 sets the effective range of the touch operation on the touch panel 229 on the entire surface of the touch panel 229. By setting the effective range of the touch panel 229 on the entire surface, the system control unit 214 can detect the touch operation of the user on the entire surface of the touch panel 229.

S302では、システム制御部214はタッチパネル229のタッチ操作の制御を絶対位置に基づく制御に設定する。絶対位置に基づく制御では、タッチパネル229上のタッチ位置(タッチ座標)と、ファインダ内表示部220の表示座標とを一意に対応付けた制御である。また、相対位置に基づく制御とは、タッチパネル229上のタッチ位置(タッチ座標)と、ファインダ内表示部220の表示座標(指示座標)とを一意に対応付けない制御であり、タッチ位置の移動方向と移動量に応じて、ファインダ内表示部220における指示座標を相対的に移動させる制御である。この絶対位置に基づく制御と相対位置に基づく制御との詳細については後述する。
S303では、システム制御部214は接眼検知部115により検知されている情報を取得する。ここで、接眼検知部115はファインダ114に近接している物体の距離、具体的にはファインダ114からユーザの顔までの距離に対応する出力値Sを出力する。すなわち、システム制御部214は接眼検知部115から出力値Sを取得する。
なお、本実施形態の出力値Sは、検知する物体までの距離が遠いほど小さい値で出力され、物体までの距離が近いほど大きい値で出力される。
In S302, the system control unit 214 sets the control of the touch operation on the touch panel 229 to the control based on the absolute position. The control based on the absolute position is a control in which a touch position (touch coordinates) on the touch panel 229 and a display coordinate of the in-finder display unit 220 are uniquely associated with each other. Further, the control based on the relative position is a control that does not uniquely associate the touch position (touch coordinates) on the touch panel 229 and the display coordinates (instruction coordinates) of the in-finder display unit 220, and the moving direction of the touch position. And the designated coordinates in the viewfinder display section 220 are relatively moved according to the movement amount. Details of the control based on the absolute position and the control based on the relative position will be described later.
In S303, the system control unit 214 acquires the information detected by the eyepiece detection unit 115. Here, the eyepiece detection unit 115 outputs the output value S corresponding to the distance of the object close to the finder 114, specifically, the distance from the finder 114 to the user's face. That is, the system control unit 214 acquires the output value S from the eyepiece detection unit 115.
It should be noted that the output value S of the present embodiment is output as a smaller value as the distance to the object to be detected is longer, and as a larger value as the distance to the object is shorter.

S304では、システム制御部214は取得した出力値Sが第1閾値以上であるか否かを判定する。ここで、第1閾値は、例えばユーザが表示部105を視認する場合に表示内容全体を把握するのが難しい程度にファインダ114に近接している距離に相当する。第1閾値は、経験的あるいは実験的に算出することができ、予め不揮発性メモリ223に記憶されている。ここでは、第1閾値に対応する距離をL1としている。
出力値Sが第1閾値よりも小さい場合、すなわちユーザの顔が距離L1よりも離れている場合にはS303に戻り、システム制御部214は再び出力値Sを取得し、第1閾値以上になるまで処理を継続する。したがって、タッチパネル229の有効範囲はS301で設定した全面の状態のままである。一方、出力値Sが第1閾値以上の場合、すなわちユーザの顔が距離L1以下である場合にはS305に進む。
In S304, the system control unit 214 determines whether the acquired output value S is greater than or equal to the first threshold value. Here, the first threshold value corresponds to a distance that is close to the finder 114 such that it is difficult for the user to grasp the entire display content when the display unit 105 is visually recognized. The first threshold can be calculated empirically or experimentally, and is stored in the nonvolatile memory 223 in advance. Here, the distance corresponding to the first threshold is L1.
When the output value S is smaller than the first threshold value, that is, when the user's face is more than the distance L1, the process returns to S303, and the system control unit 214 acquires the output value S again and becomes equal to or larger than the first threshold value. Continue processing until. Therefore, the effective range of the touch panel 229 remains the state of the entire surface set in S301. On the other hand, if the output value S is greater than or equal to the first threshold, that is, if the user's face is less than or equal to the distance L1, the process proceeds to S305.

S305では、システム制御部214は表示部105を非表示にしたり、表示部105のバックライトの輝度を低減したりする制御を行う。ここで、出力値Sが第1閾値以上であるとしてS305に進む場合とは、ユーザの顔が表示部105の表示内容全体を把握することが難しいほどファインダ114に近接していることを意味する。したがって、ユーザが表示部105の表示内容を確認する意図はないと推定でき、S305ではシステム制御部214は消費電力の低減および眩しさの防止を図るために表示部105を制御する。なお、以下では、表示部105を非表示にするものとして説明する。
ここで、図4は、ユーザの顔の位置と、タッチパネルの有効範囲と、表示部105の表示状態との関係を示す概念図である。
図4(a)は、出力値Sが第1閾値未満の場合、すなわちユーザの顔が距離L1より離れている場合の概念図である。図4(a)では、タッチパネル229の有効範囲が全面に設定され、表示部105には例えばライブビュー画像が表示されている。
図4(b)は、出力値Sが第1閾値以上である場合、すなわちユーザの顔が距離L1以下の場合の概念図である。図4(b)では、タッチパネル229の有効範囲が継続して全面に設定され、表示部105が非表示になっている。
In step S<b>305, the system control unit 214 performs control such that the display unit 105 is hidden and the brightness of the backlight of the display unit 105 is reduced. Here, when the output value S is equal to or larger than the first threshold value and the process proceeds to S305, it means that the face of the user is so close to the finder 114 that it is difficult to grasp the entire display content of the display unit 105. .. Therefore, it can be estimated that the user does not intend to confirm the display content of the display unit 105, and in S305, the system control unit 214 controls the display unit 105 in order to reduce power consumption and prevent glare. In the following description, it is assumed that the display unit 105 is hidden.
Here, FIG. 4 is a conceptual diagram showing the relationship between the position of the user's face, the effective range of the touch panel, and the display state of the display unit 105.
FIG. 4A is a conceptual diagram when the output value S is less than the first threshold value, that is, when the user's face is more than the distance L1. In FIG. 4A, the effective range of the touch panel 229 is set on the entire surface, and the live view image is displayed on the display unit 105, for example.
FIG. 4B is a conceptual diagram when the output value S is greater than or equal to the first threshold value, that is, when the user's face is less than or equal to the distance L1. In FIG. 4B, the effective range of the touch panel 229 is continuously set to the entire surface, and the display unit 105 is hidden.

S306では、システム制御部214はタッチ操作による操作モードを変更する。
具体的には、システム制御部214はタッチ操作により設定できる撮影に関する設定のうち、1つまたは複数の設定ができないように操作モードを変更する。
ここで、図5(a)〜(d)は出力値Sが第1閾値未満の場合、すなわちユーザの顔が距離L1よりも離れている場合にユーザがタッチ操作で行うことができる設定の例を示す図である。図5(a)〜(d)はそれぞれ表示部105に表示される、絞り値の設定、シャッター速度の設定、露出の設定、ISO感度の設定の画面である。ここでは、ユーザは表示部105に表示される設定の全てをタッチ操作で行うことができる。
In S306, the system control unit 214 changes the operation mode by the touch operation.
Specifically, the system control unit 214 changes the operation mode so that one or a plurality of settings related to shooting that can be set by touch operation cannot be set.
Here, FIGS. 5A to 5D are examples of settings that the user can perform by touch operation when the output value S is less than the first threshold value, that is, when the user's face is more than the distance L1. FIG. 5A to 5D are screens of aperture value setting, shutter speed setting, exposure setting, and ISO sensitivity setting, which are displayed on the display unit 105. Here, the user can perform all the settings displayed on the display unit 105 by touch operation.

図6(a)、(b)は出力値Sが第1閾値以上の場合、すなわちユーザの顔が距離L1以下である場合であってもユーザがタッチ操作で行うことができる設定の例を示す図である。図6(a)、(b)はそれぞれファインダ内表示部220に表示される、測距点の設定、選択枠の設定の画面である。ユーザはタッチパネル229を介したタッチ操作により測距点601を移動する設定、検出されている顔を選択する選択枠602を移動する設定を行うことができる。一方、ユーザは上述した、絞り値の設定、シャッター速度の設定、露出の設定、ISO感度の設定を行うことができない。ここで、制限される設定としては、例えばファインダ114に光学系ファインダを用いているために、ファインダ内表示部220では表示できない設定等が挙げられる。なお、出力値Sが第1閾値以上の場合に制限される設定の情報は、不揮発性メモリ223に記憶されている。したがって、システム制御部214は記憶された情報に基づいて設定を制限する。ただし、ユーザが制限する設定の情報を任意に登録することにより、システム制御部214が登録された設定の情報に基づいて設定を制限できるように構成してもよい。 FIGS. 6A and 6B show examples of settings that the user can perform by touch operation even when the output value S is greater than or equal to the first threshold, that is, when the user's face is less than or equal to the distance L1. It is a figure. FIGS. 6A and 6B are screens for setting focus detection points and selection frames, which are displayed on the in-finder display unit 220, respectively. The user can perform a setting to move the focus detection point 601 and a setting to move the selection frame 602 for selecting the detected face by a touch operation via the touch panel 229. On the other hand, the user cannot set the aperture value, shutter speed, exposure, and ISO sensitivity as described above. Here, examples of the restricted settings include settings that cannot be displayed on the in-finder display section 220 because an optical system finder is used for the finder 114. The setting information that is limited when the output value S is equal to or larger than the first threshold value is stored in the non-volatile memory 223. Therefore, the system control unit 214 limits the setting based on the stored information. However, the system control unit 214 may be configured to be able to restrict the setting based on the registered setting information by arbitrarily registering the setting information restricted by the user.

また、システム制御部214はタッチ操作により表示アイテムを移動させるときの移動距離が異なるように操作モードを変更する。ここで、図6(a)に示す測距点601を移動させるためのタッチ操作として距離mのタッチムーブを検出した場合を例にして説明する。出力値Sが第1閾値未満の場合、システム制御部214は距離mのタッチムーブを検出した場合には測距点601から距離tである測距点603を選択するように表示する。一方、出力値Sが第1閾値以上の場合、システム制御部214は同じ距離mのタッチムーブを検出したとしても測距点601から距離2tである測距点604を選択するように表示する。
このように、システム制御部214はタッチ操作で同じ距離を検出した場合でも、表示アイテムを移動させる移動距離が大きくなるように操作モードを変更する。したがって、表示部105にユーザの顔が近接し、タッチパネル229に対して指を動かし難い状態であっても、表示アイテムの移動距離を大きくすることでタッチ操作の操作性を向上させることができる。
In addition, the system control unit 214 changes the operation mode so that the movement distance when moving the display item by the touch operation is different. Here, a case where a touch move of a distance m is detected as a touch operation for moving the distance measuring point 601 shown in FIG. 6A will be described as an example. When the output value S is less than the first threshold value, the system control unit 214 causes the distance measuring point 601 to select the distance measuring point 603 from the distance measuring point 601 when the touch move of the distance m is detected. On the other hand, when the output value S is greater than or equal to the first threshold value, the system control unit 214 causes the distance measuring point 601 to select the distance measuring point 604 that is 2t even if the touch move of the same distance m is detected.
In this way, the system control unit 214 changes the operation mode so that the movement distance for moving the display item is increased even when the same distance is detected by the touch operation. Therefore, even when the user's face is close to the display unit 105 and it is difficult to move the finger on the touch panel 229, the operability of the touch operation can be improved by increasing the moving distance of the display item.

S307では、システム制御部214はタッチ操作に基づく制御を変更する。具体的には、システム制御部214はタッチ操作に基づく制御を絶対位置に基づく制御(以下、絶対位置制御)から相対位置に基づく制御(以下、相対位置制御)に変更する。
以下では、図7Aおよび図7Bを参照して、測距点の位置を移動させるタッチ操作を例にして、絶対位置制御および相対位置制御について説明する。
図7Aは、絶対位置制御の一例を示す図である。ここで、図7A(a)がファインダ内表示部220を示し、図7A(b)がタッチパネル229におけるタッチ操作を示している。
まず、図7A(a)の測距点701が選択されていたものとする。次に、図7A(b)に示すようにユーザがタッチパネル229上を指702でタッチダウンしたものとする。この場合、システム制御部214はタッチダウンした指702の座標をタッチパネル229から取得し、取得した座標に対応する位置である図7A(a)の測距点703を選択するように表示する。このように、絶対位置制御では、タッチダウンしたタッチ位置に基づいて、測距点703が対応するタッチ位置に移動する。すなわち、タッチの開始が検出された際のタッチ位置に対応する処理(測距点703の移動)を行う。次に、図7A(b)に示すようにユーザがタッチパネル229上をタッチダウンした位置から指704までタッチムーブしたとする。この場合、システム制御部214は指704の座標をタッチパネル229から取得し、取得した座標に対応する位置である図7A(a)の測距点705を選択するように表示する。
したがって、絶対位置制御とは、タッチパネル229上のタッチ操作の座標を反映させた処理を行う制御をいう。
In S307, the system control unit 214 changes the control based on the touch operation. Specifically, the system control unit 214 changes the control based on the touch operation from the control based on the absolute position (hereinafter, absolute position control) to the control based on the relative position (hereinafter, relative position control).
Hereinafter, the absolute position control and the relative position control will be described with reference to FIGS. 7A and 7B by taking a touch operation for moving the position of the focus detection point as an example.
FIG. 7A is a diagram showing an example of absolute position control. Here, FIG. 7A (a) shows the in-finder display section 220, and FIG. 7A (b) shows a touch operation on the touch panel 229.
First, it is assumed that the distance measuring point 701 in FIG. 7A(a) has been selected. Next, it is assumed that the user touches down on touch panel 229 with finger 702 as shown in FIG. 7A(b). In this case, the system control unit 214 acquires the coordinates of the finger 702 touched down from the touch panel 229, and displays it so as to select the distance measuring point 703 in FIG. 7A(a), which is the position corresponding to the acquired coordinates. As described above, in the absolute position control, the distance measuring point 703 moves to the corresponding touch position based on the touched-down touch position. That is, the process (movement of the distance measuring point 703) corresponding to the touch position when the start of the touch is detected is performed. Next, it is assumed that the user touch-moves from the position touched down on the touch panel 229 to the finger 704 as shown in FIG. 7A(b). In this case, the system control unit 214 acquires the coordinates of the finger 704 from the touch panel 229, and displays so as to select the distance measuring point 705 in FIG. 7A(a), which is the position corresponding to the acquired coordinates.
Therefore, the absolute position control refers to control for performing processing that reflects the coordinates of the touch operation on the touch panel 229.

図7Bは、相対位置制御の一例を示す図である。ここで、図7B(a)がファインダ内表示部220を示し、図7B(b)がタッチパネル229におけるタッチ操作を示している。
まず、図7B(a)の測距点706が選択されていたものとする。次に、図7B(b)に示すようにユーザがタッチパネル229上を指707でタッチダウンしたものとする。ここで、図7B(b)の指707の座標位置は、図7A(b)の指702の座標位置と同一であるが、システム制御部214は図7B(a)に示すように測距点706を選択された状態に維持する。すなわち、相対位置制御では、タッチダウンしただけでは、測距点703は移動しない。次に、図7B(b)に示すようにユーザがタッチパネル229上をタッチダウンした位置から指708までタッチムーブしたとする。この場合、システム制御部214はタッチダウンした位置を基準点として、指707から指708までの方向と距離とに対応する図7B(a)に示す測距点709を選択するように表示する。このように、相対位置制御では、タッチの開始が検出された際のタッチ位置に関わらず、タッチ位置の移動方向と移動距離に基づく処理を行う。
したがって、相対位置制御とは、タッチパネル229上のタッチ操作の方向と距離(少なくとも方向)を取得して、取得した方向と距離(少なくとも方向)を反映させた処理を行う制御をいう。
FIG. 7B is a diagram showing an example of relative position control. Here, FIG. 7B(a) shows the in-finder display section 220, and FIG. 7B(b) shows a touch operation on the touch panel 229.
First, it is assumed that the distance measuring point 706 in FIG. 7B(a) has been selected. Next, it is assumed that the user touches down on touch panel 229 with finger 707 as shown in FIG. 7B(b). Here, the coordinate position of the finger 707 in FIG. 7B(b) is the same as the coordinate position of the finger 702 in FIG. 7A(b), but the system control unit 214 determines the distance measurement point as shown in FIG. 7B(a). Keep 706 selected. That is, in the relative position control, the distance measuring point 703 does not move just by touching down. Next, it is assumed that the user touch-moves from the position touched down on the touch panel 229 to the finger 708 as shown in FIG. 7B(b). In this case, the system control unit 214 uses the touched-down position as a reference point to display the distance measuring point 709 shown in FIG. 7B(a) corresponding to the direction and the distance from the finger 707 to the finger 708 so as to be selected. As described above, in the relative position control, the processing based on the moving direction and the moving distance of the touch position is performed regardless of the touch position when the start of the touch is detected.
Therefore, the relative position control refers to control for acquiring the direction and the distance (at least the direction) of the touch operation on the touch panel 229 and performing the process in which the acquired direction and the distance (at least the direction) are reflected.

ここで、出力値Sが第1閾以上である場合とはユーザの顔が表示部105に近接しており、ユーザがタッチパネル229の位置を確認しながらタッチ操作をすることが難しいものと想定される。したがって、絶対位置制御から相対位置制御に変更することで、ユーザがタッチパネル229の位置を確認する必要がないことから、ユーザの顔がファインダ114に接眼したときの操作性を向上させることができる。
なお、S306においてタッチ操作で同じ距離を検出した場合でも、表示アイテムを移動させる移動距離が大きくなるように操作モードを変更されている。したがって、図7B(b)では指707から指708までの距離が図7A(b)の指702から指704までの距離よりも短いものの、図7A(a)および図7B(a)のどちらも選択される前の測距点から選択された後の測距点までの距離は同一である。
Here, when the output value S is greater than or equal to the first threshold, it is assumed that the user's face is close to the display unit 105 and it is difficult for the user to perform a touch operation while confirming the position of the touch panel 229. It Therefore, by changing from the absolute position control to the relative position control, the user does not need to confirm the position of the touch panel 229, and thus the operability when the user's face contacts the finder 114 can be improved.
Even if the same distance is detected by the touch operation in S306, the operation mode is changed so that the movement distance for moving the display item is increased. Therefore, although the distance from the finger 707 to the finger 708 in FIG. 7B(b) is shorter than the distance from the finger 702 to the finger 704 in FIG. 7A(b), both of FIGS. 7A(a) and 7B(a). The distance from the distance measuring point before being selected to the distance measuring point after being selected is the same.

S308では、システム制御部214は再び接眼検知部115により検知されている情報、すなわち出力値Sを取得する。
S309では、システム制御部214はファインダ114に対するユーザの顔までの距離を出力値Sに基づいて判定する。出力値Sが第1閾値未満の場合、すなわちユーザの顔が距離L1よりも離れている場合にはS310に進む。
S310では、システム制御部214は表示部105を再び表示させたり、輝度を増加させたりして元の表示状態に戻す。さらに、システム制御部214はタッチ操作に基づく制御を相対位置制御から絶対位置制御に変更する(戻す)。ここで、ユーザの顔が距離L1よりも離れている場合とは、ユーザが表示部105の表示内容全体を把握することができることを意味する。したがって、システム制御部214は表示部105の表示状態を元に戻して、ユーザが表示部105を確認できるようにする。また、システム制御部214はタッチパネル229のタッチ操作の有効範囲を、タッチパネル229の全面に設定する。その後、S303に戻る。
In S308, the system control unit 214 again acquires the information detected by the eyepiece detection unit 115, that is, the output value S.
In S309, the system control unit 214 determines the distance to the finder 114 to the user's face based on the output value S. When the output value S is less than the first threshold value, that is, when the user's face is more than the distance L1, the process proceeds to S310.
In S310, the system control unit 214 causes the display unit 105 to be displayed again or the brightness to be increased to restore the original display state. Further, the system control unit 214 changes (returns) the control based on the touch operation from the relative position control to the absolute position control. Here, the case where the user's face is farther than the distance L1 means that the user can grasp the entire display content of the display unit 105. Therefore, the system control unit 214 restores the display state of the display unit 105 so that the user can check the display unit 105. Further, the system control unit 214 sets the effective range of the touch operation on the touch panel 229 on the entire surface of the touch panel 229. Then, the process returns to S303.

また、S309において出力値Sが第1閾値以上であって第2閾値(第1閾値<第2閾値)未満の場合、すなわちユーザの顔が距離L1以下であって距離L2(距離L1>距離L2)よりも離れている場合にはS311に進む。ここでは、第2閾値に対応する距離をL2としている。
S311では、システム制御部214はタッチパネル229のタッチ操作の有効範囲を、全面よりも小さい範囲aに設定する。システム制御部214は設定した有効範囲の位置をシステムメモリ224に記憶する。図4(c)は、出力値Sが第1閾値以上であって第2閾値未満の場合の概念図であり、タッチパネル229の有効範囲は全面よりも小さい範囲aに設定されている。範囲aは、全面の場合に比べてタッチパネル229の一方側(左側)の僅かな範囲が欠落している。なお、範囲aの位置情報は、予め不揮発性メモリ223に記憶されている。S311の処理後にS308に戻る。
In S309, when the output value S is greater than or equal to the first threshold value and less than the second threshold value (first threshold value<second threshold value), that is, the user's face is less than or equal to the distance L1 and the distance L2 (distance L1>distance L2). If the distance is greater than ), the process proceeds to S311. Here, the distance corresponding to the second threshold is L2.
In S311, the system control unit 214 sets the effective range of the touch operation on the touch panel 229 to a range a smaller than the entire surface. The system control unit 214 stores the position of the set effective range in the system memory 224. FIG. 4C is a conceptual diagram when the output value S is greater than or equal to the first threshold value and less than the second threshold value, and the effective range of the touch panel 229 is set to a range a smaller than the entire surface. In the range a, a slight range on one side (left side) of the touch panel 229 is missing as compared with the case of the entire surface. The position information of the range a is stored in the non-volatile memory 223 in advance. It returns to S308 after the process of S311.

また、S309において出力値Sが第2閾値以上であって第3閾値(第2閾値<第3閾値)未満の場合、すなわちユーザの顔が距離L2以下であって距離L3(距離L2>距離L3)よりも離れている場合にはS312に進む。ここでは、第3閾値に対応する距離をL3としている。
S312では、システム制御部214はタッチパネル229のタッチ操作の有効範囲を、範囲aよりも小さい範囲bに設定する。システム制御部214は設定した有効範囲の位置をシステムメモリ224に記憶する。図4(d)は、出力値Sが第2閾値以上であって第3閾値未満の場合の概念図であり、タッチパネル229の有効範囲は範囲aよりも小さい範囲bに設定されている。範囲bは、範囲aよりもタッチパネル229の一方側(左側)の一部が欠落している。なお、範囲bの位置情報は、予め不揮発性メモリ223に記憶されている。なお、相対位置制御における、タッチ位置の移動に対する指示位置(測距点の指示位置、ファインダ内表示部220での指示指標の表示位置)の移動割合を、タッチ操作の有効範囲を範囲aに設定している場合(S311の場合)よりも大きくしても良い。S312の処理後にS314に進む。
If the output value S is greater than or equal to the second threshold value and less than the third threshold value (second threshold value<third threshold value) in S309, that is, the user's face is less than or equal to the distance L2 and the distance L3 (distance L2>distance L3). If the distance is larger than ), the process proceeds to S312. Here, the distance corresponding to the third threshold value is L3.
In S312, the system control unit 214 sets the effective range of the touch operation on the touch panel 229 to a range b smaller than the range a. The system control unit 214 stores the position of the set effective range in the system memory 224. FIG. 4D is a conceptual diagram when the output value S is greater than or equal to the second threshold value and less than the third threshold value, and the effective range of the touch panel 229 is set to the range b smaller than the range a. In the range b, a part of one side (left side) of the touch panel 229 is missing from the range a. The position information of the range b is stored in the nonvolatile memory 223 in advance. In the relative position control, the movement ratio of the designated position (the designated position of the distance measuring point, the display position of the designated index on the in-finder display section 220) with respect to the movement of the touch position is set to the effective range of the touch operation in the range a. It may be larger than the case (S311). It progresses to S314 after the process of S312.

また、S309において出力値Sが第3閾値以上であって第4閾値(第3閾値<第4閾値)未満の場合、すなわちユーザの顔が距離L3以下であって距離L4(距離L3>距離L4)よりも離れている場合にはS313に進む。ここでは、第4閾値に対応する距離をL4としている。
S313では、システム制御部214はタッチパネル229のタッチ操作の有効範囲を、範囲bよりも小さい範囲cに設定する。システム制御部214は設定した有効範囲の位置をシステムメモリ224に記憶する。図4(e)は、出力値Sが第3閾値以上であって第X閾値未満の場合の概念図であり、タッチパネル229の有効範囲は範囲bよりも小さい範囲cに設定されている。範囲cは、範囲bよりもタッチパネル229の一方側(左側)が大きく欠落している。なお、範囲cの位置情報は、予め不揮発性メモリ223に記憶されている。なお、相対位置制御における、タッチ位置の移動に対する指示位置(測距点の指示位置、ファインダ内表示部220での指示指標の表示位置)の移動割合を、タッチ操作の有効範囲を範囲bに設定している場合(S313の場合)よりも大きくしても良い。S313の処理後にS314に進む。
なお、上述した有効範囲の面積は、範囲a>範囲b>範囲cの関係である。また、本実施形態は、矩形状の有効範囲のうち一方側(左側)の辺を移動させることで面積が増減され、他方側(右側)の辺は固定されている。
In S309, when the output value S is greater than or equal to the third threshold value and less than the fourth threshold value (third threshold value <fourth threshold value), that is, the user's face is less than or equal to the distance L3 and the distance L4 (distance L3> distance L4). If the distance is greater than ), the process proceeds to S313. Here, the distance corresponding to the fourth threshold value is L4.
In S313, the system control unit 214 sets the effective range of the touch operation on the touch panel 229 to a range c smaller than the range b. The system control unit 214 stores the position of the set effective range in the system memory 224. FIG. 4E is a conceptual diagram when the output value S is equal to or larger than the third threshold value and smaller than the Xth threshold value, and the effective range of the touch panel 229 is set to a range c smaller than the range b. In the range c, one side (left side) of the touch panel 229 is largely missing as compared with the range b. The position information of the range c is stored in the non-volatile memory 223 in advance. Note that, in the relative position control, the movement ratio of the designated position (the designated position of the distance measuring point, the display position of the designated index on the in-finder display section 220) with respect to the movement of the touch position is set to the range b of the effective range of the touch operation. It may be larger than the case (S313). It progresses to S314 after the process of S313.
The area of the above-mentioned effective range has a relationship of range a> range b> range c. Further, in this embodiment, the area is increased or decreased by moving one side (left side) of the rectangular effective range, and the other side (right side) is fixed.

このように、システム制御部214はファインダ114からユーザの顔までの距離が遠いほどタッチパネル229のタッチ操作の有効範囲の面積が大きくなるように、距離が近いほどタッチ操作の有効範囲の面積が小さくなるように段階的に制御する。換言すると、システム制御部214はファインダ114からユーザの顔までの距離が第1の距離よりも近い第2の距離の場合にはタッチ操作の有効範囲を第1の範囲よりも小さい第2の範囲にするように制御する。 As described above, the system control unit 214 increases the area of the touch operation effective range of the touch panel 229 as the distance from the finder 114 to the user's face increases, and decreases the touch operation effective range of the touch panel 229 as the distance decreases. Control stepwise so that In other words, when the distance from the finder 114 to the user's face is the second distance that is shorter than the first distance, the system control unit 214 sets the effective range of the touch operation to the second range that is smaller than the first range. Control to.

S314では、システム制御部214はユーザの顔が接触していないが近接していること、すなわちホバーをタッチパネル229を介して検出する。ここで、S314に進む場合とは、システム制御部214がタッチパネル229を介してユーザの顔を対象としてホバーを検出できるほど、表示部105に近接していることを意味する。ここでは、S312およびS313の場合、すなわち出力値Sが第2閾値以上である場合に、S314に進むことから第2閾値はタッチパネル229を介してホバーを検出できる程度の距離に相当する。
S315では、システム制御部214はタッチパネル229からホバーの位置、すなわちユーザの顔の近接位置を取得する。
In step S<b>314, the system control unit 214 detects that the user's face is not in contact but is in close proximity, that is, the hover is detected via the touch panel 229. Here, the case of proceeding to S<b>314 means that the system control unit 214 is so close to the display unit 105 that the hover can be detected by targeting the user's face via the touch panel 229. Here, in the case of S312 and S313, that is, when the output value S is equal to or larger than the second threshold value, the process proceeds to S314, and thus the second threshold value corresponds to a distance at which the hover can be detected via the touch panel 229.
In step S315, the system control unit 214 acquires the hover position, that is, the proximity position of the user's face from the touch panel 229.

S316では、システム制御部214は取得した近接位置に応じてタッチパネル229にタッチ操作の無効範囲を設定することで、有効範囲を設定し直す。
図4(d)の概念図(出力値Sが第2閾値以上であって第3閾値未満の場合)では、タッチパネル229のうち一方側(左側)にホバーが検出され、楕円状の無効範囲Xが設定されている。ここでは、有効範囲を示す範囲bの一部に無効範囲Xが進出している。したがって、システム制御部214は有効範囲を、矩形状の有効範囲bから矩形状の一部が円状に切り欠かれた形状の範囲に設定し直す。
図4(e)の概念図(出力値Sが第3閾値以上であって第X閾値未満の場合)では、タッチパネル229のうち一方側(中央のやや左側)にホバーが検出され、楕円状の無効範囲Yが設定されている。ここでは、有効範囲を示す範囲cの一部に大きな楕円状の無効範囲Yが進出している。したがって、システム制御部214は有効範囲を、矩形状の有効範囲cから矩形状の一部が円状に大きく切り欠かれた形状の範囲に設定し直す。
このように、システム制御部214は当初設定した有効範囲を設定し直す。システム制御部214は設定し直した有効範囲の位置をシステムメモリ224に記憶する。なお、有効範囲を設定し直す方法は、矩形状の一部を円状に切り欠く場合に限られず、楕円状の無効範囲が含まないように矩形状のまま有効範囲を小さくするようにしてもよい。具体的には、図4(e)に示すように、システム制御部214は無効範囲Yの楕円の端部Zに、有効範囲の左辺(一点鎖線)が位置するように矩形状のまま有効範囲を小さくするように設定し直すことができる。
In step S316, the system control unit 214 sets the invalid range of the touch operation on the touch panel 229 according to the acquired proximity position, thereby resetting the valid range.
In the conceptual diagram of FIG. 4D (when the output value S is greater than or equal to the second threshold and less than the third threshold), the hover is detected on one side (left side) of the touch panel 229, and the elliptical invalid range X is detected. Is set. Here, the invalid range X has advanced to a part of the range b indicating the valid range. Therefore, the system control unit 214 resets the effective range from the rectangular effective range b to a range in which a part of the rectangular shape is cut out in a circular shape.
In the conceptual diagram of FIG. 4E (when the output value S is greater than or equal to the third threshold value and less than the Xth threshold value), a hover is detected on one side (slightly left side of the center) of the touch panel 229, and the ellipse shape is detected. The invalid range Y is set. Here, a large elliptical ineffective range Y extends into a part of the range c indicating the effective range. Therefore, the system control unit 214 resets the effective range to the range of the rectangular effective range c in which a part of the rectangular shape is largely cut out in a circular shape.
In this way, the system control unit 214 resets the initially set effective range. The system control unit 214 stores the re-set effective range position in the system memory 224. It should be noted that the method of resetting the effective range is not limited to the case where a part of the rectangular shape is cut out into a circular shape, and the effective range may be reduced to a rectangular shape so as not to include the elliptical invalid range. Good. Specifically, as shown in FIG. 4(e), the system control unit 214 keeps the effective range in a rectangular shape so that the left side (dotted line) of the effective range is located at the end Z of the ellipse of the ineffective range Y. Can be reconfigured to be smaller.

その後、S308に戻り、システム制御部214は撮影モードが変更されたり、電源スイッチがオフになるまで処理を継続する。このとき、システム制御部214はタッチパネル229へのタッチ操作を検出した場合にシステムメモリ224に記憶された有効範囲の位置に基づいて、有効範囲内であるか否かを判定し、有効範囲のタッチ操作である場合にはタッチ操作に応じて処理を実行する。一方、システム制御部214はタッチ操作が有効範囲外のタッチ操作である場合には当該タッチ操作に応じた処理を実行せず、タッチ操作を無効にする。 After that, the process returns to S308, and the system control unit 214 continues the process until the photographing mode is changed or the power switch is turned off. At this time, when the touch operation on the touch panel 229 is detected, the system control unit 214 determines whether or not it is within the effective range based on the position of the effective range stored in the system memory 224, and touches the effective range. If it is an operation, the process is executed according to the touch operation. On the other hand, when the touch operation is outside the valid range, the system control unit 214 does not execute the process according to the touch operation and invalidates the touch operation.

なお、上述したS311からS313では、タッチパネル229における矩形状の有効範囲のうち一方側(左側)の辺を移動させて面積を増減させていたが、ユーザがファインダ114を覗く眼が左眼であるか右眼であるかに応じて有効範囲の位置を変更してもよい。
図8は、ファインダを覗く眼に応じた有効範囲の位置の一例を示す図である。
図8(a)に示すように、ファインダ114を覗く眼が右眼の場合には、タッチパネル229の矩形状の有効範囲のうち左側の辺を移動させて面積を増減させる。
図8(b)に示すように、ファインダ114を覗く眼が左眼の場合には、タッチパネル229の矩形状の有効範囲のうち右側の辺を移動させて面積を増減させる。
In S311 to S313 described above, one side (left side) of the rectangular effective range of the touch panel 229 is moved to increase or decrease the area, but the user looks into the finder 114 with the left eye. The position of the effective range may be changed depending on whether the right eye or the right eye.
FIG. 8 is a diagram showing an example of the position of the effective range corresponding to the eye looking into the finder.
As shown in FIG. 8A, when the eye looking through the finder 114 is the right eye, the left side of the rectangular effective range of the touch panel 229 is moved to increase or decrease the area.
As shown in FIG. 8B, when the eye looking into the finder 114 is the left eye, the right side of the rectangular effective range of the touch panel 229 is moved to increase or decrease the area.

ここで、システム制御部214がファインダ114を覗く眼が右眼であるか左眼であるかを判定する方法について説明する。
まず、第1の方法として、ユーザにより入力された情報に基づいて判定する方法について説明する。図9(a)は、ユーザにファインダ114を覗く眼を事前に入力させるガイダンス表示の一例を示す図である。システム制御部214は例えば電源を投入したときに表示部105にガイダンス表示を行い、ユーザにより右眼または左眼の何れかを選択させ、選択された眼の情報を不揮発性メモリ223に記憶する。したがって、システム制御部214は有効範囲を範囲a〜範囲cに設定するときに、不揮発性メモリ223に記憶された眼の情報に基づいて範囲a〜範囲cの位置を変更する。なお、ファインダ114を覗く眼の情報は、設定画面のメニューから再び設定できるようにしてもよく、複数のユーザごとに不揮発性メモリ223に記憶して設定できるようにしてもよい。複数のユーザごとに設定する場合には、ユーザが撮影時に設定を選択したり、使用するユーザを選択したりすることで、システム制御部214はユーザに応じた眼の情報を読み出すことができる。
Here, a method in which the system control unit 214 determines whether the eye looking into the finder 114 is the right eye or the left eye will be described.
First, as a first method, a method of making a determination based on information input by a user will be described. FIG. 9A is a diagram showing an example of a guidance display for prompting the user to input in advance the eyes looking into the finder 114. The system control unit 214, for example, displays a guidance on the display unit 105 when the power is turned on, allows the user to select either the right eye or the left eye, and stores information on the selected eye in the non-volatile memory 223. Therefore, when setting the effective range to the ranges a to c, the system control unit 214 changes the positions of the ranges a to c based on the eye information stored in the nonvolatile memory 223. The information of the eye looking into the finder 114 may be set again from the menu of the setting screen, or may be stored and set in the nonvolatile memory 223 for each of a plurality of users. When the setting is performed for each of a plurality of users, the system control unit 214 can read the eye information according to the user by the user selecting the setting at the time of shooting or selecting the user to use.

また、第2の方法として、タッチパネル229を介したホバーの検出を用いた方法について説明する。
図9(b)は、ファインダ114を右眼で覗いた場合にタッチパネル229を介してホバーを検出する位置の一例を示す図である。図9(b)では、システム制御部214はユーザの鼻によってタッチパネル229の左側の位置901でホバーを検出することから、左側でホバーを検出した場合には、ファインダ114を覗く眼が右眼であると判定することができる。
図9(c)は、ファインダ114を左眼で覗いた場合にタッチパネル229を介してホバーを検出する位置の一例を示す図である。図9(c)では、システム制御部214はユーザの頬によってタッチパネル229の右側の位置902でホバーを検出することから、右側でホバーを検出した場合には、ファインダ114を覗く眼が左眼であると判定することができる。
In addition, as a second method, a method using hover detection via the touch panel 229 will be described.
FIG. 9B is a diagram showing an example of a position where the hover is detected via the touch panel 229 when the finder 114 is looked into with the right eye. In FIG. 9B, since the system control unit 214 detects the hover at the position 901 on the left side of the touch panel 229 by the user's nose, when the hover is detected on the left side, the eye looking through the finder 114 is the right eye. It can be determined that there is.
FIG. 9C is a diagram showing an example of a position where the hover is detected via the touch panel 229 when the finder 114 is viewed with the left eye. In FIG. 9C, since the system control unit 214 detects the hover at the position 902 on the right side of the touch panel 229 by the user's cheek, when the hover is detected on the right side, the eye looking into the finder 114 is the left eye. It can be determined that there is.

また、第3の方法として、生体センサを用いた方法について説明する。
図9(a)に示すように、ファインダ114内にはファインダ114を覗いている眼が右眼であるか左眼であるかを検出できる生体センサ903を備えている。したがって、システム制御部214は生体センサ903により検出された情報に基づいてファインダ114を覗く眼が右眼であるか左眼であるかを判定することができる。
Further, as a third method, a method using a biosensor will be described.
As shown in FIG. 9A, a biosensor 903 capable of detecting whether the eye looking through the finder 114 is the right eye or the left eye is provided in the finder 114. Therefore, the system control unit 214 can determine whether the eye looking through the finder 114 is the right eye or the left eye based on the information detected by the biometric sensor 903.

以上のように、本実施形態によれば、ファインダ114からユーザの顔までの距離が遠い場合には、ユーザの顔がタッチパネル229に接触する可能性が低いことから、タッチパネル229のタッチ操作の有効範囲を大きくする。したがって、顔の一部が接触しないように離れてファインダ114を覗くユーザにとっては、ファインダ114に接眼したときの操作性を向上させることができる。
一方、ファインダ114からユーザの顔までの距離が近い場合には、ユーザの顔が意図せずにタッチパネル229に接触する可能性が高いことから、タッチパネル229のタッチ操作の有効範囲を小さくする。したがって、顔の一部がタッチパネル229に接触することによって生じる、タッチ操作の誤動作を防ぐことができる。
また、本実施形態によれば、ファインダ114からユーザの顔までの距離に応じてタッチパネル229のタッチ操作の有効範囲が変更されることから、ユーザの顔が接触する可能性に応じた有効範囲が設定され、よりタッチ操作の誤操作を防ぐことができる。このとき、有効範囲を段階的に変更することからシステム制御部214による処理を軽減することができる。
As described above, according to the present embodiment, when the distance from the finder 114 to the user's face is long, it is unlikely that the user's face touches the touch panel 229. Therefore, the touch operation on the touch panel 229 is effective. Increase the range. Therefore, for a user who looks into the finder 114 while keeping a part of the face from touching, it is possible to improve the operability when the finder 114 is in the eye.
On the other hand, when the distance from the finder 114 to the user's face is short, there is a high possibility that the user's face will unintentionally touch the touch panel 229, so the effective range of the touch operation on the touch panel 229 is reduced. Therefore, it is possible to prevent a malfunction of the touch operation caused by a part of the face touching the touch panel 229.
Further, according to the present embodiment, the effective range of the touch operation of the touch panel 229 is changed according to the distance from the finder 114 to the user's face, so that the effective range according to the possibility of the user's face touching is changed. It is set, and more erroneous touch operations can be prevented. At this time, since the effective range is changed stepwise, the processing by the system control unit 214 can be reduced.

また、本実施形態によれば、タッチパネル229を用いて物体の近接、すなわちホバーを検出することによってユーザの顔の一部が実際に接近する位置を判定し、接近する位置に基づいてタッチパネル229の無効範囲を設定する。したがって、ユーザの顔の一部がタッチパネル229に接近する位置を精度良く判定して無効範囲を設定することができるために、タッチ操作の誤動作を精度良く防ぐことができる。
なお、上述した実施形態では、接眼検知部115からの出力値Sが第2閾値以上である場合にS312あるいはS313を経由して一律にホバーを検出する場合について説明したが、この場合に限られない。システム制御部214は接眼検知部115から取得した出力値Snが前回取得した出力値S(n−1)から変化した場合、具体的には出力値Snが前回の出力値S(n−1)における閾値の範囲から変化した場合にホバーを検出するように構成してもよい。例えば、システム制御部214は前回の出力値S(n−1)が第1閾値以上で第2閾値未満のとき、今回の出力値Snが第2閾値以上で第3閾値未満の場合にホバーを検出し、今回の出力値Snも第1閾値以上で第2閾値未満の場合にはホバーを検出しない。このように閾値を跨ぐように出力値Sが変化した場合とは、タッチパネル229からユーザの顔までの距離が変化している状態であると想定でき、このときに検出されたホバーはユーザの顔である可能性が高い。一方、出力値Sが変化していない場合とは、タッチパネル229からユーザの顔までの距離が変化していない状態であると想定でき、このときに検出されたホバーはユーザの顔ではなくタッチ操作である可能性が高い。
したがって、システム制御部214は閾値を跨ぐように出力値Sが変化した場合にのみホバーを検出することで、ユーザの顔の一部が近接する位置に基づいて無効範囲を設定でき、タッチ操作に基づいて誤って無効範囲を設定してしまうことを防ぐことができる。
Further, according to the present embodiment, the position where a part of the user's face actually approaches is determined by detecting the proximity of an object using the touch panel 229, that is, the hover, and the touch panel 229 of the touch panel 229 is determined based on the approached position. Set the invalid range. Therefore, the position where a part of the user's face approaches the touch panel 229 can be accurately determined and the invalid range can be set, so that the malfunction of the touch operation can be accurately prevented.
In the above-described embodiment, the case where the hover is uniformly detected via S312 or S313 when the output value S from the eyepiece detection unit 115 is equal to or larger than the second threshold value has been described, but the present invention is not limited to this case. Absent. When the output value Sn acquired from the eyepiece detection unit 115 has changed from the output value S(n-1) acquired last time, the system control unit 214 specifically changes the output value Sn to the previous output value S(n-1). It may be configured to detect the hover when it changes from the threshold value range. For example, when the previous output value S(n-1) is greater than or equal to the first threshold value and less than the second threshold value, the system control unit 214 causes hover when the current output value Sn is greater than or equal to the second threshold value and less than the third threshold value. If the detected output value Sn is also the first threshold value or more and less than the second threshold value, the hover is not detected. When the output value S changes so as to cross the threshold value in this way, it can be assumed that the distance from the touch panel 229 to the user's face is changing, and the hover detected at this time is the user's face. Is likely to be. On the other hand, when the output value S does not change, it can be assumed that the distance from the touch panel 229 to the user's face has not changed, and the hover detected at this time is not the user's face but a touch operation. Is likely to be.
Therefore, by detecting the hover only when the output value S changes so as to cross the threshold value, the system control unit 214 can set the invalid range based on the position where a part of the user's face approaches, and the touch operation can be performed. Based on this, it is possible to prevent the invalid range from being set by mistake.

また、上述した実施形態では、出力値Sと比較する閾値が第1閾値〜第4閾値である場合について説明したが、この場合に限られず、閾値は何段階であってもよい。
また、上述した実施形態では、タッチパネル229の有効範囲は範囲a〜範囲cである場合について説明したが、この場合に限られず、範囲は何段階であってもよい。
また、上述した実施形態では、出力値Sはファインダ114からユーザの顔までの距離が遠いほど小さく、近いほど大きくなるものとして説明したが、この場合に限られない。すなわち、出力値Sはファインダ114からユーザの顔までの距離が遠いほど大きく、近いほど小さくなるものであってもよい。
Further, in the above-described embodiment, the case where the threshold value to be compared with the output value S is the first threshold value to the fourth threshold value has been described, but the present invention is not limited to this case, and the threshold value may have any number of stages.
Further, in the above-described embodiment, the case where the effective range of the touch panel 229 is the range a to the range c has been described, but the present invention is not limited to this case, and the range may be any number of stages.
Further, in the above-described embodiment, the output value S is described as being smaller as the distance from the finder 114 to the user's face is larger and larger as the distance is closer, but the present invention is not limited to this case. That is, the output value S may increase as the distance from the finder 114 to the user's face increases, and decrease as the distance decreases.

また、上述した実施形態では、接眼検知部115からの出力値Sが第2閾値以上である場合にS312あるいはS313を経由してホバーを検出する場合について説明したが、この場合に限られず、何れの閾値であってもホバーを検出してもよい。
また、上述した実施形態では、有効範囲を設定し直すためにホバーを検出する場合について説明したが、ホバーを検出する処理は省略してもよい。すなわち、図3のフローチャートのうちS314〜S316を省略してもよく、この場合であっても顔の一部がタッチパネル229に接触することによって生じる、タッチ操作の誤動作を防ぐことができる。
Further, in the above-described embodiment, the case where the hover is detected via S312 or S313 when the output value S from the eyepiece detection unit 115 is equal to or larger than the second threshold value has been described, but the present invention is not limited to this case. Hover may be detected even if the threshold value is.
Further, in the above-described embodiment, the case where the hover is detected in order to reset the effective range has been described, but the process of detecting the hover may be omitted. That is, S314 to S316 in the flowchart of FIG. 3 may be omitted, and even in this case, it is possible to prevent a malfunction of the touch operation caused by a part of the face touching the touch panel 229.

なお、システム制御部214が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述したが、本発明は上述した実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明をデジタルカメラ、すなわち撮像装置に適用する場合を例にして説明したが、この場合に限られず、ファインダ、タッチパネル、表示部を備える電子装置であれば適用可能である。すなわち、本発明はビデオカメラ、タブレット端末、スマートフォン等に適用可能である。
The above-described various controls described as being performed by the system control unit 214 may be performed by one piece of hardware, or a plurality of pieces of hardware may share the processing to control the entire apparatus. ..
Further, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to the above-described embodiments, and various forms within the scope of the present invention are also included in the present invention. .. Furthermore, the above-described embodiment is merely one embodiment of the present invention, and it is possible to appropriately combine the embodiments.
Further, in the above-described embodiment, the case where the present invention is applied to a digital camera, that is, an image pickup device has been described as an example, but the present invention is not limited to this case, and any electronic device including a finder, a touch panel, and a display unit may be applied. It is possible. That is, the present invention can be applied to video cameras, tablet terminals, smartphones, and the like.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:デジタルカメラ(電子装置) 105:表示部 114:ファインダ 115:接眼検知部 214:システム制御部 220:ファインダ内表示部 229:タッチパネル 903:生体センサ 100: Digital camera (electronic device) 105: Display unit 114: Viewfinder 115: Eyepiece detection unit 214: System control unit 220: Viewfinder display unit 229: Touch panel 903: Biosensor

Claims (19)

ファインダと、
前記ファインダに対する物体の近接を検知する検知手段と、
前記ファインダと異なる位置に配置される表示手段と、
前記表示手段に対するタッチ操作を検出するタッチ検出手段と、
前記検知手段によって検知される物体が前記ファインダに対して第1の距離である場合には前記表示手段を表示状態とし、
前記検知手段によって検知される物体が前記ファインダに対して前記第1の距離よりも近い第2の距離である場合には、前記表示手段を非表示、または、前記第1の距離の場合に比べて前記表示手段の輝度を低減した状態で、前記タッチ操作の有効範囲を第1の範囲とし、
前記検知手段によって検知される物体が前記ファインダに対して前記第2の距離よりも近い第3の距離である場合には、前記表示手段を非表示、または、前記第1の距離の場合に比べて前記表示手段の輝度を低減した状態で、かつ、前記タッチ操作の有効範囲を前記第1の範囲よりも小さい第2の範囲とするようにし、
前記物体が前記ファインダに対して前記第3の距離よりも近い第4の距離の場合には前記タッチ操作の有効範囲を前記第2の範囲よりも小さい第3の範囲にするように制御する制御手段と、を有することを特徴とする電子装置。
With a finder,
Detection means for detecting the proximity of the object to the finder,
Display means arranged at a position different from the finder,
Touch detection means for detecting a touch operation on the display means,
When the object detected by the detection means is at the first distance with respect to the finder, the display means is set to the display state,
When the object detected by the detection means is the second distance closer to the finder than the first distance, the display means is not displayed or compared to the case of the first distance. With the brightness of the display means reduced, the effective range of the touch operation is set to the first range,
When the object detected by the detection means is a third distance closer to the finder than the second distance, the display means is not displayed or compared to the case of the first distance. The brightness of the display means is reduced, and the effective range of the touch operation is set to a second range smaller than the first range ,
Control for controlling the effective range of the touch operation to be a third range smaller than the second range when the object has a fourth distance closer to the finder than the third distance. And an electronic device.
前記制御手段は、
前記物体が前記ファインダに対して近いほど前記タッチ操作の有効範囲を段階的に小さくするように制御することを特徴とする請求項1記載の電子装置。
The control means is
The electronic apparatus according to claim 1 , wherein the electronic device is controlled so that the effective range of the touch operation is gradually reduced as the object is closer to the finder.
前記制御手段は、
前記検知手段によって検知される物体が前記ファインダに対して前記第1の距離である場合には、前記タッチ検出手段によりタッチの開始が検出された際のタッチ位置に対応する処理を行う絶対位置制御を行い、
前記検知手段によって検知される物体が前記ファインダに対して前記第3の距離よりも近い場合には、前記タッチ検出手段によりタッチの開始が検出された際のタッチ位置に関わらず、前記タッチ検出手段により検出されたタッチ位置の移動方向と移動距離に基づく処理を行う相対位置制御を行うように制御することを特徴とする請求項1または2に記載の電子装置。
The control means is
When the object detected by the detection unit is the first distance with respect to the finder, an absolute position control that performs a process corresponding to a touch position when the touch start is detected by the touch detection unit And then
When the object detected by the detection means is closer to the finder than the third distance, the touch detection means is irrespective of the touch position when the touch start is detected by the touch detection means. electronic device according to claim 1 or 2, wherein the controller controls so as to perform a relative position control for performing processing based on the moving direction and moving distance of the detected touch position by.
前記制御手段はさらに、前記ファインダ内に備えられた第2の表示手段に表示される表示アイテムを、前記タッチ検出手段により検出されるタッチ操作に基づいて移動させるように制御し、
前記絶対位置制御の場合には前記表示アイテムを前記タッチ検出手段により検出されたタッチ操作の座標に対応する位置に移動させ、
前記相対位置制御の場合には前記表示アイテムを前記タッチ検出手段により検出されたタッチ操作の方向に対応する位置に移動させるように制御することを特徴とする請求項に記載の電子装置。
The control means further controls to move a display item displayed on the second display means provided in the finder based on a touch operation detected by the touch detection means,
In the case of the absolute position control, the display item is moved to a position corresponding to the coordinates of the touch operation detected by the touch detection unit,
The electronic device according to claim 3 , wherein in the case of the relative position control, the display item is controlled to be moved to a position corresponding to a direction of a touch operation detected by the touch detection unit.
前記制御手段は、前記ファインダ内に備えられた第2の表示手段に表示される表示アイテムを、前記タッチ検出手段により検出されるタッチ位置の移動に基づいて移動させるように制御し、
タッチ位置の所定距離の移動に応じて前記表示アイテムを移動させるときの移動距離を、前記タッチ操作の有効範囲が前記第1の範囲である場合と前記第2の範囲である場合とで異なるように制御することを特徴とする請求項1ないしの何れか1項に記載の電子装置。
The control means controls the display item displayed on the second display means provided in the finder to move based on the movement of the touch position detected by the touch detection means,
The movement distance when the display item is moved according to the movement of the touch position by a predetermined distance may be different depending on whether the effective range of the touch operation is the first range or the second range. The electronic device according to claim 1, wherein the electronic device is controlled according to any one of claims 1 to 4 .
前記制御手段は、
タッチ位置の所定距離の移動に応じて前記表示アイテムを移動させるときの移動距離を、前記タッチ操作の有効範囲が前記第1の範囲である場合よりも前記第2の範囲である場合のほうが大きくなるように制御することを特徴とする請求項に記載の電子装置。
The control means is
The movement distance when the display item is moved according to the movement of the touch position by a predetermined distance is larger in the case where the effective range of the touch operation is in the second range than in the first range. The electronic device according to claim 5 , wherein the electronic device is controlled so that
前記タッチ操作は、被写体を撮影するときの測距点を異なる位置に移動させる操作、または、被写体を選択する選択枠を異なる被写体に移動させる操作の何れか一つを含むことを特徴とする請求項ないしの何れか1項に記載の電子装置。 The touch operation includes any one of an operation of moving a focus detection point when shooting a subject to a different position or an operation of moving a selection frame for selecting a subject to a different subject. Item 7. The electronic device according to any one of Items 4 to 6 . 前記制御手段は、
前記タッチ操作の有効範囲が前記第2の範囲の場合には前記第1の範囲の場合よりも前記電子装置に関して行うことができる設定を制限するように制御することを特徴とする請求項1ないしの何れか1項に記載の電子装置。
The control means is
2. When the effective range of the touch operation is the second range, the setting that can be performed on the electronic device is controlled to be limited as compared with the case of the first range. 7. The electronic device according to any one of 7 .
前記タッチ検出手段は、前記タッチ操作に加えて前記表示手段に対する物体の近接を検出し、
前記制御手段は、
前記タッチ検出手段により検出された物体の位置に基づいて前記タッチ操作の有効範囲を変更するように制御することを特徴とする請求項1ないしの何れか1項に記載の電子装置。
The touch detection means detects the proximity of an object to the display means in addition to the touch operation,
The control means is
Electronic device according to any one of claims 1 to 8, characterized in that controlling so as to change the effective range of the touch operation based on the position of the object detected by the touch detection unit.
前記制御手段は、前記タッチ操作の有効範囲を前記第2の範囲にするように制御しているときに、前記タッチ検出手段により物体の近接が検出された場合には前記物体の位置に基づいて、前記第2の範囲を小さくするか、または、前記第2の範囲の一部を無効にするように制御することを特徴とする請求項に記載の電子装置。 The control means, based on the position of the object, when the proximity of the object is detected by the touch detection means while controlling the effective range of the touch operation to be the second range. 10. The electronic device according to claim 9 , wherein the electronic device is controlled so as to reduce the second range or invalidate a part of the second range. 前記制御手段は、
前記検知手段により前記ファインダに対する前記物体までの距離が変化したことを検出した場合に、前記タッチ検出手段により検出された物体の位置に基づいて前記タッチ操作の有効範囲を変更するように制御することを特徴とする請求項または10に記載の電子装置。
The control means is
When the detection unit detects that the distance to the object with respect to the finder has changed, control is performed to change the effective range of the touch operation based on the position of the object detected by the touch detection unit. The electronic device according to claim 9 or 10 , characterized in that.
前記制御手段は、
前記ファインダを覗く眼が右眼であるか左眼であるかに応じて前記第2の範囲の位置を変更するように制御することを特徴とする請求項1ないし11の何れか1項に記載の電子装置。
The control means is
According to any one of claims 1 to 11, characterized in that the eye looking through the viewfinder is controlled so as to change the position of the second range, depending on whether the left eye or a right eye Electronic device.
前記制御手段は、
前記第1の範囲から前記第2の範囲に有効範囲を小さくする場合において、
前記ファインダを覗く眼が右眼である場合には有効範囲の矩形状のうち左側の辺を移動し、
前記ファインダを覗く眼が左眼である場合には有効範囲の矩形状のうち右側の辺を移動するように制御することを特徴とする請求項12に記載の電子装置。
The control means is
In the case of reducing the effective range from the first range to the second range,
If the eye looking into the finder is the right eye, move the left side of the rectangular shape of the effective range,
13. The electronic device according to claim 12 , wherein when the eye looking into the finder is the left eye, control is performed so as to move the right side of the rectangular shape of the effective range.
前記制御手段は、
ユーザにより入力された情報に基づいて前記ファインダを覗く眼が右眼であるか左眼であるかを判定することを特徴とする請求項12または13に記載の電子装置。
The control means is
The electronic device of claim 12 or 13 eyes looking through the viewfinder on the basis of the information entered by the user and judging whether a left eye or a right eye.
前記タッチ検出手段は、前記タッチ操作に加えて前記表示手段に対する物体の近接を検出し、
前記制御手段は、
前記タッチ検出手段により検出された物体の位置に基づいて前記ファインダを覗く眼が右眼であるか左眼であるかを判定することを特徴とする請求項12または13に記載の電子装置。
The touch detection means detects the proximity of an object to the display means in addition to the touch operation,
The control means is
The electronic device of claim 12 or 13, characterized in that the eye looking through the viewfinder on the basis of the position of the object detected by the touch detection unit to determine whether a left eye or a right eye.
前記ファインダを覗いている眼が右眼であるか左眼であるかを検出する生体センサを更に有し、
前記制御手段は、
前記生体センサにより検出された情報に基づいて前記ファインダを覗く眼が右眼であるか左眼であるかを判定することを特徴とする請求項12または13に記載の電子装置。
Further having a biosensor for detecting whether the eye looking through the finder is the right eye or the left eye,
The control means is
The electronic device of claim 12 or 13, characterized in that the eye looking through the viewfinder on the basis of the information detected by the biometric sensor to determine whether a left eye or a right eye.
ファインダと、
前記ファインダに対する物体の近接を検知する検知手段と、
前記ファインダと異なる位置に配置される表示手段と、
前記表示手段に対するタッチ操作を検出するタッチ検出手段と、を有する電子装置の制御方法であって、
前記検知手段によって検知される物体が前記ファインダに対して第1の距離である場合には前記表示手段を表示状態とし、
前記検知手段によって検知される物体が前記ファインダに対して前記第1の距離よりも近い第2の距離である場合には、前記表示手段を非表示、または、前記第1の距離の場合に比べて前記表示手段の輝度を低減した状態で、前記タッチ操作の有効範囲を第1の範囲とし、
前記検知手段によって検知される物体が前記ファインダに対して前記第2の距離よりも近い第3の距離である場合には、前記表示手段を非表示、または、前記第1の距離の場合に比べて前記表示手段の輝度を低減した状態で、かつ、前記タッチ操作の有効範囲を前記第1の範囲よりも小さい第2の範囲とするようにし、
前記物体が前記ファインダに対して前記第3の距離よりも近い第4の距離の場合には前記タッチ操作の有効範囲を前記第2の範囲よりも小さい第3の範囲にするように制御する制御ステップを有することを特徴とする電子装置の制御方法。
With a finder,
Detection means for detecting the proximity of the object to the finder,
Display means arranged at a position different from the finder,
A method for controlling an electronic device, comprising: a touch detection unit that detects a touch operation on the display unit,
When the object detected by the detection means is at the first distance with respect to the finder, the display means is set to the display state,
When the object detected by the detection means is the second distance closer to the finder than the first distance, the display means is not displayed or compared to the case of the first distance. With the brightness of the display means reduced, the effective range of the touch operation is set to the first range,
When the object detected by the detection means is a third distance closer to the finder than the second distance, the display means is not displayed or compared to the case of the first distance. The brightness of the display means is reduced, and the effective range of the touch operation is set to a second range smaller than the first range ,
Control for controlling the effective range of the touch operation to be a third range smaller than the second range when the object has a fourth distance closer to the finder than the third distance. A method for controlling an electronic device, comprising: a step.
コンピュータを、請求項1ないし16の何れか1項に記載された電子装置の制御手段として機能させるためのプログラム。 A program for causing a computer to function as a control unit of the electronic device according to any one of claims 1 to 16 . コンピュータを、請求項1ないし16の何れか1項に記載された電子装置の制御手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。 The computer according to claim 1 to 16 stored a computer-readable recording medium storing a program to function as the control means of the electronic apparatus according to any one of.
JP2016154792A 2016-08-05 2016-08-05 Electronic device, control method thereof, and program Expired - Fee Related JP6708516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016154792A JP6708516B2 (en) 2016-08-05 2016-08-05 Electronic device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016154792A JP6708516B2 (en) 2016-08-05 2016-08-05 Electronic device, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2018023068A JP2018023068A (en) 2018-02-08
JP6708516B2 true JP6708516B2 (en) 2020-06-10

Family

ID=61165144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016154792A Expired - Fee Related JP6708516B2 (en) 2016-08-05 2016-08-05 Electronic device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6708516B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7353811B2 (en) * 2019-06-17 2023-10-02 キヤノン株式会社 Electronic equipment and its control method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4930154B2 (en) * 2007-03-30 2012-05-16 カシオ計算機株式会社 Imaging apparatus and computer program therefor
JP2008268726A (en) * 2007-04-24 2008-11-06 Canon Inc Photographing device
JP4991621B2 (en) * 2008-04-17 2012-08-01 キヤノン株式会社 Imaging device
JP5613005B2 (en) * 2010-10-18 2014-10-22 オリンパスイメージング株式会社 camera
JP2014003422A (en) * 2012-06-18 2014-01-09 Sony Corp Display control device, imaging device, and display control method

Also Published As

Publication number Publication date
JP2018023068A (en) 2018-02-08

Similar Documents

Publication Publication Date Title
JP6748582B2 (en) Imaging device, control method thereof, program, and recording medium
JP6742730B2 (en) Electronic device and control method thereof
JP2018129765A (en) Imaging apparatus and control method
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
JP7442331B2 (en) Voice input device and its control method and program
JP7433810B2 (en) Electronic devices, control methods for electronic devices, programs and storage media
JP2020204915A (en) Electronic apparatus and method for controlling the same
JP7383552B2 (en) Electronic equipment and its control method
JP7465129B2 (en) Imaging device, control method thereof, program, and storage medium
JP7490372B2 (en) Imaging control device and control method thereof
JP2021141573A (en) Electronic apparatus
JP6701027B2 (en) Imaging device, control method thereof, and program
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
JP6708516B2 (en) Electronic device, control method thereof, and program
US11526264B2 (en) Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium
JP2019071507A (en) Electronic device, control method, program, and storage medium
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP2014067316A (en) Display control device
JP2021184123A (en) Electronic device, control method of electronic device, and program
JP2021097356A (en) Imaging control device
JP2021012619A (en) Electronic apparatus and method for controlling the same
JP2020178232A (en) Electronic apparatus
JP7210158B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP7451255B2 (en) Electronic equipment and its control method
JP7450408B2 (en) Electronic devices, their control methods, programs and storage media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200521

R151 Written notification of patent or utility model registration

Ref document number: 6708516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees