JP6701027B2 - Imaging device, control method thereof, and program - Google Patents

Imaging device, control method thereof, and program Download PDF

Info

Publication number
JP6701027B2
JP6701027B2 JP2016156839A JP2016156839A JP6701027B2 JP 6701027 B2 JP6701027 B2 JP 6701027B2 JP 2016156839 A JP2016156839 A JP 2016156839A JP 2016156839 A JP2016156839 A JP 2016156839A JP 6701027 B2 JP6701027 B2 JP 6701027B2
Authority
JP
Japan
Prior art keywords
touch
touch operation
finder
unit
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016156839A
Other languages
Japanese (ja)
Other versions
JP2018026683A (en
Inventor
敬大 永井
敬大 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016156839A priority Critical patent/JP6701027B2/en
Publication of JP2018026683A publication Critical patent/JP2018026683A/en
Application granted granted Critical
Publication of JP6701027B2 publication Critical patent/JP6701027B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置、その制御方法、プログラムおよび記録媒体に関する。   The present invention relates to an imaging device, a control method therefor, a program, and a recording medium.

撮像装置の一例であるデジタル一眼レフカメラには、被写体の構図を確認するためのファインダと、撮影した画像を表示したり各種設定を行ったりするための背面ディスプレイとが設けられているものがある。また、背面ディスプレイには、ユーザが直感的に操作できるようにタッチパネルが設けられているものがある。
このようなデジタル一眼レフカメラを用いて、ユーザがファインダを覗きながら撮影する場合、背面タッチパネルにユーザの顔の一部が接触してしまい、タッチパネルがユーザの意図しない接触を検出してしまい、誤動作が生じるという問題がある。
特許文献1には、予め登録されている、光学ファインダを覗く眼の情報からタッチパネルのうち接触による入力が可能な入力可能領域を設定し、入力可能領域以外への接触に応じた動作を行わないようにした撮像装置が開示されている。
A digital single-lens reflex camera, which is an example of an image pickup apparatus, includes a viewfinder for confirming the composition of a subject and a rear display for displaying a captured image and making various settings. .. Further, some rear displays are provided with a touch panel so that the user can operate them intuitively.
When a user takes a picture while looking through the viewfinder using such a digital single-lens reflex camera, a part of the user's face comes into contact with the rear touch panel, and the touch panel detects an unintended touch by the user, causing a malfunction. There is a problem that occurs.
In Japanese Patent Laid-Open No. 2004-242242, an inputtable area in which touch input is possible is set in the touch panel based on the information of the eye that is registered in advance and looks into the optical viewfinder, and an operation corresponding to a touch other than the inputable area is not performed. Such an imaging device is disclosed.

特開2009−260681号公報JP, 2009-260681, A

しかしながら、特許文献1の撮像装置では、ファインダに接眼したときに入力可能領域が一律に設定され、入力可能領域が制限されてしまうために操作性が低下してしまうという問題がある。
本発明は上述したような問題点に鑑みてなされたものであり、ファインダを使用しているときの操作性を向上させることを目的とする。
However, the image pickup apparatus of Patent Document 1 has a problem that the inputtable area is uniformly set when the viewfinder is brought into contact with the image pickup apparatus, and the inputtable area is limited.
The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to improve operability when using a finder.

本発明の撮像装置は、ファインダと、タッチ操作を検出するタッチ検出手段と、前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御手段と、を有することを特徴とする。   The imaging device of the present invention, when using a finder, a touch detection unit that detects a touch operation, and the finder, depending on the angle in the touch surface in the touch operation detected by the touch detection unit, Control is performed such that the touch operation is validated or invalidated, predetermined processing is performed according to the valid touch operation, and the predetermined processing is not performed according to the invalid touch operation. And a control means.

本発明によれば、ファインダを使用しているときの操作性を向上させることができる。   According to the present invention, it is possible to improve operability when using the finder.

デジタルカメラの外観を示す図である。It is a figure which shows the external appearance of a digital camera. デジタルカメラの構成を示す図である。It is a figure which shows the structure of a digital camera. 第1の実施形態のデジタルカメラの動作を示すフローチャートである。3 is a flowchart showing the operation of the digital camera of the first embodiment. デジタルカメラを背面から見た図である。It is the figure which looked at the digital camera from the back. 指あるいはユーザの顔によるタッチ入力角度を説明するための図である。It is a figure for demonstrating the touch input angle by a finger or a user's face. 第2の実施形態のデジタルカメラの動作を示すフローチャートである。7 is a flowchart showing the operation of the digital camera of the second embodiment. タッチ位置の座標とタッチ入力角度との関係を説明するための図である。It is a figure for demonstrating the relationship between the coordinate of a touch position, and a touch input angle.

以下、本発明の好適な実施形態について図面を参照して説明する。本実施形態では、撮像装置の一例としてデジタルカメラ100を用いるものとする。
図1(a)、(b)は、デジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
デジタルカメラ100は、上面にシャッターボタン101、メイン電子ダイヤル102、モード切替スイッチ103、ファインダ外表示部104等を備える。シャッターボタン101は、撮影の準備あるいは撮影を指示するための操作部である。メイン電子ダイヤル102は、シャッター速度や絞り等の設定値を変更するための回転式の操作部である。モード切替スイッチ103は、各種モードを切替えるための操作部である。モード切替スイッチ103により静止画撮影モード、動画撮影モード等に切替えられる。ファインダ外表示部104は、シャッター速度や絞り等の様々な設定値を表示する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In this embodiment, the digital camera 100 is used as an example of the imaging device.
1A and 1B are external views of the digital camera 100. 1A is a front perspective view of the digital camera 100, and FIG. 1B is a rear perspective view of the digital camera 100.
The digital camera 100 is provided with a shutter button 101, a main electronic dial 102, a mode changeover switch 103, a viewfinder outside display section 104, and the like on its upper surface. The shutter button 101 is an operation unit for instructing to prepare for shooting or to shoot. The main electronic dial 102 is a rotary operation unit for changing set values such as shutter speed and aperture. The mode change switch 103 is an operation unit for switching various modes. A mode change switch 103 is used to switch to a still image shooting mode, a moving image shooting mode, or the like. The out-of-view display unit 104 displays various setting values such as shutter speed and aperture.

また、デジタルカメラ100は、背面に表示部105、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113を備える。また、デジタルカメラ100は、ファインダ114、接眼検知部115等を備える。
表示部105は、画像や各種情報を表示する。表示部105は、ライブビュー撮影においてライブビュー画像を表示したり、静止画撮影後のクイックレビュー画像を表示したり、動画記録中の画像を表示したりする。本実施形態の表示部105は、デジタルカメラ100を横姿勢にしたときに水平方向を長辺とし、垂直方向を短辺とする矩形状である。電源スイッチ106は、デジタルカメラ100の電源のオンおよびオフを切替える操作部である。サブ電子ダイヤル107は、選択枠の移動や画像送り等を行うための回転式の操作部である。十字キー108は、上下左右にそれぞれ押下可能なキー(4方向キー)であり、押下した位置に応じた操作が可能である。SETボタン109は、主に選択項目を決定するときに押下される操作部である。
The digital camera 100 also includes a display unit 105, a power switch 106, a sub electronic dial 107, a cross key 108, a SET button 109, a live view button 110, an enlarge button 111, a reduce button 112, and a play button 113 on the back surface. The digital camera 100 also includes a finder 114, an eyepiece detection unit 115, and the like.
The display unit 105 displays images and various information. The display unit 105 displays a live view image during live view shooting, a quick review image after shooting a still image, and an image during moving image recording. The display unit 105 of the present embodiment has a rectangular shape in which the horizontal direction is the long side and the vertical direction is the short side when the digital camera 100 is in the horizontal posture. The power switch 106 is an operation unit that switches on and off the power of the digital camera 100. The sub electronic dial 107 is a rotary operation unit for moving a selection frame, moving an image, and the like. The cross key 108 is a key (four-direction key) that can be pressed up, down, left, and right, and can be operated according to the pressed position. The SET button 109 is an operation unit that is mainly pressed when deciding a selection item.

ライブビューボタン110は、静止画撮影モードにおいてはファインダ撮影モードとライブビュー撮影モードとを切替え、動画撮影モードにおいては動画撮影(記録)の開始、停止を指示するための操作部である。すなわち、ライブビューボタン110は、静止画撮影モードにおいてはファインダ114を使用するか否かを切替えるための操作部に相当する。拡大ボタン111は、ライブビュー画像の表示において拡大モードのオン、オフおよび拡大モード中の拡大率を変更するための操作部である。また、拡大ボタン111は、再生モードにおいて再生画像の拡大率を大きくするときに用いられる。縮小ボタン112は拡大された再生画像の拡大率を小さくし、表示された画像を縮小させるための操作部である。再生ボタン113は、撮影モードと再生モードとを切替えるためのボタンである。静止画撮影モードあるいは動画撮影モード中に再生ボタン113が押下されることで、再生モードに切替えられ、表示部105に記録媒体に記録された画像のうち最新の画像が表示される。ファインダ114は、後述するフォーカシングスクリーンを観察することで、被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。なお、ファインダ114は、光学ファインダあるいは電子ファインダの何れであってもよい。接眼検知部115は、ファインダ114に対する物体の近接、具体的にはユーザの顔の近接を検知する。   The live view button 110 is an operation unit for switching between the finder shooting mode and the live view shooting mode in the still image shooting mode, and for instructing start and stop of moving image shooting (recording) in the moving image shooting mode. That is, the live view button 110 corresponds to an operation unit for switching whether or not to use the finder 114 in the still image shooting mode. The enlargement button 111 is an operation unit for changing the enlargement mode ON/OFF and the enlargement ratio during the enlargement mode in displaying the live view image. The enlargement button 111 is used to increase the enlargement ratio of the reproduced image in the reproduction mode. The reduction button 112 is an operation unit for reducing the enlargement ratio of the enlarged reproduced image and reducing the displayed image. The playback button 113 is a button for switching between the shooting mode and the playback mode. By pressing the play button 113 in the still image shooting mode or the moving image shooting mode, the playback mode is switched to, and the latest image among the images recorded on the recording medium is displayed on the display unit 105. The finder 114 is a looking-in type finder for confirming the focus and composition of an optical image of a subject by observing a focusing screen described later. The finder 114 may be either an optical finder or an electronic finder. The eyepiece detection unit 115 detects the proximity of an object to the finder 114, specifically the proximity of the user's face.

また、デジタルカメラ100は、右側にグリップ部116、蓋部117等を備え、左側に端子カバー118等を備える。グリップ部116は、ユーザがデジタルカメラ100を構えたときに右手で握り易いように形成された保持部である。なお、グリップ部116は、表示部105と同じ高さに位置している。したがって、ユーザは右手でグリップ部116を保持しながら、右手の親指で表示部105に接触することができる。蓋部117は、記録媒体を格納するスロットを閉塞するための蓋である。端子カバー118は、外部機器の接続ケーブル等を接続するコネクタを保護するためのカバーである。
また、デジタルカメラ100の内部には、アクチュエータによってアップダウンされるクイックリターンミラー119が配置される。また、デジタルカメラ100には、着脱可能なレンズユニットと通信するための通信端子120を備える。
The digital camera 100 also includes a grip 116, a lid 117 and the like on the right side, and a terminal cover 118 and the like on the left side. The grip portion 116 is a holding portion formed so that the user can easily hold it with the right hand when holding the digital camera 100. The grip 116 is located at the same height as the display 105. Therefore, the user can touch the display unit 105 with the thumb of the right hand while holding the grip 116 with the right hand. The lid 117 is a lid for closing a slot for storing a recording medium. The terminal cover 118 is a cover for protecting a connector that connects a connection cable or the like of an external device.
Further, a quick return mirror 119 that is moved up and down by an actuator is arranged inside the digital camera 100. The digital camera 100 also includes a communication terminal 120 for communicating with the detachable lens unit.

図2は、デジタルカメラ100の構成を示す図である。なお、図1と同一の構成は、同一符号を付してその説明を適宜、省略する。デジタルカメラ100は、着脱可能なレンズユニット201が装着される。
まず、レンズユニット201について説明する。
レンズユニット201は、絞り202、レンズ群203、絞り駆動回路204、AF(オートフォーカス)駆動回路205、レンズ制御回路206、通信端子207等を有する。絞り202は、開口径が調整可能に構成される。レンズ群203は、複数枚のレンズから構成される。絞り駆動回路204は、絞り202の開口径を制御することで光量を調整する。AF駆動回路205は、レンズ群203を駆動させて焦点を合わせる。レンズ制御回路206は、後述するシステム制御部の指示に基づいて、絞り駆動回路204、AF駆動回路205等を制御する。レンズ制御回路206は、絞り駆動回路204を介して絞り202の制御を行い、AF駆動回路205を介してレンズ群203の位置を変位させることで焦点を合わせる。レンズ制御回路206は、デジタルカメラ100との間で通信可能である。具体的には、レンズユニット201の通信端子207と、デジタルカメラ100の通信端子120とを介して通信される。
FIG. 2 is a diagram showing the configuration of the digital camera 100. The same components as those in FIG. 1 are designated by the same reference numerals and the description thereof will be appropriately omitted. A detachable lens unit 201 is attached to the digital camera 100.
First, the lens unit 201 will be described.
The lens unit 201 has an aperture 202, a lens group 203, an aperture drive circuit 204, an AF (autofocus) drive circuit 205, a lens control circuit 206, a communication terminal 207 and the like. The diaphragm 202 is configured so that the aperture diameter can be adjusted. The lens group 203 is composed of a plurality of lenses. The diaphragm driving circuit 204 adjusts the amount of light by controlling the aperture diameter of the diaphragm 202. The AF drive circuit 205 drives the lens group 203 to focus it. The lens control circuit 206 controls the diaphragm drive circuit 204, the AF drive circuit 205, etc. based on an instruction from a system control unit described later. The lens control circuit 206 controls the aperture 202 via the aperture drive circuit 204, and displaces the position of the lens group 203 via the AF drive circuit 205 to adjust the focus. The lens control circuit 206 can communicate with the digital camera 100. Specifically, communication is performed via the communication terminal 207 of the lens unit 201 and the communication terminal 120 of the digital camera 100.

次に、デジタルカメラ100について説明する。
デジタルカメラ100は、クイックリターンミラー119、フォーカシングスクリーン208、ペンタプリズム209、AE(自動露出)センサ210、焦点検出部211、ファインダ114、シャッター212、撮像部213、システム制御部214を有する。
クイックリターンミラー119(以下、ミラー119)は、露光、ライブビュー画像の表示、動画撮影をする場合に、システム制御部214の指示に基づいてアクチュエータによりアップダウンされる。ミラー119は、レンズ群203から入射した光束をファインダ114側または撮像部213側に切替える。通常の場合には、ミラー119は光束をファインダ114側に導くように配置される。一方、撮影する場合やライブビュー画像を表示する場合には、ミラー119は光束を撮像部213に導くように上方に跳ね上がり待避する(ミラーアップ)。また、ミラー119は、中央部が光の一部を透過するハーフミラーで構成され、光束の一部が焦点検出を行うための焦点検出部211に入射するように透過させる。AEセンサ210は、レンズユニット201を通した被写体の輝度を測光する。焦点検出部211は、ミラー119により透過された光束に基づいてデフォーカス量を検出する。システム制御部214はデフォーカス量に基づいてレンズユニット201を制御し、位相差AFを行う。撮影者は、ペンタプリズム209とファインダ114を介して、フォーカシングスクリーン208を観察することで、レンズユニット201を通して得た被写体の光学像の焦点や構図を確認することができる。シャッター212は、システム制御部214の指示に基づいて撮像部213の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部213は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。
Next, the digital camera 100 will be described.
The digital camera 100 includes a quick return mirror 119, a focusing screen 208, a pentaprism 209, an AE (automatic exposure) sensor 210, a focus detection unit 211, a finder 114, a shutter 212, an image pickup unit 213, and a system control unit 214.
The quick return mirror 119 (hereinafter, mirror 119) is moved up and down by an actuator based on an instruction from the system control unit 214 when exposure, live view image display, and moving image shooting are performed. The mirror 119 switches the light flux incident from the lens group 203 to the finder 114 side or the image pickup unit 213 side. In a normal case, the mirror 119 is arranged so as to guide the light beam to the finder 114 side. On the other hand, when taking a picture or displaying a live view image, the mirror 119 jumps upward so as to guide the light flux to the imaging unit 213 and retracts (mirror up). The mirror 119 is composed of a half mirror whose central portion transmits a part of the light, and transmits a part of the light flux so that it is incident on a focus detection unit 211 for performing focus detection. The AE sensor 210 measures the brightness of the subject through the lens unit 201. The focus detection unit 211 detects the defocus amount based on the light flux transmitted by the mirror 119. The system control unit 214 controls the lens unit 201 based on the defocus amount, and performs phase difference AF. The photographer can confirm the focus and composition of the optical image of the subject obtained through the lens unit 201 by observing the focusing screen 208 via the pentaprism 209 and the finder 114. The shutter 212 is a focal plane shutter that can freely control the exposure time of the imaging unit 213 based on an instruction from the system control unit 214. The image pickup unit 213 is an image pickup device including a CCD, a CMOS device, or the like that converts an optical image into an electric signal.

また、デジタルカメラ100は、A/D変換器215、メモリ制御部216、画像処理部217、メモリ218、D/A変換器219、表示部105を有する。A/D変換器215は、撮像部213から出力されるアナログ信号をデジタル信号に変換する。画像処理部217は、A/D変換器215からのデータまたはメモリ制御部216からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部217では、撮影した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部214が露光制御、測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)処理が行われる。更に、画像処理部217では、撮影した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   The digital camera 100 also includes an A/D converter 215, a memory control unit 216, an image processing unit 217, a memory 218, a D/A converter 219, and a display unit 105. The A/D converter 215 converts the analog signal output from the imaging unit 213 into a digital signal. The image processing unit 217 performs resizing processing such as predetermined pixel interpolation and reduction, and color conversion processing on the data from the A/D converter 215 or the data from the memory control unit 216. Further, the image processing unit 217 performs a predetermined calculation process using the captured image data, and the system control unit 214 performs exposure control and distance measurement control based on the obtained calculation result. Through this processing, AF processing, AE processing, and EF (flash pre-emission) processing of the TTL (through the lens) system are performed. Further, the image processing unit 217 performs predetermined arithmetic processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

A/D変換器215からの画像データは、画像処理部217およびメモリ制御部216を介して、または、メモリ制御部216を介してメモリ218に直接書き込まれる。メモリ218は、撮像部213によって得られA/D変換器215によりデジタルデータに変換された画像データや、表示部105に表示するための画像データを格納する。メモリ218は、所定枚数の静止画像や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。また、メモリ218は、画像表示用のメモリ(ビデオメモリ)を兼ねている。   The image data from the A/D converter 215 is directly written to the memory 218 via the image processing unit 217 and the memory control unit 216, or via the memory control unit 216. The memory 218 stores image data obtained by the image pickup unit 213 and converted into digital data by the A/D converter 215, and image data to be displayed on the display unit 105. The memory 218 has a storage capacity sufficient to store a predetermined number of still images and a moving image and sound for a predetermined time. The memory 218 also serves as a memory (video memory) for image display.

D/A変換器219は、メモリ218に格納されている表示用の画像データをアナログ信号に変換して表示部105に供給する。したがって、メモリ218に書き込まれた表示用の画像データは、D/A変換器219を介して表示部105により表示される。表示部105は、LCD等の表示器上にD/A変換器219からのアナログ信号に応じた表示を行う。A/D変換器215によって一度A/D変換されメモリ218に蓄積されたデジタル信号をD/A変換器219でアナログ変換し、表示部105に逐次転送して表示することでライブビュー画像を表示(スルー表示)でき、電子ビューファインダとして機能する。   The D/A converter 219 converts the image data for display stored in the memory 218 into an analog signal and supplies the analog signal to the display unit 105. Therefore, the image data for display written in the memory 218 is displayed on the display unit 105 via the D/A converter 219. The display unit 105 displays on an indicator such as an LCD according to the analog signal from the D/A converter 219. A digital signal once A/D converted by the A/D converter 215 and stored in the memory 218 is converted into an analog signal by the D/A converter 219, and sequentially transferred to the display unit 105 for display to display a live view image. (Through display) is possible and it functions as an electronic viewfinder.

また、デジタルカメラ100は、ファインダ内表示部220、ファインダ内表示駆動回路221、ファインダ外表示部104、ファインダ外表示駆動回路222、不揮発性メモリ223、システムメモリ224、システムタイマー225を有する。ファインダ内表示部220は、ファインダ内表示駆動回路221を介して現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコン等を表示する。ファインダ外表示部104は、ファインダ外表示駆動回路222を介してシャッター速度や絞り等の設定値を表示する。不揮発性メモリ223は、電気的に消去・記憶可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ223には、システム制御部214の動作用の定数、閾値、プログラム等が記憶される。このプログラムは、後述するフローチャートの処理を実行するためのプログラムである。   The digital camera 100 also includes a viewfinder display unit 220, a viewfinder display drive circuit 221, a viewfinder display unit 104, a viewfinder display drive circuit 222, a non-volatile memory 223, a system memory 224, and a system timer 225. The in-viewfinder display unit 220 displays a frame (AF frame) indicating a focus detection point on which autofocus is currently performed via the in-viewfinder display drive circuit 221, an icon indicating a setting state of the camera, and the like. The out-of-view display unit 104 displays setting values such as the shutter speed and the aperture via the out-of-view display drive circuit 222. The non-volatile memory 223 is a memory that can be electrically erased and stored, and for example, an EEPROM or the like is used. The non-volatile memory 223 stores constants, thresholds, programs, etc. for the operation of the system control unit 214. This program is a program for executing the processing of the flowchart described below.

システムメモリ224は、例えばRAMが用いられる。システムメモリ224には、システム制御部214の動作用の定数、変数、不揮発性メモリ223から読み出したプログラム等が展開される。システムタイマー225は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
システム制御部214は、デジタルカメラ100全体を制御する。システム制御部214は、上述した不揮発性メモリ223に記憶されたプログラムを実行することで、後述する各処理を実現する。また、システム制御部214は、メモリ218、D/A変換器219、表示部105等を制御することにより表示制御も行う。システム制御部214は、制御手段の一例である。
A RAM is used as the system memory 224, for example. In the system memory 224, constants and variables for operation of the system control unit 214, programs read from the non-volatile memory 223, and the like are expanded. The system timer 225 is a time measuring unit that measures time used for various controls and time of a built-in clock.
The system control unit 214 controls the entire digital camera 100. The system control unit 214 realizes each processing described below by executing the program stored in the nonvolatile memory 223 described above. The system control unit 214 also controls display by controlling the memory 218, the D/A converter 219, the display unit 105, and the like. The system control unit 214 is an example of control means.

また、デジタルカメラ100は、モード切替スイッチ103、第1シャッタースイッチ226、第2シャッタースイッチ227、操作部228等のシステム制御部214に各種の動作指示を入力するための操作手段を有する。
モード切替スイッチ103は、静止画撮影モード、動画撮影モードおよび再生モード等の何れかに切替えるための操作部である。システム制御部214は、モード切替スイッチ103により切替えられたモードを設定する。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ103により、上述したモードの何れかに直接切替えることができる。また、モード切替スイッチ103によりメニューボタンに一旦切替えた後に、メニューボタンに含まれる上述したモードの何れかに、他の操作部を用いて切替えてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
The digital camera 100 also has operation means for inputting various operation instructions to the system control unit 214 such as the mode changeover switch 103, the first shutter switch 226, the second shutter switch 227, and the operation unit 228.
The mode switch 103 is an operation unit for switching to any of a still image shooting mode, a moving image shooting mode, a reproduction mode, and the like. The system control unit 214 sets the mode switched by the mode switch 103. The modes included in the still image shooting mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). Further, there are various scene modes which are shooting settings for each shooting scene, a program AE mode, a custom mode, and the like. The mode switch 103 can be used to directly switch to any of the above-mentioned modes. In addition, after the menu button is once switched by the mode switch 103, the operation mode may be switched to any of the above-described modes included in the menu button by using another operation unit. Similarly, the moving image shooting mode may include a plurality of modes.

第1シャッタースイッチ226は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生させる。システム制御部214は、第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。
第2シャッタースイッチ227は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生させる。システム制御部214は、第2シャッタースイッチ信号SW2により、撮像部213からの信号読み出しから記録媒体230に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The first shutter switch 226 is turned on by a so-called half-press (shooting preparation instruction) during operation of the shutter button 101 to generate the first shutter switch signal SW1. The system control unit 214 starts operations such as AF processing, AE processing, AWB processing, and EF processing in response to the first shutter switch signal SW1.
The second shutter switch 227 is turned on when the operation of the shutter button 101 is completed, so-called full-pressing (imaging instruction), and generates the second shutter switch signal SW2. By the second shutter switch signal SW2, the system control unit 214 starts a series of photographing processing operations from signal reading from the image pickup unit 213 to writing image data in the recording medium 230.

操作部228は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部228は、表示部105に表示される種々の機能アイコンを選択操作すること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押下されると各種の設定可能なメニュー画面が表示部105に表示される。ユーザは表示部105に表示されたメニュー画面と、十字キー108やSETボタン109とを用いて直感的に各種設定を行うことができる。操作部228は例えば、シャッターボタン101、メイン電子ダイヤル102、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113が含まれる。   The operation unit 228 is various operation members as an input unit that receives an operation from a user. The operation unit 228 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit 105, and functions as various function buttons. The function buttons include, for example, an end button, a return button, an image advance button, a jump button, a narrow-down button, an attribute change button and the like. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 105. The user can intuitively perform various settings by using the menu screen displayed on the display unit 105, the cross key 108, and the SET button 109. The operation unit 228 includes, for example, a shutter button 101, a main electronic dial 102, a power switch 106, a sub electronic dial 107, a cross key 108, a SET button 109, a live view button 110, an enlarge button 111, a reduce button 112, and a play button 113. Be done.

更に、操作部228の一つとして、表示部105に対する接触を検出可能なタッチパネル229を有する。タッチパネル229は、タッチ検出手段の一例である。タッチパネル229と表示部105とは一体的に構成することができる。例えば、光の透過率が表示部105の表示を妨げないように、タッチパネル229を表示部105の表示面上に配置する。そして、タッチパネル229における入力座標と、表示部105上の表示座標とを対応付けることで、恰もユーザが表示部105上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成することができる。タッチパネル229は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。また、方式によって、タッチパネル229に対する接触があったことでタッチがあったと検出する方式や、タッチパネル229に対する指等の接近があったことでタッチがあったと検出する方式があるが、何れの方式であってもよい。   Further, a touch panel 229 capable of detecting contact with the display unit 105 is provided as one of the operation units 228. The touch panel 229 is an example of a touch detection unit. The touch panel 229 and the display unit 105 can be integrally configured. For example, the touch panel 229 is arranged on the display surface of the display unit 105 so that the light transmittance does not hinder the display of the display unit 105. Then, by associating the input coordinates on the touch panel 229 with the display coordinates on the display unit 105, a GUI (graphical user) as if the user could directly operate the screen displayed on the display unit 105. Interface) can be configured. The touch panel 229 can use any one of various methods such as a resistance film method, an electrostatic capacity method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. Depending on the method, there is a method of detecting that there is a touch due to the touch on the touch panel 229 and a method of detecting that there is a touch due to the approach of the touch panel 229 such as a finger. It may be.

システム制御部214はタッチパネル229を介して以下の操作あるいは状態を検出できる。
(1)タッチパネル229にタッチしていなかった指等が新たにタッチパネル229にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)という)。
(2)タッチパネル229を指等でタッチしている状態であること(以下、タッチオン(Touch−On)という)。
(3)タッチパネル229を指等でタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)という)。
(4)タッチパネル229へタッチしていた指等を離したこと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)という)。
(5)タッチパネル229に何もタッチしていない状態(以下、タッチオフ(Touch−Off)という)。
(6)タッチオンしている指等の面積が所定の面積以上である状態(以下、ラージオブジェクト検出(Large−Object−Detect)という)。
なお、タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指等がタッチアップしたことが検出された後は、タッチオフとなる。
The system control unit 214 can detect the following operations or states via the touch panel 229.
(1) A finger or the like that has not touched the touch panel 229 newly touches the touch panel 229, that is, the start of touch (hereinafter, referred to as Touch-Down).
(2) The touch panel 229 is in a state of being touched with a finger or the like (hereinafter, referred to as touch-on).
(3) The touch panel 229 is moved while being touched with a finger or the like (hereinafter, referred to as Touch-Move).
(4) Release of the finger or the like touching the touch panel 229, that is, the end of the touch (hereinafter, referred to as Touch-Up).
(5) A state in which nothing is touched on the touch panel 229 (hereinafter referred to as touch-off).
(6) A state in which the area of the finger or the like that is touching on is equal to or larger than a predetermined area (hereinafter referred to as large-object-detect).
When the touchdown is detected, it is also detected that the touch is on. After touchdown, touchon is normally detected unless touchup is detected. A touch move is also detected when touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all the touched fingers or the like have touched up, the touch is turned off.

上述した操作・状態やタッチパネル229上に指等がタッチしている座標は内部バスを通じてシステム制御部214に通知される。システム制御部214は通知された情報に基づいてタッチパネル229上でどのような操作が行なわれたかを判定する。タッチムーブについては、システム制御部214はタッチパネル229上で移動する指等の移動方向を座標の変化に基づいて、タッチパネル229上の垂直成分・水平成分ごとに判定する。システム制御部214は、所定距離以上、所定速度未満でタッチムーブしたことを検出した場合はドラッグが行なわれたと判定する。   The system control unit 214 is notified of the above-described operation/state and the coordinates of the finger touching the touch panel 229 through the internal bus. The system control unit 214 determines what operation is performed on the touch panel 229 based on the notified information. Regarding the touch move, the system control unit 214 determines the moving direction of the finger or the like moving on the touch panel 229 for each vertical component/horizontal component on the touch panel 229 based on the change in coordinates. When the system control unit 214 detects that the touch move is performed at a predetermined distance or more and less than the predetermined speed, it is determined that the drag has been performed.

また、デジタルカメラ100は、電源制御部231、電源部232、記録媒体I/F233、通信部234、姿勢検知部235、接眼検知部115等を有する。電源制御部231は、電池検出回路、DC−DCコンバータ、通電するブロックを切替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部231は、その検出結果およびシステム制御部214の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体230を含む各部へ供給する。電源部232は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F233は、メモリカードやハードディスク等の記録媒体230とのインターフェースである。記録媒体230は、撮影された画像を記憶するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。通信部234は、デジタルカメラ100を無線または有線ケーブルによって外部機器に接続し、映像信号や音声信号の送受信を行う。また、通信部234は、撮像部213で撮影した画像(ライブビュー画像を含む)や、記録媒体230に記憶された画像を送信したり、外部機器から画像データやその他の各種情報を受信したりすることができる。なお、通信部234は、無線LAN(Local Area Network)やインターネットとも接続可能である。   The digital camera 100 also includes a power supply control unit 231, a power supply unit 232, a recording medium I/F 233, a communication unit 234, a posture detection unit 235, an eyepiece detection unit 115, and the like. The power supply control unit 231 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches blocks to be energized, and the like, and detects whether or not the battery is mounted, the type of the battery, and the remaining battery amount. Further, the power supply control unit 231 controls the DC-DC converter based on the detection result and the instruction of the system control unit 214, and supplies a necessary voltage to each unit including the recording medium 230 for a necessary period. The power supply unit 232 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, a Li battery, an AC adapter, or the like. The recording medium I/F 233 is an interface with the recording medium 230 such as a memory card or a hard disk. The recording medium 230 is a recording medium such as a memory card for storing captured images, and is composed of a semiconductor memory, a magnetic disk, or the like. The communication unit 234 connects the digital camera 100 to an external device by a wireless or wired cable, and transmits/receives a video signal and an audio signal. The communication unit 234 also transmits an image (including a live view image) captured by the image capturing unit 213, an image stored in the recording medium 230, and receives image data and various other information from an external device. can do. The communication unit 234 can also be connected to a wireless LAN (Local Area Network) or the Internet.

姿勢検知部235は、重力方向に対するデジタルカメラ100の姿勢を検知する。システム制御部214は、姿勢検知部235により検知された姿勢に基づいてデジタルカメラ100の傾き角度を算出することができる。したがって、システム制御部214は、傾き角度によって撮像部213で撮影された画像がデジタルカメラ100を横姿勢で撮影した画像であるか、縦姿勢で撮影した画像であるかを判別することができる。なお、システム制御部214は、姿勢検知部235により検知された姿勢に応じた向き情報を撮像部213で撮影された画像データに付加したり、向き情報に応じて画像を回転して記憶したりすることができる。姿勢検知部235は、例えば加速度センサやジャイロセンサ等を用いることができる。   The posture detection unit 235 detects the posture of the digital camera 100 with respect to the direction of gravity. The system control unit 214 can calculate the tilt angle of the digital camera 100 based on the posture detected by the posture detection unit 235. Therefore, the system control unit 214 can determine whether the image captured by the image capturing unit 213 is an image captured by the digital camera 100 in the horizontal posture or an image captured in the vertical posture according to the tilt angle. The system control unit 214 adds orientation information according to the orientation detected by the orientation detection unit 235 to the image data captured by the imaging unit 213, or rotates and stores an image according to the orientation information. can do. The posture detection unit 235 can use, for example, an acceleration sensor or a gyro sensor.

接眼検知部115は、ファインダ114の周囲に配置される。接眼検知部115は、例えば、赤外発光器および受光器で構成され、一定間隔で赤外光を発光して、物体により反射された光量を測定することで所定位置に物体が近接しているか否かを検知する。システム制御部214は、接眼検知部115から検知された検知情報によりユーザがファインダを使用しているか否か、具体的にはユーザの顔がファインダ114に近接しているか否かを検知する。接眼検知部115は、検知手段の一例である。   The eyepiece detection unit 115 is arranged around the finder 114. The eyepiece detection unit 115 includes, for example, an infrared light emitter and a light receiver, emits infrared light at regular intervals, and measures the amount of light reflected by the object to determine whether the object is close to a predetermined position. Detect whether or not. The system control unit 214 detects whether or not the user is using the finder based on the detection information detected by the eyepiece detection unit 115, specifically, whether or not the user's face is close to the finder 114. The eyepiece detection unit 115 is an example of a detection unit.

次に、ユーザがファインダ114を使用している場合にタッチパネル229に対するタッチ操作の操作性を向上させることができるデジタルカメラ100の処理について説明する。
なお、以下の各実施形態では、ユーザがデジタルカメラ100のファインダ114を覗きながらタッチパネル229をタッチ操作して、ファインダ内表示部220に表示されるAF枠のカーソルを移動させる場合を例にして説明する。
Next, a process of the digital camera 100 capable of improving the operability of the touch operation on the touch panel 229 when the user uses the finder 114 will be described.
In each of the following embodiments, a case where the user touches the touch panel 229 while looking into the finder 114 of the digital camera 100 to move the cursor of the AF frame displayed on the in-finder display unit 220 will be described as an example. To do.

<第1の実施形態>
まず、第1の実施形態に係るデジタルカメラ100の処理について図3のフローチャートを参照して説明する。このフローチャートにおける各処理は、システム制御部214が不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開して実行することにより実現される。
<First Embodiment>
First, the processing of the digital camera 100 according to the first embodiment will be described with reference to the flowchart in FIG. Each process in this flowchart is realized by the system control unit 214 loading a program stored in the nonvolatile memory 223 into the system memory 224 and executing the program.

S301では、システム制御部214はユーザがファインダ114を使用しているか否か、すなわちユーザがファインダ114に接眼しているか否かを判定する。システム制御部214は接眼検知部115から物体が近接している検知情報を受信した場合にはユーザがファインダ114を使用している、すなわちファインダ114に接眼していると判定する。一方、物体が近接している検知情報を受信していない場合にはファインダ114を使用していない、すなわち接眼していないと判定する。
なお、システム制御部214はファインダ114を使用しているか否かを、ライブビューボタン110の状態に応じて判定してもよい。すなわち、システム制御部214はライブビューボタン110に基づいてファインダ撮影モードに設定している場合にはファインダ114を使用していると判定する。一方、システム制御部214はライブビューボタン110に基づいてライブビュー撮影モードに設定している場合にはファインダ114を使用していないと判定する。
ファインダ114を使用していない場合にはファインダ114を使用するのを待機し、ファインダ114を使用している場合にはS302に進む。
In S301, the system control unit 214 determines whether or not the user is using the finder 114, that is, whether or not the user is in contact with the finder 114. When the system control unit 214 receives the detection information indicating that the object is approaching from the eyepiece detection unit 115, the system control unit 214 determines that the user is using the finder 114, that is, is in the eyepiece of the finder 114. On the other hand, when the detection information indicating that the object is approaching is not received, it is determined that the finder 114 is not used, that is, the eye is not in contact.
The system control unit 214 may determine whether or not the finder 114 is used according to the state of the live view button 110. That is, the system control unit 214 determines that the finder 114 is used when the finder shooting mode is set based on the live view button 110. On the other hand, the system control unit 214 determines that the finder 114 is not used when the live view shooting mode is set based on the live view button 110.
When the finder 114 is not used, the use of the finder 114 is waited, and when the finder 114 is used, the process proceeds to S302.

S302では、システム制御部214はデジタルカメラ100の操作モードを測距点選択モードに移行する。ここでは、システム制御部214はファインダ内表示駆動回路221を介してファインダ内表示部220に測距点を選択するためのAF枠を表示する。
図4は、デジタルカメラ100を背面側から見た図である。図4には、ファインダ内表示部220の表示内容を拡大して示している。
図4(a)に示すように、ファインダ内表示部220には35点のAF枠が表示されており、中央のAF枠が選択された状態になっている。選択中のAF枠を表すカーソル401を太線で示している。ユーザはタッチパネル229へのタッチ操作により任意のAF枠を選択することができる。
S303では、システム制御部214はタッチパネル229を介してタッチ操作、具体的にはタッチダウンを検出したか否かを判定する。タッチダウンを検出した場合にはS304に進み、タッチダウンを検出しない場合にはタッチダウンを検出するまで待機する。
In S302, the system control unit 214 shifts the operation mode of the digital camera 100 to the focus detection point selection mode. Here, the system control unit 214 displays an AF frame for selecting a focus detection point on the in-finder display unit 220 via the in-finder display drive circuit 221.
FIG. 4 is a diagram of the digital camera 100 viewed from the back side. FIG. 4 shows an enlarged display content of the in-finder display section 220.
As shown in FIG. 4A, 35 AF points are displayed on the in-finder display section 220, and the center AF frame is selected. The cursor 401 indicating the AF frame being selected is indicated by a thick line. The user can select an arbitrary AF frame by touching the touch panel 229.
In S303, the system control unit 214 determines whether or not a touch operation, specifically a touchdown, has been detected via the touch panel 229. When the touchdown is detected, the process proceeds to S304, and when the touchdown is not detected, the process waits until the touchdown is detected.

S304では、システム制御部214はタッチダウンされたときのタッチ形状が楕円であるか否かを判定する。ここで、タッチ形状とは、タッチパネル229に対するタッチのうちタッチダウンであると判定する領域の外周の形状をいうものとする。例えば、タッチパネル229が静電容量方式の場合には、タッチ形状はタッチダウンと判定する閾値を超えて静電容量が変化した領域の外周の形状である。
図4(a)では、タッチ形状402はユーザの右手の指(親指)403によりタッチされた形状を示し、タッチ形状404はユーザの顔405の一部(鼻等)によりタッチされた形状を示している。デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合、指が寝た状態でタッチすることになり、タッチ形状402は楕円に近い形状になると推測される。一方、ファインダ114に接眼するときに誤ってユーザの顔の一部でタッチパネル229をタッチした場合、タッチ形状404は真円に近い形状になると推測される。
したがって、S304において、システム制御部214はタッチ形状が楕円に近い形状である場合には指によりタッチ操作された可能性が高いと判定し、タッチ形状が真円に近い形状である場合にはユーザの顔の一部によりタッチされたと判定することができる。
システム制御部214はタッチ形状が楕円に近いか真円に近いかを、タッチパネル229の座標を用いた楕円の近似式によって判定する。
具体的に、式(1)を用いてタッチ形状を楕円に近似する。
In S304, the system control unit 214 determines whether the touch shape when touched down is an ellipse. Here, the touch shape means the shape of the outer periphery of the area determined to be touchdown among the touches on the touch panel 229. For example, when the touch panel 229 is of a capacitance type, the touch shape is the shape of the outer periphery of the area in which the capacitance has changed by exceeding the threshold value for determining touchdown.
In FIG. 4A, a touch shape 402 indicates a shape touched by a finger (thumb) 403 of the user's right hand, and a touch shape 404 indicates a shape touched by a part (such as a nose) of the user's face 405. ing. When the touch panel 229 is touched with the thumb while holding the digital camera 100, the finger touches the touch panel 229 in a lying state, and it is estimated that the touch shape 402 has a shape close to an ellipse. On the other hand, if the touch panel 229 is mistakenly touched with a part of the user's face when the viewfinder 114 is brought into contact with the eye, the touch shape 404 is estimated to be a shape close to a perfect circle.
Therefore, in S304, the system control unit 214 determines that the touch operation is likely to be performed by a finger when the touch shape is a shape close to an ellipse, and the user determines that the touch shape is close to a perfect circle. It can be determined that a part of the face has been touched.
The system control unit 214 determines whether the touch shape is close to an ellipse or a perfect circle by an elliptic approximation formula using the coordinates of the touch panel 229.
Specifically, the touch shape is approximated to an ellipse using Expression (1).

Figure 0006701027
Figure 0006701027

ここで、式(1)のうち係数A,B,C,D,Eは、タッチ形状の外周上の複数の座標(Xi,Yi)と、式(2)とを用いて算出することができる。 Here, the coefficients A, B, C, D, and E in the equation (1) should be calculated using a plurality of coordinates (X i , Y i ) on the outer circumference of the touch shape and the equation (2). You can

Figure 0006701027
Figure 0006701027

次に、式(3)、式(4)を用いて、近似した楕円の長軸(の長さ)aと短軸(の長さ)bとを算出することができる。   Next, using the formulas (3) and (4), the major axis (the length) a and the minor axis (the length) b of the approximated ellipse can be calculated.

Figure 0006701027
Figure 0006701027

ここで、(X0,Y0)は近似した楕円の中心座標であり、θは楕円の傾きである。なお、(X0,Y0)は、後述する式(6)、式(7)により算出することができる。また、θは後述する式(5)により算出することができる。
ここで、システム制御部214は算出した結果を用いて、楕円の長軸aと楕円の短軸bとの比(a/b)が閾値よりも大きいか否かを判定する。例えば、閾値には1.2を用いることができる。システム制御部214は長軸aと短軸bとの比が閾値よりも大きい場合には楕円に近い、すなわち指によるタッチ操作の可能性が高いとしてS305に進む。一方、閾値以下の場合には真円に近い、すなわちユーザの顔の一部によるタッチであるとしてS309に進む。
Here, (X 0 , Y 0 ) is the center coordinate of the approximated ellipse, and θ is the inclination of the ellipse. Note that (X 0 , Y 0 ) can be calculated by the equations (6) and (7) described later. Further, θ can be calculated by the equation (5) described later.
Here, the system control unit 214 uses the calculated result to determine whether or not the ratio (a/b) of the major axis a of the ellipse to the minor axis b of the ellipse is larger than the threshold value. For example, 1.2 can be used as the threshold value. When the ratio of the long axis a to the short axis b is larger than the threshold value, the system control unit 214 determines that the shape is close to an ellipse, that is, the possibility of touch operation with a finger is high, and proceeds to S305. On the other hand, if it is less than or equal to the threshold, it is determined that the touch is close to a perfect circle, that is, the touch is made by a part of the face of the user, and the process proceeds to S309.

S305では、システム制御部214はタッチ操作におけるタッチ面内の角度を算出することで、タッチ面内の角度を取得する。ここで、タッチ面とは、タッチパネル229の表面を意味する。また、タッチ面内の角度とは、タッチ形状を楕円に近似したときの楕円の長軸と、タッチパネル229面内の基準軸とがなす角度をいう。以下ではタッチ面内の角度を、タッチ入力角度という。本実施形態では、タッチパネル229面内の基準軸は、表示部105(あるいはタッチパネル229)の長辺と平行な軸であるものとする。
ここで、タッチ入力角度は、タッチ形状の楕円の傾きθに相当し、式(5)を用いて算出することができる。
In S305, the system control unit 214 acquires the angle within the touch surface by calculating the angle within the touch surface during the touch operation. Here, the touch surface means the surface of the touch panel 229. Further, the angle in the touch surface means an angle formed by the long axis of the ellipse when the touch shape is approximated to an ellipse and the reference axis in the surface of the touch panel 229. Hereinafter, the angle within the touch surface will be referred to as a touch input angle. In the present embodiment, the reference axis in the plane of the touch panel 229 is assumed to be an axis parallel to the long side of the display unit 105 (or the touch panel 229).
Here, the touch input angle corresponds to the inclination θ of the ellipse of the touch shape, and can be calculated using Expression (5).

Figure 0006701027
Figure 0006701027

S306では、システム制御部214は取得したタッチ操作におけるタッチ入力角度が所定の範囲であるか否かを判定する。具体的には、システム制御部214はタッチ入力角度が、第1閾値TH1以上第2閾値TH2以下であるか否かを判定する。第1閾値TH1は所定の範囲の下限であって、第2閾値TH2は所定の範囲の上限である。第1閾値TH1および第2閾値TH2は、ユーザがデジタルカメラ100を保持しながら指でタッチ操作したときに想定されるタッチ入力角度の範囲に対応している。各閾値は、ユーザがタッチ操作するときのタッチ入力角度を検証すること等によって定めることができ、予め不揮発性メモリ223に記憶されている。
ここで、ファインダ114に接眼したときにタッチパネル229にユーザの顔の一部(鼻等)が誤ってタッチしたときのタッチ形状が楕円に近い形状になる場合がある。本実施形態では、タッチ入力角度に注目して、タッチ入力角度が所定の範囲である場合には指によるタッチ操作の可能性が高いと判定する。一方、タッチ入力角度が所定の範囲ではない場合にはユーザの顔の一部によるタッチであると判定する。
In S306, the system control unit 214 determines whether or not the touch input angle in the acquired touch operation is within a predetermined range. Specifically, the system control unit 214 determines whether the touch input angle is equal to or more than the first threshold TH1 and equal to or less than the second threshold TH2. The first threshold TH1 is the lower limit of the predetermined range, and the second threshold TH2 is the upper limit of the predetermined range. The first threshold TH1 and the second threshold TH2 correspond to the range of the touch input angle that is assumed when the user performs a touch operation with the finger while holding the digital camera 100. Each threshold can be set by verifying the touch input angle when the user performs a touch operation, and is stored in the nonvolatile memory 223 in advance.
Here, when a part of the user's face (nose or the like) is accidentally touched on the touch panel 229 when the viewfinder 114 is in contact with the eye, the touch shape may be close to an ellipse. In the present embodiment, attention is paid to the touch input angle, and when the touch input angle is within a predetermined range, it is determined that the touch operation with a finger is highly likely. On the other hand, when the touch input angle is not within the predetermined range, it is determined that the touch is made by a part of the user's face.

図5は、指によるタッチ操作におけるタッチ入力角度と、ユーザの顔の一部がタッチした場合のタッチ入力角度とを説明するための図である。なお、図4(a)と同様の構成は、同一符号を付している。図5の下側には、タッチパネル229にタッチしたときのタッチ形状を抜き出して図示している。
指によりタッチ操作したときのタッチ形状402は、デジタルカメラ100を保持しながら親指でタッチ操作をするために、タッチ入力角度が鋭角に近い角度θfになると推測される。一方、ユーザの顔の一部が誤ってタッチしたときにタッチ形状404が楕円になる場合には、タッチ入力角度が垂直に近い角度θn、すなわちタッチパネル229面内の基準軸と楕円の長軸とが直交するような角度になると推測される。
したがって、S306において、システム制御部214はタッチ形状が楕円であってもタッチ入力角度が垂直に近い場合にはユーザの顔の一部によりタッチされたと判定し、タッチ入力角度が鋭角である場合には指によりタッチ操作されたと判定することができる。
タッチ入力角度が所定の範囲である場合にはS307に進み、所定の範囲ではない場合にはS309に進む。
FIG. 5 is a diagram for explaining a touch input angle in a touch operation with a finger and a touch input angle when a part of the user's face is touched. The same components as those in FIG. 4A are designated by the same reference numerals. In the lower part of FIG. 5, a touch shape when the touch panel 229 is touched is extracted and shown.
It is assumed that the touch shape 402 when the touch operation is performed with the finger is the angle θf that is close to an acute angle because the touch operation is performed with the thumb while holding the digital camera 100. On the other hand, when the touch shape 404 becomes an ellipse when a part of the user's face is touched by mistake, the touch input angle is an angle θn close to vertical, that is, the reference axis in the plane of the touch panel 229 and the long axis of the ellipse. It is presumed that the angles will be orthogonal to each other.
Therefore, in step S306, the system control unit 214 determines that a part of the user's face is touched even if the touch shape is an ellipse and the touch input angle is close to vertical, and determines that the touch input angle is an acute angle. Can be determined to have been touch-operated by the finger.
If the touch input angle is within the predetermined range, the process proceeds to S307, and if it is not within the predetermined range, the process proceeds to S309.

S307では、システム制御部214は検出されたタッチ操作を有効と判定する。したがって、システム制御部214は検出されたタッチ操作に基づいて処理を行うために、S308に進む。
S308では、システム制御部214は有効と判定したタッチ操作に基づいた処理を行う。具体的には、システム制御部214はファインダ内表示部220に表示される選択中のAF枠のカーソル401をタッチムーブに応じて移動させる。
In S307, the system control unit 214 determines that the detected touch operation is valid. Therefore, the system control unit 214 proceeds to S308 in order to perform processing based on the detected touch operation.
In S308, the system control unit 214 performs processing based on the touch operation that is determined to be valid. Specifically, the system control unit 214 moves the cursor 401 of the selected AF frame displayed on the in-viewfinder display unit 220 according to the touch move.

図4(b)、(c)はタッチ操作を有効と判定したときの処理の一例を示す図である。図4(b)、(c)では、図4(a)の状態からユーザが指403をタッチパネル229上で右あるいは上に動かすことで、タッチムーブ406、407が検出された状態を示している。なお、指403、ユーザの顔405、デジタルカメラ100の外形、ファインダ114の図示を省略している。
図4(b)、(c)に示すように、システム制御部214はタッチムーブ406、407の移動方向および移動量に応じて、ファインダ内表示部220に表示される選択中のAF枠のカーソル401を移動するように制御する。ここで、選択中のAF枠のカーソル401の移動方向と、有効と判定されたタッチ操作であるタッチムーブの移動方向とは一致し、その移動量は比例関係にある。また、本実施形態では、有効と判定されたタッチ操作のタッチパネル229上の位置座標と、カーソル401のファインダ内表示部220上の位置座標とは相対位置関係にある。すなわち、システム制御部214はタッチムーブ406、407による位置座標に応じてカーソル401の位置を変更するのではない。システム制御部214はタッチダウンした位置を基準とした、タッチムーブ406、407の移動方向および移動量に応じて、カーソル401の現在位置からの移動方向および移動量を決定してカーソル401の位置を変更する。
FIGS. 4B and 4C are diagrams showing an example of processing when it is determined that the touch operation is valid. 4B and 4C show a state in which the touch moves 406 and 407 are detected by the user moving the finger 403 to the right or up on the touch panel 229 from the state of FIG. 4A. .. The illustration of the finger 403, the user's face 405, the outer shape of the digital camera 100, and the finder 114 is omitted.
As shown in FIGS. 4B and 4C, the system control unit 214 causes the cursor of the AF frame being selected which is displayed on the in-viewfinder display unit 220 according to the moving direction and the moving amount of the touch moves 406 and 407. Control 401 to move. Here, the moving direction of the cursor 401 of the selected AF frame and the moving direction of the touch move, which is the touch operation determined to be valid, match, and the moving amount is in a proportional relationship. Further, in the present embodiment, the position coordinates on the touch panel 229 of the touch operation determined to be valid and the position coordinates of the cursor 401 on the in-finder display unit 220 have a relative positional relationship. That is, the system control unit 214 does not change the position of the cursor 401 according to the position coordinates of the touch moves 406 and 407. The system control unit 214 determines the movement direction and the movement amount of the cursor 401 from the current position according to the movement direction and the movement amount of the touch moves 406 and 407 with the touched-down position as a reference, and determines the position of the cursor 401. change.

S309では、システム制御部214は検出されたタッチ操作を無効と判定する。ここでは、S304において真円に近いと判定されることでS309に進む場合と、S306においてタッチ入力角度が所定の範囲ではないと判定されることでS309に進む場合とがある。システム制御部214は何れの場合でも検出されたタッチ操作に基づいた処理を行わず、無効とする。
図4(d)はタッチ操作を無効と判定したときの処理の一例を示す図である。図4(d)では、図4(a)の状態からユーザの顔の一部がタッチパネル229上で右に動くことで、タッチムーブ408を検出した状態を示している。なお、指403、ユーザの顔405、デジタルカメラ100の外形、ファインダ114の図示を省略している。
ここでは、タッチ形状404が真円に近い、あるいは、タッチ入力角度が垂直に近い角度である。したがって、システム制御部214はタッチムーブ408のタッチ操作を無効と判定しているために、ファインダ内表示部220に表示される選択中のAF枠のカーソル401の位置を移動させないように制御する。
In S309, the system control unit 214 determines that the detected touch operation is invalid. Here, there are a case where the process proceeds to S309 when it is determined to be close to a perfect circle in S304, and a case where the process proceeds to S309 when it is determined that the touch input angle is not within the predetermined range in S306. In any case, the system control unit 214 does not perform the process based on the detected touch operation and invalidates the process.
FIG. 4D is a diagram illustrating an example of processing when it is determined that the touch operation is invalid. FIG. 4D shows a state in which the touch move 408 is detected by moving part of the user's face to the right on the touch panel 229 from the state of FIG. 4A. The illustration of the finger 403, the user's face 405, the outer shape of the digital camera 100, and the finder 114 is omitted.
Here, the touch shape 404 is close to a perfect circle, or the touch input angle is close to vertical. Therefore, since the system control unit 214 determines that the touch operation of the touch move 408 is invalid, the system control unit 214 controls so as not to move the position of the cursor 401 of the AF frame being selected displayed on the in-viewfinder display unit 220.

S310では、システム制御部214はユーザがファインダ114を使用しているか否か、すなわちユーザがファインダ114に接眼しているか否かを判定する。この処理は、S301と同様の処理である。したがって、システム制御部214は接眼検知部115からの検知情報あるいはライブビューボタン110の状態に基づいて判定する。
ファインダ114を使用している場合にはS311に進み、ファインダ114を使用していない場合には処理を終了する。
In S310, the system control unit 214 determines whether or not the user is using the finder 114, that is, whether or not the user is in contact with the finder 114. This process is the same as S301. Therefore, the system control unit 214 makes a determination based on the detection information from the eyepiece detection unit 115 or the state of the live view button 110.
If the finder 114 is used, the process proceeds to step S311. If the finder 114 is not used, the process ends.

S311では、システム制御部214はタッチパネル229を介して追加のタッチ操作を検出したか否かを判定する。システム制御部214は追加のタッチ操作として追加のタッチダウンを検出した場合にはS312に進み、追加のタッチダウンを検出していない場合にはS310に戻る。
S312では、システム制御部214はタッチオンしているタッチ操作のうち、S307において有効と判定したタッチ操作があるか否かを判定する。有効として判定したタッチオンがある場合にはS310に戻り、有効として判定したタッチオンがない場合にはS304に戻る。
In S311, the system control unit 214 determines whether or not an additional touch operation has been detected via the touch panel 229. The system control unit 214 proceeds to S312 if it detects an additional touchdown as an additional touch operation, and returns to S310 if it has not detected an additional touchdown.
In S312, the system control unit 214 determines whether or not there is a touch operation determined to be valid in S307 among the touch operations that are touched on. If there is a touch-on determined to be valid, the process returns to S310, and if there is no touch-on determined to be valid, the process returns to S304.

以上のように、本実施形態によれば、ファインダ114が使用されている場合にタッチ操作におけるタッチ面内の角度に応じてタッチ操作を有効とするか無効とするかを判定する。上述したように、ユーザが意図して指でタッチパネル229にタッチする場合とユーザの顔の一部(鼻等)が意図せずに誤ってタッチパネル229にタッチする場合とでタッチ面内の角度が異なる。したがって、タッチ面内の角度に応じてタッチ操作を有効とするか無効とするかを判定することで、入力可能領域を制限せずにユーザの顔の一部がタッチしたときの誤動作を防止することができる。このように、入力可能領域を制限しないことから、ユーザがファインダ114を使用しているときのタッチパネル229に対する操作性を向上させることができる。
また、本実施形態によれば、タッチ面内の角度が所定の範囲であるか否かに基づいてタッチ操作が有効か無効かを判定することから、タッチ操作が有効か無効かを容易に判定することができる。
また、本実施形態によれば、タッチ面内の角度が、指でタッチ操作したときに想定される角度の範囲の場合にタッチ操作を有効とし、他の角度の場合にはタッチ操作を無効とすることで、タッチ操作が有効か無効かを精度よく判定することができる。
As described above, according to the present embodiment, when the finder 114 is used, it is determined whether the touch operation is valid or invalid according to the angle in the touch surface in the touch operation. As described above, when the user intentionally touches the touch panel 229 with a finger and when a part of the user's face (nose or the like) unintentionally touches the touch panel 229, the angle in the touch surface is different. different. Therefore, by determining whether the touch operation is valid or invalid according to the angle within the touch surface, it is possible to prevent a malfunction when the part of the user's face is touched without limiting the inputtable area. be able to. Since the inputtable area is not limited in this way, it is possible to improve the operability of the touch panel 229 when the user is using the finder 114.
Further, according to the present embodiment, since it is determined whether the touch operation is valid or invalid based on whether the angle in the touch surface is within a predetermined range, it is easy to determine whether the touch operation is valid or invalid. can do.
Further, according to the present embodiment, the touch operation is validated when the angle in the touch surface is in the range of the angle assumed when the touch operation is performed by the finger, and the touch operation is invalid when the angle is another angle. By doing so, it is possible to accurately determine whether the touch operation is valid or invalid.

なお、本実施形態では、システム制御部214はファインダ114を使用しているか否かを、接眼検知部115からの検知情報あるいはライブビューボタン110の状態に応じて判定する場合について説明したが、この場合に限られない。システム制御部214はライブビューボタン110に限られず、ファインダ114を使用するための他の操作部の状態に応じてファインダを使用しているか否かを判定してもよい。また、ファインダ114が着脱式である場合には、システム制御部214はファインダ114が装着されているときにファインダ114を使用していると判定してもよい。   In the present embodiment, the case where the system control unit 214 determines whether or not the finder 114 is used according to the detection information from the eyepiece detection unit 115 or the state of the live view button 110 has been described. Not limited to cases. The system control unit 214 is not limited to the live view button 110, and may determine whether or not the finder is used according to the state of another operation unit for using the finder 114. When the finder 114 is detachable, the system control unit 214 may determine that the finder 114 is being used when the finder 114 is attached.

<第2の実施形態>
第2の実施形態では、タッチ操作が有効であるか無効であるかを判定するときのタッチ入力角度の閾値をタッチ操作のタッチ位置に応じて変更する例について説明する。図6は、第2の実施形態に係るデジタルカメラ100の処理を示すフローチャートである。このフローチャートにおける各処理は、システム制御部214が不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開して実行することにより実現される。
図6のフローチャートのS601〜S605の処理は図3のフローチャートのS301〜S305の処理と同様であり、図6のフローチャートのS610〜S615の処理は図3のフローチャートのS307〜S312の処理と同様であり、重複する説明を省略する。
<Second Embodiment>
In the second embodiment, an example will be described in which the threshold value of the touch input angle when determining whether the touch operation is valid or invalid is changed according to the touch position of the touch operation. FIG. 6 is a flowchart showing the processing of the digital camera 100 according to the second embodiment. Each process in this flowchart is realized by the system control unit 214 loading a program stored in the nonvolatile memory 223 into the system memory 224 and executing the program.
The processing of S601 to S605 of the flowchart of FIG. 6 is the same as the processing of S301 to S305 of the flowchart of FIG. 3, and the processing of S610 to S615 of the flowchart of FIG. 6 is the same as the processing of S307 to S312 of the flowchart of FIG. Yes, duplicate description will be omitted.

S605においてシステム制御部214はタッチ入力角度を取得した後にS606に進む。
S606では、システム制御部214はタッチ位置の座標を取得する。具体的には、システム制御部214はタッチ形状を楕円に近似した近似式を用いて中心座標を算出し、算出した中心座標をタッチ位置の座標とする。
中心座標(X0,Y0)は式(6)、式(7)を用いて算出することができる。
In step S605, the system control unit 214 acquires the touch input angle and then proceeds to step S606.
In step S606, the system control unit 214 acquires the coordinates of the touch position. Specifically, the system control unit 214 calculates the center coordinates using an approximate expression that approximates the touch shape to an ellipse, and sets the calculated center coordinates as the coordinates of the touch position.
The center coordinates (X 0 , Y 0 ) can be calculated using the equations (6) and (7).

Figure 0006701027
Figure 0006701027

次に、S607〜S609において、システム制御部214はタッチ入力角度がタッチ位置の座標に応じて変更される閾値の範囲内に含まれているか否かを判定する。
まず、S607では、システム制御部214は取得したタッチ位置の座標がエリアA内であって、且つ、S605で算出したタッチ入力角度が第1閾値TH1_A以上第2閾値TH2_A以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS608に進む。
S608では、システム制御部214は取得したタッチ位置の座標がエリアB内であって、且つ、S605で算出したタッチ入力角度が第3閾値TH1_B以上第4閾値TH2_B以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS609に進む。
S609では、システム制御部214は取得したタッチ位置の座標がエリアC内であって、且つ、S605で算出したタッチ入力角度が第5閾値TH1_C以上第6閾値TH2_C以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS612に進む。
Next, in S<b>607 to S<b>609, the system control unit 214 determines whether the touch input angle is included in the range of the threshold value changed according to the coordinates of the touch position.
First, in S607, the system control unit 214 determines whether the coordinates of the acquired touch position are within the area A and the touch input angle calculated in S605 is equal to or more than the first threshold TH1_A and equal to or less than the second threshold TH2_A. judge. When this condition is satisfied, the process proceeds to S610, and when this condition is not satisfied, the process proceeds to S608.
In step S608, the system control unit 214 determines whether the acquired coordinates of the touch position are within the area B and the touch input angle calculated in step S605 is equal to or more than the third threshold value TH1_B and equal to or less than the fourth threshold value TH2_B. .. When this condition is satisfied, the process proceeds to S610, and when this condition is not satisfied, the process proceeds to S609.
In S609, the system control unit 214 determines whether the acquired coordinates of the touch position are within the area C and the touch input angle calculated in S605 is equal to or greater than the fifth threshold value TH1_C and equal to or less than the sixth threshold value TH2_C. .. When this condition is satisfied, the process proceeds to S610, and when this condition is not satisfied, the process proceeds to S612.

図7は、タッチ位置とタッチ入力角度との関係を説明するための図である。ここでは、タッチパネル229を上述したエリアA、エリアB、エリアCの複数(3つ)に区分している。エリアAは表示部105のうち左上の矩形状の領域であり、エリアBは表示部105の右上の矩形状の領域であり、エリアCは表示部105の下側の矩形状の領域である。
本実施形態では、デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合にエリアごとにタッチ入力角度が異なってくることに注目し、タッチ操作が有効か無効かを判定するための閾値をエリアごとに変更する。
FIG. 7 is a diagram for explaining the relationship between the touch position and the touch input angle. Here, the touch panel 229 is divided into a plurality (three) of the area A, the area B, and the area C described above. Area A is the upper left rectangular area of the display unit 105, area B is the upper right rectangular area of the display unit 105, and area C is the lower rectangular area of the display unit 105.
In the present embodiment, attention is paid to the fact that the touch input angle is different for each area when the touch panel 229 is touched with the thumb while holding the digital camera 100, and a threshold value for determining whether the touch operation is valid or invalid. Is changed for each area.

図7(a)は、タッチ位置の座標がエリアAである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、タッチ入力角度θfが上述した第1閾値TH1_A以上第2閾値TH2_A以下の範囲に含まれると推測される。
図7(b)は、タッチ位置の座標がエリアBである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、エリアAに比べてタッチ入力角度θfが大きくなり(垂直に近い角度になり)、タッチ入力角度θfが上述した第3閾値TH1_B以上第4閾値TH2_B以下の範囲に含まれると推測される。
図7(c)は、タッチ位置の座標がエリアCである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、エリアA、Bに比べてタッチ入力角度θfが小さくなり(水平に近い角度になり)、タッチ入力角度θfが第5閾値TH1_C以上第6閾値TH2_C以下の範囲に含まれると推測される。
ここで、各タッチ入力角度の閾値の関係としては例えば、閾値TH1,2_C<閾値TH1,2_A<閾値TH1,2_Bとすることができる。各エリアの位置情報は予め不揮発性メモリ223に記憶されている。また、各閾値は、ユーザがタッチ操作するときのタッチ入力角度をエリアごとに検証すること等によって定めることができ、エリアごとに関連付けて予め不揮発性メモリ223に記憶されている。
FIG. 7A is a diagram showing a case where the coordinates of the touch position are area A. In this case, when the touch operation is performed with the thumb while holding the digital camera 100, it is estimated that the touch input angle θf is included in the range from the first threshold TH1_A to the second threshold TH2_A described above.
FIG. 7B is a diagram showing a case where the coordinates of the touch position are area B. In this case, when the touch operation is performed with the thumb while holding the digital camera 100, the touch input angle θf becomes larger (closer to a vertical angle) than in the area A, and the touch input angle θf is equal to or larger than the third threshold TH1_B described above. It is presumed to be included in the range equal to or less than the fourth threshold TH2_B.
FIG. 7C is a diagram showing a case where the coordinates of the touch position are area C. In this case, when the touch operation is performed with the thumb while holding the digital camera 100, the touch input angle θf becomes smaller than the areas A and B (closer to horizontal), and the touch input angle θf is equal to or larger than the fifth threshold value TH1_C. It is presumed to be included in the range equal to or less than the sixth threshold TH2_C.
Here, the relationship between the thresholds of the respective touch input angles may be, for example, thresholds TH1,2_C<thresholds TH1,2_A<thresholds TH1,2_B. The position information of each area is stored in the non-volatile memory 223 in advance. Further, each threshold value can be determined by verifying the touch input angle when the user performs a touch operation for each area, and is stored in the nonvolatile memory 223 in association with each area in advance.

S610では、システム制御部214は検出されたタッチ操作を有効と判定する。すなわち、システム制御部214はタッチ入力角度がエリアごとに変更した閾値の範囲である場合には指によりタッチ操作されたと判定する。
一方、S612では、システム制御部214は検出されたタッチ操作を無効と判定する。すなわち、システム制御部214はタッチ入力角度がエリアごとに変更した閾値の範囲ではない場合にはユーザの顔の一部によりタッチされたと判定する。
In S610, the system control unit 214 determines that the detected touch operation is valid. That is, the system control unit 214 determines that the touch operation is performed by the finger when the touch input angle is within the threshold range changed for each area.
On the other hand, in S612, the system control unit 214 determines that the detected touch operation is invalid. That is, the system control unit 214 determines that a part of the user's face is touched when the touch input angle is not within the threshold range changed for each area.

以上のように、本実施形態によれば、タッチ操作のタッチ位置に応じて、タッチ操作が有効か無効かを判定するための所定の範囲を変更する。上述したように、デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合にエリアごとにタッチ入力角度が異なる。したがって、エリアごとにタッチ操作が有効か無効かを判定するための所定の範囲を変更することで、タッチ操作が有効か無効かを精度よく判定することができる。
具体的には、タッチパネル229に対するタッチ位置が下側よりも上側のほうが、指によるタッチ操作のタッチ入力角度は垂直に近い角度になる。したがって、閾値の範囲もタッチ位置が下側よりも上側のほうが垂直に近い角度になるように変更することが好ましい。
また、タッチパネル229に対するタッチ位置がグリップ部116に離れているよりも近いほうが、指によるタッチ操作のタッチ入力角度は垂直に近い角度になる。したがって、閾値の範囲もタッチ位置がグリップ部116に離れているよりも近いほうが垂直に近い角度になるように変更することが好ましい。
なお、第2の実施形態では、タッチパネル229を3つのエリアに区分する場合について説明したが、この場合に限られず、2つや4つ以上のエリアに区分してもよく、区分したエリアごとに閾値の範囲を変更することができる。
As described above, according to the present embodiment, the predetermined range for determining whether the touch operation is valid or invalid is changed according to the touch position of the touch operation. As described above, when the touch panel 229 is touched with the thumb while holding the digital camera 100, the touch input angle varies depending on the area. Therefore, it is possible to accurately determine whether the touch operation is valid or invalid by changing the predetermined range for determining whether the touch operation is valid or invalid for each area.
Specifically, when the touch position on the touch panel 229 is on the upper side than on the lower side, the touch input angle of the touch operation by the finger becomes an angle close to vertical. Therefore, it is preferable to change the range of the threshold so that the upper side of the touch position is closer to the vertical than the lower side.
In addition, when the touch position on the touch panel 229 is closer to the touch unit 229 than it is to the grip unit 116, the touch input angle of the touch operation with the finger becomes a vertical angle. Therefore, it is preferable to change the range of the threshold value so that the closer the touch position is to the grip portion 116, the closer the touch position is to the vertical angle.
In addition, in the second embodiment, the case where the touch panel 229 is divided into three areas has been described, but the present invention is not limited to this case, and the touch panel 229 may be divided into two areas or four or more areas, and the threshold value is divided for each area. The range of can be changed.

なお、システム制御部214が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。例えば、上述した実施形態では、システム制御部214がタッチパネル229を介してタッチ操作を検出する場合について説明したが、この場合に限られず、デジタルカメラ100はタッチパネル制御部を別途で備えてもよい。すなわち、タッチパネル制御部がタッチパネル229を介してタッチ操作を検出し、検出したタッチ操作の情報をシステム制御部214に通知するように構成してもよい。
また、本発明をその好適な実施形態に基づいて詳述したが、本発明は上述した実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
The above-described various controls described as being performed by the system control unit 214 may be performed by one piece of hardware, or a plurality of pieces of hardware may share the processing to control the entire apparatus. .. For example, in the above-described embodiment, the case where the system control unit 214 detects a touch operation via the touch panel 229 has been described, but the present invention is not limited to this case, and the digital camera 100 may include a touch panel control unit separately. That is, the touch panel control unit may detect the touch operation via the touch panel 229 and notify the system control unit 214 of the information on the detected touch operation.
Further, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to the above-described embodiments, and various forms within the scope of the present invention are also included in the present invention. .. Furthermore, the above-described embodiment is merely one embodiment of the present invention, and it is possible to appropriately combine the embodiments.

また、第1、第2の実施形態では、タッチ操作により実行される処理がAF枠を選択する場合について説明したが、この場合に限られず、デジタルカメラ100に関するあらゆる操作に適用することができる。例えば、デジタルカメラのシャッター速度、絞り値、ISO感度、露出補正値等の撮影に関する設定を変更する操作や、被写体を選択する選択枠を異なる被写体に移動させる操作に適用してもよい。   Further, in the first and second embodiments, the case where the process executed by the touch operation selects the AF frame has been described, but the present invention is not limited to this case, and can be applied to all operations related to the digital camera 100. For example, the present invention may be applied to an operation of changing shooting settings such as a shutter speed, an aperture value, an ISO sensitivity, and an exposure correction value of a digital camera, or an operation of moving a selection frame for selecting a subject to a different subject.

また、第1、第2の実施形態では、本発明をデジタルカメラに適用する場合を例にして説明したが、この場合に限られず、ファインダ、タッチパネルを備える撮像装置であれば適用可能である。すなわち、本発明はデジタルビデオカメラ、タブレット端末、スマートフォン等に適用可能である。   Further, although cases have been described with the first and second embodiments as examples in which the present invention is applied to a digital camera, the present invention is not limited to this case, and is applicable to any image pickup apparatus including a finder and a touch panel. That is, the present invention is applicable to digital video cameras, tablet terminals, smartphones and the like.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:デジタルカメラ(撮像装置) 105:表示部 110:ライブビューボタン 114:ファインダ 115:接眼検知部 214:システム制御部 220:ファインダ内表示部 229:タッチパネル   100: Digital Camera (Imaging Device) 105: Display Unit 110: Live View Button 114: Viewfinder 115: Eyepiece Detection Unit 214: System Control Unit 220: Viewfinder Display Unit 229: Touch Panel

Claims (15)

ファインダと、
タッチ操作を検出するタッチ検出手段と、
前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御手段と、を有することを特徴とする撮像装置。
With a finder,
Touch detection means for detecting a touch operation,
When the viewfinder is used, the valid touch is made different by validating or invalidating the touch operation according to the angle in the touch surface in the touch operation detected by the touch detection unit. An image pickup apparatus comprising: a control unit that performs a predetermined process according to an operation and controls the predetermined process not to be performed according to the invalid touch operation.
前記制御手段は、
前記タッチ面内の角度が所定の範囲である場合には前記タッチ操作を有効とし、
前記タッチ面内の角度が前記所定の範囲ではない場合には前記タッチ操作を無効とするように制御することを特徴とする請求項1に記載の撮像装置。
The control means is
When the angle in the touch surface is within a predetermined range, the touch operation is valid,
The image pickup apparatus according to claim 1, wherein when the angle within the touch surface is not within the predetermined range, the touch operation is controlled to be invalid.
該撮像装置を保持するための保持部を備え、
前記所定の範囲は、ユーザが該撮像装置を前記保持部で保持しながら指でタッチ操作するときの角度の範囲であることを特徴とする請求項2に記載の撮像装置。
A holding unit for holding the imaging device,
The image pickup apparatus according to claim 2, wherein the predetermined range is an angle range when a user performs a touch operation with a finger while holding the image pickup apparatus by the holding unit.
前記制御手段は、
前記タッチ操作のタッチ位置に応じて前記所定の範囲を変更するように制御することを特徴とする請求項2または3に記載の撮像装置。
The control means is
The image pickup apparatus according to claim 2, wherein the predetermined range is controlled according to a touch position of the touch operation.
前記制御手段は、
前記タッチ面内のエリアごとに前記所定の範囲を変更するように制御することを特徴とする請求項4に記載の撮像装置。
The control means is
The image pickup apparatus according to claim 4, wherein control is performed so as to change the predetermined range for each area on the touch surface.
前記制御手段は、
前記タッチ位置が下側よりも上側のほうが、前記タッチ面内の角度が垂直に近い角度で前記タッチ操作を有効と判定するように前記所定の範囲を変更するように制御することを特徴とする請求項4または5に記載の撮像装置。
The control means is
It is characterized in that the touch position is controlled so as to change the predetermined range so as to determine that the touch operation is valid when the touch position is on the upper side than on the lower side, when the angle in the touch surface is close to vertical. The imaging device according to claim 4 or 5.
該撮像装置を保持するための保持部を備え、
前記制御手段は、
前記タッチ位置が前記保持部に離れているよりも近いほうが、前記タッチ面内の角度が垂直に近い角度で前記タッチ操作を有効と判定するように前記所定の範囲を変更するように制御することを特徴とする請求項4ないし6の何れか1項に記載の撮像装置。
A holding unit for holding the imaging device,
The control means is
Control is performed so as to change the predetermined range such that the touch position is closer to the holding unit than the holding unit is, and the touch operation is determined to be valid at an angle in the touch surface close to vertical. The image pickup apparatus according to claim 4, wherein the image pickup apparatus is an image pickup apparatus.
前記制御手段は、
前記タッチ検出手段により検出されたタッチ操作のタッチ形状が真円に近い場合には前記タッチ操作を無効として判定するように制御することを特徴とする請求項1ないし7の何れか1項に記載の撮像装置。
The control means is
8. The control according to claim 1, wherein when the touch shape of the touch operation detected by the touch detection means is close to a perfect circle, the touch operation is determined to be invalid. Imaging device.
前記制御手段は、
前記タッチ検出手段により検出されたタッチ操作のタッチ形状を楕円に近似して、長軸と短軸との比に基づいて真円に近いか否かを判定することを特徴とする請求項8に記載の撮像装置。
The control means is
The touch shape of the touch operation detected by the touch detection means is approximated to an ellipse, and it is determined whether or not the shape is close to a perfect circle based on the ratio of the long axis and the short axis. The imaging device described.
前記制御手段は、
前記ファインダを使用するときに操作される操作部の状態に応じて前記ファインダを使用しているか否かを判定し、
前記ファインダを使用していると判定した場合に前記タッチ操作を有効とするか無効とするかを判定するように制御することを特徴とする請求項1ないし9の何れか1項に記載の撮像装置。
The control means is
Determine whether or not to use the finder according to the state of the operation unit operated when using the finder,
The imaging according to any one of claims 1 to 9, wherein when it is determined that the finder is used, it is controlled to determine whether the touch operation is valid or invalid. apparatus.
前記ファインダに対する物体の近接を検知する検知手段を有し、
前記制御手段は、
前記検知手段により検知される検知情報に基づいて前記ファインダを使用しているか否かを判定し、
前記ファインダを使用していると判定した場合に前記タッチ操作を有効とするか無効とするかを判定するように制御することを特徴とする請求項1ないし9の何れか1項に記載の撮像装置。
A detection means for detecting the proximity of an object to the finder,
The control means is
It is determined whether or not the finder is used based on the detection information detected by the detection means,
The imaging according to any one of claims 1 to 9, wherein when it is determined that the finder is used, it is controlled to determine whether the touch operation is valid or invalid. apparatus.
前記タッチ操作は、シャッター速度、絞り値、ISO感度および露出補正値を変更するときの操作、被写体を撮影するときの測距点を異なる位置に移動させる操作、および、被写体を選択する選択枠を異なる被写体に移動させる操作の少なくとも何れか一つの操作であることを特徴とする請求項1ないし11の何れか1項に記載の撮像装置。   The touch operation includes an operation for changing a shutter speed, an aperture value, an ISO sensitivity and an exposure correction value, an operation for moving a focus detection point to a different position when shooting a subject, and a selection frame for selecting a subject. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is at least one operation of moving to a different subject. ファインダと、
タッチ操作を検出するタッチ検出手段と、を備える撮像装置の制御方法であって、
前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御ステップを有することを特徴とする撮像装置の制御方法。
With a finder,
A method for controlling an imaging device, comprising: a touch detection unit that detects a touch operation,
When the viewfinder is used, the valid touch is made different by validating or invalidating the touch operation according to the angle in the touch surface in the touch operation detected by the touch detection unit. A method of controlling an image pickup apparatus, comprising: a control step of performing a predetermined process according to an operation and controlling the predetermined process not to be performed according to the invalid touch operation.
コンピュータを、請求項1ないし12の何れか1項に記載された撮像装置の制御手段として機能させるためのプログラム。   A program for causing a computer to function as a control unit of the image pickup apparatus according to claim 1. コンピュータを、請求項1ないし12の何れか1項に記載された撮像装置の制御手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium that stores a program for causing a computer to function as the control unit of the imaging device according to claim 1.
JP2016156839A 2016-08-09 2016-08-09 Imaging device, control method thereof, and program Expired - Fee Related JP6701027B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016156839A JP6701027B2 (en) 2016-08-09 2016-08-09 Imaging device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016156839A JP6701027B2 (en) 2016-08-09 2016-08-09 Imaging device, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2018026683A JP2018026683A (en) 2018-02-15
JP6701027B2 true JP6701027B2 (en) 2020-05-27

Family

ID=61194134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016156839A Expired - Fee Related JP6701027B2 (en) 2016-08-09 2016-08-09 Imaging device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6701027B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7130988B2 (en) * 2018-03-02 2022-09-06 富士フイルムビジネスイノベーション株式会社 Information processing device and program
JP7129244B2 (en) * 2018-06-29 2022-09-01 キヤノン株式会社 ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, PROGRAM, STORAGE MEDIUM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102027439A (en) * 2008-05-12 2011-04-20 夏普株式会社 Display device and control method
JP2014003422A (en) * 2012-06-18 2014-01-09 Sony Corp Display control device, imaging device, and display control method
JP5862888B2 (en) * 2012-07-09 2016-02-16 コニカミノルタ株式会社 Operation display device and program
JP5983503B2 (en) * 2013-04-03 2016-08-31 カシオ計算機株式会社 Information processing apparatus and program

Also Published As

Publication number Publication date
JP2018026683A (en) 2018-02-15

Similar Documents

Publication Publication Date Title
JP6748582B2 (en) Imaging device, control method thereof, program, and recording medium
JP6742730B2 (en) Electronic device and control method thereof
JP5709816B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
JP2018129765A (en) Imaging apparatus and control method
US11184528B2 (en) Electronic apparatus, control method therefor, and non-transitory computer readable medium
JP6071616B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP7465129B2 (en) Imaging device, control method thereof, program, and storage medium
JP6701027B2 (en) Imaging device, control method thereof, and program
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
JP6708516B2 (en) Electronic device, control method thereof, and program
JP2021012619A (en) Electronic apparatus and method for controlling the same
JP2020178232A (en) Electronic apparatus
JP2020197976A (en) Electronic apparatus, control method for electronic apparatus, program, and recording medium
JP2020046476A (en) Imaging control device and control method of the same, program, and storage medium
JP2020021174A (en) Electronic device, control method thereof, and program thereof
JP7210158B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP7446913B2 (en) Electronic devices, control methods for electronic devices, and programs
JP7433854B2 (en) Imaging control device, imaging control method, program, storage medium
JP7134730B2 (en) Imaging device and its control method
JP7446845B2 (en) Imaging control device, control method for the imaging control device, program, and storage medium
JP6971709B2 (en) Imaging device and its control method
JP6851788B2 (en) Focus control device, control method and program of focus control device
JP6855317B2 (en) Imaging device, control method of imaging device, program, and recording medium
JP2021085979A (en) Electronic apparatus and control method thereof, program, and storage medium
JP6711599B2 (en) Imaging device, control method thereof, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6701027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees