JP2018026683A - Imaging apparatus, control method, and program - Google Patents

Imaging apparatus, control method, and program Download PDF

Info

Publication number
JP2018026683A
JP2018026683A JP2016156839A JP2016156839A JP2018026683A JP 2018026683 A JP2018026683 A JP 2018026683A JP 2016156839 A JP2016156839 A JP 2016156839A JP 2016156839 A JP2016156839 A JP 2016156839A JP 2018026683 A JP2018026683 A JP 2018026683A
Authority
JP
Japan
Prior art keywords
touch
finder
touch operation
unit
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016156839A
Other languages
Japanese (ja)
Other versions
JP6701027B2 (en
Inventor
敬大 永井
Keita Nagai
敬大 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016156839A priority Critical patent/JP6701027B2/en
Publication of JP2018026683A publication Critical patent/JP2018026683A/en
Application granted granted Critical
Publication of JP6701027B2 publication Critical patent/JP6701027B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability in use of a finder.SOLUTION: An imaging apparatus according to this invention comprises: a finder; touch detection means which detects a touch operation; and control means which, in a case where the finder is used, performs control to differentiate whether to validate or invalidate the touch operation in response to an angle within a touch surface in the touch operation detected by the touch detection means, and to perform a predetermined process in response to the valid touch operation, but to avoid the predetermined process in response to the invalid touch operation.SELECTED DRAWING: Figure 5

Description

本発明は、撮像装置、その制御方法、プログラムおよび記録媒体に関する。   The present invention relates to an imaging apparatus, a control method thereof, a program, and a recording medium.

撮像装置の一例であるデジタル一眼レフカメラには、被写体の構図を確認するためのファインダと、撮影した画像を表示したり各種設定を行ったりするための背面ディスプレイとが設けられているものがある。また、背面ディスプレイには、ユーザが直感的に操作できるようにタッチパネルが設けられているものがある。
このようなデジタル一眼レフカメラを用いて、ユーザがファインダを覗きながら撮影する場合、背面タッチパネルにユーザの顔の一部が接触してしまい、タッチパネルがユーザの意図しない接触を検出してしまい、誤動作が生じるという問題がある。
特許文献1には、予め登録されている、光学ファインダを覗く眼の情報からタッチパネルのうち接触による入力が可能な入力可能領域を設定し、入力可能領域以外への接触に応じた動作を行わないようにした撮像装置が開示されている。
Some digital single-lens reflex cameras as an example of an imaging apparatus are provided with a finder for confirming the composition of a subject and a rear display for displaying a photographed image and performing various settings. . Some rear displays are provided with a touch panel so that a user can operate intuitively.
When such a digital single-lens reflex camera is used and a user takes a picture while looking through the viewfinder, a part of the user's face comes into contact with the rear touch panel, and the touch panel detects a contact unintended by the user. There is a problem that occurs.
In Patent Document 1, an inputable area that can be input by contact is set in the touch panel from information on eyes that are looked into the optical viewfinder registered in advance, and an operation corresponding to contact other than the inputable area is not performed. An imaging apparatus configured as described above is disclosed.

特開2009−260681号公報JP 2009-260681 A

しかしながら、特許文献1の撮像装置では、ファインダに接眼したときに入力可能領域が一律に設定され、入力可能領域が制限されてしまうために操作性が低下してしまうという問題がある。
本発明は上述したような問題点に鑑みてなされたものであり、ファインダを使用しているときの操作性を向上させることを目的とする。
However, the image pickup apparatus disclosed in Patent Document 1 has a problem in that operability is deteriorated because the input-enabled area is uniformly set when the eyepiece is in contact with the viewfinder, and the input-enabled area is limited.
The present invention has been made in view of the above-described problems, and an object thereof is to improve operability when using a finder.

本発明の撮像装置は、ファインダと、タッチ操作を検出するタッチ検出手段と、前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御手段と、を有することを特徴とする。   The imaging apparatus according to the present invention includes a finder, a touch detection unit that detects a touch operation, and an angle within the touch surface in the touch operation detected by the touch detection unit when the finder is used. The touch operation is made valid or invalid, and a predetermined process is performed according to the valid touch operation, and control is performed so that the predetermined process is not performed according to the invalid touch operation. And a control means.

本発明によれば、ファインダを使用しているときの操作性を向上させることができる。   According to the present invention, operability when using a finder can be improved.

デジタルカメラの外観を示す図である。It is a figure which shows the external appearance of a digital camera. デジタルカメラの構成を示す図である。It is a figure which shows the structure of a digital camera. 第1の実施形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 1st Embodiment. デジタルカメラを背面から見た図である。It is the figure which looked at the digital camera from the back. 指あるいはユーザの顔によるタッチ入力角度を説明するための図である。It is a figure for demonstrating the touch input angle by a finger | toe or a user's face. 第2の実施形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 2nd Embodiment. タッチ位置の座標とタッチ入力角度との関係を説明するための図である。It is a figure for demonstrating the relationship between the coordinate of a touch position, and a touch input angle.

以下、本発明の好適な実施形態について図面を参照して説明する。本実施形態では、撮像装置の一例としてデジタルカメラ100を用いるものとする。
図1(a)、(b)は、デジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
デジタルカメラ100は、上面にシャッターボタン101、メイン電子ダイヤル102、モード切替スイッチ103、ファインダ外表示部104等を備える。シャッターボタン101は、撮影の準備あるいは撮影を指示するための操作部である。メイン電子ダイヤル102は、シャッター速度や絞り等の設定値を変更するための回転式の操作部である。モード切替スイッチ103は、各種モードを切替えるための操作部である。モード切替スイッチ103により静止画撮影モード、動画撮影モード等に切替えられる。ファインダ外表示部104は、シャッター速度や絞り等の様々な設定値を表示する。
Preferred embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, the digital camera 100 is used as an example of an imaging apparatus.
FIGS. 1A and 1B are external views of the digital camera 100. FIG. FIG. 1A is a front perspective view of the digital camera 100, and FIG. 1B is a rear perspective view of the digital camera 100.
The digital camera 100 includes a shutter button 101, a main electronic dial 102, a mode switch 103, a display unit 104 outside the viewfinder, and the like on the top surface. The shutter button 101 is an operation unit for instructing shooting preparation or shooting. The main electronic dial 102 is a rotary operation unit for changing setting values such as a shutter speed and an aperture. The mode switch 103 is an operation unit for switching various modes. The mode changeover switch 103 is used to switch between a still image shooting mode, a moving image shooting mode, and the like. The outside-finder display unit 104 displays various set values such as a shutter speed and an aperture.

また、デジタルカメラ100は、背面に表示部105、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113を備える。また、デジタルカメラ100は、ファインダ114、接眼検知部115等を備える。
表示部105は、画像や各種情報を表示する。表示部105は、ライブビュー撮影においてライブビュー画像を表示したり、静止画撮影後のクイックレビュー画像を表示したり、動画記録中の画像を表示したりする。本実施形態の表示部105は、デジタルカメラ100を横姿勢にしたときに水平方向を長辺とし、垂直方向を短辺とする矩形状である。電源スイッチ106は、デジタルカメラ100の電源のオンおよびオフを切替える操作部である。サブ電子ダイヤル107は、選択枠の移動や画像送り等を行うための回転式の操作部である。十字キー108は、上下左右にそれぞれ押下可能なキー(4方向キー)であり、押下した位置に応じた操作が可能である。SETボタン109は、主に選択項目を決定するときに押下される操作部である。
The digital camera 100 also includes a display unit 105, a power switch 106, a sub electronic dial 107, a cross key 108, a SET button 109, a live view button 110, an enlarge button 111, a reduce button 112, and a play button 113 on the back. The digital camera 100 also includes a viewfinder 114, an eyepiece detection unit 115, and the like.
The display unit 105 displays images and various information. The display unit 105 displays a live view image in live view shooting, displays a quick review image after still image shooting, or displays an image during movie recording. The display unit 105 of the present embodiment has a rectangular shape in which the horizontal direction is a long side and the vertical direction is a short side when the digital camera 100 is in a horizontal posture. The power switch 106 is an operation unit that switches the power of the digital camera 100 on and off. The sub electronic dial 107 is a rotary operation unit for moving a selection frame, feeding an image, and the like. The cross key 108 is a key (four-way key) that can be pressed vertically and horizontally, and can be operated according to the pressed position. The SET button 109 is an operation unit that is pressed mainly when a selection item is determined.

ライブビューボタン110は、静止画撮影モードにおいてはファインダ撮影モードとライブビュー撮影モードとを切替え、動画撮影モードにおいては動画撮影(記録)の開始、停止を指示するための操作部である。すなわち、ライブビューボタン110は、静止画撮影モードにおいてはファインダ114を使用するか否かを切替えるための操作部に相当する。拡大ボタン111は、ライブビュー画像の表示において拡大モードのオン、オフおよび拡大モード中の拡大率を変更するための操作部である。また、拡大ボタン111は、再生モードにおいて再生画像の拡大率を大きくするときに用いられる。縮小ボタン112は拡大された再生画像の拡大率を小さくし、表示された画像を縮小させるための操作部である。再生ボタン113は、撮影モードと再生モードとを切替えるためのボタンである。静止画撮影モードあるいは動画撮影モード中に再生ボタン113が押下されることで、再生モードに切替えられ、表示部105に記録媒体に記録された画像のうち最新の画像が表示される。ファインダ114は、後述するフォーカシングスクリーンを観察することで、被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。なお、ファインダ114は、光学ファインダあるいは電子ファインダの何れであってもよい。接眼検知部115は、ファインダ114に対する物体の近接、具体的にはユーザの顔の近接を検知する。   The live view button 110 is an operation unit for switching between a finder shooting mode and a live view shooting mode in the still image shooting mode and instructing start / stop of moving image shooting (recording) in the movie shooting mode. That is, the live view button 110 corresponds to an operation unit for switching whether to use the finder 114 in the still image shooting mode. The enlargement button 111 is an operation unit for turning on / off the enlargement mode and changing the enlargement ratio during the enlargement mode in displaying the live view image. The enlarge button 111 is used to increase the enlargement ratio of the reproduced image in the reproduction mode. The reduction button 112 is an operation unit for reducing the enlargement ratio of the enlarged reproduction image and reducing the displayed image. The playback button 113 is a button for switching between the shooting mode and the playback mode. When the playback button 113 is pressed during the still image shooting mode or the moving image shooting mode, the mode is switched to the playback mode, and the latest image among the images recorded on the recording medium is displayed on the display unit 105. The viewfinder 114 is a view-type viewfinder for confirming the focus and composition of an optical image of a subject by observing a focusing screen described later. The finder 114 may be either an optical finder or an electronic finder. The eyepiece detection unit 115 detects the proximity of an object to the finder 114, specifically the proximity of the user's face.

また、デジタルカメラ100は、右側にグリップ部116、蓋部117等を備え、左側に端子カバー118等を備える。グリップ部116は、ユーザがデジタルカメラ100を構えたときに右手で握り易いように形成された保持部である。なお、グリップ部116は、表示部105と同じ高さに位置している。したがって、ユーザは右手でグリップ部116を保持しながら、右手の親指で表示部105に接触することができる。蓋部117は、記録媒体を格納するスロットを閉塞するための蓋である。端子カバー118は、外部機器の接続ケーブル等を接続するコネクタを保護するためのカバーである。
また、デジタルカメラ100の内部には、アクチュエータによってアップダウンされるクイックリターンミラー119が配置される。また、デジタルカメラ100には、着脱可能なレンズユニットと通信するための通信端子120を備える。
In addition, the digital camera 100 includes a grip portion 116, a lid portion 117 and the like on the right side, and a terminal cover 118 and the like on the left side. The grip part 116 is a holding part formed so that the user can easily hold the digital camera 100 with the right hand. The grip portion 116 is located at the same height as the display portion 105. Therefore, the user can touch the display unit 105 with the thumb of the right hand while holding the grip unit 116 with the right hand. The lid portion 117 is a lid for closing a slot for storing the recording medium. The terminal cover 118 is a cover for protecting a connector for connecting a connection cable or the like of an external device.
In addition, a quick return mirror 119 that is up and down by an actuator is disposed inside the digital camera 100. The digital camera 100 also includes a communication terminal 120 for communicating with a detachable lens unit.

図2は、デジタルカメラ100の構成を示す図である。なお、図1と同一の構成は、同一符号を付してその説明を適宜、省略する。デジタルカメラ100は、着脱可能なレンズユニット201が装着される。
まず、レンズユニット201について説明する。
レンズユニット201は、絞り202、レンズ群203、絞り駆動回路204、AF(オートフォーカス)駆動回路205、レンズ制御回路206、通信端子207等を有する。絞り202は、開口径が調整可能に構成される。レンズ群203は、複数枚のレンズから構成される。絞り駆動回路204は、絞り202の開口径を制御することで光量を調整する。AF駆動回路205は、レンズ群203を駆動させて焦点を合わせる。レンズ制御回路206は、後述するシステム制御部の指示に基づいて、絞り駆動回路204、AF駆動回路205等を制御する。レンズ制御回路206は、絞り駆動回路204を介して絞り202の制御を行い、AF駆動回路205を介してレンズ群203の位置を変位させることで焦点を合わせる。レンズ制御回路206は、デジタルカメラ100との間で通信可能である。具体的には、レンズユニット201の通信端子207と、デジタルカメラ100の通信端子120とを介して通信される。
FIG. 2 is a diagram illustrating a configuration of the digital camera 100. In addition, the same structure as FIG. 1 attaches | subjects the same code | symbol, and abbreviate | omits the description suitably. The digital camera 100 is equipped with a detachable lens unit 201.
First, the lens unit 201 will be described.
The lens unit 201 includes an aperture 202, a lens group 203, an aperture drive circuit 204, an AF (autofocus) drive circuit 205, a lens control circuit 206, a communication terminal 207, and the like. The diaphragm 202 is configured such that the opening diameter can be adjusted. The lens group 203 includes a plurality of lenses. The diaphragm drive circuit 204 adjusts the light amount by controlling the aperture diameter of the diaphragm 202. The AF driving circuit 205 drives the lens group 203 to focus. The lens control circuit 206 controls the aperture driving circuit 204, the AF driving circuit 205, and the like based on an instruction from a system control unit described later. The lens control circuit 206 controls the diaphragm 202 via the diaphragm drive circuit 204 and focuses by moving the position of the lens group 203 via the AF drive circuit 205. The lens control circuit 206 can communicate with the digital camera 100. Specifically, communication is performed via the communication terminal 207 of the lens unit 201 and the communication terminal 120 of the digital camera 100.

次に、デジタルカメラ100について説明する。
デジタルカメラ100は、クイックリターンミラー119、フォーカシングスクリーン208、ペンタプリズム209、AE(自動露出)センサ210、焦点検出部211、ファインダ114、シャッター212、撮像部213、システム制御部214を有する。
クイックリターンミラー119(以下、ミラー119)は、露光、ライブビュー画像の表示、動画撮影をする場合に、システム制御部214の指示に基づいてアクチュエータによりアップダウンされる。ミラー119は、レンズ群203から入射した光束をファインダ114側または撮像部213側に切替える。通常の場合には、ミラー119は光束をファインダ114側に導くように配置される。一方、撮影する場合やライブビュー画像を表示する場合には、ミラー119は光束を撮像部213に導くように上方に跳ね上がり待避する(ミラーアップ)。また、ミラー119は、中央部が光の一部を透過するハーフミラーで構成され、光束の一部が焦点検出を行うための焦点検出部211に入射するように透過させる。AEセンサ210は、レンズユニット201を通した被写体の輝度を測光する。焦点検出部211は、ミラー119により透過された光束に基づいてデフォーカス量を検出する。システム制御部214はデフォーカス量に基づいてレンズユニット201を制御し、位相差AFを行う。撮影者は、ペンタプリズム209とファインダ114を介して、フォーカシングスクリーン208を観察することで、レンズユニット201を通して得た被写体の光学像の焦点や構図を確認することができる。シャッター212は、システム制御部214の指示に基づいて撮像部213の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部213は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。
Next, the digital camera 100 will be described.
The digital camera 100 includes a quick return mirror 119, a focusing screen 208, a pentaprism 209, an AE (automatic exposure) sensor 210, a focus detection unit 211, a viewfinder 114, a shutter 212, an imaging unit 213, and a system control unit 214.
The quick return mirror 119 (hereinafter referred to as the mirror 119) is raised and lowered by an actuator based on an instruction from the system control unit 214 when performing exposure, live view image display, and moving image shooting. The mirror 119 switches the light beam incident from the lens group 203 to the viewfinder 114 side or the imaging unit 213 side. In a normal case, the mirror 119 is arranged to guide the light beam to the viewfinder 114 side. On the other hand, when shooting or displaying a live view image, the mirror 119 jumps upward and retracts so as to guide the light beam to the imaging unit 213 (mirror up). Further, the mirror 119 is formed of a half mirror that transmits a part of the light at the center, and transmits a part of the light beam so as to enter the focus detection unit 211 for performing focus detection. The AE sensor 210 measures the luminance of the subject that has passed through the lens unit 201. The focus detection unit 211 detects the defocus amount based on the light beam transmitted by the mirror 119. The system control unit 214 controls the lens unit 201 based on the defocus amount and performs phase difference AF. The photographer can confirm the focus and composition of the optical image of the subject obtained through the lens unit 201 by observing the focusing screen 208 via the pentaprism 209 and the viewfinder 114. The shutter 212 is a focal plane shutter that can freely control the exposure time of the imaging unit 213 based on an instruction from the system control unit 214. The image pickup unit 213 is an image pickup element configured by a CCD, a CMOS element, or the like that converts an optical image into an electric signal.

また、デジタルカメラ100は、A/D変換器215、メモリ制御部216、画像処理部217、メモリ218、D/A変換器219、表示部105を有する。A/D変換器215は、撮像部213から出力されるアナログ信号をデジタル信号に変換する。画像処理部217は、A/D変換器215からのデータまたはメモリ制御部216からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部217では、撮影した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部214が露光制御、測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)処理が行われる。更に、画像処理部217では、撮影した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   The digital camera 100 includes an A / D converter 215, a memory control unit 216, an image processing unit 217, a memory 218, a D / A converter 219, and a display unit 105. The A / D converter 215 converts the analog signal output from the imaging unit 213 into a digital signal. The image processing unit 217 performs resizing processing and color conversion processing such as predetermined pixel interpolation and reduction on the data from the A / D converter 215 or the data from the memory control unit 216. The image processing unit 217 performs predetermined calculation processing using the captured image data, and the system control unit 214 performs exposure control and distance measurement control based on the obtained calculation result. With this process, TTL (through the lens) AF processing, AE processing, and EF (flash pre-flash) processing are performed. Further, the image processing unit 217 performs predetermined calculation processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained calculation result.

A/D変換器215からの画像データは、画像処理部217およびメモリ制御部216を介して、または、メモリ制御部216を介してメモリ218に直接書き込まれる。メモリ218は、撮像部213によって得られA/D変換器215によりデジタルデータに変換された画像データや、表示部105に表示するための画像データを格納する。メモリ218は、所定枚数の静止画像や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。また、メモリ218は、画像表示用のメモリ(ビデオメモリ)を兼ねている。   Image data from the A / D converter 215 is directly written to the memory 218 via the image processing unit 217 and the memory control unit 216 or via the memory control unit 216. The memory 218 stores image data obtained by the imaging unit 213 and converted into digital data by the A / D converter 215 and image data to be displayed on the display unit 105. The memory 218 has a storage capacity sufficient to store a predetermined number of still images, a moving image and audio for a predetermined time. The memory 218 also serves as an image display memory (video memory).

D/A変換器219は、メモリ218に格納されている表示用の画像データをアナログ信号に変換して表示部105に供給する。したがって、メモリ218に書き込まれた表示用の画像データは、D/A変換器219を介して表示部105により表示される。表示部105は、LCD等の表示器上にD/A変換器219からのアナログ信号に応じた表示を行う。A/D変換器215によって一度A/D変換されメモリ218に蓄積されたデジタル信号をD/A変換器219でアナログ変換し、表示部105に逐次転送して表示することでライブビュー画像を表示(スルー表示)でき、電子ビューファインダとして機能する。   The D / A converter 219 converts display image data stored in the memory 218 into an analog signal and supplies the analog signal to the display unit 105. Therefore, the display image data written in the memory 218 is displayed on the display unit 105 via the D / A converter 219. The display unit 105 performs display according to an analog signal from the D / A converter 219 on a display such as an LCD. A digital signal once A / D converted by the A / D converter 215 and stored in the memory 218 is converted into an analog signal by the D / A converter 219, and sequentially transferred to the display unit 105 for display, thereby displaying a live view image. (Through display) and functions as an electronic viewfinder.

また、デジタルカメラ100は、ファインダ内表示部220、ファインダ内表示駆動回路221、ファインダ外表示部104、ファインダ外表示駆動回路222、不揮発性メモリ223、システムメモリ224、システムタイマー225を有する。ファインダ内表示部220は、ファインダ内表示駆動回路221を介して現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコン等を表示する。ファインダ外表示部104は、ファインダ外表示駆動回路222を介してシャッター速度や絞り等の設定値を表示する。不揮発性メモリ223は、電気的に消去・記憶可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ223には、システム制御部214の動作用の定数、閾値、プログラム等が記憶される。このプログラムは、後述するフローチャートの処理を実行するためのプログラムである。   The digital camera 100 also includes an in-finder display unit 220, an in-finder display driving circuit 221, an out-finder display unit 104, an out-finder display driving circuit 222, a non-volatile memory 223, a system memory 224, and a system timer 225. The in-finder display unit 220 displays a frame (AF frame) indicating a focus point currently being auto-focused via the in-finder display driving circuit 221, an icon indicating a camera setting state, and the like. The outside-finder display unit 104 displays setting values such as shutter speed and aperture via the outside-finder display driving circuit 222. The nonvolatile memory 223 is an electrically erasable / storable memory, such as an EEPROM. The nonvolatile memory 223 stores operation constants, threshold values, programs, and the like for the system control unit 214. This program is a program for executing processing of a flowchart described later.

システムメモリ224は、例えばRAMが用いられる。システムメモリ224には、システム制御部214の動作用の定数、変数、不揮発性メモリ223から読み出したプログラム等が展開される。システムタイマー225は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
システム制御部214は、デジタルカメラ100全体を制御する。システム制御部214は、上述した不揮発性メモリ223に記憶されたプログラムを実行することで、後述する各処理を実現する。また、システム制御部214は、メモリ218、D/A変換器219、表示部105等を制御することにより表示制御も行う。システム制御部214は、制御手段の一例である。
For example, a RAM is used as the system memory 224. In the system memory 224, constants and variables for operation of the system control unit 214, programs read from the nonvolatile memory 223, and the like are expanded. The system timer 225 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.
The system control unit 214 controls the entire digital camera 100. The system control unit 214 implements each process to be described later by executing a program stored in the nonvolatile memory 223 described above. The system control unit 214 also performs display control by controlling the memory 218, the D / A converter 219, the display unit 105, and the like. The system control unit 214 is an example of a control unit.

また、デジタルカメラ100は、モード切替スイッチ103、第1シャッタースイッチ226、第2シャッタースイッチ227、操作部228等のシステム制御部214に各種の動作指示を入力するための操作手段を有する。
モード切替スイッチ103は、静止画撮影モード、動画撮影モードおよび再生モード等の何れかに切替えるための操作部である。システム制御部214は、モード切替スイッチ103により切替えられたモードを設定する。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ103により、上述したモードの何れかに直接切替えることができる。また、モード切替スイッチ103によりメニューボタンに一旦切替えた後に、メニューボタンに含まれる上述したモードの何れかに、他の操作部を用いて切替えてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
In addition, the digital camera 100 has operation means for inputting various operation instructions to the system control unit 214 such as the mode changeover switch 103, the first shutter switch 226, the second shutter switch 227, and the operation unit 228.
The mode switch 103 is an operation unit for switching to any one of a still image shooting mode, a moving image shooting mode, a reproduction mode, and the like. The system control unit 214 sets the mode switched by the mode switch 103. The modes included in the still image shooting mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). In addition, there are various scene modes, program AE modes, custom modes, and the like which are shooting settings for each shooting scene. The mode can be directly switched to any one of the above modes by the mode switch 103. In addition, after the mode switch 103 is temporarily switched to the menu button, the mode may be switched to any of the above-described modes included in the menu button using another operation unit. Similarly, the moving image shooting mode may include a plurality of modes.

第1シャッタースイッチ226は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生させる。システム制御部214は、第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。
第2シャッタースイッチ227は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生させる。システム制御部214は、第2シャッタースイッチ信号SW2により、撮像部213からの信号読み出しから記録媒体230に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The first shutter switch 226 is turned on when the shutter button 101 is being operated halfway (so-called shooting preparation instruction), and generates a first shutter switch signal SW1. The system control unit 214 starts operations such as AF processing, AE processing, AWB processing, and EF processing in response to the first shutter switch signal SW1.
The second shutter switch 227 is turned on when the operation of the shutter button 101 is completed, so-called full press (shooting instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 214 starts a series of imaging processing operations from reading a signal from the imaging unit 213 to writing image data on the recording medium 230.

操作部228は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部228は、表示部105に表示される種々の機能アイコンを選択操作すること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押下されると各種の設定可能なメニュー画面が表示部105に表示される。ユーザは表示部105に表示されたメニュー画面と、十字キー108やSETボタン109とを用いて直感的に各種設定を行うことができる。操作部228は例えば、シャッターボタン101、メイン電子ダイヤル102、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113が含まれる。   The operation unit 228 is various operation members as an input unit that receives an operation from a user. The operation unit 228 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit 105, and functions as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is pressed, various setting menu screens are displayed on the display unit 105. The user can make various settings intuitively using the menu screen displayed on the display unit 105 and the cross key 108 and the SET button 109. The operation unit 228 includes, for example, a shutter button 101, a main electronic dial 102, a power switch 106, a sub electronic dial 107, a cross key 108, a SET button 109, a live view button 110, an enlarge button 111, a reduce button 112, and a play button 113. It is.

更に、操作部228の一つとして、表示部105に対する接触を検出可能なタッチパネル229を有する。タッチパネル229は、タッチ検出手段の一例である。タッチパネル229と表示部105とは一体的に構成することができる。例えば、光の透過率が表示部105の表示を妨げないように、タッチパネル229を表示部105の表示面上に配置する。そして、タッチパネル229における入力座標と、表示部105上の表示座標とを対応付けることで、恰もユーザが表示部105上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成することができる。タッチパネル229は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。また、方式によって、タッチパネル229に対する接触があったことでタッチがあったと検出する方式や、タッチパネル229に対する指等の接近があったことでタッチがあったと検出する方式があるが、何れの方式であってもよい。   Further, as one of the operation units 228, a touch panel 229 capable of detecting contact with the display unit 105 is provided. The touch panel 229 is an example of a touch detection unit. The touch panel 229 and the display unit 105 can be configured integrally. For example, the touch panel 229 is disposed on the display surface of the display unit 105 so that the light transmittance does not hinder the display of the display unit 105. Then, by associating the input coordinates on the touch panel 229 with the display coordinates on the display unit 105, a GUI (graphical user) as if the user can directly operate the screen displayed on the display unit 105. Interface). The touch panel 229 can use any one of various methods such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. Also, depending on the method, there are a method for detecting that there is a touch due to contact with the touch panel 229, and a method for detecting that there is a touch due to the approach of a finger or the like to the touch panel 229. There may be.

システム制御部214はタッチパネル229を介して以下の操作あるいは状態を検出できる。
(1)タッチパネル229にタッチしていなかった指等が新たにタッチパネル229にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)という)。
(2)タッチパネル229を指等でタッチしている状態であること(以下、タッチオン(Touch−On)という)。
(3)タッチパネル229を指等でタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)という)。
(4)タッチパネル229へタッチしていた指等を離したこと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)という)。
(5)タッチパネル229に何もタッチしていない状態(以下、タッチオフ(Touch−Off)という)。
(6)タッチオンしている指等の面積が所定の面積以上である状態(以下、ラージオブジェクト検出(Large−Object−Detect)という)。
なお、タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指等がタッチアップしたことが検出された後は、タッチオフとなる。
The system control unit 214 can detect the following operations or states via the touch panel 229.
(1) A finger or the like that has not touched the touch panel 229 newly touched the touch panel 229, that is, the start of touch (hereinafter referred to as touch-down).
(2) The touch panel 229 is touched with a finger or the like (hereinafter referred to as touch-on).
(3) The touch panel 229 is moved while being touched with a finger or the like (hereinafter referred to as touch-move).
(4) Release of a finger or the like that has touched touch panel 229, that is, the end of touch (hereinafter referred to as touch-up).
(5) A state in which nothing is touched on the touch panel 229 (hereinafter referred to as touch-off).
(6) A state where the area of a finger or the like that is touched on is equal to or larger than a predetermined area (hereinafter referred to as large object detection (Large-Object-Detect)).
When touchdown is detected, it is also detected that touch-on is performed at the same time. After touch-down, unless touch-up is detected, normally touch-on continues to be detected. The touch move is detected in a state where touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all the touched fingers have been touched up, the touch is turned off.

上述した操作・状態やタッチパネル229上に指等がタッチしている座標は内部バスを通じてシステム制御部214に通知される。システム制御部214は通知された情報に基づいてタッチパネル229上でどのような操作が行なわれたかを判定する。タッチムーブについては、システム制御部214はタッチパネル229上で移動する指等の移動方向を座標の変化に基づいて、タッチパネル229上の垂直成分・水平成分ごとに判定する。システム制御部214は、所定距離以上、所定速度未満でタッチムーブしたことを検出した場合はドラッグが行なわれたと判定する。   The system controller 214 is notified of the above-described operation / state and the coordinates of the finger touching the touch panel 229 via the internal bus. The system control unit 214 determines what operation has been performed on the touch panel 229 based on the notified information. For the touch move, the system control unit 214 determines the moving direction of the finger or the like moving on the touch panel 229 for each vertical component / horizontal component on the touch panel 229 based on the change in coordinates. The system control unit 214 determines that the drag has been performed when it is detected that the touch move is performed at a predetermined distance or more and less than a predetermined speed.

また、デジタルカメラ100は、電源制御部231、電源部232、記録媒体I/F233、通信部234、姿勢検知部235、接眼検知部115等を有する。電源制御部231は、電池検出回路、DC−DCコンバータ、通電するブロックを切替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部231は、その検出結果およびシステム制御部214の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体230を含む各部へ供給する。電源部232は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F233は、メモリカードやハードディスク等の記録媒体230とのインターフェースである。記録媒体230は、撮影された画像を記憶するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。通信部234は、デジタルカメラ100を無線または有線ケーブルによって外部機器に接続し、映像信号や音声信号の送受信を行う。また、通信部234は、撮像部213で撮影した画像(ライブビュー画像を含む)や、記録媒体230に記憶された画像を送信したり、外部機器から画像データやその他の各種情報を受信したりすることができる。なお、通信部234は、無線LAN(Local Area Network)やインターネットとも接続可能である。   In addition, the digital camera 100 includes a power supply control unit 231, a power supply unit 232, a recording medium I / F 233, a communication unit 234, an attitude detection unit 235, an eyepiece detection unit 115, and the like. The power control unit 231 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is attached, the type of battery, and the remaining battery level. Further, the power control unit 231 controls the DC-DC converter based on the detection result and an instruction from the system control unit 214, and supplies a necessary voltage to each unit including the recording medium 230 for a necessary period. The power supply unit 232 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. The recording medium I / F 233 is an interface with a recording medium 230 such as a memory card or a hard disk. The recording medium 230 is a recording medium such as a memory card for storing captured images, and includes a semiconductor memory, a magnetic disk, or the like. The communication unit 234 connects the digital camera 100 to an external device via a wireless or wired cable, and transmits and receives video signals and audio signals. In addition, the communication unit 234 transmits an image (including a live view image) captured by the imaging unit 213, an image stored in the recording medium 230, or receives image data and other various types of information from an external device. can do. Note that the communication unit 234 can be connected to a wireless LAN (Local Area Network) or the Internet.

姿勢検知部235は、重力方向に対するデジタルカメラ100の姿勢を検知する。システム制御部214は、姿勢検知部235により検知された姿勢に基づいてデジタルカメラ100の傾き角度を算出することができる。したがって、システム制御部214は、傾き角度によって撮像部213で撮影された画像がデジタルカメラ100を横姿勢で撮影した画像であるか、縦姿勢で撮影した画像であるかを判別することができる。なお、システム制御部214は、姿勢検知部235により検知された姿勢に応じた向き情報を撮像部213で撮影された画像データに付加したり、向き情報に応じて画像を回転して記憶したりすることができる。姿勢検知部235は、例えば加速度センサやジャイロセンサ等を用いることができる。   The posture detection unit 235 detects the posture of the digital camera 100 with respect to the direction of gravity. The system control unit 214 can calculate the tilt angle of the digital camera 100 based on the posture detected by the posture detection unit 235. Therefore, the system control unit 214 can determine whether the image captured by the image capturing unit 213 is an image captured in the horizontal posture or the image captured in the vertical posture based on the tilt angle. The system control unit 214 adds orientation information corresponding to the orientation detected by the orientation detection unit 235 to the image data captured by the imaging unit 213, or rotates and stores the image according to the orientation information. can do. For example, an acceleration sensor or a gyro sensor can be used as the posture detection unit 235.

接眼検知部115は、ファインダ114の周囲に配置される。接眼検知部115は、例えば、赤外発光器および受光器で構成され、一定間隔で赤外光を発光して、物体により反射された光量を測定することで所定位置に物体が近接しているか否かを検知する。システム制御部214は、接眼検知部115から検知された検知情報によりユーザがファインダを使用しているか否か、具体的にはユーザの顔がファインダ114に近接しているか否かを検知する。接眼検知部115は、検知手段の一例である。   The eyepiece detection unit 115 is disposed around the viewfinder 114. The eyepiece detection unit 115 is composed of, for example, an infrared light emitter and a light receiver, emits infrared light at regular intervals, and measures the amount of light reflected by the object to determine whether the object is close to a predetermined position. Detect whether or not. The system control unit 214 detects whether or not the user is using the finder, specifically, whether or not the user's face is close to the finder 114 based on the detection information detected from the eyepiece detection unit 115. The eyepiece detection unit 115 is an example of a detection unit.

次に、ユーザがファインダ114を使用している場合にタッチパネル229に対するタッチ操作の操作性を向上させることができるデジタルカメラ100の処理について説明する。
なお、以下の各実施形態では、ユーザがデジタルカメラ100のファインダ114を覗きながらタッチパネル229をタッチ操作して、ファインダ内表示部220に表示されるAF枠のカーソルを移動させる場合を例にして説明する。
Next, processing of the digital camera 100 that can improve the operability of the touch operation on the touch panel 229 when the user is using the finder 114 will be described.
In each of the following embodiments, an example in which the user touches the touch panel 229 while looking through the finder 114 of the digital camera 100 to move the AF frame cursor displayed on the in-finder display unit 220 will be described as an example. To do.

<第1の実施形態>
まず、第1の実施形態に係るデジタルカメラ100の処理について図3のフローチャートを参照して説明する。このフローチャートにおける各処理は、システム制御部214が不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開して実行することにより実現される。
<First Embodiment>
First, the processing of the digital camera 100 according to the first embodiment will be described with reference to the flowchart of FIG. Each process in this flowchart is realized by the system control unit 214 developing and executing a program stored in the nonvolatile memory 223 in the system memory 224.

S301では、システム制御部214はユーザがファインダ114を使用しているか否か、すなわちユーザがファインダ114に接眼しているか否かを判定する。システム制御部214は接眼検知部115から物体が近接している検知情報を受信した場合にはユーザがファインダ114を使用している、すなわちファインダ114に接眼していると判定する。一方、物体が近接している検知情報を受信していない場合にはファインダ114を使用していない、すなわち接眼していないと判定する。
なお、システム制御部214はファインダ114を使用しているか否かを、ライブビューボタン110の状態に応じて判定してもよい。すなわち、システム制御部214はライブビューボタン110に基づいてファインダ撮影モードに設定している場合にはファインダ114を使用していると判定する。一方、システム制御部214はライブビューボタン110に基づいてライブビュー撮影モードに設定している場合にはファインダ114を使用していないと判定する。
ファインダ114を使用していない場合にはファインダ114を使用するのを待機し、ファインダ114を使用している場合にはS302に進む。
In S <b> 301, the system control unit 214 determines whether or not the user is using the finder 114, that is, whether or not the user is eyeing the finder 114. When the system control unit 214 receives detection information indicating that an object is approaching from the eyepiece detection unit 115, the system control unit 214 determines that the user is using the finder 114, that is, is in contact with the finder 114. On the other hand, if the detection information indicating that the object is close is not received, it is determined that the finder 114 is not used, that is, the eye is not in contact.
Note that the system control unit 214 may determine whether or not the finder 114 is being used according to the state of the live view button 110. That is, the system control unit 214 determines that the finder 114 is being used when the finder shooting mode is set based on the live view button 110. On the other hand, the system control unit 214 determines that the viewfinder 114 is not used when the live view shooting mode is set based on the live view button 110.
If the finder 114 is not used, the process waits for the finder 114 to be used. If the finder 114 is used, the process proceeds to S302.

S302では、システム制御部214はデジタルカメラ100の操作モードを測距点選択モードに移行する。ここでは、システム制御部214はファインダ内表示駆動回路221を介してファインダ内表示部220に測距点を選択するためのAF枠を表示する。
図4は、デジタルカメラ100を背面側から見た図である。図4には、ファインダ内表示部220の表示内容を拡大して示している。
図4(a)に示すように、ファインダ内表示部220には35点のAF枠が表示されており、中央のAF枠が選択された状態になっている。選択中のAF枠を表すカーソル401を太線で示している。ユーザはタッチパネル229へのタッチ操作により任意のAF枠を選択することができる。
S303では、システム制御部214はタッチパネル229を介してタッチ操作、具体的にはタッチダウンを検出したか否かを判定する。タッチダウンを検出した場合にはS304に進み、タッチダウンを検出しない場合にはタッチダウンを検出するまで待機する。
In S302, the system control unit 214 shifts the operation mode of the digital camera 100 to the distance measuring point selection mode. Here, the system control unit 214 displays an AF frame for selecting a distance measuring point on the in-finder display unit 220 via the in-finder display driving circuit 221.
FIG. 4 is a view of the digital camera 100 as seen from the back side. FIG. 4 shows an enlarged display content of the in-finder display unit 220.
As shown in FIG. 4A, a 35-point AF frame is displayed on the in-finder display unit 220, and the center AF frame is selected. A cursor 401 representing the AF frame being selected is indicated by a bold line. The user can select an arbitrary AF frame by a touch operation on the touch panel 229.
In step S <b> 303, the system control unit 214 determines whether a touch operation via the touch panel 229, specifically, a touch down is detected. If a touchdown is detected, the process proceeds to S304. If no touchdown is detected, the process waits until a touchdown is detected.

S304では、システム制御部214はタッチダウンされたときのタッチ形状が楕円であるか否かを判定する。ここで、タッチ形状とは、タッチパネル229に対するタッチのうちタッチダウンであると判定する領域の外周の形状をいうものとする。例えば、タッチパネル229が静電容量方式の場合には、タッチ形状はタッチダウンと判定する閾値を超えて静電容量が変化した領域の外周の形状である。
図4(a)では、タッチ形状402はユーザの右手の指(親指)403によりタッチされた形状を示し、タッチ形状404はユーザの顔405の一部(鼻等)によりタッチされた形状を示している。デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合、指が寝た状態でタッチすることになり、タッチ形状402は楕円に近い形状になると推測される。一方、ファインダ114に接眼するときに誤ってユーザの顔の一部でタッチパネル229をタッチした場合、タッチ形状404は真円に近い形状になると推測される。
したがって、S304において、システム制御部214はタッチ形状が楕円に近い形状である場合には指によりタッチ操作された可能性が高いと判定し、タッチ形状が真円に近い形状である場合にはユーザの顔の一部によりタッチされたと判定することができる。
システム制御部214はタッチ形状が楕円に近いか真円に近いかを、タッチパネル229の座標を用いた楕円の近似式によって判定する。
具体的に、式(1)を用いてタッチ形状を楕円に近似する。
In S304, the system control unit 214 determines whether or not the touch shape when touched down is an ellipse. Here, the touch shape refers to a shape of an outer periphery of a region determined to be a touch-down among touches on the touch panel 229. For example, when the touch panel 229 is a capacitance type, the touch shape is the shape of the outer periphery of the region where the capacitance has changed beyond the threshold value for determining touchdown.
In FIG. 4A, a touch shape 402 indicates a shape touched by a finger (thumb) 403 of the user's right hand, and a touch shape 404 indicates a shape touched by a part (such as the nose) of the user's face 405. ing. When the touch panel 229 is touched with the thumb while holding the digital camera 100, the finger is touched with the user lying down, and the touch shape 402 is estimated to be a shape close to an ellipse. On the other hand, if the touch panel 229 is accidentally touched with a part of the user's face when the finder 114 is in contact with the eye, the touch shape 404 is estimated to be a shape close to a perfect circle.
Therefore, in S304, the system control unit 214 determines that there is a high possibility that the touch operation is performed with a finger when the touch shape is a shape close to an ellipse, and the user is determined when the touch shape is a shape close to a perfect circle. It can be determined that a part of the face is touched.
The system control unit 214 determines whether the touch shape is close to an ellipse or a perfect circle by an ellipse approximate expression using the coordinates of the touch panel 229.
Specifically, the touch shape is approximated to an ellipse using Expression (1).

Figure 2018026683
Figure 2018026683

ここで、式(1)のうち係数A,B,C,D,Eは、タッチ形状の外周上の複数の座標(Xi,Yi)と、式(2)とを用いて算出することができる。 Here, coefficients A, B, C, D, and E in equation (1) are calculated using a plurality of coordinates (X i , Y i ) on the outer periphery of the touch shape and equation (2). Can do.

Figure 2018026683
Figure 2018026683

次に、式(3)、式(4)を用いて、近似した楕円の長軸(の長さ)aと短軸(の長さ)bとを算出することができる。   Next, the major axis (length) a and the minor axis (length) b of the approximated ellipse can be calculated using the equations (3) and (4).

Figure 2018026683
Figure 2018026683

ここで、(X0,Y0)は近似した楕円の中心座標であり、θは楕円の傾きである。なお、(X0,Y0)は、後述する式(6)、式(7)により算出することができる。また、θは後述する式(5)により算出することができる。
ここで、システム制御部214は算出した結果を用いて、楕円の長軸aと楕円の短軸bとの比(a/b)が閾値よりも大きいか否かを判定する。例えば、閾値には1.2を用いることができる。システム制御部214は長軸aと短軸bとの比が閾値よりも大きい場合には楕円に近い、すなわち指によるタッチ操作の可能性が高いとしてS305に進む。一方、閾値以下の場合には真円に近い、すなわちユーザの顔の一部によるタッチであるとしてS309に進む。
Here, (X 0 , Y 0 ) is the approximate center coordinates of the ellipse, and θ is the inclination of the ellipse. It should be noted that (X 0 , Y 0 ) can be calculated by the following expressions (6) and (7). Further, θ can be calculated by equation (5) described later.
Here, the system control unit 214 determines whether or not the ratio (a / b) between the major axis “a” of the ellipse and the minor axis “b” of the ellipse is larger than the threshold value using the calculated result. For example, a threshold value of 1.2 can be used. If the ratio of the major axis “a” to the minor axis “b” is greater than the threshold, the system control unit 214 proceeds to S305 because it is close to an ellipse, that is, the possibility of touch operation with a finger is high. On the other hand, if it is less than or equal to the threshold value, it is close to a perfect circle, that is, the touch is a part of the user's face, and the process proceeds to S309.

S305では、システム制御部214はタッチ操作におけるタッチ面内の角度を算出することで、タッチ面内の角度を取得する。ここで、タッチ面とは、タッチパネル229の表面を意味する。また、タッチ面内の角度とは、タッチ形状を楕円に近似したときの楕円の長軸と、タッチパネル229面内の基準軸とがなす角度をいう。以下ではタッチ面内の角度を、タッチ入力角度という。本実施形態では、タッチパネル229面内の基準軸は、表示部105(あるいはタッチパネル229)の長辺と平行な軸であるものとする。
ここで、タッチ入力角度は、タッチ形状の楕円の傾きθに相当し、式(5)を用いて算出することができる。
In S <b> 305, the system control unit 214 obtains the angle within the touch surface by calculating the angle within the touch surface in the touch operation. Here, the touch surface means the surface of the touch panel 229. The angle in the touch surface refers to an angle formed by the major axis of the ellipse when the touch shape is approximated to an ellipse and the reference axis in the surface of the touch panel 229. Hereinafter, the angle within the touch surface is referred to as a touch input angle. In the present embodiment, it is assumed that the reference axis in the surface of the touch panel 229 is an axis parallel to the long side of the display unit 105 (or the touch panel 229).
Here, the touch input angle corresponds to the inclination θ of the ellipse of the touch shape, and can be calculated using Expression (5).

Figure 2018026683
Figure 2018026683

S306では、システム制御部214は取得したタッチ操作におけるタッチ入力角度が所定の範囲であるか否かを判定する。具体的には、システム制御部214はタッチ入力角度が、第1閾値TH1以上第2閾値TH2以下であるか否かを判定する。第1閾値TH1は所定の範囲の下限であって、第2閾値TH2は所定の範囲の上限である。第1閾値TH1および第2閾値TH2は、ユーザがデジタルカメラ100を保持しながら指でタッチ操作したときに想定されるタッチ入力角度の範囲に対応している。各閾値は、ユーザがタッチ操作するときのタッチ入力角度を検証すること等によって定めることができ、予め不揮発性メモリ223に記憶されている。
ここで、ファインダ114に接眼したときにタッチパネル229にユーザの顔の一部(鼻等)が誤ってタッチしたときのタッチ形状が楕円に近い形状になる場合がある。本実施形態では、タッチ入力角度に注目して、タッチ入力角度が所定の範囲である場合には指によるタッチ操作の可能性が高いと判定する。一方、タッチ入力角度が所定の範囲ではない場合にはユーザの顔の一部によるタッチであると判定する。
In S306, the system control unit 214 determines whether or not the touch input angle in the acquired touch operation is within a predetermined range. Specifically, the system control unit 214 determines whether or not the touch input angle is greater than or equal to the first threshold TH1 and less than or equal to the second threshold TH2. The first threshold TH1 is the lower limit of the predetermined range, and the second threshold TH2 is the upper limit of the predetermined range. The first threshold value TH1 and the second threshold value TH2 correspond to a range of touch input angles that are assumed when the user performs a touch operation with a finger while holding the digital camera 100. Each threshold value can be determined by verifying a touch input angle when the user performs a touch operation, and is stored in the nonvolatile memory 223 in advance.
Here, when a part of the user's face (such as the nose) touches the touch panel 229 accidentally when the eyepiece is in contact with the finder 114, the touch shape may be close to an ellipse. In this embodiment, paying attention to the touch input angle, if the touch input angle is within a predetermined range, it is determined that the possibility of a touch operation with a finger is high. On the other hand, when the touch input angle is not within the predetermined range, it is determined that the touch is a part of the user's face.

図5は、指によるタッチ操作におけるタッチ入力角度と、ユーザの顔の一部がタッチした場合のタッチ入力角度とを説明するための図である。なお、図4(a)と同様の構成は、同一符号を付している。図5の下側には、タッチパネル229にタッチしたときのタッチ形状を抜き出して図示している。
指によりタッチ操作したときのタッチ形状402は、デジタルカメラ100を保持しながら親指でタッチ操作をするために、タッチ入力角度が鋭角に近い角度θfになると推測される。一方、ユーザの顔の一部が誤ってタッチしたときにタッチ形状404が楕円になる場合には、タッチ入力角度が垂直に近い角度θn、すなわちタッチパネル229面内の基準軸と楕円の長軸とが直交するような角度になると推測される。
したがって、S306において、システム制御部214はタッチ形状が楕円であってもタッチ入力角度が垂直に近い場合にはユーザの顔の一部によりタッチされたと判定し、タッチ入力角度が鋭角である場合には指によりタッチ操作されたと判定することができる。
タッチ入力角度が所定の範囲である場合にはS307に進み、所定の範囲ではない場合にはS309に進む。
FIG. 5 is a diagram for explaining a touch input angle in a touch operation with a finger and a touch input angle when a part of the user's face is touched. In addition, the same code | symbol is attached | subjected to the structure similar to Fig.4 (a). In the lower side of FIG. 5, a touch shape when the touch panel 229 is touched is extracted and illustrated.
The touch shape 402 when the touch operation is performed with the finger is presumed that the touch input angle becomes an angle θf close to an acute angle in order to perform the touch operation with the thumb while holding the digital camera 100. On the other hand, when the touch shape 404 becomes an ellipse when a part of the user's face is touched by mistake, the touch input angle is close to the vertical angle θn, that is, the reference axis in the surface of the touch panel 229 and the major axis of the ellipse. Is assumed to be at an angle such that is orthogonal.
Accordingly, in S306, the system control unit 214 determines that the touch is performed by a part of the user's face when the touch input angle is close to vertical even if the touch shape is an ellipse, and the touch input angle is an acute angle. Can be determined to have been touched with a finger.
If the touch input angle is within the predetermined range, the process proceeds to S307. If the touch input angle is not within the predetermined range, the process proceeds to S309.

S307では、システム制御部214は検出されたタッチ操作を有効と判定する。したがって、システム制御部214は検出されたタッチ操作に基づいて処理を行うために、S308に進む。
S308では、システム制御部214は有効と判定したタッチ操作に基づいた処理を行う。具体的には、システム制御部214はファインダ内表示部220に表示される選択中のAF枠のカーソル401をタッチムーブに応じて移動させる。
In step S307, the system control unit 214 determines that the detected touch operation is valid. Therefore, the system control unit 214 proceeds to S308 to perform processing based on the detected touch operation.
In S308, the system control unit 214 performs processing based on the touch operation determined to be valid. Specifically, the system control unit 214 moves the cursor 401 of the selected AF frame displayed on the in-finder display unit 220 according to the touch move.

図4(b)、(c)はタッチ操作を有効と判定したときの処理の一例を示す図である。図4(b)、(c)では、図4(a)の状態からユーザが指403をタッチパネル229上で右あるいは上に動かすことで、タッチムーブ406、407が検出された状態を示している。なお、指403、ユーザの顔405、デジタルカメラ100の外形、ファインダ114の図示を省略している。
図4(b)、(c)に示すように、システム制御部214はタッチムーブ406、407の移動方向および移動量に応じて、ファインダ内表示部220に表示される選択中のAF枠のカーソル401を移動するように制御する。ここで、選択中のAF枠のカーソル401の移動方向と、有効と判定されたタッチ操作であるタッチムーブの移動方向とは一致し、その移動量は比例関係にある。また、本実施形態では、有効と判定されたタッチ操作のタッチパネル229上の位置座標と、カーソル401のファインダ内表示部220上の位置座標とは相対位置関係にある。すなわち、システム制御部214はタッチムーブ406、407による位置座標に応じてカーソル401の位置を変更するのではない。システム制御部214はタッチダウンした位置を基準とした、タッチムーブ406、407の移動方向および移動量に応じて、カーソル401の現在位置からの移動方向および移動量を決定してカーソル401の位置を変更する。
4B and 4C are diagrams illustrating an example of processing when it is determined that the touch operation is valid. 4B and 4C show a state in which the touch moves 406 and 407 are detected when the user moves the finger 403 right or up on the touch panel 229 from the state of FIG. 4A. . The finger 403, the user's face 405, the outer shape of the digital camera 100, and the viewfinder 114 are not shown.
As shown in FIGS. 4B and 4C, the system control unit 214 moves the cursor of the AF frame being selected displayed on the in-finder display unit 220 in accordance with the moving direction and moving amount of the touch moves 406 and 407. 401 is controlled to move. Here, the moving direction of the cursor 401 of the AF frame being selected matches the moving direction of the touch move that is a touch operation determined to be valid, and the moving amount is in a proportional relationship. In the present embodiment, the position coordinates on the touch panel 229 of the touch operation determined to be valid and the position coordinates on the in-finder display unit 220 of the cursor 401 are in a relative positional relationship. That is, the system control unit 214 does not change the position of the cursor 401 according to the position coordinates by the touch moves 406 and 407. The system control unit 214 determines the movement direction and movement amount of the cursor 401 from the current position according to the movement direction and movement amount of the touch moves 406 and 407 with reference to the touched-down position, and determines the position of the cursor 401. change.

S309では、システム制御部214は検出されたタッチ操作を無効と判定する。ここでは、S304において真円に近いと判定されることでS309に進む場合と、S306においてタッチ入力角度が所定の範囲ではないと判定されることでS309に進む場合とがある。システム制御部214は何れの場合でも検出されたタッチ操作に基づいた処理を行わず、無効とする。
図4(d)はタッチ操作を無効と判定したときの処理の一例を示す図である。図4(d)では、図4(a)の状態からユーザの顔の一部がタッチパネル229上で右に動くことで、タッチムーブ408を検出した状態を示している。なお、指403、ユーザの顔405、デジタルカメラ100の外形、ファインダ114の図示を省略している。
ここでは、タッチ形状404が真円に近い、あるいは、タッチ入力角度が垂直に近い角度である。したがって、システム制御部214はタッチムーブ408のタッチ操作を無効と判定しているために、ファインダ内表示部220に表示される選択中のAF枠のカーソル401の位置を移動させないように制御する。
In step S309, the system control unit 214 determines that the detected touch operation is invalid. Here, there are a case where the process proceeds to S309 when determined to be close to a perfect circle in S304 and a case where the process proceeds to S309 when it is determined that the touch input angle is not within a predetermined range in S306. In any case, the system control unit 214 does not perform processing based on the detected touch operation and invalidates the detected operation.
FIG. 4D is a diagram illustrating an example of processing when it is determined that the touch operation is invalid. FIG. 4D shows a state in which a touch move 408 is detected by moving a part of the user's face to the right on the touch panel 229 from the state of FIG. The finger 403, the user's face 405, the outer shape of the digital camera 100, and the viewfinder 114 are not shown.
Here, the touch shape 404 is close to a perfect circle, or the touch input angle is an angle close to vertical. Accordingly, since the system control unit 214 determines that the touch operation of the touch move 408 is invalid, the system control unit 214 performs control so that the position of the cursor 401 of the AF frame being selected displayed on the in-finder display unit 220 is not moved.

S310では、システム制御部214はユーザがファインダ114を使用しているか否か、すなわちユーザがファインダ114に接眼しているか否かを判定する。この処理は、S301と同様の処理である。したがって、システム制御部214は接眼検知部115からの検知情報あるいはライブビューボタン110の状態に基づいて判定する。
ファインダ114を使用している場合にはS311に進み、ファインダ114を使用していない場合には処理を終了する。
In S310, the system control unit 214 determines whether or not the user is using the finder 114, that is, whether or not the user is in contact with the finder 114. This process is the same as S301. Therefore, the system control unit 214 makes a determination based on the detection information from the eyepiece detection unit 115 or the state of the live view button 110.
If the finder 114 is used, the process advances to step S311. If the finder 114 is not used, the process ends.

S311では、システム制御部214はタッチパネル229を介して追加のタッチ操作を検出したか否かを判定する。システム制御部214は追加のタッチ操作として追加のタッチダウンを検出した場合にはS312に進み、追加のタッチダウンを検出していない場合にはS310に戻る。
S312では、システム制御部214はタッチオンしているタッチ操作のうち、S307において有効と判定したタッチ操作があるか否かを判定する。有効として判定したタッチオンがある場合にはS310に戻り、有効として判定したタッチオンがない場合にはS304に戻る。
In step S <b> 311, the system control unit 214 determines whether an additional touch operation is detected via the touch panel 229. The system control unit 214 proceeds to S312 when an additional touchdown is detected as an additional touch operation, and returns to S310 when an additional touchdown is not detected.
In S <b> 312, the system control unit 214 determines whether there is a touch operation determined to be valid in S <b> 307 among the touch operations that are touched on. If there is a touch-on determined to be valid, the process returns to S310, and if there is no touch-on determined to be valid, the process returns to S304.

以上のように、本実施形態によれば、ファインダ114が使用されている場合にタッチ操作におけるタッチ面内の角度に応じてタッチ操作を有効とするか無効とするかを判定する。上述したように、ユーザが意図して指でタッチパネル229にタッチする場合とユーザの顔の一部(鼻等)が意図せずに誤ってタッチパネル229にタッチする場合とでタッチ面内の角度が異なる。したがって、タッチ面内の角度に応じてタッチ操作を有効とするか無効とするかを判定することで、入力可能領域を制限せずにユーザの顔の一部がタッチしたときの誤動作を防止することができる。このように、入力可能領域を制限しないことから、ユーザがファインダ114を使用しているときのタッチパネル229に対する操作性を向上させることができる。
また、本実施形態によれば、タッチ面内の角度が所定の範囲であるか否かに基づいてタッチ操作が有効か無効かを判定することから、タッチ操作が有効か無効かを容易に判定することができる。
また、本実施形態によれば、タッチ面内の角度が、指でタッチ操作したときに想定される角度の範囲の場合にタッチ操作を有効とし、他の角度の場合にはタッチ操作を無効とすることで、タッチ操作が有効か無効かを精度よく判定することができる。
As described above, according to the present embodiment, when the finder 114 is used, it is determined whether to enable or disable the touch operation according to the angle within the touch surface in the touch operation. As described above, the angle within the touch surface is different depending on whether the user intentionally touches the touch panel 229 with a finger or the case where a part of the user's face (nose or the like) accidentally touches the touch panel 229. Different. Therefore, by determining whether the touch operation is enabled or disabled according to the angle within the touch surface, it is possible to prevent malfunction when a part of the user's face is touched without restricting the inputable area. be able to. Thus, since the input possible area is not limited, the operability with respect to the touch panel 229 when the user is using the finder 114 can be improved.
In addition, according to the present embodiment, whether or not the touch operation is valid or invalid is easily determined based on whether or not the touch operation is valid or invalid based on whether or not the angle within the touch surface is within a predetermined range. can do.
In addition, according to the present embodiment, the touch operation is enabled when the angle within the touch surface is within the range of angles assumed when the touch operation is performed with a finger, and the touch operation is disabled when the angle is other than that. By doing so, it is possible to accurately determine whether the touch operation is valid or invalid.

なお、本実施形態では、システム制御部214はファインダ114を使用しているか否かを、接眼検知部115からの検知情報あるいはライブビューボタン110の状態に応じて判定する場合について説明したが、この場合に限られない。システム制御部214はライブビューボタン110に限られず、ファインダ114を使用するための他の操作部の状態に応じてファインダを使用しているか否かを判定してもよい。また、ファインダ114が着脱式である場合には、システム制御部214はファインダ114が装着されているときにファインダ114を使用していると判定してもよい。   In the present embodiment, the case where the system control unit 214 determines whether or not the finder 114 is used is described based on the detection information from the eyepiece detection unit 115 or the state of the live view button 110. Not limited to cases. The system control unit 214 is not limited to the live view button 110, and may determine whether or not the finder is being used according to the state of another operation unit for using the finder 114. When the finder 114 is detachable, the system control unit 214 may determine that the finder 114 is being used when the finder 114 is attached.

<第2の実施形態>
第2の実施形態では、タッチ操作が有効であるか無効であるかを判定するときのタッチ入力角度の閾値をタッチ操作のタッチ位置に応じて変更する例について説明する。図6は、第2の実施形態に係るデジタルカメラ100の処理を示すフローチャートである。このフローチャートにおける各処理は、システム制御部214が不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開して実行することにより実現される。
図6のフローチャートのS601〜S605の処理は図3のフローチャートのS301〜S305の処理と同様であり、図6のフローチャートのS610〜S615の処理は図3のフローチャートのS307〜S312の処理と同様であり、重複する説明を省略する。
<Second Embodiment>
In the second embodiment, an example will be described in which the threshold value of the touch input angle when determining whether the touch operation is valid or invalid is changed according to the touch position of the touch operation. FIG. 6 is a flowchart illustrating processing of the digital camera 100 according to the second embodiment. Each process in this flowchart is realized by the system control unit 214 developing and executing a program stored in the nonvolatile memory 223 in the system memory 224.
6 are the same as the processes of S301 to S305 of the flowchart of FIG. 3, and the processes of S610 to S615 of the flowchart of FIG. 6 are the same as the processes of S307 to S312 of the flowchart of FIG. Yes, duplicate explanation is omitted.

S605においてシステム制御部214はタッチ入力角度を取得した後にS606に進む。
S606では、システム制御部214はタッチ位置の座標を取得する。具体的には、システム制御部214はタッチ形状を楕円に近似した近似式を用いて中心座標を算出し、算出した中心座標をタッチ位置の座標とする。
中心座標(X0,Y0)は式(6)、式(7)を用いて算出することができる。
In step S605, the system control unit 214 acquires the touch input angle, and then proceeds to step S606.
In S606, the system control unit 214 acquires the coordinates of the touch position. Specifically, the system control unit 214 calculates center coordinates using an approximate expression that approximates a touch shape to an ellipse, and uses the calculated center coordinates as coordinates of the touch position.
The center coordinates (X 0 , Y 0 ) can be calculated using Expression (6) and Expression (7).

Figure 2018026683
Figure 2018026683

次に、S607〜S609において、システム制御部214はタッチ入力角度がタッチ位置の座標に応じて変更される閾値の範囲内に含まれているか否かを判定する。
まず、S607では、システム制御部214は取得したタッチ位置の座標がエリアA内であって、且つ、S605で算出したタッチ入力角度が第1閾値TH1_A以上第2閾値TH2_A以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS608に進む。
S608では、システム制御部214は取得したタッチ位置の座標がエリアB内であって、且つ、S605で算出したタッチ入力角度が第3閾値TH1_B以上第4閾値TH2_B以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS609に進む。
S609では、システム制御部214は取得したタッチ位置の座標がエリアC内であって、且つ、S605で算出したタッチ入力角度が第5閾値TH1_C以上第6閾値TH2_C以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS612に進む。
Next, in S607 to S609, the system control unit 214 determines whether or not the touch input angle is included within a threshold range that is changed according to the coordinates of the touch position.
First, in S607, the system control unit 214 determines whether or not the acquired coordinates of the touch position are in the area A and the touch input angle calculated in S605 is greater than or equal to the first threshold TH1_A and less than or equal to the second threshold TH2_A. judge. If this condition is satisfied, the process proceeds to S610. If this condition is not satisfied, the process proceeds to S608.
In step S608, the system control unit 214 determines whether or not the acquired touch position coordinates are within the area B, and the touch input angle calculated in step S605 is greater than or equal to the third threshold value TH1_B and less than or equal to the fourth threshold value TH2_B. . If this condition is satisfied, the process proceeds to S610, and if this condition is not satisfied, the process proceeds to S609.
In step S609, the system control unit 214 determines whether or not the acquired coordinates of the touch position are in the area C and the touch input angle calculated in step S605 is greater than or equal to the fifth threshold TH1_C and less than or equal to the sixth threshold TH2_C. . If this condition is satisfied, the process proceeds to S610. If this condition is not satisfied, the process proceeds to S612.

図7は、タッチ位置とタッチ入力角度との関係を説明するための図である。ここでは、タッチパネル229を上述したエリアA、エリアB、エリアCの複数(3つ)に区分している。エリアAは表示部105のうち左上の矩形状の領域であり、エリアBは表示部105の右上の矩形状の領域であり、エリアCは表示部105の下側の矩形状の領域である。
本実施形態では、デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合にエリアごとにタッチ入力角度が異なってくることに注目し、タッチ操作が有効か無効かを判定するための閾値をエリアごとに変更する。
FIG. 7 is a diagram for explaining the relationship between the touch position and the touch input angle. Here, the touch panel 229 is divided into a plurality (three) of area A, area B, and area C described above. Area A is a rectangular area in the upper left of the display unit 105, area B is a rectangular area in the upper right of the display unit 105, and area C is a rectangular area in the lower side of the display unit 105.
In the present embodiment, when a touch operation is performed on the touch panel 229 with the thumb while holding the digital camera 100, it is noted that the touch input angle differs for each area, and a threshold value for determining whether the touch operation is valid or invalid. Change for each area.

図7(a)は、タッチ位置の座標がエリアAである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、タッチ入力角度θfが上述した第1閾値TH1_A以上第2閾値TH2_A以下の範囲に含まれると推測される。
図7(b)は、タッチ位置の座標がエリアBである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、エリアAに比べてタッチ入力角度θfが大きくなり(垂直に近い角度になり)、タッチ入力角度θfが上述した第3閾値TH1_B以上第4閾値TH2_B以下の範囲に含まれると推測される。
図7(c)は、タッチ位置の座標がエリアCである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、エリアA、Bに比べてタッチ入力角度θfが小さくなり(水平に近い角度になり)、タッチ入力角度θfが第5閾値TH1_C以上第6閾値TH2_C以下の範囲に含まれると推測される。
ここで、各タッチ入力角度の閾値の関係としては例えば、閾値TH1,2_C<閾値TH1,2_A<閾値TH1,2_Bとすることができる。各エリアの位置情報は予め不揮発性メモリ223に記憶されている。また、各閾値は、ユーザがタッチ操作するときのタッチ入力角度をエリアごとに検証すること等によって定めることができ、エリアごとに関連付けて予め不揮発性メモリ223に記憶されている。
FIG. 7A is a diagram illustrating a case where the coordinates of the touch position are the area A. In this case, when the touch operation is performed with the thumb while holding the digital camera 100, it is estimated that the touch input angle θf is included in the range of the first threshold value TH1_A to the second threshold value TH2_A.
FIG. 7B is a diagram illustrating a case where the coordinates of the touch position are the area B. In this case, when a touch operation is performed with the thumb while holding the digital camera 100, the touch input angle θf becomes larger than the area A (an angle close to vertical), and the touch input angle θf is equal to or greater than the above-described third threshold value TH1_B. It is estimated that it is included in the range below the fourth threshold TH2_B.
FIG. 7C is a diagram illustrating a case where the coordinates of the touch position are the area C. In this case, when the touch operation is performed with the thumb while holding the digital camera 100, the touch input angle θf is smaller than the areas A and B (an angle close to horizontal), and the touch input angle θf is equal to or greater than the fifth threshold value TH1_C. It is estimated that it is included in the range below the sixth threshold TH2_C.
Here, as the relationship between the threshold values of the touch input angles, for example, threshold values TH1, 2_C <threshold values TH1, 2_A <threshold values TH1, 2_B can be established. The position information of each area is stored in the nonvolatile memory 223 in advance. Each threshold can be determined by verifying the touch input angle when the user performs a touch operation for each area, and is stored in advance in the nonvolatile memory 223 in association with each area.

S610では、システム制御部214は検出されたタッチ操作を有効と判定する。すなわち、システム制御部214はタッチ入力角度がエリアごとに変更した閾値の範囲である場合には指によりタッチ操作されたと判定する。
一方、S612では、システム制御部214は検出されたタッチ操作を無効と判定する。すなわち、システム制御部214はタッチ入力角度がエリアごとに変更した閾値の範囲ではない場合にはユーザの顔の一部によりタッチされたと判定する。
In step S610, the system control unit 214 determines that the detected touch operation is valid. That is, the system control unit 214 determines that a touch operation is performed with a finger when the touch input angle is within a threshold range changed for each area.
On the other hand, in S612, the system control unit 214 determines that the detected touch operation is invalid. That is, the system control unit 214 determines that the touch is performed by a part of the user's face when the touch input angle is not within the threshold range changed for each area.

以上のように、本実施形態によれば、タッチ操作のタッチ位置に応じて、タッチ操作が有効か無効かを判定するための所定の範囲を変更する。上述したように、デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合にエリアごとにタッチ入力角度が異なる。したがって、エリアごとにタッチ操作が有効か無効かを判定するための所定の範囲を変更することで、タッチ操作が有効か無効かを精度よく判定することができる。
具体的には、タッチパネル229に対するタッチ位置が下側よりも上側のほうが、指によるタッチ操作のタッチ入力角度は垂直に近い角度になる。したがって、閾値の範囲もタッチ位置が下側よりも上側のほうが垂直に近い角度になるように変更することが好ましい。
また、タッチパネル229に対するタッチ位置がグリップ部116に離れているよりも近いほうが、指によるタッチ操作のタッチ入力角度は垂直に近い角度になる。したがって、閾値の範囲もタッチ位置がグリップ部116に離れているよりも近いほうが垂直に近い角度になるように変更することが好ましい。
なお、第2の実施形態では、タッチパネル229を3つのエリアに区分する場合について説明したが、この場合に限られず、2つや4つ以上のエリアに区分してもよく、区分したエリアごとに閾値の範囲を変更することができる。
As described above, according to the present embodiment, the predetermined range for determining whether the touch operation is valid or invalid is changed according to the touch position of the touch operation. As described above, when the touch panel 229 is touched with the thumb while holding the digital camera 100, the touch input angle is different for each area. Therefore, it is possible to accurately determine whether the touch operation is valid or invalid by changing a predetermined range for determining whether the touch operation is valid or invalid for each area.
Specifically, when the touch position on the touch panel 229 is higher than the lower side, the touch input angle of the touch operation with the finger is an angle close to vertical. Therefore, it is preferable to change the threshold range so that the touch position is closer to the vertical angle on the upper side than on the lower side.
Further, when the touch position on the touch panel 229 is closer to the grip unit 116 than the touch position, the touch input angle of the touch operation with the finger becomes an angle close to vertical. Therefore, it is preferable to change the threshold range so that the closer the touch position is to the grip portion 116, the closer to the vertical angle.
In the second embodiment, the case where the touch panel 229 is divided into three areas has been described. However, the present invention is not limited to this, and the touch panel 229 may be divided into two or four or more areas. The range can be changed.

なお、システム制御部214が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。例えば、上述した実施形態では、システム制御部214がタッチパネル229を介してタッチ操作を検出する場合について説明したが、この場合に限られず、デジタルカメラ100はタッチパネル制御部を別途で備えてもよい。すなわち、タッチパネル制御部がタッチパネル229を介してタッチ操作を検出し、検出したタッチ操作の情報をシステム制御部214に通知するように構成してもよい。
また、本発明をその好適な実施形態に基づいて詳述したが、本発明は上述した実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
Note that the various controls described as being performed by the system control unit 214 may be performed by a single piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing. . For example, in the above-described embodiment, the case where the system control unit 214 detects a touch operation via the touch panel 229 has been described. However, the present invention is not limited to this, and the digital camera 100 may include a touch panel control unit separately. That is, the touch panel control unit may detect a touch operation via the touch panel 229 and notify the system control unit 214 of information on the detected touch operation.
Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to the above-described embodiments, and various forms within the scope of the present invention are also included in the present invention. . Furthermore, the above-described embodiment is merely an embodiment of the present invention, and the embodiments can be appropriately combined.

また、第1、第2の実施形態では、タッチ操作により実行される処理がAF枠を選択する場合について説明したが、この場合に限られず、デジタルカメラ100に関するあらゆる操作に適用することができる。例えば、デジタルカメラのシャッター速度、絞り値、ISO感度、露出補正値等の撮影に関する設定を変更する操作や、被写体を選択する選択枠を異なる被写体に移動させる操作に適用してもよい。   In the first and second embodiments, the case where the process executed by the touch operation selects the AF frame has been described. However, the present invention is not limited to this case, and can be applied to all operations related to the digital camera 100. For example, the present invention may be applied to an operation for changing settings relating to shooting such as a shutter speed, aperture value, ISO sensitivity, and exposure correction value of a digital camera, and an operation for moving a selection frame for selecting a subject to a different subject.

また、第1、第2の実施形態では、本発明をデジタルカメラに適用する場合を例にして説明したが、この場合に限られず、ファインダ、タッチパネルを備える撮像装置であれば適用可能である。すなわち、本発明はデジタルビデオカメラ、タブレット端末、スマートフォン等に適用可能である。   In the first and second embodiments, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this case, and can be applied to any imaging apparatus including a finder and a touch panel. That is, the present invention can be applied to a digital video camera, a tablet terminal, a smartphone, and the like.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:デジタルカメラ(撮像装置) 105:表示部 110:ライブビューボタン 114:ファインダ 115:接眼検知部 214:システム制御部 220:ファインダ内表示部 229:タッチパネル   DESCRIPTION OF SYMBOLS 100: Digital camera (imaging apparatus) 105: Display part 110: Live view button 114: Finder 115: Eyepiece detection part 214: System control part 220: Display part in finder 229: Touch panel

Claims (15)

ファインダと、
タッチ操作を検出するタッチ検出手段と、
前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御手段と、を有することを特徴とする撮像装置。
Finder,
Touch detection means for detecting a touch operation;
When the finder is used, whether the touch operation is enabled or disabled is changed according to the angle within the touch surface in the touch operation detected by the touch detection unit, and the effective touch An image pickup apparatus comprising: a control unit configured to perform predetermined processing in accordance with an operation and to perform control so as not to perform the predetermined processing in response to an invalid touch operation.
前記制御手段は、
前記タッチ面内の角度が所定の範囲である場合には前記タッチ操作を有効とし、
前記タッチ面内の角度が前記所定の範囲ではない場合には前記タッチ操作を無効とするように制御することを特徴とする請求項1に記載の撮像装置。
The control means includes
When the angle within the touch surface is within a predetermined range, the touch operation is enabled,
The imaging apparatus according to claim 1, wherein the touch operation is controlled to be invalidated when an angle in the touch surface is not within the predetermined range.
該撮像装置を保持するための保持部を備え、
前記所定の範囲は、ユーザが該撮像装置を前記保持部で保持しながら指でタッチ操作するときの角度の範囲であることを特徴とする請求項2に記載の撮像装置。
A holding unit for holding the imaging device;
The imaging apparatus according to claim 2, wherein the predetermined range is an angle range when a user performs a touch operation with a finger while holding the imaging apparatus with the holding unit.
前記制御手段は、
前記タッチ操作のタッチ位置に応じて前記所定の範囲を変更するように制御することを特徴とする請求項2または3に記載の撮像装置。
The control means includes
The imaging apparatus according to claim 2, wherein control is performed so as to change the predetermined range in accordance with a touch position of the touch operation.
前記制御手段は、
前記タッチ面内のエリアごとに前記所定の範囲を変更するように制御することを特徴とする請求項4に記載の撮像装置。
The control means includes
The imaging apparatus according to claim 4, wherein control is performed so as to change the predetermined range for each area in the touch surface.
前記制御手段は、
前記タッチ位置が下側よりも上側のほうが、前記タッチ面内の角度が垂直に近い角度で前記タッチ操作を有効と判定するように前記所定の範囲を変更するように制御することを特徴とする請求項4または5に記載の撮像装置。
The control means includes
Control is performed so that the predetermined range is changed so that the touch operation is determined to be valid when the touch position is above the lower side and the angle within the touch surface is close to vertical. The imaging device according to claim 4 or 5.
該撮像装置を保持するための保持部を備え、
前記制御手段は、
前記タッチ位置が前記保持部に離れているよりも近いほうが、前記タッチ面内の角度が垂直に近い角度で前記タッチ操作を有効と判定するように前記所定の範囲を変更するように制御することを特徴とする請求項4ないし6の何れか1項に記載の撮像装置。
A holding unit for holding the imaging device;
The control means includes
Control is performed so that the predetermined range is changed so that the touch operation is determined to be effective when the touch position is closer to the holding unit than the holding unit and the angle in the touch surface is close to vertical. The imaging apparatus according to claim 4, wherein
前記制御手段は、
前記タッチ検出手段により検出されたタッチ操作のタッチ形状が真円に近い場合には前記タッチ操作を無効として判定するように制御することを特徴とする請求項1ないし7の何れか1項に記載の撮像装置。
The control means includes
8. The control according to claim 1, wherein when the touch shape of the touch operation detected by the touch detection unit is close to a perfect circle, the touch operation is determined to be invalid. 9. Imaging device.
前記制御手段は、
前記タッチ検出手段により検出されたタッチ操作のタッチ形状を楕円に近似して、長軸と短軸との比に基づいて真円に近いか否かを判定することを特徴とする請求項8に記載の撮像装置。
The control means includes
9. The touch shape of the touch operation detected by the touch detection unit is approximated to an ellipse, and it is determined whether or not the shape is close to a perfect circle based on a ratio between a major axis and a minor axis. The imaging device described.
前記制御手段は、
前記ファインダを使用するときに操作される操作部の状態に応じて前記ファインダを使用しているか否かを判定し、
前記ファインダを使用していると判定した場合に前記タッチ操作を有効とするか無効とするかを判定するように制御することを特徴とする請求項1ないし9の何れか1項に記載の撮像装置。
The control means includes
Determine whether or not the finder is used according to the state of the operation unit operated when using the finder,
The imaging according to any one of claims 1 to 9, wherein when it is determined that the finder is used, control is performed to determine whether the touch operation is enabled or disabled. apparatus.
前記ファインダに対する物体の近接を検知する検知手段を有し、
前記制御手段は、
前記検知手段により検知される検知情報に基づいて前記ファインダを使用しているか否かを判定し、
前記ファインダを使用していると判定した場合に前記タッチ操作を有効とするか無効とするかを判定するように制御することを特徴とする請求項1ないし9の何れか1項に記載の撮像装置。
Having detection means for detecting proximity of an object to the finder,
The control means includes
Determine whether or not the finder is used based on detection information detected by the detection means,
The imaging according to any one of claims 1 to 9, wherein when it is determined that the finder is used, control is performed to determine whether the touch operation is enabled or disabled. apparatus.
前記タッチ操作は、シャッター速度、絞り値、ISO感度および露出補正値を変更するときの操作、被写体を撮影するときの測距点を異なる位置に移動させる操作、および、被写体を選択する選択枠を異なる被写体に移動させる操作の少なくとも何れか一つの操作であることを特徴とする請求項1ないし11の何れか1項に記載の撮像装置。   The touch operation includes an operation for changing the shutter speed, aperture value, ISO sensitivity, and exposure correction value, an operation for moving a distance measuring point to shoot a subject, and a selection frame for selecting a subject. The imaging apparatus according to claim 1, wherein the imaging apparatus is at least one of operations for moving to different subjects. ファインダと、
タッチ操作を検出するタッチ検出手段と、を備える撮像装置の制御方法であって、
前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御ステップを有することを特徴とする撮像装置の制御方法。
Finder,
A touch detection means for detecting a touch operation, and a control method for an imaging apparatus comprising:
When the finder is used, whether the touch operation is enabled or disabled is changed according to the angle within the touch surface in the touch operation detected by the touch detection unit, and the effective touch A control method for an imaging apparatus, comprising: a control step of performing a predetermined process in accordance with an operation and not performing the predetermined process in response to an invalid touch operation.
コンピュータを、請求項1ないし12の何れか1項に記載された撮像装置の制御手段として機能させるためのプログラム。   The program for functioning a computer as a control means of the imaging device described in any one of Claims 1 thru | or 12. コンピュータを、請求項1ないし12の何れか1項に記載された撮像装置の制御手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium storing a program for causing a computer to function as control means of the imaging apparatus according to any one of claims 1 to 12.
JP2016156839A 2016-08-09 2016-08-09 Imaging device, control method thereof, and program Expired - Fee Related JP6701027B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016156839A JP6701027B2 (en) 2016-08-09 2016-08-09 Imaging device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016156839A JP6701027B2 (en) 2016-08-09 2016-08-09 Imaging device, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2018026683A true JP2018026683A (en) 2018-02-15
JP6701027B2 JP6701027B2 (en) 2020-05-27

Family

ID=61194134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016156839A Expired - Fee Related JP6701027B2 (en) 2016-08-09 2016-08-09 Imaging device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6701027B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153021A (en) * 2018-03-02 2019-09-12 富士ゼロックス株式会社 Information processing device and program
JP2020004279A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Electronic device, control method, program and storage medium of electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139214A1 (en) * 2008-05-12 2009-11-19 シャープ株式会社 Display device and control method
JP2014003422A (en) * 2012-06-18 2014-01-09 Sony Corp Display control device, imaging device, and display control method
JP2014016803A (en) * 2012-07-09 2014-01-30 Konica Minolta Inc Operation display device and program
JP2014203183A (en) * 2013-04-03 2014-10-27 カシオ計算機株式会社 Information processing device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009139214A1 (en) * 2008-05-12 2009-11-19 シャープ株式会社 Display device and control method
JP2014003422A (en) * 2012-06-18 2014-01-09 Sony Corp Display control device, imaging device, and display control method
JP2014016803A (en) * 2012-07-09 2014-01-30 Konica Minolta Inc Operation display device and program
JP2014203183A (en) * 2013-04-03 2014-10-27 カシオ計算機株式会社 Information processing device and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153021A (en) * 2018-03-02 2019-09-12 富士ゼロックス株式会社 Information processing device and program
JP7130988B2 (en) 2018-03-02 2022-09-06 富士フイルムビジネスイノベーション株式会社 Information processing device and program
JP2020004279A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Electronic device, control method, program and storage medium of electronic device
JP7129244B2 (en) 2018-06-29 2022-09-01 キヤノン株式会社 ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, PROGRAM, STORAGE MEDIUM

Also Published As

Publication number Publication date
JP6701027B2 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
JP6748582B2 (en) Imaging device, control method thereof, program, and recording medium
US10911663B2 (en) Electronic apparatus and method for controlling the same
JP6701145B2 (en) Electronic device and control method thereof
US11381736B2 (en) Image capture apparatus and control method
JP2018129765A (en) Imaging apparatus and control method
JP2014078826A (en) Imaging apparatus, control method therefor, control program, and recording medium
US11184528B2 (en) Electronic apparatus, control method therefor, and non-transitory computer readable medium
JP6071616B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2017011579A (en) Imaging device, control method for the same, program and storage medium
US11435648B2 (en) Image capture apparatus and control method
JP7446913B2 (en) Electronic devices, control methods for electronic devices, and programs
JP6701027B2 (en) Imaging device, control method thereof, and program
JP2021069008A (en) Electronic equipment, control method for electronic equipment, program and storage medium
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
US20200387294A1 (en) Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP2018148389A (en) Electronic device and control method thereof
JP2018085570A (en) Imaging apparatus, imaging method, and program
JP6708516B2 (en) Electronic device, control method thereof, and program
JP2020178232A (en) Electronic apparatus
JP2019169823A (en) Imaging apparatus
US11438512B2 (en) Electronic apparatus and control method thereof
JP6971709B2 (en) Imaging device and its control method
JP7134730B2 (en) Imaging device and its control method
JP7071197B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6701027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees