JP6701027B2 - Imaging device, control method thereof, and program - Google Patents
Imaging device, control method thereof, and program Download PDFInfo
- Publication number
- JP6701027B2 JP6701027B2 JP2016156839A JP2016156839A JP6701027B2 JP 6701027 B2 JP6701027 B2 JP 6701027B2 JP 2016156839 A JP2016156839 A JP 2016156839A JP 2016156839 A JP2016156839 A JP 2016156839A JP 6701027 B2 JP6701027 B2 JP 6701027B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- touch operation
- finder
- unit
- image pickup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000003384 imaging method Methods 0.000 title claims description 20
- 238000001514 detection method Methods 0.000 claims description 44
- 230000008569 process Effects 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 2
- 230000035945 sensitivity Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 34
- 210000003811 finger Anatomy 0.000 description 27
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 210000003813 thumb Anatomy 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 230000004907 flux Effects 0.000 description 4
- 230000001154 acute effect Effects 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Description
本発明は、撮像装置、その制御方法、プログラムおよび記録媒体に関する。 The present invention relates to an imaging device, a control method therefor, a program, and a recording medium.
撮像装置の一例であるデジタル一眼レフカメラには、被写体の構図を確認するためのファインダと、撮影した画像を表示したり各種設定を行ったりするための背面ディスプレイとが設けられているものがある。また、背面ディスプレイには、ユーザが直感的に操作できるようにタッチパネルが設けられているものがある。
このようなデジタル一眼レフカメラを用いて、ユーザがファインダを覗きながら撮影する場合、背面タッチパネルにユーザの顔の一部が接触してしまい、タッチパネルがユーザの意図しない接触を検出してしまい、誤動作が生じるという問題がある。
特許文献1には、予め登録されている、光学ファインダを覗く眼の情報からタッチパネルのうち接触による入力が可能な入力可能領域を設定し、入力可能領域以外への接触に応じた動作を行わないようにした撮像装置が開示されている。
A digital single-lens reflex camera, which is an example of an image pickup apparatus, includes a viewfinder for confirming the composition of a subject and a rear display for displaying a captured image and making various settings. .. Further, some rear displays are provided with a touch panel so that the user can operate them intuitively.
When a user takes a picture while looking through the viewfinder using such a digital single-lens reflex camera, a part of the user's face comes into contact with the rear touch panel, and the touch panel detects an unintended touch by the user, causing a malfunction. There is a problem that occurs.
In Japanese Patent Laid-Open No. 2004-242242, an inputtable area in which touch input is possible is set in the touch panel based on the information of the eye that is registered in advance and looks into the optical viewfinder, and an operation corresponding to a touch other than the inputable area is not performed. Such an imaging device is disclosed.
しかしながら、特許文献1の撮像装置では、ファインダに接眼したときに入力可能領域が一律に設定され、入力可能領域が制限されてしまうために操作性が低下してしまうという問題がある。
本発明は上述したような問題点に鑑みてなされたものであり、ファインダを使用しているときの操作性を向上させることを目的とする。
However, the image pickup apparatus of Patent Document 1 has a problem that the inputtable area is uniformly set when the viewfinder is brought into contact with the image pickup apparatus, and the inputtable area is limited.
The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to improve operability when using a finder.
本発明の撮像装置は、ファインダと、タッチ操作を検出するタッチ検出手段と、前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御手段と、を有することを特徴とする。 The imaging device of the present invention, when using a finder, a touch detection unit that detects a touch operation, and the finder, depending on the angle in the touch surface in the touch operation detected by the touch detection unit, Control is performed such that the touch operation is validated or invalidated, predetermined processing is performed according to the valid touch operation, and the predetermined processing is not performed according to the invalid touch operation. And a control means.
本発明によれば、ファインダを使用しているときの操作性を向上させることができる。 According to the present invention, it is possible to improve operability when using the finder.
以下、本発明の好適な実施形態について図面を参照して説明する。本実施形態では、撮像装置の一例としてデジタルカメラ100を用いるものとする。
図1(a)、(b)は、デジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
デジタルカメラ100は、上面にシャッターボタン101、メイン電子ダイヤル102、モード切替スイッチ103、ファインダ外表示部104等を備える。シャッターボタン101は、撮影の準備あるいは撮影を指示するための操作部である。メイン電子ダイヤル102は、シャッター速度や絞り等の設定値を変更するための回転式の操作部である。モード切替スイッチ103は、各種モードを切替えるための操作部である。モード切替スイッチ103により静止画撮影モード、動画撮影モード等に切替えられる。ファインダ外表示部104は、シャッター速度や絞り等の様々な設定値を表示する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In this embodiment, the
1A and 1B are external views of the
The
また、デジタルカメラ100は、背面に表示部105、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113を備える。また、デジタルカメラ100は、ファインダ114、接眼検知部115等を備える。
表示部105は、画像や各種情報を表示する。表示部105は、ライブビュー撮影においてライブビュー画像を表示したり、静止画撮影後のクイックレビュー画像を表示したり、動画記録中の画像を表示したりする。本実施形態の表示部105は、デジタルカメラ100を横姿勢にしたときに水平方向を長辺とし、垂直方向を短辺とする矩形状である。電源スイッチ106は、デジタルカメラ100の電源のオンおよびオフを切替える操作部である。サブ電子ダイヤル107は、選択枠の移動や画像送り等を行うための回転式の操作部である。十字キー108は、上下左右にそれぞれ押下可能なキー(4方向キー)であり、押下した位置に応じた操作が可能である。SETボタン109は、主に選択項目を決定するときに押下される操作部である。
The
The
ライブビューボタン110は、静止画撮影モードにおいてはファインダ撮影モードとライブビュー撮影モードとを切替え、動画撮影モードにおいては動画撮影(記録)の開始、停止を指示するための操作部である。すなわち、ライブビューボタン110は、静止画撮影モードにおいてはファインダ114を使用するか否かを切替えるための操作部に相当する。拡大ボタン111は、ライブビュー画像の表示において拡大モードのオン、オフおよび拡大モード中の拡大率を変更するための操作部である。また、拡大ボタン111は、再生モードにおいて再生画像の拡大率を大きくするときに用いられる。縮小ボタン112は拡大された再生画像の拡大率を小さくし、表示された画像を縮小させるための操作部である。再生ボタン113は、撮影モードと再生モードとを切替えるためのボタンである。静止画撮影モードあるいは動画撮影モード中に再生ボタン113が押下されることで、再生モードに切替えられ、表示部105に記録媒体に記録された画像のうち最新の画像が表示される。ファインダ114は、後述するフォーカシングスクリーンを観察することで、被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。なお、ファインダ114は、光学ファインダあるいは電子ファインダの何れであってもよい。接眼検知部115は、ファインダ114に対する物体の近接、具体的にはユーザの顔の近接を検知する。
The
また、デジタルカメラ100は、右側にグリップ部116、蓋部117等を備え、左側に端子カバー118等を備える。グリップ部116は、ユーザがデジタルカメラ100を構えたときに右手で握り易いように形成された保持部である。なお、グリップ部116は、表示部105と同じ高さに位置している。したがって、ユーザは右手でグリップ部116を保持しながら、右手の親指で表示部105に接触することができる。蓋部117は、記録媒体を格納するスロットを閉塞するための蓋である。端子カバー118は、外部機器の接続ケーブル等を接続するコネクタを保護するためのカバーである。
また、デジタルカメラ100の内部には、アクチュエータによってアップダウンされるクイックリターンミラー119が配置される。また、デジタルカメラ100には、着脱可能なレンズユニットと通信するための通信端子120を備える。
The
Further, a
図2は、デジタルカメラ100の構成を示す図である。なお、図1と同一の構成は、同一符号を付してその説明を適宜、省略する。デジタルカメラ100は、着脱可能なレンズユニット201が装着される。
まず、レンズユニット201について説明する。
レンズユニット201は、絞り202、レンズ群203、絞り駆動回路204、AF(オートフォーカス)駆動回路205、レンズ制御回路206、通信端子207等を有する。絞り202は、開口径が調整可能に構成される。レンズ群203は、複数枚のレンズから構成される。絞り駆動回路204は、絞り202の開口径を制御することで光量を調整する。AF駆動回路205は、レンズ群203を駆動させて焦点を合わせる。レンズ制御回路206は、後述するシステム制御部の指示に基づいて、絞り駆動回路204、AF駆動回路205等を制御する。レンズ制御回路206は、絞り駆動回路204を介して絞り202の制御を行い、AF駆動回路205を介してレンズ群203の位置を変位させることで焦点を合わせる。レンズ制御回路206は、デジタルカメラ100との間で通信可能である。具体的には、レンズユニット201の通信端子207と、デジタルカメラ100の通信端子120とを介して通信される。
FIG. 2 is a diagram showing the configuration of the
First, the
The
次に、デジタルカメラ100について説明する。
デジタルカメラ100は、クイックリターンミラー119、フォーカシングスクリーン208、ペンタプリズム209、AE(自動露出)センサ210、焦点検出部211、ファインダ114、シャッター212、撮像部213、システム制御部214を有する。
クイックリターンミラー119(以下、ミラー119)は、露光、ライブビュー画像の表示、動画撮影をする場合に、システム制御部214の指示に基づいてアクチュエータによりアップダウンされる。ミラー119は、レンズ群203から入射した光束をファインダ114側または撮像部213側に切替える。通常の場合には、ミラー119は光束をファインダ114側に導くように配置される。一方、撮影する場合やライブビュー画像を表示する場合には、ミラー119は光束を撮像部213に導くように上方に跳ね上がり待避する(ミラーアップ)。また、ミラー119は、中央部が光の一部を透過するハーフミラーで構成され、光束の一部が焦点検出を行うための焦点検出部211に入射するように透過させる。AEセンサ210は、レンズユニット201を通した被写体の輝度を測光する。焦点検出部211は、ミラー119により透過された光束に基づいてデフォーカス量を検出する。システム制御部214はデフォーカス量に基づいてレンズユニット201を制御し、位相差AFを行う。撮影者は、ペンタプリズム209とファインダ114を介して、フォーカシングスクリーン208を観察することで、レンズユニット201を通して得た被写体の光学像の焦点や構図を確認することができる。シャッター212は、システム制御部214の指示に基づいて撮像部213の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部213は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。
Next, the
The
The quick return mirror 119 (hereinafter, mirror 119) is moved up and down by an actuator based on an instruction from the
また、デジタルカメラ100は、A/D変換器215、メモリ制御部216、画像処理部217、メモリ218、D/A変換器219、表示部105を有する。A/D変換器215は、撮像部213から出力されるアナログ信号をデジタル信号に変換する。画像処理部217は、A/D変換器215からのデータまたはメモリ制御部216からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部217では、撮影した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部214が露光制御、測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)処理が行われる。更に、画像処理部217では、撮影した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
The
A/D変換器215からの画像データは、画像処理部217およびメモリ制御部216を介して、または、メモリ制御部216を介してメモリ218に直接書き込まれる。メモリ218は、撮像部213によって得られA/D変換器215によりデジタルデータに変換された画像データや、表示部105に表示するための画像データを格納する。メモリ218は、所定枚数の静止画像や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。また、メモリ218は、画像表示用のメモリ(ビデオメモリ)を兼ねている。
The image data from the A/
D/A変換器219は、メモリ218に格納されている表示用の画像データをアナログ信号に変換して表示部105に供給する。したがって、メモリ218に書き込まれた表示用の画像データは、D/A変換器219を介して表示部105により表示される。表示部105は、LCD等の表示器上にD/A変換器219からのアナログ信号に応じた表示を行う。A/D変換器215によって一度A/D変換されメモリ218に蓄積されたデジタル信号をD/A変換器219でアナログ変換し、表示部105に逐次転送して表示することでライブビュー画像を表示(スルー表示)でき、電子ビューファインダとして機能する。
The D/
また、デジタルカメラ100は、ファインダ内表示部220、ファインダ内表示駆動回路221、ファインダ外表示部104、ファインダ外表示駆動回路222、不揮発性メモリ223、システムメモリ224、システムタイマー225を有する。ファインダ内表示部220は、ファインダ内表示駆動回路221を介して現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコン等を表示する。ファインダ外表示部104は、ファインダ外表示駆動回路222を介してシャッター速度や絞り等の設定値を表示する。不揮発性メモリ223は、電気的に消去・記憶可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ223には、システム制御部214の動作用の定数、閾値、プログラム等が記憶される。このプログラムは、後述するフローチャートの処理を実行するためのプログラムである。
The
システムメモリ224は、例えばRAMが用いられる。システムメモリ224には、システム制御部214の動作用の定数、変数、不揮発性メモリ223から読み出したプログラム等が展開される。システムタイマー225は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
システム制御部214は、デジタルカメラ100全体を制御する。システム制御部214は、上述した不揮発性メモリ223に記憶されたプログラムを実行することで、後述する各処理を実現する。また、システム制御部214は、メモリ218、D/A変換器219、表示部105等を制御することにより表示制御も行う。システム制御部214は、制御手段の一例である。
A RAM is used as the
The
また、デジタルカメラ100は、モード切替スイッチ103、第1シャッタースイッチ226、第2シャッタースイッチ227、操作部228等のシステム制御部214に各種の動作指示を入力するための操作手段を有する。
モード切替スイッチ103は、静止画撮影モード、動画撮影モードおよび再生モード等の何れかに切替えるための操作部である。システム制御部214は、モード切替スイッチ103により切替えられたモードを設定する。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ103により、上述したモードの何れかに直接切替えることができる。また、モード切替スイッチ103によりメニューボタンに一旦切替えた後に、メニューボタンに含まれる上述したモードの何れかに、他の操作部を用いて切替えてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
The
The
第1シャッタースイッチ226は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生させる。システム制御部214は、第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。
第2シャッタースイッチ227は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生させる。システム制御部214は、第2シャッタースイッチ信号SW2により、撮像部213からの信号読み出しから記録媒体230に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The
The second shutter switch 227 is turned on when the operation of the
操作部228は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部228は、表示部105に表示される種々の機能アイコンを選択操作すること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押下されると各種の設定可能なメニュー画面が表示部105に表示される。ユーザは表示部105に表示されたメニュー画面と、十字キー108やSETボタン109とを用いて直感的に各種設定を行うことができる。操作部228は例えば、シャッターボタン101、メイン電子ダイヤル102、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113が含まれる。
The
更に、操作部228の一つとして、表示部105に対する接触を検出可能なタッチパネル229を有する。タッチパネル229は、タッチ検出手段の一例である。タッチパネル229と表示部105とは一体的に構成することができる。例えば、光の透過率が表示部105の表示を妨げないように、タッチパネル229を表示部105の表示面上に配置する。そして、タッチパネル229における入力座標と、表示部105上の表示座標とを対応付けることで、恰もユーザが表示部105上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成することができる。タッチパネル229は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。また、方式によって、タッチパネル229に対する接触があったことでタッチがあったと検出する方式や、タッチパネル229に対する指等の接近があったことでタッチがあったと検出する方式があるが、何れの方式であってもよい。
Further, a
システム制御部214はタッチパネル229を介して以下の操作あるいは状態を検出できる。
(1)タッチパネル229にタッチしていなかった指等が新たにタッチパネル229にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)という)。
(2)タッチパネル229を指等でタッチしている状態であること(以下、タッチオン(Touch−On)という)。
(3)タッチパネル229を指等でタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)という)。
(4)タッチパネル229へタッチしていた指等を離したこと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)という)。
(5)タッチパネル229に何もタッチしていない状態(以下、タッチオフ(Touch−Off)という)。
(6)タッチオンしている指等の面積が所定の面積以上である状態(以下、ラージオブジェクト検出(Large−Object−Detect)という)。
なお、タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指等がタッチアップしたことが検出された後は、タッチオフとなる。
The
(1) A finger or the like that has not touched the
(2) The
(3) The
(4) Release of the finger or the like touching the
(5) A state in which nothing is touched on the touch panel 229 (hereinafter referred to as touch-off).
(6) A state in which the area of the finger or the like that is touching on is equal to or larger than a predetermined area (hereinafter referred to as large-object-detect).
When the touchdown is detected, it is also detected that the touch is on. After touchdown, touchon is normally detected unless touchup is detected. A touch move is also detected when touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all the touched fingers or the like have touched up, the touch is turned off.
上述した操作・状態やタッチパネル229上に指等がタッチしている座標は内部バスを通じてシステム制御部214に通知される。システム制御部214は通知された情報に基づいてタッチパネル229上でどのような操作が行なわれたかを判定する。タッチムーブについては、システム制御部214はタッチパネル229上で移動する指等の移動方向を座標の変化に基づいて、タッチパネル229上の垂直成分・水平成分ごとに判定する。システム制御部214は、所定距離以上、所定速度未満でタッチムーブしたことを検出した場合はドラッグが行なわれたと判定する。
The
また、デジタルカメラ100は、電源制御部231、電源部232、記録媒体I/F233、通信部234、姿勢検知部235、接眼検知部115等を有する。電源制御部231は、電池検出回路、DC−DCコンバータ、通電するブロックを切替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部231は、その検出結果およびシステム制御部214の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体230を含む各部へ供給する。電源部232は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F233は、メモリカードやハードディスク等の記録媒体230とのインターフェースである。記録媒体230は、撮影された画像を記憶するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。通信部234は、デジタルカメラ100を無線または有線ケーブルによって外部機器に接続し、映像信号や音声信号の送受信を行う。また、通信部234は、撮像部213で撮影した画像(ライブビュー画像を含む)や、記録媒体230に記憶された画像を送信したり、外部機器から画像データやその他の各種情報を受信したりすることができる。なお、通信部234は、無線LAN(Local Area Network)やインターネットとも接続可能である。
The
姿勢検知部235は、重力方向に対するデジタルカメラ100の姿勢を検知する。システム制御部214は、姿勢検知部235により検知された姿勢に基づいてデジタルカメラ100の傾き角度を算出することができる。したがって、システム制御部214は、傾き角度によって撮像部213で撮影された画像がデジタルカメラ100を横姿勢で撮影した画像であるか、縦姿勢で撮影した画像であるかを判別することができる。なお、システム制御部214は、姿勢検知部235により検知された姿勢に応じた向き情報を撮像部213で撮影された画像データに付加したり、向き情報に応じて画像を回転して記憶したりすることができる。姿勢検知部235は、例えば加速度センサやジャイロセンサ等を用いることができる。
The
接眼検知部115は、ファインダ114の周囲に配置される。接眼検知部115は、例えば、赤外発光器および受光器で構成され、一定間隔で赤外光を発光して、物体により反射された光量を測定することで所定位置に物体が近接しているか否かを検知する。システム制御部214は、接眼検知部115から検知された検知情報によりユーザがファインダを使用しているか否か、具体的にはユーザの顔がファインダ114に近接しているか否かを検知する。接眼検知部115は、検知手段の一例である。
The
次に、ユーザがファインダ114を使用している場合にタッチパネル229に対するタッチ操作の操作性を向上させることができるデジタルカメラ100の処理について説明する。
なお、以下の各実施形態では、ユーザがデジタルカメラ100のファインダ114を覗きながらタッチパネル229をタッチ操作して、ファインダ内表示部220に表示されるAF枠のカーソルを移動させる場合を例にして説明する。
Next, a process of the
In each of the following embodiments, a case where the user touches the
<第1の実施形態>
まず、第1の実施形態に係るデジタルカメラ100の処理について図3のフローチャートを参照して説明する。このフローチャートにおける各処理は、システム制御部214が不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開して実行することにより実現される。
<First Embodiment>
First, the processing of the
S301では、システム制御部214はユーザがファインダ114を使用しているか否か、すなわちユーザがファインダ114に接眼しているか否かを判定する。システム制御部214は接眼検知部115から物体が近接している検知情報を受信した場合にはユーザがファインダ114を使用している、すなわちファインダ114に接眼していると判定する。一方、物体が近接している検知情報を受信していない場合にはファインダ114を使用していない、すなわち接眼していないと判定する。
なお、システム制御部214はファインダ114を使用しているか否かを、ライブビューボタン110の状態に応じて判定してもよい。すなわち、システム制御部214はライブビューボタン110に基づいてファインダ撮影モードに設定している場合にはファインダ114を使用していると判定する。一方、システム制御部214はライブビューボタン110に基づいてライブビュー撮影モードに設定している場合にはファインダ114を使用していないと判定する。
ファインダ114を使用していない場合にはファインダ114を使用するのを待機し、ファインダ114を使用している場合にはS302に進む。
In S301, the
The
When the
S302では、システム制御部214はデジタルカメラ100の操作モードを測距点選択モードに移行する。ここでは、システム制御部214はファインダ内表示駆動回路221を介してファインダ内表示部220に測距点を選択するためのAF枠を表示する。
図4は、デジタルカメラ100を背面側から見た図である。図4には、ファインダ内表示部220の表示内容を拡大して示している。
図4(a)に示すように、ファインダ内表示部220には35点のAF枠が表示されており、中央のAF枠が選択された状態になっている。選択中のAF枠を表すカーソル401を太線で示している。ユーザはタッチパネル229へのタッチ操作により任意のAF枠を選択することができる。
S303では、システム制御部214はタッチパネル229を介してタッチ操作、具体的にはタッチダウンを検出したか否かを判定する。タッチダウンを検出した場合にはS304に進み、タッチダウンを検出しない場合にはタッチダウンを検出するまで待機する。
In S302, the
FIG. 4 is a diagram of the
As shown in FIG. 4A, 35 AF points are displayed on the in-
In S303, the
S304では、システム制御部214はタッチダウンされたときのタッチ形状が楕円であるか否かを判定する。ここで、タッチ形状とは、タッチパネル229に対するタッチのうちタッチダウンであると判定する領域の外周の形状をいうものとする。例えば、タッチパネル229が静電容量方式の場合には、タッチ形状はタッチダウンと判定する閾値を超えて静電容量が変化した領域の外周の形状である。
図4(a)では、タッチ形状402はユーザの右手の指(親指)403によりタッチされた形状を示し、タッチ形状404はユーザの顔405の一部(鼻等)によりタッチされた形状を示している。デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合、指が寝た状態でタッチすることになり、タッチ形状402は楕円に近い形状になると推測される。一方、ファインダ114に接眼するときに誤ってユーザの顔の一部でタッチパネル229をタッチした場合、タッチ形状404は真円に近い形状になると推測される。
したがって、S304において、システム制御部214はタッチ形状が楕円に近い形状である場合には指によりタッチ操作された可能性が高いと判定し、タッチ形状が真円に近い形状である場合にはユーザの顔の一部によりタッチされたと判定することができる。
システム制御部214はタッチ形状が楕円に近いか真円に近いかを、タッチパネル229の座標を用いた楕円の近似式によって判定する。
具体的に、式(1)を用いてタッチ形状を楕円に近似する。
In S304, the
In FIG. 4A, a
Therefore, in S304, the
The
Specifically, the touch shape is approximated to an ellipse using Expression (1).
ここで、式(1)のうち係数A,B,C,D,Eは、タッチ形状の外周上の複数の座標(Xi,Yi)と、式(2)とを用いて算出することができる。 Here, the coefficients A, B, C, D, and E in the equation (1) should be calculated using a plurality of coordinates (X i , Y i ) on the outer circumference of the touch shape and the equation (2). You can
次に、式(3)、式(4)を用いて、近似した楕円の長軸(の長さ)aと短軸(の長さ)bとを算出することができる。 Next, using the formulas (3) and (4), the major axis (the length) a and the minor axis (the length) b of the approximated ellipse can be calculated.
ここで、(X0,Y0)は近似した楕円の中心座標であり、θは楕円の傾きである。なお、(X0,Y0)は、後述する式(6)、式(7)により算出することができる。また、θは後述する式(5)により算出することができる。
ここで、システム制御部214は算出した結果を用いて、楕円の長軸aと楕円の短軸bとの比(a/b)が閾値よりも大きいか否かを判定する。例えば、閾値には1.2を用いることができる。システム制御部214は長軸aと短軸bとの比が閾値よりも大きい場合には楕円に近い、すなわち指によるタッチ操作の可能性が高いとしてS305に進む。一方、閾値以下の場合には真円に近い、すなわちユーザの顔の一部によるタッチであるとしてS309に進む。
Here, (X 0 , Y 0 ) is the center coordinate of the approximated ellipse, and θ is the inclination of the ellipse. Note that (X 0 , Y 0 ) can be calculated by the equations (6) and (7) described later. Further, θ can be calculated by the equation (5) described later.
Here, the
S305では、システム制御部214はタッチ操作におけるタッチ面内の角度を算出することで、タッチ面内の角度を取得する。ここで、タッチ面とは、タッチパネル229の表面を意味する。また、タッチ面内の角度とは、タッチ形状を楕円に近似したときの楕円の長軸と、タッチパネル229面内の基準軸とがなす角度をいう。以下ではタッチ面内の角度を、タッチ入力角度という。本実施形態では、タッチパネル229面内の基準軸は、表示部105(あるいはタッチパネル229)の長辺と平行な軸であるものとする。
ここで、タッチ入力角度は、タッチ形状の楕円の傾きθに相当し、式(5)を用いて算出することができる。
In S305, the
Here, the touch input angle corresponds to the inclination θ of the ellipse of the touch shape, and can be calculated using Expression (5).
S306では、システム制御部214は取得したタッチ操作におけるタッチ入力角度が所定の範囲であるか否かを判定する。具体的には、システム制御部214はタッチ入力角度が、第1閾値TH1以上第2閾値TH2以下であるか否かを判定する。第1閾値TH1は所定の範囲の下限であって、第2閾値TH2は所定の範囲の上限である。第1閾値TH1および第2閾値TH2は、ユーザがデジタルカメラ100を保持しながら指でタッチ操作したときに想定されるタッチ入力角度の範囲に対応している。各閾値は、ユーザがタッチ操作するときのタッチ入力角度を検証すること等によって定めることができ、予め不揮発性メモリ223に記憶されている。
ここで、ファインダ114に接眼したときにタッチパネル229にユーザの顔の一部(鼻等)が誤ってタッチしたときのタッチ形状が楕円に近い形状になる場合がある。本実施形態では、タッチ入力角度に注目して、タッチ入力角度が所定の範囲である場合には指によるタッチ操作の可能性が高いと判定する。一方、タッチ入力角度が所定の範囲ではない場合にはユーザの顔の一部によるタッチであると判定する。
In S306, the
Here, when a part of the user's face (nose or the like) is accidentally touched on the
図5は、指によるタッチ操作におけるタッチ入力角度と、ユーザの顔の一部がタッチした場合のタッチ入力角度とを説明するための図である。なお、図4(a)と同様の構成は、同一符号を付している。図5の下側には、タッチパネル229にタッチしたときのタッチ形状を抜き出して図示している。
指によりタッチ操作したときのタッチ形状402は、デジタルカメラ100を保持しながら親指でタッチ操作をするために、タッチ入力角度が鋭角に近い角度θfになると推測される。一方、ユーザの顔の一部が誤ってタッチしたときにタッチ形状404が楕円になる場合には、タッチ入力角度が垂直に近い角度θn、すなわちタッチパネル229面内の基準軸と楕円の長軸とが直交するような角度になると推測される。
したがって、S306において、システム制御部214はタッチ形状が楕円であってもタッチ入力角度が垂直に近い場合にはユーザの顔の一部によりタッチされたと判定し、タッチ入力角度が鋭角である場合には指によりタッチ操作されたと判定することができる。
タッチ入力角度が所定の範囲である場合にはS307に進み、所定の範囲ではない場合にはS309に進む。
FIG. 5 is a diagram for explaining a touch input angle in a touch operation with a finger and a touch input angle when a part of the user's face is touched. The same components as those in FIG. 4A are designated by the same reference numerals. In the lower part of FIG. 5, a touch shape when the
It is assumed that the
Therefore, in step S306, the
If the touch input angle is within the predetermined range, the process proceeds to S307, and if it is not within the predetermined range, the process proceeds to S309.
S307では、システム制御部214は検出されたタッチ操作を有効と判定する。したがって、システム制御部214は検出されたタッチ操作に基づいて処理を行うために、S308に進む。
S308では、システム制御部214は有効と判定したタッチ操作に基づいた処理を行う。具体的には、システム制御部214はファインダ内表示部220に表示される選択中のAF枠のカーソル401をタッチムーブに応じて移動させる。
In S307, the
In S308, the
図4(b)、(c)はタッチ操作を有効と判定したときの処理の一例を示す図である。図4(b)、(c)では、図4(a)の状態からユーザが指403をタッチパネル229上で右あるいは上に動かすことで、タッチムーブ406、407が検出された状態を示している。なお、指403、ユーザの顔405、デジタルカメラ100の外形、ファインダ114の図示を省略している。
図4(b)、(c)に示すように、システム制御部214はタッチムーブ406、407の移動方向および移動量に応じて、ファインダ内表示部220に表示される選択中のAF枠のカーソル401を移動するように制御する。ここで、選択中のAF枠のカーソル401の移動方向と、有効と判定されたタッチ操作であるタッチムーブの移動方向とは一致し、その移動量は比例関係にある。また、本実施形態では、有効と判定されたタッチ操作のタッチパネル229上の位置座標と、カーソル401のファインダ内表示部220上の位置座標とは相対位置関係にある。すなわち、システム制御部214はタッチムーブ406、407による位置座標に応じてカーソル401の位置を変更するのではない。システム制御部214はタッチダウンした位置を基準とした、タッチムーブ406、407の移動方向および移動量に応じて、カーソル401の現在位置からの移動方向および移動量を決定してカーソル401の位置を変更する。
FIGS. 4B and 4C are diagrams showing an example of processing when it is determined that the touch operation is valid. 4B and 4C show a state in which the touch moves 406 and 407 are detected by the user moving the
As shown in FIGS. 4B and 4C, the
S309では、システム制御部214は検出されたタッチ操作を無効と判定する。ここでは、S304において真円に近いと判定されることでS309に進む場合と、S306においてタッチ入力角度が所定の範囲ではないと判定されることでS309に進む場合とがある。システム制御部214は何れの場合でも検出されたタッチ操作に基づいた処理を行わず、無効とする。
図4(d)はタッチ操作を無効と判定したときの処理の一例を示す図である。図4(d)では、図4(a)の状態からユーザの顔の一部がタッチパネル229上で右に動くことで、タッチムーブ408を検出した状態を示している。なお、指403、ユーザの顔405、デジタルカメラ100の外形、ファインダ114の図示を省略している。
ここでは、タッチ形状404が真円に近い、あるいは、タッチ入力角度が垂直に近い角度である。したがって、システム制御部214はタッチムーブ408のタッチ操作を無効と判定しているために、ファインダ内表示部220に表示される選択中のAF枠のカーソル401の位置を移動させないように制御する。
In S309, the
FIG. 4D is a diagram illustrating an example of processing when it is determined that the touch operation is invalid. FIG. 4D shows a state in which the
Here, the
S310では、システム制御部214はユーザがファインダ114を使用しているか否か、すなわちユーザがファインダ114に接眼しているか否かを判定する。この処理は、S301と同様の処理である。したがって、システム制御部214は接眼検知部115からの検知情報あるいはライブビューボタン110の状態に基づいて判定する。
ファインダ114を使用している場合にはS311に進み、ファインダ114を使用していない場合には処理を終了する。
In S310, the
If the
S311では、システム制御部214はタッチパネル229を介して追加のタッチ操作を検出したか否かを判定する。システム制御部214は追加のタッチ操作として追加のタッチダウンを検出した場合にはS312に進み、追加のタッチダウンを検出していない場合にはS310に戻る。
S312では、システム制御部214はタッチオンしているタッチ操作のうち、S307において有効と判定したタッチ操作があるか否かを判定する。有効として判定したタッチオンがある場合にはS310に戻り、有効として判定したタッチオンがない場合にはS304に戻る。
In S311, the
In S312, the
以上のように、本実施形態によれば、ファインダ114が使用されている場合にタッチ操作におけるタッチ面内の角度に応じてタッチ操作を有効とするか無効とするかを判定する。上述したように、ユーザが意図して指でタッチパネル229にタッチする場合とユーザの顔の一部(鼻等)が意図せずに誤ってタッチパネル229にタッチする場合とでタッチ面内の角度が異なる。したがって、タッチ面内の角度に応じてタッチ操作を有効とするか無効とするかを判定することで、入力可能領域を制限せずにユーザの顔の一部がタッチしたときの誤動作を防止することができる。このように、入力可能領域を制限しないことから、ユーザがファインダ114を使用しているときのタッチパネル229に対する操作性を向上させることができる。
また、本実施形態によれば、タッチ面内の角度が所定の範囲であるか否かに基づいてタッチ操作が有効か無効かを判定することから、タッチ操作が有効か無効かを容易に判定することができる。
また、本実施形態によれば、タッチ面内の角度が、指でタッチ操作したときに想定される角度の範囲の場合にタッチ操作を有効とし、他の角度の場合にはタッチ操作を無効とすることで、タッチ操作が有効か無効かを精度よく判定することができる。
As described above, according to the present embodiment, when the
Further, according to the present embodiment, since it is determined whether the touch operation is valid or invalid based on whether the angle in the touch surface is within a predetermined range, it is easy to determine whether the touch operation is valid or invalid. can do.
Further, according to the present embodiment, the touch operation is validated when the angle in the touch surface is in the range of the angle assumed when the touch operation is performed by the finger, and the touch operation is invalid when the angle is another angle. By doing so, it is possible to accurately determine whether the touch operation is valid or invalid.
なお、本実施形態では、システム制御部214はファインダ114を使用しているか否かを、接眼検知部115からの検知情報あるいはライブビューボタン110の状態に応じて判定する場合について説明したが、この場合に限られない。システム制御部214はライブビューボタン110に限られず、ファインダ114を使用するための他の操作部の状態に応じてファインダを使用しているか否かを判定してもよい。また、ファインダ114が着脱式である場合には、システム制御部214はファインダ114が装着されているときにファインダ114を使用していると判定してもよい。
In the present embodiment, the case where the
<第2の実施形態>
第2の実施形態では、タッチ操作が有効であるか無効であるかを判定するときのタッチ入力角度の閾値をタッチ操作のタッチ位置に応じて変更する例について説明する。図6は、第2の実施形態に係るデジタルカメラ100の処理を示すフローチャートである。このフローチャートにおける各処理は、システム制御部214が不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開して実行することにより実現される。
図6のフローチャートのS601〜S605の処理は図3のフローチャートのS301〜S305の処理と同様であり、図6のフローチャートのS610〜S615の処理は図3のフローチャートのS307〜S312の処理と同様であり、重複する説明を省略する。
<Second Embodiment>
In the second embodiment, an example will be described in which the threshold value of the touch input angle when determining whether the touch operation is valid or invalid is changed according to the touch position of the touch operation. FIG. 6 is a flowchart showing the processing of the
The processing of S601 to S605 of the flowchart of FIG. 6 is the same as the processing of S301 to S305 of the flowchart of FIG. 3, and the processing of S610 to S615 of the flowchart of FIG. 6 is the same as the processing of S307 to S312 of the flowchart of FIG. Yes, duplicate description will be omitted.
S605においてシステム制御部214はタッチ入力角度を取得した後にS606に進む。
S606では、システム制御部214はタッチ位置の座標を取得する。具体的には、システム制御部214はタッチ形状を楕円に近似した近似式を用いて中心座標を算出し、算出した中心座標をタッチ位置の座標とする。
中心座標(X0,Y0)は式(6)、式(7)を用いて算出することができる。
In step S605, the
In step S606, the
The center coordinates (X 0 , Y 0 ) can be calculated using the equations (6) and (7).
次に、S607〜S609において、システム制御部214はタッチ入力角度がタッチ位置の座標に応じて変更される閾値の範囲内に含まれているか否かを判定する。
まず、S607では、システム制御部214は取得したタッチ位置の座標がエリアA内であって、且つ、S605で算出したタッチ入力角度が第1閾値TH1_A以上第2閾値TH2_A以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS608に進む。
S608では、システム制御部214は取得したタッチ位置の座標がエリアB内であって、且つ、S605で算出したタッチ入力角度が第3閾値TH1_B以上第4閾値TH2_B以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS609に進む。
S609では、システム制御部214は取得したタッチ位置の座標がエリアC内であって、且つ、S605で算出したタッチ入力角度が第5閾値TH1_C以上第6閾値TH2_C以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS612に進む。
Next, in S<b>607 to S<b>609, the
First, in S607, the
In step S608, the
In S609, the
図7は、タッチ位置とタッチ入力角度との関係を説明するための図である。ここでは、タッチパネル229を上述したエリアA、エリアB、エリアCの複数(3つ)に区分している。エリアAは表示部105のうち左上の矩形状の領域であり、エリアBは表示部105の右上の矩形状の領域であり、エリアCは表示部105の下側の矩形状の領域である。
本実施形態では、デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合にエリアごとにタッチ入力角度が異なってくることに注目し、タッチ操作が有効か無効かを判定するための閾値をエリアごとに変更する。
FIG. 7 is a diagram for explaining the relationship between the touch position and the touch input angle. Here, the
In the present embodiment, attention is paid to the fact that the touch input angle is different for each area when the
図7(a)は、タッチ位置の座標がエリアAである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、タッチ入力角度θfが上述した第1閾値TH1_A以上第2閾値TH2_A以下の範囲に含まれると推測される。
図7(b)は、タッチ位置の座標がエリアBである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、エリアAに比べてタッチ入力角度θfが大きくなり(垂直に近い角度になり)、タッチ入力角度θfが上述した第3閾値TH1_B以上第4閾値TH2_B以下の範囲に含まれると推測される。
図7(c)は、タッチ位置の座標がエリアCである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、エリアA、Bに比べてタッチ入力角度θfが小さくなり(水平に近い角度になり)、タッチ入力角度θfが第5閾値TH1_C以上第6閾値TH2_C以下の範囲に含まれると推測される。
ここで、各タッチ入力角度の閾値の関係としては例えば、閾値TH1,2_C<閾値TH1,2_A<閾値TH1,2_Bとすることができる。各エリアの位置情報は予め不揮発性メモリ223に記憶されている。また、各閾値は、ユーザがタッチ操作するときのタッチ入力角度をエリアごとに検証すること等によって定めることができ、エリアごとに関連付けて予め不揮発性メモリ223に記憶されている。
FIG. 7A is a diagram showing a case where the coordinates of the touch position are area A. In this case, when the touch operation is performed with the thumb while holding the
FIG. 7B is a diagram showing a case where the coordinates of the touch position are area B. In this case, when the touch operation is performed with the thumb while holding the
FIG. 7C is a diagram showing a case where the coordinates of the touch position are area C. In this case, when the touch operation is performed with the thumb while holding the
Here, the relationship between the thresholds of the respective touch input angles may be, for example, thresholds TH1,2_C<thresholds TH1,2_A<thresholds TH1,2_B. The position information of each area is stored in the
S610では、システム制御部214は検出されたタッチ操作を有効と判定する。すなわち、システム制御部214はタッチ入力角度がエリアごとに変更した閾値の範囲である場合には指によりタッチ操作されたと判定する。
一方、S612では、システム制御部214は検出されたタッチ操作を無効と判定する。すなわち、システム制御部214はタッチ入力角度がエリアごとに変更した閾値の範囲ではない場合にはユーザの顔の一部によりタッチされたと判定する。
In S610, the
On the other hand, in S612, the
以上のように、本実施形態によれば、タッチ操作のタッチ位置に応じて、タッチ操作が有効か無効かを判定するための所定の範囲を変更する。上述したように、デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合にエリアごとにタッチ入力角度が異なる。したがって、エリアごとにタッチ操作が有効か無効かを判定するための所定の範囲を変更することで、タッチ操作が有効か無効かを精度よく判定することができる。
具体的には、タッチパネル229に対するタッチ位置が下側よりも上側のほうが、指によるタッチ操作のタッチ入力角度は垂直に近い角度になる。したがって、閾値の範囲もタッチ位置が下側よりも上側のほうが垂直に近い角度になるように変更することが好ましい。
また、タッチパネル229に対するタッチ位置がグリップ部116に離れているよりも近いほうが、指によるタッチ操作のタッチ入力角度は垂直に近い角度になる。したがって、閾値の範囲もタッチ位置がグリップ部116に離れているよりも近いほうが垂直に近い角度になるように変更することが好ましい。
なお、第2の実施形態では、タッチパネル229を3つのエリアに区分する場合について説明したが、この場合に限られず、2つや4つ以上のエリアに区分してもよく、区分したエリアごとに閾値の範囲を変更することができる。
As described above, according to the present embodiment, the predetermined range for determining whether the touch operation is valid or invalid is changed according to the touch position of the touch operation. As described above, when the
Specifically, when the touch position on the
In addition, when the touch position on the
In addition, in the second embodiment, the case where the
なお、システム制御部214が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。例えば、上述した実施形態では、システム制御部214がタッチパネル229を介してタッチ操作を検出する場合について説明したが、この場合に限られず、デジタルカメラ100はタッチパネル制御部を別途で備えてもよい。すなわち、タッチパネル制御部がタッチパネル229を介してタッチ操作を検出し、検出したタッチ操作の情報をシステム制御部214に通知するように構成してもよい。
また、本発明をその好適な実施形態に基づいて詳述したが、本発明は上述した実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
The above-described various controls described as being performed by the
Further, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to the above-described embodiments, and various forms within the scope of the present invention are also included in the present invention. .. Furthermore, the above-described embodiment is merely one embodiment of the present invention, and it is possible to appropriately combine the embodiments.
また、第1、第2の実施形態では、タッチ操作により実行される処理がAF枠を選択する場合について説明したが、この場合に限られず、デジタルカメラ100に関するあらゆる操作に適用することができる。例えば、デジタルカメラのシャッター速度、絞り値、ISO感度、露出補正値等の撮影に関する設定を変更する操作や、被写体を選択する選択枠を異なる被写体に移動させる操作に適用してもよい。
Further, in the first and second embodiments, the case where the process executed by the touch operation selects the AF frame has been described, but the present invention is not limited to this case, and can be applied to all operations related to the
また、第1、第2の実施形態では、本発明をデジタルカメラに適用する場合を例にして説明したが、この場合に限られず、ファインダ、タッチパネルを備える撮像装置であれば適用可能である。すなわち、本発明はデジタルビデオカメラ、タブレット端末、スマートフォン等に適用可能である。 Further, although cases have been described with the first and second embodiments as examples in which the present invention is applied to a digital camera, the present invention is not limited to this case, and is applicable to any image pickup apparatus including a finder and a touch panel. That is, the present invention is applicable to digital video cameras, tablet terminals, smartphones and the like.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:デジタルカメラ(撮像装置) 105:表示部 110:ライブビューボタン 114:ファインダ 115:接眼検知部 214:システム制御部 220:ファインダ内表示部 229:タッチパネル 100: Digital Camera (Imaging Device) 105: Display Unit 110: Live View Button 114: Viewfinder 115: Eyepiece Detection Unit 214: System Control Unit 220: Viewfinder Display Unit 229: Touch Panel
Claims (15)
タッチ操作を検出するタッチ検出手段と、
前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御手段と、を有することを特徴とする撮像装置。 With a finder,
Touch detection means for detecting a touch operation,
When the viewfinder is used, the valid touch is made different by validating or invalidating the touch operation according to the angle in the touch surface in the touch operation detected by the touch detection unit. An image pickup apparatus comprising: a control unit that performs a predetermined process according to an operation and controls the predetermined process not to be performed according to the invalid touch operation.
前記タッチ面内の角度が所定の範囲である場合には前記タッチ操作を有効とし、
前記タッチ面内の角度が前記所定の範囲ではない場合には前記タッチ操作を無効とするように制御することを特徴とする請求項1に記載の撮像装置。 The control means is
When the angle in the touch surface is within a predetermined range, the touch operation is valid,
The image pickup apparatus according to claim 1, wherein when the angle within the touch surface is not within the predetermined range, the touch operation is controlled to be invalid.
前記所定の範囲は、ユーザが該撮像装置を前記保持部で保持しながら指でタッチ操作するときの角度の範囲であることを特徴とする請求項2に記載の撮像装置。 A holding unit for holding the imaging device,
The image pickup apparatus according to claim 2, wherein the predetermined range is an angle range when a user performs a touch operation with a finger while holding the image pickup apparatus by the holding unit.
前記タッチ操作のタッチ位置に応じて前記所定の範囲を変更するように制御することを特徴とする請求項2または3に記載の撮像装置。 The control means is
The image pickup apparatus according to claim 2, wherein the predetermined range is controlled according to a touch position of the touch operation.
前記タッチ面内のエリアごとに前記所定の範囲を変更するように制御することを特徴とする請求項4に記載の撮像装置。 The control means is
The image pickup apparatus according to claim 4, wherein control is performed so as to change the predetermined range for each area on the touch surface.
前記タッチ位置が下側よりも上側のほうが、前記タッチ面内の角度が垂直に近い角度で前記タッチ操作を有効と判定するように前記所定の範囲を変更するように制御することを特徴とする請求項4または5に記載の撮像装置。 The control means is
It is characterized in that the touch position is controlled so as to change the predetermined range so as to determine that the touch operation is valid when the touch position is on the upper side than on the lower side, when the angle in the touch surface is close to vertical. The imaging device according to claim 4 or 5.
前記制御手段は、
前記タッチ位置が前記保持部に離れているよりも近いほうが、前記タッチ面内の角度が垂直に近い角度で前記タッチ操作を有効と判定するように前記所定の範囲を変更するように制御することを特徴とする請求項4ないし6の何れか1項に記載の撮像装置。 A holding unit for holding the imaging device,
The control means is
Control is performed so as to change the predetermined range such that the touch position is closer to the holding unit than the holding unit is, and the touch operation is determined to be valid at an angle in the touch surface close to vertical. The image pickup apparatus according to claim 4, wherein the image pickup apparatus is an image pickup apparatus.
前記タッチ検出手段により検出されたタッチ操作のタッチ形状が真円に近い場合には前記タッチ操作を無効として判定するように制御することを特徴とする請求項1ないし7の何れか1項に記載の撮像装置。 The control means is
8. The control according to claim 1, wherein when the touch shape of the touch operation detected by the touch detection means is close to a perfect circle, the touch operation is determined to be invalid. Imaging device.
前記タッチ検出手段により検出されたタッチ操作のタッチ形状を楕円に近似して、長軸と短軸との比に基づいて真円に近いか否かを判定することを特徴とする請求項8に記載の撮像装置。 The control means is
The touch shape of the touch operation detected by the touch detection means is approximated to an ellipse, and it is determined whether or not the shape is close to a perfect circle based on the ratio of the long axis and the short axis. The imaging device described.
前記ファインダを使用するときに操作される操作部の状態に応じて前記ファインダを使用しているか否かを判定し、
前記ファインダを使用していると判定した場合に前記タッチ操作を有効とするか無効とするかを判定するように制御することを特徴とする請求項1ないし9の何れか1項に記載の撮像装置。 The control means is
Determine whether or not to use the finder according to the state of the operation unit operated when using the finder,
The imaging according to any one of claims 1 to 9, wherein when it is determined that the finder is used, it is controlled to determine whether the touch operation is valid or invalid. apparatus.
前記制御手段は、
前記検知手段により検知される検知情報に基づいて前記ファインダを使用しているか否かを判定し、
前記ファインダを使用していると判定した場合に前記タッチ操作を有効とするか無効とするかを判定するように制御することを特徴とする請求項1ないし9の何れか1項に記載の撮像装置。 A detection means for detecting the proximity of an object to the finder,
The control means is
It is determined whether or not the finder is used based on the detection information detected by the detection means,
The imaging according to any one of claims 1 to 9, wherein when it is determined that the finder is used, it is controlled to determine whether the touch operation is valid or invalid. apparatus.
タッチ操作を検出するタッチ検出手段と、を備える撮像装置の制御方法であって、
前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御ステップを有することを特徴とする撮像装置の制御方法。 With a finder,
A method for controlling an imaging device, comprising: a touch detection unit that detects a touch operation,
When the viewfinder is used, the valid touch is made different by validating or invalidating the touch operation according to the angle in the touch surface in the touch operation detected by the touch detection unit. A method of controlling an image pickup apparatus, comprising: a control step of performing a predetermined process according to an operation and controlling the predetermined process not to be performed according to the invalid touch operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016156839A JP6701027B2 (en) | 2016-08-09 | 2016-08-09 | Imaging device, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016156839A JP6701027B2 (en) | 2016-08-09 | 2016-08-09 | Imaging device, control method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018026683A JP2018026683A (en) | 2018-02-15 |
JP6701027B2 true JP6701027B2 (en) | 2020-05-27 |
Family
ID=61194134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016156839A Expired - Fee Related JP6701027B2 (en) | 2016-08-09 | 2016-08-09 | Imaging device, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6701027B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7130988B2 (en) * | 2018-03-02 | 2022-09-06 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
JP7129244B2 (en) * | 2018-06-29 | 2022-09-01 | キヤノン株式会社 | ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, PROGRAM, STORAGE MEDIUM |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102027439A (en) * | 2008-05-12 | 2011-04-20 | 夏普株式会社 | Display device and control method |
JP2014003422A (en) * | 2012-06-18 | 2014-01-09 | Sony Corp | Display control device, imaging device, and display control method |
JP5862888B2 (en) * | 2012-07-09 | 2016-02-16 | コニカミノルタ株式会社 | Operation display device and program |
JP5983503B2 (en) * | 2013-04-03 | 2016-08-31 | カシオ計算機株式会社 | Information processing apparatus and program |
-
2016
- 2016-08-09 JP JP2016156839A patent/JP6701027B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2018026683A (en) | 2018-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6748582B2 (en) | Imaging device, control method thereof, program, and recording medium | |
JP6742730B2 (en) | Electronic device and control method thereof | |
JP5709816B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM | |
JP2018129765A (en) | Imaging apparatus and control method | |
US11184528B2 (en) | Electronic apparatus, control method therefor, and non-transitory computer readable medium | |
JP6071616B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP7465129B2 (en) | Imaging device, control method thereof, program, and storage medium | |
JP6701027B2 (en) | Imaging device, control method thereof, and program | |
JP7034619B2 (en) | Image pickup device, its control method, and program, and storage medium | |
JP6708516B2 (en) | Electronic device, control method thereof, and program | |
JP2021012619A (en) | Electronic apparatus and method for controlling the same | |
JP2020178232A (en) | Electronic apparatus | |
JP2020197976A (en) | Electronic apparatus, control method for electronic apparatus, program, and recording medium | |
JP2020046476A (en) | Imaging control device and control method of the same, program, and storage medium | |
JP2020021174A (en) | Electronic device, control method thereof, and program thereof | |
JP7210158B2 (en) | ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
JP7446913B2 (en) | Electronic devices, control methods for electronic devices, and programs | |
JP7433854B2 (en) | Imaging control device, imaging control method, program, storage medium | |
JP7134730B2 (en) | Imaging device and its control method | |
JP7446845B2 (en) | Imaging control device, control method for the imaging control device, program, and storage medium | |
JP6971709B2 (en) | Imaging device and its control method | |
JP6851788B2 (en) | Focus control device, control method and program of focus control device | |
JP6855317B2 (en) | Imaging device, control method of imaging device, program, and recording medium | |
JP2021085979A (en) | Electronic apparatus and control method thereof, program, and storage medium | |
JP6711599B2 (en) | Imaging device, control method thereof, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200501 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6701027 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |