JP2018026683A - Imaging apparatus, control method, and program - Google Patents
Imaging apparatus, control method, and program Download PDFInfo
- Publication number
- JP2018026683A JP2018026683A JP2016156839A JP2016156839A JP2018026683A JP 2018026683 A JP2018026683 A JP 2018026683A JP 2016156839 A JP2016156839 A JP 2016156839A JP 2016156839 A JP2016156839 A JP 2016156839A JP 2018026683 A JP2018026683 A JP 2018026683A
- Authority
- JP
- Japan
- Prior art keywords
- touch
- finder
- touch operation
- unit
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000003384 imaging method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 43
- 230000008569 process Effects 0.000 claims abstract description 35
- 230000004044 response Effects 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 2
- 230000035945 sensitivity Effects 0.000 claims description 2
- 210000003811 finger Anatomy 0.000 description 27
- 238000004891 communication Methods 0.000 description 9
- 210000003813 thumb Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000001154 acute effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、撮像装置、その制御方法、プログラムおよび記録媒体に関する。 The present invention relates to an imaging apparatus, a control method thereof, a program, and a recording medium.
撮像装置の一例であるデジタル一眼レフカメラには、被写体の構図を確認するためのファインダと、撮影した画像を表示したり各種設定を行ったりするための背面ディスプレイとが設けられているものがある。また、背面ディスプレイには、ユーザが直感的に操作できるようにタッチパネルが設けられているものがある。
このようなデジタル一眼レフカメラを用いて、ユーザがファインダを覗きながら撮影する場合、背面タッチパネルにユーザの顔の一部が接触してしまい、タッチパネルがユーザの意図しない接触を検出してしまい、誤動作が生じるという問題がある。
特許文献1には、予め登録されている、光学ファインダを覗く眼の情報からタッチパネルのうち接触による入力が可能な入力可能領域を設定し、入力可能領域以外への接触に応じた動作を行わないようにした撮像装置が開示されている。
Some digital single-lens reflex cameras as an example of an imaging apparatus are provided with a finder for confirming the composition of a subject and a rear display for displaying a photographed image and performing various settings. . Some rear displays are provided with a touch panel so that a user can operate intuitively.
When such a digital single-lens reflex camera is used and a user takes a picture while looking through the viewfinder, a part of the user's face comes into contact with the rear touch panel, and the touch panel detects a contact unintended by the user. There is a problem that occurs.
In Patent Document 1, an inputable area that can be input by contact is set in the touch panel from information on eyes that are looked into the optical viewfinder registered in advance, and an operation corresponding to contact other than the inputable area is not performed. An imaging apparatus configured as described above is disclosed.
しかしながら、特許文献1の撮像装置では、ファインダに接眼したときに入力可能領域が一律に設定され、入力可能領域が制限されてしまうために操作性が低下してしまうという問題がある。
本発明は上述したような問題点に鑑みてなされたものであり、ファインダを使用しているときの操作性を向上させることを目的とする。
However, the image pickup apparatus disclosed in Patent Document 1 has a problem in that operability is deteriorated because the input-enabled area is uniformly set when the eyepiece is in contact with the viewfinder, and the input-enabled area is limited.
The present invention has been made in view of the above-described problems, and an object thereof is to improve operability when using a finder.
本発明の撮像装置は、ファインダと、タッチ操作を検出するタッチ検出手段と、前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御手段と、を有することを特徴とする。 The imaging apparatus according to the present invention includes a finder, a touch detection unit that detects a touch operation, and an angle within the touch surface in the touch operation detected by the touch detection unit when the finder is used. The touch operation is made valid or invalid, and a predetermined process is performed according to the valid touch operation, and control is performed so that the predetermined process is not performed according to the invalid touch operation. And a control means.
本発明によれば、ファインダを使用しているときの操作性を向上させることができる。 According to the present invention, operability when using a finder can be improved.
以下、本発明の好適な実施形態について図面を参照して説明する。本実施形態では、撮像装置の一例としてデジタルカメラ100を用いるものとする。
図1(a)、(b)は、デジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
デジタルカメラ100は、上面にシャッターボタン101、メイン電子ダイヤル102、モード切替スイッチ103、ファインダ外表示部104等を備える。シャッターボタン101は、撮影の準備あるいは撮影を指示するための操作部である。メイン電子ダイヤル102は、シャッター速度や絞り等の設定値を変更するための回転式の操作部である。モード切替スイッチ103は、各種モードを切替えるための操作部である。モード切替スイッチ103により静止画撮影モード、動画撮影モード等に切替えられる。ファインダ外表示部104は、シャッター速度や絞り等の様々な設定値を表示する。
Preferred embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, the
FIGS. 1A and 1B are external views of the
The
また、デジタルカメラ100は、背面に表示部105、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113を備える。また、デジタルカメラ100は、ファインダ114、接眼検知部115等を備える。
表示部105は、画像や各種情報を表示する。表示部105は、ライブビュー撮影においてライブビュー画像を表示したり、静止画撮影後のクイックレビュー画像を表示したり、動画記録中の画像を表示したりする。本実施形態の表示部105は、デジタルカメラ100を横姿勢にしたときに水平方向を長辺とし、垂直方向を短辺とする矩形状である。電源スイッチ106は、デジタルカメラ100の電源のオンおよびオフを切替える操作部である。サブ電子ダイヤル107は、選択枠の移動や画像送り等を行うための回転式の操作部である。十字キー108は、上下左右にそれぞれ押下可能なキー(4方向キー)であり、押下した位置に応じた操作が可能である。SETボタン109は、主に選択項目を決定するときに押下される操作部である。
The
The
ライブビューボタン110は、静止画撮影モードにおいてはファインダ撮影モードとライブビュー撮影モードとを切替え、動画撮影モードにおいては動画撮影(記録)の開始、停止を指示するための操作部である。すなわち、ライブビューボタン110は、静止画撮影モードにおいてはファインダ114を使用するか否かを切替えるための操作部に相当する。拡大ボタン111は、ライブビュー画像の表示において拡大モードのオン、オフおよび拡大モード中の拡大率を変更するための操作部である。また、拡大ボタン111は、再生モードにおいて再生画像の拡大率を大きくするときに用いられる。縮小ボタン112は拡大された再生画像の拡大率を小さくし、表示された画像を縮小させるための操作部である。再生ボタン113は、撮影モードと再生モードとを切替えるためのボタンである。静止画撮影モードあるいは動画撮影モード中に再生ボタン113が押下されることで、再生モードに切替えられ、表示部105に記録媒体に記録された画像のうち最新の画像が表示される。ファインダ114は、後述するフォーカシングスクリーンを観察することで、被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。なお、ファインダ114は、光学ファインダあるいは電子ファインダの何れであってもよい。接眼検知部115は、ファインダ114に対する物体の近接、具体的にはユーザの顔の近接を検知する。
The
また、デジタルカメラ100は、右側にグリップ部116、蓋部117等を備え、左側に端子カバー118等を備える。グリップ部116は、ユーザがデジタルカメラ100を構えたときに右手で握り易いように形成された保持部である。なお、グリップ部116は、表示部105と同じ高さに位置している。したがって、ユーザは右手でグリップ部116を保持しながら、右手の親指で表示部105に接触することができる。蓋部117は、記録媒体を格納するスロットを閉塞するための蓋である。端子カバー118は、外部機器の接続ケーブル等を接続するコネクタを保護するためのカバーである。
また、デジタルカメラ100の内部には、アクチュエータによってアップダウンされるクイックリターンミラー119が配置される。また、デジタルカメラ100には、着脱可能なレンズユニットと通信するための通信端子120を備える。
In addition, the
In addition, a
図2は、デジタルカメラ100の構成を示す図である。なお、図1と同一の構成は、同一符号を付してその説明を適宜、省略する。デジタルカメラ100は、着脱可能なレンズユニット201が装着される。
まず、レンズユニット201について説明する。
レンズユニット201は、絞り202、レンズ群203、絞り駆動回路204、AF(オートフォーカス)駆動回路205、レンズ制御回路206、通信端子207等を有する。絞り202は、開口径が調整可能に構成される。レンズ群203は、複数枚のレンズから構成される。絞り駆動回路204は、絞り202の開口径を制御することで光量を調整する。AF駆動回路205は、レンズ群203を駆動させて焦点を合わせる。レンズ制御回路206は、後述するシステム制御部の指示に基づいて、絞り駆動回路204、AF駆動回路205等を制御する。レンズ制御回路206は、絞り駆動回路204を介して絞り202の制御を行い、AF駆動回路205を介してレンズ群203の位置を変位させることで焦点を合わせる。レンズ制御回路206は、デジタルカメラ100との間で通信可能である。具体的には、レンズユニット201の通信端子207と、デジタルカメラ100の通信端子120とを介して通信される。
FIG. 2 is a diagram illustrating a configuration of the
First, the
The
次に、デジタルカメラ100について説明する。
デジタルカメラ100は、クイックリターンミラー119、フォーカシングスクリーン208、ペンタプリズム209、AE(自動露出)センサ210、焦点検出部211、ファインダ114、シャッター212、撮像部213、システム制御部214を有する。
クイックリターンミラー119(以下、ミラー119)は、露光、ライブビュー画像の表示、動画撮影をする場合に、システム制御部214の指示に基づいてアクチュエータによりアップダウンされる。ミラー119は、レンズ群203から入射した光束をファインダ114側または撮像部213側に切替える。通常の場合には、ミラー119は光束をファインダ114側に導くように配置される。一方、撮影する場合やライブビュー画像を表示する場合には、ミラー119は光束を撮像部213に導くように上方に跳ね上がり待避する(ミラーアップ)。また、ミラー119は、中央部が光の一部を透過するハーフミラーで構成され、光束の一部が焦点検出を行うための焦点検出部211に入射するように透過させる。AEセンサ210は、レンズユニット201を通した被写体の輝度を測光する。焦点検出部211は、ミラー119により透過された光束に基づいてデフォーカス量を検出する。システム制御部214はデフォーカス量に基づいてレンズユニット201を制御し、位相差AFを行う。撮影者は、ペンタプリズム209とファインダ114を介して、フォーカシングスクリーン208を観察することで、レンズユニット201を通して得た被写体の光学像の焦点や構図を確認することができる。シャッター212は、システム制御部214の指示に基づいて撮像部213の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部213は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。
Next, the
The
The quick return mirror 119 (hereinafter referred to as the mirror 119) is raised and lowered by an actuator based on an instruction from the
また、デジタルカメラ100は、A/D変換器215、メモリ制御部216、画像処理部217、メモリ218、D/A変換器219、表示部105を有する。A/D変換器215は、撮像部213から出力されるアナログ信号をデジタル信号に変換する。画像処理部217は、A/D変換器215からのデータまたはメモリ制御部216からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部217では、撮影した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部214が露光制御、測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)処理が行われる。更に、画像処理部217では、撮影した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
The
A/D変換器215からの画像データは、画像処理部217およびメモリ制御部216を介して、または、メモリ制御部216を介してメモリ218に直接書き込まれる。メモリ218は、撮像部213によって得られA/D変換器215によりデジタルデータに変換された画像データや、表示部105に表示するための画像データを格納する。メモリ218は、所定枚数の静止画像や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。また、メモリ218は、画像表示用のメモリ(ビデオメモリ)を兼ねている。
Image data from the A /
D/A変換器219は、メモリ218に格納されている表示用の画像データをアナログ信号に変換して表示部105に供給する。したがって、メモリ218に書き込まれた表示用の画像データは、D/A変換器219を介して表示部105により表示される。表示部105は、LCD等の表示器上にD/A変換器219からのアナログ信号に応じた表示を行う。A/D変換器215によって一度A/D変換されメモリ218に蓄積されたデジタル信号をD/A変換器219でアナログ変換し、表示部105に逐次転送して表示することでライブビュー画像を表示(スルー表示)でき、電子ビューファインダとして機能する。
The D /
また、デジタルカメラ100は、ファインダ内表示部220、ファインダ内表示駆動回路221、ファインダ外表示部104、ファインダ外表示駆動回路222、不揮発性メモリ223、システムメモリ224、システムタイマー225を有する。ファインダ内表示部220は、ファインダ内表示駆動回路221を介して現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコン等を表示する。ファインダ外表示部104は、ファインダ外表示駆動回路222を介してシャッター速度や絞り等の設定値を表示する。不揮発性メモリ223は、電気的に消去・記憶可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ223には、システム制御部214の動作用の定数、閾値、プログラム等が記憶される。このプログラムは、後述するフローチャートの処理を実行するためのプログラムである。
The
システムメモリ224は、例えばRAMが用いられる。システムメモリ224には、システム制御部214の動作用の定数、変数、不揮発性メモリ223から読み出したプログラム等が展開される。システムタイマー225は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
システム制御部214は、デジタルカメラ100全体を制御する。システム制御部214は、上述した不揮発性メモリ223に記憶されたプログラムを実行することで、後述する各処理を実現する。また、システム制御部214は、メモリ218、D/A変換器219、表示部105等を制御することにより表示制御も行う。システム制御部214は、制御手段の一例である。
For example, a RAM is used as the
The
また、デジタルカメラ100は、モード切替スイッチ103、第1シャッタースイッチ226、第2シャッタースイッチ227、操作部228等のシステム制御部214に各種の動作指示を入力するための操作手段を有する。
モード切替スイッチ103は、静止画撮影モード、動画撮影モードおよび再生モード等の何れかに切替えるための操作部である。システム制御部214は、モード切替スイッチ103により切替えられたモードを設定する。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ103により、上述したモードの何れかに直接切替えることができる。また、モード切替スイッチ103によりメニューボタンに一旦切替えた後に、メニューボタンに含まれる上述したモードの何れかに、他の操作部を用いて切替えてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
In addition, the
The
第1シャッタースイッチ226は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生させる。システム制御部214は、第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。
第2シャッタースイッチ227は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生させる。システム制御部214は、第2シャッタースイッチ信号SW2により、撮像部213からの信号読み出しから記録媒体230に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The
The second shutter switch 227 is turned on when the operation of the
操作部228は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部228は、表示部105に表示される種々の機能アイコンを選択操作すること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押下されると各種の設定可能なメニュー画面が表示部105に表示される。ユーザは表示部105に表示されたメニュー画面と、十字キー108やSETボタン109とを用いて直感的に各種設定を行うことができる。操作部228は例えば、シャッターボタン101、メイン電子ダイヤル102、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、ライブビューボタン110、拡大ボタン111、縮小ボタン112、再生ボタン113が含まれる。
The
更に、操作部228の一つとして、表示部105に対する接触を検出可能なタッチパネル229を有する。タッチパネル229は、タッチ検出手段の一例である。タッチパネル229と表示部105とは一体的に構成することができる。例えば、光の透過率が表示部105の表示を妨げないように、タッチパネル229を表示部105の表示面上に配置する。そして、タッチパネル229における入力座標と、表示部105上の表示座標とを対応付けることで、恰もユーザが表示部105上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成することができる。タッチパネル229は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。また、方式によって、タッチパネル229に対する接触があったことでタッチがあったと検出する方式や、タッチパネル229に対する指等の接近があったことでタッチがあったと検出する方式があるが、何れの方式であってもよい。
Further, as one of the
システム制御部214はタッチパネル229を介して以下の操作あるいは状態を検出できる。
(1)タッチパネル229にタッチしていなかった指等が新たにタッチパネル229にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)という)。
(2)タッチパネル229を指等でタッチしている状態であること(以下、タッチオン(Touch−On)という)。
(3)タッチパネル229を指等でタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)という)。
(4)タッチパネル229へタッチしていた指等を離したこと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)という)。
(5)タッチパネル229に何もタッチしていない状態(以下、タッチオフ(Touch−Off)という)。
(6)タッチオンしている指等の面積が所定の面積以上である状態(以下、ラージオブジェクト検出(Large−Object−Detect)という)。
なお、タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指等がタッチアップしたことが検出された後は、タッチオフとなる。
The
(1) A finger or the like that has not touched the
(2) The
(3) The
(4) Release of a finger or the like that has touched
(5) A state in which nothing is touched on the touch panel 229 (hereinafter referred to as touch-off).
(6) A state where the area of a finger or the like that is touched on is equal to or larger than a predetermined area (hereinafter referred to as large object detection (Large-Object-Detect)).
When touchdown is detected, it is also detected that touch-on is performed at the same time. After touch-down, unless touch-up is detected, normally touch-on continues to be detected. The touch move is detected in a state where touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all the touched fingers have been touched up, the touch is turned off.
上述した操作・状態やタッチパネル229上に指等がタッチしている座標は内部バスを通じてシステム制御部214に通知される。システム制御部214は通知された情報に基づいてタッチパネル229上でどのような操作が行なわれたかを判定する。タッチムーブについては、システム制御部214はタッチパネル229上で移動する指等の移動方向を座標の変化に基づいて、タッチパネル229上の垂直成分・水平成分ごとに判定する。システム制御部214は、所定距離以上、所定速度未満でタッチムーブしたことを検出した場合はドラッグが行なわれたと判定する。
The
また、デジタルカメラ100は、電源制御部231、電源部232、記録媒体I/F233、通信部234、姿勢検知部235、接眼検知部115等を有する。電源制御部231は、電池検出回路、DC−DCコンバータ、通電するブロックを切替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部231は、その検出結果およびシステム制御部214の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体230を含む各部へ供給する。電源部232は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F233は、メモリカードやハードディスク等の記録媒体230とのインターフェースである。記録媒体230は、撮影された画像を記憶するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。通信部234は、デジタルカメラ100を無線または有線ケーブルによって外部機器に接続し、映像信号や音声信号の送受信を行う。また、通信部234は、撮像部213で撮影した画像(ライブビュー画像を含む)や、記録媒体230に記憶された画像を送信したり、外部機器から画像データやその他の各種情報を受信したりすることができる。なお、通信部234は、無線LAN(Local Area Network)やインターネットとも接続可能である。
In addition, the
姿勢検知部235は、重力方向に対するデジタルカメラ100の姿勢を検知する。システム制御部214は、姿勢検知部235により検知された姿勢に基づいてデジタルカメラ100の傾き角度を算出することができる。したがって、システム制御部214は、傾き角度によって撮像部213で撮影された画像がデジタルカメラ100を横姿勢で撮影した画像であるか、縦姿勢で撮影した画像であるかを判別することができる。なお、システム制御部214は、姿勢検知部235により検知された姿勢に応じた向き情報を撮像部213で撮影された画像データに付加したり、向き情報に応じて画像を回転して記憶したりすることができる。姿勢検知部235は、例えば加速度センサやジャイロセンサ等を用いることができる。
The
接眼検知部115は、ファインダ114の周囲に配置される。接眼検知部115は、例えば、赤外発光器および受光器で構成され、一定間隔で赤外光を発光して、物体により反射された光量を測定することで所定位置に物体が近接しているか否かを検知する。システム制御部214は、接眼検知部115から検知された検知情報によりユーザがファインダを使用しているか否か、具体的にはユーザの顔がファインダ114に近接しているか否かを検知する。接眼検知部115は、検知手段の一例である。
The
次に、ユーザがファインダ114を使用している場合にタッチパネル229に対するタッチ操作の操作性を向上させることができるデジタルカメラ100の処理について説明する。
なお、以下の各実施形態では、ユーザがデジタルカメラ100のファインダ114を覗きながらタッチパネル229をタッチ操作して、ファインダ内表示部220に表示されるAF枠のカーソルを移動させる場合を例にして説明する。
Next, processing of the
In each of the following embodiments, an example in which the user touches the
<第1の実施形態>
まず、第1の実施形態に係るデジタルカメラ100の処理について図3のフローチャートを参照して説明する。このフローチャートにおける各処理は、システム制御部214が不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開して実行することにより実現される。
<First Embodiment>
First, the processing of the
S301では、システム制御部214はユーザがファインダ114を使用しているか否か、すなわちユーザがファインダ114に接眼しているか否かを判定する。システム制御部214は接眼検知部115から物体が近接している検知情報を受信した場合にはユーザがファインダ114を使用している、すなわちファインダ114に接眼していると判定する。一方、物体が近接している検知情報を受信していない場合にはファインダ114を使用していない、すなわち接眼していないと判定する。
なお、システム制御部214はファインダ114を使用しているか否かを、ライブビューボタン110の状態に応じて判定してもよい。すなわち、システム制御部214はライブビューボタン110に基づいてファインダ撮影モードに設定している場合にはファインダ114を使用していると判定する。一方、システム制御部214はライブビューボタン110に基づいてライブビュー撮影モードに設定している場合にはファインダ114を使用していないと判定する。
ファインダ114を使用していない場合にはファインダ114を使用するのを待機し、ファインダ114を使用している場合にはS302に進む。
In S <b> 301, the
Note that the
If the
S302では、システム制御部214はデジタルカメラ100の操作モードを測距点選択モードに移行する。ここでは、システム制御部214はファインダ内表示駆動回路221を介してファインダ内表示部220に測距点を選択するためのAF枠を表示する。
図4は、デジタルカメラ100を背面側から見た図である。図4には、ファインダ内表示部220の表示内容を拡大して示している。
図4(a)に示すように、ファインダ内表示部220には35点のAF枠が表示されており、中央のAF枠が選択された状態になっている。選択中のAF枠を表すカーソル401を太線で示している。ユーザはタッチパネル229へのタッチ操作により任意のAF枠を選択することができる。
S303では、システム制御部214はタッチパネル229を介してタッチ操作、具体的にはタッチダウンを検出したか否かを判定する。タッチダウンを検出した場合にはS304に進み、タッチダウンを検出しない場合にはタッチダウンを検出するまで待機する。
In S302, the
FIG. 4 is a view of the
As shown in FIG. 4A, a 35-point AF frame is displayed on the in-
In step S <b> 303, the
S304では、システム制御部214はタッチダウンされたときのタッチ形状が楕円であるか否かを判定する。ここで、タッチ形状とは、タッチパネル229に対するタッチのうちタッチダウンであると判定する領域の外周の形状をいうものとする。例えば、タッチパネル229が静電容量方式の場合には、タッチ形状はタッチダウンと判定する閾値を超えて静電容量が変化した領域の外周の形状である。
図4(a)では、タッチ形状402はユーザの右手の指(親指)403によりタッチされた形状を示し、タッチ形状404はユーザの顔405の一部(鼻等)によりタッチされた形状を示している。デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合、指が寝た状態でタッチすることになり、タッチ形状402は楕円に近い形状になると推測される。一方、ファインダ114に接眼するときに誤ってユーザの顔の一部でタッチパネル229をタッチした場合、タッチ形状404は真円に近い形状になると推測される。
したがって、S304において、システム制御部214はタッチ形状が楕円に近い形状である場合には指によりタッチ操作された可能性が高いと判定し、タッチ形状が真円に近い形状である場合にはユーザの顔の一部によりタッチされたと判定することができる。
システム制御部214はタッチ形状が楕円に近いか真円に近いかを、タッチパネル229の座標を用いた楕円の近似式によって判定する。
具体的に、式(1)を用いてタッチ形状を楕円に近似する。
In S304, the
In FIG. 4A, a
Therefore, in S304, the
The
Specifically, the touch shape is approximated to an ellipse using Expression (1).
ここで、式(1)のうち係数A,B,C,D,Eは、タッチ形状の外周上の複数の座標(Xi,Yi)と、式(2)とを用いて算出することができる。 Here, coefficients A, B, C, D, and E in equation (1) are calculated using a plurality of coordinates (X i , Y i ) on the outer periphery of the touch shape and equation (2). Can do.
次に、式(3)、式(4)を用いて、近似した楕円の長軸(の長さ)aと短軸(の長さ)bとを算出することができる。 Next, the major axis (length) a and the minor axis (length) b of the approximated ellipse can be calculated using the equations (3) and (4).
ここで、(X0,Y0)は近似した楕円の中心座標であり、θは楕円の傾きである。なお、(X0,Y0)は、後述する式(6)、式(7)により算出することができる。また、θは後述する式(5)により算出することができる。
ここで、システム制御部214は算出した結果を用いて、楕円の長軸aと楕円の短軸bとの比(a/b)が閾値よりも大きいか否かを判定する。例えば、閾値には1.2を用いることができる。システム制御部214は長軸aと短軸bとの比が閾値よりも大きい場合には楕円に近い、すなわち指によるタッチ操作の可能性が高いとしてS305に進む。一方、閾値以下の場合には真円に近い、すなわちユーザの顔の一部によるタッチであるとしてS309に進む。
Here, (X 0 , Y 0 ) is the approximate center coordinates of the ellipse, and θ is the inclination of the ellipse. It should be noted that (X 0 , Y 0 ) can be calculated by the following expressions (6) and (7). Further, θ can be calculated by equation (5) described later.
Here, the
S305では、システム制御部214はタッチ操作におけるタッチ面内の角度を算出することで、タッチ面内の角度を取得する。ここで、タッチ面とは、タッチパネル229の表面を意味する。また、タッチ面内の角度とは、タッチ形状を楕円に近似したときの楕円の長軸と、タッチパネル229面内の基準軸とがなす角度をいう。以下ではタッチ面内の角度を、タッチ入力角度という。本実施形態では、タッチパネル229面内の基準軸は、表示部105(あるいはタッチパネル229)の長辺と平行な軸であるものとする。
ここで、タッチ入力角度は、タッチ形状の楕円の傾きθに相当し、式(5)を用いて算出することができる。
In S <b> 305, the
Here, the touch input angle corresponds to the inclination θ of the ellipse of the touch shape, and can be calculated using Expression (5).
S306では、システム制御部214は取得したタッチ操作におけるタッチ入力角度が所定の範囲であるか否かを判定する。具体的には、システム制御部214はタッチ入力角度が、第1閾値TH1以上第2閾値TH2以下であるか否かを判定する。第1閾値TH1は所定の範囲の下限であって、第2閾値TH2は所定の範囲の上限である。第1閾値TH1および第2閾値TH2は、ユーザがデジタルカメラ100を保持しながら指でタッチ操作したときに想定されるタッチ入力角度の範囲に対応している。各閾値は、ユーザがタッチ操作するときのタッチ入力角度を検証すること等によって定めることができ、予め不揮発性メモリ223に記憶されている。
ここで、ファインダ114に接眼したときにタッチパネル229にユーザの顔の一部(鼻等)が誤ってタッチしたときのタッチ形状が楕円に近い形状になる場合がある。本実施形態では、タッチ入力角度に注目して、タッチ入力角度が所定の範囲である場合には指によるタッチ操作の可能性が高いと判定する。一方、タッチ入力角度が所定の範囲ではない場合にはユーザの顔の一部によるタッチであると判定する。
In S306, the
Here, when a part of the user's face (such as the nose) touches the
図5は、指によるタッチ操作におけるタッチ入力角度と、ユーザの顔の一部がタッチした場合のタッチ入力角度とを説明するための図である。なお、図4(a)と同様の構成は、同一符号を付している。図5の下側には、タッチパネル229にタッチしたときのタッチ形状を抜き出して図示している。
指によりタッチ操作したときのタッチ形状402は、デジタルカメラ100を保持しながら親指でタッチ操作をするために、タッチ入力角度が鋭角に近い角度θfになると推測される。一方、ユーザの顔の一部が誤ってタッチしたときにタッチ形状404が楕円になる場合には、タッチ入力角度が垂直に近い角度θn、すなわちタッチパネル229面内の基準軸と楕円の長軸とが直交するような角度になると推測される。
したがって、S306において、システム制御部214はタッチ形状が楕円であってもタッチ入力角度が垂直に近い場合にはユーザの顔の一部によりタッチされたと判定し、タッチ入力角度が鋭角である場合には指によりタッチ操作されたと判定することができる。
タッチ入力角度が所定の範囲である場合にはS307に進み、所定の範囲ではない場合にはS309に進む。
FIG. 5 is a diagram for explaining a touch input angle in a touch operation with a finger and a touch input angle when a part of the user's face is touched. In addition, the same code | symbol is attached | subjected to the structure similar to Fig.4 (a). In the lower side of FIG. 5, a touch shape when the
The
Accordingly, in S306, the
If the touch input angle is within the predetermined range, the process proceeds to S307. If the touch input angle is not within the predetermined range, the process proceeds to S309.
S307では、システム制御部214は検出されたタッチ操作を有効と判定する。したがって、システム制御部214は検出されたタッチ操作に基づいて処理を行うために、S308に進む。
S308では、システム制御部214は有効と判定したタッチ操作に基づいた処理を行う。具体的には、システム制御部214はファインダ内表示部220に表示される選択中のAF枠のカーソル401をタッチムーブに応じて移動させる。
In step S307, the
In S308, the
図4(b)、(c)はタッチ操作を有効と判定したときの処理の一例を示す図である。図4(b)、(c)では、図4(a)の状態からユーザが指403をタッチパネル229上で右あるいは上に動かすことで、タッチムーブ406、407が検出された状態を示している。なお、指403、ユーザの顔405、デジタルカメラ100の外形、ファインダ114の図示を省略している。
図4(b)、(c)に示すように、システム制御部214はタッチムーブ406、407の移動方向および移動量に応じて、ファインダ内表示部220に表示される選択中のAF枠のカーソル401を移動するように制御する。ここで、選択中のAF枠のカーソル401の移動方向と、有効と判定されたタッチ操作であるタッチムーブの移動方向とは一致し、その移動量は比例関係にある。また、本実施形態では、有効と判定されたタッチ操作のタッチパネル229上の位置座標と、カーソル401のファインダ内表示部220上の位置座標とは相対位置関係にある。すなわち、システム制御部214はタッチムーブ406、407による位置座標に応じてカーソル401の位置を変更するのではない。システム制御部214はタッチダウンした位置を基準とした、タッチムーブ406、407の移動方向および移動量に応じて、カーソル401の現在位置からの移動方向および移動量を決定してカーソル401の位置を変更する。
4B and 4C are diagrams illustrating an example of processing when it is determined that the touch operation is valid. 4B and 4C show a state in which the touch moves 406 and 407 are detected when the user moves the
As shown in FIGS. 4B and 4C, the
S309では、システム制御部214は検出されたタッチ操作を無効と判定する。ここでは、S304において真円に近いと判定されることでS309に進む場合と、S306においてタッチ入力角度が所定の範囲ではないと判定されることでS309に進む場合とがある。システム制御部214は何れの場合でも検出されたタッチ操作に基づいた処理を行わず、無効とする。
図4(d)はタッチ操作を無効と判定したときの処理の一例を示す図である。図4(d)では、図4(a)の状態からユーザの顔の一部がタッチパネル229上で右に動くことで、タッチムーブ408を検出した状態を示している。なお、指403、ユーザの顔405、デジタルカメラ100の外形、ファインダ114の図示を省略している。
ここでは、タッチ形状404が真円に近い、あるいは、タッチ入力角度が垂直に近い角度である。したがって、システム制御部214はタッチムーブ408のタッチ操作を無効と判定しているために、ファインダ内表示部220に表示される選択中のAF枠のカーソル401の位置を移動させないように制御する。
In step S309, the
FIG. 4D is a diagram illustrating an example of processing when it is determined that the touch operation is invalid. FIG. 4D shows a state in which a
Here, the
S310では、システム制御部214はユーザがファインダ114を使用しているか否か、すなわちユーザがファインダ114に接眼しているか否かを判定する。この処理は、S301と同様の処理である。したがって、システム制御部214は接眼検知部115からの検知情報あるいはライブビューボタン110の状態に基づいて判定する。
ファインダ114を使用している場合にはS311に進み、ファインダ114を使用していない場合には処理を終了する。
In S310, the
If the
S311では、システム制御部214はタッチパネル229を介して追加のタッチ操作を検出したか否かを判定する。システム制御部214は追加のタッチ操作として追加のタッチダウンを検出した場合にはS312に進み、追加のタッチダウンを検出していない場合にはS310に戻る。
S312では、システム制御部214はタッチオンしているタッチ操作のうち、S307において有効と判定したタッチ操作があるか否かを判定する。有効として判定したタッチオンがある場合にはS310に戻り、有効として判定したタッチオンがない場合にはS304に戻る。
In step S <b> 311, the
In S <b> 312, the
以上のように、本実施形態によれば、ファインダ114が使用されている場合にタッチ操作におけるタッチ面内の角度に応じてタッチ操作を有効とするか無効とするかを判定する。上述したように、ユーザが意図して指でタッチパネル229にタッチする場合とユーザの顔の一部(鼻等)が意図せずに誤ってタッチパネル229にタッチする場合とでタッチ面内の角度が異なる。したがって、タッチ面内の角度に応じてタッチ操作を有効とするか無効とするかを判定することで、入力可能領域を制限せずにユーザの顔の一部がタッチしたときの誤動作を防止することができる。このように、入力可能領域を制限しないことから、ユーザがファインダ114を使用しているときのタッチパネル229に対する操作性を向上させることができる。
また、本実施形態によれば、タッチ面内の角度が所定の範囲であるか否かに基づいてタッチ操作が有効か無効かを判定することから、タッチ操作が有効か無効かを容易に判定することができる。
また、本実施形態によれば、タッチ面内の角度が、指でタッチ操作したときに想定される角度の範囲の場合にタッチ操作を有効とし、他の角度の場合にはタッチ操作を無効とすることで、タッチ操作が有効か無効かを精度よく判定することができる。
As described above, according to the present embodiment, when the
In addition, according to the present embodiment, whether or not the touch operation is valid or invalid is easily determined based on whether or not the touch operation is valid or invalid based on whether or not the angle within the touch surface is within a predetermined range. can do.
In addition, according to the present embodiment, the touch operation is enabled when the angle within the touch surface is within the range of angles assumed when the touch operation is performed with a finger, and the touch operation is disabled when the angle is other than that. By doing so, it is possible to accurately determine whether the touch operation is valid or invalid.
なお、本実施形態では、システム制御部214はファインダ114を使用しているか否かを、接眼検知部115からの検知情報あるいはライブビューボタン110の状態に応じて判定する場合について説明したが、この場合に限られない。システム制御部214はライブビューボタン110に限られず、ファインダ114を使用するための他の操作部の状態に応じてファインダを使用しているか否かを判定してもよい。また、ファインダ114が着脱式である場合には、システム制御部214はファインダ114が装着されているときにファインダ114を使用していると判定してもよい。
In the present embodiment, the case where the
<第2の実施形態>
第2の実施形態では、タッチ操作が有効であるか無効であるかを判定するときのタッチ入力角度の閾値をタッチ操作のタッチ位置に応じて変更する例について説明する。図6は、第2の実施形態に係るデジタルカメラ100の処理を示すフローチャートである。このフローチャートにおける各処理は、システム制御部214が不揮発性メモリ223に格納されたプログラムをシステムメモリ224に展開して実行することにより実現される。
図6のフローチャートのS601〜S605の処理は図3のフローチャートのS301〜S305の処理と同様であり、図6のフローチャートのS610〜S615の処理は図3のフローチャートのS307〜S312の処理と同様であり、重複する説明を省略する。
<Second Embodiment>
In the second embodiment, an example will be described in which the threshold value of the touch input angle when determining whether the touch operation is valid or invalid is changed according to the touch position of the touch operation. FIG. 6 is a flowchart illustrating processing of the
6 are the same as the processes of S301 to S305 of the flowchart of FIG. 3, and the processes of S610 to S615 of the flowchart of FIG. 6 are the same as the processes of S307 to S312 of the flowchart of FIG. Yes, duplicate explanation is omitted.
S605においてシステム制御部214はタッチ入力角度を取得した後にS606に進む。
S606では、システム制御部214はタッチ位置の座標を取得する。具体的には、システム制御部214はタッチ形状を楕円に近似した近似式を用いて中心座標を算出し、算出した中心座標をタッチ位置の座標とする。
中心座標(X0,Y0)は式(6)、式(7)を用いて算出することができる。
In step S605, the
In S606, the
The center coordinates (X 0 , Y 0 ) can be calculated using Expression (6) and Expression (7).
次に、S607〜S609において、システム制御部214はタッチ入力角度がタッチ位置の座標に応じて変更される閾値の範囲内に含まれているか否かを判定する。
まず、S607では、システム制御部214は取得したタッチ位置の座標がエリアA内であって、且つ、S605で算出したタッチ入力角度が第1閾値TH1_A以上第2閾値TH2_A以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS608に進む。
S608では、システム制御部214は取得したタッチ位置の座標がエリアB内であって、且つ、S605で算出したタッチ入力角度が第3閾値TH1_B以上第4閾値TH2_B以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS609に進む。
S609では、システム制御部214は取得したタッチ位置の座標がエリアC内であって、且つ、S605で算出したタッチ入力角度が第5閾値TH1_C以上第6閾値TH2_C以下であるか否かを判定する。この条件を満たす場合にはS610に進み、この条件を満たさない場合にはS612に進む。
Next, in S607 to S609, the
First, in S607, the
In step S608, the
In step S609, the
図7は、タッチ位置とタッチ入力角度との関係を説明するための図である。ここでは、タッチパネル229を上述したエリアA、エリアB、エリアCの複数(3つ)に区分している。エリアAは表示部105のうち左上の矩形状の領域であり、エリアBは表示部105の右上の矩形状の領域であり、エリアCは表示部105の下側の矩形状の領域である。
本実施形態では、デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合にエリアごとにタッチ入力角度が異なってくることに注目し、タッチ操作が有効か無効かを判定するための閾値をエリアごとに変更する。
FIG. 7 is a diagram for explaining the relationship between the touch position and the touch input angle. Here, the
In the present embodiment, when a touch operation is performed on the
図7(a)は、タッチ位置の座標がエリアAである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、タッチ入力角度θfが上述した第1閾値TH1_A以上第2閾値TH2_A以下の範囲に含まれると推測される。
図7(b)は、タッチ位置の座標がエリアBである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、エリアAに比べてタッチ入力角度θfが大きくなり(垂直に近い角度になり)、タッチ入力角度θfが上述した第3閾値TH1_B以上第4閾値TH2_B以下の範囲に含まれると推測される。
図7(c)は、タッチ位置の座標がエリアCである場合を示す図である。この場合、デジタルカメラ100を保持しながら親指でタッチ操作をすると、エリアA、Bに比べてタッチ入力角度θfが小さくなり(水平に近い角度になり)、タッチ入力角度θfが第5閾値TH1_C以上第6閾値TH2_C以下の範囲に含まれると推測される。
ここで、各タッチ入力角度の閾値の関係としては例えば、閾値TH1,2_C<閾値TH1,2_A<閾値TH1,2_Bとすることができる。各エリアの位置情報は予め不揮発性メモリ223に記憶されている。また、各閾値は、ユーザがタッチ操作するときのタッチ入力角度をエリアごとに検証すること等によって定めることができ、エリアごとに関連付けて予め不揮発性メモリ223に記憶されている。
FIG. 7A is a diagram illustrating a case where the coordinates of the touch position are the area A. In this case, when the touch operation is performed with the thumb while holding the
FIG. 7B is a diagram illustrating a case where the coordinates of the touch position are the area B. In this case, when a touch operation is performed with the thumb while holding the
FIG. 7C is a diagram illustrating a case where the coordinates of the touch position are the area C. In this case, when the touch operation is performed with the thumb while holding the
Here, as the relationship between the threshold values of the touch input angles, for example, threshold values TH1, 2_C <threshold values TH1, 2_A <threshold values TH1, 2_B can be established. The position information of each area is stored in the
S610では、システム制御部214は検出されたタッチ操作を有効と判定する。すなわち、システム制御部214はタッチ入力角度がエリアごとに変更した閾値の範囲である場合には指によりタッチ操作されたと判定する。
一方、S612では、システム制御部214は検出されたタッチ操作を無効と判定する。すなわち、システム制御部214はタッチ入力角度がエリアごとに変更した閾値の範囲ではない場合にはユーザの顔の一部によりタッチされたと判定する。
In step S610, the
On the other hand, in S612, the
以上のように、本実施形態によれば、タッチ操作のタッチ位置に応じて、タッチ操作が有効か無効かを判定するための所定の範囲を変更する。上述したように、デジタルカメラ100を保持しながら親指でタッチパネル229をタッチ操作した場合にエリアごとにタッチ入力角度が異なる。したがって、エリアごとにタッチ操作が有効か無効かを判定するための所定の範囲を変更することで、タッチ操作が有効か無効かを精度よく判定することができる。
具体的には、タッチパネル229に対するタッチ位置が下側よりも上側のほうが、指によるタッチ操作のタッチ入力角度は垂直に近い角度になる。したがって、閾値の範囲もタッチ位置が下側よりも上側のほうが垂直に近い角度になるように変更することが好ましい。
また、タッチパネル229に対するタッチ位置がグリップ部116に離れているよりも近いほうが、指によるタッチ操作のタッチ入力角度は垂直に近い角度になる。したがって、閾値の範囲もタッチ位置がグリップ部116に離れているよりも近いほうが垂直に近い角度になるように変更することが好ましい。
なお、第2の実施形態では、タッチパネル229を3つのエリアに区分する場合について説明したが、この場合に限られず、2つや4つ以上のエリアに区分してもよく、区分したエリアごとに閾値の範囲を変更することができる。
As described above, according to the present embodiment, the predetermined range for determining whether the touch operation is valid or invalid is changed according to the touch position of the touch operation. As described above, when the
Specifically, when the touch position on the
Further, when the touch position on the
In the second embodiment, the case where the
なお、システム制御部214が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。例えば、上述した実施形態では、システム制御部214がタッチパネル229を介してタッチ操作を検出する場合について説明したが、この場合に限られず、デジタルカメラ100はタッチパネル制御部を別途で備えてもよい。すなわち、タッチパネル制御部がタッチパネル229を介してタッチ操作を検出し、検出したタッチ操作の情報をシステム制御部214に通知するように構成してもよい。
また、本発明をその好適な実施形態に基づいて詳述したが、本発明は上述した実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
Note that the various controls described as being performed by the
Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to the above-described embodiments, and various forms within the scope of the present invention are also included in the present invention. . Furthermore, the above-described embodiment is merely an embodiment of the present invention, and the embodiments can be appropriately combined.
また、第1、第2の実施形態では、タッチ操作により実行される処理がAF枠を選択する場合について説明したが、この場合に限られず、デジタルカメラ100に関するあらゆる操作に適用することができる。例えば、デジタルカメラのシャッター速度、絞り値、ISO感度、露出補正値等の撮影に関する設定を変更する操作や、被写体を選択する選択枠を異なる被写体に移動させる操作に適用してもよい。
In the first and second embodiments, the case where the process executed by the touch operation selects the AF frame has been described. However, the present invention is not limited to this case, and can be applied to all operations related to the
また、第1、第2の実施形態では、本発明をデジタルカメラに適用する場合を例にして説明したが、この場合に限られず、ファインダ、タッチパネルを備える撮像装置であれば適用可能である。すなわち、本発明はデジタルビデオカメラ、タブレット端末、スマートフォン等に適用可能である。 In the first and second embodiments, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this case, and can be applied to any imaging apparatus including a finder and a touch panel. That is, the present invention can be applied to a digital video camera, a tablet terminal, a smartphone, and the like.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:デジタルカメラ(撮像装置) 105:表示部 110:ライブビューボタン 114:ファインダ 115:接眼検知部 214:システム制御部 220:ファインダ内表示部 229:タッチパネル DESCRIPTION OF SYMBOLS 100: Digital camera (imaging apparatus) 105: Display part 110: Live view button 114: Finder 115: Eyepiece detection part 214: System control part 220: Display part in finder 229: Touch panel
Claims (15)
タッチ操作を検出するタッチ検出手段と、
前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御手段と、を有することを特徴とする撮像装置。 Finder,
Touch detection means for detecting a touch operation;
When the finder is used, whether the touch operation is enabled or disabled is changed according to the angle within the touch surface in the touch operation detected by the touch detection unit, and the effective touch An image pickup apparatus comprising: a control unit configured to perform predetermined processing in accordance with an operation and to perform control so as not to perform the predetermined processing in response to an invalid touch operation.
前記タッチ面内の角度が所定の範囲である場合には前記タッチ操作を有効とし、
前記タッチ面内の角度が前記所定の範囲ではない場合には前記タッチ操作を無効とするように制御することを特徴とする請求項1に記載の撮像装置。 The control means includes
When the angle within the touch surface is within a predetermined range, the touch operation is enabled,
The imaging apparatus according to claim 1, wherein the touch operation is controlled to be invalidated when an angle in the touch surface is not within the predetermined range.
前記所定の範囲は、ユーザが該撮像装置を前記保持部で保持しながら指でタッチ操作するときの角度の範囲であることを特徴とする請求項2に記載の撮像装置。 A holding unit for holding the imaging device;
The imaging apparatus according to claim 2, wherein the predetermined range is an angle range when a user performs a touch operation with a finger while holding the imaging apparatus with the holding unit.
前記タッチ操作のタッチ位置に応じて前記所定の範囲を変更するように制御することを特徴とする請求項2または3に記載の撮像装置。 The control means includes
The imaging apparatus according to claim 2, wherein control is performed so as to change the predetermined range in accordance with a touch position of the touch operation.
前記タッチ面内のエリアごとに前記所定の範囲を変更するように制御することを特徴とする請求項4に記載の撮像装置。 The control means includes
The imaging apparatus according to claim 4, wherein control is performed so as to change the predetermined range for each area in the touch surface.
前記タッチ位置が下側よりも上側のほうが、前記タッチ面内の角度が垂直に近い角度で前記タッチ操作を有効と判定するように前記所定の範囲を変更するように制御することを特徴とする請求項4または5に記載の撮像装置。 The control means includes
Control is performed so that the predetermined range is changed so that the touch operation is determined to be valid when the touch position is above the lower side and the angle within the touch surface is close to vertical. The imaging device according to claim 4 or 5.
前記制御手段は、
前記タッチ位置が前記保持部に離れているよりも近いほうが、前記タッチ面内の角度が垂直に近い角度で前記タッチ操作を有効と判定するように前記所定の範囲を変更するように制御することを特徴とする請求項4ないし6の何れか1項に記載の撮像装置。 A holding unit for holding the imaging device;
The control means includes
Control is performed so that the predetermined range is changed so that the touch operation is determined to be effective when the touch position is closer to the holding unit than the holding unit and the angle in the touch surface is close to vertical. The imaging apparatus according to claim 4, wherein
前記タッチ検出手段により検出されたタッチ操作のタッチ形状が真円に近い場合には前記タッチ操作を無効として判定するように制御することを特徴とする請求項1ないし7の何れか1項に記載の撮像装置。 The control means includes
8. The control according to claim 1, wherein when the touch shape of the touch operation detected by the touch detection unit is close to a perfect circle, the touch operation is determined to be invalid. 9. Imaging device.
前記タッチ検出手段により検出されたタッチ操作のタッチ形状を楕円に近似して、長軸と短軸との比に基づいて真円に近いか否かを判定することを特徴とする請求項8に記載の撮像装置。 The control means includes
9. The touch shape of the touch operation detected by the touch detection unit is approximated to an ellipse, and it is determined whether or not the shape is close to a perfect circle based on a ratio between a major axis and a minor axis. The imaging device described.
前記ファインダを使用するときに操作される操作部の状態に応じて前記ファインダを使用しているか否かを判定し、
前記ファインダを使用していると判定した場合に前記タッチ操作を有効とするか無効とするかを判定するように制御することを特徴とする請求項1ないし9の何れか1項に記載の撮像装置。 The control means includes
Determine whether or not the finder is used according to the state of the operation unit operated when using the finder,
The imaging according to any one of claims 1 to 9, wherein when it is determined that the finder is used, control is performed to determine whether the touch operation is enabled or disabled. apparatus.
前記制御手段は、
前記検知手段により検知される検知情報に基づいて前記ファインダを使用しているか否かを判定し、
前記ファインダを使用していると判定した場合に前記タッチ操作を有効とするか無効とするかを判定するように制御することを特徴とする請求項1ないし9の何れか1項に記載の撮像装置。 Having detection means for detecting proximity of an object to the finder,
The control means includes
Determine whether or not the finder is used based on detection information detected by the detection means,
The imaging according to any one of claims 1 to 9, wherein when it is determined that the finder is used, control is performed to determine whether the touch operation is enabled or disabled. apparatus.
タッチ操作を検出するタッチ検出手段と、を備える撮像装置の制御方法であって、
前記ファインダを使用している場合に、前記タッチ検出手段により検出されたタッチ操作におけるタッチ面内の角度に応じて、前記タッチ操作を有効とするか無効とするかを異ならしめ、有効な前記タッチ操作に応じて所定の処理を行い、無効な前記タッチ操作に応じては前記所定の処理を行わないように制御する制御ステップを有することを特徴とする撮像装置の制御方法。 Finder,
A touch detection means for detecting a touch operation, and a control method for an imaging apparatus comprising:
When the finder is used, whether the touch operation is enabled or disabled is changed according to the angle within the touch surface in the touch operation detected by the touch detection unit, and the effective touch A control method for an imaging apparatus, comprising: a control step of performing a predetermined process in accordance with an operation and not performing the predetermined process in response to an invalid touch operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016156839A JP6701027B2 (en) | 2016-08-09 | 2016-08-09 | Imaging device, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016156839A JP6701027B2 (en) | 2016-08-09 | 2016-08-09 | Imaging device, control method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018026683A true JP2018026683A (en) | 2018-02-15 |
JP6701027B2 JP6701027B2 (en) | 2020-05-27 |
Family
ID=61194134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016156839A Expired - Fee Related JP6701027B2 (en) | 2016-08-09 | 2016-08-09 | Imaging device, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6701027B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019153021A (en) * | 2018-03-02 | 2019-09-12 | 富士ゼロックス株式会社 | Information processing device and program |
JP2020004279A (en) * | 2018-06-29 | 2020-01-09 | キヤノン株式会社 | Electronic device, control method, program and storage medium of electronic device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009139214A1 (en) * | 2008-05-12 | 2009-11-19 | シャープ株式会社 | Display device and control method |
JP2014003422A (en) * | 2012-06-18 | 2014-01-09 | Sony Corp | Display control device, imaging device, and display control method |
JP2014016803A (en) * | 2012-07-09 | 2014-01-30 | Konica Minolta Inc | Operation display device and program |
JP2014203183A (en) * | 2013-04-03 | 2014-10-27 | カシオ計算機株式会社 | Information processing device and program |
-
2016
- 2016-08-09 JP JP2016156839A patent/JP6701027B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009139214A1 (en) * | 2008-05-12 | 2009-11-19 | シャープ株式会社 | Display device and control method |
JP2014003422A (en) * | 2012-06-18 | 2014-01-09 | Sony Corp | Display control device, imaging device, and display control method |
JP2014016803A (en) * | 2012-07-09 | 2014-01-30 | Konica Minolta Inc | Operation display device and program |
JP2014203183A (en) * | 2013-04-03 | 2014-10-27 | カシオ計算機株式会社 | Information processing device and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019153021A (en) * | 2018-03-02 | 2019-09-12 | 富士ゼロックス株式会社 | Information processing device and program |
JP7130988B2 (en) | 2018-03-02 | 2022-09-06 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
JP2020004279A (en) * | 2018-06-29 | 2020-01-09 | キヤノン株式会社 | Electronic device, control method, program and storage medium of electronic device |
JP7129244B2 (en) | 2018-06-29 | 2022-09-01 | キヤノン株式会社 | ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, PROGRAM, STORAGE MEDIUM |
Also Published As
Publication number | Publication date |
---|---|
JP6701027B2 (en) | 2020-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6748582B2 (en) | Imaging device, control method thereof, program, and recording medium | |
US10911663B2 (en) | Electronic apparatus and method for controlling the same | |
JP6701145B2 (en) | Electronic device and control method thereof | |
US11381736B2 (en) | Image capture apparatus and control method | |
JP2018129765A (en) | Imaging apparatus and control method | |
JP2014078826A (en) | Imaging apparatus, control method therefor, control program, and recording medium | |
US11184528B2 (en) | Electronic apparatus, control method therefor, and non-transitory computer readable medium | |
JP6071616B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP2017011579A (en) | Imaging device, control method for the same, program and storage medium | |
US11435648B2 (en) | Image capture apparatus and control method | |
JP7446913B2 (en) | Electronic devices, control methods for electronic devices, and programs | |
JP6701027B2 (en) | Imaging device, control method thereof, and program | |
JP2021069008A (en) | Electronic equipment, control method for electronic equipment, program and storage medium | |
JP7034619B2 (en) | Image pickup device, its control method, and program, and storage medium | |
US20200387294A1 (en) | Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium | |
US10924680B2 (en) | Image capture control apparatus and method of controlling the same | |
JP2018148389A (en) | Electronic device and control method thereof | |
JP2018085570A (en) | Imaging apparatus, imaging method, and program | |
JP6708516B2 (en) | Electronic device, control method thereof, and program | |
JP2020178232A (en) | Electronic apparatus | |
JP2019169823A (en) | Imaging apparatus | |
US11438512B2 (en) | Electronic apparatus and control method thereof | |
JP6971709B2 (en) | Imaging device and its control method | |
JP7134730B2 (en) | Imaging device and its control method | |
JP7071197B2 (en) | Imaging device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200501 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6701027 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |