以下、図面を参照して本発明の好適な実施形態を説明する。
<第1の実施形態>
第1の実施形態では、デジタルカメラに搭載されたタッチパッドの操作座標系を定義する例について説明する。図1(A),1(B)は、本発明を適用可能な装置の一例としてのデジタルカメラ100の外観を示す。図1(A)はデジタルカメラ100の前面斜視図であり、図1(B)はデジタルカメラ100の背面斜視図である。
表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。端子カバー40は、デジタルカメラ100を外部機器に接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。クイックリターンミラー12は、システム制御部50(後述)から指示されて、不図示のアクチュエータによりアップダウンされる。通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。ファインダー16は、フォーカシングスクリーン13(後述)を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダーである。接眼センサー80は、物体が1センチや2センチ等の所定距離より近い距離(所定距離以内)に接近していることを検知するための物体検知手段(接眼検知手段)である。例えばユーザー(撮影者)がファインダー内表示部41(後述)を見ようとしてファインダー16に目を近付け、接眼センサー80が物体(目)の接近を検知すると、ファインダー16を通して見える被写体にファインダー内表示部41の表示が重畳して見える。また、接眼センサー80が所定距離以上物体(目)が離れたことを検知すると、ファインダー内表示部41においてア
イテム等が非表示になる。また、ユーザーがファインダー16を覗きこむと、表示部28は非表示になる。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。
また、デジタルカメラ100は、モード切替スイッチ60、タッチパッド操作部61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、4方向キー74、SETボタン75、及び、LVボタン76を有する。デジタルカメラ100は、拡大ボタン77、縮小ボタン78、及び、再生ボタン79も有する。デジタルカメラ100は、他の操作部材を有していてもよい。各種操作部材については後述する。
図2は、デジタルカメラ100の構成例を示すブロック図である。
レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103の位置を変位させることで焦点を合わせる。
AE(自動露出)センサー17は、レンズユニット150を通した被写体(被写体光)の輝度を測光する。
焦点検出部11は、システム制御部50にデフォーカス量情報を出力する。システム制御部50は、デフォーカス量情報に基づいてレンズユニット150を制御し、位相差AF(オートフォーカス)を行う。AFは、位相差AFでなく、コントラストAFでも、撮像面位相差AFでもよい。
クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影などの際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ103から入射した光束をファインダー16側と撮像部22側とに切り替えるためのミラーである。ミラー12は、通常時は、ファインダー16へと光束を導く(反射させる)ように配されるが(ミラーダウン)、撮影やライブビュー表示が行われる場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。また、ミラー12は、その中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、サブミラー21により反射して、焦点検出を行うための焦点検出部11に入射するように透過させる。
ユーザーは、ペンタプリズム14とファインダー16を介して、フォーカシングスクリーン13を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認が可能となる。
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信
号に変換する。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行われる。
A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28により表示される。表示部28は、LCD等の表示器上で、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてD/A変換し、表示部28に逐次転送して表示することで、電子ビューファインダーの機能が実現でき、スルー画像表示(ライブビュー表示)が行える。以下、ライブビュー表示で表示される画像を「LV画像」と称する。
ファインダー内表示部41には、ファインダー内表示部駆動回路42を介して、現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコンなどが表示される。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
電源制御部81は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、及び、電池残量の検出等を行う。また、電源制御部81は、その検出結果及びシステム制御部50の指示に
基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続された外部機器に対して、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像(撮像画像)の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
操作部70は、システム制御部50に各種の動作指示を入力するための操作手段である。操作部70は、ユーザーからの操作(ユーザー操作)を受け付ける入力部としての各種操作部材を含む。例えば、操作部70は、押しボタン、回転ダイヤル、タッチセンサなどを含む。具体的には、操作部70は、モード切替スイッチ60、タッチパッド操作部61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、及び、4方向キー74を含む。また、操作部70は、SETボタン75、LVボタン76、拡大ボタン77、縮小ボタン78、及び、再生ボタン79を含む。操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン、等がある。例えば、メニューボタンが押下されると、各種の設定が可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75とを用いて直感的に各種設定を行うことができる。
モード切替スイッチ60は、各種モードを切り替えるための操作部材である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、及び、プログラムAEモードがある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60により、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
タッチパッド操作部61は、撮影指示や撮影パラメータの変更を行うための操作部材である。タッチパッド操作部61は、タッチ操作状態をシステム制御部50に出力する。タッチパッド操作部61の詳細な構成については、図3を用いて後述する。タッチパッド操作部61は、押し込み操作や平面操作が可能であり、押し込み操作により、第1シャッタースイッチ信号SW1や第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第1シャッタースイッチ信号SW1(撮影準備指示)により、AF処理、AE処理、AWB処理、EF処理、等の動作を開始する。システム制御部50は、第2シャッタースイッチ信号SW2(撮影指示)により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。平面操作に関しては、AF処理、AE処理、AWB処理などの設定変更、モードの変更、等が可能である。
メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のON/OFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠の移動や画像送りなどが行える。4方向キー74は、上、下、左、右の各部を押し込み可能に構成される。4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。
LVボタン76は、静止画撮影モードにおいてライブビュー(以下、LV)のON/OFFを切り替えるボタンである。動画撮影モードにおいては、LVボタン76は、動画撮影(記録)の開始、停止の指示に用いられる。拡大ボタン77は、撮影モードのライブビュー表示において拡大モードのON/OFFの切り替え及び拡大モード中の拡大率の変更を行うための操作ボタンである。再生モードにおいては、拡大ボタン77は、再生画像を拡大したり、その拡大率を増加させたりするための拡大ボタンとして機能する。縮小ボタン78は、拡大された再生画像の拡大率を低減させ、表示された画像を縮小させるためのボタンである。再生ボタン79は、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。
図3(A)~3(D)は、タッチパッド操作部61の構成例を示す。図3(A)は、タッチパッド操作部61の表面側から見た斜視図であり、図3(B)は、タッチパッド操作部61の裏面側から見た斜視図である。図3(C)は、タッチパッド操作部61の表面側から見た分解斜視図であり、図3(D)は、タッチパッド操作部61の裏面側から見た分解斜視図である。
タッチパッド操作部61は、デジタルカメラ100の外装筐体の一部がタッチ操作可能な状態で構成されている操作部材であり、タッチ操作可能部61aを備える。タッチ操作可能部61aの内側には、タッチ操作可能部61aと略同一面積のタッチ操作検出部61bが接着剤等のタッチ検出部固定部材61cによって固定されている。上記のようにタッチパッド操作部61が外装筐体によって構成されるため、外装筐体にボタン保持用の穴部等は不要であり、防塵防滴性能の向上や、外観意匠の自由度が高い構成にすることが可能である。また、ユーザーがデジタルカメラ100を把持した際に、自然に人差し指が置かれる位置にタッチ操作可能部61aを設定することで、撮影の設定変更を行う際にも、常に安定した把持状態を維持することが可能になる。タッチ操作検出部61bは、ポリイミドのベース部に対して、銅箔によりパターン形成されたいわゆるフレキシブルプリント基板(=FPC)によって構成されている。タッチ操作可能部61aの全域を覆うタッチ操作検出部61bの外形内の上下左右4箇所に、銅パターン61b-1,61b-2,61b-3,61b-4が形成されている。銅パターン61b-1が上側検出部に、銅パター
ン61b-3が下側検出部に、銅パターン61b-2が右側検出部に、銅パターン61b-4が左側検出部に対応している。銅パターン61b-1,61b-2,61b-3,61b-4は、システム制御部50に接続されており、上下左右それぞれの検出部の静電容量やその変化を検出する。各検出部の静電容量のバランスによりユーザーの指などによるタッチパッド操作部61への接触の位置及び面積が検出される。タッチパッド操作部61として、前述した静電容量方式のタッチパッド以外に、抵抗膜方式や表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパッドのうちいずれの方式のものを用いてもよい。方式によって、タッチパッドに対する接触があったことでタッチがあったと検出する方式や、タッチパッドに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。タッチパッド操作部61としてタッチパネルを用いてもよい。
図4は、タッチパッド操作部61を押し込む操作力と時間の関係の一例を示すグラフである。図4の横軸は時間Tを、図4の縦軸はタッチパッド操作部61の静電容量Sを示す。操作力が大きいほど静電容量Sは大きくなる。静電容量Sに対して第1閾値a1と第2閾値b1が設定されており、第1閾値a1と第2閾値b1により静電容量Sの範囲が3つの範囲S0,S1,S2に分割されている。従って、ユーザーは、操作力を変えることで、静電容量Sが属す範囲を範囲S0、範囲S1、及び、範囲S2の間で任意に遷移させることが可能である。タッチパッド操作部61は、静電容量Sが第1閾値a1を越えるタイミングT1で第1シャッタースイッチ信号SW1を発生し、静電容量Sが第2閾値b1を越えるタイミングT2で第2シャッタースイッチ信号SW2を発生する。
また、タッチパッド操作部61が前述したように各検出部の静電容量のバランスを検出しているため、タッチ操作可能部61a上での平面操作におけるタッチ位置やその移動量なども検出可能となっている。これにより、例えば、静電容量Sが範囲S0に属す状態では、平面操作に応じて測距点を選択することが可能である。静電容量Sが範囲S1に属す状態では、選択された測距点位置での被写体測距モード(AFモード)及び測光モード(AEモード)の選択を行うことが可能である。静電容量Sが範囲S2に属す状態では、平面操作に応じて単写や連写などの撮影モードの変更を行うことが可能である。このようにして、ユーザーは、図4のグラフに示すようにタッチ操作可能部61aを押し込む操作力を変えることで状態を遷移させることができ、平面操作により各状態でのパラメータを設定しながら、デジタルカメラ100にて撮影を行うことができる。
タッチパッド操作部61の操作設定には絶対座標設定や相対座標設定がある。絶対座標設定は、タッチ操作可能部61a上での入力座標とファインダー内表示部41または表示部28上での表示座標とを対応付けて指示を受け付ける設定である。相対座標設定は、タッチ操作可能部61a上でのタッチ位置の移動量や移動方向などに応じた指示を受け付ける設定である。メニュー画面のタッチパッド設定において絶対座標設定と相対座標設定のいずれかを選択することができる。
システム制御部50は、タッチパッド操作部61への以下の操作、あるいは状態を検出できる(タッチ検出可能)。
・タッチパッド操作部61にタッチしていなかった指やペンが新たにタッチパッド操作部61にタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)
・指やペンがタッチパッド操作部61をタッチしている状態であること(以下、タッチオン(Touch-On)と称する)
・指やペンがタッチパッド操作部61をタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパッド操作部61へタッチしていた指やペンがタッチパッド操作部61から離
れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパッド操作部61に何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置がスライド(移動)していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。
これらの操作・状態や、タッチパッド操作部61上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパッド操作部61上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパッド操作部61上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパッド操作部61上の垂直成分(縦方向成分)・水平成分(横方向成分)毎に判定できる。タッチオンが検出されてからタッチムーブせずに、素早くタッチアップする一連の操作をタップという。またタッチパッド操作部61上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパッド操作部61上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパッド操作部61上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。
図5(A)は、ユーザーが、デジタルカメラ100を右手300でグリップした状態で、右手300の指301でタッチパッド操作部61を操作している様子を示す。図5(A)には、ユーザーがファインダー16を覗いた際に見えるファインダー内表示部41の表示(ファインダー内表示310)の一例も示されている。ファインダー内表示310では、x軸方向とy軸方向とに並べて(格子状に)配置された複数の選択可能なAF枠305(選択されるAF枠の候補、候補アイテム)が表示されている。複数のAF枠305はx軸方向(横方向)で3つのグループに分かれて配置されており、それぞれのグループでは、x軸方向に4つ、y軸方向(縦方向)に7つのAF枠が並んで配置されている。
タッチパッド操作部61上でタッチムーブ(図4の静電容量Sが範囲S0に属すタッチムーブ)を行うことにより、選択したAF枠の移動(切り替え)が行われる。ここで、AF枠は、合焦する被写体の位置を示すものであり、フォーカシングスクリーン13上で結像される被写体像と重畳してファインダー内表示部41に表示される。ユーザーは、AF枠の選択、または、選択したAF枠の移動を行い、複数のAF枠305の中から合焦したい被写体の位置にあるAF枠を選択することで、所望の被写体への合焦をすることができる。なお、選択したAF枠は、AF枠401のように太線で表示をするようにしてもよいし、発光させたり赤や黄色で発色させることで選択されたことを示すようにしてもよい。
図6は、デジタルカメラ100で行われるAF枠選択処理(タッチムーブによりAF枠を選択する処理)のフローチャートである。AF枠選択処理は、タッチパッド操作部61の操作座標系を定義する処理を含む。このフローチャートにおける各処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現される。AF枠選択処理は、デジタルカメラ100の電源が入る
と開始する。
ステップS401では、システム制御部50は、タッチダウンがあったか否かを判定する。システム制御部50は、タッチパッド操作部61から出力される信号に基づいて、タッチダウンを検出する。タッチダウンがあったと判定した場合(タッチダウンを検出した場合)はステップS402に進み、そうでない場合はステップS430に進む。
ステップS402では、システム制御部50は、設定された操作座標系[X座標軸,X座標軸に直交するY座標軸]に基づいて、ステップS401のタッチダウンが行われた位置(タッチ位置)の情報を取得する。例えば、初期状態では、図5(B)に示すように、タッチパッド操作部61の操作座標系として所定の基準座標系[X座標軸X0,Y座標軸Y0]が設定されている。このため、1回目のステップS402では、基準座標系に基づく座標が取得される。図5(B)の例では、基準座標系が設定されており、位置N11に対してステップS401のタッチダウンが行われている。このため、位置N11の座標として基準座標系に基づく座標が取得される。なお、操作座標系において、X座標軸(X軸)とY座標軸(Y軸)が交差していれば、それらは直交していなくてもよい。
ステップS403では、システム制御部50は、タッチムーブがあったか否かを判定する。システム制御部50は、タッチパッド操作部61から出力される信号に基づいて、タッチパッド操作部61へのタッチ位置の移動を検出することで、タッチムーブを検出する。タッチムーブがあったと判定した場合(タッチムーブを検出した場合)はステップS404に進み、そうでない場合はステップS430に進む。
ステップS404では、システム制御部50は、設定された操作座標系に基づいて、ステップS403のタッチムーブにおけるタッチ位置の移動距離と移動ベクトル(移動方向)を算出する。図5(B)の例では、基準座標系が設定されており、位置N11から位置P11へタッチ位置を移動させるステップS403のタッチムーブが行われている。このため、タッチムーブの移動ベクトルU11=(a11,b11)と、タッチムーブの移動距離(a11
2+b11
2)1/2とが算出される。なお、デジタルカメラ100のオートパワーオフ状態において、システム制御部50は、移動距離が所定の閾値以上であるタッチムーブに応じて、オートパワーオフ状態を解除してもよい。オートパワーオフ状態は、電源スイッチ72がONの位置にある状態であり、デジタルカメラ100に対する操作が所定時間行われないことでデジタルカメラ100の電源が自動的に切られた状態である。また、タッチムーブにおけるタッチ位置の移動は、直線を描く移動であってもよいし、弧などを描く移動であってもよい。弧などを描く移動である場合には、タッチ位置の移動経路の近似曲線から移動ベクトルを算出することも可能である。
ステップS405では、システム制御部50は、接眼センサー80が物体(ユーザーの顔)の接近を検知した状態(接眼状態)であるか否かを判定する。システム制御部50は、接眼センサー80から出力される接眼状態を示す情報に基づいて接眼状態か否かを判定する。接眼状態であると判定した場合はステップS406に進む。ステップS406では、システム制御部50はファインダー内表示部41にAF枠を表示する。一方、接眼状態でないとは判定した場合は、ステップS440に進む。ステップS440では、システム制御部50は、表示部28にライブビュー画像を表示する。なお、接眼センサー80の検知結果に基づいて接眼状態か否かを判定する例を説明したが、他の方法で接眼状態か否かを判定してもよい。例えば、システム制御部50は、ファインダー内表示部41に光学像が表示されている状態であれば接眼状態であると判定したり、表示部28にライブビュー映像が表示されている状態であれば接眼状態でないと判定したりしてもよい。すなわち、ステップS405の判定は、ファインダーへの物体の接近が検知された状態か否かの判定ではなく、ファインダーを介して被写体像を視認可能な状態か否かの判定であってもよい
。
ステップS410では、システム制御部50は、ステップS404で算出した移動ベクトルとX軸とのなす角度が所定の角度範囲内であるか否かを判定する。所定の角度範囲は特に限定されないが、本実施形態では、所定の角度範囲は±θの角度範囲と180°±θの角度範囲である(θの具体的な値については後述する)。移動ベクトルとX軸とのなす角度が所定の角度範囲内であると判定した場合はステップS411に進み、そうでない場合(移動ベクトルとX軸とのなす角度が所定の角度範囲外であると判定した場合)はステップS412に進む。
ステップS411では、システム制御部50は、ステップS404で算出した移動ベクトルの方向と平行な座標軸にX軸を更新し、移動ベクトルの方向に交差する(直交する)座標軸にY軸を更新する(X軸とY軸の定義)。図5(B)において、移動ベクトルU11とX軸X0とのなす角度は±θの角度範囲に含まれる。このため、図5(C)に示すように、タッチパッド操作部61の操作座標系のX軸として、移動ベクトルU11の方向と平行なX軸X11が新たに定義され、操作座標系のY軸として、X軸X11に直交するY軸Y11が新たに定義される。
ステップS412では、システム制御部50は、ステップS404で算出した移動ベクトルの方向と平行な座標軸にY軸を更新し、移動ベクトルの方向に交差する(直交する)座標軸にX軸を更新する(X軸とY軸の定義)。図7(A)の例では、基準座標系が設定されており、位置N12から位置P12へタッチ位置を移動させるタッチムーブが行われており、当該タッチムーブの移動ベクトルU12=(a12,b12)が算出されている。そして、移動ベクトルU12とX軸X0とのなす角度は±θの角度範囲にも180°±θの角度範囲にも含まれない。このため、図7(B)に示すように、タッチパッド操作部61の操作座標系のY軸として、移動ベクトルU12の方向と平行なY軸Y12が新たに定義され、操作座標系のX軸として、Y軸Y12に直交するX軸X12が新たに定義される。
デジタルカメラ100の持ち方はグリップ部90によってガイドされるため、操作座標系のX軸を定義するためのタッチムーブでの移動方向はおよそデジタルカメラ100のx軸と略一致する。このため、ステップS410~S412のようにタッチムーブ操作の移動ベクトルに基づいてタッチパッド操作部61の操作座標系を定義する処理は、デジタルカメラ100の把持方法がある程度決まっている場合に好ましい。本実施形態では、グリップ部90を持つ右手300の指301は、デジタルカメラ100のx軸の方向に動かしやすい傾向にある。このため、図5(B)に示すように、45°よりも大きい角度をθとして用い、X軸を定義する角度範囲を、Y軸を定義する角度範囲よりも広くしている。以後、ステップS411またはステップS412で新たに定義された操作座標系のX軸を「X軸Xn」と記載し、Y軸を「Y軸Yn」と記載する。
なお、操作座標系の座標軸の正負の向きは特に限定されない。図5(C)に示すように、タッチムーブの移動ベクトルと同じ向きを正としてもよいし、図7(B)に示すようにタッチムーブの移動ベクトルとは反対の向きを正としてもよい。また、移動ベクトルの方向と平行な座標軸に更新する座標軸をメニュー等で予め設定していれば、ステップS410における判定を行わずに、ステップS411またはステップS412の処理を行うようにしてもよい。
ステップS413では、システム制御部50は、システムタイマー53による時間計測を開始する。これにより、ステップS411またはステップS412で操作座標系[X軸Xn,Y軸Yn]が新たに定義されたタイミングからの時間が計測される。
ステップS414では、システムタイマー53による計測時間が所定時間に達したか否かを判定する。計測時間が所定時間以上であると判定した場合はステップS430に進み、そうでない場合はステップS415に進む。
ステップS415では、システム制御部50は、タッチダウンがあったか否かを判定する。タッチダウンがあったと判定した場合はステップS416に進み、そうでない場合はステップS414に戻る。
ステップS416では、システム制御部50は、ステップS411またはステップS412で定義(設定)された操作座標系[X軸Xn,Y軸Yn]に基づいて、ステップS415のタッチダウンが行われた位置(タッチ位置)の情報を取得する。図5(D)の例では、位置P11に対してステップS415のタッチダウンが行われているため、位置P11の座標として操作座標系[X軸Xn,Y軸Yn]に基づく座標が取得される。なお、図5(D)の位置P11は図5(B)の位置P11と同じであるが、図5(D)の操作座標系[X軸X11,Y軸Y11]は図5(B)の[X軸X0,Y軸Y0]と異なる。このため、図5(D)と図5(B)とで位置P11の座標(X座標軸の値,Y座標軸の値)は異なる。
ステップS417では、システム制御部50は、タッチムーブがあったか否かを判定する。タッチムーブがあったと判定した場合はステップS418に進み、そうでない場合はステップS420に進む。
ステップS418では、システム制御部50は、ステップS411またはステップS412で定義(設定)された操作座標系[X軸Xn,Y軸Yn]に基づいて、ステップS417のタッチムーブにおけるタッチ位置の移動距離と移動ベクトルを算出する。図5(D)の例では、位置P11から位置Q11へタッチ位置を移動させるステップS417のタッチムーブが行われているため、当該タッチムーブの移動ベクトルV11と移動距離が算出される。
ステップS419では、システム制御部50は、ステップS418で算出した移動距離と移動ベクトルに応じてAF枠を選択する。図5(D)の例では、移動ベクトルV11はY軸Y11と平行であるため、タッチムーブは、ファインダー内表示310のy軸に平行な方向を指示する操作となる。この結果、選択したAF枠がAF枠401の位置からAF枠402の位置へ移動するように、AF枠401の選択状態が解除され、AF枠402が選択される(選択したAF枠の切り替え)。
ステップS420では、システム制御部50は、タッチアップがあったか否かを判定する。タッチアップが合ったと判定した場合はステップS421に進み、そうでない場合はステップS417に戻る。
ステップS421では、システムタイマー53による計測時間をリセットする。
ステップS430では、システム制御部50は、AF枠選択処理を終了する操作が行われたか否かを判定する。AF枠選択処理は、デジタルカメラ100の電源をOFFする操作、メニュー画面を表示する操作、再生モードへ遷移する操作、等によって終了する。AF枠選択処理を終了する操作が行われたと判定された場合はAF枠選択処理を終了し、そうでない場合はステップS401に戻る。
以上の処理により、図5(B)~5(D)に示す動作、図7(A),7(B)に示す動
作などを実現できる。すなわち、デジタルカメラ100が起動した後、または、無操作で所定時間が経過した後に最初に行われるタッチムーブ(ステップS403)での移動方向に基づいて、タッチパッド操作部61の操作座標系が定義される。そして、その後のタッチ操作は、定義された操作座標系に従って解釈される。例えば、定義された操作座標系に従ってタッチムーブの移動方向や移動距離が決定される。ここでの「無操作」は、デジタルカメラ100に対するいかなる操作も行われないことを意味してもよいし、タッチパッド操作部61に対するタッチ操作が行われないことを意味してもよい。
なお、システムタイマー53による計測時間が所定時間以上となったことに応じてステップS430に進む例を説明したが、これに限られない。例えば、デジタルカメラ100の姿勢が変わった場合には、ユーザーがデジタルカメラ100をグリップするグリップ状態が変わっている可能性が高いため、操作座標系を再定義することが好ましい。このため、姿勢検知部55によりデジタルカメラ100の姿勢変化が検知されたことに応じてステップS430に進んでもよい。また、ユーザーがファインダー16を覗く撮影と、ライブビュー表示での撮影とで、グリップ状態が異なる可能性が高い。このため、ファインダーへの物体の接近が検知された状態からそうでない状態への変化、ファインダーを介して被写体像を視認可能な状態からそうでない状態への変化、等に応じてステップS430に進んでもよい。このようにグリップ状態が変化したと推測できる場合に操作座標系を再定義することが好ましい。
また、ステップS430からステップS401に戻る際に、基準座標系[X0,Y0]を設定してもよいし、設定された操作座標系(例えば操作座標系[Xn,Yn])を維持してもよい。すなわち、N+1回目(Nは1以上の整数)のステップS404では、図5(B)に示すように、常に基準座標系[X0,Y0]を参照してもよい。図8(A)に示すように、直前に定義された操作座標系[Xn,Yn]を参照してもよい。換言すれば、N回目のステップS402で行われたタッチムーブよりも後にステップS417で行われるタッチムーブでの移動方向を決定するための操作座標系に基づいて、N+1回目のステップS402で行われたタッチムーブでの移動方向を決定してもよい。図8(A)の例では、位置N21から位置P21へタッチ位置を移動させるステップS403のタッチムーブが行われている。このため、ステップS404では、タッチムーブの移動ベクトルU21=(c21,d21)と、タッチムーブの移動距離(c21
2+d21
2)1/2とが算出される。そして、移動ベクトルU21とX軸Xnとのなす角度は180°±θの角度範囲に含まれる。このため、ステップS411では、図8(B)に示すように、タッチパッド操作部61の操作座標系のX軸として、移動ベクトルU21の方向と平行なX軸X(n+1)が新たに定義される。そして、操作座標系のY軸として、X軸X(n+1)に直交するY軸Y(n+1)が新たに定義される。
また、AF枠を選択するためのタッチムーブが行われる例を説明したが、AE位置(自動露出の位置)やカーソルを移動するためのタッチムーブなどの他のタッチムーブが行われてもよい。上述した操作座標系の定義(更新)により、様々なタッチムーブが好適に行えるようになる。
また、ステップS410~ステップS412の処理を行わずに、ステップS418において、ステップS403で算出した移動ベクトルに基づいて(ステップS403で算出した移動ベクトルを考慮して)、現在の移動ベクトルを決定してもよい。
以上述べたように、本実施形態によれば、タッチ位置を移動させるタッチ操作に関する電子機器の利便性(操作性など)を向上できる。具体的には、任意のタッチムーブでの移動方向に基づいてタッチパッド操作部61の任意の操作座標系が決定される。これにより、ユーザーは、いかなる撮影シーン(デジタルカメラ100の姿勢やグリップ状態など)
においても、現在の撮影シーンに対して好適な操作座標系を設定することができ、操作性良くデジタルカメラ100を使用できる。
<第1の実施形態の変形例>
ファインダー16に電子ビューファインダー(EVF(EyeViewFinder))を用いてもよい。すなわち、撮像部22で撮像を行い、システム制御部50で画像処理したライブビュー画像をEVFに出力/表示してもよい。そして、AF枠を移動するタッチムーブが行われた場合に、他のタッチムーブに基づいて定義された操作座標系を用いてAF枠を移動(選択)してもよい。後述するように、AF枠の移動でなく、拡大エリア枠、WB補正点、カーソル(文字入力カーソルや文字選択カーソル)などの移動であってもよい。
図9(A)~9(D)は、ファインダー16の代わりにEVF650を用いた場合の例を示す。図9(A)は、ユーザーがEVF650を覗きながら指301でタッチパッド操作部61を操作している様子を示す。図5(A)を用いて説明したように、デジタルカメラ100は、右手300でグリップされている。このため、例えば、ユーザーが基準座標系のX軸X0と平行な方向のタッチムーブを行いたくても、タッチムーブの軌跡がX軸X0と平行にならないことがある。
図9(B)は、EVF650の表示画面の一例であり、LV画像を表示しながら拡大エリアを選択する拡大エリア選択画面651の一例である。拡大エリア選択画面651では、所望のエリアを拡大することで、ピントの確認などを行うことができる。拡大エリア選択画面651では、拡大対象のエリアを示す拡大エリア枠が位置652が表示されている。ここで、ユーザーは拡大エリア枠を拡大エリア選択画面651のx軸方向に移動したいとする。上述した第1の実施形態を適用しない場合には、タッチムーブの軌跡が基準座標系のX軸X0と平行にならないことにより、拡大エリア枠が位置652から破線矢印の方向(x軸方向に対して斜めの方向)に移動してしまう。第1の実施形態を適用すれば、タッチムーブの軌跡がX軸X0と平行にならなくても、拡大エリア枠をx軸方向に移動させることができる。具体的には、他のタッチムーブに基づいて定義された操作座標系が使用されるため、破線矢印のベクトルが実線矢印のベクトル(x軸方向と並行なベクトル)に変換され、拡大エリア枠を位置652から位置653へ移動させることができる。
図9(C)は、EVF650の表示画面の一例であり、メニュー画面の1つである色調設定画面655の一例である。色調設定画面655では、撮像画像の色調を調整できる。色調設定画面655では、現在の色調設定を示すWB補正点が位置656に表示されている。ここで、ユーザーはWB補正点を色調設定画面655のx軸方向に移動したいとする。第1の実施形態を適用しない場合には、タッチムーブの軌跡が基準座標系のX軸X0と平行にならないことにより、WB補正点が位置656から破線矢印の方向に移動してしまう。第1の実施形態を適用すれば、他のタッチムーブに基づいて定義された操作座標系が使用されるため、破線矢印のベクトルが実線矢印のベクトルに変換され、WB補正点を位置656から位置657へ移動させることができる。
図9(D)は、EVF650の表示画面の一例であり、メニュー画面の1つである文字入力画面660の一例である。文字入力画面660では、文字の入力を行える。文字入力画面660では、現在選択中の文字を示す文字選択カーソルが位置661に表示されている。ここで、ユーザーは文字選択カーソルを文字入力画面660のx軸方向に移動したいとする。第1の実施形態を適用しない場合には、タッチムーブの軌跡が基準座標系のX軸X0と平行にならないことにより、文字選択カーソルが位置661から破線矢印の方向に移動してしまう。第1の実施形態を適用すれば、他のタッチムーブに基づいて定義された操作座標系が使用されるため、破線矢印のベクトルが実線矢印のベクトルに変換され、文
字選択カーソルを位置661から位置662へ移動させることができる。
なお、EVF650に表示される画面は表示部28に表示されてもよく、EVF650の代わりに表示部28が使用されてもよい。
<第2の実施形態>
第2の実施形態では、スマートウォッチなどの携行電子機器に搭載された操作部と表示部により構成される電子部品であるタッチパネル(タッチパネルディスプレイ)の表示座標系を定義する例について説明する。例えば、第1の実施形態における入力装置であるタッチパッドとして光透過性を有するタッチパッドを用い、当該タッチパッドを表示装置の表示面に重ねることにより、第2の実施形態におけるタッチパネルが構成される。従って、第2の実施形態におけるタッチパネルは、第1の実施形態におけるタッチパッドと同様の機能を備えている。図10(A)~10(C)は、本実施形態に係るスマートウォッチ500の動作例を示す。
図10(A)はスマートウォッチ500の外観図であり、表示部(タッチパネルディスプレイ)501に日時や操作可能な機能アイコンなどが表示されている。ユーザーは、ベルト部510を手首や腕などに巻きつけて、スマートウォッチ500を腕時計と同様の方法で使用する。スマートウォッチ500の表示部501の表示座標系は、基準座標系[X軸Xm0,Y軸Ym0]となっている。スマートウォッチ500は、電子メールを受信する機能を備えており、電子メールを受信した場合には、アイコン502を表示させることで、ユーザーに電子メールの受信を知らせる。ユーザーは、表示部501に対するタッチムーブを行うことで受信メールの内容を表示部501に表示させることが可能である。スマートウォッチ500のシステム制御部は、設定された表示座標系に基づく傾きで画像(画面)を表示部501に表示する。しかしながら、スマートウォッチ500はユーザーの手首や腕に取り付けられており、スマートウォッチ500の位置とユーザーの目の位置との相対位置関係は一定ではない。このため、常に基準座標系[Xm0,Ym0]が設定されていると、ユーザーにとって表示部501の表示が見づらいことがある。なお、表示部501に表示される画像は、例えば、テキスト(文字列)画像、アイコン画像、メニュー画像、各種グラフィック画像、ライブビュー画像、再生画像(静止画像、動画像)等である。
図10(B)に、ユーザーが指301で位置N51から位置P51へのタッチムーブをした様子を示す。基準座標系[Xm0,Ym0]において、タッチムーブの移動ベクトルは移動ベクトルU51となる。第1の実施形態と同様に、システム制御部は、移動ベクトルU51に基づいて、設定された表示座標系を変換する。例えば、図10(C)に示すように、表示座標系のX軸として、移動ベクトルU51の方向と平行なX軸Xm1が新たに定義され、表示座標系のY軸として、X軸Xm1に直交するY軸Ym1が新たに定義される。この結果、表示部501に表示された画像(画面)の傾きが変更される。上述したように、本実施形態では、タッチムーブを行うことで受信メールの内容が表示部501に表示される。このため、図10(C)では、受信メールの内容が表示されている。
このように、任意のタッチムーブでの移動方向に基づいて表示部501の任意の表示座標系が決定されることにより、ユーザーにとって見やすい表示を実現できる。換言すれば、表示内容の視認性を向上させることができる。なお、表示座標系のY軸として、移動ベクトルU51の方向と平行なY軸が新たに定義され、表示座標系のX軸として、新たに定義されたY軸に交差するX軸が新たに定義されてもよい。表示座標系を変更せずに、移動ベクトルU51に基づいて画像の傾きを変更してもよい。
<第2の実施形態の変形例>
表示部と操作部によりタッチパネル(タッチパネルディスプレイ)が構成されず、表示部と操作部が別々の位置に設けられていてもよい。図11(A),11(B)は、表示部と操作部が別々の位置に設けられたスマートウォッチ600の動作例を示す。
図11(A)はスマートウォッチ600の外観図であり、表示部601に日時や操作可能な機能アイコンなどが表示されている。表示部601の表示座標系は、基準座標系[X軸Xm0,Y軸Ym0]となっている。ベルト部610は、タッチパッド操作部620を備える。タッチパッド操作部620は、スマートウォッチ600の設定、表示の変更、等を行うための操作部である。表示部601にアイコン602が表示されている状態でタッチパッド操作部620に対するタッチムーブが行われると、4つのアイコン602a,602b,602c,602dが表示部601に表示される。
図11(A)では、移動ベクトルU61のタッチムーブがタッチパッド操作部620に対して行われている。第1の実施形態と同様に、スマートウォッチ600のシステム制御部は、移動ベクトルU61に基づいて、設定された表示座標系を変換する。例えば、図11(B)に示すように、表示座標系のX軸として、移動ベクトルU61の方向と平行なX軸Xm2が新たに定義され、表示座標系のY軸として、X軸Xm2に直交するY軸Ym2が新たに定義される。この結果、表示部601に表示された画像(画面)の傾きが変更される。
このように、表示部と操作部が別々の位置に設けられていても、第2の実施形態と同様の動作が実現でき、第2の実施形態と同様の効果が得られる。
(その他の実施形態)
なお、システム制御部50が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、電子機器全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明をデジタルカメラ(撮像装置)やスマートウォッチに適用した場合を例にして説明したが、これはこの例に限定されずタッチ操作を受け付け可能な電子機器であれば適用可能である。例えば、本発明は、タッチパッド(タッチパネルを含む)を備える、パーソナルコンピュータ、PDA、携帯電話端末、携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、タッチパッド(タッチパネルを含む)を備える、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置、車載装置、医療機器などに適用可能である。医療機器においては、被写体や操作対象部分を見ながらタッチ操作を行うような場合に有用である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。