JP7377088B2 - 電子機器およびその制御方法、プログラム、並びに記憶媒体 - Google Patents

電子機器およびその制御方法、プログラム、並びに記憶媒体 Download PDF

Info

Publication number
JP7377088B2
JP7377088B2 JP2019223002A JP2019223002A JP7377088B2 JP 7377088 B2 JP7377088 B2 JP 7377088B2 JP 2019223002 A JP2019223002 A JP 2019223002A JP 2019223002 A JP2019223002 A JP 2019223002A JP 7377088 B2 JP7377088 B2 JP 7377088B2
Authority
JP
Japan
Prior art keywords
touch
item
touch panel
display
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019223002A
Other languages
English (en)
Other versions
JP2021092958A (ja
JP2021092958A5 (ja
Inventor
恵美 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019223002A priority Critical patent/JP7377088B2/ja
Priority to US17/115,258 priority patent/US11269499B2/en
Publication of JP2021092958A publication Critical patent/JP2021092958A/ja
Publication of JP2021092958A5 publication Critical patent/JP2021092958A5/ja
Application granted granted Critical
Publication of JP7377088B2 publication Critical patent/JP7377088B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Description

本発明は、タッチパネルの操作性を改善する技術に関する。
ファインダーを覗きながらの撮影では、ファインダーを覗きながらAF枠を移動して所望の被写体にピントを合わせるといった操作を行う場合がある。特許文献1では、タッチパネル上にタッチダウンして上方向に所定距離以上タッチムーブすれば、タッチムーブの距離に関わらず、設定を微調整できることが開示されている。特許文献2では、ファインダーを覗いている場合は、ファインダー内に表示されるAF枠をタッチパネル上のダブルタップで絶対移動でき、タッチパネル上でのタッチムーブで相対移動できることが開示されている。
特開2018-206088号公報 特開2018-013745号公報
特許文献1では、アイテム位置の微調整が一方向にしかできない。特許文献2では、現在のアイテムの設定を微調整する場合にダブルタップをしてもユーザの意図した位置をタッチできない場合があり、また、タッチムーブをする場合はユーザがタッチ位置を細かく移動しにくいため、意図しない設定になってしまう可能性がある。
本発明は、上記課題に鑑みてなされたものであり、その目的は、タッチパネルを用いてユーザが操作性良くアイテムの表示位置の微調整を行うことができる技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の電子機器は、タッチパネルへのタッチ操作を検出可能なタッチ検出手段と、表示部に表示されるアイテムをタッチ操作に応じて移動して表示するように制御する表示制御手段と、タッチ操作が開始されても前記表示部に表示されている前記アイテムの位置を移動せず、タッチ位置の移動が検出されたことに応じて、前記タッチ位置の移動量に応じて前記アイテムを表示されていた位置から移動し、前記タッチ位置の移動がされた後、前記タッチ位置からタッチが離された位置を基準位置に設定し、前記基準位置が前記タッチパネルの端部ではない場合、前記タッチ位置を移動した後にタップされるごとに所定量に応じた分、前記基準位置から前記タップされた位置の方向に前記アイテムを移動し、前記基準位置が前記タッチパネルの端部である場合、前記基準位置がタップされるごとに前記所定量に応じた分、前記端部の方向に前記アイテムを移動するように制御する制御手段と、を有する。
本発明によれば、タッチパネルを用いてユーザが操作性良くアイテムの表示位置の微調整を行うことができるようになる。
本実施形態の装置の外観図。 本実施形態の装置構成を示すブロック図。 本実施形態のAF枠を移動する処理を示すフローチャート。 本実施形態の基準点をクリアする条件を判定する処理を示すフローチャート。 本実施形態のタッチ操作によりAF枠を移動する動作を説明する図。 本実施形態の基準点とタップ位置の関係を示す図。 本実施形態のメニュー画面の表示例を示す図。 本実施形態のライブビュー画面の表示例を示す図。 本実施形態の他の機器への適用例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[実施形態1]
以下に、本発明の電子機器を、静止画や動画を撮影可能なデジタル一眼レフカメラに適用した実施の形態について、添付図面を参照して詳細に説明する。
<装置構成>図1及び図2を参照して、本実施形態のデジタルカメラ100の構成および機能について説明する。
図1(a)はデジタルカメラ100の前面斜視図、図1(b)はデジタルカメラ100の背面斜視図である。
図1において、背面表示部101は、画像や各種情報を表示する、カメラ本体の背面に設けられたLCDなどの表示デバイスである。また、背面表示部101は、静止画撮影後の静止画再生や記録中の動画表示、及びライブビュー表示機能を併せ持っている。背面表示部101には、タッチパネル270aが設けられている。タッチパネル270aは、背面表示部101の表示面(タッチパネル270aの操作面)対する接触(タッチ操作)を検出可能なタッチ検出手段である。
シャッターボタン102は撮影指示を行うための操作部である。モード切替スイッチ103は各種モードを切り替えるためのダイヤル式の操作部である。端子カバー104は外部機器とデジタルカメラ100をUSBなどのケーブルを介して接続するためのコネクタ(不図示)を保護するカバー部材である。メイン電子ダイヤル105は図2で後述する操作部270に含まれる回転操作部材であり、このメイン電子ダイヤル105を回すことで、シャッター速度や絞りなどの設定値が変更できる。
電源スイッチ106はデジタルカメラ100の電源のオン/オフを切り替える操作部材である。サブ電子ダイヤル107も図2で後述する操作部270に含まれる回転操作部材であり、選択枠の移動や画像送りなどを行える。十字キー108も図2で後述する操作部270に含まれる移動指示部材であり、上、下、左、右からなる4方向ボタンのいずれかを押し込むことで、十字キー108の押した部分に応じた操作が可能である。
SETボタン109も図2で後述する操作部270に含まれる押しボタンであり、主に選択項目の決定などに用いられる。ライブビューボタン110も図2で述する操作部270に含まれる押しボタンであり、静止画撮影モードではライブビュー(以下、LVと表記する場合もある)表示のオン/オフを切り替え、動画記録モードでは動画撮影(記録)の開始や停止の指示に使用される。再生ボタン111も図2で後述する操作部270に含まれる押しボタンであり、撮影モードと再生モードとを切り替えるための操作部材である。撮影モード中に再生ボタン111を押下することで再生モードに移行し、記録媒体250に記録された画像のうち最新の画像を背面表示部101に表示させることができる。なお、シャッターボタン102、メイン電子ダイヤル105、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、LVボタン110、再生ボタン111は操作部270に含まれる。グリップ部115は、ユーザがデジタルカメラ100を構えた際に右手で握りやすい形状を有する。グリップ部115を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン102、メイン電子ダイヤル105が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル107が配置されている。
ユーザは、ファインダー112を覗き込むことで、光学ファインダー(OVF)を通して被写体像を見ることができる(視認可能)。接眼検知部114は、物体が1cmや2cmなどの所定距離より近い距離(所定距離未満)に接近していることを検知(接眼検知、接近検知)するための物体検知手段である。例えばユーザがファインダー内表示部113を見ようとファインダー112に目を近づけ(接眼部112aを覗き込むようにする)、接眼検知部114が物体(目)の接近を検知すると、OVFを通して見える被写体に、ファインダー内表示部113の表示が重畳して見える。また、接眼検知部114は所定距離以上物体(眼)が離れたことを検知すると、ファインダー内表示部113からアイテム等の表示を非表示にする。また、ユーザがファインダー112を覗き込むと、背面表示部101は非表示になるが、タッチパネル270aへのタッチ操作は受け付け可能である。グリップ部115を手で保持し、シャッターボタン102に人差し指をかけた状態で、タッチパネル270aへ親指などでタッチ操作をすると、ファインダー内表示部113の表示(とOVFを通して見える被写体)を見ながら、AF(オートフォーカス)処理を行う位置を示すAF枠の移動と撮影指示とを素早くできる。なお、ファインダー112の表示は、OVFではなく、EVF(電子ビューファインダー)であってもよい。ファインダー内表示部113がEVFの場合には、撮像部222により撮像されたライブビュー画像がファインダー内表示部113に表示され、ユーザはファインダー112を覗き込むことで被写体を視認することができる。背面表示部101も同様に、ライブビュー画像を表示するEVFとして機能する。また、ファインダー内表示部113がEVFの場合、ファインダー内表示部113にはライブビュー画像と共に、撮影に関する情報やAF枠などが表示可能である。
レンズユニット200は、デジタルカメラ100に対して着脱可能な光学系を構成する。
次に、図2を参照して、本実施形態のデジタルカメラ100及びレンズユニット200の内部構成について説明する。図2において、図1と共通する構成には同じ符号を付して示している。
図2において、レンズユニット200は撮影レンズ207を搭載し、デジタルカメラ100に対して着脱可能である。撮影レンズ207は通常、複数枚のレンズから構成されるが、ここでは簡略して1枚のレンズのみで示している。通信端子206はレンズユニット200がデジタルカメラ100と通信を行うための電気的接点である。通信端子210はデジタルカメラ100がレンズユニット200と通信を行うための電気的接点である。レンズユニット200は、通信端子206を介してシステム制御部201と通信し、内蔵されたレンズ制御部204が絞り駆動回路202を制御して絞り205を駆動し、AF駆動回路203を制御して撮影レンズ207の位置を変位させることで焦点を合わせる。
AEセンサ217は、レンズユニット200を通じて取り込んだ被写体の輝度を測光する。焦点検出部211は、システム制御部201にデフォーカス量を出力し、システム制御部201はデフォーカス量に応じてレンズユニット200と通信し、位相差検出方式でのオートフォーカス処理に関する制御を行う。なお、AF制御は、位相差検出方式に限らず、コントラストAFでもよい。
クイックリターンミラー(以下、ミラー)212は、露光、ライブビュー表示、動画撮影の際にシステム制御部201から指示を受けて、不図示のアクチュエータによってアップ位置又はダウン位置に駆動される。クイックリターンミラー212は、撮影レンズ207から入射した光束をファインダー112又は撮像部222へ切り替える。クイックリターンミラー212は通常、光束を反射してファインダー112へ光束を導くようダウン位置に付勢されているが、露光やライブビュー表示には、撮像部222へ光束を導くように上方に跳ね上がり光束中から待避する(アップ位置)。また、クイックリターンミラー212は、光束の一部が透過して焦点検出部211に入射するように、中央部がハーフミラーとなっている。撮影者は、ペンタプリズム214とファインダー112を介して、フォーカシングスクリーン213を観察することで、レンズユニット200を通じて取り込んだ被写体像の焦点や構図の確認が可能となる。
フォーカルプレーンシャッター221は、システム制御部201の指示に応じて撮像部222での露光時間を自由に制御できる。撮像部222は被写体像を電気信号に変換するCCDやCMOS等の撮像素子で構成されたイメージセンサである。A/D変換器223は、撮像部222から出力されるアナログ信号をデジタル信号に変換する。
画像処理部224は、A/D変換器223からのデータ、又は、メモリ制御部215からのデータに対して所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部224では、撮像した画像データを用いて所定の演算処理が行われ、システム制御部201は演算結果に基づいて露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部224では更に、撮像した画像データを用いて所定の演算処理を行い、演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
A/D変換器223から出力されるデジタルデータは、画像処理部224及びメモリ制御部215を介して、あるいは、メモリ制御部215を介してメモリ232に直接書き込まれる。メモリ232は、撮像部222及びA/D変換器223から得られる画像データや、背面表示部101に表示するための画像表示用のデータを格納する。メモリ232は、所定枚数の静止画や所定時間の動画及び音声を格納するのに十分な記憶容量を備えている。また、メモリ232は画像表示用のメモリ(ビデオメモリ)を兼ねている。
D/A変換器219は、メモリ232に格納されている画像表示用のデータをアナログ信号に変換して背面表示部101に供給する。メモリ232に書き込まれた表示用の画像データはD/A変換器219を介して背面表示部101により表示される。背面表示部101は、D/A変換器219からのアナログ信号に応じた表示を行う。このように、メモリ232に格納されたデジタル信号をアナログ信号に変換し、背面表示部101に逐次転送して表示することで、電子ビューファインダー(EVF)機能を実現し、ライブビュー表示(スルー画像表示)を行える。
ファインダー内表示部113には、ファインダー内表示部駆動回路242を介して、現在AF処理が行われている測距点(AF位置)を示す枠やカメラの設定状態を表すアイコンなどが表示される。これにより、ユーザは、ファインダー112を覗くことでレンズユニット200により取り込まれた被写体像を視認できる光学ファインダー(OVF)を介して、AF位置やカメラの設定状態を確認することが可能となる。
接眼検知部114は、接眼部112aの近傍に配置され、接眼部112aへの何らかの物体の接近を検知することができる。接眼検知部114は、例えば赤外線近接センサが用いられる。
不揮発性メモリ256は、電気的に消去・記録可能な、例えばEEPROMなどである。不揮発性メモリ256には、システム制御部201の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、後述するフローチャートを実行するためのプログラムのことである。
システム制御部201は、デジタルカメラ100全体を統括して制御するCPUやMPUを備え、不揮発性メモリ256に格納されたプログラムを実行することで、後述するフローチャートの各処理を実現する。システムメモリ252はRAMなどであり、システム制御部201の動作用の定数、変数、不揮発性メモリ256から読み出したプログラムなどを展開するワークメモリとしても使用される。また、システム制御部201は、メモリ232、D/A変換器219、背面表示部101、ファインダー内表示部113などを制御することにより表示制御も行う。システムタイマー253は各種制御に用いる時間や、内蔵時計の時間を計測する計時部である。
モード切替スイッチ103、第1シャッタースイッチ261、第2シャッタースイッチ262、操作部270はシステム制御部201に各種の指示を入力するための操作手段である。モード切替スイッチ103は、システム制御部201の動作モードを、静止画撮影モード、動画記録モード、再生モードのいずれかに切り替える。静止画撮影モードには、例えば、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)が含まれる。また、静止画撮影モードには、例えば、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモードなどが含まれる。
モード切替スイッチ103で、静止画撮影モードに含まれる複数のモードのいずれかに直接切り替える。あるいは、モード切替スイッチ103で静止画撮影モードに一旦切り替えた後に、静止画撮影モードに含まれる複数のモードのいずれかに他の操作部材を用いて切り替えるようにしてもよい。同様に、動画記録モードや再生モードにも複数のモードが含まれていてもよい。
第1シャッタースイッチ261は、デジタルカメラ100に設けられたシャッターボタン102の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生する。システム制御部201は、第1シャッタースイッチ信号SW1を受けて画像処理部224によって、AF処理、AE処理、AWB処理、EF処理などを開始する。
第2シャッタースイッチ262は、シャッターボタン102の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部201は、第2シャッタースイッチ信号SW2により、撮像部222からの信号読み出しから記録媒体250に画像データを書き込むまでの一連の撮影処理を開始する。
操作部270は、背面表示部101に表示される種々の機能に関するに設定を行うための項目や設定値を示すアイテムを選択することにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば、メニューボタンや、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタンなどがある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が背面表示部101に表示される。ユーザは、背面表示部101に表示されたメニュー画面と、十字キー108やSETボタン109を用いて直感的に各種設定を行うことができる。
操作部270は、ユーザ操作を受け付けて、システム制御部201へ通知する入力部であり、少なくとも以下の操作部材が含まれる。シャッターボタン102、メイン電子ダイヤル105、電源スイッチ106、サブ電子ダイヤル107、十字キー108、SETボタン109、LVボタン110、再生ボタン111。十字キー108は、十字キー108における上、下、右、左の各部を押し込み可能な方向ボタンである。本実施形態では一体的な操作部として説明しているが、上ボタン、下ボタン、右ボタン、左ボタンがそれぞれ独立したボタンであってもよい。以下、上、または下部分を上下キー、左または右部分を左右キーと称する。
電源制御部280は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部280は、その検出結果及びシステム制御部201の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体250を含む各部へ供給する。
電源部230は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Liイオン電池等の二次電池、ACアダプタ等からなる。記録媒体I/F218は、メモリカードやハードディスク等の記録媒体250とのインターフェースである。記録媒体250は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部254は、無線アンテナや有線ケーブルによって外部機器と通信可能に接続し、映像や音声の送受信を行う。通信部254は無線LAN(Local Area Network)やインターネットにも接続可能である。通信部254は撮像部222で撮像された画像データ(ライブビュー画像を含む)や、記録媒体250に記録されている画像ファイルを外部機器に送信でき、また、外部機器から画像データやその他の各種情報を受信できる。なお、通信部254は、無線LANに限らず、赤外線通信、Bluetooth(登録商標)、Bluetooth(登録商標) Low Energy、WirelessUSBなどの無線通信モジュール、あるいは、USBケーブルやHDMI(登録商標)、IEEE1394などの有線接続手段を用いてもよい。
なお、操作部270の1つとして、背面表示部101に対するタッチ操作を検出可能なタッチパネル270aを有する。タッチパネル270aと背面表示部101とは一体的に構成することができる。例えば、タッチパネル270aを光の透過率が背面表示部101の表示を妨げないように構成し、背面表示部101の表示面の上層に取り付ける。そして、タッチパネル270aにおける入力座標と、背面表示部101上の表示座標とを対応付ける。これにより、あたかもユーザが背面表示部101上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。このように、タッチ操作が行われた位置と背面表示部101の位置とを対応づけて指示を受け付ける設定を絶対座標設定という。
また、絶対座標設定とは異なり、背面表示部101の所定の位置から、タッチ位置座標ではなく、タッチ操作の移動量や移動方向等に応じて移動した位置(移動操作に応じた量移動した位置)への指示を受け付ける設定を相対座標設定という。
ファインダー内表示部113を見ながら操作をする場合には、絶対座標設定でタッチ操作をすると、タッチパネル270a(背面表示部101)を見ないでタッチすることになり、所望の位置からずれた位置に誤ってタッチ操作をしてしまう可能性が高い。一方で、相対座標設定でタッチ操作をすると、タッチ操作の位置ではなく移動量で移動指示をするので、ファインダー内表示部113に表示される操作対象の位置を見ながら所望の位置まで移動する操作をすれば所望の位置への指示をすることができる。なお、背面表示部101に画像を表示しないが、タッチパネル270aがタッチ操作を受け付ける機能をタッチパッド機能と呼ぶ。
システム制御部201はタッチパネル270aへの以下の操作、あるいは状態を検出できる。
・タッチパネル270aにタッチしていなかった指やペンが新たにタッチパネル270aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル270aを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・タッチパネル270aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル270aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル270aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
・タッチパネル270aにタッチダウンし、タッチムーブを行わずに所定時間内にタッチアップすることを(以下、タップ(Tap)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル270aa上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部201に通知される。システム制御部201は通知された情報に基づいてタッチパネル270a上にどのような操作(タッチ操作)が行われたかを判定する。
タッチムーブについてはタッチパネル270a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル270a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作(ドラッグ)が行われたと判定するものとする。タッチパネル270a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル270a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(ドラッグに続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。
タッチパネル270aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
接眼検知部114は接眼部112aに対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)。システム制御部201は、接眼検知部114で検知された状態に応じて、EVFである背面表示部101とファインダー内表示部113の表示(表示状態)/非表示(非表示状態)を切り替える。システム制御部201は、少なくとも撮影モード、かつ、表示先の切替が自動である場合において、非接眼中は表示先を背面表示部101とし、ファインダー内表示部113は非表示とする。また、接眼中は表示先をファインダー内表示部113とし、背面表示部101は非表示とする。
物体が接近した場合は、接眼検知部114の投光部(図示せず)から照射された赤外光が反射して赤外線近接センサの受光部(図示せず)に入射される。赤外線近接センサで受光される赤外光の入射光量によって、接眼部112aへの何らかの物体の接近の検出と、物体が接眼部112aからどの程度の距離まで近づいているか(接眼距離)を判別することができる。接眼部112aへの物体の接近を検知するとシステム制御部201がファインダー内表示部113の表示を開始させることが可能となる。これにより、ユーザが接眼部112aを覗いたときにファインダー内表示部113を極力遅延なく表示可能となる。
また、接眼検知部114は、非接眼状態(非接近状態)から、接眼部112aに対して所定距離以内に近づく物体を検出した場合に接眼を検出したと判定し、システム制御部201に接眼検知通知を送信する。また、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に離眼が検出したと判定し、システム制御部201に離眼検知通知を送信する。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。これにより、システム制御部201は、接眼検知部114が検出した接眼状態もしくは離眼状態に応じて背面表示部101とファインダー内表示部113の表示制御を行う。
後述するタッチ&ドラッグAF設定では、接眼検知中のタッチ操作に応じたAF位置の指定方法を、絶対位置指定と相対位置指定のいずれかに設定可能である。初期値は絶対位置指定である。絶対位置指定の場合、タッチパネル270aの操作面内の位置座標と、撮影範囲内のAF可能領域が一意に対応づけられ、タッチパネル270aがタッチされると、タッチされた位置に対応づけられた撮影範囲内の位置にAF位置が設定される。従って、例えばLV画像に写っている右下の被写体の位置をAF位置としたい場合には、ユーザはタッチパネル270aの右下の位置をタッチすればAF位置を右下に設定することができる。一方、相対位置指定の場合は、タッチパネル270aの操作面内の位置座標と、撮影範囲内のAF可能領域は一意に対応づけられない。相対位置指定では、タッチパネル270aに対するタッチムーブが行われると、タッチダウン位置に関わらず、現在設定されているAF位置から、タッチムーブの移動方向に、タッチムーブの移動量に応じた距離だけ、タッチ位置を移動させる。
<制御処理>次に、図3から図8を参照して、本実施形態のデジタルカメラ100による制御処理について説明する。
なお、図3および図4の各処理は、不揮発性メモリ256に記録されたプログラムをシステムメモリ252に展開してシステム制御部201が実行することで実現する。
図3は、本実施形態のAF枠を移動する処理を示すフローチャートである。なお、図3の処理は、デジタルカメラ100の電源がオンされ、EVFとして背面表示部101が表示され、AFモードがタッチ&ドラッグAFに設定されると開始される。
S301では、システム制御部201は、基準点(例えば、図5の基準位置512、図7の基準位置761)が存在するか否かを判定し、基準点が存在する場合はS302に進み、基準点が存在しない場合はS303に進む。ここで、基準点とは図7を用いて後述するユーザによりメニュー画面で設定された基準点、もしくは図3を用いて後述するタッチムーブにより設定される基準点のことを指す。
S302では、システム制御部201は、基準点が存在し、タッチパネル270aをタップすることでAF枠(図5の551)を移動させることができることを通知するガイドを表示する。ガイドの詳細は図8で後述する。
S303では、システム制御部201は、ユーザによりタッチパネル270aにタッチダウンが行われたか否かを判定し、タッチダウンが行われた場合はS30に進み、タッチダウンが行われない場合は判定を継続する
S304では、システム制御部201は、ユーザによりタッチパネル270aにタッチムーブ(図5の513)が行われたか否かを判定し、タッチムーブが行われた場合はS30に進み、タッチムーブが行われない場合はS30に進む。なお、後述するS308においてタップが行われなかったと判定された後、S304においてタッチムーブも行われない場合は、システム制御部201は、タッチアップが検出されても、基準点の更新もAF枠の移動も行わない。
S305では、システム制御部201は、S304におけるタッチムーブの移動量に基づき、背面表示部101に表示されたAF枠を移動し(図5の503)、S306に進む。ここで、タッチムーブの移動量がタッチパネル270a上で(X、Y)=(α、β)で移動量がAであれば、EVFにおけるAF枠の位置は(x、y)=(Pα、Pβ)で移動量はA×Pとなる。Pは、予め定められた値であり、(EVFの大きさ)/(タッチパネルの大きさ)でもよいし、それよりも大きくても小さくてもよい。Pの値を大きくするほどユーザのタッチの移動量に対してAF枠が大きく動き、Pの値を小さくするほどユーザのタッチの移動量に対してAF枠が小さく動く。Pの値が小さすぎると、タッチパネルの端部から端部まで移動しても、EVFにおいて端部から端部へとAF枠を移動できなくなり、何度もタッチムーブを行わなければならない可能性がある。一方で、Pの値が大きすぎると、タッチ位置の移動量に対してAF枠が大幅に移動してしまうので、素早く遠くへAF枠を移動したい場合にはよいが、意図しない位置までAF枠が移動しやすくなってしまう。よって、Pの値は(EVFの大きさ)/(タッチパネルの大きさ)の値付近であれば、ユーザは直感的に操作がしやすい。本実施形態では、Pの値は一定とするが、ユーザが設定できるようにしてもよい。
S306では、システム制御部201は、ユーザによりタッチパネル270aからタッチアップが行われたか否かを判定し、タッチアップ操作が行われた場合はS313に進み、タッチアップ操作が行われない場合はS307に進む。
S307では、システム制御部201は、ユーザによりタッチパネル270aにタッチムーブが行われたか否かを判定し、タッチムーブが行われた場合はS305に戻り、タッチムーブが行われない場合はS306に戻る。
S308では、システム制御部201は、ユーザによりタッチパネル270aにタップが行われたか否かを判定し、タップが行われた場合はS309に進み、タップが行われない場合はS304に戻る。
S309では、システム制御部201は、基準点が存在するか否かを判定し、基準点が存在する場合はS310に進み、基準点が存在しない場合はS313に進む。
S310では、システム制御部201は、S308でのタップ位置(図5の561)が基準点と同じ位置であるか否かを判定し、基準点と同じ位置である場合はS311に進み、基準点と同じ位置ではない場合はS312に進む。S304でNOと判定されてからS309に進んだ場合は、S304でタッチムーブは行われていないので、システム制御部201は、S309でタップ操作が行われたと判定する。
S311では、システム制御部201は、S308でのタップ位置(図5の561)がタッチパネル270aの端部であるか否か、つまり、基準点がタッチパネル270aの端部であるか否かを判定する。システム制御部201は、基準点がタッチパネル270aの端部である場合はS312に進み、基準点がタッチパネル270aの端部でない場合はS313に進む。S310でタッチアップ位置と基準点が同じ位置であっても、そもそも基準点がタッチパネル270aの端部の位置であれば基準点よりも端部の方向はタッチ操作ができないので、基準点をタッすることでS312においてタップ位置の方向に所定量分だけAF枠を移動する。一方で、基準点がタッチパネル270aの端部でない場合には、タッチアップ位置と基準点が同じ位置の場合であってもAF枠は移動しない。つまり、基準点がタッチパネル270aの右端かつ、上下端でない場合に、基準点をタップすると現在のAF枠の位置から右方向に所定量分だけAF枠が移動する。基準点の上側(下側)、かつタッチパネル270aの右端(右辺)をタップすると上側(下側)へ所定量分だけAF枠が移動する。
S312では、システム制御部201は、EVFに表示されたAF枠を基準点からタップ位置の方向に所定量分だけ移動し、S313に進む。S312では、システム制御部201は、基準点の位置とS308のタップ位置を比較し、タップ位置が基準点の右側であった場合は右方向に、左側であった場合は左方向に、上側であった場合は上方向に、下側であった場合は下方向にそれぞれAF枠を所定量分だけ細かく移動(以下、微小移動)する。AF枠を微小移動する所定量は、S305の粗く移動する量に比べて十分に小さい値となる。例えば、所定量は、EVFの表示画面における1ピクセルや3ピクセルといった単位に設定される。ユーザはタッチパネル270aにタッチしている指の3分の1や2分の1以下の距離である微小な距離、タッチ位置の移動をすることは難しい、もしくは時間がかかってしまう。さらにタッチアップする際に、指の触れている位置が微小にずれてしまうことがあるので、タッチムーブで微調整ができたとしても、タッチアップする際にさらにずれる可能性がある。そこで、本実施形態では、タップ操作で、タッチムーブでは移動が難しい微小な量を移動可能にすることで正確にAF位置の微調整を行うことができる。例えば、タッチ位置を1cm移動すると表示部上で10ピクセル、AF枠が移動するとする。このとき、1ピクセル、2ピクセルといった量AF枠を移動するためには、タッチ位置を1mmや2mm移動する必要がある。そこで、タップに応じて移動する所定量を1ピクセルや2ピクセルとすると、ユーザはタップ操作を行えば容易に、AF枠の微小な移動を実現することができる。なお、タップ操作のうち、タッチが離れる際にタッチ位置が少し動いたとしても、このタッチの移動によってはAF枠は移動させない。基準点とタップ位置の関係は図6で後述する。また、S312の処理の詳細は図5で後述する。
S313では、システム制御部201は、基準点が設定されているか否かを判定し、基準点が設定されている場合はS315に進み、基準点が設定されていない場合はS314に進む。
S314では、システム制御部201は、S306のタッチアップ位置(図5の561)を新たな基準点として設定し、システムメモリ252に記憶し、S315に進む。
S315では、システム制御部201は、基準点をクリアする条件を判定する。この処理の詳細は図4で後述する。
S316では、システム制御部201は、基準点をクリアするか否かを判定し、基準点をクリアする場合はS320に進み、基準点を解除した後、S303へ戻る。また、基準点をクリアしない場合はS317に進む。
S317では、システム制御部201は、ユーザがデジタルカメラ100の電源をオフしたか否かを判定し、電源がオフされた場合はS318に進み、電源がオフされていない場合はS303へ戻る。
S318では、システム制御部201は、電源がオフされたときの基準点がユーザ操作により任意設定(メニュー画面での設定ではなくS314での設定)されたものであるか否かを判定し、任意設定された基準点でない場合はS319に進み、基準点を解除し、処理を終了する。また、任意設定された基準点である場合は基準点を解除せずに処理を終了する。
S320では、システム制御部201は、S314で設定された基準点を解除し、S303へ戻る。
なお、S318において、任意設定された基準点とタッチムーブ後のタッチアップ位置が例えばタッチパネル270aのうち3分の1に相当する距離だけ離れていれば一時的にタッチムーブ後の位置を基準点として設定してもよい。ユーザがメニュー画面で設定した基準点から離れた位置からタッチを離した場合には、基準点付近をタップするためにユーザはデジタルカメラ100を持ち変える必要がある。そこで、一時的に基準点をタッチアップ位置に変更することでユーザはカメラを持ち変えずに素早くAF枠の位置の微調整ができる。つまり、グリップ部115を右手でしっかりと保持し、右手でタッチ操作を行うときは基準点をタッチパネル270aの右側に設定した方が操作がしやすいので、ユーザはメニュー画面で基準点を右側のいずれかの位置に設定すると操作がしやすい。ただし、タッチムーブをしてタッチパネル270aの左側へと指を移動するために、グリップ部115から右手を少し動かした状態では、基準点付近をタッチしにくいので、グリップ部115を再び保持し直すことなく微調整ができる。
次に、図4を参照して、図3のS315における基準点をクリアする条件を判定する処理について説明する。図4は、基準点クリア条件の判定処理を示すフローチャートである。
S401では、システム制御部201は、ユーザがシャッターボタン102を半押しすることによりAE処理が実行されたか否かを判定し、実行された場合はS409に進み、実行されていない場合はS402に進む。
S402では、システム制御部201は、ユーザがシャッターボタン102を半押しすることによりAF処理が実行されたか否かを判定し、実行された場合はS409に進み、実行されていない場合はS403に進む。
S403では、システム制御部201は、ユーザがシャッターボタン102を全押しすることにより撮影処理が実行されたか否かを判定し、実行された場合はS409に進み、実行されない場合はS404に進む。
S404では、システム制御部201は、接眼検知部114の検知結果に基づき、接眼部112aに対して接眼状態であるか離眼状態であるかを判定し、離眼状態であると判定した場合はS409に進み、接眼状態であると判定した場合はS405に進む。
S405では、システム制御部201は、ライブビュー画面からメニュー画面など別画面に遷移したか否かを判定し、別画面に遷移したと判定した場合はS409に進み、別画面に遷移していない場合はS406に進む。別画面は、例えば図7で示すようなメニュー画面700である。
S406では、システム制御部201は、ユーザがタッチパネル270a以外の操作部270を操作したか否かを判定し、操作したと判定した場合はS409に進み、操作していないと判定した場合はS407に進む。なお、S406では、ダブルタップなどのタッチ操作を含めてもよい。
S407では、システム制御部201は、S306でタッチアップを検出してから所定時間が経過したか否かを判定し、所定時間が経過したと判定した場合はS409に進み、経過していないと判定した場合はS408に進む。所定時間は、例えば5秒や7秒といった時間である。ユーザがタッチムーブやタップ操作によりAF枠の位置を移動した後、ある程度の時間が経過してから、ユーザが次にタッチ操作を行った場合は、直前のAF枠の移動操作とは別の被写体にAF枠を移動させようとしている可能性が高いので、S409で基準点をクリアする条件を満たしていると判定し、S320で基準点をクリアする。
S408では、システム制御部201は、撮影モードをタッチ&ドラッグAFから別のモードに切り替えたか否かを判定し、撮影モードを切り替えた場合はS409に進み、切り替えていない場合はS316に進む。なお、S408のモード切り替えは、AFモードを1点AFからコンティニュアスAFに変更した場合も含まれる。また、撮影モードを再生モードなどに変更した場合も含まれる。
S409では、システム制御部201は、システムメモリ252に記憶された基準点をクリアする条件を満たしていると判定し、処理を終了する。
以上の処理によれば、タッチ&ドラッグAF設定において、ユーザがシャッターボタン102を操作した場合やファインダー112から目を離した場合、ライブビューを解除して別の画面を表示した場合、タッチパネル以外の操作部を操作した場合、一定の時間が経過した場合、モード変更を行った場合は基準点の設定が解除され、新たな基準点が設定される。
次に、図5を参照して、タッチ操作によりAF枠を移動する動作について説明する。
図5(a)、(c)は、背面表示部101の表示面上でAF枠が移動する様子を例示している。図5(b)、(d)は、図5(a)、(c)のようにAF枠を移動させるためのタッチパネル270aに対するタッチ操作を例示している。
図5(a)、(b)は、タッチムーブによりAF枠を粗く相対移動させる場合の背面表示部101の表示面500とタッチパネル270aの操作面510を示している。また、図5(c)、(d)は、タップによりAF枠を微小移動させる場合の背面表示部101の表示面550とタッチパネル270aの操作面560を示している。
まず、AF枠を粗く移動させる場合について説明する。
図5(a)、(b)に示すように、タッチパネル270aの操作面510に対して、ユーザがタッチムーブを行って軌跡513のようにタッチ位置515からタッチ位置516に移動すると、背面表示部101のAF枠501は軌跡503を描きながら、表示面500において位置502まで移動する。この場合、AF枠を表示面500の一方の端部からもう一方の端部まで移動させたい場合にタッチパネル270aに対して少しだけタッチ位置を動かせばよいので操作が容易である。その後、タッチアップを行うことで、タッチアップした指の中央位置512が基準点として設定され、基準点の位置情報がシステムメモリ252に記憶される。
次に、AF枠を微小移動させる場合について説明する。
図5(c)、(d)に示すように、タッチパネル270aの操作面560に対してユーザがタッチ位置561でタップを行うと、AF枠551は右に微小移動する。タップ位置561は基準点512より右側にあるので、AF枠551は右側に所定量分だけ移動する。所定量は、基準点512とタップ位置561の離間距離に関わらず一定の値となる。
このように、本実施形態では、AF枠を粗く移動させる操作と微小移動させる操作の両方をタッチパネル270a上で行うことができる。よって、ユーザは他の操作部材に手を動かすことなくタッチパネル270aに対するタッチ操作だけでAF枠の粗い移動と微小移動による微調整が可能となる。
次に、図6を参照して、基準点512とタップ位置の関係について説明する。
本実施形態では、基準点512を中心として上下左右の範囲602~605が規定されており、タップ位置が上の範囲602であった場合はAF枠は上方向に所定量分だけ微小移動する。タップ位置が右の範囲603であった場合はAF枠は右方向に所定量分だけ微小移動する。タップ位置が下の範囲604であった場合はAF枠は下方向に所定量分だけ移動する。タップ位置が左の範囲605であった場合はAF枠は左方向に所定量分だけ移動する。そして、タップするごとにAF枠が所定量分だけ微小移動する。このように、タップ位置が真上、真横でなくてもある程度の範囲にあればユーザが意図していると想定される方向にAF枠を微小移動することができる。
次に、図7を参照して、ユーザ操作により基準点を任意設定する方法について説明する。
図7は、ユーザ操作により基準点を設定するためのメニュー画面の遷移を例示している。
図7(a)のメインメニュー画面700では、AFタブ701が選択されているので、AFに関する選択項目702~706が一覧表示されている。
選択項目702はタッチ&ドラッグAF設定に関する設定である。タッチ&ドラッグAFは、タッチパネル270aに対してタップやタッチムーブを行うことにより、背面表示部101に表示されたAF枠を所望の位置に移動させる機能である。
タッチ&ドラッグAF設定画面720は、選択項目702が選択されたことにより表示される設定画面である。選択項目721~724はタッチ&ドラッグAFに関する設定である。
選択項目724はユーザが任意に基準点を設定するための項目である。選択項目722の位置指定方法が相対位置に設定されている場合に選択項目724の基準点設定が有効となる。選択項目724は常時表示してもよいし、選択項目722の位置指定方法が相対位置の場合のみ表示してもよい。
基準点設定の選択項目724が選択されると、設定画面740が表示される。ウインドウ741には、基準点設定方法を説明するガイダンスが表示され、ウインドウ741のOKボタンを選択すると、基準点設定画面760が表示される。この基準点設定画面760によりユーザは基準点の位置を決めることができる。基準点の位置の範囲はタッチ領域723で選択されている範囲内である。タッチ&ドラッグAF設定画面720では、タッチ領域723として右上が選択されているので、基準点設定画面760における右上の範囲内で、例えば基準点が位置761に設定可能である。他の位置に基準点を設定する場合は、同様の手順で、タッチ領域723で基準点の位置の範囲として右下、左上、左下のいずれかを選択し、選択した範囲内で基準点の位置を設定可能である。
図8は、基準点が任意設定されていることを示すガイドの表示例を示している。ガイドは、基準点が任意設定されていること、画面をタップすることによりAF枠の微小移動が可能であること、をユーザに通知する機能を持つ。
図8(a)のガイド801は基準点が任意設定されていないことを示し、図8(b)、(c)、(d)のガイド821、841、860は基準点が任意設定されていることを示している。
ガイド801はAF枠を実線で表示される。ガイド821はAF枠を点線で表示される。ガイド841はAF枠の中央に点が表示される。ガイド861はAF枠とは別に文字が表示される。ガイドはその表示形態で所定時間だけ表示したり、その後は通常のAF枠の表示に戻したり、非表示としてもよいし、何か操作があった場合に非表示にしてもよい。また、図8のガイドの表示形態は、これに限らない。
また、本実施形態では、上下左右の4方向へAF枠を微小移動させ、上下左右以外の方向には移動しない例を説明したが、これに限らず、例えば8方向や10方向などに微小移動可能としてもよい。
以上のように、本実施形態によれば、EVFに表示されたAF枠を移動させたい場合に、タッチパネル270aに対するタッチムーブによりAF枠を粗く移動できる手段と、タップにより微小移動できる手段とを設けたことにより、簡単な操作で素早く所望の位置にAF枠を移動できるようになる。
なお、本実施形態は、AF枠その他のアイテムの表示位置の移動ではなく、設定値の変更にも適用可能であるし、選択する階層の変更にも適用可能である。選択する階層の場合は、タッチムーブで上の階層を移動し、タップ操作で選択した上の階層の中にある項目を例えば上下に移動するようにする。設定値の場合には、基準点から右側をタップ操作したら設定値を1目盛り分増やし、左側をタップ操作したら1目盛り分減らすようにしてもよいし、さらに細かい1目盛りの半分の値を変更するようにしてもよい。
また、本実施形態はAF枠の移動を例に挙げて説明をしたが、これ以外にも適用可能である。例えば画像編集をする際に、色を変えたり、ぼかしをいれたりする位置を指定する場合にも適用可能である。また、アイテムの位置に基づき撮影に関する処理を行ったり、画像の編集を行ったりするような場合にも適用可能である。例えば、AEの位置を設定する場合にも適用可能である。
また、本実施形態は、図9に示すノートPC900にも適用可能である。ノートPC900ではタッチパネル970aと表示部901が別個に構成され、タッチパネル970aはタッチパッドとして検出したタッチ操作に応じた、表示部901の画面上の位置にカーソルなどを表示する。なお、図4のS401~S404はデジタルカメラに特有の処理であるが、S405~S408はノートPC900で実行される処理である。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
なお、システム制御部201が行うものとして説明した上述の各種の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
その他、PDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなど、表示部とタッチパネルを備えた装置であれば、本発明は適用可能である。
[他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100…デジタルカメラ、101…背面表示部(EVF)、201…システム制御部、270…操作部、270a…タッチパネル

Claims (10)

  1. タッチパネルへのタッチ操作を検出可能なタッチ検出手段と、
    表示部に表示されるアイテムをタッチ操作に応じて移動して表示するように制御する表示制御手段と、
    タッチ操作が開始されても前記表示部に表示されている前記アイテムの位置を移動せず、タッチ位置の移動が検出されたことに応じて、前記タッチ位置の移動量に応じて前記アイテムを表示されていた位置から移動し、
    前記タッチ位置の移動がされた後、前記タッチ位置からタッチが離された位置を基準位置に設定し、
    前記基準位置が前記タッチパネルの端部ではない場合、前記タッチ位置を移動した後にタップされるごとに所定量に応じた分、前記基準位置から前記タップされた位置の方向に前記アイテムを移動し、前記基準位置が前記タッチパネルの端部である場合、前記基準位置がタップされるごとに前記所定量に応じた分、前記端部の方向に前記アイテムを移動するように制御する制御手段と、を有することを特徴とする電子機器。
  2. 前記制御手段は、前記基準位置が設定されていない場合に、前記タッチ位置の移動を伴わずに前記タッチパネルがタップされると、タップされた位置を基準位置に設定することを特徴とする請求項1に記載の電子機器。
  3. 記方向は、前記アイテムの表示位置から上下左右のいずれかの方向であり、
    前記制御手段は、前記アイテムの表示位置からタップされた位置の方向にアイテムを移動し、前記アイテムを上下左右以外の方向には移動しないことを特徴とする請求項1または2に記載の電子機器。
  4. 前記制御手段は、タッチパネル以外の操作部が操作された場合に、前記基準位置の設定を解除することを特徴とする請求項1からのいずれか1項に記載の電子機器。
  5. 前記制御手段は、撮影指示を行うための操作が行われた場合に、前記基準位置の設定を解除することを特徴とする請求項1からのいずれか1項に記載の電子機器。
  6. 前記表示部への物体の接近を検知する接近検知手段をさらに有し、
    前記制御手段は、前記表示部への物体の接近が検知されなくなったことに応じて、前記基準位置の設定を解除することを特徴とする請求項1からのいずれか1項に記載の電子機器。
  7. 前記制御手段は、前記アイテムが表示された画面から別の画面に切り替えられた場合に、前記基準位置の設定を解除することを特徴とする請求項1からのいずれか1項に記載の電子機器。
  8. タッチパネルへのタッチ操作を検出可能なタッチ検出手段を有し、表示部に表示されるアイテムをタッチ操作に応じて移動して表示するように制御する電子機器の制御方法であって、
    タッチ操作が開始されても前記表示部に表示されている前記アイテムの位置を移動せず、タッチ位置の移動が検出されたことに応じて、前記タッチ位置の移動量に応じて前記アイテムを表示されていた位置から移動し、
    前記タッチ位置の移動がされた後、前記タッチ位置からタッチが離された位置を基準位置に設定し、
    前記基準位置が前記タッチパネルの端部ではない場合、前記タッチ位置を移動した後にタップされるごとに所定量に応じた分、前記基準位置から前記タップされた位置の方向に前記アイテムを移動し、前記基準位置が前記タッチパネルの端部である場合、前記基準位置がタップされるごとに前記所定量に応じた分、前記端部の方向に前記アイテムを移動するように制御する制御ステップを有することを特徴とする制御方法。
  9. コンピュータを、請求項1からのいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
  10. コンピュータを、請求項1からのいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2019223002A 2019-12-10 2019-12-10 電子機器およびその制御方法、プログラム、並びに記憶媒体 Active JP7377088B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019223002A JP7377088B2 (ja) 2019-12-10 2019-12-10 電子機器およびその制御方法、プログラム、並びに記憶媒体
US17/115,258 US11269499B2 (en) 2019-12-10 2020-12-08 Electronic apparatus and control method for fine item movement adjustment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019223002A JP7377088B2 (ja) 2019-12-10 2019-12-10 電子機器およびその制御方法、プログラム、並びに記憶媒体

Publications (3)

Publication Number Publication Date
JP2021092958A JP2021092958A (ja) 2021-06-17
JP2021092958A5 JP2021092958A5 (ja) 2022-12-05
JP7377088B2 true JP7377088B2 (ja) 2023-11-09

Family

ID=76210463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019223002A Active JP7377088B2 (ja) 2019-12-10 2019-12-10 電子機器およびその制御方法、プログラム、並びに記憶媒体

Country Status (2)

Country Link
US (1) US11269499B2 (ja)
JP (1) JP7377088B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7377088B2 (ja) * 2019-12-10 2023-11-09 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100156813A1 (en) 2008-12-22 2010-06-24 Palm, Inc. Touch-Sensitive Display Screen With Absolute And Relative Input Modes
JP2018013745A (ja) 2016-07-23 2018-01-25 キヤノン株式会社 電子機器およびその制御方法
JP2019170802A (ja) 2018-03-29 2019-10-10 株式会社コナミデジタルエンタテインメント プログラムおよび情報処理装置
WO2019206670A1 (en) 2018-04-23 2019-10-31 Koninklijke Philips N.V. Precise positioning of a marker on a display

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666113A (en) * 1991-07-31 1997-09-09 Microtouch Systems, Inc. System for using a touchpad input device for cursor control and keyboard emulation
JPH0969037A (ja) * 1995-08-31 1997-03-11 Sharp Corp データ処理装置
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US6559833B2 (en) * 1998-10-01 2003-05-06 Hewlett-Packard Development Company Apparatus and method for achieving absolute and relative positioning of a graphics cursor
EP1413974A1 (en) * 2002-10-24 2004-04-28 Hewlett-Packard Company Hybrid sensing techniques for position determination
DE10261227A1 (de) * 2002-12-20 2004-07-22 Walter Ag Einrichtung zur integrierten Werkzeugfertigung und Verfahren dazu
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
JP4551830B2 (ja) * 2005-07-08 2010-09-29 任天堂株式会社 ポインティングデバイスの入力調整プログラムおよび入力調整装置
US7603633B2 (en) * 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
US7770126B2 (en) * 2006-02-10 2010-08-03 Microsoft Corporation Assisting user interface element use
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US9740386B2 (en) * 2007-06-13 2017-08-22 Apple Inc. Speed/positional mode translations
US20090205878A1 (en) * 2008-01-08 2009-08-20 David Taylor Touchpad for providing touch stick functionality in a game controller for providing relative and absolute position input
US9785330B1 (en) * 2008-02-13 2017-10-10 Apple Inc. Systems for and methods of providing inertial scrolling and navigation using a fingerprint sensor calculating swiping speed and length
US9600175B2 (en) * 2008-07-14 2017-03-21 Sony Corporation Method and system for classification sign display
JP2010224658A (ja) * 2009-03-19 2010-10-07 Smk Corp 操作入力装置
JP4522475B1 (ja) * 2009-03-19 2010-08-11 Smk株式会社 操作入力装置、制御方法、およびプログラム
US8539386B2 (en) * 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
US20110219323A1 (en) * 2010-03-03 2011-09-08 Samsung Electronics Co., Ltd. Mobile device and method for letter input based on cut or copy and paste
JP5717510B2 (ja) * 2010-04-08 2015-05-13 キヤノン株式会社 撮像装置、その制御方法および記憶媒体
US20130212541A1 (en) * 2010-06-01 2013-08-15 Nokia Corporation Method, a device and a system for receiving user input
KR101726607B1 (ko) * 2010-10-19 2017-04-13 삼성전자주식회사 휴대 단말기의 화면 제어 방법 및 장치
US8836640B2 (en) * 2010-12-30 2014-09-16 Screenovate Technologies Ltd. System and method for generating a representative computerized display of a user's interactions with a touchscreen based hand held device on a gazed-at screen
KR101857571B1 (ko) * 2011-07-19 2018-05-14 삼성전자 주식회사 아이템 이동 방법 및 장치
TWI493438B (zh) * 2012-01-09 2015-07-21 Amtran Technology Co Ltd 觸控方法
KR102096070B1 (ko) * 2012-06-22 2020-04-14 삼성전자주식회사 터치 인식 개선 방법 및 그 전자 장치
JP5792706B2 (ja) * 2012-11-30 2015-10-14 株式会社スクウェア・エニックス リズムゲーム制御装置、およびリズムゲーム制御プログラム
JP6029453B2 (ja) * 2012-12-21 2016-11-24 京セラ株式会社 携帯端末、カーソル表示制御プログラム、カーソル表示制御方法、カーソル発生制御プログラム、カーソル発生制御方法、アイコン表示プログラムおよびアイコン表示方法
US9160294B2 (en) * 2013-03-05 2015-10-13 Thomas Alexander Allen Virtual pre-amplifier and effects system and methods for customizing and using the same in live performances
KR20140139647A (ko) * 2013-05-27 2014-12-08 삼성전자주식회사 휴대단말기에서 아이콘을 재배열하는 방법 및 장치
US9612736B2 (en) * 2013-07-17 2017-04-04 Korea Advanced Institute Of Science And Technology User interface method and apparatus using successive touches
US9111076B2 (en) * 2013-11-20 2015-08-18 Lg Electronics Inc. Mobile terminal and control method thereof
JP2015106165A (ja) * 2013-11-28 2015-06-08 京セラ株式会社 電子機器
JP6384053B2 (ja) * 2014-01-28 2018-09-05 アイシン・エィ・ダブリュ株式会社 後写鏡角度設定システム、後写鏡角度設定方法および後写鏡角度設定プログラム
KR102222250B1 (ko) * 2014-08-12 2021-03-04 삼성전자주식회사 참조 지점을 이용한 경로 안내 제공 방법 및 그 장치
JP5869711B1 (ja) * 2015-04-07 2016-02-24 株式会社メディアドゥ コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法
US20170003837A1 (en) * 2015-06-30 2017-01-05 Integrated Computer Solutions, Inc. Systems and Methods for Generating, Presenting, and Adjusting Adjustable Virtual Keyboards
JP6202082B2 (ja) * 2015-12-22 2017-09-27 ダイキン工業株式会社 設定値変更装置
WO2017184809A1 (en) * 2016-04-20 2017-10-26 Nextinput, Inc. Force-sensitive electronic device
US10375619B2 (en) * 2017-04-21 2019-08-06 International Business Machines Corporation Methods and systems for managing mobile devices with reference points
JP7023621B2 (ja) * 2017-06-05 2022-02-22 キヤノン株式会社 電子機器およびその制御方法
JP6719087B2 (ja) * 2017-12-08 2020-07-08 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
JP2020126208A (ja) * 2019-02-06 2020-08-20 オリンパス株式会社 3次元画像表示方法、3次元画像表示装置、およびプログラム
JP7377088B2 (ja) * 2019-12-10 2023-11-09 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100156813A1 (en) 2008-12-22 2010-06-24 Palm, Inc. Touch-Sensitive Display Screen With Absolute And Relative Input Modes
JP2018013745A (ja) 2016-07-23 2018-01-25 キヤノン株式会社 電子機器およびその制御方法
JP2019170802A (ja) 2018-03-29 2019-10-10 株式会社コナミデジタルエンタテインメント プログラムおよび情報処理装置
WO2019206670A1 (en) 2018-04-23 2019-10-31 Koninklijke Philips N.V. Precise positioning of a marker on a display

Also Published As

Publication number Publication date
US20210173536A1 (en) 2021-06-10
JP2021092958A (ja) 2021-06-17
US11269499B2 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
JP6748582B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記録媒体
JP6667294B2 (ja) 電子機器およびその制御方法
CN107037920B (zh) 电子设备及其控制方法
KR101653602B1 (ko) 표시 제어장치 및 그 제어 방법
WO2018021165A4 (ja) 電子機器およびその制御方法
US10447918B2 (en) Imaging control apparatus and method for controlling the same
JP2018117186A (ja) 撮像制御装置、撮像装置、制御方法、プログラム、及び記憶媒体
WO2020255675A1 (ja) 電子機器およびその制御方法
JP6833535B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP6860368B2 (ja) 電子機器、その制御方法、プログラム及び記憶媒体
JP7187190B2 (ja) 電子機器、および電子機器の制御方法、プログラム、記憶媒体
US11184528B2 (en) Electronic apparatus, control method therefor, and non-transitory computer readable medium
US10419678B2 (en) Imaging control apparatus and method for controlling the same
JP7465129B2 (ja) 撮像装置およびその制御方法、プログラム並びに記憶媒体
JP7377088B2 (ja) 電子機器およびその制御方法、プログラム、並びに記憶媒体
JP7336266B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP6779777B2 (ja) 撮像制御装置およびその制御方法
JP7433854B2 (ja) 撮像制御装置、撮像制御方法、プログラム、記憶媒体
JP7466304B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP7446845B2 (ja) 撮像制御装置、撮像制御装置の制御方法、プログラム、および記憶媒体
JP7071197B2 (ja) 撮像装置及びその制御方法
JP7210158B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記録媒体
JP6855317B2 (ja) 撮像装置、撮像装置の制御方法、プログラム、及び、記録媒体
JP2021085979A (ja) 電子機器及びその制御方法、プログラム、記憶媒体
JP2021068168A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231027

R151 Written notification of patent or utility model registration

Ref document number: 7377088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151