JP2017102626A - 電子機器およびその制御方法 - Google Patents

電子機器およびその制御方法 Download PDF

Info

Publication number
JP2017102626A
JP2017102626A JP2015234300A JP2015234300A JP2017102626A JP 2017102626 A JP2017102626 A JP 2017102626A JP 2015234300 A JP2015234300 A JP 2015234300A JP 2015234300 A JP2015234300 A JP 2015234300A JP 2017102626 A JP2017102626 A JP 2017102626A
Authority
JP
Japan
Prior art keywords
touch
moving
released
movement operation
touch detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015234300A
Other languages
English (en)
Other versions
JP6590666B2 (ja
Inventor
中川 浩一
Koichi Nakagawa
浩一 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015234300A priority Critical patent/JP6590666B2/ja
Priority to US15/360,532 priority patent/US10523862B2/en
Priority to CN201611086222.5A priority patent/CN106817537B/zh
Priority to KR1020160159769A priority patent/KR102075379B1/ko
Publication of JP2017102626A publication Critical patent/JP2017102626A/ja
Application granted granted Critical
Publication of JP6590666B2 publication Critical patent/JP6590666B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】 本発明の目的は、ユーザが指定位置に基づいて行われる特定の処理についての、指定位置の移動中に、ユーザの意図しない位置に特定の処理がされてしまう可能性を低減させることである。
【解決手段】 タッチ検出手段と、タッチ位置を移動する移動操作に応じて、表示部のいずれかの位置を選択する選択手段と、前記選択された位置に基づく特定の処理を行うように制御する制御手段であって、第一の移動操作に続いて、前記タッチ検出面の端のを含む所定の領域からタッチが離されても、前記第一の移動操作で選択された位置に前記特定の処理を行わず、さらに、第二の移動操作に応じて、前記第一の移動操作で選択された位置から選択する位置を移動させ、前記第一の移動操作に続いて前記所定の領域ではない領域からタッチが離されると、前記第一の移動操作で選択された位置に前記特定の処理を行うように制御する制御手段とを有することを特徴とする。
【選択図】 図3

Description

本発明は、電子機器およびその制御方法に関し、特にタッチパネルを用いて、特定の処理を行う位置を設定する技術に関する。
近年、タッチパネルへの操作によってユーザが選択位置の変更や設定等を行うことがある。ユーザがファインダ内の表示部を覗きながら、撮像装置の背面にあるタッチパネルを操作することで、AF(自動合焦)位置を指定する方法が提案されている。特許文献1には、ファインダ内の表示部を覗いて背面モニタへの操作をする場合に、背面モニタでのタッチ位置の移動に応じてAF位置を変更可能であり、さらに背面モニタからスライドアウトでAF位置が初期化されることが開示されている。
特開2012−203143号公報
ファインダを覗きながら撮像装置の背面にあるタッチパネルへのタッチ操作を行う場合に、ユーザはタッチパネルでのタッチの様子を確認することは容易でない。つまり、ファインダを覗いた状態ではタッチパネルのどの位置にタッチをしているのか正確に把握できていない可能性が高い。特許文献1の方法ではAF位置の変更を行うためにAF位置を移動する場合に、ユーザがタッチパネルでのタッチ位置が分からずに、意図せずタッチ領域からタッチ位置が外れてしまった場合に、設定中のAF位置が意図しない位置になってしまう可能性がある。このように、ユーザが位置の変更や設定等を行う場合に、意図せずタッチパネルからスライドアウトしてしまうと、意図しない位置に特定の処理がされてしまう可能性がある。
本発明は、上記の課題に鑑み、ユーザが指定位置に基づいて行われる特定の処理についての、指定位置の移動中に、ユーザの意図しない位置に特定の処理がされてしまう可能性を低減させた電子機器の提供を目的とする。
上記目的を達成するために、本発明の電子機器は、タッチ検出面に対するタッチ操作を検出可能なタッチ検出手段と、前記タッチ検出手段により検出されたタッチ位置を移動する移動操作に応じて、表示部のうちいずれかの位置を選択する選択手段と、前記選択手段により選択された位置に基づく特定の処理を行うように制御する制御手段であって、第一の移動操作に続いて、前記タッチ検出面のうち前記タッチ検出面の端の領域を含む所定の領域からタッチが離されても、前記第一の移動操作に応じて選択された位置に基づいた前記特定の処理を行わず、さらに、第二の移動操作がされたことに応じて、前記表示部のうち前記第一の移動操作に応じて選択された位置から選択する位置を移動させ、前記第一の移動操作に続いて、前記タッチ検出面のうち前記所定の領域ではない領域からタッチが離されると、前記第一の移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御する制御手段とを有することを特徴とする。
本発明によれば、ユーザが指定位置に基づいて行われる特定の処理についての、指定位置の移動中に、ユーザの意図しない位置に特定の処理がされてしまう可能性を低減させることができる。
本実施形態の構成を適用可能な装置の一例としてのデジタルカメラの外観図 本実施形態の構成を適用可能な装置の一例としてのデジタルカメラの構成例を示すブロック図 第一実施形態におけるAF位置移動処理を示すフローチャート タッチパネル上でAF位置を移動する様子を示す図 第一実施形態におけるAF枠、移動中AF枠の一例を示す図 第一実施形態の変形例におけるAF枠、移動中AF枠の一例を示す図
<第1実施形態>
以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)、(b)に第一実施形態を適用可能な撮像制御装置の一例としてのデジタルカメラの外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。表示部28は画像や各種情報を表示する表示部であり、タッチ操作を受付可能(タッチ検出可能)なタッチパネル70aが重畳して設けられている。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための(切替可能な)操作部である。端子カバー40は外部機器とデジタルカメラ100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は操作部70に含まれる回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は、操作部70に含まれる回転操作部材であり、選択枠の移動や画像送りなどを行える。十字キー74は操作部70に含まれ、上、下、左、右部分をそれぞれ押し込み可能な十字キー(4方向キー)である。十字キー74の押した部分に応じた操作が可能である。SETボタン75は操作部70に含まれ、押しボタンであり、主に選択項目の決定などに用いられる。LVボタン(ライブビューボタン)78は操作部70に含まれ、静止画撮影モードにおいては、表示部28におけるライブビュー(以下、LV)表示のONとOFFを切り替えるボタンである。動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。再生ボタン79は操作部70に含まれ、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。
グリップ部90は、デジタルカメラ100を保持しながら操作をするための保持部(把持部)であり、グリップ部90側には操作部70がある。
ユーザは、ファインダ16を覗きこむと、光学ファインダ(OVF)を通して被写体を見ることができる(視認可能)。接眼センサ77は、物体が1センチや2センチ等の所定距離より近い距離(所定距離以内)に接近していることを検知するための物体検知手段(接眼検知)である。例えばユーザがファインダ内表示部76を見ようとファインダ16に目を近付け(接眼部16aを覗きこむようにする)、接眼センサ77が物体(目)の接近を検知すると、OVFを通して見える被写体に、ファインダ内表示部76の表示が重畳して見える。また、接眼センサ77は所定距離以上物体(目)が離れたことを検知すると、ファインダ内表示部76からアイテム等の表示を非表示にする。また、ユーザがファインダ16を覗きこむと、表示部28は非表示になるが、AF位置の設定等のためのタッチパネル70aへのタッチ操作は受け付けることができる。このとき、グリップ部90を保持しシャッターボタン61に指をかけた状態で、タッチパネル70aへタッチ操作をすると、ファインダ内表示部76の表示(とOVFを通して見える被写体)を見ながら、AF位置の移動操作と撮影指示とを素早く行うことができる。ただし、ファインダ16の表示は、OVFでなくても、EVF(電子ビューファインダ)でもよい。
レンズユニット150は、デジタルカメラ100に取り外し可能なレンズ部である。
図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。
図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100側と通信を行う為の通信端子であり、通信端子10はデジタルカメラ100がレンズユニット150側と通信を行う為の通信端子である。
AEセンサー17は、レンズユニット150、クイックリターンミラー12を通し、フォーカシングスクリーン13上に結像した被写体(像)の輝度を測光する。
クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ103から入射した光束をファインダ16側と撮像部22側とに切替えるためのミラーである。ミラー12は通常時はファインダ16へと光束を導くよう反射させるように配されているが、撮影が行われる場合やライブビュー表示の場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。
撮影者は、ペンタプリズム14とファインダ16を介して、フォーカシングスクリーン13上に結合された像を観察することで、レンズユニット150を通して得た被写体の光学像の焦点状態や構図の確認が可能となる。
ファインダ内表示部76は、レンズ103からファインダ16までの光路上に配置された表示部であり、システム制御部50を介して、現在AF位置を示す枠や、カメラの設定状態を表すアイコン等(アイテム、マーク、記号等)が表示される。フォーカシングスクリーン13とファインダ内表示部76は近接した位置にあり、それぞれの表示を一度に確認できるように重ねて配置される。 焦点検出部11(AFセンサー)は、撮像画像よりシステム制御部50にデフォーカス量情報を出力する位相差検出方式のAFセンサーである。システム制御部50は通信端子6,10を介して、レンズユニット150を制御可能であり、AF駆動回路3を介して、デフォーカス量情報に基づいて位相差AFを行い、レンズ103の位置を変位させることで位相差AFを行う(AF実行可能)。AFの方法は、位相差AFでなくてもよく、コントラストAFでもよい。
撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
表示部28は画像を表示するための背面モニタであり、画像を表示するディスプレイであれば液晶方式に限らず、有機ELなど他の方式のディスプレイであってもよい。
A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28やファインダ内表示部76に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28やファインダ内表示部76により表示される。表示部28やファインダ内表示部76は、LCD等の表示器上に、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ変換する。さらに、表示部28(ファインダ内の表示がEVFである場合にはEVF)に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示)を行える。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開され、RAMが用いられる。また、システム制御部50はメモリ32、D/A変換器19、表示部28、ファインダ内表示部76等を制御することにより表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
モード切替スイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。
モード切替スイッチ60は、システム制御部50の動作モードを撮影モード、再生モード等のいずれかに切り替える。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、メニュー画面に含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、メニュー画面に一旦切り換えた後に、メニュー画面に含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。操作部70には、少なくとも以下の操作部が含まれる。シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、LVボタン78、再生ボタン79。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源スイッチ72は、電源のONとOFFの切替操作を受け付ける。
電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(スルー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信(受信可能)することができる。
なお操作部70の一つとして、表示部28に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。このように、タッチ操作が行われた位置と表示部28の位置とを対応づけて指示を受け付ける設定を絶対座標設定という。
また、絶対座標設定とは異なり、表示部28の所定の位置から、タッチ座標ではなく、タッチ操作の移動量や移動方向等に応じて移動した位置(移動操作に応じた量移動した位置)への指示を受け付ける設定を相対座標設定という。
ファインダ内表示部76を見ながら操作をする場合には、絶対座標設定でタッチ操作をすると、タッチパネル70a(表示部28)を見ないでタッチすることになり、所望の位置からずれた位置に誤ってタッチ操作をしてしまう可能性が高い。一方で、相対座標設定でタッチ操作をすると、タッチ操作の位置ではなく移動量で移動指示をするので、ファインダ内表示部76に表示される操作対象の位置を見ながら所望の位置まで、移動する操作をすれば所望の位置への指示をすることができる。絶対座標設定と相対座標設定はメニュー画面のタッチパッド設定において設定することができる。相対座標設定の場合に、表示部28をユーザが見ている状態で操作をすると、タッチ位置と指示位置がずれて操作性がよくない可能性がある。よって、接眼センサ77が物体の接近を検知した時に相対座標でのタッチ操作を受け付けると、表示部28をみている場合にもファインダ内表示部76を見ている場合にも操作性がよい。なお、表示部28に画像を表示しないが、タッチパネル70aがタッチ操作を受け付ける機能をタッチパッド機能と称する。
システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネルにタッチしていなかった指やペンが新たにタッチパネルにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネルを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネルを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネルへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネルに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。タッチムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。タッチオンが検出されてからタッチムーブせずに、素早タッチアップする一連の操作をタップという。またタッチパネル上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
図3を用いて、本実施形態におけるAF位置移動処理について説明する。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。なお、この処理は、デジタルカメラ100に電源が入り、撮影モードに切り替えられると開始する。また、本実施形態はユーザがファインダ内表示部76を覗いた状態(接眼状態)で、タッチパネル70aへの操作をしているとして、相対座標でユーザのタッチ操作を受け付けるとする。しかしこれに限らず、絶対座標でユーザのタッチ操作を受け付ける場合や、ユーザが表示部28以外の表示部を見ながらタッチパネル70aにおいて操作をする場合でも適用可能である。また、本実施形態で説明するAF座標やAF枠の表示される位置は、撮像画像範囲内のうちAF処理をする被写体のある位置を示しており、設定した位置にある被写体に合焦するようにAF処理を行う。
S301では、システム制御部50は、AF座標Sを、ユーザに以前に設定された座標からリセットし、リセットした座標をAF座標Sとしてシステムメモリ52に記録する。また、ファインダ内表示部76のリセットしたAF座標Sに図5(a)のようにAF枠501を表示する。リセットされる座標は、撮像画像の中央や、図5(a)のように検出された顔のある座標である。図5(a)〜(h)は、ファインダ内表示部76におけるAF枠と移動中AF枠の表示例を示しており、図5(a)は、AF枠501の表示例を示している。S301ではAF枠501が表示される位置にAF処理をしてもよく、このタイミングでは行わずに後述する撮影指示のタイミングでAF処理をしてもよい。また、このときのAF座標Sは、実際にAF処理を行う位置として設定されている位置である。
S302では、システム制御部50は、タッチパネル70a(タッチ検出面)へのタッチダウンがされたか否かを判定する。タッチダウンがされたと判定した場合は、S306へ進み、そうでない場合は、S303へ進む。
S303では、システム制御部50は、シャッターボタン61の押下によって撮影指示がされたか否かを判定する。撮影指示がされたと判定した場合は、S304へ進み、そうでない場合は、S302へ戻る。
S304では、システム制御部50は、現在記録されているAF座標SでAF処理をする。AF処理はSW1の指示(シャッターボタン61の半押し)されたことに応じて開始してもよい。SW1に応じてAF処理をする場合には、SW2の指示をして撮影を行わなくても(画像が記録されることなく)、SW1でAF処理の結果をファインダ内表示部76において確認することができる。
S305では、システム制御部50は、撮影処理を行う。つまり、撮像部22により撮像された画像であり、S304でのAF処理がされた画像を記録媒体200に記録する。このとき、静止画の場合には、AF座標Sの位置にAF処理をした画像が記録される。動画の場合には、AF座標Sの位置にAF処理をした状態で撮影が開始されるが、撮影の途中でAF位置を移動することができる。
S306では、システム制御部50は、ファインダ内表示部76のAF座標Sに移動中AF枠502を表示し、AF枠を非表示にする。図5(b)はタッチダウンを検出した際のファインダ内表示部76の表示例である。図5(b)に示すように、移動中AF枠502をAF座標Sに表示し、図5(a)のタッチダウン検出前に表示していたAF枠501を非表示にする。あるいは、AF枠501の表示形態を変更して移動中AF枠502とする。タッチダウンが検出された時のAF座標SをAF座標Snとして記録しておく。
S307では、システム制御部50は、S302で検出されたタッチダウンのタッチパネル70a上の座標(タッチ座標O(Xo、Yo))、もしくは最新のS311で検出されたタッチ座標Pmをタッチ座標Pm−1としてシステムメモリ52に記録する。図4(a)に示すように、タッチダウンが検出された座標、もしくはタッチムーブ前にタッチしていた座標Pmをタッチ座標Pm−1(Xm−1、Ym−1)とする。タッチパネル70aの座標は、図4(a)に示すように、横方向にX軸、縦方向にY軸が設けられ、左上に原点が設けられる。図4は、タッチパネル70aへユーザが操作をする様子を示した図である。図4の外枠401はタッチ操作を受け付けないが、タッチパネル70aと同じ表面の膜でおおわれた領域であり、周囲を囲うように設けられている。タッチパネル70aの端の領域まで指でタッチ操作が行えるように、タッチパネル70aの領域(タッチ可能範囲)とは起伏(凸凹)がない。タッチ可能範囲(0≦X≦A、0≦Y≦B)には、タッチパネル70aの辺から所定距離以内の領域である端の領域402bと、端の領域402bに含まれない領域402a(端の領域以外)に分けられる。端の領域402bは、あと少し端の方向へタッチムーブが行われると、タッチ可能範囲から(外枠401へ)出てしまう領域であり、領域402aは端の領域402bに囲まれた領域である。端の領域402bの範囲については後述するが、このように端の領域402bを設けることでタッチパネル70aへのタッチムーブ中には端の領域402bを通過しなければ外枠401側に移動しない。
S308では、システム制御部50は、タッチパネル70aでのタッチした位置を移動するタッチムーブが検出されたか否かを判定する。タッチムーブが検出されたと判定した場合は、S307へ進み、そうでない場合は、S324へ進む。S308において、例えば5ミリや1センチ以上ユーザのタッチ位置が移動したことに応じてタッチムーブとして検出するようにしてもよい。ユーザがタッチ位置の移動をしていないが、ユーザの指がわずかに動いたために、タッチムーブとして判定しにくくする。タッチ操作が複数の位置で検出された場合には、タッチムーブが検出された方のタッチ位置を以下の処理において使用し、タッチ位置が移動しないタッチ操作のタッチ位置は使用しないようにしてもよい。
S309では、システム制御部50は、時間Tをリセットして、システムメモリ52に記録する。時間Tを計測していない場合にはこの処理は行わない。時間Tは、後述するタッチパネル70aの端の領域402bからタッチアップした際に直前に移動してからタッチアップされたのか、所定時間以上タッチ位置が停止した状態が続いてからタッチアップされたのかを判定するための時間である。つまり、ユーザがタッチムーブをしている途中に、端の領域402bをタッチしている(通過している)ことに気付かずに、外枠401側までタッチムーブして、結果的にタッチアップとして判定されてしまったのかを判定する(後述するS326)。時間Tを計測することにより、タッチムーブをしている途中に意図せず、タッチパネル70aの外枠401に移動してしまった場合にはユーザの意図しないタッチアップとして、AF位置の移動を無効にすることができる。また、所定時間以上端の領域402bにとどまってからタッチアップをした場合には、ユーザが慎重に操作を行ったとしてAF位置の移動を有効にする。
S310では、システム制御部50は、S309でリセットした時間Tを、システムタイマー53によって計測を開始する。
S311では、システム制御部50は、タッチパネル70aで現在タッチしている点(タッチ点)のタッチ座標Pmを取得し、システムメモリ52に記録する。図4(b)に示すように、タッチ座標Oから移動し(タッチムーブし)、現在タッチしている点がタッチ座標Pm(Xm、Ym)となる。
S312では、システム制御部50は、S307でシステムメモリ52に記録したタッチ座標Pm−1と、S311で取得したタッチ座標Pmから相対座標C(Xc、Yc)を算出する。相対座標Cは、タッチムーブによるタッチ操作の移動量を示す座標であり、タッチ座標Pmからタッチ座標Pm−1を引いた座標である。つまり、(Xc、Yc)=((Xm−(Xm−1))、(Ym−(Ym−1)))で表わされる。
S313では、システム制御部50は、AF座標S´を更新し、システムメモリ52に記録する。AF座標S´は、最新のS313で記録されたAF座標S´にS312で算出された相対座標Cを足し合わせた座標である。新しく求められるAF座標S´を(Xss´、Yss´)として表示すると、(Xss´、Yss´)=((Xs´+Xc)、(Ys´+Yc))となり、求められた(Xss´、Yss´)が新たにAF座標S´(Xs´、Ys´)として更新される。ただし、S301の処理をしてからS313の処理を一度もしていない場合には、S301で設定されたAF座標Sに相対座標Cを足し合わせてAF座標S´を求める。AF座標S´は、AF座標Sとは異なり実際にAF処理を行う位置ではなく、AF座標Sとして設定される座標の候補である移動中の座標を示す。
S314では、システム制御部50は、ファインダ内表示部76のS313で記録したAF座標S´の位置に移動中AF枠502を表示する。図5(c)は更新されたAF座標S´に移動中AF枠502が表示されている一例であり、図4(b)のタッチムーブ操作に応じて移動した移動中AF枠502を示している。ただし、図5(c)に示される矢印は移動中AF枠502の移動の経緯を分かりやすく示すためのものであり、実際にファインダ内表示部76に表示されるわけではない。S314においては図5(c)に示すように、タッチムーブされた方向と移動長さ分、もともとのAF座標S´から移動した位置に移動中AF枠502を表示する。
S315〜S323の処理は、タッチパネル70aにおいてタッチ操作を受付可能なタッチ可能範囲(0≦X≦A、0≦Y≦B)から意図せず、外枠401までタッチムーブしないよう警告をするための通知線(ガイド)を表示する処理である。なお、ユーザが指を画面上から離していなくても、タッチ可能範囲から外側に移動してしまうと、タッチパネル70aからタッチアップしたものと判断される。ユーザは、ファインダ内表示部76を覗きながらタッチ操作を行っているため、タッチパネル70aでタッチ位置は認識しにくいが、タッチ点がタッチパネル70aの縁に近付いている警告をファインダ内表示部76に表示することで認識することができる。端の領域402bの判定は、タッチパネル70aでのタッチ座標Pmが、0≦Xm≦a、(A−a)≦Xm≦A、0≦Ym≦b、(B−b)≦Ym≦Bのいずれかを満たす。S315、S318、S320、S322では、どの辺(縁、一辺)に近付いているかを判定する。
S315では、システム制御部50は、ファインダ内表示部76に表示されている後述する通知線を非表示にする。通知線が表示されていない場合には、この処理は行わない。
S316では、システム制御部50は、S311で記録されたタッチパネル70aでのタッチ座標PmのX座標が0≦Xm≦aを満たすか否かを判定する。aは、例えば、0.5センチや1センチといった、ユーザがこのままタッチムーブを続けるとタッチ可能範囲(タッチパネル70a)からタッチ点が出てしまう可能性の高い距離に設定してもよい。つまり、タッチ点がタッチパネル70aの左側の辺(aの幅)に近づいたか否かを判定する。タッチ座標PmのX座標が0≦Xm≦aを満たすと判定した場合は、S317へ進み、そうでない場合は、S318へ進む。
S317では、システム制御部50は、ファインダ内表示部76に移動中AF枠502の左辺に沿って通知線を表示する。図5(d)は、S316の判定がYesの場合のファインダ内表示部76の表示例であり、S317では、図5(d)のように移動中AF枠502の左辺に沿って通知線503を表示する。
S318では、システム制御部50は、S311で記録されたタッチ座標PmのX座標が(A−a)≦Xm≦Aを満たすか否かを判定する。つまり、タッチ点がタッチパネル70aの右側の辺(aの幅)に近づいたか否かを判定する。タッチ座標PmのX座標が(A−a)≦Xm≦Aを満たすと判定した場合は、S319へ進み、そうでない場合は、S320へ進む。
S319では、システム制御部50は、ファインダ内表示部76に表示される移動中AF枠502の右辺に沿って通知線を表示する。図5(e)は、S318の判定がYesの場合のファインダ内表示部76の表示例であり、S319では、図5(e)のように移動中AF枠502の右辺に沿って通知線504を表示する。
S320では、システム制御部50は、S311で記録されたタッチパネル70a上のタッチ座標PmのY座標が0≦Ym≦bを満たすか否かを判定する。bは、例えば、0.5センチや1センチといった、ユーザがこのままタッチムーブを続けるとタッチパネル70aのタッチ可能範囲からタッチ点が出てしまう可能性の高い距離である。つまり、タッチ点がタッチパネル70aの上側の辺(bの幅)に近づいたか否かを判定する。タッチ座標PmのY座標が0≦Ym≦bを満たすと判定した場合は、S321へ進み、そうでない場合は、S322へ進む。
S321では、システム制御部50は、ファインダ内表示部76に表示される移動中AF枠502の上辺に沿って通知線を表示する。図5(f)は、S320の判定がYesの場合のファインダ内表示部76の表示例であり、S321では、図5(f)のように移動中AF枠502の上辺に沿って通知線505を表示する。
S322では、システム制御部50は、S311で記録されたタッチパネル70a上のタッチ座標PmのY座標が(B−b)≦Ym≦Bを満たすか否かを判定する。つまり、タッチ点がタッチパネル70aの下側の辺(bの幅)に近づいたか否かを判定する。タッチ座標PmのY座標が(B−b)≦Ym≦Bを満たすと判定した場合は、S323へ進み、そうでない場合は、S324へ進む。
S323では、システム制御部50は、ファインダ内表示部76に表示される移動中AF枠502の下辺に沿って通知線を表示する。図5(g)は、S322の判定がYesの場合のファインダ内表示部76の表示例であり、S323では、図5(g)のように移動中AF枠502の下辺に沿って通知線506を表示する。
S324では、システム制御部50は、タッチパネル70aからのタッチアップが検出されたか否かを判定する。タッチアップが検出されたと判定した場合は、S325へ進み、そうでない場合は、S308へ戻り、タッチムーブの検出をする。
S325では、システム制御部50は、直前のS311で記録されたタッチパネル70a上のタッチ座標Pmが端の領域402bにあるか否かを判定する。端の領域402bの判定は、S315〜S323で示したように、タッチパネル70aでのタッチ座標Pmが、0≦Xm≦a、(A−a)≦Xm≦A、0≦Ym≦b、(B−b)≦Ym≦Bのいずれかを満たすか否かにより判定される。タッチ座標Pmが端の領域402bにあると判定された場合は、S326へ進み、そうでない場合は、S331へ進む。
S326では、システム制御部50は、S310で測定開始した時間Tが所定時間α以上経過したか否か(所定時間内であるか)を判定する。所定時間αは1.5秒や、2秒といった時間である。つまり、ユーザが端の領域402bに所定時間α以上タッチしてからタッチアップ(長時間タッチしてからタッチアップ)をしたのか、所定時間α未満のタッチでタッチアップをしたのかを判定する。端をタッチした状態で所定時間α以上経過してからタッチアップした場合には、端の領域402bではあるがユーザが意図してAF座標の指示をしたものと推定できる。一方で、端の領域をタッチしてから所定時間α未満(短時間)でタッチアップされた場合には意図せず、タッチムーブ中にタッチパネル70aの端の領域からタッチアップしてしまったと推定できる。すなわち、気付かずにタッチ位置がタッチパネル70aから外れてしまったと推定できる。時間Tが所定時間α以上経過したと判定した場合は、S331へ進み、そうでない場合は、S327へ進む。
S327では、システム制御部50は、時間Lをリセットして、システムメモリ52に記録する。時間Lを計測していない場合にはこの処理は行わない。時間Lは、タッチパネル70aの端の領域402bを所定時間α未満しかタッチせず(タッチムーブ中にタッチ可能範囲から外れてしまったため)にタッチアップした場合に、もう一度ユーザからの指示を待つ時間である。言い換えれば、S326でNoと判定された場合であっても、ユーザが操作を行わずに現在のAF座標S´の位置で良いとした場合には、所定時間経過後に現在のAF座標S´をAF座標Sとして確定(AF処理)をする。さらに言い換えれば、S326でユーザの意図しないタッチアップであったと判定してAF座標S´を確定していない状態である。よって、所定時間経過するまでに、ユーザからのタッチ操作を検出(S329)すれば、AF処理を実行することなく継続してAF座標S´の移動をすることができる。
S328では、システム制御部50は、S327でリセットした時間Lを、システムタイマー53によって計測を開始する。
S329では、システム制御部50は、タッチパネル70aへのタッチダウンが検出されたか否かを判定する。タッチダウンが検出されたと判定した場合は、S308へ進み、そうでない場合は、S330へ進む。
S330では、システム制御部50は、S327で測定開始した時間Lが所定時間β以上経過したか否かを判定する。所定時間βは2秒や、3秒といった時間である。所定時間β以上経過したと判定した場合には、S331へ進み、そうでない場合は、S329でタッチダウンを検出するまで待つ。
S331では、システム制御部50は、S317、S319、S321、S323のいずれかにおいて表示した通知線503〜506をファインダ内表示部76から非表示にする。通知線が表示されていない場合にはこの処理は行わない。
S332では、システム制御部50は、ファインダ内表示部76のうち、記録中のAF座標S´をAF座標Sとしてシステムメモリ52に記録し、AF枠501を表示する。また、移動中AF枠502を非表示にする(あるいは、移動中AF枠502の表示形態を変更してAF枠501とする)。つまり、記録中のAF座標S´が、AF処理をする位置(AF座標S)として設定される。このとき、S306で記録したAF座標Snは削除される。図5(h)には図5(d)の状態からAF座標Sが確定された場合のAF枠501の表示例を示しており、同じ座標においてAF枠を示す表示を移動中AF枠502からAF枠501に変更することでAF座標が確定されたことを示す。つまり、移動中AF枠502が表示されている場合には、実際にAF処理を行う(行っている)位置はAF位置移動操作前の位置であるが、AF枠501に表示が切り換えられると、AF枠501の表示されている位置にAF処理が行われることを示している。なお、S330においてYesと判定されてからS332の処理に進んだ場合には、AF座標をS306で記録したAF座標Snのまま変えないようにしてもよい。このように、タッチムーブ前のAF座標に戻すと、端の領域からスライドアウトした後、所定時間βにタッチ操作を行わなくても、ユーザの意図しない位置へAF位置が変更されずに済む。
S333では、システム制御部50は、記録中の(設定中の、S332で確定された)AF座標S(AF枠501の表示位置)でAF処理を行う。AF位置移動前に既にAF処理を行っていた場合には、S333においてAF処理をする位置が変わる。つまり、ピントがあう位置が変わる。図5(h)では左側に人物にピントがあっており、右側の人物にピントがあっている図5(a)の状態からピントがあう位置が変わっている。ただし、必ずしもS333でAF処理を行わなくても撮影指示に応じて記録中のAF座標SでAF処理を行うようにしてもよい。
S334では、システム制御部50は、AF位置移動処理を終了する指示がされたか否かを判定する。AF位置移動処理を終了する指示は、電源オフ、節電モード(一定時間以上無操作状態が続くと遷移)への切り替え等である。AF位置移動処理を終了する指示がされたと判定した場合には、終了し、そうでない場合にはS302へ戻る。
以上、説明した実施形態によれば、ユーザがファインダ内表示部76を覗きながらタッチパネル70aでAF位置の移動を行う場合に、意図せずタッチパネル70a上からタッチ位置が外れてしまったことによりAF位置が意図しない位置になる可能性が低減する。つまり、ユーザがファインダ内表示部76を覗いた状態で(タッチパネル70aが見えていない状態で)、移動中のAF位置が意図しない位置になってしまう可能性が低減される。また、端の領域402bからのタッチアップを検出したとしても、所定時間α以上、端の領域402bにタッチしていれば、タッチムーブ中に意図せずタッチ可能範囲から外れたのではないとして、AF位置の移動をするので、ユーザの操作性も低減させない。さらに、ユーザが意図せず端の領域402bからタッチアップしてしまった場合には、すぐにタッチ位置を確定せずに所定時間β経過するまでは、AF位置の移動を確定せず、ユーザからのタッチ操作を待つので、やり直しをすることができる。
<変形例>
変形例は、デジタルカメラ100の構成に関しては第1実施形態の図1及び図2と同様である。また、タッチパネル70aへのタッチの様子についても図4と同様であるが、図3におけるAF位置移動の処理の一部と、ファインダ内表示部76におけるAF枠の表示方法が異なる。図6を用いて第1実施形態の変形例におけるAF枠の表示形態を説明する。変形例は、第1実施形態とは異なり、タッチ位置の移動中に、移動中AF枠502を表示するだけでなく、AF位置移動をする前の位置にAF枠501を表示したままにする。また、第1実施形態では、タッチ位置がタッチパネル70aの外へ意図せず出たと判断した場合には、所定時間以内(β)に移動操作をやり直す操作を受け付け、所定時間経過すると、AF位置を変更することを説明した。変形例では、所定時間に関わらず、タッチ位置がタッチパネル70aの外へ意図せず出たと判断した場合には、AF処理を実行しない。
図3を用いて、特に、第1実施形態と変形例で異なる処理について説明する。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。なお、この処理は、デジタルカメラ100に電源が入り、撮影モードに切り替えられると開始する。
変形例におけるS301は、第1実施形態と同様の処理である。変形例のS301におけるファインダ内表示部76の表示例を示したものが図6(a)であり、AF枠501が表示されている。
変形例におけるS302〜S305の処理は、第1実施形態と同じである。
変形例におけるS306では、第1実施形態のS306の代わりに、図6(b)に示すように、移動中AF枠502を表示し、さらにAF枠501を非表示せずに表示したままにする。このように、AF位置の移動中であっても、AF座標Snとして記録されている位置にAF枠501を表示することで、AF処理が行われる(行われている)位置を把握することができる。
変形例におけるS307〜S313の処理は、第1実施形態と同じである。
変形例におけるS314では、図6(c)に示すように、求められたAF座標S´に移動中AF枠502を表示する。第1実施形態のS314とは異なり、変形例のS306でAF枠501を表示したままにしているので、現在設定されている位置(AF枠501)と、現在変更中の位置(移動中AF枠502)とが表示される。よって、ユーザは、現在の位置とこれから変更しようとしている位置とを比較しながら変更操作をすることができる。
変形例におけるS315〜S326の処理は、第1実施形態と同じである。
ただし、変形例において、S326でNoと判定された場合には、S327〜S330の処理を行わずにS302へ進む。つまり、例えば図6(c)の示す移動中AF枠502が表示されている状態で、S326においてNoと判定された場合には、タッチアップを検出したとしてもAF座標Sとして現在の移動中のAF座標S´が設定されない。また、ユーザが再びタッチパネル70aにタッチダウンし、S325でNo、またはS326でYesとなるまではAF座標Sはタッチされる前のAF座標S(直前のS306で記録されたAF座標Sn)のまま変わらない。
変形例におけるS331の処理は、第1実施形態と同じである。
変形例におけるS332では、記録中のAF座標S´に表示されるAF枠は、図6(c)に示す、移動中AF枠502の表示形態から、図6(d)に示す、AF枠501の表示形態に変わる。また、このとき、もともとのAF座標S(AF座標Snとして記録されている座標)に表示されていたAF枠501は非表示になる。
以上、説明した実施形態によれば、タッチパネル上でのムーブによってAF座標Sを設定する場合に、ユーザが意図せずタッチパネル70aの領域からタッチ位置が外れてしまっても、ユーザの意図しない位置にAF座標Sの設定がされにくくなる。また、タッチ位置がタッチパネル70aの領域から外れてしまったのではなく、ユーザが意図してタッチを離した場合には、タッチアップ位置に応じてAF座標Sを設定(変更)する。すなわち、ユーザの意図的なタッチアップに応じてAF座標Sが設定され、ユーザがタッチパネル70aの領域から意図せずスライドアウト(タッチが離れた)した場合には、AF座標が設定されないので、ユーザのより意図に沿った位置へAF座標が設定される。
また、ユーザのタッチパネル70aにおけるタッチ位置が端の領域402bに入った場合には、移動中AF枠502に通知線を表示するので、ユーザはこのままタッチムーブを続けるとタッチパネル70a上からタッチ点が外れてしまうことが分かる。さらに通知線は、タッチパネル70a上のどの端の領域に近づいているかを示すので、通知線の位置に応じてユーザはタッチムーブする位置を調整することができる。
なお、通知線は移動中AF枠502の横に示す線としたが、これに限らず、移動中AF枠502のコントラストを変えたり、文字で警告を表示してもよい。または、矢印でこれ以上進むとタッチパネル70a上から外れてしまう方向を示してもよい。
また、本実施形態で説明した所定時間αとβは、動画撮影か静止画撮影かで変えてもよい。所定時間αは端からのタッチアップが意図したものであるか否かを判定するため時間であるので、動画撮影の場合には静止画の撮影の場合よりも長くして、ユーザの意図的なタッチアップであるか否かをより確実に判断するようにしてもよい。動画の記録中には、意図しない位置にAF位置が確定されると、意図しない映像が記録されることになるので、所定時間αを長く設定することでより正確に判定ができるようになる。一方で、静止画の場合には意図しない位置にAF位置が確定されたとしても、撮影指示をしなければよいので、ユーザの操作性を向上させるために所定時間αを動画の時よりも短くしてもよい。所定時間βは、タッチパネル70aの端からタッチアップをしてしまった場合に、その位置にAF位置を確定するまでの時間であるので、動画撮影の場合には静止画撮影の長くしてもよい。上述したように動画の記録中に意図しないAF位置に確定されてしまうと、意図しない映像が記録されてしまうことになるので、ユーザがAF位置の再調整を行える時間を長めに設定する。このとき、所定時間β経過のタイミングでAF位置が変更されるとユーザの意図しないタイミングでAF処理が行われる可能性がある。しかし、本実施形態で説明したようにユーザは再びタッチパネル70aにタッチをして所望のタイミングでタッチアップをすれば所望のタイミングでAF位置の移動をすることができる。静止画撮影の場合に、端からのタッチアップがユーザの意図しないものであったと判断されても意図的に行った場合には、素早くAF位置の移動(S330でYes)が行われた方が、AF位置の変更を待ってシャッターチャンスを逃す可能性が低減される。
さらに、動画の撮影中には端領域でない領域からタッチアップされてもAF座標を変更せず、静止画や撮影待機中には端領域でなければタッチアップに応じてAF座標を変更するようにしてもよい。なお、このとき、動画の撮影中であれば、タップ操作やダブルタップ操作等の決定操作によってAF座標の変更を決定してもよい。このように動画の撮影中には決定操作に応じてAF座標の変更がされるようにすると、ユーザは変更されるAF座標を確認した上で所望のタイミングでAF処理を行うようにすることができる。
また、動画の撮影中には、端ではない領域からのタッチアップに応じてAF座標を設定し、端の領域からのタッチアップに応じてはAF座標の設定をせず、静止画の場合には端の領域からのタッチアップと判定されてもAF座標の設定をしてもよい。動画の撮影中には、AF位置が意図せず変更されてしまうとユーザの意図しない位置へAFした画像が記録されてしまうことになるため、意図せず端の領域からタッチが外れてもAF座標を変更しない。一方で静止画の場合には例え意図しない位置へAF処理を行ったとしても、記録中ではないため、ユーザは記録前にAF座標を設定し直すことができる。
なお、端の領域402bの範囲のうち、タッチパネル70aの各辺に沿った左右上下の領域は以下のようにしてもよい。本実施形態では、左右の領域は各辺(左右)からaの距離以内の辺に沿った領域、上下の領域は各辺(上下)からbの距離以内の辺に沿った領域であることを説明したが、例えば左辺と右辺に沿う領域の大きさが異なっていてもよい。シャッターボタンやグリップ部(把持部)がタッチパネル70aより右側(被写体を観察するユーザから見て)にある場合は、タッチパネル70aの右辺(右方向)や下辺(下方向)に向けてタッチムーブを行いやすいため、勢いよくタッチムーブする可能性がある。勢いよくタッチムーブをすると、端の領域402bに入ったあと、すぐに、タッチ位置がタッチパネル70aから外れてしまう可能性が高い。そこで、より早くユーザが端に近付いていることに気付くように、右辺からaよりも長い距離の範囲(下辺からbよりも長い距離の範囲)を端の領域402bに含めるようにすると通知線が早めに表示される。このようにユーザがよりタッチムーブのしやすい領域では、端の領域402bに含まれる領域の幅を広くすることで、意図せずタッチパネル70aからタッチ位置が外れてしまう可能性が低減される。このとき、端の領域402bの範囲は、0≦Xm≦a、(A−aa(>a))≦Xm≦A、0≦Ym≦b、(B−bb(>b))≦Ym≦Bとなる。
また、タッチパネル70aの端から意図せずタッチムーブ中にタッチアップしてしまう以外にも(端でなくても)、タッチムーブ中に意図せずタッチアップしてしまうような場合にも本実施形態は有効である。タッチしているユーザの指が十分に届かずにタッチムーブをしていると途中で指が離れてしまうような場合に、すぐにAF処理等を実行しないようにするとよい。例えば、上辺(上方向)、左辺(左方向)(タッチムーブしやすい方向と反対方向)へのタッチムーブでは、ユーザが移動しようとした距離タッチムーブする前に、指がタッチパネル70aをかするような操作になり、タッチアップしてしまう可能性が高い。よって、上辺に沿った領域や、左辺に沿った領域では、端の領域402bに含まれる領域の幅を広くすると、上方向や左方向のタッチムーブ中に意図せずタッチアップしてもすぐに処理が実行される可能性が低下する。
または、タッチムーブの方向によって、タッチアップによってすぐに処理を実行するかを判断してもよい。すなわち、上方向や左方向へのタッチムーブから停止せずに(T≦αで)タッチアップした場合には、タッチ位置に関わらずS327に進み、すぐにはAF座標の設定(及びAF処理)をしないようにしてもよい。一方、下方向や右方向へのタッチムーブから停止せず(T≦α)にタッチアップした場合には、タッチアップした際のタッチ位置が右端((A−a)≦Xm≦A)、または下端((B−b)≦Ym≦B)の場合にS327に進む。そうでない場合(タッチムーブのしにくい方向へのタッチムーブ中にタッチアップした場合)にはS331に進みすぐにAF座標の設定(及び設定されたAF座標の位置へのAF処理)を開始する。
また、ファインダ内表示部76を覗いていない場合には、タッチパネル70a(表示部28)への表示をしてタッチパネル70aへの操作を絶対座標で受け付け、ファインダ内表示部76を覗いている場合いは、相対座標で受け付けるようにしてもよい。さらに、ファインダ内表示部76を覗いていない場合には、タッチパネル70aへ撮像画像やAF枠の表示をしてもよい。このとき、ユーザがファインダ内表示部76を覗いておらず表示部28を見ている場合には、タッチアップ位置に関わらず(端の領域であっても)タッチアップに応じてAF座標の位置を変更(設定)する。
なお、上述の各種実施形態では、端の領域402bからタッチアップがあった場合に、直前にタッチムーブが行われていたのか、ユーザが意図的にタッチアップをしたのかを判定するために所定時間Tを計測したが、タッチアップの位置で判定をしてもよい。つまり、外枠401から所定距離以内(例えば2ミリ以内等)でタッチアップが検出された場合には、タッチムーブ中にタッチアップしたと判定してもよい。
なお、上述の各種実施形態では、AF処理を行う位置を移動する操作について説明をしたが、これに限らず様々な処理を行う位置(領域)を設定(選択)に適用可能である。例えば、特定の人物の顔に合焦する顔AF枠の選択や、拡大位置(ズームイン、ズームアウト)の選択等に適用可能である。さらに、AE(オートエクスポージャー、自動露出設定)、WB(ホワイトバランス)といった処理を行う際に、処理を行う際の基準となる被写体や位置や領域を選択する場合にも適用可能である。また、追尾対象や、色追尾等の選択をする場合においても適用可能である。
なお、システム制御部50が行うものとして説明した上述の各フローチャートの制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
上述した各種実施形態においては、本発明をデジタルカメラ100に適用した場合を例にして説明した。しかし、これはこの例に限定されず、AF処理、AE処理、AWB処理といった指定位置に基づいた処理を行う位置を移動する制御を行うことができる電子機器であれば適用可能である。即ち、本発明はパーソナルコンピュータ(PC)や、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレットPC、スマートフォン、家電装置等に適用可能である。また、デジタルカメラ等のAF情報を有線または無線通信を介して受信して表示し、リモートでデジタルカメラ(ネットワークカメラを含む)を制御するスマートフォンやタブレットPC、デスクトップPCなどの装置にも適用可能である。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。

Claims (30)

  1. タッチ検出面に対するタッチ操作を検出可能なタッチ検出手段と、
    前記タッチ検出手段により検出されたタッチ位置を移動する移動操作に応じて、表示部のうちいずれかの位置を選択する選択手段と、
    前記選択手段により選択された位置に基づく特定の処理を行うように制御する制御手段であって、
    第一の移動操作に続いて、前記タッチ検出面のうち前記タッチ検出面の端の領域を含む所定の領域からタッチが離されても、前記第一の移動操作に応じて選択された位置に基づいた前記特定の処理を行わず、さらに、第二の移動操作がされたことに応じて、前記表示部のうち前記第一の移動操作に応じて選択された位置から選択する位置を移動させ、
    前記第一の移動操作に続いて、前記タッチ検出面のうち前記所定の領域ではない領域からタッチが離されると、前記第一の移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御する制御手段とを有することを特徴とする電子機器。
  2. 前記制御手段は、前記第一の移動操作に続いて、前記所定の領域からタッチが離された後、該タッチが離されてからタッチ操作が検出されないまま所定時間経過したことに応じて、前記第一の移動操作に応じて選択された位置に基づいた前記特定の処理を行うように制御することを特徴とする請求項1に記載の電子機器。
  3. 前記制御手段は、前記第一の移動操作に続いて、前記所定の領域からタッチが離されても、前記第一の移動操作に応じて選択された位置に基づいた前記特定の処理を行わずに、前記第一の移動操作がされる前に選択されていた位置に基づく前記特定の処理を行うように制御することを特徴とする請求項1または2に記載の電子機器。
  4. タッチ検出面に対するタッチ操作を検出可能なタッチ検出手段と、
    前記タッチ検出手段により検出されたタッチ位置を移動する移動操作に応じて、表示部のうちいずれかの位置を選択する選択手段と、
    前記選択手段により選択された位置に基づく特定の処理を行うように制御する制御手段であって、
    前記移動操作に続いて、前記タッチ検出面のうち前記タッチ検出面の端の領域を含む所定の領域からタッチが離されても、該タッチが離されてから所定時間内には、前記移動操作に応じて選択された位置に基づいた前記特定の処理を行わず、前記所定時間の経過後に前記移動操作に応じて選択された位置に基づいた前記特定の処理を行い、
    前記移動操作に続いて、前記タッチ検出面のうち前記所定の領域ではない領域からタッチが離されたことに応じて、該タッチが離されてから所定時間内に、前記移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御する制御手段とを有することを特徴とする電子機器。
  5. 前記制御手段は、第一の移動操作に続いて前記所定の領域から前記第一の移動操作のタッチが離された後に、該第一の移動操作のタッチが離されてから所定時間内に開始された第二の移動操作のタッチが前記所定の領域ではない領域から離されたことに応じて、前記第一の移動操作のタッチ位置の移動と前記第二の移動操作のタッチ位置の移動とに応じて選択された位置に基づく前記特定の処理を行うように制御することを特徴とする請求項4に記載の電子機器。
  6. 前記制御手段は、タッチ位置の移動が検出されてから一定の時間内に、前記所定の領域からタッチが離されても、前記移動操作に応じて選択した位置に基づいた前記特定の処理を行わず、
    タッチ位置の移動が検出されてから前記一定の時間経過後に、前記所定の領域からタッチが離されると、前記移動操作に応じて選択した位置に基づく前記特定の処理を行うように制御することを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。
  7. 前記制御手段は、前記所定の領域においてタッチ位置を移動する操作を行っている途中に前記タッチ検出面からタッチ位置が外れてしまった場合には、前記移動操作に応じて選択した位置に基づく前記特定の処理を行わず、前記所定の領域において一定の時間、タッチ位置の移動をしなかったことに続いて前記タッチ検出面から該タッチが離されると、前記移動操作に応じて選択した位置に基づく前記特定の処理を行うように制御することを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。
  8. 前記制御手段は、撮像された動画の記録中に、移動操作に続いて、前記タッチ検出面のうち前記所定の領域からタッチが離されても、該タッチが離されてから第1の時間内には、前記移動操作に応じて選択された位置に基づく前記特定の処理を行わず、該タッチが離されてから前記第1の時間が経過したことに応じて、前記移動操作に応じて選択された位置に基づく前記所定の処理を行い、
    撮像された動画の記録中でない場合に、移動操作に続いて、前記タッチ検出面のうち前記所定の領域からタッチが離されても、該タッチが離されてから前記第1の時間よりも短い第2の時間内には、前記移動操作に応じて選択された位置に基づく前記特定の処理を行わないように制御することを特徴とすることを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。
  9. 前記制御手段は、撮像された動画の記録中である場合に、移動操作に続いて、前記タッチ検出面のうち前記所定の領域からタッチが離されても、前記移動操作に応じて選択された位置に基づく前記特定の処理を行わず、
    撮像された動画の記録中でない場合に、移動操作に続いて、前記タッチ検出面のうち前記所定の領域からタッチが離されると、前記移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御することを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。
  10. タッチ検出面に対するタッチ操作を検出可能なタッチ検出手段と、
    表示部において、前記タッチ検出手段により検出されたタッチ位置を移動する移動操作に応じた位置へ第1のマークを移動させる移動手段と、
    前記移動操作に続いて、前記タッチ検出面の端の領域を含む所定の領域からタッチが離されても、前記第1のマークを前記移動操作に応じて選択された位置に表示したままにし、
    前記移動操作に続いて、前記タッチ検出面のうち前記所定の領域ではない領域からタッチが離されると、前記第1のマークとは異なる表示形態の第2のマークを前記移動操作に応じて選択された位置に表示するように制御する制御手段とを有することを特徴とする電子機器。
  11. 前記制御手段は、前記移動操作に続いて、前記タッチ検出面のうち所定の領域からタッチが離されてから所定時間経過したことに応じて、前記第2のマークを前記移動操作に応じて選択された位置に表示するように制御することを特徴とする請求項10に記載の電子機器。
  12. 前記第2のマークは、前記移動操作が行われる前に、前記表示部のうち特定の位置に表示されており、
    前記制御手段は、前記移動操作に続いて、前記タッチ検出面のうち前記所定の領域からタッチが離されても、該タッチが離されてから所定時間は前記第2のマークを前記特定の位置に表示したままにするように制御することを特徴とする請求項10または11に記載の電子機器。
  13. 前記制御手段は、前記タッチ検出手段によりタッチ位置を移動する移動操作が検出されたことに応じて前記第1のマークを表示するように制御することを特徴とする請求項10乃至12のいずれか1項に記載の電子機器。
  14. 前記制御手段は、前記第2のマークの表示される位置に基づく特定の処理を行うように制御することを特徴とする請求項10乃至13のいずれか1項に記載の電子機器。
  15. 撮影指示手段をさらに有し、
    前記制御手段は、前記撮影指示手段による撮影指示に応じて、前記第2のマークの表示される位置に基づく特定の処理を行うように制御する請求項10乃至13のいずれか1項に記載の電子機器。
  16. 撮像手段をさらに有し、
    前記制御手段は、撮像画像に重畳して前記第1のマークを表示するように制御することを特徴する請求項10乃至15のいずれか1項に記載の電子機器。
  17. 前記制御手段は、前記タッチ検出面のうち前記所定の領域へのタッチ位置の移動を検出したことに応じて、タッチ位置が前記所定の領域にあることを示すガイドを表示するように制御することを特徴とする請求項10乃至16のいずれか1項に記載の電子機器。
  18. 前記制御手段は、前記ガイドを、前記第1のマークと共に表示することを特徴とする請求項17のいずれか1項に記載の電子機器。
  19. 前記所定の領域は、前記タッチ検出面を構成する複数の辺のうち、少なくとも第1の辺を含む第一の領域と、前記第1の辺とは異なる第2の辺を含む第二の領域とを含み、
    前記制御手段は、前記第一の領域へのタッチ位置の移動を検出したことに応じて、該タッチ位置から前記第1の辺に向かう方向を示すガイドを表示し、前記第二の領域へのタッチ位置の移動を検出したことに応じて、該タッチ位置から前記第2の辺に向かう方向を示すガイドを表示するように制御することを特徴する請求項1乃至18のいずれか1項に記載の電子機器。
  20. 前記表示部はファインダ内表示部であることを特徴する請求項1乃至19のいずれか1項に記載の電子機器。
  21. 接眼部を通して被写体を視認可能なファインダ内表示部への接眼を検知する接眼検知手段をさらに有し、
    前記制御手段は、前記ファインダ内表示部へ接眼を検知していない場合には、移動操作に続いて、タッチが離された領域が前記所定の領域であっても、該タッチが離されると、前記移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御することを特徴とする請求項1乃至20のいずれか1項に記載の電子機器。
  22. 前記所定の領域は、少なくとも前記タッチ検出面のうち、前記タッチ検出面のうちの一辺に沿った端を含む第一の領域と、前記第一の領域が沿う辺よりも、当該電子機器を把持するための把持部から遠い辺に沿った端を含む第二の領域とを含み、
    前記所定の領域のうち、前記第一の領域の幅は前記第二の領域の幅よりも広いことを特徴とする請求項1乃至21のいずれか1項に記載の電子機器。
  23. タッチ検出面に対するタッチ操作を検出可能なタッチ検出手段と、
    前記タッチ検出手段により検出されたタッチ位置を移動する移動操作に応じて、表示部のうちいずれかの位置を選択する選択手段と、
    前記選択手段により選択された位置に基づく特定の処理を行うように制御する制御手段であって、
    前記移動操作のタッチ位置の移動方向が第1の方向である場合には、該タッチが離されても、前記移動操作に応じて選択された位置に基づいた前記特定の処理を行わず、
    前記移動操作のタッチ位置の移動方向が前記第1の方向とは反対方向である第2の方向である場合には、該タッチが離されると、前記移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御する制御手段とを有することを特徴とする電子機器。
  24. 前記特定の処理は、オートフォーカス、自動露出設定、オートホワイトバランスのいずれかの処理であることを特徴とする請求項1乃至23のいずれか1項に記載の電子機器。
  25. タッチ検出面に対するタッチ操作を検出可能なタッチ検出ステップと、
    前記タッチ検出ステップにおいて検出されたタッチ位置を移動する移動操作に応じて、表示部のうちいずれかの位置を選択する選択ステップと、
    前記選択ステップにおいて選択された位置に基づく特定の処理を行うように制御する制御ステップであって、
    第一の移動操作に続いて、前記タッチ検出面のうち前記タッチ検出面の端の領域を含む所定の領域からタッチが離されても、前記第一の移動操作に応じて選択された位置に基づいた前記特定の処理を行わず、さらに、第二の移動操作がされたことに応じて、前記表示部のうち前記第一の移動操作に応じて選択された位置から選択する位置を移動させ、
    前記第一の移動操作に続いて、前記タッチ検出面のうち前記所定の領域ではない領域からタッチが離されると、前記第一の移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  26. タッチ検出面に対するタッチ操作を検出可能なタッチ検出ステップと、
    前記タッチ検出ステップにおいて検出されたタッチ位置を移動する移動操作に応じて、表示部のうちいずれかの位置を選択する選択ステップと、
    前記選択ステップにおいて選択された位置に基づく特定の処理を行うように制御する制御ステップであって、
    前記移動操作に続いて、前記タッチ検出面のうち前記タッチ検出面の端の領域を含む所定の領域からタッチが離されても、該タッチが離されてから所定時間内には、前記移動操作に応じて選択された位置に基づいた前記特定の処理を行わず、前記所定時間の経過後に前記移動操作に応じて選択された位置に基づいた前記特定の処理を行い、
    前記移動操作に続いて、前記タッチ検出面のうち前記所定の領域ではない領域からタッチが離されたことに応じて、該タッチが離されてから所定時間内に、前記移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  27. タッチ検出面に対するタッチ操作を検出可能なタッチ検出ステップと、
    表示部において、前記タッチ検出ステップにおいて検出されたタッチ位置を移動する移動操作に応じた位置へ第1のマークを移動させる移動ステップと、
    前記移動操作に続いて、前記タッチ検出面の端の領域を含む所定の領域からタッチが離されても、前記第1のマークを前記移動操作に応じて選択された位置に表示したままにし、
    前記移動操作に続いて、前記タッチ検出面のうち前記所定の領域ではない領域からタッチが離されると、前記第1のマークとは異なる表示形態の第2のマークを前記移動操作に応じて選択された位置に表示するように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  28. タッチ検出面に対するタッチ操作を検出可能なタッチ検出ステップと、
    前記タッチ検出ステップにおいて検出されたタッチ位置を移動する移動操作に応じて、表示部のうちいずれかの位置を選択する選択ステップ段と、
    前記選択ステップにおいて選択された位置に基づく特定の処理を行うように制御する制御ステップであって、
    前記移動操作のタッチ位置の移動方向が第1の方向である場合には、該タッチが離されても、前記移動操作に応じて選択された位置に基づいた前記特定の処理を行わず、
    前記移動操作のタッチ位置の移動方向が前記第1の方向とは反対方向である第2の方向である場合には、該タッチが離されると、前記移動操作に応じて選択された位置に基づく前記特定の処理を行うように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  29. コンピュータを、請求項1乃至24のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
  30. コンピュータを、請求項1乃至24のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
JP2015234300A 2015-11-30 2015-11-30 電子機器およびその制御方法 Active JP6590666B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015234300A JP6590666B2 (ja) 2015-11-30 2015-11-30 電子機器およびその制御方法
US15/360,532 US10523862B2 (en) 2015-11-30 2016-11-23 Electronic device, method, and medium for touch movement control
CN201611086222.5A CN106817537B (zh) 2015-11-30 2016-11-28 电子设备及其控制方法
KR1020160159769A KR102075379B1 (ko) 2015-11-30 2016-11-29 전자기기 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015234300A JP6590666B2 (ja) 2015-11-30 2015-11-30 電子機器およびその制御方法

Publications (2)

Publication Number Publication Date
JP2017102626A true JP2017102626A (ja) 2017-06-08
JP6590666B2 JP6590666B2 (ja) 2019-10-16

Family

ID=58778269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015234300A Active JP6590666B2 (ja) 2015-11-30 2015-11-30 電子機器およびその制御方法

Country Status (4)

Country Link
US (1) US10523862B2 (ja)
JP (1) JP6590666B2 (ja)
KR (1) KR102075379B1 (ja)
CN (1) CN106817537B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004279A (ja) * 2018-06-29 2020-01-09 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2020003666A (ja) * 2018-06-28 2020-01-09 キヤノン株式会社 電子機器及びその制御方法、プログラム、並びに記憶媒体
JP2021163182A (ja) * 2020-03-31 2021-10-11 キヤノン株式会社 電子機器およびその制御方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6614943B2 (ja) * 2015-11-30 2019-12-04 キヤノン株式会社 撮像制御装置およびその制御方法
JP7009096B2 (ja) 2017-07-06 2022-01-25 キヤノン株式会社 電子機器およびその制御方法
JP6971696B2 (ja) * 2017-08-04 2021-11-24 キヤノン株式会社 電子機器およびその制御方法
JP6961451B2 (ja) * 2017-10-12 2021-11-05 キヤノン株式会社 電子機器、その制御方法およびプログラム
KR102645340B1 (ko) 2018-02-23 2024-03-08 삼성전자주식회사 전자 장치 및 그의 녹화 방법
JP2022172840A (ja) * 2021-05-07 2022-11-17 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007019685A (ja) * 2005-07-06 2007-01-25 Sony Corp 撮像装置、制御方法、およびプログラム
JP2012089973A (ja) * 2010-10-18 2012-05-10 Olympus Imaging Corp カメラ
JP2015185022A (ja) * 2014-03-25 2015-10-22 京セラ株式会社 電子機器

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4991621B2 (ja) * 2008-04-17 2012-08-01 キヤノン株式会社 撮像装置
JP5457217B2 (ja) 2010-02-02 2014-04-02 オリンパスイメージング株式会社 カメラ
CN102339151B (zh) 2010-07-20 2013-10-02 德信无线通讯科技(上海)有限公司 用于触摸屏手机的手势快捷启动的方法
CN102566858B (zh) 2010-12-09 2014-12-03 联想(北京)有限公司 触摸控制方法和电子设备
JP5872783B2 (ja) 2011-03-24 2016-03-01 オリンパス株式会社 表示装置、表示方法及び表示プログラム
JP5105127B2 (ja) 2011-05-30 2012-12-19 Necインフロンティア株式会社 携帯端末、そのキー操作制御方法およびプログラム
JP5620947B2 (ja) 2012-06-27 2014-11-05 キヤノン株式会社 電子機器およびその制御方法、プログラム並びに記憶媒体
CN103513886A (zh) 2013-04-27 2014-01-15 展讯通信(上海)有限公司 触控设备、触控设备中目标对象移动方法及装置
JP6271881B2 (ja) 2013-06-26 2018-01-31 キヤノン株式会社 情報処理装置およびその制御方法、プログラム、記録媒体
KR20160143135A (ko) * 2015-06-04 2016-12-14 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9860451B2 (en) * 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007019685A (ja) * 2005-07-06 2007-01-25 Sony Corp 撮像装置、制御方法、およびプログラム
JP2012089973A (ja) * 2010-10-18 2012-05-10 Olympus Imaging Corp カメラ
JP2015185022A (ja) * 2014-03-25 2015-10-22 京セラ株式会社 電子機器

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003666A (ja) * 2018-06-28 2020-01-09 キヤノン株式会社 電子機器及びその制御方法、プログラム、並びに記憶媒体
JP7049195B2 (ja) 2018-06-28 2022-04-06 キヤノン株式会社 電子機器及びその制御方法、プログラム、並びに記憶媒体
JP2020004279A (ja) * 2018-06-29 2020-01-09 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP7129244B2 (ja) 2018-06-29 2022-09-01 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2021163182A (ja) * 2020-03-31 2021-10-11 キヤノン株式会社 電子機器およびその制御方法
US11184528B2 (en) 2020-03-31 2021-11-23 Canon Kabushiki Kaisha Electronic apparatus, control method therefor, and non-transitory computer readable medium
JP7383552B2 (ja) 2020-03-31 2023-11-20 キヤノン株式会社 電子機器およびその制御方法

Also Published As

Publication number Publication date
KR20170063388A (ko) 2017-06-08
KR102075379B1 (ko) 2020-02-10
US10523862B2 (en) 2019-12-31
JP6590666B2 (ja) 2019-10-16
CN106817537A (zh) 2017-06-09
US20170155826A1 (en) 2017-06-01
CN106817537B (zh) 2020-03-24

Similar Documents

Publication Publication Date Title
JP6590666B2 (ja) 電子機器およびその制御方法
JP6667294B2 (ja) 電子機器およびその制御方法
US11039073B2 (en) Electronic apparatus and method for controlling the same
CN107037920B (zh) 电子设备及其控制方法
JP6614943B2 (ja) 撮像制御装置およびその制御方法
US10397482B2 (en) Imaging control apparatus and method for controlling the same
JP2018129765A (ja) 撮像装置及びその制御方法
JP6701033B2 (ja) 電子機器およびその制御方法
CN112015266B (zh) 电子设备、电子设备的控制方法及计算机可读存储介质
JP6071616B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2017123125A (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP7465129B2 (ja) 撮像装置およびその制御方法、プログラム並びに記憶媒体
JP2021163182A (ja) 電子機器およびその制御方法
JP6611575B2 (ja) 撮像制御装置およびその制御方法
JP2018148389A (ja) 電子機器及びその制御方法
JP6779777B2 (ja) 撮像制御装置およびその制御方法
CN112040095A (zh) 电子装置、电子装置的控制方法及存储介质
JP2021028785A (ja) 電子機器および電子機器の制御方法
JP2020178232A (ja) 電子機器
JP2019165299A (ja) 表示制御装置、その制御方法およびプログラム
JP2018023068A (ja) 電子装置、その制御方法およびプログラム
JP2022172840A (ja) 電子機器、電子機器の制御方法、プログラム、及び記憶媒体
JP2021141462A (ja) 電子機器、その制御方法、プログラム及び記憶媒体
JP2021152744A (ja) 電子機器及びその制御方法
JP2021085979A (ja) 電子機器及びその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190917

R151 Written notification of patent or utility model registration

Ref document number: 6590666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151