JP2014010494A - 電子機器およびその制御方法、プログラム並びに記憶媒体 - Google Patents

電子機器およびその制御方法、プログラム並びに記憶媒体 Download PDF

Info

Publication number
JP2014010494A
JP2014010494A JP2012144589A JP2012144589A JP2014010494A JP 2014010494 A JP2014010494 A JP 2014010494A JP 2012144589 A JP2012144589 A JP 2012144589A JP 2012144589 A JP2012144589 A JP 2012144589A JP 2014010494 A JP2014010494 A JP 2014010494A
Authority
JP
Japan
Prior art keywords
touch
button
move
detected
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012144589A
Other languages
English (en)
Other versions
JP5620947B2 (ja
Inventor
Shuichiro Matsushima
修一郎 松島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012144589A priority Critical patent/JP5620947B2/ja
Priority to US13/919,429 priority patent/US9606718B2/en
Priority to EP13173731.4A priority patent/EP2701051B1/en
Priority to CN201610806485.2A priority patent/CN106155491B/zh
Priority to CN201310263052.3A priority patent/CN103513924B/zh
Publication of JP2014010494A publication Critical patent/JP2014010494A/ja
Application granted granted Critical
Publication of JP5620947B2 publication Critical patent/JP5620947B2/ja
Priority to US15/420,721 priority patent/US20170142328A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

【課題】タッチパネル上のボタンに指が不意に触れたことによる誤操作を防止する。
【解決手段】電子機器は、表示部上へのタッチを検出するタッチ検出手段と、前記タッチ検出手段によりタッチが検出された状態でタッチ位置が移動されて特定の機能が割り当てられた特定の領域に入るムーブインを検出するムーブ検出手段と、前記ムーブ検出手段によりムーブインが検出されるまでに前記タッチ位置が移動したムーブの方向を判定する判定手段と、前記判定手段によるムーブの方向に応じて、前記特定の領域に移動したタッチを有効または無効とする処理手段と、を有する。
【選択図】図5

Description

本発明は、タッチパネルを有する電子機器及びその制御方法に関する。
近年、タッチパネルを備えたカメラや携帯電話などの小型の電子機器が普及している。機器の小型化が進む一方で表示部の大型化が進み、機器本体を保持できる外装面積が小さくなっている。ユーザが機器を使用する際、機器本体を保持した指で画面に触れてしまい、不意に画面上のタッチボタンが反応してしまう誤操作も少なくない。このようなタッチパネルの誤操作を防ぐために、特許文献1では、画面上のボタンを一定時間以上押し続けるとボタン操作を無効にしている。また、特許文献2では、タッチされてから所定時間が経過した後にタッチアップされた場合にはタッチしていた位置のメニュー項目に対応する処理を実行しないようになっている。
特開2011−139990号公報 特開2006−318393号公報
しかしながら、上記特許文献1、2では、タッチパネルの所定の位置を一定時間以上押し続けてしまうことによる誤操作を防ぐだけで、機器本体を保持した指がボタンに一瞬だけ触れてしまう等による誤操作については依然として未解決である。
本発明は、上記課題に鑑みてなされ、その目的は、タッチパネルに一瞬だけ触れてしまう等による誤操作を防止することができる技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の電子機器は、表示部上へのタッチを検出するタッチ検出手段と、前記タッチ検出手段によりタッチが検出された状態でタッチ位置が移動されて特定の機能が割り当てられた特定の領域に入るムーブインを検出するムーブ検出手段と、前記ムーブ検出手段によりムーブインが検出されるまでに前記タッチ位置が移動したムーブの方向を判定する判定手段と、前記判定手段によるムーブの方向に応じて、前記特定の領域に移動したタッチを有効または無効とする処理手段と、を有する。
本発明によれば、特定方向からのボタン操作を無効にすることにより、タッチパネルに一瞬だけ触れてしまう等による誤操作を防止することができる。
本発明に係る実施形態の電子機器のブロック図。 本実施形態の電子機器の外観図。 実施形態1のボタン反応領域を示す図。 ムーブ方向の判定方法を説明する図。 実施形態1のタッチ処理を示すフローチャート。 ムーブ方向判定処理を示すフローチャート。 実施形態2のボタン反応領域を示す図。 実施形態2のタッチ判定方法を説明する図。 実施形態2のタッチ処理を示すフローチャート。 実施形態3のボタン反応領域を示す図。 実施形態3のタッチ判定方法を示す図。 実施形態3のタッチ処理を示すフローチャート。 実施形態3のボタン反応領域の別の例を示す図。 実施形態4のボタン反応領域を示す図。 実施形態4のタッチ判定方法を説明する図。
以下、図面を参照しながら本発明の電子機器をデジタルカメラなどの撮像装置に適用した実施の形態について詳細に説明する。
<装置構成>図1及び図2を参照して、本発明の電子機器を適用したデジタルカメラの構成及び機能について説明する。
本実施形態のデジタルカメラ(以下、カメラ)100の内部構成を示す図1において、撮影レンズ104はズームレンズ、フォーカスレンズを含むレンズ群である。シャッター105は絞り機能を備えるシャッターである。撮像部106は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器107は、アナログ信号をデジタル信号に変換する。A/D変換器107は、撮像部106から出力されるアナログ信号をデジタル信号に変換する。バリア103は、デジタルカメラ100の、撮影レンズ104を含む撮像系を覆うことにより、撮影レンズ104、シャッター105、撮像部106を含む撮像系の汚れや破損を防止する。
画像処理部102は、A/D変換器107からのデータ、又は、メモリ制御部108からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部102では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部101が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部102では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
A/D変換器107からの出力データは、画像処理部102及びメモリ制御部108を介して、或いは、メモリ制御部108を介してメモリ109に直接書き込まれる。メモリ109は、撮像部106によって得られA/D変換器107によりデジタルデータに変換された画像データや、表示部111に表示するための画像データを格納する。メモリ109は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ109は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器110は、メモリ109に格納されている画像表示用のデータをアナログ信号に変換して表示部111に供給する。こうして、メモリ109に書き込まれた表示用の画像データはD/A変換器110を介して表示部111により表示される。表示部111は、LCD等の表示器上に、D/A変換器110からのアナログ信号に応じた表示を行う。A/D変換器107によって一度A/D変換されメモリ109に蓄積されたデジタル信号をD/A変換器110においてアナログ変換し、表示部111に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示を行える。
不揮発性メモリ114は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ114には、システム制御部101の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部101は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ114に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。113はシステムメモリであり、RAMが用いられる。システムメモリ113には、システム制御部101の動作用の定数、変数、不揮発性メモリ114から読み出したプログラム等を展開する。また、システム制御部101はメモリ109、D/A変換器110、表示部111等を制御することにより表示制御も行う。
システムタイマ112は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
モード切替スイッチ117、第1シャッタースイッチ116a、第2シャッタースイッチ116b、操作部115はシステム制御部101に各種の動作指示を入力するための操作手段である。
モード切り替えスイッチ117は、システム制御部101の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切り替えスイッチ117で、静止画撮影モードに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切り替えスイッチ117で静止画撮影モードに一旦切り替えた後に、静止画撮影モードに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。第1シャッタースイッチ116aは、デジタルカメラ100に設けられたシャッターボタン116の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
第2シャッタースイッチ116bは、シャッターボタン116の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部101は、第2シャッタースイッチ信号SW2により、撮像部106からの信号読み出しから記録媒体122に画像データを書き込むまでの一連の撮影処理の動作を開始する。
操作部115の各操作部材は、表示部111に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部111に表示される。利用者は、表示部111に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
電源制御部119は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部119は、その検出結果及びシステム制御部101の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体122を含む各部へ供給する。
電源部120は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F121は、メモリカードやハードディスク等の記録媒体122とのインターフェースである。記録媒体122は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
なお、操作部115の1つとして、表示部111に対する接触を検知可能なタッチパネル123を有する。タッチパネル123と表示部111とは一体的に構成することができる。例えば、タッチパネル123を光の透過率が表示部111の表示を妨げないように構成し、表示部111の表示面の上層に取り付ける。そして、タッチパネル123における入力座標と、表示部上の表示座標とを対応付ける。これにより、恰もユーザが表示部上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。システム制御部101はタッチパネルへの以下の操作を検出できる。タッチパネル123を指やペンで触れたこと(以下、タッチダウン)。タッチパネル123を指やペンで触れている状態であること(以下、タッチオン)。タッチパネル123を指やペンで触れたまま移動していること(以下、ムーブ)。タッチパネル123へ触れていた指やペンを離したこと(以下、タッチアップ)。タッチパネル123に何も触れていない状態(以下、タッチオフ)。これらの操作や、タッチパネル123上に指やペンが触れている位置座標は内部バス124を通じてシステム制御部101に通知され、システム制御部101は通知された情報に基づいてタッチパネル123上にどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル123上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル123上の垂直成分・水平成分毎に判定できる。またタッチパネル123上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル123上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル123上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。また、タッチパネル123を指やペンでムーブしながら特定領域に入る操作(以下、ムーブイン)、ムーブしながら特定領域から外に出る操作(以下、ムーブアウト)を検知することもできる。タッチパネル123は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
本実施形態のデジタルカメラ100の外観を示す図2において、(a)はカメラを背面から見た図であり、カメラ本体200には表示部111と、表示部111に重ねられ一体になったタッチパネル123が備えられている。またカメラ外装の一部として表示部111の周囲を取り囲むように枠体201が設けられている。枠体201はタッチパネル123の感応範囲外であるためタッチに反応しない領域である。表示部111には撮像部106からのスルー画像や記録媒体122に記録された画像が表示され、そのスルー画像や画像の上にタッチによって機能を実行するボタンが重畳表示されている。例えば表示部111の右上にFUNCボタン202があり、ユーザはこのボタン部分をタッチすることでFUNCボタン202に割り当てられた機能であるカメラ機能設定画面を表示できる。また、表示部111の左上に撮影モードボタン203が表示されており、ユーザはこのボタン部分をタッチすることで、撮影モードボタン203に割り当てられた機能である撮影モード変更画面を表示できる。ここで、タッチパネル上で(つまりタッチ検出可能な領域で)、その領域へのタッチが検出されると、その領域に関連付けされたボタンに割り当てられた機能が実行される領域をボタン反応領域と定義する。これに対して、後述するムーブインやムーブの方向を検出するために設けられた領域であって、タッチ検出は可能であるが、ボタンとは関連付けられていない(つまりボタン反応領域ではない)領域をタッチ反応領域と定義する。すなわち、ボタン反応領域はタッチ反応領域に含まれるが、タッチ反応領域がボタン反応領域を含むとは限らない。
図2(b)は撮影時のカメラ本体を保持した指を示している。カメラのグリップ部分が小さいと右親指が不意にタッチパネル123に触れることがある。例えばFUNCボタン202に触れてしまうとユーザが意図しないタイミングでカメラ機能設定画面が表示されてしまい、シャッターチャンスを逃してしまうことも考えられる。
そこで、以下の各実施形態では、カメラ本体200を保持する指がタッチ無反応の表示部の枠体201からタッチパネル上に移動(ムーブ)して、ボタンを誤操作してしまうことを防止する手段について説明する。
[実施形態1]実施形態1では、タッチパネル上においてムーブの方向を検出することにより特定方向からのボタン操作を無効とする方法について説明する。
図3は表示部のタッチパネル上に表示されたボタンと、当該ボタンに関連付けられたボタン反応領域との関係を示している。ボタン反応領域はボタンの外形とほぼ同じ範囲に設定されてもよいが、本実施形態では同図のようにタッチする指の大きさやタッチ位置の精度を考慮して表示されたボタンよりも大きい範囲に設定するものとする。ボタンに割り当てられた機能を実行するのは、ボタン反応領域内でタッチダウンが検出され、同領域外にムーブアウトされずにタッチアップされた場合と、ボタン反応領域へムーブインした後に同領域外にムーブアウトされずにタッチアップされた場合である。図3では、ボタン反応領域(第1の領域)に対して上方、下方、左方向からのムーブは有効として、ボタンに割り当てられた機能の実行を許可する。一方、右方向からのムーブは無効として、ボタンに割り当てられた機能の実行を禁止する。これにより、表示部の右方向から不意に指がムーブインしたときのボタン操作を無効とし、誤操作による機能の実行を防ぐことができる。
<ムーブ方向の判定方法>次に、図4を参照して、ムーブ方向の判定方法について説明する。タッチパネルには左上を原点に横軸X、縦軸Yの座標が定義されており、一定時間間隔でタッチパネル上のタッチされている座標の検出が行われる。時刻T1における座標を(X1,Y1)、T1の次の検出時刻T2における座標を(X2,Y2)とすると時刻T1からT2までの時間の座標変位はそれぞれΔX=X2−X1、ΔY=Y2−Y1として求められる。ΔX≧0の場合はムーブのX座標成分が正方向に移動したことを意味するためタッチパネルの右方向、ΔX<0の場合は左方向となる。同様にΔY≧0の場合は下方向、ΔY<0の場合は上方向となる。またムーブの向きは座標変位のX成分とY成分の絶対値を比較し、|ΔX|≧|ΔY|であればX軸方向、|ΔX|<|ΔY|であればY軸方向と判定できる。以上から、右方向からボタン反応領域へムーブインしたことを検出するためには、ΔX<0かつ|ΔX|≧|ΔY|の条件を満たしているか否かを判定すればよい。
<タッチ処理>次に、図5を参照して、本実施形態によるタッチ処理について説明する。なお、図5の処理は、不揮発性メモリ114に記録されたプログラムを、システムメモリ113に読み出してシステム制御部101が実行することにより実現する。また図5の処理では、前述のFUNCボタン202に対する操作についての処理を説明する。
図5のS500において、システム制御部101は、FUNCボタン202のボタン反応領域に対するタッチダウンがあったか否かを判定し、タッチダウンがあった場合にはS504に進み、そうでない場合はS501に進む。
S501では、システム制御部101は、ムーブ検出処理によりFUNCボタン202のボタン反応領域へのムーブインがあったか否かを判定する。そして、ムーブインがあったと判定した場合(ボタン反応領域へのムーブインを検出した場合)はS502に進んで、システム制御部101は図6で後述するムーブ方向判定処理を行い、そうでない場合はS500に戻る。
S503では、システム制御部101は、ムーブ方向判定処理の結果、ムーブの方向がX軸左方向である場合(S503でYES)、誤操作と判定してボタン操作を無効にしてボタンに割り当てられた機能を実行せずに、本処理を終了する。また、ムーブの方向がX軸左方向ではない場合(S503でNO)は、ボタンに対する操作を有効としてS504に進む。
S504では、システム制御部101は、ボタンを操作した状態(FUNCボタン202に対するタッチオン状態)の色に変更して、ボタン操作が有効であることをユーザに視覚的に知らせる。
S505では、システム制御部101は、ボタンを操作した状態が継続している間に、ムーブアウトが検出されたか判定し、ムーブアウトが検出されると、タッチ操作を無効とする。すなわち、その後タッチアップしてもFUNCボタン202の機能は実行しない。一方、ムーブアウトが検出されずにタッチアップが検出されると(S506)、システム制御部101は、FUNCボタン202に割り当てられた機能処理を実行する(S507)。すなわち、システム制御部101は、カメラ機能設定画面を表示部111に表示する。FUNCボタン202に割り当てられた機能を実行すると、ボタン色を通常色に戻して(S508)、本処理を終了する。
<ムーブ方向判定処理>ここで、図6を参照して、図5のS502におけるムーブ方向判定処理について説明する。
図6において、システム制御部101はまず、ムーブインを検出した時刻T2と前回の検出時刻T1の座標変位ΔXとΔYを取得する(S601)。ムーブインを検出した時刻T2はすなわち、ムーブインがあったと判定された時点あり、この時点で検出されたタッチ位置の座標が(X2、Y2)である。前回の検出時刻T2はすなわち、ムーブを検出する前の時点であり、この時点で検出されたタッチ位置の座標が(X1,Y1)である。ΔXとΔYは、この(X2,Y2),(X1,Y1)に基づいて前述したように求める。
次に、システム制御部101は、X座標の変位ΔXとY座標の変位ΔYの絶対値を比較し(S602)、|ΔX|が|ΔY|以上であればX軸方向のムーブ、|ΔX|が|ΔY|未満であればY軸方向のムーブと判定する。X軸方向のムーブの場合、システム制御部101は、X軸方向成分の変位の正負を判定し(S603)、正の値であればX軸右方向のムーブ(S604)、負の値であればX軸左方向のムーブ(S605)と判定する。また、システム制御部101は、Y軸方向のムーブの場合、Y軸方向成分の変位の正負を判定し(S606)、正の値であればY軸下方向のムーブ(S607)、負の値であればY軸上方向のムーブ(S608)と判定する。
以上のように、本実施形態によれば、ムーブの方向を検出し特定方向からのボタン操作を無効にすることによって誤操作による機能の実行を防ぐことができる。なお、図5,6は、FUNCボタン202に対する処理として説明した。FUNCボタン202は、図2(a)に示したように表示部111(タッチパネル123)の右上部に表示される。この位置は、図2(b)のように、カメラ本体200のグリップ部を保持する右手の親指で誤って触れてしまい易い位置であり、この位置のタッチボタンに対しては誤操作が起こりやすい。従って上述のようにグリップ部側からムーブインしてきたタッチではFUNCボタン202の機能が実行されないようにすることで、誤操作を効果的に抑制することができる。逆に、カメラ本体200を保持する手で誤って触るということが起こりにくい位置に配置されるタッチボタン(例えば撮影モードボタン203)に対しては、いずれの方向からのムーブインに対してもボタン操作を有効とするものとする。なおグリップ部とは、撮像装置で言えば、図2(b)のようにシャッターボタン116に右手人差し指を置いた状態でカメラ本体200を保持できる部分である。
ただし、撮影モードボタン203も画面端部(左上端部)近傍にあるため、カメラ本体200を両手で保持した場合に、カメラ本体200を保持した左手の指で誤って触れる可能性がある。そのため、FUNCボタン202の場合とは逆に、左からのムーブインによるボタン操作を無効とするように制御しても良い。すなわち、ボタン操作を無効にするムーブインの方向は、タッチボタンの配置された位置に応じて異なり、ボタンが配置された位置から近い側の画面端部からのムーブインを無効にしても良い。
また、図2(b)はカメラ本体200を横向き(正位置)に構えた場合の例であるが、カメラ本体200を縦向きに構えた場合などには保持の仕方が変わる可能性があり、誤って触りやすい位置が横向きの場合とは異なる可能性がある。そこで、カメラ100に搭載された姿勢検出センサ(不図示)でカメラ本体200を構える向きが変わったことが検出された場合には、特定方向からのムーブインに合わせてボタン操作を無効とするタッチボタンを、姿勢に合わせて別のボタンとしても良い。あるいは、無効とするムーブインの方向を変えても良い。
さらに、上述の図5で、S504の後にボタン反応領域に対するタッチオン状態(S505,S506ともにNOとなる状態)が所定時間(数秒程度)以上継続した場合は、そのタッチはユーザが意図したものではないとみなして無効としてもよい。無効となった場合はその後ボタン反応領域からのタッチアップを検出しても該当するボタンの機能は実行しない。
[実施形態2]実施形態2では、2つのボタン反応領域を隣接して設けることでムーブの方向を検出し特定方向からのボタン操作を無効とする方法について説明する。
図7は表示部のタッチパネル上に表示されたボタンと、当該ボタンに関連付けられたボタン反応領域との関係を示している。
図7において、ボタン反応領域1(第1の領域)とボタン反応領域2(第2の領域)が隣接して設けられており、ボタン反応領域2は主にムーブ方向を判定するために使用される。タッチ操作を無効にしたいムーブの方向、すなわち実施形態では右方向からのムーブインを検出可能にするため、ボタン反応領域2をボタン反応領域1の右側に隣接して配置している。このように、ボタン反応領域2からボタン反応領域1へのムーブを検出した場合にボタン操作を無効にすることによって誤操作による機能の実行を防ぐことができる。なお、FUNCボタン202の表示範囲はボタン反応領域1の範囲内としてボタン反応領域2には重ならないようにしているが、ボタン反応領域2に重なるようにしてもよい。その場合、FUNCボタン202の表示範囲はボタン反応領域1と2の双方に重なる。
図8は、図7に示すボタンとボタン反応領域との関係においてボタン操作が有効になる場合と無効になる場合を説明する図である。
図8(a)はボタン操作が有効になる場合を示している。ボタン反応領域1、2以外の領域でタッチダウンが検出されてボタン反応領域1へのムーブインが検出されて、ボタン反応領域1でタッチアップが検出された場合(801)。ボタン反応領域1でタッチダウンが検出されてボタン反応領域1内でムーブが検出されて(ムーブはしなくてもよい)、さらにボタン反応領域1でタッチアップが検出された場合(802)。ボタン反応領域1でタッチダウンが検出されてボタン反応領域1からボタン反応領域2へのムーブインが検出されて、ボタン反応領域2でタッチアップが検出された場合(803)。ボタン反応領域2でタッチダウンが検出されてボタン反応領域2内でムーブが検出されて(ムーブはしなくてもよい)、さらにボタン反応領域2でタッチアップが検出された場合(804)。上記の場合ではいずれもボタン操作が有効になりタッチアップ後にボタンに割り当てられた機能が実行される。
図8(b)はボタン操作が無効になる場合を示している。ボタン反応領域1でタッチダウンが検出されてボタン反応領域1、2以外の領域へのムーブアウトとタッチアップが検出された場合(805)。ボタン反応領域2でタッチダウンが検出されてボタン反応領域2からボタン反応領域1へのムーブインが検出されてボタン反応領域1でタッチアップが検出された場合(806)。ボタン反応領域1、2以外の領域でタッチダウンが検出されてボタン反応領域2へのムーブインが検出されてボタン反応領域2でタッチアップが検出された場合(807)。ボタン反応領域1、2以外の領域でタッチダウンが検出されてボタン反応領域2を通過してボタン反応領域1へのムーブインとタッチアップが検出された場合(808)。ボタン反応領域1でタッチダウンが検出されボタン反応領域2を通過してボタン反応領域1、2以外の領域でタッチアップが検出された場合(809)。上記の場合ではいずれもボタン操作が無効になりタッチアップされてもボタンに割り当てられた機能は実行されない。
<タッチ処理>次に、図9を参照して、本実施形態によるタッチ処理について説明する。なお、図9の処理は、不揮発性メモリ114に記録されたプログラムを、システムメモリ113に読み出してシステム制御部101が実行することにより実現する。また図9の処理では、前述のFUNCボタン202に対する操作についての処理を説明する。
図9のS900において、システム制御部101は、FUNCボタン202のボタン反応領域1または2に対するタッチダウンがあったか否かを判定し、タッチダウンがあった場合にはS903に進み、そうでない場合はS901に進む。
S901では、システム制御部101は、ボタン反応領域1へのムーブインがあったか否かを判定し、ボタン反応領域1へのムーブインがあった場合はS902に進み、そうでない場合はS900に戻る。
S902では、システム制御部101は、直前にボタン反応領域2でムーブアウトを検出したか否かを判定する。ボタン反応領域2でムーブアウトを検出した場合(S902でYES)は、システム制御部101は、ユーザの誤操作と判定してボタン操作を無効にしてボタンに割り当てられた機能を実行せずに、本処理を終了する。一方、ボタン反応領域2のムーブアウトを検出していない場合(S902でNO)は、システム制御部101は、タッチ操作を有効にしてS903に進む。そしてS903〜S907の処理で、ボタン反応領域1または2からのタッチアップを検出した場合には、FUNCボタン202に割り当てられた機能を実行する。S903〜S907は、図5のS504〜S508と同じであるため詳細な説明は省略する。なお、S904では、ボタン反応領域2からボタン反応領域1へムーブしたことを検出した場合にもムーブアウトしたものとしてS907進む(ボタン反応領域2からのムーブアウト)。
以上のように、本実施形態によれば、2つのボタン反応領域を隣接して設けることでムーブの方向を検出し特定方向からのボタン操作を無効にすることによって誤操作による機能の実行を防ぐことができる。また、最初からボタン反応領域2に意図してタッチした場合に、ボタンの機能を実行することができる。実施形態2では、ボタン反応領域ではないタッチ有効領域をFUNCボタン202より左側に配置しなくて良い分、実施形態1よりもボタン反応領域を画面端まで寄せることができる。そのため、FUNCボタン202の表示も実施形態1よりも画面端まで寄せることができるため、画面中央よりの主要画像(被写体画像など)の視認がし易くなる。
なお、上述した実施形態2の処理も、実施形態1と同様に、FUNCボタン202に対して行うものとする。すなわち、カメラ本体200を保持する手で誤って触るということが起こりにくい位置に配置されるタッチボタン(例えば撮影モードボタン203)に対しては、ボタン反応領域を2つに分けることなく、いずれの方向からのムーブインに対してもボタン操作を有効とするものとする。
また、FUNCボタン202の場合とは逆に、左からのムーブインによるボタン操作を無効とするように制御しても良い。すなわち、ボタン反応領域1に対するボタン反応領域2の配置は、タッチボタンの配置された位置に応じて異なり、ボタンが配置された位置から近い側の画面端部側に配置されるようにしてもよい。
また、カメラ100に搭載された姿勢検出センサ(不図示)でカメラ本体200を構える向きが変わったことが検出された場合には、FUNCボタン202のようにボタン反応領域を2つに分けるタッチボタンを、姿勢に合わせて別のボタンとしても良い。あるいは、ボタン反応領域1に対するボタン反応領域2の配置を変えても良い。
さらに、上述の図9で、S903の後にボタン反応領域に対するタッチオン状態(S904,S905ともにNOとなる状態)が所定時間(数秒程度)以上継続した場合は、そのタッチはユーザが意図したものではないとみなして無効としてもよい。無効となった場合はその後ボタン反応領域からのタッチアップを検出しても該当するボタンの機能は実行しない。
[実施形態3]実施形態3では、ボタン反応領域に接する直線で区切られた2つのタッチ反応領域を設けることでムーブ開始位置(つまりタッチダウン検出位置)を判定して特定方向からのボタン操作を無効とする方法について説明する。
図10は表示部のタッチパネル上に表示されたボタンと、当該ボタンに関連付けられたボタン反応領域との関係を示している。
図10において、ボタン反応領域の右辺に接する境界線Lで左右に区切られるように、それぞれタッチ反応領域1(第1の領域)とタッチ反応領域2(第2の領域)が定義されている。上記実施形態と同様に、右側からのムーブインを検出してボタン操作を無効にすることによって誤操作による機能の実行を防ぐことができる。
図11は、図10に示すボタンとボタン反応領域とタッチ反応領域との関係においてボタン操作が有効になる場合と無効になる場合を説明する図である。
図11(a)はボタン操作が有効になる場合を示している。ムーブ開始位置がボタン反応領域外のタッチ反応領域1である場合、ボタン反応領域へムーブインしかつタッチアップが検出されると、ボタン操作が有効になりボタンに割り当てられた機能が実行される。
図11(b)はボタン操作が無効になる場合を示している。ムーブ開始位置がタッチ反応領域2である場合、ボタン反応領域へのムーブインが検出されてもボタン操作が無効になりボタンに割り当てられた機能は実行されない。
<タッチ処理>次に、図12を参照して、本実施形態によるタッチ処理について説明する。なお、図12の処理は、不揮発性メモリ114に記録されたプログラムを、システムメモリ113に読み出してシステム制御部101が実行することにより実現する。
図12のS1200において、システム制御部101は、FUNCボタン202のボタン反応領域に対するタッチダウンがあったか否かを判定し、タッチダウンがあった場合にはS1203に進み、そうでない場合はS1201に進む。
S1201では、システム制御部101は、ボタン反応領域でムーブイン検出したか否かを判定し、ムーブインがあった場合はS1202に進み、そうでない場合はS1200に戻る。
S1202では、システム制御部101は、ムーブ開始位置(タッチダウン時点のタッチ位置がどこであったか)を判定する。ムーブ開始位置の座標がタッチ反応領域2であった場合(S1202でYES)は、システム制御部101は、ユーザの誤操作と判定してタッチ操作を無効にしてボタンに割り当てられた機能を実行せずに、本処理を終了する。一方、ムーブ開始位置の座標がタッチ反応領域1であった場合(S1202でNO)は、システム制御部101は、タッチ操作を有効にしてS1203に進む。そしてS1203〜S1207の処理で、ボタン反応領域からのタッチアップを検出した場合には、FUNCボタン202に割り当てられた機能を実行する。なお、S1203〜S1207は、図5のS504〜S508と同じであるため説明は省略する。
なお、実施形態3では矩形のボタン反応領域を例示したが、ボタン反応領域の形状はどのような形状でもよい。例えば図13のように円形のボタン反応領域に対して右方向からのムーブインを禁止する場合は、ボタン反応領域の最も右側の座標に接するY軸方向の直線で区切った領域1、2を定義すればよい。
以上のように、本実施形態によれば、ボタン反応領域に接する直線で区切られた2つのタッチ反応領域を設けることでムーブ開始位置を判定して特定方向からのボタン操作を無効にすることによって誤操作による機能の実行を防ぐことができる。
なお、上述した実施形態3の処理も、実施形態1と同様に、FUNCボタン202に対して行うものとする。すなわち、カメラ本体200を保持する手で誤って触るということが起こりにくい位置に配置されるタッチボタン(例えば撮影モードボタン203)に対しては、ボタン反応領域へのムーブインのタッチダウン位置がいずれであってもボタン操作を有効とするものとする。
また、FUNCボタン202の場合とは逆に、左からのムーブインによるボタン操作を無効とするように制御しても良い。すなわち、反応領域1に対する反応領域2の配置は、タッチボタンの配置された位置に応じて異なり、ボタンが配置された位置から近い側の画面端部側に配置されるようにしてもよい。
また、カメラ100に搭載された姿勢検出センサ(不図示)でカメラ本体200を構える向きが変わったことが検出された場合には、FUNCボタン202のように隣接する領域2に対するタッチダウンからのムーブインを無効にするタッチボタンを、姿勢に合わせて別のボタンとしても良い。あるいは、領域1に対する領域2の配置を変えても良い。
さらに、上述の図12で、S1203の後にボタン反応領域に対するタッチオン状態(S1204,S1205ともにNOとなる状態)が所定時間(数秒程度)以上継続した場合は、そのタッチはユーザが意図したものではないとみなして無効としてもよい。無効となった場合はその後ボタン反応領域からのタッチアップを検出しても該当するボタンの機能は実行しない。
[実施形態4]カメラや携帯電話などの小型の電子機器ではボタンなどの表示アイテムは、なるべく表示部に表示される画像を邪魔しないように画面の端部に配置することが望ましい。実施形態1ではムーブ方向を検出することにより特定方向からのボタン操作を無効にする方法を説明したが、例えばタッチ反応領域が表示部を囲む枠体に接している場合、実施形態1の方法では以下の理由によりムーブ方向を検出できない。
図15(a)において、タッチ座標検出周期のうち連続した3つの時刻T1、T2、T3における座標をP1、P2、P3とすると、P1ではタッチ無反応の枠体201をタッチしているためタッチは検出されない。P2ではタッチ非検出状態からタッチ検出状態になるのでタッチダウンが検出される。P3ではP2をムーブ開始位置とするムーブが検出される。しかしながら、ボタン反応領域へのムーブインは検出されないためムーブの方向を検出することはできない。
このような課題を解決するため、本実施形態では、実施形態1のボタン反応領域がタッチパネルの端部に隣接して配置されているときに、ムーブの方向を判定する領域を設けて特定方向からのボタン操作を無効にする。
図14は表示部のタッチパネル上に表示されたFUNCボタン202と、当該ボタンに関連付けられたボタン反応領域との関係を示している。
図14において、タッチ反応領域1(第1の領域)はボタン反応領域でもある。また、タッチ反応領域1に隣接する領域2(第2の領域)はムーブ方向を検出するために設けられたタッチ反応領域である。FUNCボタン202の表示範囲は、領域1と領域2の双方に重なっている。
図15(b)は、図14に示すボタンとボタン反応領域とタッチ反応領域の関係においてボタン操作が有効になる場合を説明する図である。
図15(b)において、P1ではタッチ無反応の枠体201をタッチしているためタッチは検出されない。P2では領域2においてタッチ非検出状態からタッチ検出状態になるためタッチダウンが検出されるが、ボタン反応領域ではないのでボタンへのタッチ検出はされない。P3ではP2から反応領域1へのムーブインが検出される。このときのタッチ処理は図5と同様であり、P3では右方向からのムーブが検出されてタッチ操作を無効にする。
また、領域2をボタン反応領域とした場合は実施形態2と同様に、領域2がある右方向から反応領域1へのムーブが検出されるとタッチ操作を無効にする。このときのタッチ処理は図9の903〜S907と同様である。
なお、本実施形態のようにムーブ方向を検出しない場合であっても、ボタン反応領域へのムーブインを無効にすることにより誤操作を防止することができる。図15(a)は、図14において領域2がない場合を示している。反応領域1へのムーブインの有効/無効にかかわらず、P2でタッチダウンが検出されてしまうとタッチダウンによってタッチ処理が実行されてしまう。そこで、図15(b)のように領域2を反応領域1に隣接させることで、P3でムーブインが検出されるので、このムーブインを無効にすることによりムーブ方向を検出しない場合であっても、領域2からのタッチ操作による機能の実行を防ぐことが可能になる。
以上のように、本実施形態によれば、ボタン反応領域がタッチパネルの端部に隣接している場合に、ムーブ方向を判定するための領域を設けて特定方向からのボタン操作を無効にすることによって誤操作による機能の実行を防ぐことができる。
なお、システム制御部101の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず、タッチ入力可能な装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。
[他の実施形態]
本発明は、以下の処理を実行することによっても実現される。即ち上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
特開2011−039990号公報 特開2006−318393号公報
本発明は、上記課題に鑑みてなされ、その目的は、タッチパネルに短い時間誤って触ってしまう誤操作防止することができる技術を実現することである。
上記課題を解決し、目的を達成するために、本発明の電子機器は、表示部上へのタッチ操作を検出するタッチ検出手段と、前記表示部上に特定の表示アイテムを表示するように制御する表示制御手段と、前記特定の表示アイテムが表示された領域に少なくも一部が含まれる第1の領域内にタッチされたタッチ操作に応じて特定の機能を実行するように制御し、前記特定の表示アイテムが表示された領域に少なくとも一部が含まれる第2の領域内にタッチされたタッチ操作に応じては前記特定の機能を実行しないように制御する制御手段とを有する。
本発明によれば、特定方向からのボタン操作を無効にすることにより、タッチパネルに短い時間誤って触ってしまう誤操作防止することができる。
図6において、システム制御部101はまず、ムーブインを検出した時刻T2と前回の検出時刻T1の座標変位ΔXとΔYを取得する(S601)。ムーブインを検出した時刻T2はすなわち、ムーブインがあったと判定された時点あり、この時点で検出されたタッチ位置の座標が(X2、Y2)である。前回の検出時刻Tはすなわち、ムーブを検出する前の時点であり、この時点で検出されたタッチ位置の座標が(X1,Y1)である。ΔXとΔYは、この(X2,Y2),(X1,Y1)に基づいて前述したように求める。
図15(b)は、図14に示すボタンとボタン反応領域とタッチ反応領域の関係においてボタン操作が効になる場合を説明する図である。
また、領域2をボタン反応領域とした場合は実施形態2と同様に、領域2がある右方向から反応領域1へのムーブが検出されるとタッチ操作を無効にする。このときのタッチ処理は図9の903〜S907と同様である。



Claims (8)

  1. 表示部上へのタッチを検出するタッチ検出手段と、
    前記タッチ検出手段によりタッチが検出された状態でタッチ位置が移動されて特定の機能が割り当てられた特定の領域に入るムーブインを検出するムーブ検出手段と、
    前記ムーブ検出手段によりムーブインが検出されるまでに前記タッチ位置が移動したムーブの方向を判定する判定手段と、
    前記判定手段によるムーブの方向に応じて、前記特定の領域に移動したタッチを有効または無効とする処理手段と、を有することを特徴とする電子機器。
  2. 前記処理手段は、前記判定手段により判定されたムーブの方向が特定の方向である場合、その後に前記タッチが検出されなくなるタッチアップが検出されると、前記特定の領域に割り当てられた特定の機能を実行しないように前記検出されたタッチを無効とすることを特徴とする請求項1に記載の電子機器。
  3. 前記表示部上に、前記タッチ検出手段による検出が可能な第1の領域と第2の領域を隣接して設け、前記特定の機能が前記第1の領域と第2の領域に割り当てられ、
    前記処理手段は、
    前記判定手段により判定されたムーブの方向が前記第2の領域から前記第1の領域である場合、前記特定の機能を実行しないように前記検出されたタッチを無効とし、
    前記タッチ検出手段により前記第2の領域でタッチが検出された状態から当該第1の領域でタッチアップが検出された場合、前記特定の機能を実行するように前記検出されたタッチを有効とすることを特徴とする請求項2に記載の電子機器。
  4. 前記表示部上の特定の領域に接する直線により区切られた第1の領域と第2の領域を設け、前記第1の領域が前記特定の領域を含み、
    前記処理手段は、
    前記判定手段により判定されたムーブの方向が前記第2の領域から前記特定の領域である場合、前記特定の機能を実行しないように前記検出されたタッチを無効とし、
    前記判定手段により判定されたムーブの方向が前記第1の領域から前記特定の領域である場合、前記特定の機能を実行するように前記検出されたタッチを有効とすることを特徴とする請求項2に記載の電子機器。
  5. 隣接する第1の領域と第2の領域を前記表示部の枠体に接するように設け、前記特定の機能が前記第1の領域に割り当てられ、
    前記処理手段は、
    前記判定手段により判定されたムーブの方向が前記第2の領域から前記第1の領域である場合、前記特定の機能を実行しないように前記検出されたタッチを無効とすることを特徴とする請求項2に記載の電子機器。
  6. 表示部上へのタッチを検出するタッチ検出手段を有する電子機器の制御方法であって、
    前記タッチ検出手段によりタッチが検出された状態でタッチ位置が移動されて特定の機能が割り当てられた特定の領域に入るムーブインを検出するムーブ検出工程と、
    前記ムーブ検出工程によりムーブインが検出されるまでに前記タッチ位置が移動したムーブの方向を判定する判定工程と、
    前記判定手段によるムーブの方向に応じて、前記特定の領域に移動したタッチを有効または無効とする処理工程と、を有することを特徴とする制御方法。
  7. コンピュータを、請求項1ないし5のいずれか1項に記載された電子機器の各手段として機能させるプログラム。
  8. コンピュータを、請求項1ないし5のいずれか1項に記載された電子機器の各手段として機能させるプログラムを格納した記憶媒体。
JP2012144589A 2012-06-27 2012-06-27 電子機器およびその制御方法、プログラム並びに記憶媒体 Active JP5620947B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012144589A JP5620947B2 (ja) 2012-06-27 2012-06-27 電子機器およびその制御方法、プログラム並びに記憶媒体
US13/919,429 US9606718B2 (en) 2012-06-27 2013-06-17 Electronic apparatus and control method thereof
EP13173731.4A EP2701051B1 (en) 2012-06-27 2013-06-26 Electronic apparatus and control method thereof
CN201610806485.2A CN106155491B (zh) 2012-06-27 2013-06-27 电子设备及其控制方法
CN201310263052.3A CN103513924B (zh) 2012-06-27 2013-06-27 电子设备及其控制方法
US15/420,721 US20170142328A1 (en) 2012-06-27 2017-01-31 Electronic apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012144589A JP5620947B2 (ja) 2012-06-27 2012-06-27 電子機器およびその制御方法、プログラム並びに記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014091948A Division JP5840256B2 (ja) 2014-04-25 2014-04-25 電子機器およびその制御方法、プログラム並びに記憶媒体

Publications (2)

Publication Number Publication Date
JP2014010494A true JP2014010494A (ja) 2014-01-20
JP5620947B2 JP5620947B2 (ja) 2014-11-05

Family

ID=48747930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012144589A Active JP5620947B2 (ja) 2012-06-27 2012-06-27 電子機器およびその制御方法、プログラム並びに記憶媒体

Country Status (4)

Country Link
US (2) US9606718B2 (ja)
EP (1) EP2701051B1 (ja)
JP (1) JP5620947B2 (ja)
CN (2) CN106155491B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046710A (ja) * 2014-08-25 2016-04-04 キヤノン株式会社 電子機器、その制御方法およびプログラム
KR20170063388A (ko) * 2015-11-30 2017-06-08 캐논 가부시끼가이샤 전자기기 및 그 제어 방법
JP2017123126A (ja) * 2016-01-08 2017-07-13 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP2017194748A (ja) * 2016-04-18 2017-10-26 富士通株式会社 タッチセンサ、端末装置及び押下検出プログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6071543B2 (ja) * 2012-12-27 2017-02-01 キヤノン株式会社 電子機器及び電子機器の制御方法
US10855911B2 (en) * 2014-01-15 2020-12-01 Samsung Electronics Co., Ltd Method for setting image capture conditions and electronic device performing the same
JP6399834B2 (ja) * 2014-07-10 2018-10-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
CN105511774A (zh) * 2014-10-17 2016-04-20 深圳Tcl新技术有限公司 显示终端界面显示方法及装置
JP2018022932A (ja) * 2014-12-08 2018-02-08 株式会社ジャパンディスプレイ 表示システム及び表示装置
JP6541462B2 (ja) 2015-06-25 2019-07-10 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6685695B2 (ja) * 2015-10-30 2020-04-22 キヤノン株式会社 端末及び撮像装置
JP2018013745A (ja) 2016-07-23 2018-01-25 キヤノン株式会社 電子機器およびその制御方法
JP6701033B2 (ja) * 2016-08-30 2020-05-27 キヤノン株式会社 電子機器およびその制御方法
CN106445359A (zh) * 2016-10-28 2017-02-22 合网络技术(北京)有限公司 控件控制方法及装置
CN107613108B (zh) * 2017-08-31 2020-07-28 契科基纳(南京)科技有限公司 一种操作处理方法、装置及计算机可读存储介质
JP6961451B2 (ja) * 2017-10-12 2021-11-05 キヤノン株式会社 電子機器、その制御方法およびプログラム
CN108579077B (zh) * 2018-03-12 2019-09-06 网易(杭州)网络有限公司 信息处理方法、装置、存储介质及电子设备
JP7026572B2 (ja) * 2018-05-16 2022-02-28 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
GB201908996D0 (en) * 2018-06-29 2019-08-07 Canon Kk Electronic device, control method for electronic device, program, and computer readable medium
JP2021018777A (ja) 2019-07-24 2021-02-15 キヤノン株式会社 電子機器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000039964A (ja) * 1998-07-22 2000-02-08 Sharp Corp 手書き入力装置
JP2005284379A (ja) * 2004-03-26 2005-10-13 Sharp Corp 情報処理方法、情報処理装置、画像出力装置、情報処理プログラムおよび記録媒体
JP2010224663A (ja) * 2009-03-19 2010-10-07 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2012019350A1 (en) * 2010-08-12 2012-02-16 Google Inc. Finger identification on a touchscreen

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6937272B1 (en) * 2000-11-08 2005-08-30 Xerox Corporation Display device for a camera
JP4628178B2 (ja) 2005-05-16 2011-02-09 任天堂株式会社 情報処理装置および項目選択処理プログラム
EP2074492A1 (en) * 2006-10-23 2009-07-01 Eui Jin Oh Input device
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
JP4378494B2 (ja) * 2007-07-03 2009-12-09 シャープ株式会社 表示装置
CN101393504B (zh) 2007-09-20 2012-12-19 宏达国际电子股份有限公司 手持电子装置与其图形化用户界面的切换方法
JP2009086601A (ja) 2007-10-03 2009-04-23 Canon Inc カメラ
CN101470580A (zh) 2007-12-28 2009-07-01 英业达股份有限公司 具有触控显示屏幕的电子装置及增进其操作方便性的方法
US20090167702A1 (en) 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
CN101739191A (zh) * 2008-11-06 2010-06-16 阿尔派株式会社 显示装置
US20100166404A1 (en) * 2008-12-31 2010-07-01 Lombardi Michael J Device and Method Using a Touch-Detecting Surface
JP5127792B2 (ja) 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
JP5529616B2 (ja) 2010-04-09 2014-06-25 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP4976520B2 (ja) 2010-04-09 2012-07-18 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
TWI445384B (zh) 2010-04-26 2014-07-11 Htc Corp 通訊控制方法、通訊裝置及電腦程式產品
EP2405337B1 (en) 2010-07-06 2015-09-16 HTC Corporation Method for presenting human machine interface, handheld device using the same, and computer readable medium therefor
JP5768347B2 (ja) 2010-09-07 2015-08-26 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000039964A (ja) * 1998-07-22 2000-02-08 Sharp Corp 手書き入力装置
JP2005284379A (ja) * 2004-03-26 2005-10-13 Sharp Corp 情報処理方法、情報処理装置、画像出力装置、情報処理プログラムおよび記録媒体
JP2010224663A (ja) * 2009-03-19 2010-10-07 Sony Corp 情報処理装置、情報処理方法、およびプログラム
WO2012019350A1 (en) * 2010-08-12 2012-02-16 Google Inc. Finger identification on a touchscreen

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046710A (ja) * 2014-08-25 2016-04-04 キヤノン株式会社 電子機器、その制御方法およびプログラム
KR20170063388A (ko) * 2015-11-30 2017-06-08 캐논 가부시끼가이샤 전자기기 및 그 제어 방법
US10523862B2 (en) 2015-11-30 2019-12-31 Canon Kabushiki Kaisha Electronic device, method, and medium for touch movement control
KR102075379B1 (ko) * 2015-11-30 2020-02-10 캐논 가부시끼가이샤 전자기기 및 그 제어 방법
JP2017123126A (ja) * 2016-01-08 2017-07-13 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP2017194748A (ja) * 2016-04-18 2017-10-26 富士通株式会社 タッチセンサ、端末装置及び押下検出プログラム
US10558304B2 (en) 2016-04-18 2020-02-11 Fujitsu Client Computing Limited Touch sensor and terminal device

Also Published As

Publication number Publication date
US9606718B2 (en) 2017-03-28
CN103513924A (zh) 2014-01-15
US20140006985A1 (en) 2014-01-02
CN103513924B (zh) 2017-10-27
CN106155491B (zh) 2019-06-18
CN106155491A (zh) 2016-11-23
EP2701051A1 (en) 2014-02-26
US20170142328A1 (en) 2017-05-18
JP5620947B2 (ja) 2014-11-05
EP2701051B1 (en) 2020-12-09

Similar Documents

Publication Publication Date Title
JP5620947B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP5127792B2 (ja) 情報処理装置、その制御方法、プログラム及び記録媒体
US10222903B2 (en) Display control apparatus and control method thereof
US10216313B2 (en) Electronic apparatus and control method of the same
JP6742730B2 (ja) 電子機器及びその制御方法
JP2013105272A (ja) 表示制御装置及び表示制御方法、プログラム、並びに記憶媒体
US20170351373A1 (en) Electronic apparatus, control method thereof, and computer-readable storage medium
JP2014059622A (ja) 表示制御装置及びその制御方法
JP6104338B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP5409873B2 (ja) 情報処理装置、その制御方法、プログラム及び記憶媒体
JP2021033539A (ja) 電子機器、電子機器の制御方法、プログラム及び記憶媒体
JP2019016299A (ja) 異なる面に配置された操作部材を有する電子機器、その制御方法、プログラム並びに記憶媒体
US11245835B2 (en) Electronic device
JP2018206088A (ja) 電子機器およびその制御方法
JP5769783B2 (ja) 情報処理装置、その制御方法、プログラム及び記憶媒体
JP6239077B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP5975813B2 (ja) 撮像装置、その制御方法、プログラムおよび記録媒体
JP7129244B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP5840256B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
JP6525753B2 (ja) 表示制御装置、その制御方法、およびプログラム
JP6545048B2 (ja) 電子機器、電子機器の制御方法及びプログラム
JP6855317B2 (ja) 撮像装置、撮像装置の制御方法、プログラム、及び、記録媒体
JP2018132961A (ja) 表示制御装置及び方法
JP2018022291A (ja) 表示制御装置及びその制御方法、プログラム、並びに記録媒体
JP5932953B2 (ja) 情報処理装置、その制御方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140919

R151 Written notification of patent or utility model registration

Ref document number: 5620947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151