JP2021089644A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2021089644A
JP2021089644A JP2019220335A JP2019220335A JP2021089644A JP 2021089644 A JP2021089644 A JP 2021089644A JP 2019220335 A JP2019220335 A JP 2019220335A JP 2019220335 A JP2019220335 A JP 2019220335A JP 2021089644 A JP2021089644 A JP 2021089644A
Authority
JP
Japan
Prior art keywords
movement operation
locus
movement
electronic device
notification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019220335A
Other languages
English (en)
Inventor
洋平 佐藤
Yohei Sato
洋平 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019220335A priority Critical patent/JP2021089644A/ja
Priority to US17/110,472 priority patent/US20210173527A1/en
Publication of JP2021089644A publication Critical patent/JP2021089644A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】移動操作の方向に対応する処理として、よりユーザーの意図に近い方向に対応する処理が実行されるようにした電子機器を提供する。【解決手段】本発明の電子機器は、移動操作を検知する操作検知手段と、ユーザーに対して、特定の方向への直線の軌跡を描く移動操作を行うように促す通知を行う通知手段と、前記操作検知手段で検知した、前記通知に対応する第1の移動操作による軌跡に基づく曲線の情報である、前記特定の方向への移動操作か否かを判定するための基準曲線情報と、前記操作検知手段で検知した第3の移動操作による軌跡との比較に基づく方向を、前記第3の移動操作の方向として、前記第3の移動操作の方向に基づく処理を実行する実行手段とを有することを特徴とする。【選択図】図11

Description

本発明は、移動操作を検知する機能を有する電子機器に関し、特に当該機能のキャリブレーション方法に関する。
位置を指定するための様々な操作部材(ポインティングデバイス)を搭載した電子機器が知られている。例えば、ポインティングデバイスの一種であるタッチ操作部材を備えた電子機器として、タッチ操作部材に対してタッチしてスライドする移動操作(スライド操作)に応じて、オブジェクトの選択や移動を制御するものが知られている。マウスのドラッグなどでオブジェクトの選択や移動を制御するものも知られている。
特許文献1では、ユーザーの意図した方向にある位置をスライド操作で選択しやすくするために、スライド操作の初期の2点で求められる移動方向にある複数の選択候補の位置のうち、その後のタッチ位置の移動に基づいた位置を選択することが提案されている。
特開2018−128738号公報
操作体(タッチ操作部材にタッチする指など)または操作部材(マウスなど)を移動させる移動操作では、一般的に、移動対象の動かし方の癖がユーザーに依って異なる。そして、このようなユーザー別の癖の違いなどの要因により、ユーザーの意図した移動操作の方向と、装置に検出される操作方向とが異なってしまい、ユーザーの意図した方向への移動操作ができない場合がある。特許文献1に記載の方法では、スライド操作の初期の2点から、その後の移動方向(操作方向)を限定しているため、スライド操作の途中でユーザーが意図的に移動方向を変えた場合に、ユーザーの意図した方向にある位置を選択できない場合がある。
そこで、本発明は、移動操作の方向に対応する処理として、よりユーザーの意図に近い方向に対応する処理が実行されるようにした電子機器を提供することを目的とする。
本発明の電子機器は、移動操作を検知する操作検知手段と、ユーザーに対して、特定の方向への直線の軌跡を描く移動操作を行うように促す通知を行う通知手段と、前記操作検知手段で検知した、前記通知に対応する第1の移動操作による軌跡に基づく曲線の情報である、前記特定の方向への移動操作か否かを判定するための基準曲線情報と、前記操作検知手段で検知した第3の移動操作による軌跡との比較に基づく方向を、前記第3の移動操作の方向として、前記第3の移動操作の方向に基づく処理を実行する実行手段とを有することを特徴とする。
本発明によれば、移動操作の方向に対応する処理を実行する電子機器に、よりユーザーの意図に近い処理を実行させることができる。
カメラの外観図である。 カメラの構成例を示すブロック図である。 AF−ONボタンの構造を表す図である。 カメラの操作例を示す図である。 第1のキャリブレーション処理のフローチャートである。 操作指示画面の一例を示す図である。 第1のキャリブレーション処理の具体例を示す図である。 第1のスライド応答処理のフローチャートである。 第1のスライド応答処理の具体例を示す図である。 第2のキャリブレーション処理のフローチャートである。 第2のキャリブレーション処理の具体例を示す図である。 第2のスライド応答処理のフローチャートである。 第2のスライド応答処理の具体例を示す図である。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1(a)、図1(b)は、本発明を適用可能な撮像装置(電子機器である)の一例としての一眼レフカメラ(以降、カメラと称する)100本体の外観図である。具体的には、図1(a)はカメラ100を第1面(前面)側から見た図であり、撮影レンズユニットを外した状態を示す。図1(b)は、カメラ100を第2面(背面)側から見た図である。第1面はカメラ前面であり、被写体側の面(撮像方向側の面)である。第2面はカメラの背面であって、第1の面の裏側(反対側)の面であり、ファインダー16を覗く撮影者側の面である。
図1(a)に示すように、カメラ100には、横持ちでの撮影時にカメラ100を使用するユーザーがカメラ100を安定して握り、操作できるよう、前方に突出した第1グリップ部101が設けられている。またカメラ100には、縦持ちでの撮影時にカメラ100を使用するユーザーがカメラ100を安定して握り、操作できるよう、前方に突出した第2グリップ部102が設けられている。第1グリップ部101は、カメラ100の前面の第1の辺(図1(a)の左右にある2つの縦辺のうち左側の辺)に沿っており、第2グリップ部102は、前面のうち第1の辺と隣り合う第2の辺(図1(a)の上下にある2つの横辺のうち下側の辺)に沿っている。シャッターボタン103,105は、撮影指示を行うための操作部材である。メイン電子ダイヤル104,106は回転操作部材であり、メイン電子ダイヤル104,106を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。シャッターボタン103,105、及びメイン電子ダイヤル104,106は、操作部70に含まれる。シャッターボタン103とメイン電子ダイヤル104は横持ち撮影用、シャッターボタン105とメイン電子ダイヤル106は縦持ち撮影用として主に使用することができる。
図1(b)において、表示部28は画像や各種情報を表示する。表示部28はタッチ操作を受付け可能(タッチ検出可能)なタッチパネル70aと重畳、もしくは一体となって設けられる。AF−ONボタン1,2は、焦点調節位置を設定したり、AFを開始したりするための操作部材であり、操作部70に含まれる。本実施形態では、AF−ONボタン1,2は、タッチ操作や押し込み操作を受け付けることが可能なタッチ操作部材(本実施形態では、赤外線式センサー)である。このような光学式の操作部材を、光学トラッキングポインター(OTP)と称するものとする。ユーザーは、横持ちで(カメラ100を横位置で構えた状態で)、ファインダー16を覗いたまま、AF−ONボタン1に対して、第1グリップ部101を握った右手の親指で、タッチ操作や、任意の2次元方向へのスライド操作を行うことができる。また、ユーザーは、縦持ちで、ファインダー16を覗いたまま、AF−ONボタン2に対して、第2グリップ部102を握った右手の親指で、タッ
チ操作や、任意の2次元方向へのスライド操作を行うことができる。縦持ちとは、カメラ100を横位置と90度異なる縦位置で構えた状態である。カメラ100を操作するユーザーは、AF−ONボタン1、またはAF−ONボタン2へのスライド操作で、表示部28に表示された測距点枠(AFに用いるAF枠の位置、焦点調節位置、焦点検出位置)を移動させることができる。また、ユーザーは、AF−ONボタン1、またはAF−ONボタン2への押し込み操作で、測距点枠の位置に基づくAFを即座に開始させることができる。AF−ONボタン1は横持ち撮影用、AF−ONボタン2は縦持ち撮影用として主に使用することができる。
AF−ONボタン1,2の配置について説明する。図1(b)に示すように、AF−ONボタン1,2はカメラ100の背面に配置されている。そして、AF−ONボタン2は、カメラ100の背面のうち、他の頂点よりも、第1グリップ部101に沿った辺(第1の辺)と第2グリップ部102に沿った辺(第2の辺)との成す頂点に近い位置に配置されている。また、AF−ONボタン2のほうが、AF−ONボタン1よりも、第1グリップ部101に沿った辺と第2グリップ部102に沿った辺との成す上記頂点に近い位置に配置されている。カメラ100の背面のうち第1グリップ部101に沿った辺(第1の辺)とは、図1(b)における左右にある2つの縦辺のうち右側の辺である。カメラ100の背面のうち第2グリップ部102に沿った辺(第2の辺)とは、図1(b)における上下にある2つの横辺のうち下側の辺である。ここで、上述した頂点は、カメラ100の背面を多角形とみなした場合の当該多角形の頂点(仮想的な頂点)である。カメラ100の背面が完全な多角形であれば、上述した頂点は、当該多角形の頂点(カメラ100の実際の頂点)であってもよい。第1の辺は、図1(b)における左右方向の右側の辺(縦辺)であり、第2の辺は図1(b)における上下方向の下側の辺(横辺)であり、第1の辺と第2の辺との成す上述の頂点は、図1(b)における右下の頂点である。さらに、AF−ONボタン2は、第1グリップ部101に沿った辺(第1の辺)のうち、AF−ONボタン1がある側の端部(すなわち上端部)よりも、反対側の端部(下端部)に近い位置に配置されている。また、上述したシャッターボタン103は、第1グリップ部101を握った右手の人差し指で操作可能(押下可能)な位置に配置されており、シャッターボタン105は、第2グリップ部102を握った右手の人差し指で操作可能な位置に配置されている。そして、AF−ONボタン1のほうが、AF−ONボタン2よりも、シャッターボタン103に近い位置に配置されており、AF−ONボタン2のほうが、AF−ONボタン1よりも、シャッターボタン105に近い位置に配置されている。
なお、AF−ONボタン1,2は、タッチパネル70aとは異なる操作部材であり、表示機能は備えていない。また、後述する例では、AF−ONボタン1、2への操作で選択された測距位置を示すインジケーター(AF枠)を移動させる例を説明するが、AF−ONボタン1,2への操作に応じて実行される機能は特に限定されない。例えば、表示部28に表示され、かつ移動させることができるものであれば、AF−ONボタン1,2へのスライド操作で移動させるインジケーターはいかなるものでもよい。例えば、マウスカーソルのような、ポインティングカーソルであってもよいし、複数の選択肢(メニュー画面に表示された複数の項目など)のうち選択された選択肢を示すカーソルであってもよい。AF−ONボタン1へのスライド操作と、AF−ONボタン2へのスライド操作とで異なるインジケーターが移動してもよい。AF−ONボタン1,2への押し込み操作で実行される機能は、AF−ONボタン1,2へのスライド操作で実行される機能に関する他の機能であってもよい。
モード切り替えスイッチ60は、各種モードを切り替えるための操作部材である。電源スイッチ72は、カメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は選択枠の移動や画像送りなどを行う回転操作部材である。8方向キー74a,74bは、上、下、左、右、左上、左下、右上、右下方向にそれぞれ押し倒し可
能な操作部材であり、8方向キー74a,74bの押し倒された方向に応じた処理が可能である。8方向キー74aは横持ち撮影用、8方向キー74bは縦持ち撮影用として主に使用することができる。SETボタン75は、主に選択項目の決定などに用いられる操作部材である。静止画/動画切り替えスイッチ77は、静止画撮影モードと動画撮影モードを切り替える操作部材である。LVボタン78は、ライブビュー(以下、LV)のONとOFFを切り替える操作部材である。LVがONとなると後述するミラー12が光軸から退避した退避位置に移動(ミラーアップ)して被写体光が後述する撮像部22に導かれ、LV画像の撮像が行われるLVモードとなる。LVモードでは、LV画像で被写体像を確認できる。LVがOFFとなるとミラー12が光軸上に移動(ミラーダウン)して被写体光が反射され、被写体光がファインダー16に導かれ、被写体の光学像(光学の被写体像)がファインダー16から視認可能なOVFモードとなる。再生ボタン79は、撮影モード(撮影画面)と再生モード(再生画面)とを切り替える操作部材である。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200(図2で後述する)に記録された画像のうち最新の画像を表示部28に表示させることができる。Qボタン76はクイック設定をするための操作部材であり、撮影画面においてQボタン76を押下すると設定値の一覧として表示されていた設定項目を選択可能になり、さらに設定項目を選択すると各設定項目の設定画面へと遷移することができるようになる。モード切り替えスイッチ60、電源スイッチ72、サブ電子ダイヤル73、8方向キー74a,74b、SETボタン75、Qボタン76、静止画/動画切り替えスイッチ77、LVボタン78、再生ボタン79は、操作部70に含まれる。メニューボタン81は、操作部70に含まれ、カメラ100の各種設定を行うための操作部材である。メニューボタン81が押されると各種の設定可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、サブ電子ダイヤル73、8方向キー74a,74b、SETボタン75、メイン電子ダイヤル104,106を用いて直感的に各種設定を行うことができる。ファインダー16はレンズユニットを通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型(接眼式)のファインダーである。INFOボタン82は操作部70に含まれ、カメラ100の各種情報を表示部28に表示することができる。
図2は、カメラ100の構成例を示すブロック図である。
レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ155は通常、フォーカスレンズ群、ズームレンズ群などの複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がカメラ100側と通信を行うための通信端子であり、通信端子10はカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路154によって、絞り駆動回路152を介して絞り151の制御を行い、AF駆動回路153を介してレンズ155の位置を変位させることで焦点を合わせる。レンズユニット150を装着可能な装着部を介してレンズユニット150は表示部28のある本体側に装着される。レンズユニット150として単焦点レンズやズームレンズなどの様々な種類のものを装着することができる。
AEセンサー17は、レンズユニット150、クイックリターンミラー12を通ってフォーカシングスクリーン13上に結像した被写体(被写体光)の輝度を測光する。
焦点検出部11は、クイックリターンミラー12を介して入射する像(被写体光)を撮像し、システム制御部50にデフォーカス量情報を出力する位相差検出方式のAFセンサーである。システム制御部50はデフォーカス量情報に基づいてレンズユニット150を制御し、位相差AFを行う。AFの方法は、位相差AFでなくてもよく、コントラストAFでもよい。また、位相差AFは、焦点検出部11を用いずに、撮像部22の撮像面で検
出されたデフォーカス量に基づいて行ってもよい(撮像面位相差AF)。
クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ155から入射した光束をファインダー16側と撮像部22側とに切り替えるためのミラーである。ミラー12は通常時はファインダー16へと光束を導く(反射させる)ように配されているが(ミラーダウン)、撮影やライブビュー表示が行われる場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。
ユーザーは、ペンタプリズム14とファインダー16を介して、フォーカシングスクリーン13上に結像した像を観察することで、レンズユニット150を通して得た被写体の光学像の焦点状態や構図の確認が可能となる。
フォーカルプレーンシャッター21(シャッター21)は、システム制御部50の制御で撮像部22の露光時間を制御するためのものである。
撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(撮像センサー)である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理や色変換処理)を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行われる。
メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。メモリ32は、メモリカードなどの着脱可能な記録媒体であっても、内蔵メモリであってもよい。
表示部28は画像を表示するための背面モニタであり、図1(b)に示すようにカメラ100の背面に設けられている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。表示部28は、画像を表示するディスプレイであれば、液晶方式のディスプレイであっても、有機ELなど他の方式のディスプレイであってもよい。
ファインダー内表示部41には、ファインダー内表示部駆動回路42を介して、現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコンなどが表示される。ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラ100の様々な設定値が表示される。
姿勢検知部55は、カメラ100の角度による姿勢を検出するためのセンサーである。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である、加速度センサーやジャイロセンサーを用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
不揮発性メモリ56は、システム制御部50によって電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサー(回路を含む)を内蔵し、カメラ100全体を制御する。システム制御部50は、前記の不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52では、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切り替えスイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード等のいずれかに切り替える。静止画撮影モードには、Pモード(プログラムAE)、Mモード(マニュアル)等が含まれる。あるいは、モード切り替えスイッチ60でメニュー画面に一旦切り換えた後に、メニュー画面に含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。Mモードでは、絞り値、シャッター速度、ISO感度をユーザーが設定でき、ユーザー目的の露出で撮影を行うことができる。
第1シャッタースイッチ62は、カメラ100に設けられたシャッターボタン103,105の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。またAEセンサー17による測光も行う。
第2シャッタースイッチ64は、シャッターボタン103,105の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像ファイルとして画像を記録するまでの一連の撮影処理の動作を開始する。
電源制御部83は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部83は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源スイッチ72はカメラ100の電源のONとOFFを切り替えるためのス
イッチである。
電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
上述したように、カメラ100は、操作部70の一つとして、表示部28(タッチパネル70a)に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネル70aにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。システム制御部50はタッチパネル70aへの以下のタッチ操作、あるいは状態を検知できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネル70aへタッチしていた指やペンをタッチパネル70aから離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検知されると、同時にタッチオンも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、タッチ位置が移動していなければタッチムーブは検知されない。タッチしていた全ての指やペンがタッチアップしたことが検知された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。またタッチパネル70a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検知され、そのままタッチアップが検知されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検知された場合はドラッグが行われたと判定するものとする。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接
触があったことでタッチがあったと検知する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検知する方式があるが、いずれの方式でもよい。
システム制御部50は、AF−ONボタン1,2からの通知(出力情報)により、AF−ONボタン1,2へのタッチ操作や押し込み操作を検知できる。システム制御部50は、AF−ONボタン1,2の出力情報に基づいて、AF−ONボタン1,2上における指などの動きの方向(以降、移動方向と称する)を、上、下、左、右、左上、左下、右上、右下の8方向で算出する。さらに、システム制御部50は、AF−ONボタン1,2の出力情報に基づいて、x軸方向、y軸方向の2次元方向でAF−ONボタン1,2上における指などの動きの量(以降、移動量(x,y)と称する)を算出する。システム制御部50は、さらにAF−ONボタン1,2への以下の操作、あるいは状態を検知できる。システム制御部50は、AF−ONボタン1とAF−ONボタン2のそれぞれについて個別に、移動方向や移動量(x,y)を算出したり、以下の操作・状態を検知したりする。
・AF−ONボタン1、またはAF−ONボタン2にタッチしていなかった指などが新たにAF−ONボタン1、またはAF−ONボタン2にタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・AF−ONボタン1、またはAF−ONボタン2を指などでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・指などがAF−ONボタン1、またはAF−ONボタン2をタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・AF−ONボタン1、またはAF−ONボタン2へタッチしていた指をAF−ONボタン1、またはAF−ONボタン2から離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・AF−ONボタン1、またはAF−ONボタン2に何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検知されると、同時にタッチオンも検知される。タッチダウンの後、タッチアップが検知されない限りは、通常はタッチオンが検知され続ける。タッチムーブが検知されるのもタッチオンが検知されている状態である。タッチオンが検知されていても、移動量(x,y)が0であれば、タッチムーブは検知されない。タッチしていた全ての指などがタッチアップしたことが検知された後は、タッチオフとなる。
システム制御部50は、これらの操作・状態や移動方向、移動量(x,y)に基づいてAF−ONボタン1,2上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについては、AF−ONボタン1,2上での指などの移動として、上、下、左、右、左上、左下、右上、右下の8方向、またはx軸方向、y軸方向の2次元方向の移動を検知する。システム制御部50は、8方向のいずれかの方向への移動、またはx軸方向、y軸方向の2次元方向の片方もしくは両方への移動が検知された場合は、スライド操作が行われたと判定するものとする。本実施形態では、AF−ONボタン1,2は、赤外線方式のタッチセンサーであるものとする。ただし、抵抗膜方式、表面弾性波方式、静電容量方式、電磁誘導方式、画像認識方式、光センサー方式等、別の方式のタッチセンサーであってもよい。
図3(a)、図3(b)を用いて、AF−ONボタン1の構造について説明する。AF−ONボタン2の構造はAF−ONボタン1の構造と同様のため、その説明は省略する。
カバー310はAF−ONボタン1の外装カバーである。窓311はAF−ONボタン1の外装カバーの一部であり、投光部312から投光された光を透過する。カバー310は、カメラ100の外装カバー301よりも外に突起しており、押し込み可能となっている。投光部312は、窓311に向かう光を照射する発光ダイオードなどの発光デバイス
である。投光部312から発せられる光は、可視光ではない光(赤外線)などが望ましい。窓311の表面(AF−ONボタン1の操作面)に指300がタッチしている場合には、投光部312から照射された光が、タッチしている指300の表面に反射し、反射光が受光部313によって受光(撮像)される。受光部313は、撮像センサーである。受光部313で撮像された画像に基づき、AF−ONボタン1の操作面に操作体(指300)が触れていない状態であるか、操作体がタッチしたか、タッチしている操作体がタッチしたまま移動しているか(スライド操作しているか)等を検知することができる。カバー310は弾性部材314で接地面316に設置されており、指300が窓311の表面を押し、カバー310が押し込まれることで、押し込み検知のためのスイッチ315にカバー310が触れる。これによってAF−ONボタン1が押し込まれたことが検知される。
顔検出機能について説明する。システム制御部50は顔検出の対象の画像を画像処理部24に送る。システム制御部50の制御下で画像処理部24は、当該画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。
その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。システム制御部50は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、顔の数などの特徴量をシステムメモリ52に記憶する。
以上のようにLV画像あるいは再生表示される画像を画像解析して、画像の特徴量を抽出して被写体情報を検出する(特定の被写体を検出する被写体検出を行う)ことが可能である。本実施形態では特定の被写体として顔を例に挙げたが、瞳、手、胴体、特定の個人、動体、文字、など、他の被写体も検出し、AF等の対象として選択することが可能である。
図3(a)は、AF−ONボタン1の操作面に指300がタッチしているが、AF−ONボタン1を押し込んでいない状態の概略図である。図3(b)は、AF−ONボタン1の操作面を指300が押圧することで、AF−ONボタン1が押し込まれ、AF−ONボタン1が押されたことが検知される状態の概略図である。図3(b)の押し込まれた状態から、指300をAF−ONボタン1の操作面から離せば、弾性部材314の力によってAF−ONボタン1はスイッチ315に触れない図3(a)の状態に戻る。なお、弾性部材314を接地面316に設置する例を説明したが、接地面316ではなく、外装カバー301に設置してもよい。また、AF−ONボタン1は、操作面への押し込みと、操作面でのタッチ操作とを検知可能なものであれば、図3(a)、図3(b)に示した構造に限るものではなく、他の構造としてもよい。
OVFモードにて選択可能なAF枠について説明する。OVFモードでは、AF枠の選択モード(測距エリア選択モード)として、少なくとも以下の選択モードを含む複数の選択モードのうちいずれかを設定メニューより予めユーザーが選択して設定することができる。
・1点AF(任意選択)…191点の測距点(焦点調節領域)の中から、ピント合わせ(AF)に使う測距点をユーザーが1点選択する選択モード。後述するゾーンAFよりも狭い範囲が焦点調節領域となる。
・ゾーンAF(ゾーン任意選択)…複数の測距点を9つの測距ゾーン(焦点調節領域)に分類し、いずれかの測距ゾーンをユーザーが選択する選択モード。選択したゾーンに含まれる全ての測距点を用いて自動選択AFを行う。自動選択AFでは、対象となる測距点で測距された被写体のうち、自動的にピントを合わせるべき被写体と判定された被写体にピントが合うようにAFを行う。基本的には最も近距離にある被写体にピントが合うようにAFを行うが、画面上の位置や被写体のサイズ、被写体距離などの条件が加味されることもある。1点AFよりも被写体を捉えやすく、動きのある被写体を撮影するときにピントを合わせやすくなる。また、ピントを合わせるゾーンを絞っているため、構図における意図しない位置の被写体にピントが合ってしまうことも防止することができる。
・自動選択AF…全ての測距点を用いて上述の自動選択AFを行うモード。ユーザーがAFエリアを選択することなく、AFに用いる測距点は全測距点の中から自動的に決定される。
図4(a),4(b)は、カメラ100の操作例を示す図である。ここでは、AF−ONボタン1について、後述するユーザー別のキャリブレーションが未実行であるとする。図4(a)は、ファインダー内表示部41に表示された画面の一例を示し、図4(b)は、表示部28(背面モニタ)に表示された画面の一例を示す。図4(a),4(b)では、ユーザーは手401で第1グリップ部101を把持し、矢印402の方向にタッチ位置を移動させるスライド操作をAF−ONボタン1に対して親指403で行っている。カメラ100(システム制御部50)は、表示した測距点枠をスライド操作に応じて移動させる。
図4(a)において、測距点枠410は、ファインダー内表示部41に表示された移動前の測距点枠であり、測距点枠411は移動後の測距点枠である。矢印420は、スライド操作に応じた測距点枠の移動(測距点枠410の位置から測距点枠411の位置への移動)の方向を示し、矢印402で示されたスライド操作の方向(タッチ位置の移動方向)と同一方向である。
図4(b)において、測距点枠430は、表示部28に表示された移動前の測距点枠であり、測距点枠431は移動後の測距点枠である。矢印440は、スライド操作に応じた測距点枠の移動(測距点枠430の位置から測距点枠431の位置への移動)の方向を示し、矢印402で示されたスライド操作の方向(タッチ位置の移動方向)と同一方向である。
ここで、操作体(タッチ操作部材にタッチする指など)または操作部材(マウスなど)を移動させる移動操作では、一般的に、移動対象の動かし方の癖がユーザーに依って異なる。そして、このようなユーザー別の癖の違いなどの要因により、ユーザーの意図した移動操作の方向と、装置に検出される操作方向とが異なってしまい、ユーザーの意図した方向への移動操作ができない場合がある。このような課題は、AF−ONボタン1,2に対するスライド操作でも生じる。そこで、本実施形態では、AF−ONボタン1,2に対するスライド操作における親指403の動かし方の癖が考慮されるように、AF−ONボタン1,2のキャリブレーションを行う。これにより、測距点枠を矢印420,440の方向に移動させたいユーザーが自身の癖で矢印402の方向とは異なる方向にタッチ位置を移動させてしまう場合であっても、測距点枠を矢印420,440の方向に移動させることができるようになる。
図5に、AF−ONボタンに対する第1のキャリブレーション処理のフローチャートを示す。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。なお、図5では、AF−ONボタン1に対する第1のキャリブレーション処理を説明するが、AF−ONボタン2につい
ても同様に処理される。
S501では、システム制御部50は、AF−ONボタン1のキャリブレーションを行うキャリブレーションモードが設定されているか否かを判定する。キャリブレーションモードが設定されるのを待ち、キャリブレーションモードが設定されるとS502に進む。
S502では、システム制御部50は、ユーザーに対する、特定の方向への直線の軌跡を描くスライド操作を行うように促す通知のために、表示部28とファインダー内表示部41の少なくとも一方に操作指示画面を表示する。図6は操作指示画面の一例を示す図である。操作指示画面601〜604のそれぞれには、AF−ONボタン1に対するスライド操作の方向を示すアイテム610(アイコン)と、AF−ONボタン1の操作方法を示すアイテム620(テキスト)とが表示される。操作指示画面601〜604の間でアイテム610,620の内容は異なる。操作指示画面601は水平右方向へのスライド操作をユーザーに行わせるための画面であり、操作指示画面602は水平左方向へのスライド操作をユーザーに行わせるための画面である。操作指示画面603は垂直上方向へのスライド操作をユーザーに行わせるための画面であり、操作指示画面604は垂直下方向へのスライド操作をユーザーに行わせるための画面である。S502では操作指示画面601〜604のいずれかを表示する。
S503では、システム制御部50は、AF−ONボタン1に対するタッチダウンがあったか否かを判定する。タッチダウンを待ち、タッチダウンがあるとS504に進む。
S504では、システム制御部50は、AF−ONボタン1からの光学情報(受光部313で撮像された画像)を用いて、AF−ONボタン1に対するタッチ操作を行っている指の特徴量を検出し、システムメモリ52に記録する。特徴量は、キャリブレーション後のスライド操作(キャリブレーションモードとは異なるモードでのスライド操作)を行ったユーザーを特定(判別)するユーザー認証のために使用され、例えば指紋などである。特徴量の検出位置はタッチ位置として使用される。
S505では、システム制御部50は、S504で検出した特徴量の検出位置の変化から、スライド操作における指(タッチ位置)の移動距離と移動方向を検出し、システムメモリ52に記録する。
S506では、システム制御部50は、AF−ONボタン1からのタッチアップがあったか否かを判定する。タッチアップがあるまでS504とS505の処理を繰り返し、タッチアップがあるとS507に進む。
S507では、システム制御部50は、S505で検出した移動方向から、行われたスライド操作の軌跡に近似する近似直線を算出する。
S508では、システム制御部50は、指定直線(S502で表示された操作指示画面が指定する特定の方向)と、S507で算出した近似直線とを比較することで、傾き係数を決定する。傾き係数は、直線の方程式(Y=aX+b)の係数aや、近似直線と指定直線の角度差(近似直線と指定直線の間の角度)など、傾きを示す数値である。
S509では、システム制御部50は、スライド操作の方向を判定する基準座標軸情報や、S502で指定された特定の方向へのスライド操作か否かを判定する基準直線情報などとして、S508で算出した傾き係数を不揮発性メモリ56に記録する。さらに、システム制御部50は、ユーザー認証が行えるように、S504で検出した特徴量を不揮発性メモリ56に記録する。記録される特徴量は1つでも複数でもよく、例えばタッチオン時
の特徴量や、タッチアップ時の特徴量が記録される。
S510では、システム制御部50は、全ての方向(操作指示画面601〜604でそれぞれ指定される4方向)について傾き係数を記録したか否かを判定する。全ての方向について傾き係数を記録した場合は第1のキャリブレーション処理を終了し、そうでない場合はS502に進む。つまり、表示する操作指示画面を切り替えながら傾き係数を決定するようS502〜S510の処理を繰り返し、全ての方向について傾き係数を記録すると、第1のキャリブレーション処理を終了する。なお、一部の方向(例えば1方向)に対する処理で取得した特徴量をユーザー認証のための特徴量として記録するようにS509の処理を制御してもよいし、そうでなくてもよい。
図7(a),7(b)は、第1のキャリブレーション処理の具体例を示す図である。図7(a)は、水平右方向へのスライド操作をユーザーに行わせるための操作指示画面601が表示された場合を示し、図7(b)は、垂直上方向へのスライド操作をユーザーに行わせるための操作指示画面603が表示された場合を示す。
図7(a)では、ユーザーは、軌跡710を描くスライド操作を親指700で行っている。軌跡710(軌跡710の近似直線711)は、操作指示画面601で指定された水平右方向712とは平行関係になく、右上方向となっている。この場合には、近似直線711の情報(基準直線情報;基準座標軸情報)として、水平右方向712に対する近似直線711の角度αが記録される。
図7(b)では、ユーザーは、軌跡720を描くスライド操作を親指700で行っている。軌跡720(軌跡720の近似直線721)は、操作指示画面603で指定された垂直上方向722とは平行関係になく、左上方向となっている。この場合には、近似直線721の情報(基準直線情報;基準座標軸情報)として、垂直上方向722に対する近似直線721の角度βが記録される。
ここで、ユーザーが、操作指示画面602の表示に対して、操作指示画面602で指定された水平左方向と平行関係にある軌跡を描くスライド操作を行ったとする。この場合には、水平左方向に対する角度=0度が記録される。その結果、後述する第1のスライド応答処理において、水平左方向(水平右方向712とは逆の方向)への軌跡を描くスライド操作が行われた場合に、水平左方向への測距点枠の移動(水平左方向に基づく処理)が実行されることになる。一方で、水平右方向712に対する近似直線711の角度α≠0度が記録されているため、水平右方向712への軌跡を描くスライド操作が行われても、水平右方向712への測距点枠の移動(水平右方向1112に基づく処理)は実行されないことになる。例えば、水平右方向712に対して角度αで傾いた方向に測距点枠が移動することになる。ユーザーが、操作指示画面604の表示に対して、操作指示画面604で指定された垂直下方向と平行関係にある軌跡を描くスライド操作を行った場合も同様である。第1のスライド応答処理において、垂直下方向(垂直上方向722とは逆の方向)への軌跡を描くスライド操作が行われた場合に、垂直下方向へ測距点枠が移動することになる。一方で、垂直上方向722に対する近似直線721の角度β≠0度が記録されているため、垂直上方向722への軌跡を描くスライド操作が行われても、垂直上方向722へは測距点枠が移動しないことになる。
さらに、軌跡710(近似直線711)と軌跡720(近似直線721)が垂直関係になかった、つまり角度α≠角度βであったとする。この場合には、互いに垂直でない、軌跡710に基づく第1の軸(角度α)と、軌跡720に基づく第2の軸(角度β)とを含む基準座標軸情報が記録される。ここで、後述する第1のスライド応答処理において、第1の軸に対して特定の角度で傾いた軌跡を描くスライド操作が行われた場合に、第1の軸
に対して特定の角度で傾いた方向に基づく処理が実行されるとする。そうであっても、第2の軸に対して特定の角度で傾いた軌跡を描くスライド操作が行われた場合に、第2の軸に対して特定の角度で傾いた方向に基づく処理は実行されないことがある。
一例として、角度α=40度かつ角度β=10度の場合を考える。そして、第1の軸や第2の軸に平行な軸方向と、第1の軸と第2の軸の間を2分する非軸方向とのうち、スライド操作の軌跡に最も近い方向に基づく処理が行われる場合を考える。この場合には、第1の軸と第2の軸で規定される第1象限と第3象限の広さ(角度)は50度となり、第1の軸と第2の軸で規定される第2象限と第4象限の広さ(角度)は130度となる。そして、第1の軸に対する第1象限や第3象限を通る非軸方向の角度は25度となり、第2の軸に対する第2象限や第4象限を通る非軸方向の角度は65度となる。第1の軸に対して25度で傾いた軌跡を描くスライド操作が行われた場合には、第1象限や第3象限を通る非軸方向(第1の軸に対して25度で傾いた方向)に基づく処理が実行される。一方で、第2の軸に対して25度で傾いた軌跡を描くスライド操作が行われた場合には、第1の軸に対して25度で傾いた方向に基づく処理は実行されず、第2の軸と平行な軸方向に基づく処理が実行される。
図8に、AF−ONボタンに対する第1のスライド応答処理のフローチャートを示す。第1のスライド応答処理は、AF−ONボタンを押し込むことなく操作面にタッチしてタッチムーブするスライド操作に応じた機能(例:測距点枠(AF枠)の移動)の実行処理である。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。第1のキャリブレーション処理後にキャリブレーションモードとは異なるモード(撮影モードなど)を設定すると図8の処理を開始する。なお、撮影モードなどを設定した場合には、他の処理(例えば操作部70に含まれる他の操作部材の操作に応じた処理、AF−ONボタンの押し込みに応じた処理)も並行して行われるが、それらの説明は省略する。また、図8では、AF−ONボタン1に対するスライド操作への応答処理を説明するが、AF−ONボタン2についても同様に処理される。ただし、AF−ONボタン1に対するタッチオンが検知されている場合にはAF−ONボタン2に対するスライド応答処理は行わないものとする。これによって、AF−ONボタン1とAF−ONボタン2への操作の競合による誤動作を防止することができる(AF−ONボタン1へのスライド操作が優先される)。
S801では、システム制御部50は、AF−ONボタン1に対するタッチダウンがあったか否かを判定する。タッチダウンを待ち、タッチダウンがあるとS802に進む。
S802では、システム制御部50は、AF−ONボタン1からの光学情報(受光部313で撮像された画像)を用いて、AF−ONボタン1に対するタッチ操作を行っている指の特徴量を検出し、システムメモリ52に記録する。
S803では、システム制御部50は、第1のキャリブレーション処理(図7)で不揮発性メモリ56に記録した複数の特徴量から、S802で検出した特徴量と適合する特徴量を検出することで、現在のユーザーを特定(判別)する(ユーザー認証)。例えば、S802で検出した特徴量との類似度が閾値以上の特徴量や、S802で検出した特徴量に最も近い特徴量などを、現在のユーザーの特徴量として検出する。そして、システム制御部50は、現在のユーザー(S802で検出した特徴量と適合する特徴量)に対応する情報(基準直線情報;基準座標軸情報)を不揮発性メモリ56から取得して、システムメモリ52に記録する。なお、S802〜S808の処理は、AF−ONボタン1からのタッチアップがあるまで繰り返されるが、S803の処理は初回でのみ行われてもよい。
S804では、システム制御部50は、S802で検出した特徴量の検出位置の変化、
つまりスライド操作で描かれた軌跡を、ユーザー入力として検出する。
S805では、システム制御部50は、S804で検出したユーザー入力を、第1のキャリブレーション処理(図7)で得られたユーザー固有の座標系(S803で取得した情報(基準直線情報;基準座標軸情報)に応じた座標系)に読み込む。
S806では、システム制御部50は、ユーザー固有の座標系(S803で取得した情報(基準直線情報;基準座標軸情報)に応じた座標系)における軸の傾きを解消するように当該座標系を補正することで、S804で検出したユーザー入力を補正する。
S807では、システム制御部50は、S806の補正後のユーザー入力の方向に測距点枠を移動させる。
なお、S805の処理は、基準座標軸情報(基準直線情報)と、行われたスライド操作による軌跡との比較と捉えることもできる。S806の処理は、S805の比較に基づいて、行われたスライド操作の方向を判定する処理と捉えることもできる。そして、S807の処理は、S806で判定した方向に基づく処理の実行と捉えることもできる。
S808では、システム制御部50は、AF−ONボタン1からのタッチアップがあったか否かを判定する。タッチアップがあるまでS802〜S808の処理を繰り返し、タッチアップがあると第1のスライド応答処理を終了する。
図9(a)〜9(f)は、第1のスライド応答処理の具体例を示す図である。図9(a)は、表示部28とファインダー内表示部41の少なくとも一方に表示された画面を示す。図9(a)の画面では、LV画像上に測距点枠900が表示されている。ここでは、ユーザーが、測距点枠900を矢印902の方向に移動させて測距点枠901としたいとする。
図9(b)は、測距点枠900を矢印902の方向に移動させることを意図したスライド操作を示す。図9(b)のスライド操作では、親指910により軌跡911が描かれている。ユーザーの意図した方向(矢印902の方向)は右下方向であるが、軌跡911(ユーザー入力)の方向は、ユーザーの癖により、略水平右方向となっている。
図9(c)は、第1のキャリブレーション処理(図7)で得られたユーザー固有の座標系を示す。図9(c)の座標系では、水平右方向に対応する軸として、水平右方向に対して角度αで傾いた軸920(直線)を含む。図9(d)は、図9(c)の座標系に図9(b)の軌跡911を読み込んだ状態を示す。
図9(e)は、軌跡911の補正を示す。この補正では、軸920の方向が水平右方向となるように、軌跡911が、水平右方向に対して軸920が傾いた方向(上側)とは逆の方向(下側)に、角度αで傾けられる。その結果、補正後の軌跡911の方向は、ユーザーの意図した右下方向(図9(a)の矢印902の方向)と略一致する。
図9(f)は、図9(b)のスライド操作に応じて測距点枠900(図9(a))を移動させた後の画面を示す。図9(e)の補正を行ったことにより、図9(f)の画面では、右下方向のスライド操作があったものとして、測距点枠900が、ユーザーの意図した右下方向(矢印902の方向)に移動して、測距点枠901となっている。
このように、第1のキャリブレーション処理(図7)の後の第1のスライド応答処理(図8)によれば、意図した方向に対して斜めの方向の軌跡を描いてしまうユーザーの癖を
考慮して、よりユーザーの意図に近い方向に測距点枠を移動させることができる。そして、ユーザーの意図した方向に対して斜めの方向に測距点枠が移動することによるユーザーの不満を解消することができる。
図10に、AF−ONボタンに対する第2のキャリブレーション処理のフローチャートを示す。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。なお、図10では、AF−ONボタン1に対する第2のキャリブレーション処理を説明するが、AF−ONボタン2についても同様に処理される。
S1001では、システム制御部50は、AF−ONボタン1のキャリブレーションを行うキャリブレーションモードが設定されているか否かを判定する。キャリブレーションモードが設定されるのを待ち、キャリブレーションモードが設定されるとS1002に進む。
S1002では、システム制御部50は、ユーザーに対する、特定の方向への直線の軌跡を描くスライド操作を行うように促す通知のために、表示部28とファインダー内表示部41の少なくとも一方に操作指示画面を表示する。図5のS502と同様に、図6の操作指示画面601〜604のいずれかを表示する。
S1003では、システム制御部50は、AF−ONボタン1に対するタッチダウンがあったか否かを判定する。タッチダウンを待ち、タッチダウンがあるとS1004に進む。
S1004では、システム制御部50は、AF−ONボタン1からの光学情報(受光部313で撮像された画像)を用いて、AF−ONボタン1に対するタッチ操作を行っている指の特徴量(指紋など)を検出し、システムメモリ52に記録する。
S1005では、システム制御部50は、S1004で検出した特徴量の検出位置の変化から、スライド操作における指(タッチ位置)の移動距離と移動方向を検出し、システムメモリ52に記録する。
S1006では、システム制御部50は、AF−ONボタン1からのタッチアップがあったか否かを判定する。タッチアップがあるまでS1004とS1005の処理を繰り返し、タッチアップがあるとS1007に進む。
S1007では、システム制御部50は、S1005で検出した移動方向から、行われたスライド操作の軌跡に近似する近似放物線を算出する。なお、スライド操作の軌跡に近似する曲線として、放物線とは異なる曲線を算出してもよい。
S1008では、システム制御部50は、指定直線(S1002で表示された操作指示画面が指定する特定の方向)と、S1007で算出した近似放物線とを比較することで、凹凸係数を決定する。凹凸係数は、放物線の方程式(Y=aX+b)の係数aなど、近似放物線の湾曲(ゆがみ)の程度を示す数値である。
S1009では、システム制御部50は、S1002で指定された特定の方向へのスライド操作か否かを判定する基準曲線情報として、S1008で算出した凹凸係数を不揮発性メモリ56に記録する。さらに、システム制御部50は、ユーザー認証が行えるように、S1004で検出した特徴量を不揮発性メモリ56に記録する。記録される特徴量は1つでも複数でもよく、例えばタッチオン時の特徴量や、タッチアップ時の特徴量が記録さ
れる。
S1010では、システム制御部50は、全ての方向(操作指示画面601〜604でそれぞれ指定される4方向)について凹凸係数を記録したか否かを判定する。全ての方向について凹凸係数を記録した場合は第2のキャリブレーション処理を終了し、そうでない場合はS1002に進む。つまり、表示する操作指示画面を切り替えながら凹凸係数を決定するようS1002〜S1010の処理を繰り返し、全ての方向について凹凸係数を記録すると、第2のキャリブレーション処理を終了する。なお、一部の方向(例えば1方向)に対する処理で取得した特徴量をユーザー認証のための特徴量として記録するようにS1010の処理を制御してもよいし、そうでなくてもよい。
図11(a),11(b)は、第2のキャリブレーション処理の具体例を示す図である。図11(a)は、水平右方向へのスライド操作をユーザーに行わせるための操作指示画面601が表示された場合を示し、図11(b)は、垂直上方向へのスライド操作をユーザーに行わせるための操作指示画面603が表示された場合を示す。
図11(a)では、ユーザーは、軌跡1110を描くスライド操作を親指1100で行っている。軌跡1110は、操作指示画面601で指定された水平右方向1112から湾曲している。この場合には、軌跡1110に近似する近似放物線1111の情報(基準曲線情報)として、近似放物線1111の湾曲の程度を示す凹凸係数λが記録される。
図11(b)では、ユーザーは、軌跡1120を描くスライド操作を親指1100で行っている。軌跡1120は、操作指示画面603で指定された垂直上方向1122から湾曲している。この場合には、軌跡1120に近似する近似放物線1121の情報(基準曲線情報)として、近似放物線1121の湾曲の程度を示す凹凸係数Ωが記録される。
ここで、ユーザーが、操作指示画面602の表示に対して、操作指示画面602で指定された水平左方向と平行関係にある軌跡を描くスライド操作を行ったとする。この場合には、水平左方向に対応する凹凸係数として、湾曲していないことを示す凹凸係数が記録される。その結果、後述する第2のスライド応答処理において、水平左方向(水平右方向1112とは逆の方向)への軌跡を描くスライド操作が行われた場合に、水平左方向への測距点枠の移動(水平左方向に基づく処理)が実行されることになる。一方で、水平右方向1112に対応する凹凸係数としては、湾曲していることを示す凹凸係数λが記録されている。このため、水平右方向1112への軌跡を描くスライド操作が行われても、水平右方向1112への測距点枠の移動(水平右方向1112に基づく処理)は実行されないことになる。例えば、水平右方向1112に対して湾曲するように測距点枠が移動することになる。ユーザーが、操作指示画面604の表示に対して、操作指示画面604で指定された垂直下方向と平行関係にある軌跡を描くスライド操作を行った場合も同様である。第2のスライド応答処理において、垂直下方向(垂直上方向1122とは逆の方向)への軌跡を描くスライド操作が行われた場合に、垂直下方向へ測距点枠が移動することになる。一方で、垂直上方向1122に対応する凹凸係数Ω(湾曲あり)が記録されているため、垂直上方向1122への軌跡を描くスライド操作が行われても、垂直上方向1122へは測距点枠が移動しないことになる。
図12に、AF−ONボタンに対する第2のスライド応答処理のフローチャートを示す。第2のスライド応答処理は、AF−ONボタンを押し込むことなく操作面にタッチしてタッチムーブするスライド操作に応じた機能(例:測距点枠(AF枠)の移動)の実行処理である。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開し、システム制御部50が実行することで実現する。第2のキャリブレーション処理後にキャリブレーションモードとは異なるモード(撮影モードなど)を設定すると図
12の処理を開始する。なお、撮影モードなどを設定した場合には、他の処理(例えば操作部70に含まれる他の操作部材の操作に応じた処理、AF−ONボタンの押し込みに応じた処理)も並行して行われるが、それらの説明は省略する。また、図12では、AF−ONボタン1に対するスライド操作への応答処理を説明するが、AF−ONボタン2についても同様に処理される。ただし、AF−ONボタン1に対するタッチオンが検知されている場合にはAF−ONボタン2に対するスライド応答処理は行わないものとする。これによって、AF−ONボタン1とAF−ONボタン2への操作の競合による誤動作を防止することができる(AF−ONボタン1へのスライド操作が優先される)。
S1201では、システム制御部50は、AF−ONボタン1に対するタッチダウンがあったか否かを判定する。タッチダウンを待ち、タッチダウンがあるとS1202に進む。
S1202では、システム制御部50は、AF−ONボタン1からの光学情報(受光部313で撮像された画像)を用いて、AF−ONボタン1に対するタッチ操作を行っている指の特徴量を検出し、システムメモリ52に記録する。
S1203では、システム制御部50は、第2のキャリブレーション処理(図10)で不揮発性メモリ56に記録した複数の特徴量から、S1202で検出した特徴量と適合する特徴量を検出することで、現在のユーザーを特定(判別)する(ユーザー認証)。そして、システム制御部50は、現在のユーザー(S1202で検出した特徴量と適合する特徴量)に対応する情報(基準曲線情報)を不揮発性メモリ56から取得して、システムメモリ52に記録する。なお、S1202〜S1208の処理は、AF−ONボタン1からのタッチアップがあるまで繰り返されるが、S1203の処理は初回でのみ行われてもよい。
S1204では、システム制御部50は、S1202で検出した特徴量の検出位置の変化、つまりスライド操作で描かれた軌跡を、ユーザー入力として検出する。
S1205では、システム制御部50は、S1204で検出したユーザー入力を、第2のキャリブレーション処理(図10)で得られたユーザー固有の座標系(S1203で取得した情報(基準曲線情報)に応じた座標系)に読み込む。
S1206では、システム制御部50は、ユーザー固有の座標系(S1203で取得した情報(基準曲線情報)に応じた座標系)における軸のゆがみを解消するように当該座標系を補正することで、S1204で検出したユーザー入力を補正する。
S1207では、システム制御部50は、S1206の補正後のユーザー入力の方向に測距点枠を移動させる。
なお、S1205の処理は、基準湾曲情報と、行われたスライド操作による軌跡との比較と捉えることもできる。S1206の処理は、S1205の比較に基づいて、行われたスライド操作の方向を判定する処理と捉えることもできる。そして、S1207の処理は、S1206で判定した方向に基づく処理の実行と捉えることもできる。
S1208では、システム制御部50は、AF−ONボタン1からのタッチアップがあったか否かを判定する。タッチアップがあるまでS1202〜S1208の処理を繰り返し、タッチアップがあると第2のスライド応答処理を終了する。
図13(a)〜13(f)は、第2のスライド応答処理の具体例を示す図である。図1
3(a)は、表示部28とファインダー内表示部41の少なくとも一方に表示された画面を示す。図13(a)の画面では、LV画像上に測距点枠1300が表示されている。ここでは、ユーザーが、測距点枠1300を矢印1302の方向に移動させて測距点枠1301としたいとする。
図13(b)は、測距点枠1300を矢印1302の方向に移動させることを意図したスライド操作を示す。図13(b)のスライド操作では、親指1310により軌跡1311が描かれている。ユーザーの意図した方向(矢印1302の方向)は水平右方向であるが、軌跡1311(ユーザー入力)の方向は、ユーザーの癖により上側凸で湾曲している。
図13(c)は、第2のキャリブレーション処理(図10)で得られたユーザー固有の座標系を示す。図13(c)の座標系では、水平右方向に対応する軸として、上側凸で湾曲した軸1320(放物線)を含む。図13(d)は、図13(c)の座標系に図13(b)の軌跡1311を読み込んだ状態を示す。
図13(e)は、軌跡1311の補正を示す。この補正では、軸1320のゆがみを解消するように、軌跡1311が、軸1320が湾曲している方向とは逆の方向に変形される。その結果、補正後の軌跡1311の方向は、ユーザーの意図した水平右方向(図13(a)の矢印1302の方向)と略一致する。軸1320の方向は水平右方向と一致する。
図13(f)は、図13(b)のスライド操作に応じて測距点枠1300(図13(a))を移動させた後の画面を示す。図13(e)の補正を行ったことにより、図13(f)の画面では、水平右方向のスライド操作があったものとして、測距点枠1300が、ユーザーの意図した水平右方向(矢印1302の方向)に移動して、測距点枠1301となっている。
このように、第2のキャリブレーション処理の後の第2のスライド応答処理によれば、意図した方向に対して湾曲した(ゆがんだ)軌跡を描いてしまうユーザーの癖を考慮して、よりユーザーの意図に近い方向に測距点枠を移動させることができる。そして、ユーザーの意図した方向に対して湾曲して測距点枠が移動することによるユーザーの不満を解消することができる。
なお、スライド操作による軌跡から上記補正(変換)を行ってスライド操作の方向を決定するが、スライド操作の移動量は、そのような補正(変換)を行わずに決定することが好ましい。例えば、スライド操作による軌跡の長さを、そのままスライド操作の移動量とすることが好ましい。そうすることで、上記補正(ゆがみの解消)による測距点枠の移動速度の変化を抑制することができる。
また、第1のキャリブレーション処理と第2のキャリブレーション処理を組み合わせたキャリブレーション処理を実行するようにしてもよい。例えば、タッチアップの検出後に、スライド操作の軌跡に近似する近似直線と近似放物線を決定し、近似直線に基づく傾き係数と、近似放物線に基づく凹凸係数とを記録するようにしてもよい。同様に、第1のスライド応答処理と第2のスライド応答処理を組み合わせたスライド応答処理を実行するようにしてもよい。例えば、スライド操作の軌跡のゆがみを凹凸係数に基づいて解消(低減)した後、その傾きを傾き係数に基づいて補正するようにしてもよい。
また、本発明は、AF−ONボタンに対するスライド操作を対象とするものに限られず、他の操作部材に対する操作も対象とすることができる。例えば、タッチパッドやタッチ
パネルに対するスライド操作を検知し、当該スライド操作を対象として上記処理(制御)と同様の処理を行うことができる。マウスやモーションコントローラーなどの操作部材自体の移動を有線/無線で検知し、当該移動を対象として処理を行うこともできる。空間ジェスチャーなどのユーザーの手(操作体)の動きを非接触で検知し、当該移動を対象として処理を行うこともできる。操作体(指やペン、手など)の移動や操作部材(マウスやモーションコントローラーなど)の移動を検知して処理を実行する電子機器であれば、本発明を適用可能である。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、上述した実施形態においては、本発明を撮像装置に適用した場合を例にして説明したが、これはこの例に限定されず、移動操作を検知する操作検知機能を有する電子機器であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。
また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:カメラ 1,2:AF−ONボタン 50:システム制御部

Claims (18)

  1. 移動操作を検知する操作検知手段と、
    ユーザーに対して、特定の方向への直線の軌跡を描く移動操作を行うように促す通知を行う通知手段と、
    前記操作検知手段で検知した、前記通知に対応する第1の移動操作による軌跡に基づく曲線の情報である、前記特定の方向への移動操作か否かを判定するための基準曲線情報と、前記操作検知手段で検知した第3の移動操作による軌跡との比較に基づく方向を、前記第3の移動操作の方向として、前記第3の移動操作の方向に基づく処理を実行する実行手段と
    を有することを特徴とする電子機器。
  2. 移動操作を検知する操作検知手段と、
    ユーザーに対して、第1の方向への直線の軌跡を描く移動操作を行うように促す第1の通知と、前記第1の方向と垂直な第2の方向への直線の軌跡を描く移動操作を行うように促す第2の通知とを行う通知手段と、
    前記操作検知手段で検知した、前記第1の通知に対応する第1の移動操作による軌跡と、前記第2の通知に対応する第2の移動操作による軌跡とが垂直関係になかった場合には、互いに垂直でない、前記第1の移動操作による軌跡に基づく第1の軸と、前記第2の移動操作による軌跡に基づく第2の軸とを含む情報である、前記移動操作の方向を判定するための基準座標軸情報と、前記操作検知手段で検知した第3の移動操作による軌跡との比較に基づく方向を、前記第3の移動操作の方向として、前記第3の移動操作の方向に基づく処理を実行する実行手段と
    を有することを特徴とする電子機器。
  3. 移動操作を検知する操作検知手段と、
    ユーザーに対して、特定の方向への直線の軌跡を描く移動操作を行うように促す通知を行う通知手段と、
    前記操作検知手段で検知した、前記通知に対応する第1の移動操作による軌跡と、前記特定の方向とが平行関係になかった場合には、前記特定の方向と平行でない、前記第1の移動操作による軌跡に基づく直線の情報である、前記特定の方向への移動操作か否かを判定するための基準直線情報と、前記操作検知手段で検知した第3の移動操作による軌跡との比較に基づく方向を、前記第3の移動操作の方向として、前記第3の移動操作の方向に基づく処理を実行する実行手段と
    を有することを特徴とする電子機器。
  4. 前記実行手段は、
    前記特定の方向とは逆の方向への軌跡を描く第3の移動操作が行われた場合には、当該逆の方向に基づく処理を実行し、
    前記特定の方向への軌跡を描く第3の移動操作が行われた場合には、前記特定の方向に基づく処理を実行しない
    ことを特徴とする請求項1または3に記載の電子機器。
  5. 前記実行手段は、
    前記第1の軸に対して特定の角度で傾いた軌跡を描く第3の移動操作が行われた場合には、前記第1の軸に対して前記特定の角度で傾いた方向に基づく処理を実行し、
    前記第2の軸に対して前記特定の角度で傾いた軌跡を描く第3の移動操作が行われた場合には、前記第2の軸に対して前記特定の角度で傾いた方向に基づく処理を実行しないことを特徴とする請求項2に記載の電子機器。
  6. 前記第3の移動操作による軌跡と比較する情報を記憶する記憶手段と、
    前記比較に基づいて、前記第3の移動操作の方向を判定する判定手段と
    をさらに有することを特徴とする請求項1〜5のいずれか1項に記載の電子機器。
  7. 前記移動操作は、操作体を移動させる操作である
    ことを特徴とする請求項1〜6のいずれか1項に記載の電子機器。
  8. 前記移動操作は、タッチ操作部材に対するタッチ位置を移動させる操作である
    ことを特徴とする請求項7に記載の電子機器。
  9. 前記移動操作は、操作部材を移動させる操作である
    ことを特徴とする請求項1〜6のいずれか1項に記載の電子機器。
  10. 前記移動操作は、マウスを移動させる操作である
    ことを特徴とする請求項9に記載の電子機器。
  11. 前記実行手段は、前記第3の移動操作による軌跡と比較する情報として、複数の情報のうち、対応する第1の移動操作を行ったユーザーの指の特徴量が、前記第3の移動操作を行うユーザーの指の特徴量と適合する情報を用いる
    ことを特徴とする請求項1〜10のいずれか1項に記載の電子機器。
  12. 前記第1の移動操作は、キャリブレーションモードで行われた移動操作であり、
    前記第3の移動操作は、前記キャリブレーションモードとは異なるモードで行われた移動操作である
    ことを特徴とする請求項1〜11のいずれか1項に記載の電子機器。
  13. 前記実行手段は、前記第3の移動操作による軌跡から、前記比較に基づく変換を行って決定した前記第3の移動操作の方向と、前記変換を行わずに決定した前記第3の移動操作の移動量とに基づく処理を実行する
    ことを特徴とする請求項1〜12のいずれか1項に記載の電子機器。
  14. 移動操作を検知する操作検知ステップと、
    ユーザーに対して、特定の方向への直線の軌跡を描く移動操作を行うように促す通知を行う通知ステップと、
    前記操作検知ステップで検知した、前記通知に対応する第1の移動操作による軌跡に基づく曲線の情報である、前記特定の方向への移動操作か否かを判定するための基準曲線情報と、前記操作検知ステップで検知した第3の移動操作による軌跡との比較に基づく方向を、前記第3の移動操作の方向として、前記第3の移動操作の方向に基づく処理を実行する実行ステップと
    を有することを特徴とする電子機器の制御方法。
  15. 移動操作を検知する操作検知ステップと、
    ユーザーに対して、第1の方向への直線の軌跡を描く移動操作を行うように促す第1の通知と、前記第1の方向と垂直な第2の方向への直線の軌跡を描く移動操作を行うように促す第2の通知とを行う通知ステップと、
    前記操作検知ステップで検知した、前記第1の通知に対応する第1の移動操作による軌跡と、前記第2の通知に対応する第2の移動操作による軌跡とが垂直関係になかった場合には、互いに垂直でない、前記第1の移動操作による軌跡に基づく第1の軸と、前記第2の移動操作による軌跡に基づく第2の軸とを含む情報である、前記移動操作の方向を判定するための基準座標軸情報と、前記操作検知ステップで検知した第3の移動操作による軌
    跡との比較に基づく方向を、前記第3の移動操作の方向として、前記第3の移動操作の方向に基づく処理を実行する実行ステップと
    を有することを特徴とする電子機器の制御方法。
  16. 移動操作を検知する操作検知ステップと、
    ユーザーに対して、特定の方向への直線の軌跡を描く移動操作を行うように促す通知を行う通知ステップと、
    前記操作検知ステップで検知した、前記通知に対応する第1の移動操作による軌跡と、前記特定の方向とが平行関係になかった場合には、前記特定の方向と平行でない、前記第1の移動操作による軌跡に基づく直線の情報である、前記特定の方向への移動操作か否かを判定するための基準直線情報と、前記操作検知ステップで検知した第3の移動操作による軌跡との比較に基づく方向を、前記第3の移動操作の方向として、前記第3の移動操作の方向に基づく処理を実行する実行ステップと
    を有することを特徴とする電子機器の制御方法。
  17. コンピュータを、請求項1〜13のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
  18. コンピュータを、請求項1〜13のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
JP2019220335A 2019-12-05 2019-12-05 電子機器 Pending JP2021089644A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019220335A JP2021089644A (ja) 2019-12-05 2019-12-05 電子機器
US17/110,472 US20210173527A1 (en) 2019-12-05 2020-12-03 Electronic apparatus executing processing based on move operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220335A JP2021089644A (ja) 2019-12-05 2019-12-05 電子機器

Publications (1)

Publication Number Publication Date
JP2021089644A true JP2021089644A (ja) 2021-06-10

Family

ID=76210459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220335A Pending JP2021089644A (ja) 2019-12-05 2019-12-05 電子機器

Country Status (2)

Country Link
US (1) US20210173527A1 (ja)
JP (1) JP2021089644A (ja)

Also Published As

Publication number Publication date
US20210173527A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
JP2017175606A (ja) 電子機器およびその制御方法、ならびに撮像装置
JP2018129765A (ja) 撮像装置及びその制御方法
JP6701033B2 (ja) 電子機器およびその制御方法
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
US11184528B2 (en) Electronic apparatus, control method therefor, and non-transitory computer readable medium
US11175737B2 (en) Electronic device for receiving line of sight input, method of controlling electronic device, and non-transitory computer readable medium
US11252322B2 (en) Electronic device capable of performing control in accordance with a movement operation of an operating body and control method thereof
US20200341627A1 (en) Electronic device and control method thereof
JP6701027B2 (ja) 撮像装置、その制御方法およびプログラム
US11269499B2 (en) Electronic apparatus and control method for fine item movement adjustment
US11281074B2 (en) Image capturing apparatus improved in operability of operation section
JP7327988B2 (ja) 電子機器及びその制御方法
US11245835B2 (en) Electronic device
JP7433854B2 (ja) 撮像制御装置、撮像制御方法、プログラム、記憶媒体
JP2019012889A (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
US10852881B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP2021012619A (ja) 電子機器及びその制御方法
US20210173527A1 (en) Electronic apparatus executing processing based on move operation
JP6708516B2 (ja) 電子装置、その制御方法およびプログラム
JP6393296B2 (ja) 撮像装置及びその制御方法、撮像制御装置、プログラム、並びに記憶媒体
JP2021097356A (ja) 撮像制御装置
JP2020181450A (ja) 電子機器、電子機器の制御方法、プログラム、記録媒体
JP7277247B2 (ja) 電子機器及びその制御方法
JP2020166199A (ja) 電子機器及びその制御方法
JP7317567B2 (ja) 電子機器