JP6701033B2 - 電子機器およびその制御方法 - Google Patents

電子機器およびその制御方法 Download PDF

Info

Publication number
JP6701033B2
JP6701033B2 JP2016168607A JP2016168607A JP6701033B2 JP 6701033 B2 JP6701033 B2 JP 6701033B2 JP 2016168607 A JP2016168607 A JP 2016168607A JP 2016168607 A JP2016168607 A JP 2016168607A JP 6701033 B2 JP6701033 B2 JP 6701033B2
Authority
JP
Japan
Prior art keywords
touch
region
display unit
area
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016168607A
Other languages
English (en)
Other versions
JP2018036802A (ja
Inventor
泰史 小山
泰史 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016168607A priority Critical patent/JP6701033B2/ja
Priority to US15/683,538 priority patent/US10313580B2/en
Priority to CN201710741298.5A priority patent/CN107797714B/zh
Publication of JP2018036802A publication Critical patent/JP2018036802A/ja
Application granted granted Critical
Publication of JP6701033B2 publication Critical patent/JP6701033B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Viewfinders (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、電子機器およびその制御方法に関し、特にタッチ操作に応じて位置を決定する技術に関する。
近年、タッチ操作を行う際に、ユーザの見ている表示部とは異なる位置に配設されたタッチパネルを操作するという方法が提案されている。特許文献1には、ファインダ内の表示部を覗きながら背面モニタにタッチ操作をするとAF位置を変更でき、さらに背面モニタの端からタッチをスライドアウトするとAF位置の初期化がされることが開示されている。
特開2012−203143号公報
ファインダ内の表示部を覗きながら、タッチパネルを操作する場合、ユーザはファインダ内の表示部を見ているので、タッチパネル上のどこにタッチをしているのか把握しにくい。つまり、ファインダを覗いた状態でタッチ操作する場合には、ユーザは現在のタッチ点を正確に把握しにくいため、タッチが無効な領域へと意図せずタッチ位置が移動してしまう可能性がある。このとき、意図せずタッチ位置が無効な領域に移動してしまったユーザにとっては、特許文献1のようにAF位置を初期化してしまうと、意図しない設定や処理がされてしまう可能性がある。
本発明は、上記の課題に鑑み、タッチ位置がタッチ無効領域に移動したことにより、意図しない処理がされてしまう可能性を低減することを目的とする。
上記目的を達成するために、本発明の電子機器は、操作面へのタッチ操作を検出可能なタッチ検出手段と、前記操作面の第1の領域と、前記第1の領域と隣り合う第3の領域と、前記第3の領域と隣り合う第2の領域のうち、前記第1の領域において、タッチ位置の移動がされた場合に、前記操作面とは異なる表示部に表示されるマークをタッチ位置の移動の第1の成分と第2の成分とに応じて移動し、前記操作面のうち、前記第2の領域においてタッチ位置が移動しても、前記表示部に表示される前記マークを移動しないようにし、前記第3の領域においてタッチ位置が移動すると、前記表示部に表示される前記マークを、タッチ位置の移動の第1の成分と第2の成分のうち、少なくとも一方の成分に応じた移動は行わないように制御する制御手段とを有することを特徴とする。
本発明によれば、タッチ位置がタッチ無効領域に移動したことにより、意図しない処理がされてしまう可能性を低減することができる。
本実施形態の構成を適用可能な装置の一例としてのデジタルカメラの外観図 本実施形態の構成を適用可能な装置の一例としてのデジタルカメラの構成例を示すブロック図 本実施形態における撮影モード処理を示すフローチャート 本実施形態におけるクリップ処理を示すフローチャート 本実施形態におけるタッチパネルのタッチ位置と表示部の様子を示す図
以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)、(b)に本実施形態を適用可能な電子機器の一例としてのデジタルカメラの外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。表示部28は画像や各種情報を表示する表示部であり、タッチ操作を受付可能(タッチ検出可能)なタッチパネル70aが一体に操作面として設けられている。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための(切替可能な)操作部である。端子カバー40は外部機器とデジタルカメラ100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は操作部70に含まれる回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は、操作部70に含まれる回転操作部材であり、選択枠の移動や画像送りなどを行える。十字キー74は操作部70に含まれ、上、下、左、右部分をそれぞれ押し込み可能な十字キー(4方向キー)である。十字キー74の押した部分に応じた操作が可能である。SETボタン75は操作部70に含まれ、押しボタンであり、主に選択項目の決定などに用いられる。LVボタン(ライブビューボタン)78は操作部70に含まれ、静止画撮影モードにおいては、表示部28におけるライブビュー(以下、LV)表示のONとOFFを切り替えるボタンである。動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。再生ボタン79は操作部70に含まれ、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。
グリップ部90は、デジタルカメラ100を保持しながら操作をするための保持部(把持部)であり、グリップ部90側には操作部70がある。
ユーザは、ファインダ16を覗きこむと、電子ビューファインダ(EVF)であるファインダ内表示部76に表示された被写体を見ることができる(視認可能)。接眼センサ77は、物体が1センチや2センチ等の所定距離より近い距離(所定距離以内)に接近していることを検知するための物体検知手段(接眼検知)である。例えばユーザがファインダ16に目を近付け(接眼部16aを覗きこむようにする)、接眼センサ77が物体(目)の接近を検知すると、表示部28からファインダ内表示部76に表示が切り替わり、ユーザは被写体の様子を見ることができる。また、接眼センサ77は所定距離以上物体(目)が離れたことを検知すると、ファインダ内表示部76からアイテム等の表示を非表示にし、表示部28に表示を切り替える。また、ユーザがファインダ16を覗きこむと、表示部28(ファインダ外表示部)は非表示になるが、AF位置の設定等のためのタッチパネル70aへのタッチ操作は受け付けることができる。AF位置はAF処理をする被写体の位置を示すものである。AF位置以外にも特定の処理を行う位置を示すアイテムやマークをファインダ内表示部76に表示することができる。このとき、グリップ部90を保持しシャッターボタン61に指をかけた状態で、タッチパネル70aへタッチ操作をすると、ファインダ内表示部76を見ながら、AF位置の移動操作と撮影指示とを素早く行うことができる。ただし、ファインダ16の表示は、EVFでなくても、OVF(光学ファインダ)でもよい。
レンズユニット150は、デジタルカメラ100に取り外し可能なレンズ部である。
図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。
図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100側と通信を行う為の通信端子であり、通信端子10はデジタルカメラ100がレンズユニット150側と通信を行う為の通信端子である。
ファインダ内表示部76は、ファインダ16(ファインダ部)から視認可能に配置された表示部である。また、ユーザがファインダ16を覗くと、ファインダ内表示部76上のAF位置を示す枠や、カメラの設定状態を表すアイコン等(アイテム、マーク、記号等)も確認することができる。ファインダ内表示部76のAF処理可能な被写体の領域にAF枠は表示される。AF枠はライブビュー画像に重畳して表示されるので、AF処理がされる被写体をユーザは認識しやすい。
焦点検出部11(AFセンサー)は、撮像画像よりシステム制御部50にデフォーカス量情報を出力する位相差検出方式のAFセンサーである。システム制御部50は通信端子6,10を介して、レンズユニット150を制御可能であり、AF駆動回路3を介して、デフォーカス量情報に基づいて位相差AFを行い、レンズ103の位置を変位させることで位相差AFを行う(AF実行可能)。AFの方法は、位相差AFでなくてもよく、コントラストAFでもよい。また、移動差AFは焦点検出部11を用いずに、撮像部22の撮像面で検出されたデフォーカス量に基づいて行ってもよい(撮像面位相差AF)。
撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
表示部28は画像を表示するための背面モニタであり、画像を表示するディスプレイであれば液晶方式に限らず、有機ELなど他の方式のディスプレイであってもよい。
A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28やファインダ内表示部76に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ変換する。さらに、表示部28(ファインダ内内表示部76に表示を行っている場合にはファインダ内表示部76)に逐次転送して表示することで、スルー画像表示(ライブビュー表示)を行える。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開され、RAMが用いられる。また、システム制御部50はメモリ32、D/A変換器19、表示部28、ファインダ内表示部76等を制御することにより表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
モード切替スイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。
モード切替スイッチ60は、システム制御部50の動作モードを撮影モード、再生モード等のいずれかに切り替える。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、これらのモードのいずれかに直接切り替えられる。あるいは、メニュー画面に一旦切り換えた後に、メニュー画面に含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。操作部70には、少なくとも以下の操作部が含まれる。シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、LVボタン78、再生ボタン79。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源スイッチ72は、電源のONとOFFの切替操作を受け付ける。
電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(スルー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信(受信可能)することができる。
なお操作部70の一つとして、表示部28に対する接触を検知可能なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。このように、タッチ操作が行われた位置と表示部28の位置とを対応づけて指示を受け付ける設定を絶対座標設定という。
また、絶対座標設定とは異なり、表示部28の所定の位置から、タッチ位置に対応する位置ではなく、タッチ操作の移動量や移動方向等に応じて移動した位置(移動操作に応じた量移動した位置)への指示を受け付ける設定を相対座標設定という。
ファインダ内表示部76を見ながら操作をする場合には、絶対座標設定でタッチ操作をすると、タッチパネル70a(表示部28)を見ないでタッチすることになり、所望の位置からずれた位置に誤ってタッチ操作をしてしまう可能性が高い。一方で、相対座標設定でタッチ操作をすると、タッチ操作の位置ではなく移動量で移動指示をするので、ファインダ内表示部76に表示される操作対象の位置を見ながら所望の位置まで、移動する操作をすれば所望の位置への指示をすることができる。絶対座標設定と相対座標設定はメニュー画面のタッチパッド設定において設定することができる。相対座標設定の場合に、表示部28をユーザが見ている状態で操作をすると、タッチ位置と指示位置がずれて操作性がよくない可能性がある。よって、接眼センサ77(接近検知センサ)が物体の接近を検知した時に相対座標でのタッチ操作を受け付けると、表示部28をみている場合にもファインダ内表示部76を見ている場合にも操作性がよい。なお、表示部28に画像を表示しないが、タッチパネル70aがタッチ操作を受け付ける機能をタッチパッド機能と称する。
システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネルにタッチしていなかった指やペンが新たにタッチパネルにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネルを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネルを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネルへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネルに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。タッチムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。タッチオンが検出されてからタッチムーブせずに、素早タッチアップする一連の操作をタップという。またタッチパネル上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
次に図3を用いて本実施形態における撮影モード処理について説明をする。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。なお、この処理は、デジタルカメラ100に電源が入り、撮影モードが選択されると開始する。
S301では、システム制御部50は、表示部28にライブビュー画像(LV画像、スルー画像)を表示する。
S302では、システム制御部50は、タッチ操作に関する設定を行うタッチ設定がメニュー画面において選択されたか否かを判定する。メニュー画面はメニューボタンの押下によって表示され、さらにメニュー画面においてタッチ操作設定を選択するとタッチ設定が選択可能となる。タッチ設定においては、ファインダ接眼時のタッチ操作によるAF設定変更(タッチ&ドラッグAF)を有効とするかしないか、位置指定方法を絶対座標設定にするか相対座標設定にするか、タッチ有効領域をどこにするかを選択することができる。タッチ有効領域は、全体、右、左、右上、左上、右下、左下の何れかから(有効領域設定)選択できる。
S303では、タッチ設定においてファインダ接眼時のタッチ操作によるAF設定変更が有効になったか否かを判定する。ファインダ接眼時のタッチ操作によるAF設定変更を有効にする(ON)と設定されたと判定した場合は、S304へ進み、そうでない場合は、S305へ進む。
S304では、システム制御部50は、ファインダ接眼時のタッチ操作によるAF設定変更を有効にする。撮影者がファインダ16を覗き、表示部28が消灯し、ファインダ内表示部76にLV画像が表示された状態で、ファインダ接眼時のタッチ操作によるAF設定変更が有効であると、表示部28(タッチパネル70a)へのタッチ操作でAF位置の設定ができる。よって、ファインダ接眼時のタッチ操作によるAF設定変更を有効にすると表示部28に表示がされていない状態であってもユーザはファインダ16を覗きながらAF位置の設定を操作性良く行うことができる。
S305では、システム制御部50は、タッチ有効領域設定が変更されたか否かを判定する。本実施形態においては、タッチパネル70aは、タッチ有効領域とタッチ緩衝領域とタッチ無効領域(全体設定を除く)とに分けられる。タッチ緩衝領域とタッチ無効領域とはタッチ有効領域の範囲に応じて決定され、タッチ緩衝領域はタッチ有効領域とタッチ無効領域の境界の領域(間に挟まれた領域)を少なくとも含む領域であり、タッチ有効領域を囲うように設定される領域である。S305においては、タッチパネル70aにおけるタッチ有効領域の大きさ及び位置の設定の変更操作が行われたか否かを判定する。タッチ有効領域設定としてはタッチパネル70a全体、右半分、左半分、右上、左上、右下、左下の7パターンから選択可能である。ただし、全体、右半分、左半分といった区分は必ずしもタッチパネル70aの領域を正確に示したものではなく、ユーザが分かりやすく範囲を把握できるようにしたものである。タッチ有効領域設定が変更されたと判定した場合は、S306へ進み、そうでない場合は、S308へ進む。
S306では、システム制御部50は、S305で判定されたユーザの操作によって変更されたタッチ有効領域を設定する。タッチ有効領域とファインダ内表示部76の関係について図5を用いて説明する。
図5(a)は、S305においてタッチ有効領域が全体に変更された場合を示しており、タッチ有効領域((α、β)〜(A−α、B−β))と、ファインダ内表示部76の領域((0、0)〜(C、D))とが対応する領域となっている。すなわち、絶対座標設定の時は、タッチ入力座標が(α、β)である場合には、ファインダ内表示部76の座標は(0、0)となり、タッチ入力座標が(A−α、B−β)である場合には、ファインダ内表示部76の座標は(C、D)となる。絶対座標設定の時に、タッチ有効領域でタッチ操作をするとタッチ入力座標に対応するファインダ内表示部76の座標に、AF枠が表示される。また、相対座標設定の時は、タッチ入力座標がファインダ内表示部76の各座標と対応しないが、タッチ有効領域内でのタッチ位置の移動に応じて、AF枠の表示位置が移動する。タッチ入力座標がタッチ有効領域においてX軸方向に距離K移動すると、ファインダ内表示部76のAF枠はK*(C/(A−α―α))分移動する。
図5(b)は、S305においてタッチ有効領域が右半分に変更された場合を示しており、タッチ有効領域((A/2、β)〜(A−α、B−β))と、ファインダ内表示部76の領域((0、0)〜(C、D))とが対応する領域となっている。すなわち、絶対座標設定の時は、タッチ入力座標が(A/2、β)である場合には、ファインダ内表示部76の座標は(0、0)となり、タッチ入力座標が(A−α、B−β)である場合には、ファインダ内表示部76の座標は(C、D)となる。また、相対座標設定の時は、タッチ入力座標がタッチ有効領域においてX軸方向に距離K移動すると、ファインダ内表示部76のAF枠はK*(C/(A−α―(A/2)))分移動する。
図5(c)は、S305においてタッチ有効領域が右上に変更された場合を示しており、タッチ有効領域((A/2、β)〜(A−α、B/2))と、ファインダ内表示部76の領域((0、0)〜(C、D))とが対応する領域となっている。すなわち、絶対座標設定の時は、タッチ入力座標が(A/2、β)である場合には、ファインダ内表示部76の座標は(0、0)となり、タッチ入力座標が(A−α、B/2)である場合には、ファインダ内表示部76の座標は(C、D)となる。また、相対座標設定の時は、タッチ入力座標がタッチ有効領域においてX軸方向に距離K移動すると、ファインダ内表示部76のAF枠はK*(C/(A−α―(A/2)))分移動する。
タッチ有効領域が広く設定されると細かな座標の設定をしやすくなるが、ファインダ16を覗いた状態では、顔がタッチパネル70aに近づいているので、顔とタッチパネル70aの間に指が入りにくく、タッチ操作がしにくくなる。よって、タッチ操作のしにくい領域にタッチ位置を移動しにくくなり、絶対座標設定の場合には顔付近の領域に対応する座標へのAF枠の表示がしにくくなる。そこで、図5(b)、(c)のようにタッチ有効領域をユーザのタッチのしやすい領域へと限定することで、ユーザがファインダ16を覗いた状態であってもファインダ内表示部76の所望の座標を選択しやすくすることができる。
S307では、システム制御部50は、タッチ緩衝領域を設定する。タッチ緩衝領域は、上述したようにタッチ有効領域の周りを囲うように、設けられる領域である。タッチ緩衝領域は、図5(a)のタッチ有効領域が全体に設定された場合には、0≦x<α、A−α<x≦A、0≦y<β、B−β<y≦Bがタッチ緩衝領域となる。図5(b)のタッチ有効領域が右半分に設定された場合には、タッチ緩衝領域は、A/2−α≦x<A/2、A−α<x≦A、0≦y<β、B−β<y≦Bとなる。図5(c)のタッチ有効領域が右上に設定された場合には、タッチ緩衝領域は、A/2−α≦x<A/2、A−α<x≦A、0≦y<β、B/2<y≦B/2+βとなる。タッチ緩衝領域へタッチがされるとタッチ入力座標を、タッチ有効領域のX軸方向、Y軸方向共に最も近い座標へと補正(クリップ)する。タッチ有効領域からタッチ操作を受付けない領域(タッチ無効領域やタッチ操作を受付けないタッチパネル70aの縁の外)へと意図せずタッチ位置を移動すると、ユーザがタッチ位置の移動をしようとしているのにタッチを離したことになる可能性がある。ファインダ16を覗いた状態ではユーザがタッチ位置を正確に把握しにくいので、タッチ位置が意図せずタッチを受付けない領域へと移動してしまったりすることがある。そこで、タッチ有効領域を囲うタッチ緩衝領域を設けると、タッチ有効領域からタッチ位置が外れたとしてもすぐにはタッチ無効領域にタッチ位置が移動しないので、意図せず突然タッチを離したことにはならない。ファインダ接眼時のタッチ操作によるAF設定変更をする際には、タッチ無効領域へのタッチ位置の移動、タッチ有効領域またはタッチ緩衝領域でのタッチアップ(離れる)がされるとタッチ位置の設定指示となる。よって、タッチ緩衝領域を設けることで、ユーザの意図しない位置にAF位置が設定されにくくなる。また、タッチ有効領域を、タッチパネル70aの全域ではなく一部とすると、S306で上述したように、ファインダ16を覗いている時の操作性が向上するが、一方でタッチ有効領域と無効領域の境目は分かりにくくなる。タッチ有効領域から無効領域へとタッチ位置が移動しないように慎重に操作をしたり、タッチ有効領域のぎりぎりにタッチ位置が達しないようにタッチ有効領域の中央部分でのみ操作をしていると操作性が低下する。よって、タッチ緩衝領域を設けているが、例えば、タッチ有効領域が右半分や右上の場合に、タッチパネル70aのうちタッチ有効領域以外の全領域をタッチ緩衝領域としてしまうと、意図しないタッチによる処理が行われる可能性が高くなる。ユーザがファインダ16を覗いた状態においては、タッチパネル70aの部分に鼻やほほ等の顔のパーツが当たりやすく、タッチ緩衝領域を大きくすると、鼻当たりによるタッチでAF枠が移動してしまう可能性がある。よって、タッチ緩衝領域はタッチ無効領域とタッチ有効領域の間に設けた方がよい。
S308では、システム制御部50は、撮影モード処理を終了するか否かを判定する。撮影モード処理は、再生モードへの切り替え、デジタルカメラ100の電源のOFF等により終了する。撮影モード処理を終了すると判定した場合は、撮影モード処理を終了し、そうでない場合には、S309へ進む。
S309では、システム制御部50は、ファインダ部16にある接眼センサ77が物体の接近(ユーザの接眼)を検知したか否かを判定する。接眼センサ77が物体の接近を検知したと判定した場合は、S310へ進み、そうでない場合は、S331へ進む。なお、Noと判定された場合に、ファインダ内表示部76にLV画像が表示されている(一周期以上前のS310で表示された)時は、表示部28に表示を切り替える。ファインダ接眼時のタッチ操作によるAF設定変更は接眼センサ77が、ユーザがファインダを覗こうとしていることを検知し、表示部28からファインダ内表示部76に表示が切り替わると可能になる。
S310では、システム制御部50は、ファインダ内表示部76にライブビュー画像を表示する。このとき、ファインダ内表示部76へのライブビュー画像の表示と共に、表示部28のライブビュー画像を非表示にするが、少なくともファインダ接眼時のタッチ操作によるAF設定変更が有効な場合は、タッチ操作は受付可能とする。
S311では、システム制御部50は、S303で設定されたファインダ接眼時のタッチ操作によるAF設定変更が有効になっているか否かを判定する。ファインダ接眼時のタッチ操作によるAF設定変更が有効になっていると判定された場合は、S312へ進み、そうでない場合は、S302へ戻る。
S312では、システム制御部50は、タッチパネル70aへのタッチダウンがされたか否かを判定する。タッチパネル70aへのタッチダウンがされたと判定した場合は、S313へ進み、そうでない場合は、S302へ戻る。
S313では、システム制御部50は、S312で検出したタッチダウンのタッチパネル70aにおけるタッチ位置を取得し、システムメモリ52に(X0,Y0)として記録する。
S314では、システム制御部50は、S312でタッチダウンしたタッチ位置が有効領域か否かを判定する。タッチ有効領域であると判定した場合は、S315へ進み、そうでない場合は、S316へ進む。S314においてタッチ有効領域であると判定した場合には、現在のタッチ位置座標をシステムメモリ52に記録する。
S315では、システム制御部50は、S312でのタッチダウンに応じてファインダ内表示部76の表示座標を取得する。S314においてYesと判定され(有効領域)てS315に進んだ場合に、絶対座標設定であれば、タッチ位置座標と表示座標とが対応づくが、相対座標設定であれば、表示座標は直前に設定されていたAF位置(タッチ位置座標に対応しない)となる。例えば図5(a)において、絶対座標設定であれば、タッチ位置座標がP1=(x1、y1)であれば、ファインダ内表示部76における表示座標AF1は、(X,Y)=((x1−α)×C/(A−α―α)、((y1―β)×D/(B−β−β))となる。図5(b)において、相対座標設定であれば、タッチ位置に関わらず表示座標はファインダ内表示部76のうち、直前に設定されていたAF位置(例えばAF2の位置であり、P2の位置には対応しない)となる。ただし、相対座標設定の場合にも、まだAF位置が設定されていない場合(初期位置の場合)には、タッチダウンがされるとタッチ位置に関わらず中央の位置にAF枠が表示される。また、S316においてYesと判定され(タッチ緩衝領域)て、S315に進んだ場合に、表示座標は絶対座標設定であれば、S317においてクリップ処理された対応座標と表示座標とが対応づくが、相対座標設定であれば直前に設定されていたAF位置となる。
S316では、システム制御部50は、S312でタッチダウンしたタッチ位置がタッチ緩衝領域にあるか否かを判定する。タッチ緩衝領域であると判定した場合は、S317へ進み、そうでない場合は、S318へ進む。
S317では、システム制御部50は、タッチ緩衝領域におけるタッチ位置をタッチ有効領域の座標へと補正するクリップ処理を行う。クリップ処理については図4において後述する。クリップ処理では、タッチ位置座標をタッチ有効領域の端の位置へと補正する処理を行う。また、タッチ位置座標を補正した座標をシステムメモリ52に記録する。
S318では、システム制御部50は、S312でタッチダウンしたタッチ位置がタッチ無効領域であったと判定したので、タッチを無効とし、タッチダウンに応じた処理(AF枠の表示)は実行しない。タッチが無効とされた場合には、タッチされたことを示す指示マークは表示されないが、タッチ無効領域にタッチダウンした後、タッチ位置がタッチ緩衝領域やタッチ有効領域へ移動するとAF枠は表示されるようになる。また、タッチ無効領域でタッチダウンし、タッチアップがされてもAF位置の設定は変更されない。ただし、タッチ有効領域やタッチ緩衝領域においてタッチダウンされた後、タッチ無効領域へタッチ位置が移動した場合には、S324でNOと判定され、AF位置が設定される。
S319では、システム制御部50は、S315で取得したファインダ内表示部76の表示座標にAF枠を表示する。絶対座標設定であれば、タッチダウンしたタッチ位置座標もしくは、クリップ処理で補正された座標に対応するファインダ内表示部76の表示座標にAF枠を表示する。タッチダウンが有効領域にされると、図5(a)のタッチ有効領域が全体であれば、タッチダウン点がP1であると、AF枠はAF1の位置に表示される。タッチダウンがタッチ緩衝領域にされると、図5(a)のようにタッチ有効領域が全体であれば、タッチダウン点がP4であると、AF枠はAF4の位置に表示される。タッチ緩衝領域にタッチしたので、P4のタッチダウン点はクリップ処理において有効領域の端に補正され(P´4)、さらに補正された座標に対応するファインダ内表示部76の表示座標(AF4)にAF枠が表示される。なお、図5(b)や(c)に示すタッチ無効領域においてタッチダウンをした後、タッチ位置がタッチ緩衝領域まで移動したら、タッチ緩衝領域に移動してきた時点で補正された座標に対応する表示座標にAF枠が表示される。
一方、相対座標設定の場合には直前に設定されていたAF位置(タッチ位置座標には応じない位置)にAF枠を表示する。タッチダウンがタッチ有効領域にされる(例えばP2)と、図5(b)のタッチ有効領域が右半分であれば、AF枠はファインダ内表示部76の中央の位置であるAF2の位置に表示される。タッチダウンがタッチ緩衝領域にされても、AF枠はAF2の位置に表示される。なお、無効領域においてタッチダウンをした場合に、無効領域からタッチ位置が移動され、図5(c)のようにタッチ緩衝領域のP3まで移動したら、タッチ緩衝領域に移動してきた時点で直前に設定されていたAF位置にAF枠は表示される。図5(c)のAF3は設定中のAF枠を示す表示であり、タッチ無効領域からタッチ緩衝領域にタッチ位置が移動したことに応じて表示される。つまり、相対座標設定の時にはタッチ緩衝領域のP3に移動したことに応じて、AF枠が表示される。
S320では、システム制御部50は、タッチ位置の移動がされたか否かを判定する。タッチ位置の移動がされたと判定した場合は、S321へ進み、そうでない場合は、S328へ進む。
S321では、システム制御部50は、S313と同様にタッチ位置座標を取得し、システムメモリ52に(Xn,Yn)として記録する。一周期前のS321において既にタッチ位置座標を取得していた場合には、一周期前に取得した直前のタッチ位置座標を(X(n−1)、Y(n−1))として記録する。なお、S321でタッチ位置座標を取得した後に、S320において直前のタッチ位置座標と比較することによりタッチ位置の移動がされたかを判定してもよい。
S322では、システム制御部50は、S314と同様の処理を行う。
S323では、システム制御部50は、表示座標を取得する。表示座標は、絶対座標設定の場合にはS321で取得されたタッチ位置座標もしくは、S325でタッチ位置座標が補正された座標に対応づく位置が表示座標となる。図5(a)においてタッチ位置がP1からP4に移動したとしても、P4´に補正された位置が表示座標となる。また、相対座標設定の場合には、AF枠がS323の処理の前に表示されていた位置からタッチ位置の移動に応じて移動した位置を表示座標とする。S315の処理の後初めてS323に進んだ場合には(X0,Y0)、そうでない場合には(X(n−1)、Y(n−1))と、直前のS321で取得したタッチ位置座標(Xn,Yn)とを比較してタッチ位置の移動距離を求める。ただし、タッチ緩衝領域をタッチしていた場合には、タッチ位置座標がクリップ処理されているので、実際にタッチ位置の移動した距離ではなく、補正された座標と現在のタッチ位置座標とを比較することにより、タッチ位置の移動距離として求める。
S324では、システム制御部50は、S320でタッチ位置が移動したと判定された後のタッチ位置がタッチ緩衝領域にあるか否かを判定する。タッチ緩衝領域であると判定した場合は、S325へ進み、そうでない場合は、S326へ進む。
S325の処理は、S317と同様のクリップ処理であり、図4において後述する。
S326では、システム制御部50は、AF位置を設定する。S322及びS324においてNoと判定されてS326に進んだ場合には、タッチ位置がタッチ無効領域へと移動したので、タッチ無効領域へとタッチ位置が移動する直前にAF枠が表示されていた位置に基づいてAF位置の設定をする。S328においてYesと判定されてS326に進んだ場合には、ユーザがタッチ有効領域またはタッチ緩衝領域においてタッチを離したので、タッチを離した時のAF枠の位置に基づいてAF位置を設定する。顔追尾AFの場合には、タッチした位置にAF枠(指標枠)が表示され、顔を検知した位置にAF枠が移動されると、顔の位置に枠が吸着し、顔検出枠(例えばオレンジ色の二重線の枠)へと表示形態が変わる。タッチを離すか、タッチ無効領域までタッチ位置が移動すると、顔検出枠内の被写体に(追尾対象の決定処理をし)追尾を開始し、顔検出枠から追尾枠(例えば黒色の二重線)へと表示形態を変える。また、タッチを離すか、タッチ無効領域までタッチ位置が移動した際のAF枠の位置が顔の位置でなくとも、タッチアップまたはタッチ無効領域までのタッチムーブに応じて、AF枠の位置の色やコントラスト等に基づき、追尾する被写体を決定し、追尾を開始する。なお、1点AF(スムーズゾーンAF)の場合には、タッチした位置に基づきAF枠が移動し、AF枠の移動と共にAFがされる位置も変更される。
S327では、システム制御部50は、S323で取得した表示座標にAF枠を表示する。
絶対座標設定の場合に、例えば図5(a)のP1からP4にタッチ位置が移動したとすると、S323で上述したように表示座標はP´4となる。タッチ位置の移動途中にタッチ有効領域のX軸方向の端にタッチ位置が達した後は、AF枠がX軸方向の端に表示されたままになるので、ユーザはタッチ有効領域ではない領域をタッチしていることを認識することができる。すなわち、このままタッチ位置を移動してしまうと、タッチ無効領域(図5(a)の場合にはタッチパネル70a外)に移動してしまうことが分かる。
相対座標設定の場合に、例えば図5(b)のP2からP8、さらにP9へタッチ位置が移動したとすると、AF枠の位置はAF2からAF8、さらにAF9へと移動する。ユーザとしては、X軸マイナス方向、Y軸マイナス方向にタッチ位置を移動しているにも関わらず、AF枠は途中でY軸方向にしか移動しなくなる(AF8→AF9)。タッチ位置がP2からタッチ有効領域の端の位置であるP8に移動するまでは、タッチ位置の移動に伴いAF枠もAF2からAF8へと移動する。しかし、P8からタッチ緩衝領域へと移動すると、X軸方向へ移動したとしてもタッチ有効領域の端のX座標(P8と同じX座標)へと補正されてしまう。よって、表示座標のX軸座標は変わらず、P8からX軸マイナス方向に移動してもAF枠はX軸方向に移動せず、Y軸方向にだけAF枠は移動する(AF8→AF9)。X軸方向にもY軸方向にもタッチ位置を移動しているのに、Y軸方向にしかAF枠が移動しないと、ユーザはX軸のタッチ位置はタッチが有効な領域にはないことを認識することができる。よって、このままタッチ位置を移動してしまうと、タッチ無効領域に移動してしまうことが分かる。タッチ緩衝領域を設けることでユーザは事前にタッチ有効領域からタッチ位置が移動していることがわかるので、突然タッチ無効領域へとタッチ位置が移動し、S326で説明したように、意図せずAF位置が設定されてしまう可能性が低くなる。特に顔追尾AFの場合には、タッチがタッチ有効領域から離されたと判定すると追尾を開始してしまうので、意図しない被写体に対して追尾が開始されてしまうと、意図しない撮影結果になる可能性がある。また、追尾する被写体の設定をし直そうとしている間に、シャッターチャンスを逃してしまう可能性もある。
S328では、システム制御部50は、タッチがタッチパネル70a(タッチ有効領域もしくはタッチ緩衝領域)から離されたか否かを判定する。タッチがタッチパネル70aから離されたと判定した場合は、S326に進み、そうでない場合にはS320においてタッチ位置の移動があるか否かを判定する。
S329では、システム制御部50は、撮影指示がされたか否かを判定する。撮影指示は、シャッターボタン61の押下によって行うことができる。また、シャッターボタン61の半押し、第1シャッタースイッチ信号SW1の発生に応じてS326で設定したAF位置にAF処理を行う。その後シャッターボタン61の全押し、第2シャッタースイッチ信号SW2が発生すると撮像画像を記録媒体200へと記録する。
S331では、システム制御部50は、タッチパネル70aへのタッチダウンを検出したか否かを判定する。タッチダウンを検出したと判定した場合は、S332へ進み、そうでない場合は、S301へ戻る。S331〜S335の処理は、S309において接眼が検知されていなかった場合の処理であり、表示部28にライブビュー画像が表示されており、ユーザが表示部28を見ながらタッチパネル70aへの操作を行っている場合の処理である。
S332では、システム制御部50は、S331でタッチダウンされたタッチパネル70aのタッチ位置座標を取得する。
S333では、システム制御部50は、S332で取得したタッチ位置座標であり、ユーザのタッチダウンした表示部28の位置にAF枠を表示する。ユーザが表示部28へのタッチダウンをすると、タッチダウンした指の下にAF枠が表示される。図5(d)は、表示部28とタッチパネル70aの様子を示したものであり、ユーザのタッチした位置(P10、すなわちAF10)にAF枠が表示される。接眼していない場合には、図4で後述するようなタッチ位置座標の補正を行わない。つまり、タッチ位置座標のX座標が図5(a)〜(c)で示したような設定されたタッチ有効領域の右端からさらに右の領域であっても、タッチ位置座標のX座標をタッチ有効領域の右端に補正せず、タッチした位置にAF枠を表示する。つまり、接眼中でない場合には、接眼中にタッチするとタッチ位置が補正される位置にタッチをしたとしても、タッチ位置座標を補正せず、そのままタッチした位置にAF枠を表示する。
S334では、システム制御部50は、タッチパネル70aからタッチが離されたか否かを判定する。タッチが離されたと判定した場合は、S335へ進み、そうでない場合は、S332へ進む。タッチが離されるまではS332においてタッチ位置座標を取得し、タッチ位置座標に基づいてAF枠を表示する。
S335では、システム制御部50は、AF枠を表示していた位置にAF位置を設定する。この処理はS326と同様の処理である。
以上、説明した実施形態によれば、タッチ位置がタッチ有効な領域から外れ、意図しない処理が行われてしまうことを防ぐことができる。タッチ有効領域からタッチ位置が意図せず外れてしまったとしても、すぐにはタッチ無効領域に移動せず、タッチ緩衝領域にタッチがされることになる。よって、タッチ有効領域からタッチ位置が外れてしまったことに応じて意図しない位置にAF位置が設定されない。さらにタッチ緩衝領域においてはタッチ位置が補正されるので、タッチ無効領域に移動する前に、ユーザはAF枠の移動の仕方を見てタッチ有効領域からタッチ位置が移動したことを認識することができる。
次に図4を用いてクリップ処理について説明する。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。なお、この処理は、図3の撮影モード処理においてS317に進むと開始する。
S401では、システム制御部50は、S313もしくはS321で取得したタッチ位置座標のX座標がタッチ有効領域の左端のX座標よりも小さいか否かを判定する。すなわち、タッチ有効領域から見て左側のタッチ緩衝領域にユーザがタッチをしたか否かを判定する。タッチ位置座標のX座標がタッチ有効領域の左端のX座標よりも小さいと判定した場合は、S402へ進み、そうでない場合は、S403へ進む。
S402では、システム制御部50は、タッチ位置座標のX座標を有効領域の左端のX座標に補正して設定する。図5(a)のタッチパネル70aへのタッチ位置座標がP4(x4、y4)であった場合に、P4のX座標はタッチ有効領域の左端よりもさらに左側にあり、S401の判定がYesとなる。よって、S402においてP4(x4、y4)は、P´4(α、y4)へと補正される。タッチ位置座標のX座標が0≦x4<αであった場合には、x4=αとなる。
S403では、システム制御部50は、S313もしくはS321で取得したタッチ位置座標のX座標がタッチ有効領域の右端のX座標よりも大きいか否かを判定する。すなわち、タッチ有効領域から見て右側のタッチ緩衝領域にユーザがタッチをしたか否かを判定する。タッチ位置座標のX座標がタッチ有効領域の左端のX座標よりも大きいと判定した場合は、S404へ進み、そうでない場合は、S405へ進む。
S404では、システム制御部50は、タッチ位置座標のX座標を有効領域の右端のX座標に補正して設定する。図5(b)のタッチパネル70aへのタッチ位置座標がP5(x5、y5)であった場合に、P5のX座標はタッチ有効領域の右端よりもさらに右側にあり、S403の判定がYesとなる。よって、S404においてP5(x5、y5)は、P´5(A−α、y5)へと補正される。タッチ位置座標のX座標がA−α<x5≦Aであった場合には、x5=A−αとなる。
S405では、システム制御部50は、S313もしくはS321で取得したタッチ位置座標のY座標がタッチ有効領域の上端のY座標よりも小さいか否かを判定する。すなわち、タッチ有効領域から見て上側のタッチ緩衝領域にユーザがタッチをしたか否かを判定する。タッチ位置座標のY座標がタッチ有効領域の上端のY座標よりも小さいと判定した場合は、S406へ進み、そうでない場合は、S407へ進む。
S406では、システム制御部50は、タッチ位置座標のY座標を有効領域の上端のY座標に補正して設定する。図5(c)のタッチパネル70aへのタッチ位置座標がP6(x6、y6)であった場合に、P6のY座標はタッチ有効領域の上端よりもさらに上側にあり、S405の判定がYesとなる。よって、S406においてP6(x6、y6)は、P´6(x6、β)へと補正される。タッチ位置座標のY座標が0≦y6<βであった場合には、y6=βとなる。
S407では、システム制御部50は、S313もしくはS321で取得したタッチ位置座標のY座標がタッチ有効領域の下端のY座標よりも大きいか否かを判定する。すなわち、タッチ有効領域から見て下側のタッチ緩衝領域にユーザがタッチをしたか否かを判定する。タッチ位置座標のY座標がタッチ有効領域の下端のY座標よりも大きいと判定した場合は、S408へ進み、そうでない場合は、処理を終了する。
S408では、システム制御部50は、タッチ位置座標のY座標を有効領域の下端のY座標に補正して設定する。図5(c)のタッチパネル70aへのタッチ位置座標がP7(x7、y7)であった場合に、P7のY座標はタッチ有効領域の下端よりもさらに下側にあり、S407の判定がYesとなる。よって、S408においてP7(x7、y7)は、P´7(x7、B/2)へと補正される。タッチ位置座標のY座標がB/2<y7≦B/2+βであった場合には、y7=B/2となる。
タッチ位置座標の補正について、図5(b)を用いて説明する。タッチ位置入力が相対座標設定であるとして説明をするが、相対座標設定の場合にはタッチ有効領域の端を超えてタッチをしてもAF枠の表示位置が端にあるとは限らない。よって、絶対座標設定の場合よりもタッチ位置とAF枠の関連性が低く、ユーザにとってはタッチしている指がタッチ有効領域から外にでそうか否かを正確に把握することが難しい。しかしながらタッチ緩衝領域を設けることで、タッチ有効領域からタッチ位置が外れると、タッチ位置が補正され、X軸、Y軸の少なくともいずれか一方に、AF枠が移動しなくなるので、タッチ有効領域からはタッチ位置が外れたことを認識することができる。
以上、図4の処理によれば、ユーザはどちらの方向のタッチ位置の移動が有効でないかを認識することができる。タッチ位置のX軸とY軸それぞれの軸方向の座標と、タッチ有効領域のそれぞれの軸方向の端の座標とを比較して補正をするので、X軸方向にタッチ位置座標がタッチ有効領域から外れていれば、X軸方向に移動してもAF枠が移動しない。よって、ユーザはタッチ有効領域の上下(Y軸方向)からはタッチ位置が外に出ていないが、左右方向(X軸方向)からタッチ位置が外に出ていることを認識することができる。
なお、上述した実施形態は絶対座標設定であっても相対座標設定であっても実施するものとして説明をしたが、相対座標設定の時にのみ行ってもよい。相対座標設定の時にはAF枠の位置をみてもタッチ位置がタッチ有効領域から外れそうか否か、絶対座標設定の時よりも把握しにくいので上述した実施形態はより有効である。
更に、タッチ位置座標がタッチ緩衝領域であって、タッチ位置座標が補正されている場合には、ファインダ内表示部76に表示される指標の形状や色を変化させてもよい。
なお、顔追尾AFに設定されている時には、追尾中の被写体を示すAF枠と、設定変更中のAF位置を示すAF枠の表示形態を変える。例えば、追尾中の被写体を示すAF枠は図5(a)のAF1、設定変更中のAF位置を示すAF枠は図5(c)のAF3のようにする。
また、タッチ有効領域からタッチが開始されても、タッチ無効領域からタッチが開始されても、タッチ緩衝領域へタッチ位置が移動したらタッチ位置を補正してAF枠を表示する。ただし、タッチ無効領域からタッチ操作が開始され、タッチ緩衝領域へと移動した場合には、タッチ有効領域へ移動するまでタッチを無効とし、AF枠を表示しないようにしてもよい。なお、AF処理以外にも、AE処理(自動露出処理)、AWB処理(オートホワイトバランス処理)をする位置の設定時にも本実施形態は適用可能である。例えば、AE処理の場合には、タッチが離されたことに応じて、枠の表示されている被写体に基づいてAE処理を行う。
また、上述した実施形態においては、タッチ緩衝領域はタッチ有効領域のX軸と平行な辺とY軸戸並行な辺とを囲うように設けられる事を説明したが、必ずしもX軸とY軸でなくても、タッチ有効領域の辺に沿った領域であればよい。
上述した実施形態においては、本発明をデジタルカメラ100に適用した場合を例にして説明した。しかし、これはこの例に限定されない。表示部と異なる位置のタッチセンサに対する操作に応じて、カーソルの表示や、バー上やメモリ上での設定値の変更など指定位置に基づく処理を行う位置を移動する制御を行うことができる電子機器であれば適用可能である。例えば、ノートパソコンでのタッチパッドを用いてカーソルを移動する時や、選択アイテムや選択項目の移動時にも適用可能である。さらに、描写用のタブレットを用いて線を描くときや、範囲の選択をする場合にも適用可能である。
即ち、本発明はパーソナルコンピュータ(PC)や、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレットPC、スマートフォン、投影装置、表示部を有する家電装置等に適用可能である。また、デジタルカメラ等で撮影したライブビュー画像を有線または無線通信を介して受信して表示し、リモートでデジタルカメラ(ネットワークカメラを含む)を制御するスマートフォンやタブレットPC、デスクトップPCなどの装置にも適用可能である。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。

Claims (17)

  1. 操作面へのタッチ操作を検出可能なタッチ検出手段と、
    前記操作面の第1の領域と、前記第1の領域と隣り合う第3の領域と、前記第3の領域と隣り合う第2の領域のうち、前記第1の領域において、タッチ位置の移動がされた場合に、前記操作面とは異なる表示部に表示されるマークをタッチ位置の移動の第1の成分と第2の成分とに応じて移動し、
    前記操作面のうち、前記第2の領域においてタッチ位置が移動しても、前記表示部に表示される前記マークを移動しないようにし、
    前記第3の領域においてタッチ位置が移動すると、前記表示部に表示される前記マークを、タッチ位置の移動の第1の成分と第2の成分のうち、少なくとも一方の成分に応じた移動は行わないように制御する制御手段とを有することを特徴とする電子機器。
  2. 前記制御手段は、前記第1の領域においてタッチが開始されたことに応じて前記表示部に前記マークを表示し、前記第2の領域においてタッチが開始されても前記表示部に前記マークを表示しないように制御することを特徴とする請求項1に記載の電子機器。
  3. 前記制御手段は、前記第1の領域においてタッチが開始されたことに応じて、前記表示部に前記マークを表示し、前記第1の領域からタッチが離されたことに応じて前記マークの位置に基づいて特定の処理を行うように制御することを特徴とする請求項1または2に記載の電子機器。
  4. 前記第3の領域は、前記第1の領域と前記第2の領域の間に挟まれる領域であることを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  5. 前記第3の領域におけるタッチがされた位置の前記第1の成分における位置または前記第2の成分における位置の少なくとも一方の位置を、前記第1の領域の端の位置へと補正する補正手段をさらに有し、
    前記制御手段は、前記補正手段に補正された位置に基づいて、前記表示部に前記マークを表示するように制御することを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
  6. 前記第3の領域は前記第1の領域のうち、第1の成分と並行な辺と第2の成分と並行な辺に沿った領域であり、
    前記制御手段は、前記第3の領域のうち前記第1の成分の辺に沿った領域においてタッチ位置が移動しても、前記第2の成分のタッチ位置の移動に応じた前記マークの移動をせず、前記第3の領域のうち前記第2の成分の辺に沿った領域においてタッチ位置が移動しても、前記第1の成分のタッチ位置の移動に応じた前記マークの移動を行わないように制御することを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。
  7. 前記表示部は接眼部を通して視認可能な表示部であり、前記表示部を含むファインダ部へ物体が接近したことを検知する接近検知手段をさらに有し、
    前記制御手段は、前記接近検知手段が前記接近を検知している時に前記第2の領域へタッチが開始されても前記表示部に前記マークを表示せず、前記ファインダ部へ物体が接近していない時に前記第2の領域へタッチが開始されると前記操作面と一体に設けられるファインダ外表示部へ前記マークを表示するように制御することを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。
  8. 前記第1の成分と前記第2の成分は、X軸の成分とY軸の成分であることを特徴とする請求項1乃至7のいずれか1項に記載の電子機器。
  9. 前記特定の処理はAF処理であることを特徴とする請求項3に記載の電子機器。
  10. 前記特定の処理は、追尾対象の決定処理または追尾の開始であることを特徴とする請求項3または9に記載の電子機器。
  11. 前記特定の処理は、AE処理、AWB処理のいずれかを少なくとも含むことを特徴とする請求項3に記載の電子機器。
  12. 前記表示部には撮像された撮像画像が表示されており、前記マークは前記撮像画像に重畳して表示されることを特徴とする請求項1乃至11のいずれか1項に記載の電子機器。
  13. 前記操作面のうち、前記第1の領域の大きさを選択可能な選択手段をさらに有することを特徴とする請求項1乃至12のいずれか1項に記載の電子機器。
  14. 前記制御手段は、前記第2の領域においてタッチが開始された後、前記第3の領域にタッチ位置が移動したことに応じて、前記表示部において前記マークを表示するように制御することを特徴とする請求項7に記載の電子機器。
  15. 操作面を有する電子機器の制御方法であって、
    前記操作面へのタッチ操作を検出可能なタッチ検出ステップと、
    前記操作面の第1の領域と、前記第1の領域と隣り合う第3の領域と、前記第3の領域と隣り合う第2の領域のうち、前記第1の領域において、タッチ位置の移動がされた場合に、前記操作面とは異なる表示部に表示されるマークをタッチ位置の移動の第1の成分と第2の成分とに応じて移動し、
    前記操作面のうち、前記第2の領域においてタッチ位置が移動しても、前記表示部に表示される前記マークを移動しないようにし、
    前記第3の領域においてタッチ位置が移動すると、前記表示部に表示される前記マークを、タッチ位置の移動の第1の成分と第2の成分のうち、少なくとも一方の成分に応じた移動は行わないように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
  16. コンピュータを、請求項1乃至14のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
  17. コンピュータを、請求項1乃至14のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
JP2016168607A 2016-08-30 2016-08-30 電子機器およびその制御方法 Active JP6701033B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016168607A JP6701033B2 (ja) 2016-08-30 2016-08-30 電子機器およびその制御方法
US15/683,538 US10313580B2 (en) 2016-08-30 2017-08-22 Electronic apparatus, control method therefor, and storage medium
CN201710741298.5A CN107797714B (zh) 2016-08-30 2017-08-25 电子装置及其控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016168607A JP6701033B2 (ja) 2016-08-30 2016-08-30 電子機器およびその制御方法

Publications (2)

Publication Number Publication Date
JP2018036802A JP2018036802A (ja) 2018-03-08
JP6701033B2 true JP6701033B2 (ja) 2020-05-27

Family

ID=61244061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016168607A Active JP6701033B2 (ja) 2016-08-30 2016-08-30 電子機器およびその制御方法

Country Status (3)

Country Link
US (1) US10313580B2 (ja)
JP (1) JP6701033B2 (ja)
CN (1) CN107797714B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6259132B2 (ja) * 2015-01-20 2018-01-10 日立オートモティブシステムズ株式会社 車載用カメラ装置
WO2020003862A1 (ja) * 2018-06-27 2020-01-02 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
JP7129244B2 (ja) 2018-06-29 2022-09-01 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
US10897568B2 (en) * 2018-06-29 2021-01-19 Canon Kabushiki Kaisha Electronic device
JP7383552B2 (ja) 2020-03-31 2023-11-20 キヤノン株式会社 電子機器およびその制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3029905B2 (ja) * 1991-12-17 2000-04-10 シャープ株式会社 データ入力装置
JP2000020194A (ja) * 1998-06-26 2000-01-21 Sanyo Electric Co Ltd タッチパッド
JP5151928B2 (ja) * 2008-11-25 2013-02-27 日本電気株式会社 入力方法及び入力装置
KR101624218B1 (ko) * 2009-09-14 2016-05-25 삼성전자주식회사 디지털 촬영 장치 및 그 제어 방법
JP5418187B2 (ja) * 2009-12-02 2014-02-19 ソニー株式会社 接触操作判定装置、接触操作判定方法およびプログラム
JP5613005B2 (ja) * 2010-10-18 2014-10-22 オリンパスイメージング株式会社 カメラ
JP5872783B2 (ja) 2011-03-24 2016-03-01 オリンパス株式会社 表示装置、表示方法及び表示プログラム
EP2581817A1 (en) * 2011-10-14 2013-04-17 Research In Motion Limited System and method for controlling an electronic device having a touch-sensitive non-display area
KR20130102298A (ko) * 2012-03-07 2013-09-17 주식회사 팬택 휴대용 단말기 및 휴대용 단말기의 디스플레이 제어 방법
JP5620947B2 (ja) * 2012-06-27 2014-11-05 キヤノン株式会社 電子機器およびその制御方法、プログラム並びに記憶媒体
CN102830844A (zh) * 2012-08-17 2012-12-19 北京小米科技有限责任公司 一种触摸屏防误操作方法、触摸屏及移动终端
KR102008512B1 (ko) * 2012-12-10 2019-08-07 엘지디스플레이 주식회사 터치 센싱 시스템의 에지부 좌표 보상 방법
KR102169521B1 (ko) * 2013-05-14 2020-10-23 삼성전자 주식회사 입력장치, 디스플레이장치 및 그 제어방법
CN105718183A (zh) * 2014-12-03 2016-06-29 天津富纳源创科技有限公司 触控装置之操作方法

Also Published As

Publication number Publication date
US10313580B2 (en) 2019-06-04
JP2018036802A (ja) 2018-03-08
US20180063418A1 (en) 2018-03-01
CN107797714A (zh) 2018-03-13
CN107797714B (zh) 2021-07-06

Similar Documents

Publication Publication Date Title
JP6667294B2 (ja) 電子機器およびその制御方法
JP6701033B2 (ja) 電子機器およびその制御方法
CN109479096B (zh) 电子设备及其控制方法和记录介质
JP6799475B2 (ja) 撮像装置及びその制御方法
JP6590666B2 (ja) 電子機器およびその制御方法
JP6833535B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP7467071B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
CN112015266A (zh) 电子设备、电子设备的控制方法及计算机可读存储介质
US20200007750A1 (en) Electronic apparatus and control method for electronic apparatus
JP2021141573A (ja) 電子機器
JP6808408B2 (ja) 表示制御装置およびその制御方法
JP2021163182A (ja) 電子機器およびその制御方法
JP6611575B2 (ja) 撮像制御装置およびその制御方法
CN110661966B (zh) 电子设备、电子设备的控制方法和计算机可读介质
JP2019071507A (ja) 電子機器、制御方法、プログラム、及び記憶媒体
JP7121612B2 (ja) 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体
JP7336266B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP6779777B2 (ja) 撮像制御装置およびその制御方法
JP2021097356A (ja) 撮像制御装置
JP2021012619A (ja) 電子機器及びその制御方法
JP6529300B2 (ja) 表示制御装置およびその制御方法
JP7254454B2 (ja) 撮像制御装置、及び、撮像制御装置の制御方法
JP7171252B2 (ja) 撮像制御装置、及び、撮像制御装置の制御方法
JP7451255B2 (ja) 電子機器及びその制御方法
JP6855317B2 (ja) 撮像装置、撮像装置の制御方法、プログラム、及び、記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6701033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151