JP6765901B2 - Imaging device and its control method, program, and storage medium - Google Patents
Imaging device and its control method, program, and storage medium Download PDFInfo
- Publication number
- JP6765901B2 JP6765901B2 JP2016169621A JP2016169621A JP6765901B2 JP 6765901 B2 JP6765901 B2 JP 6765901B2 JP 2016169621 A JP2016169621 A JP 2016169621A JP 2016169621 A JP2016169621 A JP 2016169621A JP 6765901 B2 JP6765901 B2 JP 6765901B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- tracking
- display
- mode
- eyepiece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Viewfinders (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、タッチ操作でフォーカス位置を変更可能な撮像装置に関する。 The present invention relates to an imaging device capable of changing the focus position by touch operation.
最近のデジタルカメラなどの撮像装置は、表示画面に対するタッチ操作で簡単にオートフォーカス位置(AF位置)を移動しながら撮影を行うことができるものもある。しかしながら、従来のファインダーを覗きながらの撮影(ファインダー撮影)の際には、多くのデジタルカメラではボタンやダイヤルなどの物理的な操作手段でのみAF位置の指定が行えるものが多く、タッチ操作により簡単にAF位置を変更することができなかった。 Some imaging devices such as recent digital cameras can take pictures while easily moving the autofocus position (AF position) by touching the display screen. However, when shooting while looking through the conventional viewfinder (viewfinder shooting), many digital cameras allow the AF position to be specified only by physical operation means such as buttons and dials, and it is easy to specify by touch operation. The AF position could not be changed.
このような背景のもと、特許文献1には、ファインダーを覗いている状態で、ファインダーとは別に設けられたタッチパネルに対するタッチ操作を有効とする技術(タッチパッド操作)が提案されている。特許文献1では、タッチ操作でのAF位置の指定方法として、タッチパネルとファインダー内の座標とを1対1に対応させる絶対座標方式と、タッチパネル上でのタッチムーブ(摺動操作)の移動量に応じてAF位置を移動させる相対座標方式とが提案されている。
Against this background,
被写体を追尾するモードにおいて、タッチムーブ(摺動操作)によって追尾対象の指示カーソルを移動させている途中で指示カーソルの位置でAFを行うと、移動途中の指示カーソルの位置の被写体(例えば背景)にピントが合う。その場合、指示カーソルを移動させる目標位置に存在する追尾したい被写体にピントが合わずに、追尾したい被写体が検出されなくなってしまう可能性がある。これに対し、上記特許文献1では、摺動操作に応じてEVFの画面上でカーソルを移動させている間のAF制御については考慮されていない。
In the mode of tracking a subject, if AF is performed at the position of the instruction cursor while the instruction cursor to be tracked is being moved by touch move (sliding operation), the subject at the position of the instruction cursor during movement (for example, the background). Is in focus. In that case, the subject to be tracked that exists at the target position where the instruction cursor is moved may not be in focus, and the subject to be tracked may not be detected. On the other hand, in
本発明は、上記課題に鑑みてなされ、その目的は、タッチ操作で追尾対象を選択する際のAFをより適切に制御し、利便性を向上させた撮像装置を実現することである。 The present invention has been made in view of the above problems, and an object of the present invention is to realize an image pickup apparatus in which AF when selecting a tracking target by a touch operation is more appropriately controlled and convenience is improved.
上記目的を達成するために、本発明の撮像装置は、
撮像手段と、
前記撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、
タッチ操作を検知可能なタッチ検知手段と、
AF位置の決定方法が異なる複数のAFモードのうち何れかを設定可能なAFモード設定手段と、
前記AFモード設定手段によって、前記追尾手段による追尾を行わずにAF位置を決定する第1のAFモードに設定されている場合は、前記タッチ検知手段がタッチを検知している間に、タッチ位置の移動に応じた位置に基づいてAFを実行し、
前記AFモード設定手段によって、前記追尾手段による追尾を行うことによるAF位置の決定が可能な第2のAFモードに設定されている場合は、前記タッチ検知手段がタッチを検知している間には、タッチ位置の移動に応じた位置に基づいたAFは実行しないように制御する制御手段と
を有することを特徴とする。
In order to achieve the above object, the imaging device of the present invention
Imaging means and
A tracking means for tracking a tracking target in a live view image captured by the imaging means, and
Touch detection means that can detect touch operations and
AF mode setting means that can set any of a plurality of AF modes with different AF position determination methods,
When the AF mode setting means is set to the first AF mode in which the AF position is determined without tracking by the tracking means, the touch position is set while the touch detecting means detects the touch. Perform AF based on the position according to the movement of
When the AF mode setting means is set to the second AF mode in which the AF position can be determined by tracking by the tracking means, while the touch detecting means is detecting the touch, It is characterized by having a control means for controlling AF based on a position according to the movement of a touch position so as not to be executed.
本発明によれば、タッチ操作で追尾対象を選択する際のAFをより適切に制御し、利便性を向上させることができる。 According to the present invention, AF when selecting a tracking target by touch operation can be controlled more appropriately, and convenience can be improved.
以下に、本発明の実施の形態について添付図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<装置構成>
図1及び図2を参照して、本実施形態のデジタルカメラの機能及び外観について説明する。
<Device configuration>
The function and appearance of the digital camera of the present embodiment will be described with reference to FIGS. 1 and 2.
本実施形態のデジタルカメラ100の背面の外観を示す図1において、表示部101は画像や各種情報を表示する液晶表示パネル(LCD)等からなる。表示部101には、ファインダー外に配置された表示部である背面表示パネル101aと、ファインダー内の表示部である電子ビューファインダー(以下、EVF)101bが含まれる。EVF101bは、ユーザが覗き込み式の接眼ファインダーの接眼部を介して撮像画面をモニタすることが可能である(視認可能である)。シャッターボタン102は撮影指示を行うための操作部である。モード切替ボタン103は各種モードを切り替えるための操作部である。コネクタ107は接続ケーブル108とデジタルカメラ100とを接続するインターフェースである。操作部104はユーザからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材からなる操作部である。コントローラホイール106は操作部104に含まれる回転可能な電子ダイヤルである。電源スイッチ105は電源のオン、オフを切り替える操作部である。記録媒体109はメモリカードやハードディスク等の記録媒体である。記録媒体スロット110は記録媒体109を格納するためのスロットである。記録媒体スロット110に格納された記録媒体109は、デジタルカメラ100との通信が可能となる。蓋111は記録媒体スロット110の蓋である。図1では、蓋111を開けて記録媒体スロット110から記録媒体109の一部を取り出して露出させた状態を示している。
In FIG. 1 showing the appearance of the back surface of the
本実施形態のデジタルカメラ100の内部構成を示す図2において、撮影レンズ203はズームレンズ、フォーカスレンズを含むレンズ群である。シャッター204は絞り機能を備える。撮像部205は被写体の光学像を電気信号に変換するCCDやCMOS等で構成される撮像素子である。A/D変換器206は、アナログ信号をデジタル信号に変換する。A/D変換器206は、撮像部205から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア202は、デジタルカメラ100の、撮影レンズ203を含む撮像系を覆うことにより、撮影レンズ203、シャッター204、撮像部205を含む撮像系の汚れや破損を防止する。
In FIG. 2 showing the internal configuration of the
画像処理部207は、A/D変換器206からのデータ、又は、メモリ制御部209からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部207では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部201が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部207ではさらに、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
The
A/D変換器206からの出力データは、画像処理部207及びメモリ制御部209を介して、或いは、メモリ制御部209を介してメモリ210に直接書き込まれる。メモリ210は、撮像部205によって得られ、A/D変換器206によりデジタルデータに変換された画像データや、表示部101に表示するための画像データを格納する。メモリ210は、所定枚数の静止画や所定時間の動画および音声を格納するのに十分な記憶容量を備えている。
The output data from the A /
また、メモリ210は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器208は、メモリ210に格納されている画像表示用のデータをアナログ信号に変換して表示部101に供給する。こうして、メモリ210に書き込まれた表示用の画像データはD/A変換器208を介して表示部101により表示される。表示部101は、LCD等の表示器上に、D/A変換器208からのアナログ信号に応じた表示を行う。A/D変換器206によって一旦A/D変換され、メモリ210に蓄積されたデジタル信号をD/A変換器208においてアナログ変換し、表示部101に逐次転送して表示することで、ライブビュー画像の表示を行える。
Further, the
不揮発性メモリ213は、電気的に消去・記憶可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ213には、システム制御部201の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
The
システム制御部201は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ213に記憶されたプログラムを実行することで、後述する本実施形態の各処理を実現する。212はシステムメモリであり、RAMが用いられる。システムメモリ212には、システム制御部201の動作用の定数、変数、不揮発性メモリ213から読み込んだプログラム等を展開する。また、システム制御部201はメモリ210、D/A変換器208、表示部101等を制御することにより表示制御も行う。
The
システムタイマー211は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system timer 211 is a time measuring unit that measures the time used for various controls and the time of the built-in clock.
モード切替ボタン103、第1シャッタースイッチ102a、第2シャッタースイッチ102b、操作部104はシステム制御部201に各種の動作指示を入力するための操作手段である。
The
モード切替ボタン103は、システム制御部201の動作モードを静止画撮影モード、動画記録モード、再生モードなどのいずれかに切り替える。静止画撮影モードに含まれるモードとして、オートモード、オートシーン判別モード、マニュアルモード、シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモードなどがある。モード切替ボタン103で、これらのモードのいずれかに直接切り替えられる。あるいは、モード切替ボタン103で撮影モード選択画面に一旦切り替えた後に、撮影モード選択画面に表示された、各撮影モードに対応する選択肢のいずれかを他の操作部材を用いて選択することで切り替えるようにしてもよい。同様に、動画記録モードにも複数のモードが含まれていてもよい。
The
第1シャッタースイッチ102aは、デジタルカメラ100に設けられたシャッターボタン102の操作途中、いわゆる半押し(撮影準備指示)でオンとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。
The
第2シャッタースイッチ102bは、シャッターボタン102の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部201は、第2シャッタースイッチ信号SW2により、撮像部205からの信号読み出しから記録媒体109に画像データを書き込むまでの一連の撮影処理を開始する。
The
操作部104の各操作部材は、表示部101に表示される種々の機能アイコンを選択操作することなどにより、シーンごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタンなどがある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部101に表示される。ユーザは、表示部101に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
Each operation member of the
コントローラホイール106は、操作部104に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。
The
電源制御部214は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部214は、その検出結果及びシステム制御部201の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体109を含む各部へ供給する。
The power
電源部215は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、リチウムイオン電池等の二次電池、ACアダプタ等からなる。記録媒体I/F216は、メモリカードやハードディスク等の記録媒体109とのインターフェースである。記録媒体109は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
The
通信部217は、無線アンテナや有線ケーブルによって外部機器と通信可能に接続し、映像や音声の送受信を行う。通信部217は無線LAN(Local Area Network)やインターネットにも接続可能である。通信部217は撮像部205で撮像された画像データ(ライブビュー画像を含む)や、記録媒体109に記録されている画像ファイルを外部機器に送信でき、また、外部機器から画像データやその他の各種情報を受信できる。
The
姿勢検知部218は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部218で検知された姿勢に応じて、撮像部205で撮像された画像がデジタルカメラ100を横に構えて撮影されたものか、縦に構えて撮影されたものかを判別可能である。システム制御部201は、姿勢検知部218で検知された姿勢に関する情報を撮像部205で撮像された画像データに付加したり、画像データを回転して記憶することが可能である。姿勢検知部としては、加速度センサやジャイロセンサ等を用いることができる。
The posture detection unit 218 detects the posture of the
接眼検知部219はファインダーの接眼部に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)。システム制御部201は、接眼検知部219で検知された状態に応じて、背面表示パネル101aとEVF101bの表示(表示状態)/非表示(非表示状態)を切り替える。接眼検知部219は、例えば赤外線近接センサを用いることができ、EVF101bを内蔵するファインダーの接眼部への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部219の投光部(図示せず)から投光した赤外線が反射して赤外線近接センサの受光部(図示せず)に受光される。受光された赤外線の量によって、物体が接眼部からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部219は、接眼部への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、ファインダーの接眼部に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサは一例であって、接眼検知部219には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを採用してもよい。
The
なお、操作部104の1つとして、背面表示パネル101aに対する接触を検知可能なタッチパネル104aを有する。タッチパネル104aと背面表示パネル101aとは一体的に構成することができる。例えば、タッチパネル104aを光の透過率が背面表示パネル101aの表示を妨げないように構成し、背面表示パネル101aの表示面の上層に取り付ける。そして、タッチパネル104aにおける入力座標と、背面表示パネル101a上の表示座標とを対応付ける。これにより、あたかもユーザが背面表示パネル101a上に表示された画面を直接的に操作可能であるかのようなGUI(Grafical User Interface)を構成することができる。すなわち、タッチパネル104aにおけるタッチ検知面が背面表示パネル101aの表示面となる。また、背面表示パネル101aの表示素子と静電容量方式のタッチ検出(タッチ検知)用の電極がセパレータを挟まずに一体的に構成されたインセル型のタッチパネルディスプレイであってもよい。システム制御部201はタッチパネル104aへの以下の操作あるいは状態を検出できる。
・タッチパネル104aにタッチしていなかった指やペンが新たにタッチパネル104aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と呼ぶ)。
・タッチパネル104aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と呼ぶ)。
・タッチパネル104aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と呼ぶ)。
・タッチパネル104aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と呼ぶ)。
・タッチパネル104aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と呼ぶ)。
As one of the
-A finger or pen that has not touched the
-The
-The
-The finger or pen that was touching the
-A state in which nothing is touched on the
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When touchdown is detected, it is also detected that it is touch-on. After touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch move is also detected when touch on is detected. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.
これらの操作・状態や、タッチパネル104a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部201に通知される。システム制御部201は通知された情報に基づいてタッチパネル104a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル104a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル104a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル104a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行われたと判定するものとするまた、タッチパネル104a上をタッチダウンからタッチムーブすることなく素早くタッチアップすることをタップと呼ぶ。タップを素早く2回連続して行うことをダブルタップと呼ぶ。また、更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。
These operations / states and the position coordinates of the finger or pen touching on the
タッチパネル104aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
The
なお、ハードウェアの構成は図2に示すものに限定されず、例えば1つのハードウェアが表示制御、通信制御、撮影制御、画像処理制御等を行い、デジタルカメラ100の各手段として機能してもよい。また、複数のハードウェアが協働して1つの手段として機能してもよい。
The hardware configuration is not limited to that shown in FIG. 2, and for example, even if one hardware performs display control, communication control, shooting control, image processing control, etc., and functions as each means of the
デジタルカメラ100は、少なくとも画像を再生するための再生モードと、撮影を行うための撮影モードとで、切り替えて使用することができる。撮影モードとしては、オートモードやマニュアルモード、複数のシーン別撮影モードを備えている。オートモードは、カメラの各種パラメータが、計測された露出値に基づいてデジタルカメラ100に組み込まれたプログラムにより自動的に決定されるモードである。マニュアルモードは、カメラの各種パラメータをユーザが自由に変更可能なモードである。シーン別撮影モードは、撮影シーン別にその撮影シーンに適したシャッター速度や絞り値、ストロボ発光状態、感度設定、ホワイトバランス(WB)設定等を組み合わせることによって実現されるモードである。デジタルカメラ100は、例えば、以下に記す(1)〜(3)のシーン別撮影モードを備えている。但し、これらのシーン別撮影モードに限定されるものではない。
(1)ポートレート撮影モード:背景をぼかして人物を浮き立たせるようにして人物撮影に特化したモード
(2)花撮影モード:マクロモードに設定し、彩度も高めに設定するモード
(3)スポーツ撮影モード:動きの早い被写体を撮影するのに特化した設定とする撮影モード
The
(1) Portrait shooting mode: A mode specialized for portrait shooting by blurring the background to make the person stand out (2) Flower shooting mode: A mode in which the macro mode is set and the saturation is set high (3) Sports shooting mode: Shooting mode with settings specialized for shooting fast-moving subjects
撮影者は、撮影モード選択画面からデジタルカメラ100を所望の撮影モードに設定して撮影を行うことができる。
The photographer can set the
また、カメラ本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する制御装置としては、例えば、携帯電話の一種としてのスマートフォン、タブレットPC、デスクトップPCなどの装置がある。制御装置で行われた操作や制御装置で行われた処理に基づいて、制御装置から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置で表示できるようにしてもよい。 Further, the present invention can be applied not only to the camera body but also to a control device that remotely controls the image pickup device by communicating with the image pickup device (including a network camera) via wired or wireless communication. As a control device for remotely controlling the image pickup device, for example, there are devices such as a smartphone, a tablet PC, and a desktop PC as a kind of mobile phone. The image pickup device can be remotely controlled by notifying the command device to perform various operations and settings from the control device based on the operation performed by the control device and the process performed by the control device. Further, the live view image taken by the image pickup device may be received by the control device via wired or wireless communication and displayed.
<撮影処理>
次に、図3から図11を参照して、本実施形態のデジタルカメラ100による撮影モードについて説明する。
<Shooting process>
Next, the shooting mode by the
なお、図3の処理は、不揮発性メモリ213に記録されたプログラムを、システムメモリ212に読み出してシステム制御部201が実行することにより実現する。デジタルカメラ100が撮影モードで起動されると、図3の撮影モード処理を開始する。
The process of FIG. 3 is realized by reading the program recorded in the
S301では、システム制御部201は、撮影モードの初期化処理を行う。初期化処理とは、フラグや制御変数等を含むパラメータや設定値、設定モードを不揮発性メモリ213から読み出す等の処理である。また、システム制御部201は、記録媒体109の状態を確認し、異常等があれば後述の撮影情報表示時に警告等を表示する。
In S301, the
S302では、システム制御部201は、撮像部205での撮像を行い、撮像された映像を、表示部101に含まれる背面表示パネル101aとEVF101bのうち、現在表示先となっているディスプレイにライブビュー画像(以下、LV画像)として表示する。以下、表示部101に含まれる背面表示パネル101aとEVF101bのうち、現在表示先となっているディスプレイに表示することを、単に「表示部101に表示する」と記載するものとする。
In S302, the
S303では、システム制御部201は、撮影に関わる情報表示を、LV画像に重畳して表示部101に表示する。情報表示として例えば、現在の撮影モードを表す撮影モードアイコン、電池残量表示、残り撮影枚数表示、シャッター速度や絞り値、感度、記録画質などの撮影設定情報を表示する。
In S303, the
S304では、システム制御部201は、AF枠表示更新処理を行う(表示内容変更)。AF枠表示更新処理については図4を用いて後述する。
In S304, the
S305では、システム制御部201は、接眼検知部219の検知状態に変化があったか否かを判定する。検知状態に変化があった場合とは、非接眼状態からの接眼の検知、接眼状態からの離眼の検知のいずれかがあった場合である。検知状態に変化があった場合にはS306へ進み、変化がない場合はS307へ進む。
In S305, the
S306では、システム制御部201は、表示先切替処理を行う。表示先切替処理については図5を用いて後述する。
In S306, the
S307では、システム制御部201は、操作部104に含まれるメニューボタンが押下されたか否かを判定する。メニューボタンが押下されていた場合はS308へ進み、そうでない場合はS309へ進む。
In S307, the
S308では、システム制御部201は、メニュー画面表示処理を行う。メニュー画面表示処理では、表示部101にメニュー画面を表示し、ユーザからの操作に応じた各種設定を行う。メニュー画面を閉じる操作(設定操作の完了操作、メニュー画面を抜ける操作、シャッターボタン102の半押し操作があるとメニュー画面処理を終了してS302に戻る。
In S308, the
図12(a)から図12(c)に、メニュー画面の表示例を示す。図12(a)は、撮影設定メニュー画面の表示例である。メニュー画面は、撮影設定メニュー、システム設定メニュー、再生設定メニューといったように、機能群ごとにグループ分けされており、それぞれの群に対応するタブを選択することで、対応する群を表示することができる。図12(a)は、撮影設定メニュータブ1201が選択され、撮影設定メニューが表示されている状態を示している。ユーザは操作部104に含まれる上下左右ボタンなどを押下することで、カーソル1204を移動させ、SETボタンを押下することで任意の機能の設定変更画面へ遷移する。メニュー項目1202は、AFモードを設定するためのメニュー項目であり、この項目を選択することで、AFモードを設定できる(AFモード設定)。AF(オートフォーカス)を行う位置の決定方式ごとに複数のAFモードが用意されており、ユーザは複数のAFモードのうちいずれかを選択して設定することができる。本実施形態では、AFモードとして、一点AFモードと、追尾モードのいずれかが設定できるものとする。一点AFモードは、撮影範囲の中央、あるいはユーザが指定した一点に焦点調節位置を表すAF枠を設定するAFモードである。一点AFモードでは、AF枠は被写体に変化があっても移動せず、顔などの被写体が検出されているか否かに関わらず、AF枠の位置から得られた情報(コントラスト値や位相差AF用のデフォーカス量)に基づいてAFが行われる。追尾モードでは、ユーザからの追尾指定がない場合(追尾待機中、追尾解除状態)は、デジタルカメラ100が自動的に主被写体と判定した被写体がAF対象(焦点調節位置)となる。人物の顔が検出された場合は顔を優先して主被写体としてAF対象にする。人物の顔が検出されていない場合は、動体、コントラスト値の高い被写体、中央に近い被写体などの所定の条件に従って主被写体をデジタルカメラ100が自動的に決定してAF対象とする。また、ユーザからの追尾指定がなされた後は、LV画像中で指定された被写体を追尾し続け、追尾している被写体をAF対象とする。例えばユーザが人物Aの顔を追尾指定した場合(追尾中)は、LV画像上で人物Aが移動しても人物Aの顔を追い続け、AF対象とする。また、人物以外を追尾対象とすることも可能であり(モノ追尾)、追尾指定された位置の色、コントラスト、形状などを条件として、同一の被写体がLV画像中で移動しても追い続け、AF対象とする。すなわち、追尾モードは追尾を行うことによるAF位置の決定が可能なAFモードである。なお、AFモードは一点AFモードと追尾モードに限るものではない。例えばユーザが指定した限定領域内で追尾を行うAFモード(「ゾーンAF」)などがあってもよい。設定したAFモードは、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。
12 (a) to 12 (c) show a display example of the menu screen. FIG. 12A is a display example of the shooting setting menu screen. The menu screen is divided into groups for each function group, such as the shooting setting menu, system setting menu, and playback setting menu, and the corresponding group can be displayed by selecting the tab corresponding to each group. it can. FIG. 12A shows a state in which the shooting
図12(b)は、表示部101に表示されるタッチ&ドラッグAFに関する設定画面の表示例である。タッチ&ドラッグAFの設定画面は、撮影設定メニューに含まれるメニュー項目のうち、タッチ&ドラッグAFの項目が選択されると表示される。タッチ&ドラッグAFの設定画面では、画面タイトル1211と、各設定項目1212、1213、1214が表示される。
FIG. 12B is a display example of the setting screen related to the touch and drag AF displayed on the
設定項目1212では、タッチ&ドラッグAFを「する」または「しない」のいずれか設定可能である。「する」に設定した場合は、タッチ&ドラッグAFが有効(ON)となり、接眼状態でのタッチムーブに応じてAF位置を変更することが可能となる。「しない」に設定された場合は、タッチ&ドラッグAFが無効(OFF)となり、接眼状態でタッチムーブを行ってもAF位置は変更されない。タッチ&ドラッグAFが「しない」に設定された場合は、接眼が検知されたことに応じてタッチパネル104aでのタッチの検出を停止し、タッチパネル104aを駆動するための消費電力を削減するようにしてもよい。設定された内容は、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。
In the
設定項目1213では、タッチ&ドラッグAFを「する」とした場合に、接眼検知中のタッチ操作に応じたAF位置の指定方法を、絶対位置指定と相対位置指定のいずれかに設定可能である。初期値は絶対位置指定である。絶対位置指定の場合、タッチパネル104aの操作面内の位置座標と、撮影範囲内のAF可能領域が一意に対応づけられ、タッチパネル104aがタッチされると、タッチされた位置に対応づけられた撮影範囲内の位置にAF位置が設定される。従って、例えばLV画像に写っている右下の被写体の位置をAF位置としたい場合には、ユーザはタッチパネル104aの右下の位置をタッチすればAF位置を右下に設定することができる。一方、相対位置指定の場合は、タッチパネル104aの操作面内の位置座標と、撮影範囲内のAF可能領域は一意に対応づけられない。相対位置指定では、タッチパネル104aに対するタッチムーブが行われると、タッチダウン位置に関わらず、現在設定されているAF位置から、タッチムーブの移動方向に、タッチムーブの移動量に応じた距離だけ、タッチ位置を移動させる。これは、パーソナルコンピュータにおけるマウスでのカーソル移動と類似の動作である。設定された内容は、不揮発性メモリ213に記憶され、撮影モード処理においてはシステムメモリ212に読み出される。
In the
設定項目1214では、タッチ&ドラッグAFを「する」に設定した場合に、接眼検知中のタッチ操作を受け付けるタッチパネル104aのタッチ領域の範囲(タッチ反応領域)を設定可能である。タッチ&ドラッグAFではEVF101bを覗きながらタッチ操作を行うため、例えばユーザの鼻がタッチパネル104aに触れてしまう可能性がある。この鼻のタッチがタッチ位置の移動指示操作として受け付けられると、AF位置が所望ではない位置に移動してしまう。これを防ぐために、タッチ反応領域を制限する手段が設けられている。タッチ反応領域ではない領域に鼻がタッチしてもタッチ位置の移動操作として受け付けられることはないので、鼻のタッチによってAF位置が所望ではない位置に移動してしまうことを防止できる。設定項目1214が選択されると、図12(c)に示す詳細設定画面が表示される。詳細設定画面にはタッチ反応領域をタッチパネル104aのうちいずれの領域にするかを選択可能な選択肢が表示される。これらの選択肢から選択された領域が、接眼状態におけるタッチ反応領域として設定され、タッチ反応領域として設定された領域以外は、接眼状態においてはタッチ無効の領域となる。タッチ反応領域として設定可能な選択肢には、「全体」、「右」、「左」、「右上」、「右下」、「左上」、「左下」があるものとするが、これらに限られない。なお、タッチ反応領域の設定は、タッチ&ドラッグAFが「する」に設定されていた場合の接眼状態に反映される設定である。タッチ&ドラッグAFが「しない」に設定された場合の接眼状態は設定項目1214の設定に関わらずタッチパネル104aの全体がタッチ無効領域(非反応領域)となる。非接眼状態では、タッチ&ドラッグAFの設定、及び設定項目1214の設定に関わらず、タッチパネル104aの全体がタッチ有効領域(反応領域)となる。
In the
図3の説明に戻り、S309では、システム制御部201は、操作部104に含まれるタッチ&ドラッグAFボタンが押下されたか否かを判定する。タッチ&ドラッグAFボタンが押下されていたらS310へ進み、そうでない場合はS311へ進む。
Returning to the description of FIG. 3, in S309, the
S310では、システム制御部201は、前述のタッチ&ドラッグAFの設定を「する」または「しない」に切り替え、設定変更されたことを示すガイダンスを表示する。すなわち、図12(b)で説明した設定画面を表示することなく、LV画像を表示したまま、設定項目1212の設定の変更を行うことが可能である。タッチ&ドラッグAFボタンの押下によって、タッチ&ドラッグAFの設定が「しない」から「する」に変更された場合の表示部101での表示例を図11(a)に示す。図11(a)に示すように、LV画像1131に重畳して、タッチ&ドラッグAFの設定値を表すガイダンス1132を表示する(図11(a)は、タッチ&ドラッグAFの設定を「する」に変更した際のガイダンス)。ガイダンス1132は、所定時間(例えば2秒)経過後に非表示にするものとする。なお、タッチ&ドラッグAFボタンは、ユーザが予め割り当て機能をカスタマイズすることが可能であり、タッチ&ドラッグAFの「する」または「しない」の切り替え以外の機能を割り当てる(登録する)ことも可能である。タッチ&ドラッグAFの「する」または「しない」の切り替え以外の機能が割り当てられていた場合には、S310の処理は行わず。その時点でタッチ&ドラッグAFボタンに割り当てられている機能を実行するものとする。タッチ&ドラッグAFボタンに割り当て可能な機能としては、例えば、動画の記録開始指示、ストロボの発光/非発光の設定切替、タッチダウンに応じて撮影を行うタッチシャッターのオン/オフ切替、絞り込み機能などがある。また、絞り込み機能とは、設定された絞りで撮影した場合に、どのようなピント具合になっているのか(どの程度のボケ味となるか)を確認することができる機能である。絞り込み機能を割り当てた際は、ボタンを押下し続けている間は、絞り込み機能が発動している状態となる。
In S310, the
S311では、システム制御部201は、タッチダウンを検出したか否かを判定する。タッチダウンがあった場合はS312へ進み、そうでない場合はS313へ進む。S312では、システム制御部201はタッチダウン処理を行う。タッチダウン処理については図6を用いて後述する。
In S311 the
S313では、システム制御部201は、タッチオンの状態でタッチムーブを検出したか否かを判定する。タッチムーブがあった場合はS314へ進み、そうでない場合(タッチオフ状態を含む)はS315へ進む。S314では、システム制御部201は、タッチムーブ処理を行う。タッチムーブ処理については図7を用いて後述する。
In S313, the
S315では、システム制御部201は、タッチアップを検出したか否かを判定する。タッチアップがあった場合はS316へ進み、そうでない場合(元々タッチオフであった場合、後述のタッチキャンセル処理でタッチがキャンセルされた後の場合を含む)はS317へ進む。S316では、システム制御部201は、タッチアップ処理を行う。タッチアップ処理については図8を用いて後述する。
In S315, the
S317では、システム制御部201は、タッチキャンセル操作を検出したか否かを判定する。タッチキャンセル処理があった場合はS319に進み、そうでない場はS320に進む。タッチキャンセル操作とは、例えばタッチオン状態におけるタッチパネル104a以外に対する操作(操作部104のうちタッチパネル104a以外に対する操作)のことである。タッチオン状態で操作部104が操作されると、タッチオン状態を解除し、操作部104の操作を有効とする。例えば、シャッターボタン102が半押しされると、タッチキャンセル処理を行い、撮影準備処理を開始する。S318では、システム制御部201は、タッチキャンセル処理を行う。タッチキャンセル処理については図9を用いて後述する。
In S317, the
S319では、システム制御部201は、操作部104に含まれる枠ボタンが押下されたか否かを判定する。枠ボタンが押下されていたらS320へ進み、そうでない場合はS321へ進む。S320では、システム制御部201は、枠ボタン処理を行う。枠ボタン処理については図10を用いて後述する。
In S319, the
S321では、システム制御部201は、第1シャッタースイッチ102aおよび第2シャッタースイッチ102bがオンとなったか否かを判定する。これらのスイッチがオンされていたらS322へ進み、そうでない場合はS323に進む。
In S321, the
S322では、システム制御部201は、第1シャッタースイッチ102aのオン(シャッターボタン102の半押し)に応じた撮影準備処理、および、第2シャッタースイッチ102bのオン(シャッターボタン102の全押し)に応じた撮影処理を行う。S322の撮影準備処理では、タッチ&ドラッグAFなどにより、その時点で設定されているAF位置に基づいて、AF、AE、AWBなどの処理が行われる。
In S322, the
S323では、システム制御部201は、撮影モード終了操作(電源をオフとする操作や再生モードに遷移する操作等)がなされたか否かを判定する。終了操作がなされていない場合はS324に進み、システム制御部201は、その他の処理を行う。例えば操作部104が操作されたことに応じて、シャッタースピードを変更するなどの処理を行う。S323で終了操作がされた場合は、撮影モード処理を終了する。
In S323, the
<AF枠表示更新処理>
次に、図4を用いて、図3のS304におけるAF枠表示更新処理の詳細を説明する。
<AF frame display update process>
Next, the details of the AF frame display update process in S304 of FIG. 3 will be described with reference to FIG.
S401では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFであればS402へ進み、そうでない場合はS404へ進む。
In S401, the
S404では、システム制御部201は、被写体を追尾中か否かを判定する。追尾中の場合はS405へ進み、そうでない場合はS406へ進む。
In S404, the
S402では、システム制御部201は、一点AF枠を表示部101に表示する。一点AF枠表示の表示例を図11(b)に示す。図11(b)には、被写体1133を含むLV画像に重畳して、一点AF枠1134と、撮影パラメータを示す撮影情報1135を表示している。一点AF枠1134の位置は、タッチパネル104aに対する操作、あるいは枠移動モードにおける操作部104に含まれる上下左右ボタンなどの操作によって、LV画像中のユーザが指定した位置に移動させることができる。一点AF枠1134の位置が後述するS403でのAF位置となる。
In S402, the
S405では、システム制御部201は、追尾対象の位置と、追尾の実行中であることを示す追尾枠を表示部101に表示する。追尾枠の表示画面例を図11(d)に示す。図11(d)は、LV画像中の被写体1137を追尾している状態を示している。追尾対象の被写体の周辺に、追尾枠1138を表示して、この被写体を追尾中であることを示している。デジタルカメラ100をフレーミングして撮影範囲を変更しても、被写体1137が撮影範囲に収まっていれば、追尾枠1138は被写体1137を示し続ける。追尾枠1138の位置が後述するS403でのAF位置となる。
In S405, the
S406では、システム制御部201は、顔検出処理(特定の被写体の検出処理)によってLV画像から顔(特定の被写体)が検出されているか否かを判定する。顔が検出されている場合はS407に進み、検出されていない場合はS408に進む。
In S406, the
S407では、システム制御部201は、検出された顔の位置を示す検出枠(検出指標)を表示部101に表示する。検出枠表示の画面例を図11(c)に示す。図11(c)は、LV画像から、顔1133を検出している状態を示している。検出対象の被写(顔)体の周辺に、検出枠1136を表示して、この顔を検出中であることを示している。なお、検出枠1136は被写体の検出結果に応じて、複数表示してもよい。すなわち、顔が複数検出されていれば検出枠1136(顔枠)は複数表示される。なお、顔は、LV画像を画像処理部207で解析することにより検出可能であるものとする。本実施形態では、画像処理部207で検出可能な特定の被写体として顔を検出できる例を説明しているが、人物の顔に限らず、LV画像中で主被写体としてデジタルカメラ100が自動的に決定したその他の被写体に対して検出枠1136を表示してもよい。例えば、顔以外に、動物の顔、動体、コントラストの高い被写体などを検出出来た場合、検出枠を表示してAF位置としてもよい。なお、顔が検出された場合は基本的には顔が主被写体として優先度が高くなる。検出枠1136の位置が後述するS403でのAF位置となる。
In S407, the
S407では、システム制御部201は、検出枠を非表示とする。すなわち、直前まで検出枠を表示していた場合は表示していた検出枠を消去し、直前も検出枠を表示していなかった場合は、引き続き検出枠を表示しない。
In S407, the
S408では、システム制御部201は、コンティニュアスAFを行う位置を、現在のAF位置に更新し、コンティニュアスAFを行う。コンティニュアスAFとは、ユーザによるAF実行操作がなくとも、撮影待機状態においてAF位置に自動的にピントを合わせ続けるように連続的(継続的)にAF動作を行う機能である。
In S408, the
<表示先切替処理>
次に、図5を用いて、図3のS306における表示先切替処理の詳細を説明する。
<Display destination switching process>
Next, the details of the display destination switching process in S306 of FIG. 3 will be described with reference to FIG.
S501では、システム制御部201は、接眼検知部219が検知した状態変化が、非接眼状態から接眼状態への変化であったか否か(すなわち、接眼を検知したか)を判定する。非接眼状態から接眼状態への変化だった場合はS506へ進み、そうでない場合はS502へ進む。
In S501, the
S506では、システム制御部201は、表示先を背面表示パネル101aからEVF101bへ切り替える。S506では、表示先の切り替えの要因となった接眼状態への変化(接眼の検知)の前からタッチを検出していた(タッチオンであった)場合にも、すぐに表示先を背面表示パネル101aからEVF101bに切り替える。一方、S507で後述するが、S501でNOと判定された場合(離眼が検知された場合)は、接眼状態への変化前からタッチオンであった場合は、すぐには表示先の切り替えは行わない。
In S506, the
S508では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFであればS515へ進み、そうでない場合は(追尾モードであれば)S510へ進む。
In S508, the
S510では、システム制御部201は、ユーザに指定された被写体を追尾中であるか否かを判定する。追尾中であると判定した場合はS512に進み、そうでない場合はS515に進む。
In S510, the
S512では、システム制御部201は、追尾解除方法を示す追尾解除ガイドをEVF101bに表示する。ユーザはこの表示を見て、必要に応じて被写体追尾解除を行うことが可能である。追尾解除ガイドはメッセージ表示や、アイコン表示などである。追尾解除は、追尾解除ガイドとしてのアイコンに対するタッチ操作(表示先が背面表示パネル101aである場合のみ)や、操作部104に含まれるボタン操作によって行えるものとする。
In S512, the
一方、S502では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS503へ進み、そうでない場合はS507へ進む。S503では、システム制御部201は、現在の状態がタッチオンであるか(有効なタッチを検出しているか)否かを判定する。タッチオンである場合はS504へ進み、そうでない場合はS507へ進む。
On the other hand, in S502, the
S504では、システム制御部201は、接眼検知部219において非接眼状態が所定時間継続したか(例えば2秒継続したか)否かを判定する。所定時間継続した場合はS505へ進み、そうでない場合はS507へ進む。
In S504, the
S505では、システム制御部201は、接眼検知部219の検知状態に変化があったか否かを判定する。S505の検知前は非接眼状態であるので、S505の処理は、すなわち、接眼を検知したか否かの判定である。変化があった場合(接眼を検知した場合)にはS501へ進み、変化がない場合(非接眼状態のままであれば)S503へ戻り、EVF101bの表示を維持する。
In S505, the
S507では、システム制御部201は、表示先をEVF101bから背面表示パネル101aへ切り替える。この表示先の切り替えは、S503からS505で説明したように接眼状態の変化前(離眼検知前)からタッチオンであった場合は、すぐには行われない。離眼検知時にタッチオフであった場合、および、離眼検知時にタッチオン(S503でYES)であったが、離眼検知後に非接眼状態が所定時間継続した場合(S504でYES)またはタッチオフとなった場合(S803でNO)に行われる。また、背面表示パネル101aへの切り替えと共に、タッチパネル104aのキャリブレーション(初期化処理)を行う。静電容量方式のタッチパネルでは、キャリブレーションによって、タッチ有無の判定のために基準とする静電容量値、あるいは静電容量の閾値を、キャリブレーションによって調整する。静電容量方式のタッチパネルにおいて、タッチされたままの状態でキャリブレーションを行うと、タッチの有無の判定、および/または、タッチオン状態でのタッチ位置の算出に誤判定やズレを生じさせるおそれがある。また、インセル型のタッチパネルにおいては、表示素子とタッチ検出用の電極がセパレータを挟まずに構成されているため、表示素子の駆動とタッチ検出が干渉するおそれがある。従って、背面表示パネル101aの表示開始とキャリブレーションを、タッチされたまま同時に行うと、タッチの有無の判定、および/またはタッチ位置の算出に誤判定やズレを生じさせる可能性が高い。これに対し、S507では、接眼状態の変化前(離眼検知前)からタッチオンであった場合は、キャリブレーションをすぐには行わないように制御しているため、キャリブレーションをより正確に行うことができる。なお、離眼後に非接眼状態が所定時間継続した場合(S504でYES)は、表示先をEVF101bから背面表示パネル101aへ切り替えるが、キャリブレーションはタッチオフとなるまで行わないようにしてもよい。この場合はタッチオフとなるとキャリブレーションを行う。なお、S503でタッチオンでないと判定された場合でも、後述する指定位置指標が表示されている間は、一連のタッチ操作の途中であると想定して、表示先の切り替えを抑制するようにS504に進むようにしてもよい。
In S507, the
S509では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFか否かを判定する。一点AFである場合はS515に進み、そうでない場合(追尾モードの場合)はS511に進む。
In S509, the
S511では、システム制御部201は、指定位置指標(詳細後述)を表示中か否かを判定する。表示中の場合は処理を終了し、そうでない場合はS513へ進む。
In S511, the
S513では、システム制御部201は、EVF101bに追尾解除ガイドを表示していたか否かを判定する。表示していた場合はS514へ進み、そうでない場合は処理を終了する。
In S513, the
S514では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。
In S514, the
S515では、システム制御部201は、AF枠表示更新処理を行う。この処理は、図4で説明した処理である。A枠表示更新処理を行うと、表示先切替処理を終了する。
In S515, the
上述したように、接眼検知部219で離眼を検知しても、ユーザがタッチパネル104aを用いてタッチ操作を行っている間であれば、表示先の切り替えを行わない(S501からS507)。一方、接眼検知部219で離眼を検知した場合に、タッチ操作が行われていなければ、所定時間を待つことなく表示先を切り替える(S501からS506)。
As described above, even if the
タッチ&ドラッグAFは、背面表示パネル101aを見ながらタッチパネル104aを操作する機能である。そして、ユーザが指を接眼検知部219の近くへ移動させた際や、タッチパネル104aを操作するために顔とタッチパネル104aの間に指を移動させることにより、誤って目を接眼検知部219から離してしまうことがある。この場合、システム制御部201が即座に表示先の切り替えを行ってしまうと、背面表示パネル101aへの操作が必要となるため、EVF101bを覗きながら撮影を行いたいユーザにとっては、操作に手間取り撮影機会を逃してしまうおそれがある。さらに、接眼の検知/非検知が繰り返されることでEVF101bの表示/非表示が繰り返し行われてしまい、使い勝手が良くない。さらに、誤って目が接眼検知部219から離れた際にはEVF101bを非表示としないで、背面表示パネル101aを同時に表示するような形態も考えられるが、この場合、消費電力の増加を招いてしまう。このような課題を解決するため、図5のような処理を行っている。
Touch & drag AF is a function of operating the
なお、撮影シーンによっては、タッチしたまま表示先を切り替えたい場合もあると考えられるため、非接眼状態が所定時間継続した場合は(S504でYES)、背面表示パネル101aへ表示先を切り替えるようにしている。ただし、接眼検知部219で非接眼状態を検出している継続時間に関わらず、タッチ操作が継続している限りは(タッチ音である限りは)、背面表示パネル101aへ表示先を切り替えずに、EVF101bへの表示を維持しても良い。
Depending on the shooting scene, it may be desirable to switch the display destination while touching the eyepiece. Therefore, if the non-eyepiece state continues for a predetermined time (YES in S504), the display destination is switched to the
なお、S501でNOの場合にS502からS505の処理を行わずにS507へ進むようにしてもよい。すなわち、離眼を検知した場合に、タッチオンが検出されたか否かに関わらず、表示先をEVF101bから背面表示パネル101aに切り替えるようにしてもよい。
If NO in S501, the process may proceed to S507 without performing the processes from S502 to S505. That is, when the eye loss is detected, the display destination may be switched from the
また、タッチ反応領域に設定された領域でのタッチオンであったか、またはタッチ反応領域以外の領域でのタッチオンであったかによって、S502からS505の処理を行うか否かを場合分けしてもよい。例えば、タッチ反応領域以外(タッチ無効領域)でタッチオンを検出していた場合に離眼を検知した場合は、タッチ反応領域以外でのタッチを対象として上述のS502からS505の処理を行う。タッチ無効領域で検出されたタッチは鼻による接触である可能性が高い。このようにすることで、鼻が接触したまま(すなわち実際は接眼したまま)、カメラの構え方を変えるなどしたために接眼が検知されなくなり、離眼と検知されてしまった状況で表示先が切り替わらないようにすることができる。一方、タッチ反応領域以外ではタッチオンを検出しておらず、タッチ反応領域でタッチオンを検出していた場合に離眼を検知した場合は、上述したS502からS505の処理を行うことなく、S507に進んで表示先を切り替えるようにしてもよい。この状況は、ユーザがタッチパネル104aを操作する指でタッチしまま、意図的に離眼し、背面表示パネル101aを確認しようとした可能性があるためである。
Further, whether or not the processing of S502 to S505 may be performed may be classified according to whether the touch-on is in the area set in the touch reaction area or the touch-on is in the area other than the touch reaction area. For example, when the eye loss is detected when the touch-on is detected in a region other than the touch response region (touch invalid region), the above-mentioned processes S502 to S505 are performed for the touch in the region other than the touch response region. The touch detected in the touch-disabled area is likely to be a nasal contact. By doing this, the eyepiece will not be detected because the nose is in contact (that is, the eyepiece is actually in contact) and the camera is held differently, and the display destination will not be switched in the situation where it is detected as an eyepiece. Can be done. On the other hand, if the touch-on is not detected in the area other than the touch reaction area and the eye loss is detected when the touch-on is detected in the touch reaction area, the process proceeds to S507 without performing the above-described processes S502 to S505. You may switch the display destination with. This situation is because there is a possibility that the user intentionally took his eyes off while touching the
また、背面表示パネル101aを、デジタルカメラ100の本体部に対して任意の位置や姿勢に回動可能なチルト式モニタまたはバリアングル式モニタとして構成してもよい。この場合、デジタルカメラ100は、バリアングルモニタのカメラ本体部に対する位置や姿勢を検出するモニタ位置検出部を有するものとする。そして、背面表示パネル101aの表示面がカメラ背面側に露出する向き(すなわち、図1に示した状態と同じ向き)でバリアングルモニタが閉じられていることを検出した場合には上述のS502からS505の処理を行う。一方、バリアングルモニタが開いている場合は、上述のS502からS505の処理を行うことなく、S507に進んで表示先を切り替えるようにしてもよい。バリアングルモニタが開いている場合には、タッチパネル104aを操作するための指が顔や目の近くに位置することがなく、上述のような課題が発生しないためである。
Further, the
なお、タッチオンの有無により表示先の切り替えを抑制する制御を例示したが、タッチ操作に限らず、他の操作部材の操作があった場合に、表示先の切り替えを抑制するようにしてもよい。例えば、前述の絞り込み機能を割り当てたボタンを操作中ならば表示先を切り替えない、としてもよい。また、EVF101bの接眼部に近い操作部材や、カメラ背面に備えられ、操作時に接眼しているユーザの顔とカメラ背面の間に指を挿入することになるような操作部材について、表示先の切り替えを抑制する制御(S502からS505)を行うようにしてもよい。操作する場合に接眼しているユーザの顔とデジタルカメラ100の間に指を挿入することになるような操作部材としては、例えばコントローラホイール106が考えられる。それ以外の操作部材としては例えば、シャッターボタン102の周りに設けられたズームレバーが考えられる。この場合、離眼検知をコントローラホイール106の回転操作の途中で判定した場合はS507に進まずにS504とS505の処理を行い、コントローラホイール106の回転操作が終了するか、非接眼となって所定時間が経過するとS507に進むようにする。一方、離眼を検知した場合にズームレバーが操作されていても、S503からS505に進むことなく、S507に進む。ズームレバーは、デジタルカメラ100のうちEVF101bの接眼面のある面(背面)とは異なる面(例えば上部、あるいはカメラ前面のレンズの鏡筒周り)に備えられた操作部材である。従ってズームレバーを操作する指の影響でユーザーの顔が意図せず接眼部から離れてしまう可能性が低い。
Although the control for suppressing the switching of the display destination depending on the presence or absence of touch-on has been illustrated, the switching of the display destination may be suppressed when there is an operation of another operating member, not limited to the touch operation. For example, the display destination may not be switched while the button to which the above-mentioned narrowing down function is assigned is being operated. Further, the operation member close to the eyepiece of the EVF101b and the operation member provided on the back of the camera and such that a finger is inserted between the face of the user who is in contact with the eye during operation and the back of the camera are displayed. Control (S502 to S505) for suppressing switching may be performed. For example, the
また、タッチオンの有無に応じてタッチオンがあった場合に表示先の切り替えを抑制する制御を例示したが、タッチ操作の種類に応じて表示先の切り替えを抑制する制御のする/しないを切り替えてもよい。例えば単にタッチオンの状態が継続されている場合は、AF枠関連操作を行っていないとみなして、上記表示先の切り替えを抑制する制御を行わないとしてもよい。そして、タッチムーブ操作が所定時間内に繰り返し行われている状態においては、AF枠関連操作(タッチ&ドラッグAFでのAF枠の移動操作)が行われている途中であるとして、上記表示先の切り替えを抑制する制御を行うようにしてもよい。 In addition, although the control that suppresses the switching of the display destination when there is touch-on depending on the presence or absence of touch-on is illustrated, the control that suppresses the switching of the display destination may be switched depending on the type of touch operation. Good. For example, when the touch-on state is simply continued, it may be considered that the AF frame-related operation has not been performed, and the control for suppressing the switching of the display destination may not be performed. Then, in the state where the touch move operation is repeatedly performed within a predetermined time, it is assumed that the AF frame related operation (the AF frame moving operation by touch & drag AF) is being performed, and the above display destination Control to suppress switching may be performed.
<タッチダウン処理>
次に、図6を用いて、図3のS312におけるタッチダウン処理の詳細を説明する。
<Touchdown processing>
Next, the details of the touchdown process in S312 of FIG. 3 will be described with reference to FIG.
S601では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS602へ進み、そうでない場合はS610へ進む。
In S601, the
S602では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであればS603へ進み、そうでない場合は(追尾モードであれば)S606へ進む。
In S602, the
S603では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応する背面表示パネル101a上の座標に一点AF枠を表示する。
In S603, the
S604では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠の位置に更新し、コンティニュアスAFを行う。
In S604, the
S605では、システム制御部201は、一点AF枠の位置を中央に戻すガイドを背面表示パネル101aに表示する。ガイドは文字列によるガイダンスでもよく、アイコンでもよい。また、一点AF枠の位置を中央に戻す操作は、操作部104に含まれるボタン操作でもよく、タッチパネル104aへのタッチ操作でもよい。
In S605, the
S606では、システム制御部201は、タッチパネル104aのタッチダウン位置に対応する背面表示パネル101aの座標の近傍で検出された被写体を追尾する。これによって追尾中の状態に遷移する。
In S606, the
S607では、システム制御部201は、背面表示パネル101aに表示されたLV画像において追尾している被写体を示す範囲に追尾枠1138を表示する。
In S607, the
S608では、システム制御部201は、コンティニュアスAFを行う位置を、現在の追尾位置に更新し、コンティニュアスAFを行う。
In S608, the
S609では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。
In S609, the
S610では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS611へ進み、そうでない場合は処理を終了する。
In S610, the
S611では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されていればS612へ進み、そうでない場合はS620へ進む。
In S611, the
S612では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであれば共にS613へ進み、そうでない場合は(追尾モードであれば)S616へ進む。
In S612, the
S613では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応するEVF101b上の位置に、一点AF枠を表示する。
In S613, the
S614では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。
In S614, the
S615では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。
In S615, the
S616では、システム制御部201は、現在、被写体を追尾中か否かを判定する。追尾中であればS618へ進み、そうでない場合はS617へ進む。
In S616, the
S617では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。
In S617, the
S618では、システム制御部201は、タッチパネル104a上のタッチダウン位置に対応するEVF101b上の座標に、指定位置指標を表示する。すなわち、追尾実行中にタッチダウンがなされると追尾は解除され、代わりに、新たな追尾先を指定するために指定位置指標が表示される。図11(e)に、EVF101bにおける指定位置指標の表示例を示す。指定位置指標1139は、ユーザのタッチムーブ操作に応じて移動可能な指標(カーソル)であり、タッチ&ドラッグAF機能によるLV画像に対する現在の指定位置を示している。指定位置指標1139は、接眼状態かつタッチ操作中(タッチオン中)に表示され、非接眼状態、EVF101bが非表示の状態、タッチ&ドラッグAFが「しない」に設定されている場合には表示されない。また、指定位置指標1139は、EVF101bに表示され、背面表示パネル101aには表示されない。指定位置指標1139は、絶対位置指定に設定されている場合は、タッチパネル104aのタッチ位置に一意に対応づけられた位置に表示される。また、指定位置指標1139は、相対位置指定に設定されている場合には、タッチパネル104a上のタッチ位置がどこにあるかには関わらず、タッチムーブの方向と移動量に応じて現在位置から移動される。なお、指定位置指標1139の表示中にも、特定の被写体が検出されていれば、検出枠1136を表示する。
In S618, the
S619では、システム制御部201は、コンティニュアスAFを行う位置を、現在の被写体検出結果に基づく位置に更新し、コンティニュアスAFを行う。このコンティニュアスAFを行う位置は、指定位置指標1139に基づいた位置ではなく、デジタルカメラ100が自動的に主被写体と判定した被写体に基づく位置である。すなわち、追尾解除状態と同様のAF制御である。
In S619, the
S620では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであれば処理を終了し、そうでない場合は(追尾モードであれば)S621へ進む。
In S620, the
S621では、システム制御部201は、現在被写体を追尾中か否かを判定する。追尾中の場合S622へ進み、そうでない場合はS627へ進む。
In S621, the
S622では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。すなわち、追尾実行中にタッチダウンがなされると追尾は解除され、代わりに、新たな追尾先を指定するために後述のS624で吸着中検出枠が表示されるか、S625で指定位置指標が表示される。
In S622, the
S623では、システム制御部201は、追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置の近傍であるか(追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置から所定範囲以内であるか)否かを判定する。この判定では、例えば、顔(特定の被写体)が検出されている場合に、追尾解除時の追尾対象の範囲(追尾範囲)が検出されている顔(特定の被写体)の範囲と少なくとも一部重複している場合に、近傍であると判定する。また、顔(特定の被写体)が検出されている場合に、追尾解除時の追尾対象の範囲(追尾範囲)の中心が検出されている顔(特定の被写体)の範囲内である場合に、近傍であると判定してもよい。さらに、追尾していた対象が顔であったか否かの判定とし、追尾していた対象が顔であった場合にYESと判定してもよい。追尾解除した際の追尾位置が、顔(特定の被写体)の検出位置の近傍であると判定した場合はS624に進み、そうでない場合はS625に進む。
In S623, the
S624では、システム制御部201は、S623で追尾解除時の追尾位置の近傍と判定された、検出されている顔(特定の被写体)を示す範囲に、吸着中検出枠1140を表示する。
In S624, the
S625では、システム制御部201は、追尾を解除する直前まで追尾枠を表示していたEVF101b上の座標に、指定位置指標1139を表示する。
In S625, the
S626では、システム制御部201は、S619と同様に、コンティニュアスAFを行う位置を、指定位置指標の位置に関わらず、現在の被写体検出結果に基づいた位置に更新し、コンティニュアスAFを行う。
In S626, the
S627では、システム制御部201は、EVF101bに、指定位置指標1139を表示中であるか否かを判定する。追尾モードで相対位置指定に設定されている場合には、後述するタッチアップ処理の際に、指定位置指標1139の位置で検出された被写体に吸着していなかった場合は、タッチアップ後も追尾対象を確定せずに指定位置指標1139が所定時間表示されたままとなる。これによって、相対位置指定によって、指定位置指標1139を、何回かに分けた連続したタッチによるタッチムーブ操作で所望の位置まで移動させることが可能である。
In S627, the
S627では、システム制御部201は、指定位置指標1139が表示中であるか否かを判定する。表示中の場合はS629に進み、そうでない場合はS628に進む。
In S627, the
S628では、システム制御部201は、EVF101bに表示されたLV画像の中央に、指定位置指標1139を表示する。すなわち、相対位置指定では、指定位置指標1139が表示されていない状態でタッチダウンされると、タッチダウン位置に関わらず、初期位置(中央)に指定位置指標1139が表示される。
In S628, the
<タッチムーブ処理>
次に、図7を用いて、図3のS314におけるタッチムーブ処理の詳細を説明する。
<Touch move processing>
Next, the details of the touch move process in S314 of FIG. 3 will be described with reference to FIG. 7.
S701では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルである場合はS702へ進み、そうでない場合はS706へ進む。
In S701, the
S702では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFの場合はS703へ進み、そうでない場合は(追尾モードであれば)処理を終了する。すなわち、表示先が背面表示パネル101aで追尾モードである場合には、タッチムーブに応じた追尾対象の変更や、タッチムーブに応じた位置へのAFは行わない。S606乃至S608で前述した通り、追尾対象はタッチダウン位置に基づいて確定されており、その後タッチが継続してタッチムーブが行われても、タッチダウン位置に基づいて決定した追尾対象の追尾が継続される。
In S702, the
S703では、システム制御部201は、タッチパネル104a上のタッチムーブ後の位置に対応する背面表示パネル101a上の座標に一点AF枠を表示する。
In S703, the
S704では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠の位置に更新し、コンティニュアスAFを行う。
In S704, the
S705では、システム制御部201は、一点AF枠の位置を中央に戻すガイドを背面表示パネル101aに表示する。中央に戻すガイドは、S605で説明したものと同様である。
In S705, the
S706では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS707へ進み、「しない」に設定されている場合は処理を終了する。
In S706, the
S707では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS708へ進み、そうでない場合は(相対位置指定であれば)S715へ進む。
In S707, the
S708では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFである場合はS709へ進み、そうでない場合はS712へ進む。
In S708, the
S709では、システム制御部201は、タッチパネル104a上のタッチムーブ後の位置に対応するEVF101b上の座標に一点AF枠を表示する。
In S709, the
S710では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。
In S710, the
S711では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。中央に戻すガイドは、S605で説明したものと同様である。
In S711, the
S712では、システム制御部201は、タッチパネル104a上のタッチムーブ後のタッチ位置に対応するEVF101b上の座標(LV画像上の指定位置)が、検出された被写体の近傍であるか否かを判定する。すなわち、LV画像上の指定位置が、検出された被写体の位置から所定範囲以内であるか否かを判定する。この判定は、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)内である場合に近傍であると判定するものとする。また、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)の外側である場合に、近傍ではないと判定するものとする。また、顔(特定の被写体)が検出されていない場合も、近傍ではないと判定するものとする。なお、近傍の判定はこれに限られない。例えば、顔(特定の被写体)が検出されている場合に、タッチムーブ後のタッチ位置に対応するEVF101b上の座標が、表示されている検出枠1136(顔検出枠)を所定倍(例えば1.5倍)した範囲内に収まっている場合に近傍と判定してもよい。また、顔(特定の被写体)が検出されている場合に、タッチムーブによって移動された指定位置指標1139が示す範囲が、表示されている検出枠1136(顔検出枠)の範囲と少なくとも一部重なる位置となる場合に、近傍と判定してもよい。近傍である場合はS713へ進み、そうでない場合はS714へ進む。
In S712, the
S713では、システム制御部201は、EVF101bに表示されている検出枠1136と指定位置指標1139を非表示にし、吸着中検出枠1140を表示する。図11(f)に吸着中検出枠1140の表示例を示す。吸着中検出枠1140はLV画像に重畳して表示され、この状態でタッチアップがなされると、吸着中検出枠1140で囲まれた被写体が追尾対象となることを示している。吸着中検出枠1140は、タッチアップすると追尾対象となることを示すため、追尾枠1138と同様の形状で表示されるが、追尾枠1138との違いが識別可能なように、追尾枠1138と異なる色で表示される。吸着中検出枠1140の表示形態はこの例に限るものではなく、追尾中ではないがタッチアップされると追尾が開始されることが識別可能な表現であればよい。例えば、指定位置指標1139を表示したまま、追尾可能アイコンや追尾可能ガイドを表示したり、指定位置指標1139の色だけを変えるなど、他の表現で示してもよい。
In S713, the
S714では、システム制御部201は、タッチパネル104a上のタッチムーブ後のタッチ位置に対応するEVF101b上の座標に、指定位置指標1139を表示する。
In S714, the
S715では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであればS716へ進み、そうでない場合は(追尾モードであれば)S719へ進む。
In S715, the
S716では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた位置に対応するEVF101b上の座標に、一点AF枠を表示する。なお、この位置は、相対位置指定であるため、タッチ位置に一意に対応する位置ではない。
In S716, the
S717では、システム制御部201は、コンティニュアスAFを行う位置を、現在の一点AF枠位置に更新し、コンティニュアスAFを行う。
In S717, the
S718では、システム制御部201は、一点AF枠の位置を中央に戻すガイドをEVF101bに表示する。中央に戻すガイドは、S605で説明したものと同様である。
In S718, the
S719では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた位置に対応するEVF101b上の座標(LV画像上の指定位置)が、検出された被写体の近傍であるか否かを判定する。この判定は、前述したS712の判定と同様の判定であるが、検出枠1136(顔検出枠)との比較対象は、絶対位置指定ではないため、タッチムーブ後のタッチ位置に一意に対応する位置ではなく、相対位置指定によって指定された位置である。近傍であると判定された場合はS720へ進み、そうでない場合はS721へ進む。
In S719, the
S720では、システム制御部201は、S713と同様に、EVF101bに表示されている検出枠1136と指定位置指標1139を非表示にし、吸着中検出枠1140を表示する。
In S720, the
S721では、システム制御部201は、タッチパネル104a上のタッチムーブ操作の移動方向と移動量に応じた指定位置に対応するEVF101b上の座標に、指定位置指標1139を表示する(指標の表示位置変更処理)。この状態で指定位置指標1139の位置でコンティニュアスAFは行われず、現在の被写体検出結果に基づいた位置でコンティニュアスAFが行われる。なお、この状態ではAF動作を停止する(AFを行わない)ようにしても良い。
In S721, the
<タッチアップ処理>
次に、図8を用いて、図3のS316におけるタッチアップ処理の詳細を説明する。
<Touch-up processing>
Next, the details of the touch-up process in S316 of FIG. 3 will be described with reference to FIG.
S801では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであれば処理を終了し、そうでない場合はS802へ進む。
In S801, the
S802では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS803へ進み、そうでない場合は処理を終了する。
In S802, the
S803では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法の設定が、絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS804へ進み、そうでない場合はS809へ進む。
In S803, the
S804では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであれば処理を終了し、そうでない場合は(追尾モードである場合は)S805へ進む。
In S804, the
S805では、システム制御部201は、タッチパネル104a上のタッチアップ位置に対応するEVF101b上の座標(指定位置)に基づき、指定位置の近傍で検出された被写体の追尾を開始する(追尾中となる)。
In S805, the
S806では、システム制御部201は、EVF101bに表示されたLV画像における追尾している被写体を示す範囲に、追尾枠1138を表示する。
In S806, the
S807では、システム制御部201は、コンティニュアスAFを行う位置を、現在の追尾位置に更新し、コンティニュアスAFを行う。
In S807, the
S808では、システム制御部201は、追尾解除ガイドを背面表示パネル101aに表示する。追尾解除ガイドはS512で説明したものと同様である。
In S808, the
S809では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードであれば処理を終了し、そうでない場合は(追尾モードであれば)S810へ進む。
In S809, the
S810では、システム制御部201は、EVF101bに吸着中検出枠1140が表示されているか否かを判定する。表示されていればS813へ進み、そうでない場合はS811へ進む。
In S810, the
S811では、システム制御部201は、操作部104に対して追尾確定待ちを中断する操作がなされたか否かを判定する。追尾確定待ちを中断する操作は、例えば、新しいタッチダウンや、操作部104に含まれるメニューボタンの押下による他の画面(メニュー画面)の表示指示などである。中断する操作がなされた場合は処理を終了し、そうでない場合はS812へ進む。なお、新しいタッチダウンがあった場合は、図3のS311で改めてタッチダウンがあったと判定され、図6のS627で、指定位置指標1139の表示中のタッチダウンがあったと判定される。
In S811, the
S812では、システム制御部201は、タッチアップを検出してから所定時間経過したか否かを判定する。所定時間は、ユーザが引き続き指定位置指標1139を移動させるために、連続した一連のタッチ操作における次の新たなタッチを行うまでの時間として十分であればよく、例えば1秒程度である。所定時間経過した場合はS813へ進み、そうでない場合はS811へ戻る。
In S812, the
S813では、システム制御部201は、EVF101b上に表示された指定位置指標1139の位置に基づき、指定位置指標1139の近傍で検出された被写体の追尾を開始する(追尾中となる)。
In S813, the
S814からS816の処理は、S806〜S808の処理と同様であるので説明を省略する。 Since the processes of S814 to S816 are the same as the processes of S806 to S808, the description thereof will be omitted.
上述したように、AFモードが追尾モードかつ位置指定方法が相対位置指定である場合、タッチ&ドラッグAF機能により指定位置指標1139をLV画像上の任意の位置へ移動する際に、タッチアップ後所定時間経過後に追尾対象の被写体の確定を行う。
As described above, when the AF mode is the tracking mode and the position designation method is the relative position designation, when the designated
このような形態としているのは、追尾モードでは、ある被写体から別の被写体へAF位置を移動させている途中にAFが開始されてしまうと、例えば背景にピントが合ってしまい追尾したい被写体がボケて検出されなくなってしまう不都合を防止するためである。 In the tracking mode, if AF is started while the AF position is being moved from one subject to another, for example, the background will be in focus and the subject to be tracked will be out of focus. This is to prevent the inconvenience of not being detected.
また、位置指定方法が相対位置指定方式の場合は、ユーザが指定位置指標を所望の被写体へ移動させるために、複数回タッチムーブ操作を行うことが想定されるため、タッチアップ後すぐに被写体の追尾が開始されてしまうと操作性が良くない。一方で、タッチアップ後にすぐに追尾を開始するようユーザが別途指示することも操作の手間が増えるために好ましくない。このような課題を解決するため、図7のS721や図8のS811、S812のような形態としている。 Further, when the position designation method is the relative position designation method, it is assumed that the user performs the touch move operation multiple times in order to move the designated position index to the desired subject, so that the subject is immediately touched up. Operability is not good once tracking is started. On the other hand, it is not preferable for the user to separately instruct the user to start tracking immediately after the touch-up because the operation is troublesome. In order to solve such a problem, the form is as shown in S721 in FIG. 7 and S811 and S812 in FIG.
また、既に指定位置指標が検出された被写体まで到達している(吸着中検出枠表示となっている)場合には、ユーザが所望の被写体まで指定位置指標を移動できたと想定し、確定まで所定時間経過を待たずにすぐに追尾被写体の確定を行うようにしている。これによって、追尾したい被写体が動いている場合にも追尾対象として指定しやすくなる。 In addition, when the designated position index has already reached the detected subject (the detection frame is displayed during adsorption), it is assumed that the user has been able to move the designated position index to the desired subject, and the designated position index is determined until confirmation. The tracking subject is confirmed immediately without waiting for the passage of time. This makes it easier to specify the subject to be tracked even when the subject to be tracked is moving.
<タッチキャンセル処理>
次に、図9を用いて、図3のS318におけるタッチキャンセル処理の詳細を説明する。
<Touch cancel processing>
Next, the details of the touch cancel process in S318 of FIG. 3 will be described with reference to FIG.
S901では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS911へ進み、そうでない場合はS902へ進む。
In S901, the
S902では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のタッチ&ドラッグAFの設定が「する」であるか否かを判定する。「する」に設定されている場合はS903へ進み、そうでない場合はS911へ進む。
In S902, the
S903では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFモードである場合はS911へ進み、そうでない場合はS904へ進む。
In S903, the
S904では、システム制御部201は、EVF101bに指定位置指標1139を表示中か否かを判定する。表示中の場合はS905へ進み、そうでない場合はS911へ進む。
In S904, the
S905では、システム制御部201は、タッチキャンセル操作がシャッターボタン102の半押しによる第1シャッタースイッチ102aのオン(SW1オン)であったか否かを判定する。SW1オンであった場合はS906へ進み、そうでない場合はS907へ進む。
In S905, the
S906では、システム制御部201は、指定位置指標1109を非表示とする。S907では、システム制御部201は、EVF101b上に表示された指定位置指標1139の位置に基づき、指定位置指標1139の近傍で検出された被写体の追尾を開始する(追尾中となる)。この処理は図8のS813と同様である。すなわち、タッチキャンセル操作があると、タッチされたままであっても、SW1オンによる撮影準備指示があった場合には、その時点の指定位置指標1139の位置に基づいて追尾対象を確定し、追尾を開始すると共に、追尾位置で撮影準備処理が行われる。これにより、タッチアップを行わなくとも、指定位置指標1139が所望の被写体の位置となった時点で速やかに所望の被写体にAFを合わせた撮影を行うことが可能となる。タッチされたまま第1シャッタースイッチ102a以外の操作があった場合は、追尾対象を確定することなく、追尾解除状態のまま、タッチ操作をキャンセルする。
In S906, the
S908から909の処理は、図8のS806からS808と同様であるので説明を省略する。S911では、システム制御部201は、図8のタッチアップ処理を行う。
Since the processing of S908 to 909 is the same as that of S806 to S808 of FIG. 8, the description thereof will be omitted. In S911, the
なお、図8で説明したS811における追尾確定待ちを中断する操作と、S905でYESとなるタッチされている途中でも追尾を開始する操作は、前述した例に限らない。操作部104に含まれる他の操作部材の操作でもよいし、ユーザの接眼/離眼による背面表示パネル101a/EVF101bの表示先の切り替えをトリガーとして追尾確定待ちの中断や追尾開始をしてもよい。
The operation of interrupting the tracking confirmation wait in S811 described with reference to FIG. 8 and the operation of starting tracking even while being touched to be YES in S905 are not limited to the above-mentioned examples. The operation of other operation members included in the
<枠ボタン処理>
次に、図10を用いて、図3のS320における枠ボタン処理の詳細を説明する。
<Frame button processing>
Next, the details of the frame button processing in S320 of FIG. 3 will be described with reference to FIG.
S1001では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、AFモードが一点AFモードか否かを判定する。一点AFであればS1002へ進み、そうでない場合は(追尾モードであれば)S1005へ進む。
In S1001, the
S1002では、システム制御部201は、操作部104に含まれる枠ボタンが長押しされたか(所定時間以上押下され続けたか)否かを判定する。長押しされた場合はS1004へ進み、そうでない場合はS1003へ進む。
In S1002, the
S1003では、システム制御部201は、一点AF枠の位置を変更可能な枠移動モードへ遷移する。このモードでは、これまで述べてきたタッチパネル104aによる操作以外に、操作部104に含まれる上下左右ボタンやコントローラホイール106の操作に応じて、一点AF枠の移動を行うことが可能である。また、任意の位置でLV画像の拡大を行うことも可能である。
In S1003, the
S1004では、システム制御部201は、一点AF枠の位置を中央に戻す。S1005では、システム制御部201は、表示先が背面表示パネル101aであるか否かを判定する。背面表示パネルであればS1006へ進み、そうでない場合はS1007へ進む。
In S1004, the
S1006では、システム制御部201は、顔セレクトモードに遷移する。顔セレクトモードは、現在検出されている被写体の中で最も主顔に相応しいものを追尾する機能である。
In S1006, the
S1007では、システム制御部201は、システムメモリ212に保持した設定情報を参照し、前述のAF位置の指定方法が絶対位置指定に設定されているか否かを判定する。絶対位置指定に設定されている場合はS1008へ進み、そうでない場合はS1006へ進む。
In S1007, the
S1008では、システム制御部201は、被写体を追尾中か否かを判定する。追尾中の場合はS1009へ進み、そうでない場合はS1006へ進む。
In S1008, the
S1009では、システム制御部201は、被写体の追尾を解除し、追尾解除状態へ遷移させる。これによって追尾枠1138は非表示となる。
In S1009, the
S1010では、システム制御部201は、図6のS619と同様に、コンティニュアスAFを行う位置を、現在の被写体検出結果に基づいた位置に更新し、コンティニュアスAFを行う。
In S1010, the
なお、ここまでEVF101bを例に説明したが、EVF101bではなく、光学ファインダーを備えた撮像装置にも本発明を適用可能である。その場合、以下のように置き換えて適用する。接眼検知部219は光学ファインダーの接眼部への接眼を検知する。接眼状態では、背面表示パネル101aを非表示とし、光学ファインダー内に備えられた情報表示用の液晶表示素子などの駆動を開始する。なお、光学ファインダー内の表示素子は非接眼状態で表示していてもよい。背面表示パネル101aには、非接眼状態でLV画像を表示していなくてもよく、LV画像以外の情報表示をしていたり、非表示としていてもよい。ただしタッチ&ドラッグAFが「する」に設定されている場合はタッチパネル104aは駆動しておくものとする。光学ファインダー内には、接眼状態でもLV画像は表示されず、代わりに光学像が視認できる。接眼状態において表示するものとして説明した、追尾枠、指定位置指標、吸着中検出枠は、光学ファインダー内において、光学像に重ねて予め定められた複数の表示素子によって表示する。検出枠は表示しても表示しなくてもよい。
Although the EVF101b has been described as an example so far, the present invention can be applied not to the EVF101b but also to an image pickup apparatus provided with an optical viewfinder. In that case, replace and apply as follows. The
なお、ここまで述べた枠表現は、状況に応じて大きさが可変であってもよく、また一枠で構成されていなくてもよい。例えば光学ファインダーなど、予め表示部上に複数のAF点が表示されている場合には、タッチ位置を示す際にはタッチした指の位置および面積に応じて、複数のAF点の色を変更するなどして、タッチ位置を示すようにしてもよい。 The frame representation described so far may be variable in size depending on the situation, and may not be composed of one frame. For example, when a plurality of AF points are displayed on the display unit in advance such as in an optical viewfinder, the colors of the plurality of AF points are changed according to the position and area of the touched finger when indicating the touch position. The touch position may be indicated by such means.
また、S811の追尾確定までの待ち時間の長さは、ユーザが変更できてもよいし、撮影シーンに応じて自動で変更されてもよい。例えば、LV画像から動体の検出が可能である場合に動体の被写体が検出されている場面では、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定するようにしてもよい。もしくは、姿勢検知部218からの出力や、LV画像の時間軸相関の解析によりデジタルカメラ100自体が動いていると判定される場面では、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定するようにしてもよい。これらの場面では、ユーザはLV画像上で動体を追尾したいと考えていると想定できるためである。また、動きの多い被写体を撮影することを想定した撮影モードに設定されている場合、タッチアップに応じて吸着中検出枠の表示中でなくともすぐに追尾対象を確定してもよい。動きの多い被写体を撮影することを想定した撮影モードは例えば、複数のシーン別撮影モードのうち、スポーツ撮影モード(前述)、打ち上げ花火モード、ペット(動物)撮影モード、子供(キッズ)撮影モードがある。また、動きの多い被写体を撮影することを想定した撮影モードではない撮影モード(動きの少ない被写体を撮影する撮影モード)としては例えば、ポートレート撮影モード、花撮影モード、料理撮影モード、オークション出品商品撮影モード、風景撮影モードがある。
Further, the length of the waiting time until the tracking confirmation of S811 may be changed by the user, or may be automatically changed according to the shooting scene. For example, in a scene where a moving object is detected when the moving object can be detected from the LV image, the tracking target is immediately determined even if the suction detection frame is not displayed according to the touch-up. May be good. Alternatively, in a scene where it is determined that the
また反対に、動画撮影時(動画の記録時)に誤って所望でない被写体を追尾してしまうことで、ピントが所望でない被写体に合ってしまうと、所望でない被写体にピントがあった状態も記録されてしまい、望ましくない。従って、動画撮影中(動画の記録中)は、ピントが意図しない被写体に合うことをより確実に防ぐため、被写体検出位置に指定位置指標を移動させた場合も、タッチアップから追尾確定まで所定時間待つこととしてもよい。この場合、指定位置指標の位置が被写体検出位置であるか否かに応じて、待つ時間に差を設け、指定位置指標の位置が被写体検出位置である場合のほうが確定待ち時間を短くしてもよい。 On the other hand, if an undesired subject is accidentally tracked when shooting a moving image (when recording a moving image) and the undesired subject is in focus, the undesired subject is also recorded. It is not desirable. Therefore, during movie shooting (during movie recording), in order to more reliably prevent the focus from focusing on an unintended subject, even if the designated position index is moved to the subject detection position, it takes a predetermined time from touch-up to tracking confirmation. You may wait. In this case, a difference is provided in the waiting time depending on whether or not the position of the designated position index is the subject detection position, and even if the fixed waiting time is shorter when the position of the designated position index is the subject detection position. Good.
なお、追尾確定時や、指定位置指標の検出枠への吸着時に、「近傍」という表現を用いたが、どの程度接近していたら各処理を行うかの閾値は、ユーザが変更できてもよいし、撮影シーンに応じて自動で変更されてもよい。例えば動体撮影を行うシーン、および動体撮影前提の撮影モード時には、動く被写体を捉えにくいと判断し、被写体から指定位置指標が通常よりも遠く離れていても、近傍と判定されるようにしてもよい。 Although the expression "neighborhood" is used when tracking is confirmed or when the designated position index is adsorbed to the detection frame, the user may be able to change the threshold value for performing each process when they are close to each other. However, it may be changed automatically according to the shooting scene. For example, in a scene where moving object shooting is performed or in a shooting mode premised on moving body shooting, it may be determined that it is difficult to capture a moving subject, and even if the designated position index is farther than usual from the subject, it may be determined to be in the vicinity. ..
<タッチ&ドラッグAF機能による画面表示例>
次に、図13(a)から図13(f2)を用いて、タッチ&ドラッグAF機能によって、LV画像中の右側の花の位置を追尾している状態から、左側の人物に追尾対象を変更しようとしてユーザがタッチムーブを行った場合の動作の一例を説明する。
<Screen display example using touch and drag AF function>
Next, using FIGS. 13 (a) to 13 (f2), the tracking target is changed from the state of tracking the position of the flower on the right side in the LV image to the person on the left side by the touch and drag AF function. An example of the operation when the user performs a touch move in an attempt will be described.
図13(a)から図13(c)、図13(d2)、図13(e2)、図13(f2)は、本実施形態における動作例を示している。図13(d1)、図13(e1)、図13(f1)は、本実施形態を適用しない場合の動作例を示しており、本実施形態の効果を説明するための比較である。図13(a)から図13(f2)の各図は、以下の状態であるものとする。
タッチ&ドラッグAF:「する」
位置指定方法:相対位置指定
タッチ反応領域:全面
接眼/非接眼:接眼状態
13 (a) to 13 (c), 13 (d2), 13 (e2), and 13 (f2) show operation examples in this embodiment. 13 (d1), 13 (e1), and 13 (f1) show an operation example when the present embodiment is not applied, and are comparisons for explaining the effect of the present embodiment. It is assumed that each of FIGS. 13 (a) to 13 (f2) is in the following state.
Touch & Drag AF: "Yes"
Position designation method: Relative position designation Touch reaction area: Full eyepiece / non-eyepiece: Eyepiece state
図13(a)は、タッチがなされていない(タッチオフ)である場合に、追尾中の例である。LV画像のうち一部の被写体である花を追尾しており、EVF101bにおいて、LV画像中の花に対して追尾枠1138が表示されている。タッチパネル104aには指を触れていない。
FIG. 13A is an example of tracking when the touch is not made (touch-off). A flower, which is a part of the subject in the LV image, is tracked, and in EVF101b, a
図13(b)は、図13(a)の状態から、タッチダウンされた場合の例である。花の追尾は解除され、代わりに指定位置指標1139が表示される。被写体検出により、人物の顔が検出されるため、EVF101bにおいて、LV画像中の人物の顔に対して検出枠1136が表示される。タッチパネル104aには、指Fがタッチしている。
FIG. 13B is an example of a touchdown from the state of FIG. 13A. Flower tracking is canceled and the designated
図13(c)は、図13(b)の状態から、指Fを左上に向けてタッチムーブした場合の例である。指定位置指標1139は、タッチムーブに応じて左上に移動している。この例では、そのときたまたま移動してきた被写体の蝶の位置となっている。指Fがタッチパネル104aの左端近くまで移動したため、ユーザはこれ以上左側にタッチムーブすることは困難である。ところが、まだ所望する人物の位置まで指定位置指標1139が到達していないため、一旦タッチアップして再度右側にタッチダウンし、左側へタッチムーブを試みることになる。
FIG. 13 (c) is an example in which the finger F is touch-moved from the state of FIG. 13 (b) toward the upper left. The designated
図13(d1)は、図13(c)の状態でタッチアップが行われ、本実施形態で説明した追尾確定待ち(S811、S812)を行わずに追尾対象を確定した場合の例である。タッチアップした時点での指定位置指標1139の位置にあった蝶にすぐに追尾確定されてしまい、ユーザが所望した被写体ではない、蝶に対して追尾枠1138が表示され、追尾が開始されてしまう。
FIG. 13 (d1) is an example in which the touch-up is performed in the state of FIG. 13 (c) and the tracking target is confirmed without performing the tracking confirmation waiting (S811, S812) described in the present embodiment. Tracking is immediately confirmed for the butterfly that was at the position of the designated
図13(e1)は、図13(d1)の状態からユーザが再度タッチダウンする前に蝶が移動してしまった場合の例である。蝶に対して追尾しているため、追尾枠1138は蝶と一緒に右側の花付近に移動してしまっている。
FIG. 13 (e1) is an example in which the butterfly moves from the state of FIG. 13 (d1) before the user touches down again. Since it is tracking the butterfly, the
図13(f1)は、図13(e1)の状態から、ユーザが改めてタッチダウンし、右側から左側にタッチムーブ(2回目のタッチムーブ)した場合の例である。指定位置指標1139の移動は、ユーザの意図に反して蝶に追尾して右側に移動してしまった追尾枠1138の位置(図13(e1))からとなるため、2回目のタッチムーブを行っても、指定位置指標1139を所望とする人物の位置に移動できない。このように、本実施形態で説明した追尾確定待ち(S811、S812)を行わない場合は、意図しない被写体に追尾してしまうことにより、ユーザによるAF位置の指定操作(追尾位置の指定操作)が阻害されてしまう場合がある。
FIG. 13 (f1) is an example of a case where the user touches down again from the state of FIG. 13 (e1) and makes a touch move (second touch move) from the right side to the left side. Since the designated
一方、本実施形態で説明した追尾確定待ち(S811、S812)を行った場合の例を図13(d2)、図13(e2)、図13(f2)を用いて説明する。 On the other hand, an example in which the tracking confirmation wait (S811, S812) described in the present embodiment is performed will be described with reference to FIGS. 13 (d2), 13 (e2), and 13 (f2).
図13(d2)では、図13(c)の状態でタッチアップが行われ、本実施形態で説明した追尾確定待ち(S811、S812)を行っている状態の例である。図13(c)の時点(タッチアップ直前)で吸着中検出枠を表示していなかったため、S810でNOと判定され、すぐにはS813の追尾確定の処理は行われない。 FIG. 13 (d2) is an example of a state in which the touch-up is performed in the state of FIG. 13 (c) and the tracking confirmation wait (S811, S812) described in the present embodiment is performed. Since the adsorption detection frame was not displayed at the time of FIG. 13C (immediately before touch-up), it was determined as NO in S810, and the tracking confirmation process of S813 was not performed immediately.
図13(e2)は、図13(d2)の状態からユーザが再度タッチダウンする前に蝶が移動してしまった場合の例であり、被写体の状況は図13(e1)と同様のケースである。S811で追尾確定待ちの中断操作が行われず、S812でタッチアップ後所定時間も経過していなければ、蝶に対して追尾することはない。従って、蝶が右に移動しているが、指定位置指標1139はタッチアップ時点から移動していない。
FIG. 13 (e2) is an example of a case where the butterfly moves from the state of FIG. 13 (d2) before the user touches down again, and the situation of the subject is the same as that of FIG. 13 (e1). is there. If the interruption operation of waiting for the tracking confirmation is not performed in S811 and the predetermined time has not elapsed after the touch-up in S812, the butterfly is not tracked. Therefore, although the butterfly is moving to the right, the designated
図13(f2)は、図13(e2)の状態から、ユーザが改めてタッチダウンし、右側から左側にタッチムーブ(2回目のタッチムーブ)した場合の例である。指定位置指標1139の移動は、前回タッチアップした時点(図13(d2))に表示されていた位置から再開されるため、2回目のタッチムーブによって、所望とする人物の位置まで移動できている。その結果、指定位置指標1139は所望とする人物の検出枠1136に吸着し、吸着中検出枠1140が表示されている。この時点でタッチアップすれば、所定時間を待つことなく所望とする人物への追尾が開始されるため、人物が移動していたとしても確実に追尾できる。このように、本実施形態で説明した追尾確定待ち(S811、S812)を行った場合は、より操作性良く、より確実に、意図した被写体を追尾指定することができる。なお、図13(c)の状況において、ユーザが追尾したい被写体が蝶であった場合には、この時点でシャッターボタン102を半押しすれば図9のS907のタッチキャンセル処理によって蝶を追尾することができる。すなわち、本実施形態によれば、検出枠1136が表示されておらず動いている被写体であっても、追尾したい被写体であれば追尾確定待ちをすることなく(被写体を逃すことなく)追尾指定することが可能である。
FIG. 13 (f2) is an example of a case where the user touches down again from the state of FIG. 13 (e2) and makes a touch move (second touch move) from the right side to the left side. Since the movement of the designated
図14(a)から図14(e2)を用いて、タッチ&ドラッグAFの機能によって、LV画像中の右側の人物を追尾している状態から、左側の人物に追尾対象を変更しようとして、ユーザがタッチムーブを行った場合の動作の一例を説明する。 Using FIGS. 14 (a) to 14 (e2), the user attempts to change the tracking target from the state in which the person on the right side in the LV image is being tracked to the person on the left side by the touch and drag AF function. An example of the operation when the touch move is performed will be described.
図14(a)、図14(b)、図14(c2)、図14(d2)、図14(e2)は、本実施形態における動作例を示している。図14(c1)、図14(d1)、図14(e1)、図14(f1)は、本実施形態を適用しない場合の動作例を示しており、本実施形態の効果を説明するための比較である。 14 (a), 14 (b), 14 (c2), 14 (d2), and 14 (e2) show operation examples in this embodiment. 14 (c1), 14 (d1), 14 (e1), and 14 (f1) show operation examples when the present embodiment is not applied, and are for explaining the effects of the present embodiment. It is a comparison.
図14(a)から図14(e2)の各図は、以下の状態であるものとする。
タッチ&ドラッグAF:「する」
位置指定方法:絶対位置指定
タッチ反応領域:全面
接眼/非接眼:接眼状態
It is assumed that each figure of FIGS. 14 (a) to 14 (e2) is in the following state.
Touch & Drag AF: "Yes"
Position designation method: Absolute position designation Touch reaction area: Full eyepiece / non-eyepiece: Eyepiece state
図14(a)は、タッチがなされていない(タッチオフ)である場合に、追尾中の例である。LV画像には、右側に1人と左側に1人の2人が写っており、右側の人物を追尾している。EVF101bにおいて、LV画像中の右側の人物に対して追尾枠1138が表示されている。また、右側の人物と左側の人物の奥には、かなり離れた距離の山が写っている。タッチパネル104aには指を触れていない。
FIG. 14A is an example of tracking when the touch is not made (touch-off). In the LV image, two people, one on the right side and one on the left side, are shown, and the person on the right side is being tracked. In EVF101b, the
図14(b)は、図14(a)の状態から、タッチダウンされた場合の例である。右側の人物の追尾は解除され、代わりに、タッチ位置に対応する位置で検出された右側の人物の顔に対して吸着中検出枠1140が表示される。タッチパネル104aには、右側に指Fがタッチしている。
FIG. 14 (b) is an example of a touchdown from the state of FIG. 14 (a). The tracking of the person on the right side is canceled, and instead, the
図14(c1)、図14(d1)、図14(e1)、図14(f1)は、図6で説明したS626、S627とは異なり、指定位置指標1139の位置でコンティニュアスAFを行った場合の動作例である。
14 (c1), 14 (d1), 14 (e1), and 14 (f1) show continuous AF at the position of the designated
図14(c1)は、図14(b)の状態から、指Fを左側の人物に向けてタッチムーブしている途中の例である。指定位置指標1139は、タッチムーブに応じて左に移動し、山の位置となっている。この例では、指定位置指標1139の位置でコンティニュアスAFが行われるため、山が合焦するようにAFが行われ、山にピントが合って手前の人物2人はボケている。手前の人物2人がボケて写っているため、LV画像から顔として検出できず、被写体枠1136は表示されていない。このとき、ユーザから見ても人物であると判別できないほど人物がボケる可能性もある。そうなるとユーザは所望とする左側の人物を見失うことになり、どこに向かってタッチムーブを続ければよいかわからなくなり、上手く追尾指定ができない。また、指定位置指標1139がユーザが合焦させたい被写体の位置であるか否かに関係なく、合焦状態が指定位置指標1139の位置に応じて頻繁に変動するため、LV画像が見づらいものとなる。
FIG. 14 (c1) is an example in the middle of touch-moving the finger F toward the person on the left side from the state of FIG. 14 (b). The designated
図14(d1)は、図14(c1)の状態から更に左にタッチムーブし、指定位置指標1139が所望とする左側の人物の位置まで移動された直後の動作例を示している。指定位置指標1139でコンティニュアスAFを行うものの、図14(c1)で左側の人物がボケていために左側の人物に合焦するまでには少しの時間差があり、左側の人物の顔が検出されていない。従って指定位置指標1139が所望とする左側の人物の位置に達しているにも関わらず、吸着中検出枠1140が表示されない。従って、ユーザは所望とする左側の人物は追尾指定できないものと誤解するおそれがある。
FIG. 14 (d1) shows an operation example immediately after the touch move further to the left from the state of FIG. 14 (c1) and the designated
図14(e1)は、図14(d1)の状態からタッチアップされた場合の例である。吸着中検出枠1140が表示されていない状態でタッチアップしたため、追尾確定待ち(S811、S812)が行われ、追尾対象はすぐには左側の人物に確定しない。この追尾確定待ちの間に左側の人物が移動してしまった場合には、タッチアップの時点では左側の人物の位置を指定できていたにもかかわらず、左側の人物を追尾指定できないこととなってしまう。
FIG. 14 (e1) is an example of a touch-up from the state of FIG. 14 (d1). Since the touch-up is performed while the
図14(f1)は、図14(e1)の状態から、追尾確定待ち(S811、S812)を経て、所望とする左側の人物の追尾を開始した場合の例である。このように、本実施形態を適用しない図14(c1)、図14(d1)、図14(e1)、図14(f1)では、所望とする被写体(左側の人物)への追尾位置の移動操作が上手く行えない。また、所望とする被写体(左側の人物)に指定位置指標1139を移動した場合に、所望とする被写体(左側の人物)が合焦していない場合がある。この場合は、すぐに撮影を行った場合に撮影準備動作で合焦するまでの時間分、撮影タイミングが遅れる。すなわち、撮影機会を逃すおそれがある。
FIG. 14 (f1) is an example in which tracking of a desired left-hand person is started from the state of FIG. 14 (e1) through waiting for tracking confirmation (S811, S812). As described above, in FIGS. 14 (c1), 14 (d1), 14 (e1), and 14 (f1) to which the present embodiment is not applied, the tracking position is moved to the desired subject (person on the left side). I can't operate it well. Further, when the designated
一方、本実施形態で説明したように、指定位置指標1139の表示中に、指定位置指標1139の位置に基づいたAFは行わない場合の例を図14(c2)、図14(d2)、図14(e2)を用いて説明する。
On the other hand, as described in the present embodiment, examples of the case where AF based on the position of the designated
図14(c2)は、図14(b)の状態から、指Fを左側の人物に向けてタッチムーブしている途中の例である。指定位置指標1139は、タッチムーブに応じて左に移動し、山の位置となっている。本実施形態では、この状態で指定位置指標1139の位置でコンティニュアスAFは行わない(S626、S629、S721)。そのため、手前の人物2人に合焦し、それぞれの顔が検出され、それぞれの顔の位置に検出枠1136が表示される。従ってユーザは左側の人物の検出枠1136を目指してタッチムーブを継続すればよく、所望の被写体へのAF位置の移動(追尾対象の変更)を行いやすい。また、合焦状態が指定位置指標1139の位置に関わらずあまり変動しないため、LV画像が見づらくなることはない。
FIG. 14 (c2) is an example in the middle of touch-moving the finger F toward the person on the left side from the state of FIG. 14 (b). The designated
図14(d2)は、図14(c2)の状態から更に左にタッチムーブし、指定位置指標1139が所望とする左側の人物の位置まで移動された直後の動作例を示している。指定位置指標1139が左側の検出枠1136の近傍となるため、左側の人物の検出枠に吸着し、吸着中検出枠1140が表示される。
FIG. 14 (d2) shows an operation example immediately after the touch move is further left from the state of FIG. 14 (c2) and the designated
図14(e2)は、図14(d2)の状態からタッチアップされた場合の例である。吸着中検出枠1140が表示されていた状態でタッチアップしたため、追尾確定待ち(S811、S812)を行うことなく、すぐさま左側の人物が追尾対象として確定され、追尾開始される。従って、タッチアップ後に左側の人物が移動した場合にも確実に左側の人物を追尾できる。また、所望とする被写体(左側の人物)に指定位置指標1139を移動した場合に、所望とする被写体(左側の人物)が合焦しているため、すぐに撮影を行った場合にも、すぐに合焦してすぐに撮影が行われる。すなわち、撮影機会を逃さずに撮影することができる。
FIG. 14 (e2) is an example of a touch-up from the state of FIG. 14 (d2). Since the touch-up was performed while the
なお、システム制御部201が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
The above-mentioned various controls described as being performed by the
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiment thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.
また、上述した実施形態においては、本発明をEVFを覗きながらタッチ操作を行いAF枠を指定するタッチ&ドラッグAF機能を有するデジタルカメラに適用した場合を例にして説明したが、この例に限定されない。タッチ操作でAF枠を移動しながら撮影可能な機能を有する装置であれば適用可能である。また、また図5に係る表示先の切替処理に関しては、撮像機能を有さなくとも、接眼ファインダの表示を制御する表示制御装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォンなどに適用可能である。また、投影装置、ディスプレイを備える家電装置や車載装置、医療機器などに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to a digital camera having a touch-and-drag AF function for designating an AF frame by performing a touch operation while looking into the EVF has been described as an example, but the present invention is limited to this example. Not done. It can be applied to any device having a function of being able to shoot while moving the AF frame by touch operation. Further, the display destination switching process according to FIG. 5 can be applied to any display control device that controls the display of the eyepiece finder even if it does not have an imaging function. That is, the present invention is applicable to personal computers, PDAs, mobile phone terminals, portable image viewers, digital photo frames, music players, game machines, electronic book readers, tablet terminals, smartphones and the like. It can also be applied to home appliances equipped with projection devices and displays, in-vehicle devices, medical devices, and the like.
[他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (14)
前記撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾手段と、
タッチ操作を検知可能なタッチ検知手段と、
AF位置の決定方法が異なる複数のAFモードのうち何れかを設定可能なAFモード設定手段と、
前記AFモード設定手段によって、前記追尾手段による追尾を行わずにAF位置を決定する第1のAFモードに設定されている場合は、前記タッチ検知手段がタッチを検知している間に、タッチ位置の移動に応じた位置に基づいてAFを実行し、
前記AFモード設定手段によって、前記追尾手段による追尾を行うことによるAF位置の決定が可能な第2のAFモードに設定されている場合は、前記タッチ検知手段がタッチを検知している間には、タッチ位置の移動に応じた位置に基づいたAFは実行しないように制御する制御手段と
を有することを特徴とする撮像装置。 Imaging means and
A tracking means for tracking a tracking target in a live view image captured by the imaging means, and
Touch detection means that can detect touch operations and
AF mode setting means that can set any of a plurality of AF modes with different AF position determination methods,
When the AF mode setting means is set to the first AF mode in which the AF position is determined without tracking by the tracking means, the touch position is set while the touch detecting means detects the touch. Perform AF based on the position according to the movement of
When the AF mode setting means is set to the second AF mode in which the AF position can be determined by tracking by the tracking means, while the touch detecting means is detecting the touch, An imaging device characterized by having a control means for controlling AF based on a position according to the movement of a touch position so as not to be executed.
前記制御手段は、前記第2のAFモードに設定されている場合は、前記タッチ検知手段がタッチを検知している間には、タッチ位置の移動に関わらず、前記被写体検出手段で検出した被写体の位置でAFを実行するように制御することを特徴とする請求項1または2に記載の撮像装置。 Further having a subject detection means for detecting a specific subject from the live view image,
When the control means is set to the second AF mode, the subject detected by the subject detection means is detected regardless of the movement of the touch position while the touch detection means is detecting the touch. The imaging apparatus according to claim 1 or 2, wherein AF is controlled to be performed at the position of.
前記接眼ファインダーを介して視認可能な第1の表示手段と、
前記接眼ファインダーの外部に配置され、前記タッチ検知手段によるタッチ操作の検知面が表示面となる第2の表示手段とを更に有し、
前記制御手段は、前記第1の表示手段を表示先としており、かつ前記AFモード設定手段によって前記第1のAFモードに設定されている場合に、前記タッチ検知手段がタッチを検知している間に、タッチ位置の移動に応じた位置に基づいてAFを実行し、
前記制御手段は、前記第1の表示手段を表示先としており、かつ前記AFモード設定手段によって前記第2のAFモードに設定されている場合に、前記タッチ検知手段がタッチを検知している間には、タッチ位置の移動に応じた位置に基づいたAFは実行しないように制御する
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 With the eyepiece viewfinder,
A first display means that can be visually recognized through the eyepiece finder,
It further has a second display means which is arranged outside the eyepiece finder and whose display surface is the detection surface of the touch operation by the touch detection means.
When the control means uses the first display means as a display destination and is set to the first AF mode by the AF mode setting means, while the touch detecting means detects a touch. AF is executed based on the position according to the movement of the touch position.
When the control means uses the first display means as a display destination and is set to the second AF mode by the AF mode setting means, while the touch detecting means detects a touch. The imaging apparatus according to any one of claims 1 to 3, wherein AF based on a position according to a movement of a touch position is controlled so as not to be executed.
前記接眼検知手段で接眼を検知している場合に表示先を前記第1の表示手段とし、前記接眼検知手段で接眼を検知していない場合に表示先を前記第2の表示手段とするように表示先を切り替える切替手段と
を更に有することを特徴とする請求項4に記載の撮像装置。 An eyepiece detection means for detecting an eyepiece on the eyepiece finder,
When the eyepiece detection means detects the eyepiece, the display destination is the first display means, and when the eyepiece detection means does not detect the eyepiece, the display destination is the second display means. The image pickup apparatus according to claim 4, further comprising a switching means for switching the display destination.
前記表示制御手段は、前記第2のAFモードに設定されている場合に、前記タッチ検知手段がタッチを検知している間にも、前記検出指標を表示するように制御することを特徴とする請求項3に記載の撮像装置。 Further having a display control means for controlling the display means to display a detection index indicating the position of the subject detected by the subject detection means.
The display control means is characterized in that, when the second AF mode is set, the display control means is controlled to display the detection index even while the touch detection means is detecting a touch. The imaging device according to claim 3.
前記撮像手段で撮像されたライブビュー画像における追尾対象を追尾する追尾ステップと、
AF位置の決定方法が異なる複数のAFモードのうち何れかを設定可能なAFモード設定ステップと、
前記AFモード設定ステップによって、前記追尾ステップによる追尾を行わずにAF位置を決定する第1のAFモードに設定されている場合は、前記タッチ検知手段がタッチを検知している間に、タッチ位置の移動に応じた位置に基づいてAFを実行し、
前記AFモード設定ステップによって、前記追尾ステップによる追尾を行うことによるAF位置の決定が可能な第2のAFモードに設定されている場合は、前記タッチ検知手段がタッチを検知している間には、タッチ位置の移動に応じた位置に基づいたAFは実行しないように制御する制御ステップと
を有することを特徴とする撮像装置の制御方法。 It is a control method of an image pickup apparatus having an image pickup means and a touch detection means capable of detecting a touch operation.
A tracking step for tracking a tracking target in a live view image captured by the imaging means, and
AF mode setting step that can set any of multiple AF modes with different AF position determination methods,
When the AF mode setting step is set to the first AF mode in which the AF position is determined without tracking by the tracking step, the touch position is set while the touch detecting means detects the touch. Perform AF based on the position according to the movement of
When the AF mode setting step is set to the second AF mode in which the AF position can be determined by performing the tracking by the tracking step, while the touch detecting means is detecting the touch, A control method for an imaging device, which comprises a control step for controlling AF based on a position according to a movement of a touch position so as not to be executed.
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016169621A JP6765901B2 (en) | 2016-08-31 | 2016-08-31 | Imaging device and its control method, program, and storage medium |
CN202011474772.0A CN112653838B (en) | 2016-08-31 | 2017-06-16 | Display control apparatus, control method thereof, and storage medium |
PCT/JP2017/022254 WO2018042824A1 (en) | 2016-08-31 | 2017-06-16 | Imaging control apparatus, display control apparatus, and control method therefor |
CN201780053511.1A CN109644239B (en) | 2016-08-31 | 2017-06-16 | Image pickup control apparatus, display control apparatus, control method therefor, and storage medium |
EP22183785.9A EP4102827A1 (en) | 2016-08-31 | 2017-06-16 | Image capture control apparatus and control method therefor |
CN202011470667.XA CN112653837B (en) | 2016-08-31 | 2017-06-16 | Image pickup control apparatus, control method therefor, and storage medium |
EP17845835.2A EP3509291B1 (en) | 2016-08-31 | 2017-06-16 | Imaging control apparatus and method therefor |
US16/284,314 US10992853B2 (en) | 2016-08-31 | 2019-02-25 | Image capture control apparatus, display control apparatus, and control method for tracking a tracking target in a live view image |
US17/213,550 US11272093B2 (en) | 2016-08-31 | 2021-03-26 | Image capture control apparatus, display control apparatus, and control method therefor to track a target and to determine an autofocus position |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016169621A JP6765901B2 (en) | 2016-08-31 | 2016-08-31 | Imaging device and its control method, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018037860A JP2018037860A (en) | 2018-03-08 |
JP6765901B2 true JP6765901B2 (en) | 2020-10-07 |
Family
ID=61566156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016169621A Active JP6765901B2 (en) | 2016-08-31 | 2016-08-31 | Imaging device and its control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6765901B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7098419B2 (en) * | 2018-05-31 | 2022-07-11 | キヤノン株式会社 | Imaging device and its control method, program |
JP7191592B2 (en) * | 2018-08-27 | 2022-12-19 | キヤノン株式会社 | ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM |
-
2016
- 2016-08-31 JP JP2016169621A patent/JP6765901B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018037860A (en) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112653838B (en) | Display control apparatus, control method thereof, and storage medium | |
JP6397454B2 (en) | IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6602361B2 (en) | Electronic device and control method thereof | |
JP7049195B2 (en) | Electronic devices and their control methods, programs, and storage media | |
JP6833535B2 (en) | Imaging device, control method and program of imaging device | |
JP2019075699A (en) | Electronic device and control method of the same | |
JP2021141573A (en) | Electronic apparatus | |
JP7433810B2 (en) | Electronic devices, control methods for electronic devices, programs and storage media | |
JP7341729B2 (en) | Electronic devices, control methods for electronic devices, programs, storage media | |
JP2021068208A (en) | Electronic apparatus, control method for electronic apparatus, program, storage medium | |
JP7187190B2 (en) | Electronic device, electronic device control method, program, storage medium | |
JP6765901B2 (en) | Imaging device and its control method, program, and storage medium | |
JP6765902B2 (en) | Display control device and its control method, program, and storage medium | |
KR102345767B1 (en) | Image capturing control apparatus, control method, and storage medium | |
JP7034619B2 (en) | Image pickup device, its control method, and program, and storage medium | |
JP2021097356A (en) | Imaging control device | |
JP6779777B2 (en) | Imaging control device and its control method | |
JP6708516B2 (en) | Electronic device, control method thereof, and program | |
JP2020197976A (en) | Electronic apparatus, control method for electronic apparatus, program, and recording medium | |
US20210127054A1 (en) | Electronic device and control method thereof | |
JP7171252B2 (en) | IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE | |
JP7254454B2 (en) | IMAGING CONTROL DEVICE AND METHOD FOR CONTROLLING IMAGING CONTROL DEVICE | |
WO2023007904A1 (en) | Electronic device, electronic device control method, program, and storage medium | |
JP2022095306A (en) | Display control device and method for controlling the same | |
JP2024064713A (en) | Electronic apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200916 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6765901 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |