JP2022095306A - 表示制御装置及びその制御方法 - Google Patents
表示制御装置及びその制御方法 Download PDFInfo
- Publication number
- JP2022095306A JP2022095306A JP2020208556A JP2020208556A JP2022095306A JP 2022095306 A JP2022095306 A JP 2022095306A JP 2020208556 A JP2020208556 A JP 2020208556A JP 2020208556 A JP2020208556 A JP 2020208556A JP 2022095306 A JP2022095306 A JP 2022095306A
- Authority
- JP
- Japan
- Prior art keywords
- sight
- line
- responsiveness
- subject
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ユーザーの視線に追従させるインジケーターの表示を好適なものにする。
【解決手段】本発明の表示制御装置は、ユーザーの視線による視線入力を受け付ける受付手段と、ライブビュー画像から被写体を検出する検出手段と、前記ユーザーの視線位置に基づく位置にインジケーターを表示し、前記検出手段により検出された被写体の移動量が第1の移動量の場合は、前記ユーザーの視線の移動に対する前記インジケーターの表示の応答性を第1の応答性にし、前記被写体の移動量が前記第1の移動量よりも小さい第2の移動量の場合は、前記応答性を前記第1の応答性よりも低い第2の応答性にするように制御する制御手段とを有することを特徴とする。
【選択図】図6
【解決手段】本発明の表示制御装置は、ユーザーの視線による視線入力を受け付ける受付手段と、ライブビュー画像から被写体を検出する検出手段と、前記ユーザーの視線位置に基づく位置にインジケーターを表示し、前記検出手段により検出された被写体の移動量が第1の移動量の場合は、前記ユーザーの視線の移動に対する前記インジケーターの表示の応答性を第1の応答性にし、前記被写体の移動量が前記第1の移動量よりも小さい第2の移動量の場合は、前記応答性を前記第1の応答性よりも低い第2の応答性にするように制御する制御手段とを有することを特徴とする。
【選択図】図6
Description
本発明は、ユーザーの視線による視線入力が可能な表示制御装置及びその制御方法に関するものである。
ユーザーが自身の視線によって操作(以下、視線入力)を行う表示制御装置が知られている。特にデジタルカメラやゲーム機などに対して、ユーザーが直感的・即時的に操作指示を行いたい場合に、視線入力は有効である。特許文献1には、動体撮影モードの時に、撮影している動体(動体像)の撮像面上での移動量(移動速度)が大きい場合は視線位置に基づくAF枠表示を消灯/減光することが開示されている。
しかしながら、特許文献1に開示の技術では、ユーザーの視線の移動に対するAF枠の表示の追従性(応答性)は変更されない。そのため、合焦させたい被写体の撮像面上での移動量が大きい場合に、視線の移動に対してAF枠の表示(移動)が鈍感すぎたり、合焦させたい被写体の撮像面上での移動量が小さい場合に、視線の移動に対してAF枠(インジケーターの一種)の表示が敏感すぎたりすることがある。その結果、AF枠指定をユーザー所望の位置で行えず、シャッターチャンスを逃してしまうことがある。
本発明は、ユーザーの視線に追従させるインジケーターの表示を好適なものにすることを目的とする。
本発明の表示制御装置は、ユーザーの視線による視線入力を受け付ける受付手段と、ライブビュー画像から被写体を検出する検出手段と、前記ユーザーの視線位置に基づく位置にインジケーターを表示し、前記検出手段により検出された被写体の移動量が第1の移動量の場合は、前記ユーザーの視線の移動に対する前記インジケーターの表示の応答性を第1の応答性にし、前記被写体の移動量が前記第1の移動量よりも小さい第2の移動量の場合は、前記応答性を前記第1の応答性よりも低い第2の応答性にするように制御する制御手段とを有することを特徴とする。
本発明によれば、ユーザーの視線に追従させるインジケーターの表示を好適なものにすることができる。
<デジタルカメラ100の外観図>
以下、図面を参照して本発明の好適な実施形態を説明する。図1(a),1(b)に、本発明を適用可能な装置の一例としてのデジタルカメラ100の外観を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
以下、図面を参照して本発明の好適な実施形態を説明する。図1(a),1(b)に、本発明を適用可能な装置の一例としてのデジタルカメラ100の外観を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面(タッチ操作面)に対するタッチ操作を検出することができる。ファインダー外表示部43は、デジタルカメラ100の上面に設けられた表示部であり、シャッター速度や絞りをはじめとするデジタルカメラ100の様々な設定値を表示する。シャッターボタン61は撮影指示を行うための操作部材である。モード切替スイッチ60は、各種モード(例えば、マニュアル、ポートレート、料理、スポーツ、キッズ)を切り替えるための操作部材である。端子カバー40は、デジタルカメラ100を外部機器に接続するコネクタ(不図示)を保護するカバーである。
メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠(カーソル)の移動や画像送りなどが行える。4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能に構成され、4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。マルチコントローラー(以下、MC)65は、8方向への方向指示と、中央部分の押し込み操作とを受け付け可能である。
動画ボタン76は、動画撮影(記録)の開始や停止の指示に用いられる。AEロックボタン77は押しボタンであり、撮影待機状態でAEロックボタン77を押下することにより、露出状態を固定することができる。拡大ボタン78は、撮影モードのライブビュー表示(LV表示)において拡大モードのONとOFFを切り替えるための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像(LV画像)の拡大や縮小を行える。再生モードにおいては、拡大ボタン78は、再生画像を拡大したり、その拡大率を増加させたりするための操作ボタンとして機能する。再生ボタン79は、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに遷移し、記録媒体200(後述)に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81はメニュー画面を表示させる指示操作を行うために用いられる押しボタンであり、メニューボタン81が押されると各種の設定が可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75、またはMC65とを用いて直感的に各種設定(例えば、AFモードを切り替えるAFモード設定)を行うことができる。
通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介して内部のEVF29(Electric View Finder;後述)に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザー(撮影者)が接眼しているか否かを検知す
る接眼検知センサーである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にモード切替スイッチ60やシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73が配置されている。
る接眼検知センサーである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にモード切替スイッチ60やシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73が配置されている。
<デジタルカメラ100の構成ブロック図>
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(撮像センサー)である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサーを有していてもよい。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
メモリ制御部15は、A/D変換器23、画像処理部24、メモリ32間のデータの送受信を制御する。A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等の表示器上で、メモリ制御部15からの信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデータを表示部28またはEVF29に逐次転送して表
示することで、ライブビュー表示(LV表示)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。
示することで、ライブビュー表示(LV表示)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。
視線検出部160(受付部)は、接眼部16に接眼したユーザーの目の、EVF29を見る視線を検出する。視線検出部160は、ダイクロイックミラー162、結像レンズ163、視線検知センサー164、視線検出回路165、赤外発光ダイオード166により構成される。
赤外発光ダイオード166は、ファインダー画面内におけるユーザーの視線位置を検出するための発光素子であり、接眼部16に接眼したユーザーの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は、赤外光だけを反射して、可視光を透過させる。光路が変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は、視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサー等の撮像デバイスから構成される。
視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は少なくとも1つのプロセッサーを含み、視線検知センサー164の出力信号に基づいて、ユーザーの眼球(目)161の画像または動きからユーザーの視線位置を検出し、検出情報をシステム制御部50に出力する。
本実施形態では、視線検出部160は、角膜反射法と呼ばれる方式を用いて視線を検出する。角膜反射法とは、赤外発光ダイオード166から発せられた赤外光が眼球(目)161(特に角膜)で反射した反射光と、眼球(目)161の瞳孔との位置関係から、視線の向き・位置を検出する方式である。なお、視線(視線の向き・位置)を検出する方式は特に限定されず、上記以外の方式を用いてもよい。例えば、黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式を用いてもよい。
ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、FLash-ROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータープログラムのことである。
システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、表示部28等を制御することにより表示制御も行う。
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
被写体判別部59は、システム制御部50を介して画像処理部24から画像情報(例えばLV画像)を取得し、周知の被写体判別方法により、取得した画像情報から被写体(人
、動物、花、飛行機、車など)を検出して判別する(被写体認識を行う)。そして、被写体判別部59は、被写体判別結果をシステム制御部50に通知する。
、動物、花、飛行機、車など)を検出して判別する(被写体認識を行う)。そして、被写体判別部59は、被写体判別結果をシステム制御部50に通知する。
電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することもできる。
姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
接眼検知部57は、接眼ファインダー(ファインダー)の接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(不図示)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(不図示)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。本実施形態では、接眼検知部57の投光部および受光部は、前述の赤外発光ダイオード166および視線検知センサー164とは別体のデバイスであるものとする。ただし、赤外発光ダイオード166は接眼検知部57の投光部を兼ねてもよく、視線検知センサー164は接眼検知部57の受光部を兼ねてもよい。本実施形態では、非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼さ
れたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
れたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
システム制御部50は、視線検出部160を制御することによって、EVF29への以下の視線の状態を検出できる。
・EVF29へ向けられていなかった視線が新たにEVF29へ向けられたこと。すなわち、視線入力の開始。
・EVF29に対する視線入力をしている状態。
・EVF29の或る位置へ注視(例えば、ユーザーの視線位置の移動量が所定時間内に所定の移動量を超えない視線入力)している状態。
・EVF29へ向けられていた視線を外したこと。すなわち、視線入力の終了。
・EVF29へ何も視線入力していない状態(EVF29を見ていない状態)。
・EVF29へ向けられていなかった視線が新たにEVF29へ向けられたこと。すなわち、視線入力の開始。
・EVF29に対する視線入力をしている状態。
・EVF29の或る位置へ注視(例えば、ユーザーの視線位置の移動量が所定時間内に所定の移動量を超えない視線入力)している状態。
・EVF29へ向けられていた視線を外したこと。すなわち、視線入力の終了。
・EVF29へ何も視線入力していない状態(EVF29を見ていない状態)。
これらの操作・状態や、EVF29に視線が向いている位置(方向)は内部バスを通じてシステム制御部50に通知され、システム制御部50は、通知された情報に基づいてどのような視線入力が行われているかを判定する。
操作部70は、ユーザーからの操作(ユーザー操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部70は、モード切替スイッチ60、シャッターボタン61、電源スイッチ72、タッチパネル70a、等を含む。また、操作部70は、その他の操作部材70bとして、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、MC65等を含む。
モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード(ポートレート、料理、スポーツ、キッズなど)、カスタムモード等がある。モード切替スイッチ60により、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルと
して記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。
して記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。
タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
本実施形態では、ユーザーは、接眼状態でタッチムーブが行われる場合の位置指標(例
えば、AF枠)の位置を指定する方式を、絶対位置指定方式と相対位置指定方式とのいずれかに設定することができる。絶対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられている方式である。絶対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあると、タッチムーブが無くとも、タッチされた位置(座標入力された位置)に対応付けられた位置にAF枠が設定される(タッチダウン前の位置から移動する)。絶対位置指定方式で設定される位置は、タッチダウン前に設定されていた位置には関係なく、タッチダウンされた位置に基づいた位置となる。また、タッチダウン後にタッチムーブがあると、タッチムーブ後のタッチ位置に基づいてAF枠の位置も移動する。相対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられていない方式である。相対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあっただけでタッチムーブが無い状態では、AF枠の位置はタッチダウン前の位置から移動しない。その後タッチムーブがあると、タッチダウン位置に関わらず、現在設定されているAF枠の位置(タッチダウン前に設定されていた位置)から、タッチムーブの移動方向にタッチムーブの移動量に応じた距離だけ、AF枠の位置が移動する。
えば、AF枠)の位置を指定する方式を、絶対位置指定方式と相対位置指定方式とのいずれかに設定することができる。絶対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられている方式である。絶対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあると、タッチムーブが無くとも、タッチされた位置(座標入力された位置)に対応付けられた位置にAF枠が設定される(タッチダウン前の位置から移動する)。絶対位置指定方式で設定される位置は、タッチダウン前に設定されていた位置には関係なく、タッチダウンされた位置に基づいた位置となる。また、タッチダウン後にタッチムーブがあると、タッチムーブ後のタッチ位置に基づいてAF枠の位置も移動する。相対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられていない方式である。相対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあっただけでタッチムーブが無い状態では、AF枠の位置はタッチダウン前の位置から移動しない。その後タッチムーブがあると、タッチダウン位置に関わらず、現在設定されているAF枠の位置(タッチダウン前に設定されていた位置)から、タッチムーブの移動方向にタッチムーブの移動量に応じた距離だけ、AF枠の位置が移動する。
<カメラ起動処理>
図3に、デジタルカメラ100におけるカメラ起動処理のフローチャートを示す。この処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現する。デジタルカメラ100を起動すると図3の処理を開始する。
図3に、デジタルカメラ100におけるカメラ起動処理のフローチャートを示す。この処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現する。デジタルカメラ100を起動すると図3の処理を開始する。
S301では、システム制御部50は、フラグや制御変数等を初期化する。
S302では、システム制御部50は、システムメモリ52に記録されている撮影設定を読み出す。
S303では、システム制御部50は、モード切替スイッチ60の設定位置から、撮影モードが設定されているか否かを判定する。撮影モードが設定されている場合はS305に進み、そうでない場合はS304に進む。
S304では、システム制御部50は、モード切替スイッチ60の設定位置から、再生モードが設定されているか否かを判定する。再生モードが設定されている場合はS306に進み、そうでない場合はS307に進む。
S305では、システム制御部50は、撮影モード処理を行う。撮影モード処理の詳細については、図4を用いて後述する。
S306では、システム制御部50は、再生モード処理を行う。再生モード処理では、記録媒体200に格納された画像の表示(再生)や編集などが行われる。
S307では、システム制御部50は、その他のモードに関する処理を行う。その他のモードは、例えば、記録媒体200に格納された画像(画像ファイル)の送受信を行う通信モード等を含む。
S308では、システム制御部50は、電源スイッチ72が押下されたか否か、つまり電源OFF操作があったか否かを判定する。電源OFF操作があった場合はS309に進み、そうでない場合はS303に進む。
S309では、システム制御部50は、デジタルカメラ100の動作を終了させるため
の電源OFF処理(周辺回路への電源OFFの指示や、データの退避等)を行う。
の電源OFF処理(周辺回路への電源OFFの指示や、データの退避等)を行う。
<撮影モード処理>
図4に、デジタルカメラ100における撮影モード処理(S305)のフローチャートを示す。この処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現する。システム制御部50は、撮影モード処理を開始する際に、撮像部22で撮像されたLV画像を表示部28やEVF29に表示する。また、システム制御部50は、カメラ設定値に基づいて、カメラ設定値を示す情報アイコンをLV画像に重畳して表示する。
図4に、デジタルカメラ100における撮影モード処理(S305)のフローチャートを示す。この処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現する。システム制御部50は、撮影モード処理を開始する際に、撮像部22で撮像されたLV画像を表示部28やEVF29に表示する。また、システム制御部50は、カメラ設定値に基づいて、カメラ設定値を示す情報アイコンをLV画像に重畳して表示する。
S401では、システム制御部50は、操作部70に対し、視線検出機能の有効/無効(ON/OFF)を切り替える操作がなされたか否かを判定する。操作がなされた場合はS402に進み、そうでない場合はS403に進む。
S402において、システム制御部50は、S401での操作に応じて、視線検出機能の有効/無効を切り替えるようにカメラ設定値を変更する。
S403では、システム制御部50は、操作部70に対し、視線ポインタ表示の有効/無効を切り替える操作がなされたか否かを判定する。操作がなされた場合はS404に進み、そうでない場合はS405に進む。視線ポインタは、例えば、接眼部16(EVF29の表示面)における視線位置(視線入力のあった位置)を示す表示アイテムであり、視線位置に基づく位置に表示される。本実施形態では、視線ポインタとしてAF枠を表示するが、AF枠とは別に表示するようにしてもよい。
S404では、システム制御部50は、S403での操作に応じて、視線ポインタ表示の有効/無効を切り替えるようにカメラ設定値を変更する。
S405では、システム制御部50は、操作部70に対し、AF方式を切り替える操作がなされたか否かを判定する。操作がなされた場合はS406に進み、そうでない場合はS407に進む。AF方式には、例えば、像面位相差AF(撮像面位相差検出方式)やコントラストAFなどがある。
S406では、システム制御部50は、S405での操作に応じて、AF方式を切り替えるようにカメラ設定値を変更する。
S407では、システム制御部50は、操作部70に対し、AF動作を切り替える操作がなされたか否かを判定する。操作がなされた場合はS408に進み、そうでない場合はS409に進む。AF動作には、例えば、静止した被写体の撮像に適するワンショットAFや、動く被写体の撮像に適するサーボAF(コンティニュアスAF)などがある。ワンショットAFでは、ユーザーが任意に選択した焦点検出領域において自動焦点検出が行われる。そして、焦点位置にフォーカスレンズを移動させてフォーカスレンズの駆動が停止する。一方、サーボAFでは、焦点位置にフォーカスレンズを移動させた後においても、主被写体の動きが検出される。そして、主被写体の動きが検出されると、焦点検出領域において検出したデフォーカス量に応じてフォーカスレンズを継続的に駆動する。例えば、ワンショットAFでは、信号SW1の発生(シャッターボタン61の半押し)に応じてピント位置が固定され、サーボAFでは、信号SW2の発生(シャッターボタン61の全押し)の後もピント位置が変更し続けられる。
S408では、システム制御部50は、S407での操作に応じて、AF動作を切り替えるようにカメラ設定値を変更する。
S409では、システム制御部50は、操作部70に対し、撮影モードを切り替える操作がなされたか否かを判定する。操作がなされた場合はS410に進み、そうでない場合はS411に進む。上述したように、撮影モードには複数のモードがある。
S410では、システム制御部50は、S409での操作に応じて、撮影モードを切り替えるようにカメラ設定値を変更する。
S411では、システム制御部50は、視線検出機能が有効であるか否かを判定する。有効である場合はS412に進み、そうでない場合はS414に進む。
S412では、システム制御部50は、視線ポインタ表示が有効であるか否かを判定する。有効である場合はS413に進み、そうでない場合はS414に進む。
S413では、システム制御部50は、LV画像のうち、後述のS417で設定されるAF枠位置(ユーザーの視線位置に基づく位置)に、AF枠を表示する。この処理は、接眼した状態で表示先がEVF29(ファインダー内表示部)となっている場合に行われる。システム制御部50は、S413の処理を行わない場合に、視線位置に基づかない方法でAF枠を表示部28やEVF29に表示してもよい。
S414では、システム制御部50は、主被写体決定処理を行う。主被写体決定処理の詳細については、図5を用いて後述する。
S415では、システム制御部50は、視線検出機能が有効であるか否かを判定する。有効である場合はS416に進み、そうでない場合はS418に進む。
S416では、システム制御部50は、視線位置計算処理を行う。視線位置計算処理の詳細については、図6を用いて後述する。
S417では、システム制御部50は、S416の視線位置計算処理で計算された視線位置情報に基づいて、AF枠位置を設定(変更)する。前述したAF動作に応じて、ワンショットAFである場合はS416において計算した視線位置情報にAF枠を表示し、AFは実行しない。サーボAFである場合はS416において計算した視線位置情報にAF枠を表示し、表示するAF枠位置でAFを実行する。
S418では、システム制御部50は、操作部70に対して撮影操作がなされたか否か、例えば撮影準備操作(例えば、シャッターボタン61の半押し)に続いて撮影操作(例えば、シャッターボタン61の全押し)がなされたか否かを判定する。撮影操作がなされた場合はS419に進み、そうでない場合はS420に進む。
S419では、システム制御部50は、シャッターボタン61の全押しがされた時点でのAF枠位置でAFを実行し、撮影を行う。上述したように、AF動作には、静止した被写体の撮像に適するワンショットAFや、動く被写体の撮像に適するサーボAFなどがある。
S420では、システム制御部50は、操作部70に対してその他の操作がなされたか否かを判定する。操作がなされた場合はS421に進み、そうでない場合はS422に進む。
S421では、システム制御部50は、S420での操作に応じて、その他の処理を行
う。例えば、動画記録開始操作に応じて動画撮影が開始されたり、連続撮影開始操作に応じて連続撮影が開始されたり、AE位置移動操作に応じてAEの位置が変更されたりする。
う。例えば、動画記録開始操作に応じて動画撮影が開始されたり、連続撮影開始操作に応じて連続撮影が開始されたり、AE位置移動操作に応じてAEの位置が変更されたりする。
S422では、システム制御部50は、操作部70に対して終了操作がなされたか否かを判定する。操作がなされた場合は撮影モード処理を終了し、そうでない場合はS401に進む。
<主被写体決定処理>
図5に、デジタルカメラ100における主被写体決定処理(S414)のフローチャートを示す。この処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現する。図5の主被写体決定処理は、一定周期で繰り返し行われる。
図5に、デジタルカメラ100における主被写体決定処理(S414)のフローチャートを示す。この処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現する。図5の主被写体決定処理は、一定周期で繰り返し行われる。
S501では、システム制御部50は、検出被写体情報、追尾被写体情報、及び、AF情報を取得する。
検出被写体情報は、被写体の現在位置の情報である。例えば、姿勢検知部55により取得される加速度情報と角速度情報の少なくとも一方、撮像部22により取得される画像情報(LV画像)などを用いて、被写体認識アルゴリズムにより被写体が認識される。被写体認識アルゴリズム(被写体認識処理)により、人物(顔や眼などの器官部)や動物、乗物などを認識することができる。認識される被写体は、無い場合もあれば、1つだけの場合や複数の場合もある。検出被写体情報は、被写体の大きさを含んでもよいし、画像情報や加速度情報から得られる以下の複数の情報の少なくともいずれかを含んでもよい。
・画像情報から得られる距離情報
・画像情報から得られる構図情報
・画像情報から得られる人物情報
・画像情報から得られる動体情報や静止体情報
・加速度情報と角速度情報の少なくとも一方から得られるフレーミング情報
・画像情報から得られる距離情報
・画像情報から得られる構図情報
・画像情報から得られる人物情報
・画像情報から得られる動体情報や静止体情報
・加速度情報と角速度情報の少なくとも一方から得られるフレーミング情報
なお、レンズシステム制御回路4が、姿勢検知部55と同様に、加速度センサーやジャイロセンサーを用いてレンズユニット150の動き(加速度や角速度)を検出できてもよい。その場合には、システム制御部50は、レンズシステム制御回路4により取得される加速度情報と角速度情報の少なくとも一方を用いて、検出被写体情報を取得してもよい。システム制御部50は、被写体判別部59の処理結果を検出被写体情報として取得してもよい。
追尾被写体情報は、追尾被写体(前回の主被写体決定処理で決定された主被写体)の現在位置の情報である。追尾被写体情報は追尾被写体の大きさを含んでもよい。例えば、システム制御部50は、前回の主被写体決定処理の結果(主被写体)に基づいて、検出被写体情報から追尾被写体情報を取得(抽出)する。この処理は、主被写体の追尾とも言える。
AF情報は、現在のAF枠位置(後述の視線位置計算処理で計算される視線位置情報に基づく位置)の情報である。AF情報はAF枠の大きさを含んでもよい。例えば、システム制御部50は、視線位置情報に基づいてAF枠位置を設定(変更)する度に、システムメモリ52にAF情報を記録する(システムメモリ52に記録されたAF情報を更新する)。そして、システム制御部50は、S501のタイミングで、システムメモリ52からAF情報を取得する。
S502では、システム制御部50は、検出被写体情報(距離情報、構図情報、人物情報、動体情報、静止体情報、フレーミング情報など)から主被写体候補を選択する。例えば、システム制御部50は、検出被写体情報で示された各被写体に検出被写体情報に基づく優先度を割り当て、優先度が最大の被写体を主被写体候補として選択する。一例として、撮影者の操作や意思が含まれるパンやチルトなどのフレーミング情報が取得された場合を考える。この場合には、システム制御部50は、パン方向やチルト方向に移動する被写体(撮像面上での移動量が小さい被写体)に、パン方向やチルト方向に移動しない被写体(撮像面上での移動量が大きい被写体)よりも高い優先度を割り当ててもよい。また、動体情報と静止体情報に基づいて、動体に静止体よりも高い優先度を割り当ててもよい。人物情報に基づいて、人物に他の動物や物よりも高い優先度を割り当ててもよい。構図情報に基づいて、撮像面の中心(画像の中心)に近いほど高い優先度を割り当ててもよい。距離情報に基づいて、デジタルカメラ100に近いほど高い優先度を割り当ててもよい。
S503では、システム制御部50は、主被写体候補が選択できたか否かを判定する。主被写体候補が選択できた場合はS504に進み、そうでない場合はS507に進む。
S504では、システム制御部50は、追尾被写体が存在するか否か(追尾被写体情報が取得できたか否か;追尾被写体が追尾できたか否か)を判定する。追尾被写体が存在する場合はS505に進み、そうでない場合はS506に進む。
S505では、システム制御部50は、追尾被写体、つまり前回の主被写体決定処理で決定された主被写体を、主被写体として引き続き決定して追尾する。そして、システム制御部50は、追尾被写体情報をシステムメモリ52に記録する。
S506では、システム制御部50は、主被写体候補を主被写体として決定して追尾する。そして、システム制御部50は、追尾被写体情報として、新たに決定した主被写体の情報をシステムメモリ52に記録する。
S507では、システム制御部50は、追尾被写体が存在するか否かを判断する。追尾被写体が存在する場合はS505に進み、そうでない場合はS508に進む。
S508では、システム制御部50は、主被写体が存在しないと判断し、追尾を行わないようにする。システム制御部50は、追尾被写体情報として、主被写体(追尾被写体)が存在しないことを示す情報をシステムメモリ52に記録する。
このように主被写体を検出して追尾することで、主被写体(被写体像)の撮像面上での移動量(移動速度)を算出することが可能になる。
<視線位置計算処理>
図6に、デジタルカメラ100における視線位置計算処理(S416)のフローチャートを示す。この処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現する。図6の視線位置決定処理は、一定周期で繰り返し行われる。
図6に、デジタルカメラ100における視線位置計算処理(S416)のフローチャートを示す。この処理は、システム制御部50が不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することにより実現する。図6の視線位置決定処理は、一定周期で繰り返し行われる。
S601では、システム制御部50は、図5のS505、S506、または、S508でシステムメモリ52に記録された追尾被写体情報を、システムメモリ52から取得する。
S602では、システム制御部50は、追尾被写体情報に基づいて、主被写体(追尾被写体)が存在するか否かを判断する。主被写体が存在する場合はS604に進み、そうで
ない場合はS603に進む。
ない場合はS603に進む。
S603では、システム制御部50は、視線サンプル数に値Xを設定し、視線サンプル数をシステムメモリ52に記録する。視線サンプル数は、ユーザーの視線に追従させるインジケーター(AF枠など)の表示位置を決定するための視線位置の取得回数である。値Xは、予め定められた固定値であってもよい。値X、主被写体が存在しなくなる(主被写体が検出されなくなる)直前の視線サンプル数の値であってもよい。つまり、主被写体が存在しなくなった場合には視線サンプル数を変化しないとしてもよい。
詳細は後述するが、視線サンプル数の値に応じて視線追従性(ユーザーの視線の移動に対するインジケーターの表示の追従性(応答性))は決まる。視線サンプル数の値が大きいと、ユーザーが実際に行う視線の移動に対する表示インジケーターの移動の遅れが大きい。すなわち、視線サンプル数の値が大きいほど視線追従性(応答性)は低く、ユーザーの視線の移動に対するインジケーターの表示の遅延時間は長くなる。視線サンプル数の値が小さいと、ユーザーが実際に行う視線の移動に対する表示インジケーターの移動の遅れが小さい。すなわち、視線サンプル数の値が小さいほど視線追従性が高く、ユーザーの視線の移動に対するインジケーターの表示の遅延時間は短くなる。そのため、視線サンプル数の値は視線追従性の値とも言えるし、ユーザーの視線の移動に対するインジケーターの表示の遅延時間の値とも言える。
S604では、システム制御部50は、追尾被写体情報の時間変化に基づいて、主被写体の撮像面上での移動量を算出する。移動量は、所定時間あたりの被写体の撮像面上(ライブビュー画像上)での移動距離である。
S605では、システム制御部50は、主被写体の移動量がMより小さいか否かを判定する。小さい場合はS606に進み、そうでない場合はS607に進む。
S606では、システム制御部50は、視線サンプル数に値Aを設定し、視線サンプル数をシステムメモリ52に記録する。
S607では、システム制御部50は、主被写体の移動量がN(N>M)より小さいか否かを判定する。小さい場合はS608に進み、そうでない場合はS609に進む。
S608では、システム制御部50は、視線サンプル数に値Aよりも小さい値Bを設定し、視線サンプル数をシステムメモリ52に記録する。
S609では、システム制御部50は、視線サンプル数に値Bよりも小さい値Cを設定し、視線サンプル数をシステムメモリ52に記録する。
S610では、システム制御部50は、視線サンプル数分の視線位置(視線位置情報)を視線検出部160から取得する。
S611では、システム制御部50は、視線サンプル数分の視線位置が取得できたか否かを判断する。取得できた場合はS612に進み、そうでない場合はS610に進む。
S612では、システム制御部50は、取得した視線サンプル数分の視線位置の重心位置を計算する。
S613では、システム制御部50は、S612で計算した重心位置の情報を、AF枠の表示位置を決定するための視線位置情報としてシステムメモリ52に記録する。
なお、AF枠の表示位置の決定方法は、上記方法で記録された視線位置情報(重心位置)を用いる方法に限られない。例えば、重心位置を計算する代わりに、複数の視線位置を平均(単純平均または加重平均)してもよい。加重平均では、例えば、取得時刻が新しい視線位置の重みを大きくしたり、前回からの変化量(移動量)が大きい視線位置の重みを小さくしたりする。また、同等の視線位置が、視線サンプル数分以上連続して取得された場合に、AF枠の表示位置を現在の視線位置に基づいて決定してAF枠の表示を更新し、そうでない場合にはAF枠の表示を更新しないようにしてもよい。
<視線位置(重心位置)の変化の具体例>
図7(a),7(b)を用いて、視線位置(重心位置)の変化の具体例について説明する。図7(a),7(b)のそれぞれには、視線検出部160で検出された10サンプル分の視線位置701~710が示されている。視線位置には、検出時刻が早いほど小さい番号(符号)が付されている。
図7(a),7(b)を用いて、視線位置(重心位置)の変化の具体例について説明する。図7(a),7(b)のそれぞれには、視線検出部160で検出された10サンプル分の視線位置701~710が示されている。視線位置には、検出時刻が早いほど小さい番号(符号)が付されている。
図7(a)は、視線サンプル数が2の場合の例を示す。この場合には、視線位置701と視線位置702から重心位置711が算出され、視線位置702と視線位置703から重心位置712が算出され、同様に重心位置713~719が算出される。つまり、10サンプル分の視線位置701~710から9サンプル分の重心位置711~719が算出される。視線サンプル数の値が小さいと、ユーザーが実際に行う視線の移動に対する表示インジケーターの移動の遅れが小さい。すなわち、視線サンプル数の値が小さいほど視線追従性(応答性)が高く、ユーザーの視線の移動に対するインジケーターの表示の遅延時間は短くなる。ユーザーの大きく素早い視線移動にも、素早くインジケーターが追従することが可能である。一方で、ユーザーの視線移動がほぼない(特定の位置を見つめている)場合には、小さな視線の揺れに対しても敏感にインジケーターの移動が行われるため、煩わしく感じる可能性がある。
図7(b)は、視線サンプル数が4の場合の例を示す。この場合には、視線位置701~704から重心位置721が算出され、視線位置702~705から重心位置722が算出され、同様に重心位置723~727が算出される。つまり、10サンプル分の視線位置701~710から7サンプル分の重心位置721~727が算出される。視線サンプル数の値が大きいと、ユーザーが実際に行う視線の移動に対する表示インジケーターの移動の遅れが大きい。すなわち、視線サンプル数の値が大きいほど視線追従性は低く、ユーザーの視線の移動に対するインジケーターの表示の遅延時間は長くなる。ユーザーの視線移動がほぼない(特定の位置を見つめている)場合には、小さな視線の揺れに対して敏感にインジケーターの移動が行われないため、ユーザーが煩わしく感じる可能性が低い。一方で、ユーザーの大きく素早い視線移動に対して素早くインジケーターが追従しないため、シャッターチャンスを逃す可能性がある。
図7(a),7(b)から、重心位置721~727の変化は、重心位置711~719の変化よりも小さいことがわかる。つまり、図7(b)では、視線位置の移動に対する重心位置の移動の応答性が、図7(a)よりも低いことがわかる。このように、視線位置の移動に対する重心位置の移動の応答性は、視線サンプル数を変えることで調整することができる。視線位置の移動に対する重心位置の移動の応答性が変われば、視線追従性(ユーザーの視線の移動に対するインジケーター(AF枠など)の表示の追従性(応答性))も同様に変わる。
<AF枠の表示例>
図8(a),8(b)を用いて、AF枠の表示例について説明する。図8(a)は、LV画像の一例を示す。図8(a)のLV画像には被写体801,802(いずれも人物)
が写っており、被写体801,802はシステム制御部50の被写体認識処理により認識されている。ここでは、被写体801が主被写体として認識されたとする。図8(b)は、図8(a)のLV画像の表示例を示す。図8(b)では、主被写体801を示すアイテム811と、AF枠812とが互いに異なる態様で表示されている。ユーザーは被写体802を見ているため、AF枠812は被写体802の側に表示されている。視線追従性(ユーザーの視線の移動に対するAF枠812の表示の追従性(応答性))は主被写体801の移動量に応じて決定される。しかし、主被写体801と被写体802は同じ種別(人物)であるため、主被写体801の移動量に応じた視線追従性で被写体802の側にAF枠812を表示しても問題は無く、AF枠812の表示を好適に行える。LV画像から検出される被写体の種別が違った場合にはLV画像から検出した被写体、AF動作の設定、撮影モードの設定などから、最も高い追従性(応答性)に設定するようにする。このように制御することでユーザーが煩わしく感じる可能性があるが、ユーザーにとって最も損失が大きいと考えられるシャッターチャンスを逃すことを低減できる。
図8(a),8(b)を用いて、AF枠の表示例について説明する。図8(a)は、LV画像の一例を示す。図8(a)のLV画像には被写体801,802(いずれも人物)
が写っており、被写体801,802はシステム制御部50の被写体認識処理により認識されている。ここでは、被写体801が主被写体として認識されたとする。図8(b)は、図8(a)のLV画像の表示例を示す。図8(b)では、主被写体801を示すアイテム811と、AF枠812とが互いに異なる態様で表示されている。ユーザーは被写体802を見ているため、AF枠812は被写体802の側に表示されている。視線追従性(ユーザーの視線の移動に対するAF枠812の表示の追従性(応答性))は主被写体801の移動量に応じて決定される。しかし、主被写体801と被写体802は同じ種別(人物)であるため、主被写体801の移動量に応じた視線追従性で被写体802の側にAF枠812を表示しても問題は無く、AF枠812の表示を好適に行える。LV画像から検出される被写体の種別が違った場合にはLV画像から検出した被写体、AF動作の設定、撮影モードの設定などから、最も高い追従性(応答性)に設定するようにする。このように制御することでユーザーが煩わしく感じる可能性があるが、ユーザーにとって最も損失が大きいと考えられるシャッターチャンスを逃すことを低減できる。
以上述べたように、本実施形態によれば、被写体(主被写体)の移動量に応じて、ユーザーの視線に追従させるインジケーター(AF枠など)の表示を好適なものにすることができ、ひいてはシャッターチャンスを逃すことなく撮影が行えるようになる。具体的には、被写体の動きが大きい(速い)場合には、視線追従性が高く設定される。これにより、被写体を追う視線の素早く大きな動きに合わせて、被写体にAF枠を合わせ続けることができる。そして、被写体の動きが小さい場合には、視線追従性が低く設定される。これにより、意図せぬ視線の動き(振れ)によってAF枠の表示位置が変わる(振れる)ことを抑制して、被写体にAF枠を合わせ続けることができる。
なお、視線追従性に応じてインジケーターの大きさを変更してもよい。例えば、視線追従性が高いほど(被写体の移動量が大きいほど)AF枠を大きくしてもよい。そして、AF枠の領域でAFを行ってもよい。そうすることで、移動量が大きい被写体をAF枠で捕らえやすくなり、当該被写体にピントを合わせやすくなる。
視線追従性(応答性)の設定の仕方は、上述した本実施形態に限らない。例えば、LV画像から検出された被写体の種別や動き、ユーザーによって設定された撮影モードやAF動作などの設定内容に応じて視線の追従性を変化させる。LV画像から検出された被写体が動物や乗り物である場合は視線追従性を速くし、植物である場合は視線追従性を遅くする。ユーザーが撮影モードをスポーツやキッズモードなどの動きの速い被写体を撮影するモードに設定している場合は視線追従性を速くし、ポートレートや料理モードなどの動きが少ない被写体を撮影するモードに設定している場合は視線追従性を遅くする。同様に、AF動作が動き被写体の撮像に適するサーボAF(コンティニュアスAF)に設定されている場合は視線追従性を速くし、静止した被写体の撮像に適するワンショットAFに設定されている場合は視線追従性を遅くする。
被写体の動きが素早いと想定される場合には視線への追従性を高くし、被写体を追う視線の素早く大きな動きに合わせて被写体にAF枠を合わせ続けることができる。被写体の動きが小さいと想定される場合には視線への追従性を低くする。これにより、意図せぬ視線の動き(振れ)によってAF枠の表示位置が変わる(振れる)ことを抑制して、被写体にAF枠を合わせ続けることができる。つまり、ユーザーの視線に追従させるインジケーターの表示を好適なものにすることができる。
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明を撮像装置(デジタルカメラ)に適用した場合を例にして説明したが、これはこの例に限定されず、視線入力を受け付け可能な表示制御装置(電子機器)であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。
また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:デジタルカメラ 160:視線検出部 50:システム制御部
Claims (11)
- ユーザーの視線による視線入力を受け付ける受付手段と、
ライブビュー画像から被写体を検出する検出手段と、
前記ユーザーの視線位置に基づく位置にインジケーターを表示し、
前記検出手段により検出された被写体の移動量が第1の移動量の場合は、前記ユーザーの視線の移動に対する前記インジケーターの表示の応答性を第1の応答性にし、
前記被写体の移動量が前記第1の移動量よりも小さい第2の移動量の場合は、前記応答性を前記第1の応答性よりも低い第2の応答性にする
ように制御する制御手段と
を有することを特徴とする表示制御装置。 - 前記移動量は、所定時間あたりの前記被写体の前記ライブビュー画像上での移動距離である
ことを特徴とする請求項1に記載の表示制御装置。 - 前記応答性を前記第1の応答性にすることは、前記ユーザーの視線の移動に対する前記インジケーターの表示の遅延時間を第1の遅延時間にすることであり、
前記応答性を前記第2の応答性にすることは、前記遅延時間を前記第1の遅延時間よりも長い第2の遅延時間にすることである
ことを特徴とする請求項1または2に記載の表示制御装置。 - 前記応答性を第1の応答性にすることは、前記インジケーターの表示位置を決定するための視線位置の取得回数を第1の取得回数することであり、
前記応答性を第2の応答性にすることは、前記取得回数を前記第1の取得回数よりも多い第2の取得回数することである
ことを特徴とする請求項1~3のいずれか1項に記載の表示制御装置。 - 前記制御手段は、前記検出手段により被写体が検出されない場合には、前記応答性を第3の応答性にする
ことを特徴とする請求項1~4のいずれか1項に記載の表示制御装置。 - 前記第3の応答性は、前記検出手段により被写体が検出されなくなる直前の応答性である
ことを特徴とする請求項5に記載の表示制御装置。 - 前記制御手段は、前記応答性に応じて前記インジケーターの大きさを変更する
ことを特徴とする請求項1~6のいずれか1項に記載の表示制御装置。 - 撮像手段と、ファインダーと、ファインダー内表示手段とをさらに有し、
前記受付手段は、前記ファインダーに接眼したユーザーの視線入力を受け付け、
前記制御手段は、前記ファインダー内表示手段に前記インジケーターを表示するように制御する
ことを特徴とする請求項1~7のいずれか1項に記載の表示制御装置。 - ユーザーの視線による視線入力を受け付けるステップと、
ライブビュー画像から被写体を検出するステップと、
前記ユーザーの視線位置に基づく位置にインジケーターを表示し、
検出された被写体の移動量が第1の移動量の場合は、前記ユーザーの視線の移動に対する前記インジケーターの表示の応答性を第1の応答性にし、
前記被写体の移動量が前記第1の移動量よりも小さい第2の移動量の場合は、前記応答性を前記第1の応答性よりも低い第2の応答性にする
ように制御するステップと
を有することを特徴とする表示制御装置の制御方法。 - コンピュータを、請求項1~8のいずれか1項に記載の表示制御装置の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~8のいずれか1項に記載の表示制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020208556A JP2022095306A (ja) | 2020-12-16 | 2020-12-16 | 表示制御装置及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020208556A JP2022095306A (ja) | 2020-12-16 | 2020-12-16 | 表示制御装置及びその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022095306A true JP2022095306A (ja) | 2022-06-28 |
Family
ID=82163136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020208556A Pending JP2022095306A (ja) | 2020-12-16 | 2020-12-16 | 表示制御装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022095306A (ja) |
-
2020
- 2020-12-16 JP JP2020208556A patent/JP2022095306A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230194956A1 (en) | Imaging apparatus and method for controlling the same | |
US11240419B2 (en) | Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium | |
US20230300446A1 (en) | Electronic device, control method thereof, and recording medium | |
JP7467071B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP2021124976A (ja) | 音声入力装置およびその制御方法ならびにプログラム | |
JP2020204915A (ja) | 電子機器およびその制御方法 | |
EP3876517A1 (en) | Electronic device, control method, program, and computer readable medium | |
JP2021145191A (ja) | 撮像装置およびその制御方法、プログラム、並びに記憶媒体 | |
JP2021114731A (ja) | 撮像制御装置及びその制御方法 | |
JP2021163182A (ja) | 電子機器およびその制御方法 | |
JP2021069008A (ja) | 電子機器、電子機器の制御方法、プログラム及び記憶媒体 | |
US11442244B2 (en) | Imaging device | |
JP7336266B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP2021097356A (ja) | 撮像制御装置 | |
JP2022018244A (ja) | 電子機器およびその制御方法 | |
JP2021022897A (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
JP2021140590A (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP2021140589A (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP2022095306A (ja) | 表示制御装置及びその制御方法 | |
WO2023007904A1 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP7451255B2 (ja) | 電子機器及びその制御方法 | |
JP2022095264A (ja) | 表示制御装置及びその制御方法 | |
US20210375002A1 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
JP2021180437A (ja) | 撮像装置 | |
JP2021018634A (ja) | 電子機器およびその制御方法 |