JP7346375B2 - 電子機器及びその制御方法及びプログラム及び記録媒体 - Google Patents

電子機器及びその制御方法及びプログラム及び記録媒体 Download PDF

Info

Publication number
JP7346375B2
JP7346375B2 JP2020177596A JP2020177596A JP7346375B2 JP 7346375 B2 JP7346375 B2 JP 7346375B2 JP 2020177596 A JP2020177596 A JP 2020177596A JP 2020177596 A JP2020177596 A JP 2020177596A JP 7346375 B2 JP7346375 B2 JP 7346375B2
Authority
JP
Japan
Prior art keywords
line
sight
display
item
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020177596A
Other languages
English (en)
Other versions
JP2022068749A (ja
Inventor
誠司 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020177596A priority Critical patent/JP7346375B2/ja
Priority to US17/505,236 priority patent/US11659267B2/en
Priority to CN202111226995.XA priority patent/CN114390167A/zh
Publication of JP2022068749A publication Critical patent/JP2022068749A/ja
Priority to US18/302,310 priority patent/US20230300446A1/en
Application granted granted Critical
Publication of JP7346375B2 publication Critical patent/JP7346375B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザーの視線を検出して視線入力による操作が可能な電子機器及び電子機器の制御方法及びプログラム及び記録媒体に関するものである。
近年、ユーザーが自身の視線によって操作を行う(以下、視線入力)電子機器が知られている。特にデジタルカメラやゲーム機など、ユーザーが電子機器に対してすばやく所望位置の指定・移動指示を行いたい場合に、視線入力は有効である。特許文献1には、ユーザーの視線から算出した視線位置に表示されている画像に類似した他の画像について、表示順序の優先度を上げることが開示されている。非特許文献1には、専用のソフトウェアをインストールすることで、ユーザーの視線から算出した視線位置にポインター表示を行うことが可能であり、ユーザーの視線位置や視線位置の移動を視認できることが開示されている。
特開平9-114846号公報
Tobii Technology AB社,"Streaming",Tobii Ghost Software,[2020年10月7日検索]。インターネット<https://gaming.tobii.com/software/ghost/>
しかし特許文献1では、ユーザーの視線から算出した視線位置が表示されないため、本当にユーザーが見ている位置と視線位置とが一致しているかどうかがわからない。仮に算出した視線位置とユーザーが見ている位置とがズレていた場合、ユーザーの意図ではない類似画像の優先度が上がってしまう可能性が生じる。非特許文献1では、視線位置を示すポインターは表示されるが、常に、全ての表示物よりも上にユーザーの視線位置を示すポインターを表示するため、目的の表示物が視認しにくく、ポインターを煩わしく感じる場合がある。
そこで本発明は、視線入力により操作を行う場合に、検出された視線位置を視線ポインター表示によって視認可能とするとともに、ユーザーによる操作に応じて表示されるアイテムをより視認しやすく表示することを目的とする。
上記目的を達成するために、本発明は、
表示手段を見るユーザーの視線を検出する検出手段と、前記検出手段により検出されたユーザーの視線に基づく表示手段上での視線位置を示す視線ポインターを前記表示手段上での視線位置に表示し、前記検出手段により検出された視線に基づく視線位置の移動に追従して、前記視線ポインターを移動して表示するように制御し、ユーザーによる操作手段への操作が行われたことに応じて、アイテムをユーザーの視線に基づく視線位置に基づいて表示するとともに、前記視線ポインターは前記アイテムよりも下に重畳して表示し、前記アイテムの表示位置に基づいて、自動焦点調整処理を実行するように制御する制御手段とを有する。
本発明によれば、視線入力により操作を行う場合に、検出された視線位置を視線ポインター表示によって視認可能とするとともに、ユーザーによる操作に応じて表示されるアイテムをより視認しやすく表示することができる。
本実施形態におけるデジタルカメラ外観図である。 本実施形態におけるデジタルカメラの構成を示すブロック図である。 本実施形態におけるデジタルカメラの制御処理フローチャートである。 本実施形態の撮影モード処理における、ユーザーの視線位置を示す視線ポインターと枠表示の表示制御処理フローチャートである。 本実施形態における設定メニュー画面である。 本実施形態におけるユーザーの視線位置を示す視線ポインターと枠表示の表示例を示す図である。 本実施形態における表示部に表示する表示オブジェクトの表示順を示す図である。 本実施形態におけるパーソナルコンピューター(PC)の外観図である。 本実施形態をパーソナルコンピューター(PC)に適用した際の表示例を示す図である。
<デジタルカメラ100の外観図>
以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)、(b)に本発明を適用可能な装置の一例としてのデジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。図1において、表示部28は画像や各種情報を表示する、カメラ背面に設けられた表示部である。タッチパネル70aはタッチ操作可能な操作部材であり、表示部28の表示面(操作面)に対するタッチ操作を検出することができる。ファインダー外表示部43は、カメラのファインダー外に設けられた表示部であり、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。端子カバー40は外部機器との接続ケーブルとデジタルカメラ100とを接続するコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は操作部70に含まれる回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は操作部70に含まれる回転操作部材であり、選択枠の移動や画像送りなどを行える。十字キー74は操作部70に含まれ、4方向に押し込み可能な押しボタンを有する操作部材で、十字キー74の押下した方向に応じた操作が可能である。SETボタン75は操作部70に含まれ、押しボタンであり、主に選択項目の決定などに用いられる。動画ボタン76は、動画撮影(記録)の開始、停止の指示に用いられる。AF-ONボタン77は、操作部70に含まれ、押下することによりAF動作(自動焦点調節)を開始する。AF動作は主にシャッターボタン61の押下によりAF動作が開始されるが、AF-ONボタン77を押下してもAF動作開始の指示を出すことができる。シャッターボタン61の押下によってAF動作を行わないように設定することができるデジタルカメラ100では、AF開始指示と撮影指示とを切り離すことができる。AF-ONボタン77を押下したあとにシャッターボタン61を押下すれば、AF位置を固定した撮影、または、AFができない状況下でも撮影を行うことができる。AEロックボタン78は操作部70に含まれ、撮影待機状態(撮影モードにおいて撮像部22を用いて撮像を開始し、撮影準備等が行われていない、撮影モードで待機している状態)で押下することにより、露出状態を固定することができる。つまり、ユーザー所望の露出値で固定して撮影を行うことができる。再生ボタン79は操作部70に含まれ、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。絞り込みボタン84は、操作部70に含まれ、押下することにより、押下した時点で設定されている絞り数値でレンズの絞り込みが行われ、実際にピントの合う範囲(被写界深度)を確認することができる。メニューボタン81は、操作部70に含まれ、押下することにより各種の設定可能なメニュー画面が表示部28に表示される。拡大ボタン82は操作部70に含まれ、撮影モードのライブビュー表示において拡大モードのON/OFFを行うための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像の拡大、縮小を行える。再生モードにおいては再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。マルチコントローラー83は、8方向に操作可能な方向キーと押し込み可能な押しボタンを有する操作部材であり、マルチコントローラー83を倒した方向に応じた操作が可能である。ユーザーは、表示部28に表示されたメニュー画面において、十字キー74やSETボタン75、マルチコントローラー83を用いて直感的に各種設定を行うことができる。フレーミングアシストボタン(不図示)は後述するレンズユニット150やデジタルカメラ100とレンズユニット150を繋ぐレンズアダプタに配置された操作ボタンである。これは、ユーザーが右手でグリップ部90、左手でレンズユニット150を把持して撮影を行う際に、左手で押下可能な位置に配置された操作部材である。
操作部70は、ユーザーからの操作を受け付ける入力部としての各種操作部材である。操作部70には、押しボタン、回転ダイヤル、タッチセンサーなどが含まれ、少なくとも以下の操作部が含まれる。シャッターボタン61、タッチパネル70a、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、動画ボタン76、AF-ONボタン77、AEロックボタン78、再生ボタン79。メニューボタン81、拡大ボタン82、マルチコントローラー83、絞り込みボタン84、フレーミングアシストボタン。後述する、AF枠を視線位置に基づく位置へ更新する視線確定機能について、当該機能を有した専用ボタンをデジタルカメラ100に搭載してもよいし、他の機能を有した操作部材に視線確定機能を割り当てられるようにしてもよい。視線確定機能を割り当て可能な操作部材として、AF-ONボタン77、AEロックボタン78、マルチコントローラー83の押し込み、絞り込みボタン84、フレーミングアシストボタンがある。AF-ONボタン77、AEロックボタン78、マルチコントローラー83はユーザーが右手人差し指でシャッターボタン61を操作しながら撮影に支障が生じないように操作できる位置に配置されている。具体的には、ユーザーがグリップ部90を右手で把持している際に、被写体と反対側にあたるデジタルカメラ100の背面部の中央位置より上側(シャッターボタン側)、かつ、EVF29の右側(グリップ部90側)に配置されているものとする。また、ユーザーがシャッターボタン61を操作しながら操作できるものであれば、デジタルカメラ100の背面部に限らない。例えば、絞り込みボタン84やフレーミングアシストボタンのような、前面部(被写体側)やレンズユニット150に配置される操作部材でもよい。この場合、操作部材の配置位置は上述したデジタルカメラ100の背面に限らず、ユーザーがシャッターボタン61を操作している右手の人差し指以外の指で操作できる位置に配置されていればよい。ユーザーが視線確定機能を割り当て可能な、他の機能を有した操作部材は、シャッターボタン61への操作中に操作しても撮影モードから遷移しない機能を持ったボタンや、シャッターボタン61への操作による撮影機能実行を妨げない機能を持ったボタンである。また、様々な機能を割り当てられる押下可能なボタンでもよい。押しボタンに限らず左右に操作可能な操作バーや回転操作可能なリング、後述する押圧力を検知可能なタッチパネル70aを強い押圧で押し込んだ場合に機能が発動するようにしてもよい。
通信端子10はデジタルカメラ100が後述するレンズユニット150(着脱可能)と通信を行う為の通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介してファインダー内表示部のEVF(Electric View Finder)29に表示された映像を視認することができる。接眼検知部57は接眼部16に撮影者が接眼しているか否かを検知する接眼検知センサーである。蓋202は記録媒体200を格納したスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラを保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61、メイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73が配置されている。
図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100と通信を行う為の通信端子である。レンズユニット150は、この通信端子6と前述の通信端子10を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。その後AF駆動回路3を介して、レンズ103を変位させることで焦点を合わせる。
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、または、後述するメモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理を行う。画像処理部24により得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
メモリ制御部15は、A/D変換器23、画像処理部24、メモリ32間のデータ送受を制御する。A/D変換器23からの出力データは、画像処理部24およびメモリ制御部15を介して、あるいは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28、EVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部28、EVF29により表示される。表示部28、EVF29は、LCDや有機EL等の表示器上に、メモリ制御部15からの信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデータを、表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV表示)を行える。以下、ライブビューで表示される画像をライブビュー画像(LV画像)と称する。
赤外発光ダイオード166は、ファインダー内の画面におけるユーザーの視線を検出するための発光素子であり、ユーザーの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は赤外光だけを反射して可視光を透過させる。光路を変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサ等の撮像デバイスから成る。
視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は少なくとも1つのプロセッサーを含み、視線検知センサー164の出力信号に基づき、ユーザーの眼球(目)161の画像または動きからユーザーの視線を検出し、検出情報をシステム制御部50に出力する。このようにダイクロイックミラー162、結像レンズ163、視線検知センサー164、赤外発光ダイオード166、視線検出回路165により視線検出ブロック160が構成される。視線検出ブロック160は、視線入力を受け付ける受付手段のうちの1つである。
本発明では視線検出ブロック160を用いて、角膜反射法と呼ばれる方式で視線を検出する。角膜反射法とは、赤外発光ダイオード166から発した赤外光が眼球(目)161の、特に角膜で反射した反射光と、眼球(目)161の瞳孔との位置関係から、ユーザーの目の動きを検出し、ユーザーの目の向き(視線)を検出する方式である。この他にも黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式など、様々な視線を検出する方式がある。なお、視線を検出できる方式であれば、上記以外の視線検出手段の方式を用いてもよい。
ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばFlash-ROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられ、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50はメモリ32、表示部28等を制御することにより表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
モード切替スイッチ60は、操作部70に含まれる操作部材であり、システム制御部50の動作モードを静止画撮影モード、動画撮影モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)、がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60により、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り換えた後に、表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから撮像された画像を画像ファイルとして記録媒体200に書き込むまでの一連の撮影処理の動作を開始する。第2シャッタースイッチのONが継続されると、デジタルカメラ100は、予め決められた連写可能速度に依存する速度で連写(連続撮影)を行う。
電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(ライブビュー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像やその他の各種情報を受信することができる。
姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である、加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
接眼検知部57はファインダーの接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくともデジタルカメラ100が撮影待機状態、かつ、撮像部22で撮像されたライブビュー画像の表示先の切替設定が自動切替設定である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57は、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(不図示)から投光した赤外線が反射して赤外線近接センサーの受光部(不図示)に受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。なお、本実施形態では接眼検知部57の投光部および受光部は前述の赤外発光ダイオード166および視線検知センサー164とは別体のデバイスであるものとする。ただし、接眼検知部57の投光部を赤外発光ダイオード166で兼ねてもよい。また、受光部を視線検知センサー164で兼ねてもよい。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
システム制御部50は視線検出ブロック160からの出力に基づいて以下の操作、あるいは状態を検知できる。
・視線検出ブロック160によって、接眼部16に接眼したユーザーの視線が検出されている状態、すなわち視線入力がある状態であること。
・視線検出ブロック160によって、接眼部16に接眼したユーザーの視線が検出され、ユーザーが注視している状態(後述)であること。
・視線検出ブロック160によって、接眼部16に接眼したユーザーの視線が検出された後に視線が検出されなくなった状態、すなわち、視線入力が終了した状態であること。
・視線検出ブロック160によって、接眼部16に接眼したユーザーの視線が検出されていない状態、すなわち視線入力がない状態であること。
ここで述べたユーザーが注視している状態とは、視線検出ブロック160において、検出された視線に基づいてEVF29上の位置(視線位置)を特定し、特定される視線位置が所定時間内に所定の移動量を超えなかったと判定された場合のことを指す。すなわち、視線位置とは、ユーザーが見ていると推定されるEVF29上(表示手段上)の位置である。
視線入力が終了した状態には、ユーザーが接眼部16から離眼した場合や、接眼部16への接眼を継続しているが瞼を閉じたことによるユーザーの目161を検出できない場合がある。
タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示画面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのような表示オブジェクト(グラフィカルユーザーインターフェース)を提供できる。システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
AFの設定として、図5(a)の項目501、項目502に示す内容を設定することができる。AFエリア(AF枠の設定方式)の設定として、項目501に示すように、1点AFと全域AFのいずれかを設定可能である。1点AF設定とは、LV画像のうちAFを実行する位置が1点(1か所)であることを示す。ユーザーはAFを実行する位置を任意の1点に設定でき、ユーザーのAF実行指示に応じて表示される1点AF枠の表示位置でのみAFを実行する。例えばユーザーに対して向かってくるように走行する電車を撮影しようとした際に、電車の運転席にAFを実行させたい、かつ、電車全体が写るような構図で撮影したいと考える場合がある。このような場合、任意の1点(1か所)にAF枠を固定し、電車の運転席がその位置に到達した瞬間に撮影を行えば、ユーザー所望の位置に合焦した、かつ、ユーザー所望の構図で撮影を行うことができる。一方で項目502に示す全域AF設定は、デジタルカメラ100のEVF29の表示領域のうち、AF可能領域の全域においてAFを実行することが可能(焦点検出可能)な設定である。動きが予測できない被写体を撮影するような場合には、AFエリアの設定を全域にすることでAF可能領域内のどこに被写体が存在したとしても、被写体にAFを実行することができる。
AF動作の設定として、図5(a)の項目502に示すように、トラッキングをする/しないのいずれかを設定可能である。トラッキング機能“する”設定は、競技中のスポーツ選手や動いている子供、動物など、撮影距離が絶えず変化する(動いている)被写体に対して追尾を行うような状況での撮影に適している。後述する、要素条件を用いて決定されたAF対象被写体に対して、トラッキング(追尾)とコンティニュアスAFが行われる。コンティニュアスAFとは、追尾対象である被写体にAFを合わせ続けるものを言う。
トラッキング機能“しない”設定は、止まっている被写体の撮影に適したものであり、第1シャッタースイッチ62のオン時点で後述する要素条件(優先度)に基づいてAF枠位置を決定し、決定したAF枠位置で1度だけAFを実行する。このとき被写体を追尾することはない。
トラッキング機能が“する”設定である場合、LV画像から人物の顔が検出されていれば顔を優先してAF対象被写体とする。人物の顔が複数検出されている場合には、以下に示すような予め決められた優先度(条件)に従って1つの顔を選択してAF対象被写体に設定する。
・検出された人物の顔である。
・顔のサイズが大きい。
・顔の位置がデジタルカメラ100に近い(至近側である)。
・顔の位置が画像内における中央に近い。
・予め登録された個人の顔である。
人物の顔が検出されていなければ、以下に示すような予め決められた優先度(条件)に従って顔以外の被写体を選択してAF対象被写体に設定する。
・デジタルカメラ100に近い(至近側である)。
・コントラストが高い。
・動物や乗り物などの優先度の高い被写体である。
・動体である。
ユーザーによって追尾対象の被写体が指定された場合には、追尾対象の被写体をAF対象被写体とする。すなわち、上述した2つのグループの優先度の例のような要素条件のうち少なくとも1つの要素条件を用いて重みづけを行い、得られるスコアが所定の閾値以上であることや得られるスコアが最も高いものなどから、AF対象被写体と判定する。
AFに関する設定としては項目501と項目502の設定内容をそれぞれ組み合わせた4つのパターンの設定を行うことができる。ユーザーがそれぞれ撮影したい被写体や撮影状況に応じてこれらの設定を使い分けることで、ユーザーにとって最適な撮影設定とでき、所望の構図で、所望のタイミングに撮影を行うことができる。
図5(a)では、AFエリアが1点AFに設定されており、トラッキングが“しない”設定となっている。これにより、ユーザーはAF枠を任意の1点に固定したいことが考えられる。例えば、花などの静止被写体を撮影する際にこのような設定にすることで、ユーザーにとって操作性が良くなる可能性が高い。
図5(a)は設定メニュー画面の一例である。項目503の視線入力機能のON/OFFを切り替えることで、ユーザーの視線を検出するかしないか、すなわち視線検出ブロック160を駆動するかしないかを切り替えることができる。つまり、項目503の視線入力機能のON/OFFを切り替えることで、視線入力による操作を受け付けるか否かが設定される。
ユーザーが項目504を選択すると、図5(b)に示すような画面(図5(a)の設定メニュー画面の下階層の画面)に遷移する。図5(b)は、視線AF機能に関する詳細設定を行うことができる画面である。項目505に示す視線AF機能とは、視線位置に表示されている被写体に合焦するようにAFを実行する機能である。項目505をONに設定すると、ユーザーの視線の動きに伴って被写体を特定し、AFを実行するので、所望の被写体に対して直感的にAFを行うことができる。項目506は視線位置に視線ポインター表示を行うか否かの設定項目である。ONに設定すれば、ユーザーは目で見ている方向にしたがって、視線検出ブロック160により検出された視線位置を視線ポインター表示によって視認することができる。本実施形態では、視線ポインターは図6(d)のポインター606に示すようなインジケーター表示とする。視線位置を中心とする小さい円が表示され、さらにその周囲に一回り大きい円を表示する。図6(d)では、ポインター606のうち小さい円は内部が塗りつぶして表示され、大きい円は枠が塗りつぶして表示されている。ここで、塗りつぶし部分は半透過とし、塗りつぶし部分がLV画像の被写体やAF枠に重畳して表示されたとしても、被写体が完全に視認できなくならないようにする。また同様に、小さい円と大きい円の枠の間の塗りつぶしはされず、LV画像の視認性は損なわれないようにする。
項目507は第1シャッタースイッチ(SW1)62のオン、すなわちシャッターボタン61の半押しを、視線位置を確定するための操作(視線確定操作)とするか否かの設定項目である。有効に設定すると、ユーザーがシャッターボタン61を半押しした時点で視線検出ブロック160により検出された視線位置に確定される。無効に設定すると、シャッターボタン61の半押しでは視線位置は確定されない。
例えば、視線確定機能は、初期設定時(工場出荷時)には、AF-ONボタン77へ割り当てられている。項目507で“有効”に設定されると、AF-ONボタン77ではなく、シャッターボタン61の押下により第1シャッタースイッチ62がオンになった場合に視線確定操作が行われるようになる。また、同様にして視線確定操作を、操作部70にある他の機能を有したボタンに割り当て可能としても良い。よって、例えばユーザーが他の機能のボタンで視線位置を確定したあとにシャッターボタン61を半押しした場合に、他のボタンで確定した視線位置とシャッターボタン61を半押しした時点での視線位置とが異なっている場合を考える。このとき、シャッターボタン61を半押しした時点での視線位置で確定されてしまい、ユーザー所望の他の機能のボタンで確定した視線位置とは異なる視線位置の被写体に対してAFが実行されてしまう可能性があり、操作性が悪い。そのため、設定メニュー画面の項目507で、第1シャッタースイッチ(SW1)62のオンで視線位置を確定するか否かをユーザーが任意に設定できるようにする。
(実施例1)
実施例1の制御については、図3と図4(a)の制御フローチャートを用いて説明する。実施例1は、図3のS302(撮影モード処理)において、ユーザーによる視線確定操作が行われる前に表示される1点AF枠や被写体枠などの枠表示(アイテム)が、視線確定操作が行われたことにより、視線位置に表示される。
図3は、本実施形態におけるデジタルカメラ100における制御処理のフローチャートである。この制御処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。図3のフローチャートは、デジタルカメラ100の電源をオンに(起動)した場合に開始され、図4(a)のフローチャートは、図3のフローチャートにおいて撮影モード処理を実行する場合(S301においてYesと判定された場合)に開始される。また、図6(a)~(j)は図3のフローチャートに示す制御処理を行った場合の、EVF29に表示される表示例の図である。図6(a)~(i)は図5(a)の項目501のAFエリアの設定が“1点”、項目502のトラッキング機能の設定が“する”の場合の表示例の図である。図6(j)は、AFエリアの設定が全域、トラッキング機能を“しない”設定の場合の表示例の図である。
S301では、システム制御部50は、撮影モードであるか否かを判定する。撮影モードである場合は、S302へ進み、そうでない場合は、S303へ進む。
S302では、システム制御部50は、撮影モード処理を行う。撮影モード処理については、図4(a)を用いて後述する。
S303では、システム制御部50は、再生モードであるか否かを判定する。再生モードである場合は、S304へ進み、そうでない場合は、S305へ進む。
S304では、システム制御部50は、再生モード処理を行う。再生モード処理では、撮影した画像を再生するための制御処理であり、操作部70を操作することで、表示部28に再生した画像について画像送りや拡大操作を行うことができる。
S305では、システム制御部50は、S302、S303の判定より、その他の処理を行う。その他の処理とは、例えば、設定メニュー画面においてデジタルカメラ100や撮影に関する設定を行う処理を指す。
S306では、システム制御部50は、処理が終了したか否かを判定する。処理が終了した場合は、図3のフローチャートに示す制御処理を終了し、そうでない場合は、S301へ戻る。処理の終了とは、例えば、デジタルカメラ100の電源をオフすることを指す。
図4(a)は、図3のS302で説明した、撮影モード処理についてのフローチャートである。図3のS301においてYesと判定された場合、すなわち、撮影モード処理であると判定された場合に開始される。
S401では、システム制御部50は、フラグや制御変数等を初期化する。
S402では、システム制御部50は、撮像部22を通して得られた信号から、図6(a)に示すようにEVF29にLV画像601を表示する。LV画像の表示レイヤーは、図7に示すようにレイヤー705とする。すなわち、本実施形態でEVF29に表示するものの中で、最も下位の(優先順位の低い)レイヤーに表示する。
S403では、システム制御部50は、撮影モード処理に関わる各種の設定値やバッテリー残量、記録画素数など、様々な撮影情報(撮影パラメーター)を表示する。図6(a)に示すように、情報602はLV画像601と共にEVF29に表示する。情報602のような撮影情報の表示レイヤーは図7(a)のレイヤー703に示すように、LV画像よりも上のレイヤーに表示する。
S404では、システム制御部50は、AF可能な領域(以下、AF可能領域)がデジタルカメラ100の機器本体に依存する領域よりも狭いか否かを判定する。狭い場合はS405へ進み、そうでない場合はS406へ進む。AF可能領域はデジタルカメラ100の機器本体の性能によって一意的に決まるが、デジタルカメラ100に装着されるレンズユニット150の種類によってはデジタルカメラ100の機器本体の性能によるAF可能領域よりも狭くなる場合がある。例えば超望遠単焦点レンズなどの特定のレンズが装着されると、デジタルカメラ100の機器本体の性能におけるAF可能領域よりも狭くなるように設定されている場合がある。超望遠単焦点レンズはレンズの周辺部において、AFを実行するために必要となる十分な光量が得られないものがあるためである。よって、レンズユニット150として、このようなレンズをデジタルカメラ100に装着した場合にはAF可能領域は、デジタルカメラ100の機器本体に依存する領域よりも狭く設定する。ユーザーはデジタルカメラ100の機器本体に依存するAF可能領域を把握していたとしても、様々な種類のレンズをデジタルカメラ100に付け替えて撮影を行うことがあり、それぞれのレンズ依存のAF可能領域がどの程度の範囲かを認識していない場合がある。デジタルカメラ100の機器の性能としてはEVF29全体がAF可能領域であったにもかかわらず、特定のレンズを装着した際にはAF可能領域が狭くなることが生じ、ユーザーの混乱を招く可能性が生じる。AF領域が狭いことを視認できなければ、ユーザーは特定のエリアでAFを実行することができないことに気づかず、撮影機会を損失してしまう。このような機会損失を低減するために、S404においてAF可能領域について判定を行い、後述のS405においてAF可能領域を表示する。なお、本実施形態では、デジタルカメラ100の機器本体に依存するAF可能領域はEVF29全体(縦100%×横100%の割合)とする。
S405では、システム制御部50は、AF可能領域を示すインジケーターを表示する。S404においてYesと判定されたことから、AF可能領域がカメラ本体依存のものよりも狭くなるような特定のレンズを装着していることがわかる。これにより、EVF29全域よりも狭い範囲でしかAFを実行することができない。このことをユーザーに報知するために、AF可能領域をLV画像に重畳して表示する。AF可能領域は、図6(b)の枠603に示すように、ユーザーが領域を視認できるように表示を行う。枠603のように枠表示に限らず、AF可能な領域外をグレーで塗りつぶすような表示形態でもよい。
S406では、システム制御部50は、AFエリアの設定が全域以外であるか否かを判定する。AFエリアの設定は、図5を用いて前述したように、AFを実行するエリアを全域にするか1点にするかを設定できるものである。AFエリアの設定が全域以外すなわち1点である場合はS407へ進み、設定が全域である場合はS408へ進む。
S407では、システム制御部50は、1点AF枠を表示する。このときの表示例を図6(b)の枠604に示す。1点AF枠は十字キー74の方向キー操作により、ユーザー所望の任意の位置に配置することができる。
S408では、システム制御部50は、AFのトラッキング設定が“する”に設定されているか否かを判定する。トラッキング設定が“する”に設定されている場合はS409へ進み、“しない”に設定されている場合はS411へ進む。
S409では、システム制御部50は、撮像部22を通して取得したLV画像から、被写体を検出したか否かを判定する。被写体を検出した場合はS453へ進み、検出しなかった場合はS411へ進む。被写体の検出とは例えば、人間の顔や、胴体、目などの器官などの検出を指す。被写体は人間に限らず、動物や鳥、乗り物についても検出可能である。
S410では、システム制御部50は、S409において検出した被写体に対して被写体枠を表示する。このときの表示例を図6(c)の枠605に示す。S408においてYesと判定されたことから、ユーザーは動きのある被写体を撮影しようとしている可能性がある。そのため、LV画像からシステム制御部50が検出できた被写体に対しては、検出できていることを示すことや、ユーザーが被写体を視認しやすいように、被写体枠を表示する。なお、本実施形態では被写体枠は、検出された被写体の位置の4隅に括弧を配置し、被写体が検出された領域を囲ったような表示形態とする。
S411では、システム制御部50は、視線入力機能がONであるか否かを判定する。視線入力機能がONである場合はS412へ進み、OFFである場合はS430へ進む。視線入力機能は、前述したように設定メニュー画面においてユーザーが任意に設定することができる。また、設定メニュー画面に遷移せずとも、視線入力機能のON/OFFを切り替えられる専用ボタンもしくは割り当て可能なボタンの押下によって切り替えられるようにしてもよい。
S412では、システム制御部50は、視線検出ブロック160を用いてユーザーの視線を検出できたか否かを判定する。検出できた場合はS413へ進み、検出できなかった場合はS430へ進む。本実施形態では、ユーザーが接眼部16に接眼していない場合はユーザーの視線は検出できない。
S413では、システム制御部50は、視線位置を示す視線ポインターの表示設定がONであるか否かを判定する。視線ポインターの表示設定がONである場合はS414へ進み、OFFである場合はS415へ進む。
S414では、システム制御部50は、検出した視線位置に視線ポインターを表示する。このときの表示例を図6(d)のポインター606に示す。図6(d)では、検出された被写体に対して枠605、1点AF枠を示す枠604が表示され、ユーザーはLV画像601の右下付近のポインター606の表示位置を見ている。ユーザーが見ている場所を変更することにより、視線位置が枠605の表示位置付近に移動した際の表示例を図6(e)に示す。ここで、視線ポインター606は、枠604よりも下の表示レイヤーに表示されている。
S415では、システム制御部50は、ユーザーによる視線確定操作があったか否かを判定する。視線確定操作があった場合はS416ヘ進み、ない場合はS427へ進む。視線確定操作とは、視線確定機能を持つ専用ボタンまたは視線確定機能を割り当てたボタンへの操作を指す。視線確定機能とは、視線確定操作が行われた時点で検出されている視線位置に確定し、それ以降に検出されたユーザーの視線を無効としたり、その視線に基づき算出される視線位置を無効としたりする機能である。AF枠などの枠表示(アイテム)を検出された視線位置に追従してEVF29に表示してしまうと、ユーザーが煩わしく感じる可能性がある。また、ユーザーが意図せず視線を動かしてしまった場合にもAF枠などの枠表示(アイテム)が追従してしまうため、所望しない位置でAFなどの処理が行われてしまう場合がある。そのため視線確定操作が行われるまでは、枠表示はAFエリアやトラッキングの設定、上述した優先度に基づいて決定した位置・被写体に表示したまま、視線位置に移動せず、視線確定操作が行われたことに応じて、枠表示を視線位置へ移動させて表示する。視線確定操作に応じて、任意の位置から視線位置にAF枠を移動させて表示することから、現在EVF29に表示されているAF枠位置とユーザー所望の位置(視線位置)とが遠い場合でも、素早く直感的に移動させることができる。また、ユーザーに依る視線確定操作により、明確にユーザーの意思を読み取り、反映できるため、ユーザーの意図せぬ視線位置でAF実行等の制御が行われない。
なお、視線確定操作が行われる前に枠表示の表示がされない(例えば、AFエリア“全域”、トラッキング“しない”設定)場合は、視線確定操作が行われたことに応じて、枠表示を確定された視線位置に表示するように制御する。
S416ではS413と同様に、システム制御部50は、視線ポインター表示の設定がONであるか否かを判定する。ONである場合はS420へ進み、OFFである場合はS427へ進む。
S417ではS408と同様に、システム制御部50は、AFのトラッキング設定が“する”であるか否かを判定する。“する”である場合はS418へ進み、“しない”である場合はS423へ進む。
S418ではS412と同様に、システム制御部50は、視線検出ブロック160を用いてユーザーの視線が検出できたか否かを判定する。検出できた場合はS419へ進み、できなかった場合はS427へ進む。
S419では、システム制御部50は、LV画像内のS418において検出した視線位置に、特定の被写体が存在するか否かを判定する。存在する場合はS420へ進み、存在しない場合はS457へ進む。
S420では、システム制御部50は、S419において視線位置にある被写体を追尾対象に決定し、追尾対象である被写体にAFを合わせ続ける。このとき視線位置が厳密に被写体の位置に一致していなくても、被写体から所定の範囲内に視線位置を検出することができた場合には、視線位置は当該被写体上にあると判定し、追尾対象である被写体にAFを合わせ続けるようにしてよい。
S421では、S420で決定した追尾対象である被写体に対して、追尾AF枠を視線ポインター606の上に重畳して表示する。このときの表示例を図6(f)の枠607に示す。追尾AF枠とは、前述した要素条件により判定した被写体に対してコンティニュアスAFを実行する位置を示すAF枠である。追尾AF枠の表示形態は、コンティニュアスAFを実行する位置の4隅に二重の括弧を配置し、追尾対象の被写体の領域を囲ったような表示形態とする。S415においてYesと判定されたこと、すなわちユーザーによる視線確定操作があったことに応じて、視線確定操作が行われる前に表示していた被写体枠605やAF枠604などの枠表示とは異なる表示形態で追尾AF枠を表示する。これにより、ユーザーによって行われた視線確定操作により追尾対象の被写体が決定されたことや、対象となった被写体を明確に視認できるようになる。また、被写体枠はEVF29に表示されるLV画像に特定の被写体(例えば、人物の顔)がいるかどうか(被写体を検出できたかどうか)を単にユーザーに知らせるための表示であり、複数の被写体が検出できた場合には複数の被写体枠が表示される。一方で、追尾AF枠はLV画像内において複数表示されることはなく(1つしか表示されず)、シャッターボタン61を押下した場合には追尾AF枠の表示位置の被写体で合焦することを示す表示である。つまりS410において表示した被写体枠と本ステップで表示する追尾AF枠は性質が異なる。被写体枠はシステム制御部50がLV画像内から特定の被写体であると認識できるものに対して表示されるものであって、AF実行対象の候補であることを示しているものではない。このとき被写体枠の表示位置ではAFは実行しない。一方で追尾AF枠は、システム制御部50が特定の被写体として認識している、かつ、AF実行対象であることを示すものである。また、追尾AF枠の表示位置ではコンティニュアスAFを行う。すなわち、AF実行対象をユーザーが認識するための重要度で考えると、追尾AF枠のほうがユーザーにとっては重要度が高い。これらのことから、視線確定操作によりユーザーの視線位置(視線が検出された位置)に追尾AF枠を表示するため、ユーザー所望のタイミングで所望の位置に素早く移動させることができる。
S422では、システム制御部50は、視線ポインターの表示位置、すなわちユーザーの視線に基づき検出された視線位置に多点AF枠を表示する。多点AF枠とは、EVF29に表示のLV画像において被写体が検出できなかった場合に、前述の要素条件に基づいた判定のうち、得られるスコアが最も高い位置に表示するAF枠である。図6(j)の枠610に示すように、得られたスコアが高い位置に小さな四角を表示するような表示形態とする。本ステップのように多点AF枠を表示する場合には、S415において視線確定操作が行われる前はLV画像中にAF枠や被写体枠のような枠表示はない。すなわち、視線確定操作が行われたことにより、はじめて枠表示として多点AF枠が表示される。また、多点AF枠は、視線ポインターの表示レイヤーよりも上の表示レイヤーに表示される。このように多点AF枠を表示することで、AF実行指示を行った場合に多点AF枠が表示される被写体に対してAFを実行することが視認できる。そのため、ユーザーは、直ちにAF実行指示を行うか、AF枠の位置の変更もしくは構図や撮影設定の変更を行うか、などの次の操作を考えることができる。
S423ではS406と同様に、システム制御部50は、AFエリアの設定が全域であるか否かを判定する。AFエリアの設定が全域である場合はS418へ戻り、全域でない場合、すなわち1点である場合はS424へ進む。
S424ではS412とS418と同様に、システム制御部50は、視線検出ブロック160を用いてユーザーの視線を検出できたか否かを判定する。検出できた場合はS425へ進み、検出できなかった場合はS427へ進む。
S425では、システム制御部50は、視線ポインターの表示位置、すなわち視線位置に1点AF枠を移動する。1点AF枠とは、AF実行指示が行われた場合に合焦する予定であることを示す、任意の1点の位置を示す枠である。図6(b)の枠604のような表示形態で表示する。ユーザーによる視線確定操作が行われたことに応じて、視線確定操作が行われる前の表示位置から視線位置へと、1点AF枠を移動する。これにより、視線確定操作以前の表示位置と視線位置とが大きく離れていたとしても、素早く1点AF枠を移動でき、撮影機会の損失を低減し、ユーザーの所望の被写体に合焦した画像を撮像して記録することができる。また、1点AF枠は、視線ポインター606の表示レイヤーよりも上の表示レイヤーに表示される。
S426では、システム制御部50は、視線位置に追尾AF枠/多点AF枠/1点AF枠などの枠表示を項目501や項目502の設定内容に応じて表示する。S416においてNoと判定したことからEVF29に視線ポインターは表示されないが、S411においてYes、S412においてYesと判定されていることから、視線検出ブロック160を用いて、ユーザーの視線が検出されている。S421,S422、S425と同様に、視線確定操作が行われる前の枠の表示位置と視線位置とが大きく離れていたとしても、素早くAF枠を移動することができる。また、視線確定操作が行われる前に枠表示が行われていなかったとしても、視線位置に素早くAF枠を表示することができるため直感的にAF枠の位置を決定することができる。
S427では、システム制御部50は、AF実行指示があったか否かを判定する。AF実行指示があった場合はS428へ進み、ない場合はS430へ進む。AF実行指示とは、例えばAF-ONボタン77の押下や第1シャッタースイッチ62のオンにより行われる。AF実行指示はこれに限らず、AF実行を指示する機能が割り当てられた操作による指示であればよい。
S428では、システム制御部50は、EVF29のLV画像に表示されるAF枠の表示位置の被写体に対してAFを実行する。このときの表示例を図6(h)に示す。図6(h)は、図6(f)に示す状態でAF実行指示が行われた場合(S427でYes)の表示例である。AF実行指示によって、AF枠の被写体に対してAFが実行されると、AF枠は、合焦結果に応じて、図6(f)の枠607の表示形態から、図6(h)の枠608の表示形態へと変化させる。このとき視線ポインターの表示設定が有効である場合は、視線ポインターの上の表示レイヤーに枠608を表示する。また、S425において図6(g)に示すように表示した1点AF枠である枠604の表示位置で、S427においてAF実行指示を行うと、枠604の被写体に対してAFが実行される。そして、1点AF枠は、合焦結果に応じて、図6(g)の枠604の表示形態から、図6(i)の枠609の表示形態へと変化させて表示する。AF枠の表示形態は、AF実行前や、合焦結果(合焦成功および合焦失敗)によって表示形態を変化させることで、合焦位置と合焦結果をユーザーに報知する。具体的には、AF枠の表示位置の被写体に対してAFを実行し、合焦が成功した場合には、図6(h)の枠608を緑色で表示し、失敗した場合には枠608を灰色で表示する。また、合焦が成功した場合はピピッという音を鳴らし、失敗した場合には音を鳴らさないようにする。AFエリアの設定が全域で、トラッキング機能を“しない”設定である場合にAF実行指示が行われると、図6(j)の枠610に示すような表示形態の多点AF枠を表示する。枠610のような表示形態は、ユーザーによるAF実行指示が行われたことに応じて初めて表示し、AF実行指示が行われるまでは枠表示は行わない。すなわち、AFエリアの設定が全域で、トラッキング機能を“しない”設定にしている場合は、ユーザーによるAF実行指示が行われるまでは、AF枠の表示は行わない。
S429では、システム制御部50は、S427において判定したAF実行指示が第1シャッタースイッチ62により行われたか否かを判定する。第1シャッタースイッチ62である場合はS433へ進み、そうでない場合はS430へ進む。
S430では、システム制御部50は、第1シャッタースイッチ62がオンになったか否かを判定する。オンになった場合はS431に進み、そうでない場合はS437へ進む。第1シャッタースイッチ62がオンとは、前述したようにシャッターボタン61が半押しされている状態を示す。すなわち、ユーザーは撮影を行おうとしていることが想定できる。
S431では、システム制御部50は、フォーカスモードがAFモードに設定されているか否かを判定する。AFモードに設定されている場合は、S432へ進み、そうでない場合(MFモードに設定されている場合)は、S433へ進む。AFモード/MFモードの切り替えは、設定メニュー画面やレンズユニット150の外部に備えられているスイッチなどで切り替えられる。
S432ではS428と同様に、システム制御部50は、AF枠の表示位置に基づいてAF処理を行う。
S433では、システム制御部50は、AEやAWB等のその他の撮影準備処理を行う。
S434では、システム制御部50は、第2シャッタースイッチ64がオンになったか否かを判定する。第2シャッタースイッチ64がオン、すなわち、シャッターボタン61が全押しされた場合は、S435へ進み、そうでない場合は、S436へ進む。
S435では、システム制御部50は、撮像された画像を画像ファイルとして記録媒体200に記録するまでの一連の撮影処理を行う。
S436では、システム制御部50は、第1シャッタースイッチ62のオンが継続しているか否かを判定する。継続している場合はS431に戻り、終了している場合はS437へ進む。
S437では、システム制御部50は、撮影モードが終了したか否かを判定する。撮影モードが終了した場合は図4(a)の制御フローチャートを終了して、図3のS306へ戻る。撮影モードが終了していない場合はS403へ戻る。撮影モードの終了とは、例えば、デジタルカメラ100の電源OFFやメニューボタン81の押下による設定メニュー画面への遷移によるものを指す。
このように本実施例1では、視線入力による操作が可能な場合に、ユーザーによる視線確定操作が行われたことに応じて、視線位置にAF枠を移動して表示する。視線確定操作前にはユーザーの視線の移動に合わせてAF枠が追従することがないので、ユーザーの意図しない視線位置の移動に伴ってAF枠の位置が移動することがないため、LV画像を確認しているときに煩わしく感じることを低減できる。また、視線確定操作前のAF枠の表示位置とユーザーの所望の位置とが大きく離れている場合にも、ユーザーは所望の位置へ視線を向けて視線確定操作を行うことによって、AF枠を視線位置へと素早く移動することができる。また視線位置に視線ポインターを表示する際に、AF枠などの枠表示は視線ポインターの表示レイヤーよりも上の表示レイヤーに表示されるので、ユーザーはAF枠の位置を明確に認識できるだけでなく、視線を向けた位置にAF枠が移動したことを認識しやすい。
(実施例2)
実施例2では、図3のS302(撮影モード処理)において、追尾AF枠や多点AF枠、1点AF枠などの表示オブジェクトである枠表示と視線位置を示す視線ポインターの表示順が、視線確定操作の前後で変化する場合について説明する。実施例2の制御については、図3と図4(b)の制御フローチャートを用いて説明する。図3は、実施例1と同様である。図4(b)のフローチャートは、図3のフローチャートにおいて撮影モード処理の場合(S301においてYesと判定された場合)に開始される。図4(b)のフローチャートについて、実施例1の図4(a)と共通のステップについては、実施例2での説明を省略する。
S404においてAF可能領域がデジタルカメラ100の機器本体に依存する領域よりも狭いと判定された場合、本実施例のS451では、システム制御部50は、AF可能領域をLV画像よりも上、かつ、撮影情報よりも下に表示する(図6(b)の枠603)。すなわち、図7(a)に示すように、AF可能領域は、LV画像のレイヤー705よりも上、かつ、撮影情報のレイヤー703よりも下のレイヤー704に表示を行う。
S452では、システム制御部50は、撮影情報(撮影パラメーター)よりも上に1点AF枠を表示する(図6(b)の枠604)。すなわち、図7(a)に示すように、1点AF枠は、撮影情報のレイヤー703よりも上のレイヤー702に表示する。
S453では、システム制御部50は、S409において検出した被写体に対して被写体枠を表示する(図6(c)の枠605)。このとき、被写体枠は撮影情報よりも上に表示する。すなわち、図7(a)に示すように、被写体枠は、1点AF枠と同様に、撮影情報のレイヤー703よりも上のレイヤー702に表示する。
S454では、システム制御部50は、視線位置を示す視線ポインターを、1点AF枠や被写体枠などの枠表示よりも上に表示をする。すなわち、図7(a)に示すように、視線ポインターは、レイヤー702よりも上のレイヤー700に表示を行う。仮にユーザーが見る方向を変更したことにより、視線位置が移動した場合にも同様に、視線ポインターは枠表示よりも上のレイヤーに表示する。
つまり、S415においてユーザーによる視線確定操作が行われる前までは、1点AF枠や被写体枠などの枠表示よりも視線ポインターが上に表示されるようにする。
本実施形態において、ユーザーは、視線入力機能のON/OFFだけでなく、視線ポインター表示のON/OFFも設定可能である。よって、図5(b)の項目506に示す視線ポインターの表示に関する設定が有効である場合、ユーザーは、自身の見ている方向が検出され、それに基づき特定された視線位置を視線ポインターによって視認したいと考えていると想定できる。そのため、視線確定操作を行って枠表示を移動する前までは、視線ポインターの表示を優先し、枠表示よりも上に表示する。また、本実施形態の視線ポインターは、上述したように、LV画像に重畳して表示されている状態でもユーザーがLV画像を視認できるような表示形態である。これにより、たとえ枠表示よりも視線ポインターが上に表示されたとしても視線ポインターによって完全に枠表示の表示位置が視認できなくなる可能性は低く、撮影準備の妨げになる可能性は低い。
S456では、S420で決定した追尾対象である被写体に対して、追尾AF枠を表示する。このとき、視線確定操作が行われた後であるため(S415でYes)、追尾AF枠は、図7(b)に示すように、視線ポインターのレイヤー700よりも上のレイヤー712に表示する。すなわち、本実施例では、S415においてユーザーによる視線確定操作が行われる前までは、枠表示は視線ポインターよりも下のレイヤーに(図7(a)のレイヤー702に)表示する。これに対してS415におけるユーザーの視線確定操作が行われた後の枠表示は視線ポインターよりも上のレイヤーに(図7(b)のレイヤー712に)表示を行う。
ユーザーが視線確定操作を行うときは、ユーザーは自身の見ている方向と対応する視線位置は十分に認識しており、さらに、その視線位置に枠表示を移動(ワープ)・表示させたいと考えていると想定できる。また、1点AF枠や被写体枠などの枠表示の表示位置は、ユーザーにとっては撮影指示を実行する前に確認すべき、重要度の高い位置である。そのため、視線確定操作が行われたことに応じて表示・移動される枠表示は視線ポインターよりも上に表示を行う。これにより、ユーザーが視線確定操作によって移動された枠表示を視認しやすくし、たとえば、AF実行指示が行われた場合のAFの対象となる被写体を認識しやすくする。
S457では、システム制御部50は、S419においてNoと判定されたことに応じて、検出した視線位置に多点AF枠を移動する。このとき多点AF枠は、視線ポインターよりも上に表示を行う。S456の追尾AF枠と同様に、多点AF枠も、視線ポインターよりも上に表示を行う。すなわち、図7(b)に示すように、多点AF枠は、視線ポインターのレイヤー700よりも上のレイヤー712に表示する。
S458では、システム制御部50は、視線確定操作が行われる前に視線ポインターよりも下に表示されていた1点AF枠を、視線ポインターで示される視線位置に移動するとともに、視線ポインターよりも上に重畳して表示する。すなわち、1点AF枠は、図7(b)に示すように、視線ポインターのレイヤー700よりも上のレイヤー712に表示する。S456の追尾AF枠、S457の多点AF枠と同様に、視線確定操作が行われたことに応じて、1点AF枠も、検出された視線位置へ枠表示を移動するとともに、視線ポインターよりも上に表示させる。これによりユーザーは、視線確定操作によって視線位置に1点AF枠が移動したことを視認しやすく、AF実行指示が行われた際のAFが実行される被写体の位置を認識しやすい。
S416において視線ポインター表示がOFFに設定されていると判定された場合、S459では、システム制御部50は、視線ポインターは表示せず、撮影情報よりも上にAF枠を表示する。
このように本実施形態では、ユーザーによる視線確定操作が行われる前はAF枠よりも視線位置を示す視線ポインターを上に重畳して表示し、視線確定操作が行われた後は、視線ポインターよりもAF枠を上に重畳して表示するように制御する。これにより、ユーザーは、視線確定操作を行う前は、ユーザー自身の見ている方向と対応する視線位置を示す視線ポインターを容易に視認でき、視線確定操作を行った場合に、どの位置に枠表示が移動(ワープ)するかを予測しやすい。一方で視線確定操作を行った後は、ユーザーは視線確定操作したことによって移動した枠表示の位置を認識しやすくなり、AFなど撮影に関わる処理の対象を確認し易くなる。
なお、本実施形態をデジタルカメラのみならず、他の電子機器、例えば、パーソナルコンピューター(PC)やタブレット端末、スマートフォンなどにおけるテキストファイル、フォルダなどのオブジェクトの選択を視線入力操作で行う場合に適用しても良い。
図8、図9に、本実施形態をPCに適用した場合の表示例、構成図を示す。図8は本実施形態をPCに適用した際の構成図を示し、図9(a)~(d)は本実施形態をPCに適用した際の表示画面の例を示す。図8において、本実施形態で述べたタッチパネル70aに対応するものとして、タッチパッド805を示す。PCでの視線検出ブロック160として、独立した視線検出機器810をPCに接続する。視線検出機器810に搭載されているカメラ811や、PCに内蔵されている内蔵カメラ812を用いてユーザーの目の動きを検出し、ユーザーの目の向き(視線)を検出し、検出された視線に基づいて、表示画面上の視線位置を特定する。
図9(a)は、テキストファイルを示すアイコン901とフォルダを示すアイコン902、アイコン910、フォルダ名903、マウスカーソル904、視線ポインター905が表示されている。視線ポインター905は視線位置を示し、視線ポインターの表示によってユーザーは自身の見ている方向に基づき視線検出機器により特定されている視線位置を認識することができる。このときマウスカーソル904はアイコン910の上に重畳して表示されており、そのためアイコン910が示すフォルダの詳細情報906を表示する。このとき視線ポインター905はマウスカーソル904、詳細情報906の上に重畳して表示される。すなわち、図9(a)におけるオブジェクトの表示順は、図7(a)に示すように、上から視線ポインター905のレイヤー700、マウスカーソル904のレイヤー701、詳細情報906のレイヤー702とする。
ユーザーの視線が図9(a)の視線ポインター905の位置から、図9(b)の視線ポインター907の位置(アイコン902の上)へと移動した場合を考える。そして、図9(b)に示す状態で視線確定操作が行われると、図9(c)に示すように視線ポインター907の表示位置へマウスカーソルが移動(ワープ)する。このように、視線ポインター907の表示位置にマウスカーソル904が移動すると、マウスカーソル904がフォルダを示すアイコン902の上に移動し、マウスカーソルが重畳表示されるフォルダやファイル等の表示オブジェクトの詳細情報906が表示される。すなわち、ユーザーによる視線確定操作に応じてマウスカーソルが移動することによって実行された特定の機能の結果として、マウスカーソルにより選択されたオブジェクトの詳細情報を表示する。このとき、視線ポインター907よりも詳細情報906を上に重畳して表示する。すなわち、図9(c)におけるオブジェクトの表示順は、図7(b)に示すように、上からマウスカーソル904のレイヤー711、詳細情報906のレイヤー712、視線ポインター907のレイヤー700となる。
マウスカーソル904がワープした先に表示オブジェクトがない場合は、オブジェクトの詳細情報はなにも表示されない。また、詳細情報906はマウスカーソル904が表示オブジェクトであるアイコン902の位置にワープしたあと、1秒程度の所定時間が経過したことに応じて表示される。そのため、視線確定操作によるワープ直後の図9(c)には詳細情報906は表示されず、ワープ直後に所定時間経過した図9(d)には、詳細情報906が表示される。なお、PCでの視線確定操作はデジタルカメラ100を用いて説明したようなボタン操作ではなく、例えば注視している状態が所定時間継続した場合やタッチパッド805へのタッチオン、マウスへのクリック操作、キーボードへの所定の操作などに割り当てる。このようにすることで、ユーザーはより自然に直感的に視線確定操作ができる。
なお、本実施形態では視線確定操作の実行結果である詳細情報は、マウスカーソルと視線ポインターの間の表示レイヤー(例えば図7(b)のレイヤー712)に表示されるとしたが、マウスカーソルと詳細情報の表示順を逆にしてもよい。また、同じレイヤーでもよい。すなわち、視線確定操作後、詳細情報は、視線ポインターよりも上位のレイヤーに表示されればよい。
このように、ユーザーによる視線確定操作が行われる前は詳細情報よりも視線位置を示す視線ポインターを上に重畳して表示することで、ユーザーは自身の見ている方向に対応する視線位置を視認しやすい。一方で、視線確定操作が行われた後は、視線ポインターよりも詳細情報を上に重畳して表示することで、視線ポインターを煩わしく感じることなく詳細情報を確認しやすい。また、視線確定操作が行われた後は、マウスカーソルを視線ポインターや詳細情報よりも上に重畳して表示することで、視線確定操作に応答して、視線位置へ大きく素早く移動したマウスカーソルを視認しやすい。
図8において、他の実施形態としてPCをあげたが、PCのタッチパッド805のみならず、マウスやポインティングデバイス、ジョイスティック等を使用して視線確定操作を行っても、本実施形態は実施可能である。具体的には、クリック操作や押下操作、またデバイスを左右に振る操作や円を描く操作などの予め決められた操作を行うことで、視線確定操作があったと判定する。なお、これらタッチパッドやマウス、ポインティングデバイス、ジョイスティック等はPC内蔵のものである必要はなく、外付けのものでもよい。
なお、視線ポインターの表示形態は上述したものに限らない。内側の円(塗りつぶし)と外側の円枠という組み合わせの形態ではなく、内側の円だけでもよいし、外側の円枠だけでもよいし、円の大きさをユーザーが任意に変更できるようにしてもよい。たとえば、視線位置が滞在する時間が所定時間よりも長ければ赤く、所定時間よりも短ければ青くするような、視線位置の滞在時間に応じて視線ポインターの色を変化させてもよい。
また、ユーザーが任意に表示形態を設定可能な手段を設けてもよい。表示形態の変化に応じて、表示レイヤーの順序を可変するようにしてもよい。
また、ユーザーによる視線確定操作が行われたことによって、1点AF枠を示す枠604を視線ポインター606の位置に移動させたあと、視線ポインター606を非表示にするようにしてもよい。例えば、視線確定操作が継続して行われている(第1シャッタースイッチ62は押下されている)間、すなわち、AFが実行されている間は視線ポインター606を非表示にし、AFの実行終了に応じて視線ポインター606を再表示する。このような制御にすることで、視線確定操作の直後の、ユーザーがLV画像上のAF実行位置である被写体などを確認したいと考える可能性が高い状態において、1点AF枠を示す枠604などの表示がより視認しやすい。なお、AFが実行されている間に限らず、ユーザーによって設定された所定時間が経過するまでは視線ポインター606を非表示にするような制御にしてもよい。ユーザーの確定操作によって視線ポインターよりも上に表示されたAF枠などの枠表示は、図3のS302の撮影モード処理とは異なるモード処理に遷移した場合に、確定操作前の表示順に戻るようにする。すなわち、ユーザーによるメニューボタン81の押下により設定メニューモード処理に遷移した場合や、デジタルカメラ100の電源がオフになったことに応じてリセットする。なお、確定操作により変化した表示順が確定操作前の表示順に戻るトリガーはこれに限らず、確定操作から所定時間が経過したことに応じてリセットされ、確定操作前の表示順に戻るように制御してもよい。
また、図4(a)の制御フローチャートの処理中であっても、操作部70に対する操作によって、AF枠移動操作や撮影に関する各種パラメーターの変更が行われた場合は、操作に応じて対応する機能を実行する。例えば、マルチコントローラー83を8方向のうちいずれかの方向に倒す操作が行われた場合は、AF枠の移動を操作方向に応じて実行する。メイン電子ダイヤル71への操作が行われた場合は、メイン電子ダイヤル71に割り当てられている機能(具体的には、シャッタースピードの変更など)を実行する。
本発明は、以下の処理を実行することによっても実現される。即ち、上述の実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。
なお、システム制御部50が行うものとして説明した上述の各種制御は、1つのハードウエアが行ってもよいし、複数のハードウエア(例えば複数のプロセッサーや回路)が処理を分担することで装置全体の制御を行ってもよい。
また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず、視線入力および操作部材に対する操作によって位置を指定可能な電子機器であれば適用可能である。すなわち、本発明はPCやPDA、携帯電話端末や携帯型の画像ビューワ、ヘッドマウントディスプレイなどに適用可能である。また、本発明は、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、投影装置、ディスプレイを備える家電装置や車載装置などに適用可能である。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。視線入力と組み合わせて使う位置移動の指示部材としてタッチパネル70aの例を説明したが、ボタンやダイヤルなどこれ以外の操作手段としてもよい。表示位置をAF枠としたが、アイコン枠やパラメーター設定枠などとしてもよいし、マウスカーソルなどのAF枠とは異なるインジケーター表示としてもよい。視線ポインターの表示/非表示について、ユーザー設定によって判定するとしたが、視線入力機能のON/OFF(図5の項目503)や、接眼部16への接眼の有無で判断してもよい。
また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピューター(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。

Claims (25)

  1. 表示手段を見るユーザーの視線を検出する検出手段と、
    前記検出手段により検出されたユーザーの視線に基づく表示手段上での視線位置を示す視線ポインターを前記表示手段上での視線位置に表示し、前記検出手段により検出された視線に基づく視線位置の移動に追従して、前記視線ポインターを移動して表示するように制御し、
    ユーザーによる操作手段への操作が行われたことに応じて、アイテムを前記検出手段により検出された視線に基づく視線位置に基づいて表示するとともに、前記視線ポインターを前記アイテムよりも下に重畳して表示し、前記アイテムの表示位置に基づいて、自動焦点調整処理を実行するように制御する制御手段

    を有することを特徴とする電子機器。
  2. 表示手段を見るユーザーの視線を検出する検出手段と、
    前記検出手段により検出されたユーザーの視線に基づく表示手段上での視線位置を示す視線ポインターを前記表示手段上での視線位置に表示し、前記検出手段により検出された視線に基づく視線位置の移動に追従して、前記視線ポインターを移動して表示するように制御し、
    ユーザーによる操作手段への操作が行われたことに応じて、アイテムを前記検出手段により検出された視線に基づく視線位置に基づいて表示するとともに、前記視線ポインターを前記アイテムよりも下に重畳して表示し、前記操作が行われる前に、前記アイテムを所定の条件に基づく位置に表示するとき、前記視線ポインターを前記アイテムより上に重畳して表示するように制御する制御手段

    を有することを特徴とする電子機器。
  3. 表示手段を見るユーザーの視線を検出する検出手段と、
    前記検出手段により検出されたユーザーの視線に基づく表示手段上での視線位置を示す視線ポインターを前記表示手段上での視線位置に表示し、前記検出手段により検出された視線に基づく視線位置の移動に追従して、前記視線ポインターを移動して表示するように制御し、
    ユーザーによる操作手段への操作が行われたことに応じて、アイテムを前記検出手段により検出された視線に基づく視線位置に基づいて表示するとともに、前記視線ポインター及び前記アイテムの表示順の設定により、前記視線ポインターを前記アイテムよりも下に重畳して表示するように制御する制御手段

    を有することを特徴とする電子機器。
  4. 前記制御手段は、
    前記操作が行われたことに応じて、前記アイテムを前記検出手段により検出された視線に基づく視線位置、又は視線位置から所定の範囲内の位置に表示するように制御することを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  5. 前記電子機器は撮像装置であり、前記自動焦点調節処理を実行するAF手段をさらに有し、
    前記制御手段は、撮像して得られた画像の上に前記アイテムを重畳して前記表示手段に表示するように制御し、
    前記AF手段は、前記アイテムが表示される位置に基づいて、前記自動焦点調節処理を実行し、
    前記制御手段は、被写体を追尾し、前記追尾した被写体に基づいて前記自動焦点調節処理を実行する場合、前記アイテムを視線位置から所定の範囲内の被写体の位置に表示するように制御し、被写体を追尾せずに前記自動焦点調節処理を実行する場合、前記アイテムを前記検出手段により検出された視線に基づく視線位置に表示するように制御する、ことを特徴とする請求項に記載の電子機器。
  6. 前記自動焦点調節処理を実行する被写体を追尾するか否かを設定する設定手段を有することを特徴とする請求項に記載の電子機器。
  7. 前記アイテムはAF枠であり、
    前記制御手段は、被写体を追尾して前記自動焦点調節処理を実行する場合と、被写体を追尾せずに前記自動焦点調節処理を実行する場合とで、異なる表示形態で前記AF枠を表示させる、ことを特徴とする請求項又はに記載の電子機器。
  8. 前記制御手段は、
    前記操作が行われたことに応じて、前記アイテムを前記検出手段により検出された視線に基づく視線位置に表示するように制御することを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  9. 前記制御手段は、
    前記操作が行われる前は、前記アイテムを所定の条件に基づく位置に表示し、
    前記操作が行われたことに応じて、前記アイテムを前記検出手段により検出された視線に基づく視線位置に移動して表示するように制御することを特徴とする請求項1乃至のいずれか1項に記載の電子機器。
  10. 前記制御手段は、
    前記操作が行われる前に、前記アイテムを所定の条件に基づく位置に表示するとき、前記視線ポインターを前記アイテムより下に重畳して表示するように制御することを特徴とする請求項1、3乃至のいずれか1項に記載の電子機器。
  11. 前記制御手段は、
    前記操作が行われる前に、前記アイテムを所定の条件に基づく位置に表示するとき、前記視線ポインターを前記アイテムより上に重畳して表示するように制御することを特徴とする請求項1、3乃至のいずれか1項に記載の電子機器。
  12. 前記制御手段は、前記操作が行われる前と、前記操作が行われた後とで、前記アイテムを異なる表示形態で表示するように制御することを特徴とする請求項2、9乃至11のいずれか1項に記載の電子機器。
  13. 前記制御手段は、
    前記操作が行われる前は、前記アイテムを非表示にし、
    前記操作が行われたことに応じて、前記アイテムを前記検出手段により検出されたユーザーの視線に基づく視線位置に基づいて表示するように制御することを特徴とする請求項1又は3に記載の電子機器。
  14. 前記電子機器は撮影パラメーターを用いて撮影処理を行う撮像装置であり、
    前記制御手段は、前記撮影パラメーターに関する情報を前記表示手段に更に表示し、
    前記視線ポインター及び前記アイテムは前記撮影パラメーターに関する情報よりも上に重畳して表示するように制御することを特徴とする請求項1乃至1のいずれか1項に記載の電子機器。
  15. 前記制御手段は、前記操作が行われたことに応じて、前記視線ポインター及び前記アイテムの表示順の設定により、前記視線ポインターを前記アイテムよりも下に重畳して表示するように制御することを特徴とする請求項1、2、4乃至1のいずれか1項に記載の電子機器。
  16. 前記制御手段は、前記自動焦点調節処理を実行したことに応じて、前記アイテムの表示位置又は前記アイテムの表示位置の近傍に、前記自動焦点調節処理の実行結果に関する情報を表示し、前記情報を、前記視線ポインターよりも上に重畳して表示するように制御することを特徴とする請求項に記載の電子機器。
  17. 前記制御手段は、前記自動焦点調節処理の実行結果に関する情報として、前記自動焦点調節処理の実行結果を前記アイテムの表示形態を変化させることにより表示するように制御することを特徴とする請求項16に記載の電子機器。
  18. 前記操作手段は、
    ユーザーが前記電子機器のグリップ部を右手で把持している状態において、被写体側とは反対側であって、前記反対側の面の中央位置より撮影指示を行うシャッターボタンの側、かつ、前記グリップ部の側に配置されていることを特徴とする請求項1乃至17のいずれか1項に記載の電子機器。
  19. 前記操作は、前記検出手段により検出された視線に基づく視線位置に基づいて前記自動焦点調節処理を実行する対象を決定するための操作であることを特徴とする請求項1に記載の電子機器。
  20. 前記操作手段への前記操作は、シャッターボタンへの半押し操作、または、前記自動焦点調節処理の実行を指示するためのボタンへの操作であることを特徴とする請求項19に記載の電子機器。
  21. ファインダーと、被写体を撮像する撮像手段を更に有し、
    前記表示手段は前記ファインダーの内部の表示手段であることを特徴とする請求項1乃至20のいずれか1項に記載の電子機器。
  22. 前記アイテムはマウスカーソルであることを特徴とする請求項2又は3に記載の電子機器。
  23. 表示手段を見るユーザーの視線を検出する検出ステップと、
    前記検出手段により検出されたユーザーの視線に基づく表示手段上での視線位置を示す視線ポインターを前記表示手段上での視線位置に表示し、前記検出手段により検出された視線に基づく視線位置の移動に追従して、前記視線ポインターを移動して表示するように制御し、
    ユーザーによる操作手段への操作が行われたことに応じて、アイテムを前記検出手段により検出されたユーザーの視線に基づく視線位置に基づいて表示するとともに、
    前記視線ポインターは前記アイテムよりも下に重畳して表示し、前記アイテムの表示位置に基づいて、自動焦点調整処理を実行するように制御する制御ステップと
    を有することを特徴とする電子機器の制御方法。
  24. コンピュータを請求項1乃至22のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
  25. コンピュータを請求項1乃至22のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。
JP2020177596A 2020-10-22 2020-10-22 電子機器及びその制御方法及びプログラム及び記録媒体 Active JP7346375B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020177596A JP7346375B2 (ja) 2020-10-22 2020-10-22 電子機器及びその制御方法及びプログラム及び記録媒体
US17/505,236 US11659267B2 (en) 2020-10-22 2021-10-19 Electronic device, control method thereof, and recording medium
CN202111226995.XA CN114390167A (zh) 2020-10-22 2021-10-21 电子装置及其控制方法和记录介质
US18/302,310 US20230300446A1 (en) 2020-10-22 2023-04-18 Electronic device, control method thereof, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177596A JP7346375B2 (ja) 2020-10-22 2020-10-22 電子機器及びその制御方法及びプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2022068749A JP2022068749A (ja) 2022-05-10
JP7346375B2 true JP7346375B2 (ja) 2023-09-19

Family

ID=81196144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177596A Active JP7346375B2 (ja) 2020-10-22 2020-10-22 電子機器及びその制御方法及びプログラム及び記録媒体

Country Status (3)

Country Link
US (2) US11659267B2 (ja)
JP (1) JP7346375B2 (ja)
CN (1) CN114390167A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023006771A (ja) * 2021-06-30 2023-01-18 キヤノン株式会社 制御装置およびその制御方法
WO2023248912A1 (ja) * 2022-06-23 2023-12-28 京セラドキュメントソリューションズ株式会社 電子機器及び制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007135835A1 (ja) 2006-05-19 2007-11-29 Panasonic Corporation 画像操作装置、画像操作方法、及び画像操作プログラム
JP2011114573A (ja) 2009-11-26 2011-06-09 Canon Inc 映像処理装置及び映像処理方法
JP2014514661A (ja) 2011-04-21 2014-06-19 株式会社ソニー・コンピュータエンタテインメント 注視支援コンピュータインターフェース
JP2015118531A (ja) 2013-12-18 2015-06-25 株式会社デンソー 表示制御装置およびプログラム
JP2018129659A (ja) 2017-02-08 2018-08-16 キヤノン株式会社 画像処理装置、撮像装置および制御方法
WO2020116001A1 (ja) 2018-12-03 2020-06-11 ソニー株式会社 情報処理装置および情報処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08184746A (ja) * 1994-12-27 1996-07-16 Nikon Corp 視線検出機能を有するカメラ
JP3724859B2 (ja) 1995-10-16 2005-12-07 富士通株式会社 画像表示システム
JP2011119930A (ja) * 2009-12-02 2011-06-16 Seiko Epson Corp 撮像装置、撮像方法および撮像プログラム
JP7027205B2 (ja) * 2018-03-19 2022-03-01 キヤノン株式会社 撮像制御装置、撮像制御装置の制御方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007135835A1 (ja) 2006-05-19 2007-11-29 Panasonic Corporation 画像操作装置、画像操作方法、及び画像操作プログラム
JP2011114573A (ja) 2009-11-26 2011-06-09 Canon Inc 映像処理装置及び映像処理方法
JP2014514661A (ja) 2011-04-21 2014-06-19 株式会社ソニー・コンピュータエンタテインメント 注視支援コンピュータインターフェース
JP2015118531A (ja) 2013-12-18 2015-06-25 株式会社デンソー 表示制御装置およびプログラム
JP2018129659A (ja) 2017-02-08 2018-08-16 キヤノン株式会社 画像処理装置、撮像装置および制御方法
WO2020116001A1 (ja) 2018-12-03 2020-06-11 ソニー株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US20230300446A1 (en) 2023-09-21
JP2022068749A (ja) 2022-05-10
CN114390167A (zh) 2022-04-22
US20220132024A1 (en) 2022-04-28
US11659267B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
JP7321786B2 (ja) 電子機器およびその制御方法
JP7208128B2 (ja) 撮像装置およびその制御方法
US20230300446A1 (en) Electronic device, control method thereof, and recording medium
EP3876517A1 (en) Electronic device, control method, program, and computer readable medium
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
JP7442331B2 (ja) 音声入力装置およびその制御方法ならびにプログラム
JP7467071B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
WO2020255675A1 (ja) 電子機器およびその制御方法
US20220321770A1 (en) Electronic device, control method for electronic device, and non-transitory computer readable storage medium
JP7301615B2 (ja) 電子機器およびその制御方法
JP2021145191A (ja) 撮像装置およびその制御方法、プログラム、並びに記憶媒体
JP2021114731A (ja) 撮像制御装置及びその制御方法
JP2022018244A (ja) 電子機器およびその制御方法
JP2021152597A (ja) 撮像装置およびその制御方法、プログラム並びに記憶媒体
JP2021140590A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2021097356A (ja) 撮像制御装置
JP2020197976A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
US11843849B2 (en) Electronic device, control method thereof, and recording medium
JP7451255B2 (ja) 電子機器及びその制御方法
WO2022131252A1 (ja) 電子機器及びその制御方法及びプログラム及び記録媒体
WO2023007904A1 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
WO2024095888A1 (ja) 撮像装置、制御方法およびプログラム
JP2022067578A (ja) 撮像装置及びその制御方法及びプログラム及び記録媒体
JP2022095306A (ja) 表示制御装置及びその制御方法
JP2023160103A (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R151 Written notification of patent or utility model registration

Ref document number: 7346375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151