JP2024036387A - 電子機器およびその制御方法 - Google Patents

電子機器およびその制御方法 Download PDF

Info

Publication number
JP2024036387A
JP2024036387A JP2024006206A JP2024006206A JP2024036387A JP 2024036387 A JP2024036387 A JP 2024036387A JP 2024006206 A JP2024006206 A JP 2024006206A JP 2024006206 A JP2024006206 A JP 2024006206A JP 2024036387 A JP2024036387 A JP 2024036387A
Authority
JP
Japan
Prior art keywords
line
area
sight
feature
sight determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024006206A
Other languages
English (en)
Inventor
康弘 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2024006206A priority Critical patent/JP2024036387A/ja
Publication of JP2024036387A publication Critical patent/JP2024036387A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】大きさおよび位置が不定な複数の画像領域の1つを視線によって選択可能とするための視線判定領域を適切に設定可能な電子機器およびその制御方法を提供すること。【解決手段】ユーザの視線に基づいて、画像中の注視点の位置を検出する視線検出手段と、画像から特徴領域を検出する領域検出手段と、特徴領域に視線判定領域を設定する設定手段と、注視点の位置を含んだ視線判定領域に対応する特徴領域を選択する選択手段と、を有し、設定手段は、特徴領域の大きさが予め定められた下限値以上の場合には特徴領域の大きさに応じた下限値以上の大きさを有する視線判定領域を設定し、特徴領域の大きさが下限値より小さい場合には下限値の大きさを有する視線判定領域を設定する、ことを特徴とする電子機器。【選択図】図5

Description

本発明は、電子機器およびその制御方法に関し、特には視線を用いた画像領域の選択を支援する技術に関する。
従来、同一の大きさを有し、位置が固定された複数の候補領域の1つを視線によって選択可能とした撮像装置が知られている(特許文献1)。このような撮像装置では、候補領域ごとに予め設定した検出領域のうち、視線の方向から得られる画像中の注視点の座標を含む視線判定領域に対応する候補領域を、ユーザが選択した焦点検出領域とみなすことができる。
特開2005-249831号公報 特開2014-182360号公報
例えば、大きさおよび位置が不定な複数の画像領域の1つを視線によって選択可能に構成しようとした場合、視線判定領域も動的に設定する必要があるが、従来、そのような技術は存在していなかった。
本発明はこのような従来技術の課題に鑑みてなされたものである。本発明は、大きさおよび位置が不定な複数の画像領域の1つを視線によって選択可能とするための視線判定領域を適切に設定可能な電子機器およびその制御方法を提供することを目的とする。
上述の目的は、ユーザの視線に基づいて、画像中の注視点の位置を検出する視線検出手段と、画像から特徴領域を検出する領域検出手段と、特徴領域に視線判定領域を設定する設定手段と、注視点の位置を含んだ視線判定領域に対応する特徴領域を選択する選択手段と、を有し、設定手段は、特徴領域の大きさにかかわらず、予め定められた下限値以上の大きさを有する視線判定領域を設定する、ことを特徴とする撮像装置によって達成される。
本発明によれば、大きさおよび位置が不定な複数の画像領域の1つを視線によって選択可能とするための視線判定領域を適切に設定可能な電子機器およびその制御方法を提供することができる。
実施形態に係る撮像装置の機能構成例を示すブロック図 実施形態に係る撮像装置の射出瞳と光電変換部との対応関係の例を示す図 実施形態に係る視線検出部の構成例を示す模式図 第1実施形態に係る主被写体選択に関する図 第1実施形態に係る視線判定領域の設定を説明するための図 第1実施形態に係る主被写体の選択動作に関するフローチャート 第1実施形態に係る視線判定条件の設定に関するフローチャート 第1実施形態に係る視線判定領域の大きさ決定および再配置に関するフローチャート 第1実施形態に係る視線判定領域の例を示す図 第1実施形態に係る主被写体の更新動作に関するフローチャート 第3実施形態に係る主被写体の選択動作に関するフローチャート 第4実施形態に係る主被写体の選択動作に関するフローチャート 第4実施形態に係る主被写体の更新動作に関するフローチャート 第4実施形態に係る視線判定領域の例を示す図 第5実施形態に係る注視時間の閾値と注視時間を示すインジゲータの例を示す図
●(第1実施形態)
以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、その全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
なお、以下の実施形態では、本発明をレンズ交換式のデジタルカメラで実施する場合に関して説明する。しかし、本発明は視線検出機能ならびに撮像機能を搭載可能な任意の電子機器に対して適用可能である。このような電子機器には、ビデオカメラ、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、ドローン、ドライブレコーダなどが含まれる。これらは例示であり、本発明は他の電子機器にも適用可能である。また、視線検出機能と撮像機能とを互いに通信可能な別個の機器(例えば本体とリモートコントローラ)に設ける構成にも本発明は適用可能である。
図1は、本発明の実施形態にかかる撮像装置の一例としてのデジタルカメラシステムの機能構成例を示すブロック図である。デジタルカメラシステムは、レンズ交換式デジタルカメラの本体100と、本体100に着脱可能なレンズユニット150とを有している。なお、レンズ交換式であることは本発明に必須でない。
レンズユニット150は本体100に装着されると本体100に設けられた通信端子10と接触する通信端子6を有する。通信端子10および6を通じて本体100からレンズユニット150に電源が供給される。また、レンズシステム制御回路4と本体100のシステム制御部50とは通信端子10および6を通じて双方向に通信可能である。
レンズユニット150において、レンズ群103は可動レンズを含む複数のレンズから構成される撮像光学系である。可動レンズには少なくともフォーカスレンズが含まれる。また、レンズユニット150によっては、変倍レンズ、ぶれ補正レンズの1つ以上がされに含まれうる。AF駆動回路3はフォーカスレンズを駆動するモータやアクチュエータなどを含む。フォーカスレンズは、レンズシステム制御回路4がAF駆動回路3を制御することによって駆動される。絞り駆動回路2は絞り102を駆動するモータアクチュエータなどを含む。絞り2の開口量は、レンズシステム制御回路4が絞り駆動回路2を制御することによって調整される。
メカニカルシャッタ101はシステム制御部50によって駆動され、撮像素子22の露光時間を調整する。なお、メカニカルシャッタ101は動画撮影時には全開状態に保持される。
撮像素子22は例えばCCDイメージセンサやCMOSイメージセンサである。撮像素子22には複数の画素が2次元配置され、各画素には1つのマイクロレンズ、1つのカラーフィルタ、および1つ以上の光電変換部が設けられている。本実施形態においては、各画素に複数の光電変換部が設けられ、光電変換部ごとに信号を読み出し可能に構成されている。画素をこのような構成にすることにより、撮像素子22から読み出した信号から撮像画像、視差画像対、および位相差AF用の像信号を生成することができる。
A/D変換器23は、撮像素子22から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換するために用いられる。なお、A/D変換器23は撮像素子22が備えてもよい。
図2(a)は、撮像素子22が有する画素が2つの光電変換部を有する場合の、レンズユニット150の射出瞳と各光電変換部との対応関係を模式的に示した図である。
画素に設けられた2つの光電変換部201aおよび201bは1つのカラーフィルタ252および1つのマイクロレンズ251を共有する。そして、光電変換部201aには射出瞳の部分領域253aを通過した光が、光電変換部201bには射出瞳の部分領域253bを通過した光が、それぞれ入射する。
したがって、ある画素領域に含まれる画素について、光電変換部201aから読み出された信号で形成される画像と、光電変換部201bから読み出される信号で形成される画像とは視差画像対を構成する。また、視差画像対は位相差AF用の像信号(A像信号およびB像信号)として用いることができる。さらに、光電変換部201aおよび201bから読み出される信号を画素ごとに加算することで、通常の画像信号(撮像画像)を得ることができる。
なお、本実施形態では撮像素子22の各画素が、位相差AF用の信号を生成するための画素(焦点検出用画素)としても、通常の画像信号を生成するための画素(撮像用画素)としても機能する。しかしながら、撮像素子22の一部の画素を専用の焦点検出用とし、他の画素を撮像用画素とした構成であってもよい。図2(b)は、専用の焦点検出用画素の構成と、入射光が通過する射出瞳の領域253についての一例を示している。図2(b)に示す構成の焦点検出用画素は、図2(a)の光電変換部201bと同様に機能する。実際には、図2(b)に示す構成の焦点検出用画素と、図2(a)の光電変換部201aと同様に機能する別の種類の焦点検出用画素とを撮像素子22の全体に分散配置することにより、実質的に任意の場所及び大きさの焦点検出領域を設定することが可能になる。
図2(a),(b)は、記録用の画像を得るための撮像素子を位相差AF用のセンサとして用いる構成であるが、本発明は大きさおよび位置が不定の焦点検出領域を利用可能であればAFの方式には依存しない。例えばコントラストAFを用いる構成であっても本発明は実施可能である。コントラストAFのみを用いる場合、各画素が有する光電変換部は1つである。
図1に戻り、A/D変換器23が出力する画像データ(RAW画像データ)は、必要に応じて画像処理部24で処理されたのち、メモリ制御部15を通じてメモリ32に格納される。メモリ32は画像データや音声データを一時的に記憶するバッファメモリとして用いられたり、表示部28用のビデオメモリとして用いられたりする。
画像処理部24は、画像データに対して予め定められた画像処理を適用し、信号や画像データを生成したり、各種の情報を取得および/または生成したりする。画像処理部24は例えば特定の機能を実現するように設計されたASICのような専用のハードウェア回路であってもよいし、DSPのようなプロセッサがソフトウェアを実行することで特定の機能を実現する構成であってもよい。
ここで、画像処理部24が適用する画像処理には、前処理、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理などが含まれる。前処理には、信号増幅、基準レベル調整、欠陥画素補正などが含まれる。色補間処理は、画像データに含まれていない色成分の値を補間する処理であり、デモザイク処理とも呼ばれる。補正処理には、ホワイトバランス調整、画像の輝度を補正する処理、レンズユニット150の光学収差を補正する処理、色を補正する処理などが含まれる。検出処理には、特徴領域(たとえば顔領域や人体領域)の検出および追尾処理、人物の認識処理などが含まれる。データ加工処理には、スケーリング処理、符号化および復号処理、ヘッダ情報生成処理などが含まれる。評価値算出処理には、位相差AF用の1対の像信号やコントラストAF用の評価値や、自動露出制御に用いる評価値などの算出処理が含まれる。なお、これらは画像処理部24が実施可能な画像処理の例示であり、画像処理部24が実施する画像処理を限定するものではない。また、評価値算出処理はシステム制御部50が行ってもよい。
D/A変換器19は、メモリ32に格納されている表示用の画像データから表示部28での表示に適したアナログ信号を生成して表示部28に供給する。表示部28は例えば液晶表示装置を有し、D/A変換器19からのアナログ信号に基づく表示を行う。
動画の撮影と、撮影された動画の表示とを継続的に行うことで、表示部28を電子ビューファインダ(EVF)として機能させることができる。表示部28をEVFとして機能させるために表示する動画をライブビュー画像と呼ぶ。表示部28は接眼部を通じて観察するように本体100の内部に設けられてもよいし、接眼部を用いずに観察可能なように本体100の筐体表面に設けられてもよい。表示部28は、本体100の内部と筐体表面との両方に設けられてもよい。
システム制御部50は例えばCPU(MPU、マイクロプロセッサとも呼ばれる)である。システム制御部50は、不揮発性メモリ56に記憶されたプログラムをシステムメモリ52に読み込んで実行することにより、本体100およびレンズユニット150の動作を制御し、カメラシステムの機能を実現する。システム制御部50は、通信端子10および6を通じた通信によってレンズシステム制御回路4に様々なコマンドを送信することにより、レンズユニット150の動作を制御する。
不揮発性メモリ56は書き換え可能であってよい。不揮発性メモリ56は、システム制御部50が実行するプログラム、カメラシステムの各種の設定値、GUI(Graphical User Interface)の画像データなどを記憶する。システムメモリ52は、システム制御部50がプログラムを実行する際に用いるメインメモリである。
システム制御部50はその動作の一部として、画像処理部24または自身が生成した評価値に基づく自動露出制御(AE)処理を行い、撮影条件を決定する。撮影条件は例えば静止画撮影であればシャッター速度、絞り値、感度である。システム制御部50は、設定されているAEのモードに応じて、シャッター速度、絞り値、感度の1つ以上を決定する。システム制御部50はレンズユニット150の絞り機構の絞り値(開口量)を制御する。また、システム制御部50は、メカニカルシャッタ101の動作も制御する。
また、システム制御部50は、画像処理部24または自身が生成した評価値もしくはデフォーカス量に基づいてレンズユニット150のフォーカスレンズを駆動し、レンズ群103を焦点検出領域内の被写体に合焦させる自動焦点検出(AF)処理を行う。
システムタイマー53は内蔵時計であり、システム制御部50が利用する。
操作部70はユーザが操作可能な複数の入力デバイス(ボタン、スイッチ、ダイヤルなど)を有する。操作部70が有する入力デバイスの一部は、割り当てられた機能に応じた名称を有する。シャッターボタン61、モード切り替えスイッチ60、電源スイッチ72は便宜上、操作部70と別に図示ししているが、操作部70に含まれる。表示部28がタッチディスプレイである場合、タッチパネルもまた操作部70に含まれる。操作部70に含まれる入力デバイスの操作はシステム制御部50が監視している。システム制御部50は、入力デバイスの操作を検出すると、検出した操作に応じた処理を実行する。
シャッターボタン61は半押し状態でONする第1シャッタースイッチ(SW1)62と、全押し状態でONする第2シャッタースイッチ(SW2)64とを有する。システム制御部50は、SW1 62のONを検出すると、静止画撮影の準備動作を実行する。準備動作には、AE処理やAF処理などが含まれる。また、システム制御部50は、SW2 64のONを検出すると、AE処理で決定した撮影条件に従った静止画の撮影および記録動作を実行する。
また、本実施形態の操作部70は、ユーザの視線方向を検出する視線検出部701を有している。視線検出部701はユーザが直接操作する部材ではないが、視線検出部701が検出した視線の方向を入力として取り扱うため、操作部70に含めている。
図3は、ファインダ内に設ける視線検出部701の構成例を模式的に示す側面図である。視線検出部701は、本体100の内部に設けられた表示部28をファインダのアイピースを通じて見ているユーザの眼球501aの光軸の回転角を視線の方向として検出する。検出された視線の方向に基づいて、ユーザが表示部28で注視している位置(表示画像中の注視点)を特定することができる。
表示部28には例えばライブビュー画像が表示され、ユーザはアイピースの窓を覗き込むことにより、表示部28の表示内容を接眼レンズ701dおよびダイクロックミラー701cを通じて観察することができる。光源701eは、アイピースの窓方向(本体100の外部方向)に赤外光を発することができる。ユーザがファインダを覗いている場合、光源701eが発した赤外光は眼球501aで反射されてファインダ内に戻ってくる。ファインダに入射した赤外光はダイクロックミラー701cで受光レンズ701b方向に反射される。
受光レンズ701bは、赤外光による眼球像を撮像素子701aの撮像面に形成する。撮像素子701aは赤外光撮影用のフィルタを有する2次元撮像素子である。視線検出用の撮像素子701aの画素数は撮影用の撮像素子22の画素数よりも少なくてよい。撮像素子701aによって撮影された眼球画像はシステム制御部50に送信される。システム制御部50は、眼球画像から赤外光の角膜反射の位置と瞳孔の位置とを検出し、両者の位置関係から視線方向を検出する。また、システム制御部50は、検出した視線方向に基づいて、ユーザが注視している表示部28の位置(表示画像中の注視点)を検出する。なお、眼球画像から角膜反射の位置と瞳孔の位置を画像処理部24で検出し、システム制御部50は画像処理部24からこれらの位置を取得してもよい。
なお、本発明は視線検出の方法や視線検出部の構成には依存しない。したがって、視線検出部701の構成は図3(a)に示したものに限定されない。例えば、図3(b)に示すように、本体100の背面に設けられた表示部28の近傍に配置されたカメラ701fにより得られた撮像画像に基づいて視線を検出してもよい。点線で示すカメラ701fの画角は、表示部28を見ながら撮影を行うユーザの顔が撮影されるように定められている。カメラ701fで撮影した画像から検出した目領域の画像に基づいて視線の方向を検出することができる。赤外光の画像を用いる場合にはカメラ701fの近傍に配置した光源701eで画角内の被写体に赤外光を投写して撮影を行えばよい。得られた画像から視線の方向を検出する方法は図3(a)の構成と同様でよい。また、可視光の画像を用いる場合には光を投射しなくてもよい。可視光の画像を用いる場合には、目領域の目頭と虹彩の位置関係などから視線の方向を検出することができる。
再び図1に戻り、電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。
電源部30は、電池やACアダプター等からなる。I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200には、撮影された画像や音声などのデータファイルが記録される。記録媒体200に記録されたデータファイルはI/F18を通じて読み出され、画像処理部24およびシステム制御部50を通じて再生することができる。
通信部54は、無線通信および有線通信の少なくとも一方による外部機器との通信を実現する。撮像素子22で撮像した画像(ライブビュー画像を含む)や、記録媒体200に記録された画像は、通信部54は通じて外部機器に送信可能である。また、通信部54を通じて外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は重力方向に対する本体100の姿勢を検知する。姿勢検知部55は加速度センサ、または角速度センサであってよい。システム制御部50は、撮影時に姿勢検知部55で検知された姿勢に応じた向き情報を、当該撮影で得られた画像データを格納するデータファイルに記録することができる。向き情報は、例えば記録済みの画像を撮影時と同じ向きで表示するために用いることができる。
本実施形態の本体100は、画像処理部24が検出した特徴領域が適切な画像となるように各種の制御を実施することが可能である。このような制御には以下の様なものがある。特徴領域に合焦させる自動焦点検出(AF)、特徴領域が適正露出となるような自動露出制御(AE)、特徴領域のホワイトバランスが適切になるような自動ホワイトバランス、および特徴領域の明るさが適切になるような自動フラッシュ光量調整。ただし、これらに限定されない。画像処理部24(領域検出手段)は例えばライブビュー画像に対して公知の方法を適用して、予め定められた特徴に当てはまると判定される領域を特徴領域として検出し、各特徴領域の位置、大きさ、信頼度といった情報をシステム制御部50に出力する。本発明は特徴領域の種類や検出方法には依存せず、また特徴領域の検出には公知の方法を利用可能であるため、特徴領域の検出方法についての説明は省略する。
また、特徴領域は、被写体情報を検出するためにも用いることができる。特徴領域が顔領域の場合、被写体情報としては、例えば、赤目現象が生じているか否か、目をつむっているか否か、表情(例えば笑顔)などがあるが、これらに限定されない。
本実施形態では、大きさおよび位置が不定である複数の画像領域の一例としての複数の特徴領域から、各種の制御に用いたり、被写体情報を取得したりするための1つの特徴領域(以下、主被写体領域と呼ぶ)を、ユーザが視線を用いて選択することを支援する。以下、検出されたユーザの視線を視線入力と呼ぶ。
[視線入力の特徴]
スイッチやボタンの操作による入力に対する視線入力の特徴は、以下の2点である。1点目は、視線入力の場合、視線入力の方向(視線方向)が常に検出されているため、ユーザ指示の入力タイミングが特定できないことである。例えば、ボタン操作であれば、ボタン操作が検出されたタイミングをユーザ指示のタイミングと見なすことができる。しかし、視線方向は継続的に検出され、また変化するため、どの時点の視線方向がユーザの意図した視線方向かを判定することができない。
2点目は、生体由来であることによる視線方向の不安定さである。ある一点を注視しているつもりでも、眼球が微小に移動したり、無意識に視線を外してしまったりすることがある。したがって、画像中の注視点を特定するためには、ある時間にわたって検出された視線方向を統計的に処理する必要がある。
[視線入力による主被写体(または主被写体領域)の選択方法の概要]
本実施形態では、検出された特徴領域ごとに視線判定領域を設定する。そして、視線判定領域内に注視点の位置が存在する時間を、その視線判定領域に対応する特徴領域に対する注視時間として算出する。そして、注視時間が最初に閾値を超えた視線判定領域に対応する特徴領域を、ユーザが選択した主被写体領域と見なす。なお、主被写体領域の選択は、写っている被写体の選択でもあるため、主被写体の選択とも言える。
図4(a)は、特徴領域として顔領域を検出する構成において、画像中に2つの顔351、361が存在し、画像処理部24(領域検出手段)が顔領域352、362を検出した例を模式的に示している。図4(a)では顔領域352、362に対する視線判定領域353、363と、特徴領域に対応しない視線判定領域373とが設定されている。視線判定領域の設定方法に関しては後で詳しく説明する。
図4(b)には、検出した注視点に基づく注視時間の経時変化と主被写体(領域)の判定との例を示している。図4(b)は、システム制御部50が管理するシステムメモリ52内の領域に記憶された値の時系列的な変化を示す。ここでは、ライブビュー画像の各フレームについて、特徴領域の検出および注視点の検出を行うものとする。図4(b)には第1フレームから第6フレームについて、各フレームで検出された注視領域と、視線判定領域ごとの累積注視時間、主被写体の判定結果が示されている。なお、注視領域とは注視点の位置を含んでいる視線判定領域である。また、図4(b)に示す例では、注視時間の閾値(フレーム数)が3であり、第1フレームで視線判定領域が設定されたものとする。
第1フレームでは、視線判定領域353が注視領域であったため、システム制御部50は視線判定領域353の注視時間を1(フレーム)に更新する。システム制御部50は、注視領域以外の視線判定領域については注視時間を更新しない。第2フレームでも視線判定領域353が注視領域であったため、システム制御部50は視線判定領域353の注視時間を2(フレーム)に更新する。第3フレームで、注視領域が視線判定領域373に変化し、システム制御部50は視線判定領域373の注視時間を1(フレーム)に更新する。第4フレームでは、視線判定領域363が注視領域に変化し、システム制御部50は視線判定領域363の注視時間を1(フレーム)に更新する。第5フレームでは、注視領域が視線判定領域353に変化し、システム制御部50は視線判定領域353の注視時間を3に更新する。
この時点で、視線判定領域353の注視時間が閾値以上となったため、システム制御部50は、視線判定領域353に対応する被写体351を主被写体と判定する。また、主被写体が設定(変更)すると、システム制御部50はすべての視線判定領域に対する注視時間を0(フレーム)にリセットする。第6フレームでは、注視領域が視線判定領域353のままであり、システム制御部50は視線判定領域353の注視時間を1(フレーム)に更新する。第6フレームでは注視時間が閾値以上である視線判定領域が存在しないため、主被写体は第5フレームと同様に被写体351のままである。
このように、いずれかの視線判定領域の注視時間が閾値以上になると、全ての視線判定領域の注視時間をリセットする。なお、特徴領域に対応しない視線判定領域373の注視時間が閾値以上になった場合、システム制御部50は全ての視線判定領域の注視時間をリセットする。この際、主被写体についての判定結果は変更しなくてよい。これにより、意図しない被写体を注視してしまっても、特徴領域以外の領域を注視するように視線方向を変えることにより、ユーザが注視時間をリセットすることができる。また、特徴領域に対応しない視線判定領域373の注視時間が閾値以上になった場合、注視時間をリセットするだけでなく、主被写体の選択結果についてもリセットしてもよい。この場合、ユーザがいずれの特徴領域も注視していないと主被写体が選択されなくなるため、ユーザが被写体を注視しているか否かを常に検出することができる。
[特徴領域を視線判定領域とした場合に生じる課題]
次に、図5を用いて、特徴領域をそのまま視線判定領域として設定した場合に生じる課題について説明する。図5(a)は、特徴領域として3つの顔領域301~303が検出された例を示している。図5(a)に示す例においては、被写体距離の違いにより、顔領域303が顔領域301、302よりも大きい。このように、特徴領域の大きさに差がある場合、特徴領域をそのまま視線判定領域として設定すると、大きな特徴領域に対応する被写体と比較して小さな特徴領域に対応する被写体の選択が難しくなる。また、特徴領域の大きさに差が無くても、特徴領域が小さくなると被写体の選択が難しくなる。
[本実施形態による視線判定領域の設定]
一方、図5(b)は、図5(a)と同様の特徴領域に対する本実施形態における視線判定領域の設定例を示している。図5(b)に示す例では、全ての特徴領域301~303に対して同じ大きさの視線判定領域304~306を設定している。これにより、被写体間の選択容易性の差を抑制するとともに、特徴領域の小さな被写体に対する選択を容易にすることができる。ここでは、特徴領域よりも小さい視線判定領域を設定する場合には特徴領域と中心座標が等しくなるようにしている。また、特徴領域よりも大きな視線判定領域を設定する場合には、特徴領域を包含し、中心座標ができるだけ特徴領域の中心座標と近くなるようにしている。なお、視線判定領域は互いに重複しないように設定する。
なお、図5(b)では本実施形態における視線判定領域の設定方法の一例として、全ての特徴領域に対して同一の大きさの視線判定領域を設定する例を示した。しかしながら、特徴領域の大きさの差に起因する選択容易性の差を抑制可能であるか、特徴領域の絶対的な大きさが小さいことに起因する選択容易性を改善可能であれば、全ての特徴領域に対して同一の大きさの視線判定領域を設定しなくてもよい。
例えば、所定の下限値を下回る大きさを有する特徴領域については特徴領域よりも大きな特定の大きさ(例えば下限値に等しい大きさ)の視線判定領域を設定し、下限値以上の大きさを有する特徴領域についてはそのまま視線判定領域として設定してもよい。また、所定の上限値以上の大きさを有し、かつ次に大きな特徴領域との大きさとの差が閾値以上である特徴領域については、特徴領域よりも小さな特定の大きさ(例えば上限値に等しい大きさ)の視線判定領域を設定してもよい。また、視線判定領域の大きさを、特徴領域の位置や大きさに応じて動的に定めてもよい。視線判定領域の設定動作の詳細については後でさらに説明する。
[視線入力による主被写体の選択動作]
次に、本実施形態における視線入力による主被写体の選択動作に関して、図6~図8(b)に示すフローチャートを用いて説明する。この動作は例えば撮影スタンバイ状態において表示部28にライブビュー画像が表示されている際に、ライブビュー画像の生成や表示に関する動作を並行して実行することができる。
S1において画像処理部24(領域検出手段)において特徴領域の検出処理を実行する。画像処理部24は検出した特徴領域の数や、個々の特徴領域の情報(例えば大きさ、位置、信頼度など)をシステム制御部50に出力する。特徴領域は人物の顔検出に限らず、人体領域、瞳領域、動物の顔領域、乗り物領域など、パターンマッチングなど公知の技術によって検出可能な任意の特徴領域であってよい。また、特徴領域の候補の検出のみを行ってもよい。
S2においてシステム制御部50(設定手段)は、視線判定条件(視線判定領域の位置および大きさ、注視時間の閾値)を設定する。視線判定条件の設定動作の詳細については後述する。
S3においてシステム制御部50は、S2で決定した視線判定領域の位置および大きさを表す指標(例えば枠)を、ライブビュー画像に重畳して表示部28に表示する。このとき、特徴領域と視線判定領域との対応関係が把握できるように、特徴領域についても位置および大きさを示す指標をライブビュー画像に重畳して表示部28に表示してもよい。特徴領域を表す指標と、視線判定領域を表す指標とは視覚的に区別できるように指標もしくは表示形態を異ならせる。なお、特徴領域だけをユーザに通知し、視線判定領域はユーザに通知せずに内部処理で用いるだけとしてもよい。
S4においてシステム制御部50(視線検出手段)は、視線検出部701から画像を取得し、図3に関して説明したようにして視線方向を検出する。さらに、システム制御部50は、検出した視線方向に基づいて、ユーザが注視している表示部28もしくはライブビュー画像中の位置(注視点の位置)を特定する。
S5においてシステム制御部50は、S2で設定した視線判定領域と、S4で検出した注視点の位置とから、ユーザが注視している視線判定領域を特定する。そして、システム制御部50は、図4に関して説明したように、注視時間の更新またはリセット、および主被写体の判定または変更といった主被写体の更新処理を行う。主被写体の更新処理の詳細については後述する。
S6でシステム制御部50は、例えばSW1 62のONまたはSW2 64のONを検出したり、視線の検出ができないといった、終了条件が満たされたか否かを判定する。システム制御部50は、終了条件が満たされたと判定された場合にはその時点で判定されている主被写体が選択されたものとして処理を終了する。一方、システム制御部50は、終了条件が満たされたと判定されない場合には処理をS1に戻す。
なお、特徴領域の検出を行うフレームレートF1と、視線検出を行うフレームレートF2が異なる場合、フレームレートF1でS1~S3を実施し、フレームレートF2でS4、S5を実施してもよい。
[視線判定条件の設定]
次に、図6のS2で行う視線判定条件の設定の詳細に関して説明する。ここでは視線判定領域を正方形状とし、位置として中心位置を決定するものとするが、これらは単なる例示であり、他の形状としたり、他の位置を決定してもよい。
図5に関して説明したように、視線判定領域が小さいと、対応する被写体を視線入力によって選択することが難しくなる。そのため、全ての特徴領域に対してある程度以上の大きさを有する視線判定領域を設定することが望ましい。しかし、大きさが閾値以下の特徴領域について、中心位置が特徴領域と同一で、閾値より大きい所定の大きさの視線判定領域を設定すると、近接する複数の特徴領域についての視線判定領域が重複することが起こりうる。
視線判定領域の中心位置を対応する特徴領域の中心位置からずらして設定することが考えられるが、中心位置間のずれが大きくなると、視線判定領域と特徴領域との対応関係が不明確になり、ユーザを混乱させるおそれがある。
このような観点から、本実施形態では、システム制御部50は、まず、特徴領域と中心位置が等しく、他の視線判定領域と重複しない大きさの視線判定領域を仮設定する。そして、システム制御部50は、仮設定した視線判定領域の大きさが予め定められた下限値を超える場合には、仮設定した視線判定領域を最終的な視線判定領域として設定する。一方、仮設定した視線判定領域の大きさが下限値を下回る場合、システム制御部50は、大きさを下限値に変更した上で、視線判定領域の位置を変更する。具体的には、システム制御部50は、閾値以下の移動量で、他の視線判定領域と重複しない位置を探索し、位置を決定する。このように、仮設定した視線判定領域の大きさが下限値を下回る場合、システム制御部50は、下限値の大きさを有し、中心位置が対応する特徴領域の中心位置からずれた視線判定領域を設定する。本実施形態によれば、位置や大きさが不定の特徴領域に対し、視線による選択容易性を確保した視線判定領域を設定することができる。
具体的な視線判定領域の設定動作に関して、図7~図8(b)のフローチャートを用いてさらに説明する。なお、図4(a)に示した視線判定領域373のような、特徴領域に対応しない視線判定領域は、ここで説明する動作とは別に設定される。S21においてシステム制御部50は、特徴領域のそれぞれについて、視線判定領域を仮設定する。仮設定に関して図8(a)のフローチャートを用いてさらに説明する。ここでは説明を簡単にするために、水平方向のみを考慮して視線判定領域の大きさを決定するものとするが、水平方向と垂直方向の両方を考慮してもよい。
システム制御部50は、他の視線判定領域との重複が発生しない範囲で最大の大きさを有する視線判定領域を仮設定する。まず、S211でシステム制御部50は、検出されている全ての特徴領域間の距離を算出する。ここでは、特徴領域の中心位置の水平方向における最短距離を算出する。そして、S212でシステム制御部50は、算出した最短距離を水平方向の大きさとする視線判定領域を仮設定する。つまり、仮設定される視線判定領域の大きさは特徴領域の大きさによらず一定である。本実施形態では視線判定領域は正方形であるため、垂直方向においても水平方向と同じ大きさを有する。なお、この時点では、算出した最短距離の大きさについては考慮しない。
このようにして視線判定領域の大きさを決定することにより、少なくとも水平方向において他の視線判定領域と重複しない視線判定領域を仮設定することができる。なお、垂直方向についても考慮する場合、例えば特徴領域の中心位置間の垂直方向および水平方向における最短距離のうち小さい方を、視線判定領域の大きさとして用いることができる。
なお、対応する特徴領域の大きさとの差が大きい(例えば水平方向の大きさの比が閾値以上の)視線判定領域については、大きさを変更してもよい。例えば、視線判定領域が特徴領域に対して小さすぎる場合には大きく、大きすぎる場合には小さくすることができる。例えば、特徴領域の大きさを1とした視線判定領域の大きさの最大値および最小値を予め定めておき、仮設定時の大きさが最大値を上回る場合には最大値に、最小値を下回る場合には最小値に、それぞれ大きさを調整してもよい。
特徴領域と、仮設定された視線判定領域との一例を図9(a)に示す。図9(a)は、図5(a)と同様に3つの顔領域が特徴領域として検出されている例を示している。図9(a)において、特徴領域301~303に対し、視線判定領域307~309が仮設定されている。図9(a)の例において、中心位置間の距離が最短なのは特徴領域301と302である。視線判定領域の大きさを特徴領域301と302の中心間距離に等しく設定しているため、視線判定領域307および308は水平方向に接している。
図7に戻り、S23でシステム制御部50は、仮設定した視線判定領域の大きさが予め定められた下限値よりも小さいか否かを判定する。仮設定した視線判定領域の大きさがいずれも下限値以上と判定されれば、システム制御部50は、仮設定した視線判定領域を最終的な視線判定領域として、処理をS26に進める。一方、仮設定した視線判定領域に下限値より小さいものがあると判定された場合、システム制御部50は処理をS24に進める。
なお、S23で用いる下限値とは、視線入力による選択が困難でない視線判定領域の大きさとして予め定められた値である。下限値は、視線検出部701の検出精度や、ユーザ間の視線方向のばらつきなどを考慮し、十分な視線入力精度を実現できる値として例えば実験的に定めることができる。ここでは、図9(a)に示した、仮設定した視線判定領域307~309の大きさが同一であり(調整されておらず)、かつ下限値よりも小さいものとする。
S24でシステム制御部50は、仮設定した視線判定領域のうち、下限値よりも小さいものの大きさを下限値に変更する。図9(b)に、視線判定領域307~309の大きさを下限値に変更した視線判定領域310~312を示す。視線判定領域の大きさを下限値となるように増加させると、視線判定領域310と311のように互いに重複する視線判定領域が発生しうる。
S25でシステム制御部50は、S24により生じた視線判定領域間の重複を解消するために、視線判定領域の位置を調整する。位置調整の詳細について、図8(b)に示すフローチャートを用いて説明する。
S251でシステム制御部50は、視線判定領域に重複が発生しているか否かを判定し、発生していると判定されればS252へ、判定されなければS256へ、それぞれ処理を進める。
S252でシステム制御部50は、重複している2つの視線判定領域を選択する。なお、図9(b)に示す例では重複は1か所のみであるが、重複した視線判定領域が複数組存在する場合には、例えば中心位置間の距離が大きい組から1組ずつ選択することができる。これは、中心位置間の距離が大きい視線判定領域ほど少ない調整量で重複を解消でき、最終的により多くの重複を解消できると考えられるためである。
中心位置間の距離が小さい視線判定領域は、密集した特徴領域に設定されている可能性が高く、1つの重複を解消するように視線判定領域の位置を調整すると、別の重複を発生させる可能性が高いことが予想される。また、全ての重複が解消できても、視線判定領域が密集していることから、視線によって所望の領域を選択することが容易でないことが予想される。そのため、重複した視線判定領域が複数組存在する場合には、中心位置間の距離が大きい組から位置を調整する。
S253でシステム制御部50は、選択した2つの視線判定領域の位置を変更する。図9(b)に示した例では、システム制御部50は、視線判定領域310と311の位置を、中心位置間の距離が大きくなるように水平方向に移動させる。なお本実施形態では水平方向のみを考慮しているため水平方向に移動させている。水平方向と垂直方向を考慮する場合には垂直方向にも移動させてもよい。
なお、ここでは特徴領域と視線判定領域との中心位置間のずれを小さくするため、2つの視線判定領域の両方について位置を変更している。しかし、特徴領域と視線判定領域との中心位置間のずれが予め定められた範囲内に収まる場合には、一方の視線判定領域についてのみ位置を変更してもよい。S253において、視線判定領域310を水平左方向に、視線判定領域311を水平右方向に移動させて重複を解消した状態が、図5(b)に示す状態である。
S254でシステム制御部50は、S253における位置の調整により、視線判定領域間に新たな重複が発生したか否かを判定し、発生したと判定されればS255へ処理を進め、判定されなければS251に処理を戻す。
S255でシステム制御部50は、重複しないように視線判定領域の位置を調整することができないと判定して、処理を終了する。この場合、他の視線判定領域と重複していない視線判定領域については有効とし、他の視線判定領域と重複している視線判定領域には無効とすることができる。無効とされた視線判定領域に対応する特徴領域は、視線を用いて選択することができない。
S256でシステム制御部50は、視線判定領域間の重複が存在しないと判定して、処理を終了する。
図7に戻り、S26においてシステム制御部50は、注視時間の閾値を設定する。注視時間の閾値が長いと主被写体が切り替わりにくく、短いと主被写体が切り替わりやすくなる。注視時間の閾値は、すべての被写体(特徴領域)に共通であってよい。
しかしながら、閾値を特徴領域に応じて異ならせてもよい。例えば、小さい特徴領域には別の小さな特徴領域が隣接する可能性が高い。そのため、小さい特徴領域には大きな特徴領域よりも注視時間の閾値を長くして、頻繁に主被写体が切り替わることを避けてもよい。あるいは、大きい特徴領域はユーザが意図している被写体である可能性が高いため、注視時間の閾値を短く設定して、短時間で主被写体になるようにしてもよい。また、注視時間の閾値を長くするか短くするかはユーザが例えばメニュー画面から設定可能としてもよい。
[主被写体の更新のフローチャート]
次に、図6のS5で行う主被写体の更新動作の詳細について、図10に示すフローチャートを用いて説明する。図4に関して説明したように、システム制御部50は、S2で設定した視線判定条件とS4で検出した注視点の位置とに基づいて、視線判定領域ごとに注視時間を更新する。そして、注視時間が閾値に達したことに応じてシステム制御部50は主被写体を更新する。
S51においてシステム制御部50は、全ての視線判定領域について、注視時間を更新済みか否かを判定し、更新済みと判定されればS58へ、判定されなければS52へ処理を進める。なお、ここでは、特徴領域に対応しない視線判定領域(図4(a)の視線判定領域373)についても判定の対象とする。
S52においてシステム制御部50は、注視時間が更新されていない視線判定領域を1つ選択する。
S53においてシステム制御部50は、S4において検出された注視点の位置が、選択した視線判定領域内に存在するか否かを判定し、存在すると判定されればS54へ、判定されなければS55へ処理を進める。
S54においてシステム制御部50は、選択した視線判定領域の注視時間を更新する。本実施形態では注視時間の単位をフレーム数としているため、システム制御部50は、選択した視線判定領域に対応するカウント値を1増加させる。
S55においてシステム制御部50は、選択した視線判定領域の注視時間が第1の閾値以上であると判定されればS56へ処理を進め、判定さなければS51へ処理を戻し、次の視線判定領域について注視時間の更新動作を行う。
S56においてシステム制御部50(選択手段)は、選択した視線判定領域に対応する被写体を主被写体として選択する。ただし、選択した視線判定領域がいずれの特徴領域にも対応していない視線判定領域だった場合、システム制御部50は、主被写体を変更しないか、主被写体が選択されていない状態に変更する。主被写体を変更しない場合、ユーザが特徴領域以外の領域を見ても主被写体が変化しないようにすることができる。例えば、風景写真の撮影時など、ユーザが構図を決めるために主被写体以外を見るような状況に適している。一方、主被写体がない状態に変更する場合、ユーザが主被写体を頻繁に切り替える状況(例えば被写体がフレームイン、フレームアウトしやすい状況)に適している。したがって、いずれの特徴領域にも対応していない視線判定領域についての注視時間が閾値を超えた場合の動作について、システム制御部50は選択されている撮影モードや撮影シーンの認識結果などに応じて決定してもよい。
S57においてシステム制御部50は、全ての視線判定領域について注視時間を0にリセットし、主被写体の更新動作を終了する。
S58においてシステム制御部50は、主被写体を変更することなく更新動作を終了する。
以上説明したように本実施形態では、大きさおよび位置が不定な複数の画像領域のそれぞれに対し、画像領域の大きさにかかわらず、少なくとも予め定められた下限値の大きさを有する視線判定領域を設定するようにした。そのため、小さな画像領域に対しても視線を用いた安定的な選択を実現することができる。
●(第2実施形態)
次に、本発明の第2実施形態について説明する。本実施形態では、被写体の特性を考慮して、視線判定条件を設定する。例えば、学習済みの畳み込みニューラルネットワーク等を用いることにより、風景、集合写真、サッカーなど、撮影しようとしているシーンを判別したり、人物の部位(頭部、瞳、手、足など)や姿勢を検出したりすることが可能である。被写体の特性に適切な視線判定条件を自動で設定することにより、視線を用いた快適な入力操作を実現することができる。本実施形態では、被写体の特性の例として、(1)動きおよび(2)注目部位を考慮して視線判定条件を設定する。以下の説明において、特に説明されていない構成および動作については第1実施形態と共通である。
また、被写体の種類についても考慮して視線判定条件を設定する。本実施形態では、画像処理部24が特定の被写体の検出器を有し、不揮発性メモリ56には検出結果に対応した視線判定条件を示すテーブルが予め記憶されているものとする。ここでは画像処理部24が人物、動物、電車という3種類の被写体それぞれに対する検出器を有し、不揮発性メモリ56がそれぞれの種類の被写体に対する視線判定条件を記憶したテーブルを記憶しているものとする。システム制御部50は、画像検出部24から被写体が動物であるとの検出結果が与えられた場合、動物に適した視線判定条件を不揮発性メモリ56から取得して設定する。なお、被写体の動きのように、必要な際に算出可能な特性に基づいて視線判定条件を設定する場合には、視線判定条件を予め記憶しておく必要は無い。
[被写体の動き特性の活用]
被写体の動き特性に応じた視線判定条件を用いることにより、快適な視線入力操作を実現することができる。動きが速い被写体はフレームインしてからフレームアウトするまでの時間が短い。そのため、動きが速い被写体に対しては、注視時間の閾値を短くすることで、主被写体の選択を容易にすることができる。動きの速い被写体には例えば、レーシングカー、電車、飛行機、動物、子供などがある。そのため、画像処理部24においてこれらの被写体が検出された場合には、注視時間の閾値を短く設定し、すぐに主被写体選択ができるようにする。
また、視線判定領域を大きくすることにより、被写体の表示に対して視線判定領域の設定、表示に遅延が発生した場合でも、安定した視線入力操作を実現することができる。具体的には、図7のS23、S24で用いる下限値を大きい値に設定することで、表示遅延に対するマージンを設けられる。
一方、動きが遅い、もしくは静止している被写体に対しては、注視時間の閾値を長くした方がよい。注視時間の閾値が短いと、ユーザが画角内の様々な場所を見ながら構図を決定する最中に主被写体が切り替わりやすくなり使い勝手が悪い。このような被写体(シーン)には例えば、集合写真や風景写真などが含まれる。そのため、画像処理部24においてこれらの被写体やシーンが検出された場合や、被写体の動きが遅い(閾値未満)場合には、注視時間の閾値を長く設定する。
また、視線判定領域を小さくすることにより、構図を決めるために視線を動かしても、意図しない主被写体が選択されにくくすることができる。具体的には、図6のS3において、視線判定領域を設定した後に、下限値以上の大きさの視線判定領域を一律の割合で小さくする方法が考えられる。ただし、視線判定領域の大きさが下限値未満になってしまう場合は下限値に設定する。
なお、ここで説明した注視時間の閾値の調整は、基準となる注視時間の閾値に対して短く、もしくは長くすることができる。基準となる注視時間の閾値は、予め定められた標準値であってよいが、それに限定されない。
[動きの速い被写体に対する過去の注視点位置の活用]
また、動きが速い被写体に対しては、視線判定領域を設定する前に注視点の位置を検出してもよい。視線判定領域が設定されてから注視点の位置の検出を開始すると、主被写体が最初に選択されるまでに最低でも注視時間の閾値に等しい時間を要する。そのため、主被写体が選択されるまでの間にシャッターチャンスを逃すことが起こりうる。
そのため、被写体の動きが速い(例えば閾値以上である)場合、システム制御部50は、視線判定領域を設定する前に検出された注視点の位置の時系列データについて、直近の所定数のデータの移動平均を直前の注視点の位置として毎フレーム算出する。そして、システム制御部50は、視線判定領域を設定すると、直前の注視点の位置を含む視線判定領域に対応する被写体を主被写体として直ちに選択する。これにより、主被写体が最初に選択されるまでのタイムラグを短縮することができる。なお、被写体の動きが速い場合には、特徴領域をそのまま視線判定領域として用い、視点判定領域の大きさや位置の調整に要する時間を削減してもよい。
なお、被写体の種類により、このような制御を行うか否かを切り替えてもよい。例えば、被写体の動きが速くても、特徴領域として人物の瞳領域を検出する場合には直前の注視点の位置を用いず、特徴領域として動物の瞳領域を検出する場合には直前の注視点の位置を用いるようにしてもよい。また、被写体の他の特性に応じて直前の注視点の位置を用いるか否かを切り替えてもよい。
[ユーザが着目する部位情報の活用]
特徴領域のうちユーザが注視する部位が偏っている場合がある。例えば、特徴領域が顔領域である場合、ユーザは、顔領域内の目、すなわち顔領域の上半分を注視する可能性が高い。また、特徴領域が人物の全身領域である場合、ユーザは全身領域のうち頭部、すなわち全身領域の上端部を注視する可能性が高い。
そのため、図7のS21で視線判定領域を仮設定する際に、視線判定領域の中心位置を特徴領域の中心位置からユーザが注視する可能性が高い領域の方向にずらしてもよい。例えば、特徴領域が顔領域であれば、仮設定する視線判定領域の中心位置を、視線判定領域の縦方向の大きさの所定割合(例えば25%)、上方向にずらすことなどが考えられる。なお、中心位置のずらし量または割合は、特徴領域の種類に応じて予め定めておくことができる。
視線判定領域の中心位置をユーザが注視する傾向を考慮して設定した場合、対応する特徴領域との関係が分かりづらくなる場合がある。そのため、視線判定領域を表す指標を図4(a)や図5(b)のように表示する場合には、ユーザが注視する傾向を考慮しない状態での中心位置を用いてもよい。
また、注視する部位と、ピントを合わせたい部位が異なる場合がある。例えば、サッカーシーンを撮影する場合、選手の瞳にピントを合わせたいが、ボールを注視しているような場合が考えられる。このような場合、図7のS21の視線判定領域の大きさ算出において、ユーザが注視する傾向を加味して、視線判定領域の大きさを設定することができる。
一方、検出された特徴領域のうち、ユーザがピントを合わせる可能性が高い部位のみを用いて、焦点検出を行ってもよい。例えば、サッカーシーンで全身領域が検出されている場合、サッカーでは選手の足元を注視する可能性が高いため、視線判定領域の大きさを、全身領域の縦方向の大きさの所定割合(例えば20%)、足元の方向に大きく設定することができる。一方で、ピントは顔や瞳に合わせたい可能性が高いため、焦点検出については全身領域の上端部(例えば上端から縦方向の大きさの20%のみ)を用いることができる。
なお、全身領域から頭部、足、手などの領域を推定する代わりに、全身領域に対して部位の検出処理を適用して頭部領域、足領域、手領域などを検出してもよい。
なお、部位の検出を行い、それぞれの部位に対して、被写体の動き情報を活用し、視線判定条件を設定してもよい。例えば、ボクシングでは手が頻繁に動くことが予想されるため、ボクシングのシーンにおける、人物の手の領域に対しては、視線判定領域を大きく設定することが考えられる。また、短い注視時間で主被写体判定ができるように、短い注視時間の閾値を設定することが考えられる。
なお、上述した視線判定領域、焦点検出領域、注視時間の閾値などの設定は、画像処理部24によるシーン判定や特徴領域の検出結果に基づいてシステム制御部50が自動で変更することができる。もちろん、ユーザがメニュー画面から頭部、手、足などの部位を選択し、部位ごとに視線判定領域の大きさ、焦点検出領域として用いる領域、注視時間の閾値などを設定できるように構成してもよい。
また、被写体の姿勢によっては、ユーザが注視しない場合がある。例えば、集合写真を撮影する場合、顔が正面を向いていない人物は、集合写真とは関係ない人物の可能性が高く、ユーザが主被写体として選択する可能性は低い。そのため、画像処理部24におけるシーン判定により集合写真であると判定される場合には、正面を向いていると判断される顔領域についてのみ、視線判定領域を設定するようにしてもよい。また、正面を向いている顔領域の割合に基づいて視線判定領域の大きさや注視時間の閾値を変更してもよい。
本実施形態によれば、撮影シーンや被写体の特性(種類や動きの速さなど)に応じて視線判定領域の大きさ、注視時間の閾値、焦点検出領域などを変更もしくは設定するようにした。これにより、視線を用いた主被写体の選択や焦点検出を、一層ユーザの意図に沿ったものとすることができる。
●(第3実施形態)
次に、本発明の第3実施形態について説明する。本実施形態では、特徴領域(被写体)の距離情報を考慮して視線判定条件を設定する。距離情報を考慮する目的は、焦点検出の品位および機動性の低下を抑制することにある。
例えば、ユーザの意図しない視線の移動により、ユーザがピントを合わせようとしている手前の被写体と、奥に位置する別の被写体とが、交互に主被写体として選択されたとする。主被写体に合焦するように設定されている場合、主被写体が入れ替わるごとに合焦距離は前後に大きく変化するため、焦点検出の品位が低下する。また、ユーザが意図しない被写体に合焦してしまうと、意図した被写体に合焦した状態に戻すには、意図した被写体が主被写体として選択されるまで少なくとも注視時間の閾値に等しい時間が必要になるため、機動性が低下する。
本実施形態では、被写体の距離情報を考慮して視線判定条件を設定することに加え、主被写体候補の絞り込みを行う。これにより、ユーザの意図しない被写体が主被写体として選択されにくくなり、焦点検出および機動性の低下を抑制することができる。
図11は、本実施形態における視線入力による主被写体の選択動作に関するフローチャートである。図11において、第1実施形態と共通するステップについては図6と同じ参照数字を付し、重複する説明は省略する。本実施形態ではS1とS2の間にS7およびS8が追加されている点で、第1実施形態と異なる。以下、本実施形態の特徴であるS7およびS8に関して説明する。
S7においてシステム制御部50は、特徴領域ごとに距離情報を取得する。距離情報の取得方法に特に制限はなく、任意の公知の手法を用いることができる。例えば、光電変換部201aから得られる信号に基づく画像と、光電変換部201bから得られる信号に基づく画像からなる視差画像対から、各画素位置における距離情報を算出してもよい。この場合、各画素位置における距離情報から領域ごとの代表的な距離(例えば平均距離)を取得する。また、個々の特徴領域について合焦時のフォーカスレンズ位置から距離情報を得てもよい。
S8においてシステム制御部50は、主被写体候補の絞り込みを行う。システム制御部50は、例えば、現在選択されている主被写体(特徴領域)の距離との差が閾値以上である被写体(特徴領域)については、主被写体として選択されないようにすることができる。システム制御部50は、例えば特徴領域に対して視線判定領域を設定しないことにより、その特徴領域が主被写体として選択されないようにすることができる。
なお、主被写体が選択されていない場合、システム制御部50は、現在のフォーカスレンズの位置に対応する距離との差が閾値以上である被写体(特徴領域)を、主被写体として選択されないようにする。なお、主被写体が選択されていない場合に基準とする距離は、予め定められた固定値など、他の距離であってもよい。このように、現在選択されている主被写体との距離が大きく異なる被写体を、視線入力により選択できなくすることにより、ユーザの意図しない動作を抑制することができる。
なお、ここでは現在のフォーカスレンズの位置に対応する距離との差が閾値以上である被写体が主被写体として選択されないようにしたが、選択されにくくしてもよい。例えば、S2における視線判定条件の設定のうち、注視時間の閾値の設定(図7のS26)において、選択中の主被写体との距離の差に応じた閾値を設定するようにすることができる。具体的には、距離の差が閾値未満である被写体(特徴領域)よりも、距離の差が閾値以上である被写体(特徴領域)に長い閾値を設定する。これにより、現在の主被写体と距離の差が大きな被写体が新たな主被写体として選択されにくくなる。
また、視線判定条件の設定処理(図7)において、視線判定領域の大きさが下限値以上と判定された場合(S23でNOとなった場合)、現在の主被写体と距離の差が閾値以上の被写体に対応する特徴領域については視線判定領域の大きさを下限値としてもよい。仮設定した視線判定領域が全て下限値以上の大きさである場合、現在の主被写体と距離の差が大きな被写体についても選択しやすい大きさの視線判定領域が設定されている。そのため、現在の主被写体と距離の差が閾値以上の被写体に対応する特徴領域については視線判定領域の大きさを下限値とすることにより、選択の容易性を低下させることができる。
本実施形態によれば、特徴領域(被写体)の距離情報を考慮して視線判定条件を設定することにより、焦点検出の品位および機動性の低下を抑制することができる。
●(第4実施形態)
次に、本発明の第4実施形態について説明する。本実施形態では、特徴領域(被写体)の動きベクトルを考慮して視線判定条件を設定する。なお、本実施形態で考慮するのは面内方向の動きベクトルであり、奥行き方向の動きベクトルは考慮しない。なお、視線判定条件の設定に関しては奥行方向の動きベクトルは考慮しないが、面内方向の動きベクトルの算出精度を改善を目的として奥行き方向の動きベクトルを考慮してもよい。
被写体の動きベクトルを考慮する目的は、被写体の(面内の)動きに対して、視線の追従が遅れたり、視線判定領域の更新が遅れたりした場合でも、視線入力による主被写体の選択を可能とすることにある。特徴領域に視線判定領域を設定し、注視点の位置と視線判定領域とに基づいて主被写体を選択する場合、これらの遅れの影響で主被写体の選択が難しくなる。そのため、本実施形態では、視線判定条件を緩和するとともに、動きベクトルを考慮することで、移動被写体に対する視線入力による選択を可能とする。
図12は、本実施形態における視線入力による主被写体の選択動作に関するフローチャートである。図12において、第1実施形態と共通するステップについては図6と同じ参照数字を付し、重複する説明は省略する。本実施形態ではS9~S11が追加されている点で、第1実施形態と異なる。以下、本実施形態の特徴であるS9~S11に関して説明する。
S9においてシステム制御部50は、視線判定領域のそれぞれについて、動きベクトルを算出する。例えばシステム制御部50は、視線判定領域の中心位置の時系列データを取得し、所定の複数フレームに渡って平均した、フレーム間の中心位置の移動量および移動方向を動きベクトルの成分とする。なお、動きベクトルは他の方法で求めてもよい。また、視線判定領域の代わりに、対応する特徴領域について動きベクトルを求めてもよい。また、特徴領域(被写体)の面内方向の動きを表す情報であれば、動きベクトル以外の情報を取得してもよい。
S10においてシステム制御部50は、動きベクトルの大きさが所定値以上である視線判定領域については被写体が動いたと判定し、S11の処理を実行する。一方、システム制御部50は、動きベクトルの大きさが所定値未満である視線判定領域については被写体が動いていないと判定し、S5の処理を実行する。このように、システム制御部50は、動いている被写体に対応する視線判定領域と、動いていない被写体に対応する視線判定領域とで異なる更新処理を実施する。
S11で行う、動きベクトルを考慮した主被写体の更新処理について、図13に示すフローチャートを用いて説明する。図13において、第1実施形態と共通するステップについては図10と同じ参照数字を付し、重複する説明は省略する。本実施形態ではS59~S61が追加されている点で、第1実施形態と異なる。以下、本実施形態の特徴であるS59~S61に関して説明する。本実施形態では、S59において注視時間の閾値を緩和する代わりに、S61において、視線判定領域の動きベクトルと視線の動きベクトルの一致度を評価して主被写体の判定を行う。
S59でシステム制御部50は、S52で選択した視線判定領域の注視時間が第2閾値以上か否かを判定し、第2閾値以上と判定されればS60に処理を進め、判定されなければS51に処理を戻す。ここで、第2閾値は第1実施形態で用いる第1閾値よりも短い。被写体が動いている場合、視線の追従が遅れたり、視線判定領域の更新が遅れたりして注視位置が視線判定領域から外れやすくなる。そのため、短い注視時間の閾値を設定して、主被写体の選択が行われやすくしている。
S60でシステム制御部50は、視線(注視点)の動きベクトルを求める。視線の動きベクトルは、視線判定領域の動きベクトルと同様に、面内方向の動きベクトルである。視線の動きベクトルは、図12のS4で取得した注視点の位置の時系列データを、視点判定領域の中心位置と同様に取り扱って求めることができる。なお、注視点の位置のうち、同じもしくは近いタイミングにおける視点判定領域の中心位置と大きく異なる位置については意図しない注視点と見なして動きベクトルの算出から除外してもよい。
S61でシステム制御部50は、S9で求めた視線判定領域の動きベクトルと、S60で求めた視線の動きベクトルとの一致度が条件を満たすか否かを判定する。例えば、システム制御部50は、それぞれの動きベクトルを単位ベクトルに換算した後に内積を計算して、内積の値が1に近い閾値以上であれば、方向の一致度が高い(あるいは一致している)と判定することができる。また、システム制御部50は、動きベクトルの大きさの差が0に近い閾値未満であれば移動量の一致度が高い(あるいは一致している)と判定することができる。方向および移動量の何れについても一致度が高い(あるいは一致している)と判定される場合、システム制御部50は、動きベクトルの一致度が高い(あるいは一致している)と判定する。ただし、動きベクトルの一致度は、他の方法で判定してもよい。システム制御部50は、視線判定領域の動きベクトルと、視線の動きベクトルとが一致していると判定されればS56に処理を進め、判定されなければS51に処理を戻す。
S56でシステム制御部50は、選択している視線判定領域に対応する被写体(特徴領域)を主被写体として選択する。
また、図12のS9において動いていると判定された被写体(特徴領域)に対する視線判定領域を拡張してもよい。図14に、視線判定領域の拡張例を示す。ここでは被写体が面内で矢印に示す方向に移動しているものとする。前フレームでは視線判定領域401が設定されている。また、拡張を行わない場合、現フレームでは視線判定領域402が設定される。
図14(a)はユーザの視線の追従遅れを考慮した視線判定領域の拡張例を示している。被写体の動きに対して視線の追従が遅れると、現フレームにおける注視点が視線判定領域401と402との間に位置する可能性がある。そのため、現フレームに対する視線判定領域402を、視線判定領域401を包含するように拡張した視線判定領域403を設定する。これにより、視線の追従が遅れた場合でも、安定した主被写体の選択が実現できる。
図14(b)はユーザの視線の追従遅れに加え、視線判定領域の更新遅延を考慮した視線判定領域の拡張例を示す。視線判定領域は、検出された特徴領域に対して設定されるため、ライブビュー画像が表示部28に表示されるタイミングよりも遅れて視線判定領域が設定される。そのため、被写体が動体である場合、視線判定領域の設定が更新されるより前に移動後の被写体を注視している可能性が高い。
そこで、被写体の動きを予測し、予測後の位置に応じた位置に視線判定領域を移動させることができる。図14(b)では、図14(a)で示した拡張後の視線判定領域403が、予想した被写体の移動後の位置に基づいて視線判定領域404に移動されている。このように、被写体の予測移動位置に基づいて視線判定領域の設定を更新することで、安定して視線により主被写体を選択することができる。なお、図14(b)において視線判定領域402が設定されている特徴領域(被写体)は、視線判定領域404を設定するフレームにではさらに移動した位置に存在している。
図14に示すように視線判定領域を拡張した場合、他の視線判定領域と重複が発生する可能性がある。視線判定領域の重複領域に注視点の位置が含まれる場合、どちらの視点判定領域を注視しているかを特定するのは困難である。しかし、本実施形態では、視線判定領域の動きベクトルを考慮しているため、仮に重複領域に注視点の位置が含まれる場合であっても、どちらの視点判定領域を注視しているかを特定することができる。
以上説明したように、本実施形態によれば特徴領域(被写体)の動きベクトルを考慮して視線判定条件を設定する。そのため、移動被写体に対してユーザの視線の追従が遅れたり、視線判定領域の更新が画像の表示に対して遅れたりしても、視線による主被写体の選択を可能とすることができる。
●(第5実施形態)
次に、本発明の第5実施形態について説明する。本実施形態は、注視時間の閾値、および、現在の注視時間をユーザに通知する方法に関する。上述の実施形態では、視線判定条件のうち、視線判定領域の大きさや位置をユーザに通知する例について説明した(図5、図9)。しかし、視線による主被写体の選択を実現する際、被写体ごとの選択のし易さとしての注視時間の閾値や、主被写体として選択されるまでに必要な残りの注視時間をユーザに示すことで、使い勝手を改善することができる。
図15は、現在注視している被写体と、その被写体が主被写体として選択されるまでに必要な残り注視時間とをユーザに通知する方法の一例を示す。ここでは、ある被写体から、別の被写体に、視線を用いて主被写体を切り替える際の表示の変化を示す。
ここでは、撮影範囲内に3人の人物A~Cが存在し、特徴領域としてそれぞれの人物の顔領域が検出されているものとする。また、各特徴領域には視線判定領域が設定され、枠状の指標によって視線判定領域の大きさおよび位置が示されている。本実施形態では、それぞれの視線判定領域に関連づけて、設定されている注視時間の閾値と、主被写体として選択するために必要な残りの注視時間とを示す注視指標501~503を表示している。なお、ここでは注視指標を視線判定領域の指標の近傍に配置することで、視線判定領域に注視指標を関連づけているが、他の形態を用いてもよい。
注視指標501~503は下向きの三角形状であり、その大きさが注視時間の閾値の長さを示す。ここでは設定されている注視時間の閾値が等しいため、注視指標501~503の大きさも等しい。また、全体が黒く塗りつぶされている注視指標503は、主被写体として選択されている被写体であることを示している。注視された視線判定領域に対応する注視指標は、注視時間の増加に従って内部が塗りつぶされていく。以下では、説明及び理解を容易にするため、人物Aの顔領域に設定された視線判定領域の注視を、人物Aの注視として取り扱う。人物B、Cについても同様とする。
図15(a)は、注視指標503の全体が黒く塗りつぶされており、人物Cが主被写体として選択されている。また、注視指標501、502はまったく塗りつぶされておらず、人物A,Bに対する注視時間が0であることを示している。
図15(a)の状態で、ユーザが人物Cから人物Bに視線を移したとする。システム制御部50は、図10や図13のS54を実施すると、選択中の視線判定領域に対応する注視指標の塗りつぶし量を増加させる。これにより、図15(b)に示すように、人物Bに対する注視指標502の表示が変化する。1回に塗りつぶす割合は、指標の高さを1としたときに、1/(注視時間の閾値(フレーム数))とすることができる。図15(b)の時点では、人物Bに対する注視時間が閾値に達していないため、主被写体は人物Cのままであり、注視指標503の状態は変わらない。また、人物Aは注視されていないので、注視指標504の状態も変わらない。
その後もユーザが人物Bを注視し続け、注視時間が閾値に達すると、主被写体の選択が人物Cから人物Bに変更される。この時点で、図15(c)に示すように、注視指標502が完全に塗りつぶされ、また注視指標503は塗りつぶしがリセットされる。人物Aは注視されていないので、注視指標504の状態は変わらない。
このように、注視時間の閾値、および、現在の注視時間を注視指標表示することにより、ユーザに対して、正しく注視できているか、主被写体選択をするのに必要な注視時間などを通知することができる。
なお、注視時間の閾値が視点判定領域によって異なる場合、例えば図15(d)に示すように、注視指標の大きさを異ならせることができる。図15(d)では、人物Cに対応する視点判定領域に設定されている注視時間の閾値が、人物A,Bに対応する視点判定領域に設定されている注視時間の閾値がより短いことを、注視指標601~603の大きさによって示している。
ここでは注視時間の閾値の長さを注視指標の大きさで表すものとした。しかし、注視時間の閾値の長さによらず同一の大きさの注視指標を用いても、注視指標が塗りつぶされる速さの違いによってユーザは注視時間の閾値が長いのか短いのかを把握することができる。
なお、注視時間の閾値や、主被写体に選択されるまでの残り注視時間(あるいは現在の累積注視時間)をユーザに通知する方法は、図15に示した例に限定されない。例えば、視線判定領域の枠の太さ、大きさ、色を注視指標として用いてもよい。また、視線判定領域の枠の上部に、後何フレーム注視すれば切り替わるのかを数字で表示してもよい。
なお、図2(b)に示したような専用の焦点検出画素を用いる場合など、焦点検出できない領域がある場合、焦点検出できない領域を含んだ特徴領域については注視指標を表示しないことにより、ユーザに焦点検出ができないことを通知してもよい。また、焦点検出可能な特徴領域については対応する視線判定領域の指標を表示し、焦点検出できない特徴領域については特徴領域の指標を表示することで、焦点検出が可能な特徴領域か否かをユーザに通知してもよい。
なお、画面下や画面両端に視線入力によるメニュー選択領域がある場合、メニュー選択領域付近は誤検出を避けるために、視線入力による主被写体の選択は行わないようにしてもよい。その場合も、主被写体として選択できない特徴領域については注視指標を表示しないことでユーザに通知してもよい。
なお、第1実施形態の図8(b)のS255において、視線判定領域の再配置が不可と判定された特徴領域について、特徴領域の指標のみを表示し、視線判定領域の指標や注視指標は表示しないようにしてもよい。これにより、ユーザは視線によって主被写体として選択できない被写体を把握することができる。
なお、主被写体が選択された状態で、SW1 62のONが検出された場合、注視指標を非表示にし、主被写体についてのみ視線判定領域の指標を表示することにより、主被写体のトラッキングが開始されたことをユーザに通知してもよい。
以上説明したように、本実施形態によれば、設定されている注視時間の閾値や、主被写体として選択されるまでに必要な残りの注視時間をユーザに通知するようにした。そのため、視線による主被写体の選択における使い勝手を改善することができる。
(その他の実施形態)
なお、上述の実施形態では、ライブビュー画像のフレーム数(フレーム周期)を単位として注視時間を取り扱う構成について説明した。しかし、具体的な時間(例えばミリ秒)を単位として注視時間を取り扱ってもよい。
なお、上述の実施形態では、特徴領域として顔領域を検出する構成について説明した。しかし、画像処理部24は顔のような特定の特徴領域を検出する代わりに、特徴領域の候補となる領域の検出のみを行ってもよい。
なお、上述の実施形態では、被写体検出領域、視線判定領域の形状を正方形とした構成について説明したが、長方形や円形など、他の形状としてもよい。
なお、上述の実施形態では、ユーザが注視している主被写体を注視時間に基づいて決定する構成について説明した。しかし、視線判定領域と、検出した注視点の位置とから、ユーザが注視している主被写体を決定できれば、他の構成であってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は上述した実施形態の内容に制限されず、発明の精神および範囲から離脱することなく様々な変更及び変形が可能である。したがって、発明の範囲を公にするために請求項を添付する。
100…本体、150…レンズユニット、4…レンズシステム制御回路、22…撮像素子部、50…システム制御部、24…画像処理部、28…表示部、32…メモリ、56…不揮発性メモリ、70…操作部

Claims (21)

  1. ユーザの視線に基づいて、画像中の注視点の位置を検出する視線検出手段と、
    前記画像から特徴領域を検出する領域検出手段と、
    前記特徴領域に視線判定領域を設定する設定手段と、
    前記注視点の位置を含んだ視線判定領域に対応する前記特徴領域を選択する選択手段と、
    を有し、
    前記設定手段は、前記特徴領域の大きさが予め定められた下限値以上の場合には前記特徴領域の大きさに応じた前記下限値以上の大きさを有する前記視線判定領域を設定し、前記特徴領域の大きさが前記下限値より小さい場合には前記下限値の大きさを有する前記視線判定領域を設定する、
    ことを特徴とする電子機器。
  2. 前記設定手段により設定された視線判定領域の位置および大きさを示す指標を、前記画像に重畳して表示部に表示するように制御する表示制御手段をさらに有することを特徴とする請求項1に記載の電子機器。
  3. 前記設定手段は、前記特徴領域間の最短距離に基づいて前記視線判定領域の大きさを設定することを特徴とする請求項1または2に記載の電子機器。
  4. 前記設定手段は、前記最短距離に基づく大きさが前記下限値に満たない場合、前記視線判定領域の大きさを前記下限値とすることを特徴とする請求項3に記載の電子機器。
  5. 前記設定手段は、前記特徴領域と前記視線判定領域との中心位置とが等しくなるように前記視線判定領域を設定すると前記視線判定領域間に重複が生じる場合には、前記視線判定領域の中心位置を前記特徴領域の中心位置とずらすことを特徴とする請求項1から4のいずれか1項に記載の電子機器。
  6. 前記選択手段は、前記注視点の位置を含んだ時間が閾値以上である視線判定領域に対応する前記特徴領域を選択することを特徴とする請求項1から5のいずれか1項に記載の電子機器。
  7. 前記領域検出手段は、特定の被写体に関する領域を前記特徴領域として検出し、
    前記設定手段は、前記特定の被写体の種類または動きの速さに応じて前記視線判定領域の大きさおよび前記閾値の少なくとも一方を異ならせることを特徴とする請求項6に記載の電子機器。
  8. 前記領域検出手段は、特定の被写体に関する領域を前記特徴領域として検出し、
    前記設定手段は、前記特定の被写体の種類に応じて、前記視線判定領域の前記特徴領域に対する位置を異ならせることを特徴とする請求項6または7に記載の電子機器。
  9. 前記設定手段は、前記特徴領域のうち、注視される可能性の高い部位に前記視線判定領域を設定することを特徴とする請求項8に記載の電子機器。
  10. 前記設定手段は、前記特徴領域のうち、予め定めた条件を満たす特徴領域にのみ前記視線判定領域を設定することを特徴とする請求項7から9のいずれか1項に記載の電子機器。
  11. 前記被写体の動きが閾値以上である場合、前記選択手段は、前記視線検出手段が過去に検出した前記注視点の位置を用いて前記選択を行うことを特徴とする請求項7から10のいずれか1項に記載の電子機器。
  12. 前記特徴領域の距離情報を取得する取得手段をさらに有し、
    前記設定手段は、前記選択手段が選択している特徴領域と距離の差が閾値以上である特徴領域については、前記視線判定領域を設定しないか、前記下限値の大きさを有する前記視線判定領域を設定する、
    ことを特徴とする請求項1から11のいずれか1項に記載の電子機器。
  13. 前記特徴領域の距離情報を取得する取得手段をさらに有し、
    前記選択手段は、前記注視点の位置を含んだ時間が閾値以上である視線判定領域に対応する前記特徴領域を選択し、
    前記選択手段が選択している特徴領域と距離の差が閾値以上である特徴領域については、前記選択手段が選択している前記特徴領域と距離の差が前記閾値以上でない特徴領域よりも前記閾値が長い、
    ことを特徴とする請求項1から12のいずれか1項に記載の電子機器。
  14. 前記選択手段は、前記注視点の位置を含んだ時間が閾値以上である視線判定領域に対応する前記特徴領域を選択し、
    動いていると判定された特徴領域については、動いていると判定されない特徴領域よりも前記閾値が短く、
    前記選択手段は、前記動いていると判定された特徴領域については、前記注視点の位置を含んだ時間が閾値以上であり、かつ該特徴領域についての動きベクトルおよび前記注視点の位置についての動きベクトルの一致度が条件を満たす場合に選択する、
    ことを特徴とする請求項1から13のいずれか1項に記載の電子機器。
  15. 前記設定手段は、動いていると判定された特徴領域については、動いていると判定されない特徴領域よりも前記視線判定領域を大きくすることを特徴とする請求項1から14のいずれか1項に記載の電子機器。
  16. 前記設定手段は、動いていると判定された特徴領域についての前記視線判定領域を、該特徴領域の動き方向に大きくすることを特徴とする請求項15に記載の電子機器。
  17. 前記選択手段は、前記注視点の位置を含んだ時間が閾値以上である視線判定領域に対応する前記特徴領域を選択し、
    前記特徴領域ごとに、前記閾値の長さおよび、選択までに必要な注視時間を示す指標を表示する表示手段をさらに有する、
    ことを特徴とする請求項1から16のいずれか1項に記載の電子機器。
  18. 前記表示手段は、視線による選択ができない特徴領域については、前記指標を表示しないことを特徴とする請求項17に記載の電子機器。
  19. 前記選択手段が選択した前記特徴領域の情報を用いて、露出制御、焦点検出、および撮影された画像に対する画像処理の1つ以上を行う制御手段をさらに有することを特徴とする請求項1から18のいずれか1項に記載の電子機器。
  20. 視線検出手段が、ユーザの視線に基づいて、画像中の注視点の位置を検出する視線検出工程と、
    領域検出手段が、前記画像から特徴領域を検出する領域検出工程と、
    設定手段が、前記特徴領域に視線判定領域を設定する設定工程と、
    選択手段が、前記注視点の位置を含んだ視線判定領域に対応する前記特徴領域を選択する選択工程と、
    を有し、
    前記設定工程では、前記特徴領域の大きさが予め定められた下限値以上の場合には前記特徴領域の大きさに応じた前記下限値以上の大きさを有する前記視線判定領域を設定し、前記特徴領域の大きさが前記下限値より小さい場合には前記下限値の大きさを有する前記視線判定領域を設定する、
    ことを特徴とする電子機器の制御方法。
  21. 電子機器が有する1つ以上のプロセッサーを、請求項1から19のいずれか1項に記載の電子機器が有する各手段として機能させるためのプログラム。
JP2024006206A 2019-08-14 2024-01-18 電子機器およびその制御方法 Pending JP2024036387A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024006206A JP2024036387A (ja) 2019-08-14 2024-01-18 電子機器およびその制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019148926A JP7425562B2 (ja) 2019-08-14 2019-08-14 撮像装置およびその制御方法
JP2024006206A JP2024036387A (ja) 2019-08-14 2024-01-18 電子機器およびその制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019148926A Division JP7425562B2 (ja) 2019-08-14 2019-08-14 撮像装置およびその制御方法

Publications (1)

Publication Number Publication Date
JP2024036387A true JP2024036387A (ja) 2024-03-15

Family

ID=74567653

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019148926A Active JP7425562B2 (ja) 2019-08-14 2019-08-14 撮像装置およびその制御方法
JP2024006206A Pending JP2024036387A (ja) 2019-08-14 2024-01-18 電子機器およびその制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019148926A Active JP7425562B2 (ja) 2019-08-14 2019-08-14 撮像装置およびその制御方法

Country Status (2)

Country Link
US (1) US11388331B2 (ja)
JP (2) JP7425562B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021150760A (ja) * 2020-03-18 2021-09-27 キヤノン株式会社 撮像装置およびその制御方法
JP2022126423A (ja) * 2021-02-18 2022-08-30 キヤノン株式会社 撮像装置、画像処理装置、画像処理装置の制御方法、撮像装置の制御方法及びプログラム
JPWO2023053557A1 (ja) * 2021-09-30 2023-04-06

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005249831A (ja) 2004-03-01 2005-09-15 Canon Inc 視線検出装置を有する光学機器
JP6116301B2 (ja) 2013-03-21 2017-04-19 キヤノン株式会社 撮像装置及びその制御方法
US9445005B2 (en) * 2013-07-22 2016-09-13 Canon Kabushiki Kaisha Optical device capable of selecting focus detection point, method of controlling the same, and storage medium
JP6257198B2 (ja) 2013-07-22 2018-01-10 キヤノン株式会社 光学機器、その制御方法、および制御プログラム
JP6256165B2 (ja) * 2014-04-09 2018-01-10 富士通株式会社 視線検出装置、視線検出プログラム及び視線検出方法

Also Published As

Publication number Publication date
JP2021034756A (ja) 2021-03-01
US11388331B2 (en) 2022-07-12
US20210051266A1 (en) 2021-02-18
JP7425562B2 (ja) 2024-01-31

Similar Documents

Publication Publication Date Title
US11172133B2 (en) Zoom control device, control method of zoom control device, and recording medium
US9344634B2 (en) Imaging apparatus having subject detection function, method for controlling the imaging apparatus, and storage medium
US9838597B2 (en) Imaging device, imaging method, and program
JP7467114B2 (ja) 撮像装置およびその制御方法
JP5409189B2 (ja) 撮像装置及びその制御方法
US9781351B2 (en) Zooming control device and method for controlling zooming control device
JP2024036387A (ja) 電子機器およびその制御方法
JP5828070B2 (ja) 撮像装置および撮像方法
CN105282435B (zh) 变焦控制设备和变焦控制方法
CN105323470B (zh) 变焦控制设备和变焦控制方法
JP2010141616A (ja) 画像処理装置および画像処理方法、ならびに、撮像装置
US11450131B2 (en) Electronic device
US9521329B2 (en) Display device, display method, and computer-readable recording medium
RU2635873C2 (ru) Способ и устройство для отображения информации кадрирования
JP2021132272A (ja) 電子機器
US11523048B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JP2023004678A (ja) 処理装置及びその制御方法
WO2019082832A1 (ja) 撮像装置、撮像装置の制御方法、および、プログラム
JP2019083518A (ja) 撮像装置、撮像装置の制御方法、および、プログラム
JP6080825B2 (ja) 撮像装置及びその制御方法
US20230142934A1 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JP2014062926A (ja) オートフォーカスシステム
JP2024013019A (ja) 制御装置、撮像装置、制御方法、及びプログラム
JP2021180347A (ja) 制御装置、撮像装置、制御方法、およびプログラム
JP2023047605A (ja) 制御装置、撮像装置、制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240219