JP2023003735A - 視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体 - Google Patents

視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP2023003735A
JP2023003735A JP2021104994A JP2021104994A JP2023003735A JP 2023003735 A JP2023003735 A JP 2023003735A JP 2021104994 A JP2021104994 A JP 2021104994A JP 2021104994 A JP2021104994 A JP 2021104994A JP 2023003735 A JP2023003735 A JP 2023003735A
Authority
JP
Japan
Prior art keywords
line
sight
subject
detected
sight detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021104994A
Other languages
English (en)
Inventor
佳弘 水尾
Yoshihiro Mizuo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021104994A priority Critical patent/JP2023003735A/ja
Priority to US17/845,370 priority patent/US11930266B2/en
Publication of JP2023003735A publication Critical patent/JP2023003735A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Abstract

【課題】視線検出位置と、実際にユーザーが注視している位置との差分を精度よく補正する。【解決手段】本件開示の技術に係る視線検出装置は、表示手段に対するユーザーの視線の位置を検出する視線検出手段と、前記表示手段に表示される画像から被写体を検出する被写体検出手段と、前記視線検出手段によって検出された視線の位置が前記被写体検出手段によって検出された被写体の位置に合うように、前記視線検出手段で使用する補正値を決定する補正値決定手段とを有する。【選択図】図8

Description

本件開示の技術は、視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体に関し、特に検出された視線位置(検出位置)とユーザーが注視している位置(実際の位置)との差分を補正する技術に関する。
近年、撮像装置の自動化・インテリジェント化が進み、手動で位置が入力されずとも、ファインダーを覗くユーザーの視線の情報(視線情報)に基づいて、ユーザーが見ている方向の空間内の位置や、画面上の位置などを選択する装置が提案されている。また、検出された視線位置と実際にユーザーが注視している位置との差分を補正する技術が特許文献1に示されている。
特開2020-106552号公報 特開2018-205648号公報
しかしながら、特許文献1では、ユーザーが実際に注視している位置をユーザー自らが指定し、指定された位置情報を基に、検出された視線位置の補正を行う構成であるため、ユーザーが手動で補正を行わなければならない。
また、特許文献2では、検出された視線位置とユーザーの注視位置とに誤差がある場合に、周囲に存在する被写体の候補から適切な被写体を選択する補正方法が示されているが、誤差のある視線位置自体の補正は行われていない。以後、検出された視線位置を視線検出位置と記載する。
本件開示の技術の目的は、上記に鑑みてなされたものであり、ユーザーが注視している位置と視線検出位置の誤差を精度よく補正する視線検出装置を提供することである。
本件開示の技術に係る視線検出装置は、
表示手段に対するユーザーの視線の位置を検出する視線検出手段と、
前記表示手段に表示される画像から被写体を検出する被写体検出手段と、
前記視線検出手段によって検出された視線の位置が前記被写体検出手段によって検出された被写体の位置に合うように、前記視線検出手段で使用する補正値を決定する補正値決定手段と
を有することを特徴とする視線検出装置を含む。
本件開示の技術によれば、ユーザーがマニュアルで補正処理を行うことなく、視線検出位置と、実際にユーザーが注視している位置との差分を精度よく補正することができる。
カメラの外観図である。 カメラの断面図である。 カメラのブロック図である。 カメラの表示画像を示す図である。 視線検出位置の補正方法を説明するための図である。 視線検出位置の補正処理のフローチャートである。 視線検出位置の補正値の算出方法を説明するための図である。 補正後の視線検出位置の一致度の判定方法を説明するための図である。 視線検出位置の補正処理の別のフローチャートである。 視線候補位置テーブルと視線候補位置を説明するための図である。 視線検出位置の補正方法を説明するための別の図である。
以下に、図面を参照しつつ、本件開示の技術の好適な実施の形態について説明する。ただし、以下に記載されている構成部品の寸法、材料、形状およびそれらの相対配置等は、発明が適用される装置の構成や各種条件により適宜変更されるべきものである。よって、この発明の範囲を以下の記載に限定する趣旨のものではない。特に図示あるいは記述をしない構成や工程には、当該技術分野の周知技術または公知技術を適用することが可能である。また、重複する説明は省略する場合がある。
(第1の実施形態)
以下に、本件開示の技術の第1の実施形態について説明する。
<構成の説明>
図1Aおよび図1Bは、第1の実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す。図1Aは、カメラ1の正面斜視図であり、図1Bはカメラ1の背面斜視図である。図1Aに示すように、カメラ1は、撮影レンズユニット1Aおよびカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮影操作を受け付ける操作部材であるレリーズボタン5が配置されている。図1Bに示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の表示デバイス10(電子表示ファインダー)をユーザーが覗き込むための接眼レンズ12(接眼光学系)が配置されている。なお、接眼光学系には複数枚のレンズが含まれていてもよい。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付ける操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネルなどの表示パネルを備えており、表示パネルで画像を表示する機能を有する。
図2は、図1Aに示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の大まかな内部構成を示す。
図2に示すように、撮影レンズユニット1A内には、2枚のレンズ101、102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114が含まれている。さらに、撮影レンズユニット1A内には、フォトカプラー115、パルス板116、マウント接点117、焦点調節回路118などが含まれている。レンズ駆動部材114は駆動ギヤなどからなり、フォトカプラー115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラー115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェイスである。なお、簡単のために2枚のレンズ101、102を示したが、実際は2枚より多くのレンズが撮影レンズユニット1A内に含まれている。
カメラ筐体1B内には、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11などが含まれている。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像などを記憶する。表示デバイス10は、液晶などで構成されており、撮像された被写体の画像などを表示デバイス10の表示面に表示する表示手段である。表示デバイス駆動回路11は、表示デバイス10を駆動する。ユーザーは、接眼レンズ12を通して、表示デバイス10の表示面に表示された画像(撮像素子2により撮像された画像など)を見ることができる。
カメラ筐体1B内には、光源13a~13f、光分割器15、受光レンズ16、眼用撮像素子17なども含まれている。光源13a~13fは、ユーザーの眼球14を照明するための光源である。光源13a~13fは、光の角膜反射による反射像(角膜反射像;プルキニエ像)と瞳孔の関係から視線方向(視線の方向;ユーザーが見ている方向)を検出するために従来から一眼レフカメラなどで用いられている。具体的には、光源13a~13fは、ユーザーに対して不感の赤外光を発する赤外発光ダイオードなどであり、接眼レンズ12の周りに配置されている。照明された眼球14の光学像(眼球像;光源13a~13fから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCDやCMOSなどの光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17を共役な結像関係に位置付けている。後述する所定のアルゴリズムにより、眼用撮像素子17上に結像された眼球像における角膜反射像の位置から、眼球14の視線方向が検出される。
図3は、カメラ1内の電気的構成を示すブロック図である。CPU3には、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205などが接続されている。また、CPU3は、撮影レンズユニット1A内に配置された焦点調節回路118と、撮影レンズユニット1A内の絞り駆動部112に含まれた絞り制御回路206とに、マウント接点117を介して信号を伝達する。CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの撮像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。
視線検出回路201は、眼用撮像素子17上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置から、表示デバイス10の表示面におけるユーザーの視点(視線位置;視線が注がれている位置;ユーザーが見ている位置)を算出する。これにより、CPU3は、表示デバイス10に対するユーザーの視線位置を検出する。なお、以降の説明において、検出された視線位置を視線検出位置と記載する。
測光回路202は、測光センサの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換などを行い、その結果を被写界輝度情報としてCPU3に送る。
自動焦点検出回路203は、撮像素子2の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。第1の実施形態では、一例として、ファインダー内視野(ファインダーを覗いたときの視野)、具体的には
表示デバイス10の表示面に示した180か所に対応する撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。
信号入力回路204には、スイッチSW1とスイッチSW2とが接続されている。スイッチSW1は、レリーズボタン5の第1ストロークでONし、カメラ1の測光、測距、視線検出動作などを開始するためのスイッチである。スイッチSW2は、レリーズボタン5の第2ストロークでONし、撮影動作を開始するためのスイッチである。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。被写体検出回路207はメモリ部4に保存された撮像素子2および眼球用撮像素子17からの撮像信号に対して、人、動物、その他の特定の被写体の検出を行うことができる。
図4は、ユーザーがファインダーを覗いて画角内に存在する被写体を実際に注視している位置と、CPU3によって検出される視線検出位置との差分であるオフセットを説明する図である。ユーザーは画角内の被写体401を注視しているが、視線検出回路201は検出誤差によって実線枠で示す視線検出位置402をユーザーの視線位置として検出している。このとき、位置オフセット403が実際に注視している位置と検出位置とのオフセットとなる。本実施形態では、このオフセットを自動で検出して補正することを目的としている。また、オフセット補正においては、被写体検出回路207によって画像から検出される被写体の位置を使用する。
図5Aは、本実施形態においてオフセット補正を行う場合に使用する検出被写体が決定された後の視線検出位置の補正方法を説明する図である。また、図5Bは、オフセット補正を行う際に使用する検出被写体の候補が複数ある場合に、どの検出被写体を補正に使用するかを決定する方法を説明する図である。
ここで、図5A、図5Bと、図6のフローチャートとを参照しながら、本実施形態においてカメラ1のCPU3が実行する処理について説明する。なお、CPU3は、カメラ1内の各回路などの構成要素の動作を制御することで、以下の処理において、視線検出手段、被写体検出手段、補正値決定手段の機能を実現する。表示デバイス10には、図5Aに例示する視線検出位置501および被写体検出位置502を示す点線、オフセット503を示す矢印、補正後の視線検出位置504を示す実線による指標は表示されないものとする。同様に、表示デバイス10には、図5Bに例示する、被写体508~510を囲む領域の点線、最大オフセット半径506を示す矢印、最大オフセット領域507を示す点線の円による指標は表示されないものとする。ただし、これらの少なくとも1つ以上の指標を表示するように表示デバイス10が構成されていてもよい。
ステップS601において、CPU3は、表示デバイス10に対するユーザーの視線検出位置と、被写体検出回路207によって検出される撮像画像内に存在する検出被写体の位置との一致度を判定する。なお、以下の処理により視線検出位置が補正されている場合は、補正後の視線検出位置に対して本ステップの処理が実行される。この一致度の判定では、所定の一定期間内において視線検出位置と検出被写体との位置がどれだけ一致していたかを示す一致度を算出し、算出した一致度を閾値と比較する。ここで、視線検出位置と検出被写体の位置との一致度の一例としては、視線検出位置を示す領域の中心と検出被写体の位置を示す領域の中心との距離が挙げられる。この場合、距離が短くなるほど一致度が高くなる。なお、一致度としては、周知の技術を用いて視線検出位置と検出被写体の位置の近似の程度が算出できるものであれば、任意の算出方法および算出結果が採用されてよい。また、ここでは、画像内に検出被写体の候補が複数ある場合は、いずれか1つの検出被写体の位置と視線検出位置との一致度が算出されればよいものとする。一例として、CPU3は、画像において視線検出位置からの距離が最短となる検出被写体の位置を選択して一致度を算出する。CPU3は、算出した一致度が閾値より大きい場合(S601:
NO)、処理をステップS609に進める。また、CPU3は、一致度が閾値以下である場合(S601:YES)、処理をステップS602に進める。
ステップS602では、CPU3は、被写体検出回路207によって検出された検出被写体のうち、視線検出回路201によって検出された視線検出位置を基準に決まる領域内に存在する検出被写体を特定する。図5Bに示すように、後述する視線検出位置の補正値が更新される前の、視線検出回路201によって検出されたユーザーの視線検出位置が、補正前の視線検出位置505である。補正前の視線検出位置505の中心からあらかじめ決められている最大オフセット半径506を半径とする円内の領域が、最大オフセット領域507である。CPU3は、最大オフセット領域507内に被写体検出回路207によって検出された検出被写体が存在するか否かを判定する。なお、最大オフセット領域が、画像内の所定領域の一例である。
最大オフセット半径506は、視線検出回路201によって生じる最大のオフセットに関する情報を基にあらかじめ決定される。最大オフセット半径は、例えば、視線検出回路201が過去に検出した視線検出位置とユーザーが注視している検出被写体の位置との距離に関する統計を基に適正な最大オフセット半径を算出する関数によって算出できる。本実施形態においては、最大オフセット領域507内に、3つの被写体508~510が検出被写体として存在するものとする。被写体508は鳥、被写体509は犬、被写体510は人物である。なお、画角内に存在する犬の被写体510と鳥の被写体511は、最大オフセット領域507外にある被写体であるため、検出被写体から除外される。また、CPU3は、最大オフセット領域507内の検出被写体から、オフセットの算出に用いられたことを示す属性情報が関連付けられた検出被写体を除外する。なお、この属性情報は、後述するステップS605で被写体ごとに関連付けられる情報である。これにより、後述するステップS607で補正値が更新されてもステップS601で一致度が閾値以下となってしまう、すなわち間違った検出被写体が特定されている場合に、ステップS602で同じ間違った検出被写体が再度特定されることが防止される。
次に、ステップS603では、CPU3は、被写体検出回路207によって検出された検出被写体(ステップS602で特定された検出被写体)が最大オフセット領域507内に1つ以上存在するかどうかを判定する。CPU3は、最大オフセット領域507内に検出被写体が存在しない場合は(S603:N)、処理を終了する。また、CPU3は、最大オフセット領域507内に検出被写体が存在する場合は(S603:Y)、処理をステップS604に進める。
ステップS604においては、CPU3は、最大オフセット領域507内に存在する複数の検出被写体から、撮影に使用されている撮影モードや、視線検出位置と検出被写体との距離などに基づいて検出被写体から視線位置の候補となる被写体を決定する。ここで、撮影モードは撮影を行うモードであり、ユーザーがカメラ1を操作して選択することで被写体に応じた撮影モード(被写体に応じた各種パラメータ)が設定される。撮影モードには、例えば人物を撮影するための撮影モードや、鳥を撮影するための撮影モードなどがある。なお、撮影モードを示す情報は、検出被写体の種別(人物や鳥など)のうちいずれの種別の被写体を優先するかを示す情報とも言える。例えば、人物を撮影するための撮影モードであれば、複数の検出被写体のうち人物に対応する被写体が優先的に検出被写体として決定される。図5A、図5Bに示す例では、ユーザーが鳥を撮影するための撮影モードを選択していることを想定する。CPU3は、選択されている撮影モードや視線検出位置から最も近い検出被写体などを総合的に判断することで、ここでは、視線位置の候補の被写体として被写体508を選択する。
次に、ステップS605では、CPU3は、視線位置の候補の被写体として選択された
被写体508に対して、被写体508がオフセットを算出するための処理に使用されたことを示す属性情報を関連付ける。CPU3は、属性情報をメモリ部4に格納する。
次に、ステップS606では、CPU3は、視線検出回路201によって検出される視線検出位置と、ステップS604において選択された視線位置の候補の被写体の位置との差分から、視線検出の誤差であるオフセットを算出する。この処理の詳細について、図5Aを参照しながら説明する。
図5Aに示すように、点線枠で示す補正前の視線検出位置501と、点線枠で示す被写体検出位置502とがあり、補正前視線検出位置501と被写体検出位置502との位置差分がオフセット503である。また、被写体検出位置502は、図5Bの被写体508の位置に対応する。一例として、CPU3は、視線検出位置501の点線枠の領域の中心と、被写体検出位置502の点線枠の領域の中心との距離をオフセットとして算出する。
次に、ステップS607においては、CPU3は、ステップS606で算出したオフセット503を用いて、視線検出回路201がカメラ1のユーザーの視線検出位置を検出する際に使用する補正値を決定し、既存の補正値を更新する。
ステップS607で補正値が更新されることで、CPU3は、オフセットを用いた補正前に視線検出回路201が検出していた視線検出位置501を、更新された補正値によって新しい位置504(補正後の視線検出位置)に補正する。図5Aの例では、点線枠で示されている補正前の視線検出位置501が、実線枠で示されている補正後の視線検出位置504に変更される。この結果、補正後の視線検出位置504が被写体検出位置502に合うようになり、表示デバイス10では、補正後の視線検出位置504が視線検出位置として表示される。
次に、ステップS607の処理が完了すると、CPU3は、処理をステップS608に進める。ステップS608において、CPU3は、所定時間が経過したか否かを判定する。CPU3は、所定時間が経過した時点で(S608:Y)処理をステップS601に戻し、ステップS601の処理を再度実行する。所定時間の経過後に処理がステップS607からステップS601に戻されることで、図5Bの例で、ユーザーが注視していたのが被写体508でない場合は、S601において一致度が閾値以下になることがある。一致度が閾値以下になる理由としては、被写体508を視線検出位置が追従しないなどの理由が挙げられる。そして、ステップS602において、CPU3はステップS605で関連付けられた属性情報を参照して被写体508を検出被写体から除外した上で、他の検出被写体を対象に上記の処理を繰り返して新たな補正値を更新する。ここで、ステップS608の判定に用いられる所定時間としては、例えば、一般的なユーザーが被写体を注視し続ける時間が採用できる。
本実施形態によれば、ユーザーが手動で視線検出位置を補正することなく、視線検出位置と画像内の最大オフセット半径の円内の被写体位置との差分を基に、ユーザーごとに視線検出位置と注視位置とのずれである誤差が算出される。そして、算出された誤差を用いることで、視線検出位置と実際にユーザーが注視している位置との誤差を自動で補正することができる。なお、誤差には個人差があってよく、その場合にはCPU3はユーザーごとに上記の処理によって算出される補正値をメモリ部4に記憶してもよい。
(第2の実施形態)
次に、本件開示の第2の実施形態について、図を参照しながら説明する。なお、以下の説明において、第1の実施形態と同様の構成などについては同一の符号を付し、詳細な説明については省略する。
図7は、本実施形態における視線検出回路201がカメラ1のユーザーの視線検出位置を検出する際に使用する補正値の算出について模式的に示す図である。図7に示す例では、表示デバイス10によって表示される画像内に存在する被写体として、鳥711、712、犬713、714があり、ユーザーは犬714を注視しているとする。図7において、被写体検出回路207によって検出された検出被写体(犬714)が被写体検出枠702によって示される範囲が所定の大きさよりも大きい。ここで、画角に占める被写体の所定の大きさは適宜決定されてよい。この場合、補正前の視線検出位置701と検出被写体の位置との差分を基にオフセットを特定しようとしても、カメラ1は、ユーザーが被写体検出枠702内の被写体714のどの部分を注視しているかを特定できないため、オフセットを特定できない。例えば、ユーザーの特性や撮影時の状況などによって、ユーザーによる注視位置は、被写体714である犬の眼部である視線候補位置703、犬の体の中心に相当する視線候補位置704、犬の前足部分である視線候補位置705など異なる可能性がある。そこで、本実施形態では、CPU3が以下の処理を実行することで、ユーザーが被写体714のどの部分を注視しているかを精度よく特定して、視線検出位置の補正値を適切に更新することができる。
ここで、図8A~図8Dと、図9のフローチャートとを参照しながら、本実施形態においてカメラ1のCPU3が実行する処理について説明する。なお、図8A~図8Dでは、説明の都合上、被写体811~813は省略して示す。
ステップS901において、視線検出回路201によって検出される視線検出位置と、被写体検出回路207によって検出される撮像画像内に存在する検出被写体の位置、もしくは視線候補位置との一致度を判定する。視線候補位置の詳細については、図10を参照しながら後述する。
ステップS902~S905の処理は、図6のフローチャートのステップS602~605と同様の処理であるため詳細は省略する。次に、ステップS910では、CPU3は、視線位置の候補となる被写体の大きさが、あらかじめ決定されている閾値以上であるか否かを判定する。ここでは、一例として、被写体の大きさは、周知技術を用いて決定される画角内における被写体の被写体検出枠のサイズとする。図7に示す例では、被写体検出枠702のサイズが一定の閾値以上の大きさである場合に、ユーザーの当該被写体の注視位置を1箇所に絞るには不適当であるとする。CPU3は、被写体の大きさが閾値以上であると判定した場合(S910:YES)、処理をステップS911に進める。また、CPU3は、被写体の大きさが所定閾値未満であると判定した場合(S910:NO)、処理をステップS906に進める。CPU3は、処理をステップS906に進める場合は、第1の実施形態と同様の処理を行う。ステップS907、S908、S909の処理は、図6のステップS607、S608、S609と同様の処理であるため、ここでは処理の詳細については説明を省略する。
ステップS911においては、視線候補位置テーブルに従って、視線位置の候補となる被写体中の視線候補の位置を選択する。ここで図10Aおよび図10Bを参照しながら、視線候補の位置および視線候補位置テーブルについて説明する。図10Aが視線候補位置テーブルの一例であり、図10Bが被写体における具体的な視線候補の位置を示している。なお、一例として、視線候補位置テーブルのデータは、カメラ1のメモリ部4に記憶されているとする。CPU3は、メモリ部4に記憶されている視線候補位置テーブルを参照して、ステップS911の処理を実行する。
図10Bにおいて、被写体検出枠1001は被写体検出回路207によって検出された被写体714の全体を囲む矩形の枠である。眼部検出位置1002、重心位置1003、
前足元位置1004、後足元位置1005は、それぞれ被写体検出枠1001内に存在する、ユーザーが注視する可能性のある視線位置の候補となる位置である。なお、眼部検出位置1002、重心位置1003、前足元位置1004、後足元位置1005が、検出した被写体の特徴位置の一例である。また、視線位置の候補となる位置は、検出被写体の種別に応じて適宜設定されてよい。被写体の種別としては、動物、人物、車両、植物、構造物など、被写体を分類するカテゴリーが採用できる。
眼部検出位置1002は、被写体が動物や人物などの生物である場合に、被写体検出回路207による器官検出の処理によって検出される。また、重心位置903は、被写体検出回路207による被写体検出枠901の幾何的な重心位置として検出される。なお、被写体検出枠901が、被写体領域の一例であり、ここでは被写体検出枠901は被写体を囲む矩形の領域であるが、被写体の全体に限らず一部を囲む領域であってもよいし、矩形に限らず任意の形状の領域であってもよい。そして、被写体検出枠901の重心位置に限らず、被写体検出枠901の形状に応じて特定できる位置が検出位置の候補とされてよい。前足元位置1004、後足元位置1005は、被写体検出回路207による器官検出の処理と、被写体検出枠1001内での前足元位置1004と後足元位置1005の位置関係などの特定処理によって検出される。なお、被写体検出回路207による器官の検出処理、被写体検出枠の幾何学的な重心位置の検出処理、前足元位置1004と後足元位置1005の位置関係などの特定処理は、周知の技術を用いて実現されるため、ここでは処理の詳細についての説明は省略する。
図10Aに示すように、視線候補位置テーブルでは、被写体検出回路207が被写体714について検出する眼部検出位置1002、重心位置1003、前足元位置1004、後足元位置1005の4つの視線位置ごとに検出位置の候補の優先度が設定される。図10Aに示す例では、優先度の値が小さいほど検出位置の候補としての優先順位が高いことを示す。したがって、図10Aの視線候補位置テーブルによれば、被写体714の眼部位置、重心位置、前足元位置、後足元位置の順に優先順位(優先度)が低い。このため、CPU3は、視線候補位置テーブルを参照して、ユーザーの視線位置の候補として最初に被写体714の眼部位置を用いて、視線検出用の補正値を更新する。
以下のステップの処理については、図8A~図8Dを参照しながら説明する。図8Aは、ユーザーが被写体714の眼部を注視している場合で、図8Bは、ユーザーが被写体714の重心位置を注視している場合を想定する。最初に、図8Aの場合にCPU3が実行する処理について説明する。
図8Aの場合、検出された被写体714が被写体検出枠801で囲まれる。また、ユーザーは、被写体714の眼部に相当する点線枠で示される注視位置802を注視しているとする。補正前の視線検出回路201によって検出される視線検出位置は、実線枠で示される補正前の視線検出位置803である。また、被写体714の眼部は、補正前の視線検出位置803を中心とする円内である最大オフセット領域804内にあり、かつ、図10Aの視線位置候補テーブルにおいて眼部は優先度が最も高い(優先度=1)。
したがって、ステップS911において、CPU3は、視線候補位置テーブルを参照し、被写体検出回路207が検出した被写体714の眼部検出位置805を、視線検出位置803の補正処理に使用する視線候補位置として選択する。そして、ステップS912において、CPU3は、補正前の視線検出位置803と眼部検出位置805の位置の差分からオフセット806を算出する。
次に、ステップS913において、CPU3は、ステップS911において算出したオフセット806を用いて、視線検出回路201の視線検出用の補正値を更新する。この結
果、カメラ1では、視線検出回路201により検出される視線検出位置がオフセット806によって補正された位置が、補正後の視線検出位置となる。
次に、ステップS914において、CPU3は、所定時間が経過したか否かを判定する。CPU3は、所定時間が経過した時点で(S914:YES)処理をステップS915に進める。
次に、ステップS915において、CPU3は、ステップS913において更新した補正値を用いて補正した視線検出位置と視線候補位置805との一致度を判定する。この判定は、あらかじめ決められた一定時間内に、補正後の視線検出位置と、視線候補位置とがどの程度一致するかを判定する処理である。なお、互いの位置が一致するとは、完全に一致する場合に限らず、厳密には離れていても近似しており一致するとみなせる場合も含む。
この処理の詳細について、図8Cを参照しながら説明する。図8Cは、図8Aに示す被写体714である犬が移動して向きが左右反転して姿勢が変化した状態の一例を示す。本実施形態では、被写体の状態が変化した場合において、それぞれの状態で補正後の視線検出位置と視線候補位置とが一致する度合を基に、ステップS913で更新された補正値の妥当性を判定する。
図8Cに示す例では、ユーザーが被写体714の眼部を注視している場合で、検出された被写体714が矩形の被写体検出枠807で囲まれる。また、ユーザーは、図8Aの状態から引き続き被写体714の眼部に相当する点線枠で示される注視位置808を注視している。視線検出回路201によって検出される視線検出位置は、点線枠で示される視線検出位置809である。また、ステップS913で更新された補正値を用いてオフセット810(図8Aのオフセット806と同じ)が適用された位置が、実線枠で示される補正後の視線検出位置811である。
また、図8Cの例において、視線候補位置は、被写体検出回路207によって検出される眼部検出位置812である。したがって、図8Aの被写体714の状態から図8Cの被写体714の状態に変化しても、ユーザーが注視している注視位置808、補正後の視線検出位置811、眼部検出位置812の3者が一致している。ステップS915では、CPU3は、補正後の視線検出位置811と眼部検出位置812の一致度を算出する。一例として、CPU3は、点線枠で示される視線検出位置811の領域の中心と、点線枠で示される眼部検出位置812の領域の中心との距離に基づく一致度を算出する。この場合、CPU3は、視線検出位置811の領域の中心と眼部検出位置812の領域の中心との距離が短いほど一致度が大きくなるように一致度を算出する。なお、この一致度は、2つの位置がどの程度一致しているかを示す度合いであり周知の技術を用いて算出できるため、一致度の算出の詳細な説明については省略する。
次に、ステップS916において、CPU3は、ステップS914において算出した一致度があらかじめ決められた閾値以上であるか否かを判定する。CPU3は、一致度が所定閾値以上である場合は(S916:YES)、図9のフローチャートの処理を終了し、一致度が所定閾値未満である場合は(S916:NO)、処理をステップS917に進める。図8Cに示す例では、一致度が閾値以上となり、CPU3は図9のフローチャートの処理を終了する。
次に、図8Bの場合にCPU3が実行する処理について説明する。図8Bの場合、検出された被写体714が被写体検出枠813で囲まれる。また、ユーザーは、被写体714の重心位置に相当する点線枠で示される注視位置814を注視しているとする。補正前の
視線検出回路201によって検出される視線検出位置は、実線枠で示される補正前の視線検出位置815である。
また、被写体714の重心位置は、補正前の視線検出位置815を中心とする円内である最大オフセット領域816内にある。さらに、図10Aの視線位置候補テーブルにおいて重心位置(優先度=2)よりも優先度が高い眼部(優先度=1)も領域816内にある。したがって、ステップS911において、CPU3は、視線候補位置テーブルを参照し、被写体検出回路207が検出した被写体714の眼部検出位置817を、視線検出位置815の補正処理に使用する視線候補位置として選択する。
次にステップ912において、CPU3は、補正前の視線検出位置815と眼部検出位置817の位置の差分からオフセット819を算出する。次に、ステップS913において、CPU3は、ステップS911において算出したオフセット819を用いて、視線検出回路201の視線検出用の補正値を更新する。この結果、カメラ1では、視線検出回路201により検出される視線検出位置がオフセット819によって補正された位置が、補正後の視線検出位置となる。
次に、ステップS914において、CPU3は、所定時間が経過したか否かを判定する。CPU3は、所定時間が経過した時点で(S914:YES)処理をステップS915に進める。
そして、ステップS915において、CPU3は、ステップS913において更新した補正値を用いて補正した視線検出位置と視線候補位置817との一致度を算出し、ステップS916において、算出した一致度を閾値によって判定する。
図8Bの場合では、ユーザーが注視している位置は、被写体714の重心位置に相当する注視位置814である。したがって、補正処理において採用されるべきオフセットは、補正前の視線検出位置815と重心位置の視線候補位置814との位置の差分に相当するオフセット818である。しかしながら、CPU3は、視線候補位置テーブルの優先度に従って被写体714の眼部を視線候補位置817として選択するため、オフセット818ではなくオフセット819に基づいて補正値を更新する。
図8Dは、図8Bに示す被写体714である犬が移動して向きが左右反転して姿勢が変化した状態の一例を示す。図8D示す例では、ユーザーが被写体714の重心位置を注視している場合であり、検出された被写体714が矩形の被写体検出枠820で囲まれる。また、ユーザーは、図8Bの状態から引き続き被写体714の重心位置に相当する点線枠で示される注視位置821を注視している。また、視線検出回路201によって検出される視線検出位置は、点線枠で示される視線検出位置823である。ところが、ステップS913で更新された補正値を用いてオフセット824(図8Bのオフセット819と同じ)が適用された位置は、実線枠で示される補正後の視線検出位置825である。
このとき、視線位置候補となっているのは、被写体検出回路207によって検出されている眼部検出位置826である。したがって、図8Bの被写体714の状態から図8Dの被写体714の状態に変化したときに、ユーザーが注視している注視位置821、補正後の視線検出位置825、眼部検出位置826の3者が、互いに一致しない関係になっている。このため、ステップS915において、CPU3は、補正後の視線検出位置825と眼部検出位置826の一致度を算出し、ステップS916において、CPU3は、一致度が所定閾値未満である(S916:NO)と判定する。
この結果、CPU3は、処理をステップS916からステップS917に進める。ステ
ップS917では、CPU3は、視線候補位置テーブルを参照し、ステップS911において選択していない未使用の視線候補となる位置があるか否かを判定する。CPU3は、未使用の視線候補となる位置がある場合は(S917:YES)、処理をステップS911に進める。また、CPU3は、未使用の視線候補となる位置がない場合は(S917:NO)、処理をステップS901に戻す。
上記の処理により、眼部(優先度=1)が視線候補位置として選択されて、ステップS911~ステップS916の処理が実行されている。ただし、図10Aの視線候補位置テーブルにおいて、重心位置、前足元、後足元(優先度=2~4)は視線候補位置として未使用である。したがって、CPU3は、処理をステップS917からステップS911に戻し、ステップS911において、未使用の視線候補位置のうち優先度が最も高い位置(この場合は重心位置)を視線候補の位置として選択する。
図11Aおよび図11Bを参照しながら、ユーザーが被写体714の重心位置を注視しており、CPU3が被写体714の重心位置を視線候補位置として選択した場合の処理について説明する。なお、図11A、図11Bの例は、それぞれ図8A、図8Bの例に対応している。
ステップS912において、CPU3は、補正前の視線検出位置1103と重心検出位置1105との差分からオフセット1106を算出する。次に、ステップS913において、CPU3は、ステップS912において算出したオフセット1106を用いて、視線検出回路201の視線検出用の補正値を更新する。この結果、カメラ1では、視線検出回路201により検出される視線検出位置がオフセット1106によって補正された位置が、補正後の視線検出位置となる。
次に、ステップS914において、CPU3は、所定時間が経過したか否かを判定する。CPU3は、所定時間が経過した時点で(S914:YES)処理をステップS915に進める。
次に、ステップS915において、CPU3は、ステップS913において更新した補正値を用いて補正した視線検出位置と視線候補位置1105との一致度を算出し、算出した一致度を閾値によって判定する。図11Bは、図11Aに示す被写体714である犬が移動して向きが左右反転して姿勢が変化した状態の一例を示す。
図11Bに示す例では、ユーザーが被写体714の重心位置を注視している場合で、検出された被写体714が矩形の被写体検出枠1107で囲まれる。また、ユーザーは、図11Aの状態から引き続き被写体714の重心位置に相当する点線枠で示される注視位置1108を注視している。視線検出回路201によって検出される視線検出位置は、点線枠で示される視線検出位置1109である。また、ステップS913で更新された補正値を用いてオフセット1110(図11Aのオフセット1106と同じ)が適用された位置が、実線枠で示される補正後の視線検出位置1111である。
また、図11Bの例において、視線候補位置は、被写体検出回路207によって検出される眼部検出位置1112である。したがって、図11Aの被写体714の状態から図11Bの被写体714の状態に変化しても、ユーザーが注視している注視位置1108、補正後の視線検出位置1111、眼部検出位置1112の3者が一致している。
ステップS914において、CPU3は、所定時間が経過したか否かを判定する。CPU3は、所定時間が経過した時点で(S914:YES)処理をステップS915に進める。そして、ステップS915では、CPU3は、補正後の視線検出位置1111と眼部
検出位置1112の一致度を算出する。
次に、ステップS916において、CPU3は、ステップS913において算出した一致度があらかじめ決められた閾値以上であるか否かを判定する。図11Bに示す例では、一致度が閾値以上となり(S916:YES)、CPU3は図9のフローチャートの処理を終了する。
本実施形態では、カメラ1の画角内でユーザーが注視している被写体が所定の大きさよりも大きい場合においても、カメラ1による視線検出位置と、実際にユーザーが注視している被写体中の位置とのオフセットを精度よく補正することができる。これにより、カメラ1において、補正後の視線検出位置を精度よくユーザーの注視位置に合わせることが可能となる。
以上が、本件開示の技術に係る実施形態に関する説明であるが、上記実施形態は、本件開示の技術の構成例を例示的に説明するものにすぎない。本件開示の技術は、上記の具体的な形態に限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、ステップS604、S904において、視線位置の候補となる被写体を決定する際に、撮影モードや視線検出位置と検出被写体との距離などに基づく代わりに、ユーザーがあらかじめ指定した被写体を優先的に選択するようにカメラ1を構成してもよい。カメラ1に対してあらかじめ視線位置の候補とする被写体を指定する方法としては、当該被写体を指定する情報が含まれたユーザーの識別情報(個別情報)をメモリ部4に記憶しておく方法が挙げられる。これにより、CPU3は、メモリ部4に記憶された識別情報を基にユーザーごとにより適切な視線位置の候補とする被写体を選択することができる。
また、上記の実施形態においては、CPU3が、メモリ部4に記憶されている視線位置候補テーブルの優先度を基に視線候補の位置を選択する。この代わりにあるいは加えて、CPU3が、検出した被写体の大きさなどを含む被写体に関する情報や、検出した被写体の画像のコントラストなどの画像情報に基づいて視線候補の位置を選択してもよい。
また、上記の実施形態において、メモリ部4に記憶されている視線位置候補テーブルの優先度は、表示デバイス10が表示する画像における画角に対する被写体領域の相対的な大きさに応じて変更されてもよい。また、視線位置候補テーブルの優先度は、注視される特徴位置の傾向を示す情報に基づいて変更されてもよい。例えば、上記の実施形態で、当該情報が、犬の前足元が注視される傾向にあることを示す場合、CPU3は、最初に被写体714の前足元位置を視線候補の位置として選択する。また、注視される特徴位置の傾向を示す情報は、複数のユーザーの間で共通の情報であってもよいし、ユーザーごとの情報であってもよい。例えば、ユーザーが注視する特徴位置の傾向を示す情報が含まれた当該ユーザーの識別情報(個別情報)が、あらかじめメモリ部4に記憶されてよい。これにより、CPU3は、識別情報を用いて視線位置候補テーブルの優先度を変更する。そして、CPU3は、変更後の優先度に基づいて視線候補の位置を選択することで、ユーザーが注視する傾向にある被写体の特徴位置を、視線候補の位置として選択することができる。なお、ユーザーの識別情報(個別情報)の一例として、カメラ1にユーザーを認証する個人認証手段が設けられ、個人認証手段によるユーザー認証が成功した場合に使用される個人認証データが挙げられる。また、個人認証手段は周知の技術を用いて実現できるため、ここでは詳細な説明は省略する。
また、上記の実施形態において、S601で検出被写体の位置を再度選択する際に、視線検出回路201が、視線検出位置からの距離に加えて、あるいはその代わりに、ユーザーの視線(視線検出位置)の移動方向を基に検出被写体の位置を選択してもよい。例えば、ステップS601において、CPU3は、表示デバイス10に表示される画像において
、ユーザーの視線の移動方向と概ね同じ方向に移動する被写体の位置を優先的に検出被写体の位置として選択する。これにより、ユーザーが注視している被写体とステップS601で選択される検出被写体とをより精度よく一致させることができる。
また、上記の実施形態において、視線検出位置、被写体検出位置、視線候補の位置などの少なくとも1つの位置を表示デバイス10に表示してもよい。例えば、表示デバイス10は、上記の説明で図示したようにそれぞれの位置を実線や点線の矩形によって表示することができる。また、上記の実施形態において、検出される被写体は、例示した動物に限らず、人物、自動車、オートバイ、電車などの他の被写体であってもよいし、これらの被写体が混在していてもよい。
また、上記の実施形態において、CPU3の代わりに視線検出回路201が表示デバイス10に対するユーザーの視線位置を検出するように構成されていてもよい。
<<その他の実施形態>>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1 カメラ、3 CPU、10 表示デバイス、201 視線検出回路、207 被写体検出回路

Claims (23)

  1. 表示手段に対するユーザーの視線の位置を検出する視線検出手段と、
    前記表示手段に表示される画像から被写体を検出する被写体検出手段と、
    前記視線検出手段によって検出された視線の位置が前記被写体検出手段によって検出された被写体の位置に合うように、前記視線検出手段で使用する補正値を決定する補正値決定手段と
    を有することを特徴とする視線検出装置。
  2. 前記補正値決定手段は、前記画像から複数の被写体が検出された場合、前記視線検出手段によって検出された視線の位置を前記複数の被写体のうち前記画像の所定領域に存在するいずれかの被写体に合わせるように前記補正値を決定することを特徴とする、請求項1記載の視線検出装置。
  3. 前記補正値決定手段は、前記画像から複数の種別の被写体が検出された場合、いずれの種別の被写体を優先するかを示す情報に応じて、前記複数の被写体から前記情報が示す種別に対応する被写体を選択することを特徴とする、請求項2に記載の視線検出装置。
  4. 前記補正値決定手段は、前記補正値の決定に用いる被写体を指定する情報を基に、前記複数の被写体から前記いずれかの被写体を選択することを特徴とする、請求項2または3に記載の視線検出装置。
  5. 前記補正値決定手段は、前記視線検出手段によって検出された視線の位置を基準に決まる被写体を選択することを特徴とする請求項4に記載の視線検出装置。
  6. 前記補正値決定手段は、
    複数の被写体が検出された場合、前記視線検出手段によって検出された視線の位置が、前記複数の被写体のいずれかの被写体に合うように、前記補正値を決定し、
    所定時間の経過後、前記視線検出手段によって検出された視線の位置と前記いずれかの被写体との一致度が前記所定閾値未満である場合に、前記視線検出手段によって検出された視線の位置が、前記複数の被写体のうちの前記いずれかの被写体と異なる被写体に合うように、前記補正値を決定することを特徴とする、請求項1から5のいずれか1項に記載の視線検出装置。
  7. 前記被写体検出手段は、検出した被写体の特徴位置を検出し、
    前記補正値決定手段は、前記視線検出手段によって検出された視線の位置が前記特徴位置に合うように前記補正値を決定する
    ことを特徴とする請求項1から6のいずれか1項に記載の視線検出装置。
  8. 前記被写体検出手段は、検出した被写体が生物である場合に該被写体の器官を検出し、検出した前記器官の位置を前記特徴位置として検出することを特徴とする請求項7に記載の視線検出装置。
  9. 前記被写体検出手段は、検出した被写体の被写体領域の形状に応じて、前記特徴位置を検出することを特徴とする請求項7または8に記載の視線検出装置。
  10. 前記被写体検出手段は、前記被写体領域の幾何学的な重心位置を前記特徴位置とすることを特徴とする、請求項9記載の視線検出装置。
  11. 前記補正値決定手段は、複数の特徴位置が検出された場合、前記複数の特徴位置それぞ
    れの優先度に応じて前記複数の特徴位置のいずれかを、前記視線検出手段によって検出された視線の位置を合わせる特徴位置として選択することを特徴とする請求項7から10のいずれか1項に記載の視線検出装置。
  12. 前記複数の特徴位置それぞれの優先度は、前記画像における画角に対する被写体領域の相対的な大きさに応じて変更されることを特徴とする請求項11に記載の視線検出装置。
  13. 前記複数の特徴位置それぞれの優先度は、前記画像のコントラストに応じて変更されることを特徴とする請求項11または12に記載の視線検出装置。
  14. 前記補正値決定手段は、
    検出した被写体の複数の特徴位置を検出した場合、前記視線検出手段によって検出された視線の位置が、前記複数の特徴位置のいずれかの特徴位置に合うように、前記補正値を決定し、
    所定時間の経過後、前記視線検出手段によって検出された視線の位置と前記いずれかの特徴位置との一致度が前記所定閾値未満である場合に、前記視線検出手段によって検出された視線の位置が、前記複数の特徴位置のうちの前記いずれかの特徴位置と異なる特徴位置に合うように、前記補正値を決定することを特徴とする、請求項7から13のいずれか1項に記載の視線検出装置。
  15. 前記補正値決定手段は、前記視線検出手段によって検出された視線の位置が、前記ユーザーが注視する傾向にある被写体の特徴位置に合うように前記補正値を決定することを特徴とする請求項7から14のいずれか1項に記載の視線検出装置。
  16. 前記補正値決定手段は、前記視線検出手段により検出された前記ユーザーの視線の位置と前記被写体検出手段により検出された被写体とが重なり続ける時間が、所定時間より短い場合に、前記視線検出手段によって検出された視線の位置が前記被写体検出手段によって検出された別の被写体の位置に合うように、検出した視線の位置の個人差を補正する補正値を決定することを特徴とする請求項1から15のいずれか1項に記載の視線検出装置。
  17. 前記表示手段は、前記視線検出手段により検出された前記ユーザーの視線の位置を示す指標を前記画像内に表示することを特徴とする請求項1から16のいずれか1項に記載の視線検出装置。
  18. 前記表示手段は、前記被写体検出手段により検出された被写体の位置を示す指標を前記画像内に表示することを特徴とする請求項1から17のいずれか1項に記載の視線検出装置。
  19. 前記表示手段は、前記ユーザーが眼部を接眼でき、前記指標を表示する電子表示ファインダーであることを特徴とする請求項17または18に記載の視線検出装置。
  20. 撮像手段と、
    請求項1から19のいずれか1項に記載の視線検出装置と
    を有し、
    前記視線検出装置は、前記撮像手段により撮像された前記画像を前記表示手段に表示するように制御し、前記画像を見る眼の視線を検出する
    ことを特徴とする撮像装置。
  21. 表示手段に対するユーザーの視線の位置を検出する視線検出ステップと、
    前記表示手段に表示される画像から被写体を検出する被写体検出ステップと、
    前記視線検出ステップによって検出された視線の位置が前記被写体検出ステップによって検出された被写体の位置に合うように、前記視線検出ステップで使用する補正値を決定する補正値決定ステップと
    を有することを特徴とする視線検出方法。
  22. コンピュータを、請求項1から19のいずれか1項に記載の視線検出装置の各手段として機能させるためのプログラム。
  23. コンピュータを、請求項1から19のいずれか1項に記載の視線検出装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2021104994A 2021-06-24 2021-06-24 視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体 Pending JP2023003735A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021104994A JP2023003735A (ja) 2021-06-24 2021-06-24 視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体
US17/845,370 US11930266B2 (en) 2021-06-24 2022-06-21 Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021104994A JP2023003735A (ja) 2021-06-24 2021-06-24 視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体

Publications (1)

Publication Number Publication Date
JP2023003735A true JP2023003735A (ja) 2023-01-17

Family

ID=84541767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021104994A Pending JP2023003735A (ja) 2021-06-24 2021-06-24 視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体

Country Status (2)

Country Link
US (1) US11930266B2 (ja)
JP (1) JP2023003735A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009113231A1 (ja) * 2008-03-14 2009-09-17 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
JP6547268B2 (ja) * 2014-10-02 2019-07-24 富士通株式会社 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム
JP6862202B2 (ja) * 2017-02-08 2021-04-21 キヤノン株式会社 画像処理装置、撮像装置および制御方法
JP6991746B2 (ja) 2017-06-09 2022-01-13 キヤノン株式会社 撮像装置
US10776989B1 (en) * 2019-05-13 2020-09-15 Robert Edwin Douglas Method and apparatus for prioritized volume rendering
JP2020106552A (ja) 2018-12-26 2020-07-09 キヤノン株式会社 被写体認識装置

Also Published As

Publication number Publication date
US20220417422A1 (en) 2022-12-29
US11930266B2 (en) 2024-03-12

Similar Documents

Publication Publication Date Title
JP7358530B2 (ja) 被写体認識装置及び被写体認識装置の制御方法
JP7293039B2 (ja) 撮像装置およびその制御方法
JP2021150760A (ja) 撮像装置およびその制御方法
JP2023003735A (ja) 視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体
JP2020106552A (ja) 被写体認識装置
WO2021044763A1 (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JPH0556924A (ja) ビデオカメラ
JP3186212B2 (ja) 視線入力可能なカメラ
WO2022091664A1 (ja) 電子機器およびその制御方法
JP7358130B2 (ja) 電子機器およびその制御方法
US20240085979A1 (en) Recording device, image-capturing apparatus, control method, and recording system
US20220197111A1 (en) Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium
US20230186520A1 (en) Gaze detection apparatus
JP2023083695A (ja) 電子機器
JP2022171084A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2023063023A (ja) 電子機器及び電子機器の制御方法
JP2024003432A (ja) 電子機器
JP2021182736A (ja) 電子機器
JP3184634B2 (ja) 視線検出装置を有する光学装置
JP3332581B2 (ja) 光学装置、カメラ、視線検出装置、視線検出方法、及び、接眼部と眼球位置の相対位置判別方法。
JP2022165239A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2002062471A (ja) 光学装置及びカメラ
JP2001004906A (ja) 視線検出機能付き光学機器及びカメラ
JP2002287011A (ja) 光学装置及びカメラ
JP2022183552A (ja) 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体