JP2020106552A - 被写体認識装置 - Google Patents
被写体認識装置 Download PDFInfo
- Publication number
- JP2020106552A JP2020106552A JP2018241892A JP2018241892A JP2020106552A JP 2020106552 A JP2020106552 A JP 2020106552A JP 2018241892 A JP2018241892 A JP 2018241892A JP 2018241892 A JP2018241892 A JP 2018241892A JP 2020106552 A JP2020106552 A JP 2020106552A
- Authority
- JP
- Japan
- Prior art keywords
- gazing point
- eyeball
- image
- user
- display element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Exposure Control For Cameras (AREA)
Abstract
【課題】 視線検出装置を有する撮像装置において、視線位置のずれがあった場合でも機会を逃さずに撮影する事を可能としつつ、注視位置のキャリブレーション動作を自動的に行い、撮影者の利便性の向上を図ること。【解決手段】 撮像素子と、表示素子と、眼球用撮像素子と、該眼球用撮像素子から得られる眼球画像より、前記表示素子上において使用者の注視する箇所を推定する注視点位置推定手段と、前記注視点位置推定手段により推定された注視点位置を示す指標を、前記表示素子上に表示する注視点位置表示手段と、前記表示素子上に表示された注視点位置を示す指標の位置を、使用者が手動で変更することを可能とする手動操作手段と、を有し、前記手動操作手段による指標の位置変更があった場合において、その際に撮影された眼球画像と前記手動操作手段による指標位置の変更量を用いて、前記注視点推定手段のパラメータの修正を行う。【選択図】図9
Description
本発明は、視線検出装置を有する撮像装置に関する。
近年、カメラの自動化・インテリジェント化が進み、特許文献1に示されるように、手動で被写体位置を入力せずとも、ファインダを覗く撮影者の視線位置の情報に基づいて撮影者が意図する被写体を認識し、焦点制御を行うことを可能とするカメラ制御装置が提案されている。また、カメラが上記のように撮影者の視線位置を検出する際に、撮影者の意図した視線位置とカメラが認識する撮影者の視線位置の間にズレが生じ、撮影者の意図する被写体に焦点を合わせることができない場合がある。
これに対し、上記の特許文献1においては、撮影前にファインダ内に指標を表示し、ユーザーにその指標を注視するよう指示を出し、その注視状態において、ユーザーの視線位置を検出し、該指標位置とのずれ量を検出する作業を行う。その検出されたずれ量だけ、撮影時にカメラが認識する撮影者の視線検出位置を補正することで、よりユーザーの意図どおりの視線位置を検出することを可能とするキャリブレーション技術が記載されている。
また、特許文献2においては、携帯型端末の起動時におけるロック解除動作を、所定の場所を所定の順に見るとロックが解除されるといった形で、視線検出を用いてユーザーに行わせている。その動作の際にユーザーが所定の箇所を見るという特性を利用して、その箇所をユーザーが実際に見ている正しい視線位置として、カメラが推定する視線位置とのずれ量を検知して、視線検出位置の補正をロック解除動作と同時に行っている。これによってキャリブレーションにかかるユーザーの負担を軽減している。
特許文献1においては、撮影者の意図する注視点位置とカメラが検出する注視点位置にずれがある場合に、キャリブレーションによってその補正を行っている。しかし、明るさ等の周囲の環境や撮影者の体勢等が変わると、カメラが検出する注視点位置が変化するため、状況が変わるたびに頻繁にキャリブレーション作業を行わねばならず、煩雑となる問題がある。
特許文献2においては、携帯端末の起動時のロック解除動作を行う際に同時にキャリブレーションを行っている。しかし、ロック解除動作の際の複数の注視箇所を、ユーザーがいつ注視するかといったタイミングが不明であり、確実に見ている瞬間を特定することが難しい。また、撮像装置においては動く被写体の撮影等の場合に、機会を逃さずに撮影を行う必要があるため、視線位置のずれがあった場合に、撮影を中断してロック解除画面やキャリブレーション画面まで戻って調整をやり直す構成では利便性がよくない問題がある。
本発明は上記課題に鑑みてなされたものであり、視線検出装置を有する撮像装置において、視線位置のずれがあった場合でも機会を逃さずに撮影する事を可能としつつ、注視位置のキャリブレーション動作を自動的に行い、撮影者の利便性を向上する事を目的とする。
上記の目的を達成するために、本発明に係る撮像装置は、
撮像素子と、
表示素子と、
眼球用撮像素子と、
該眼球用撮像素子から得られる眼球画像より、前記表示素子上において使用者の注視する箇所を推定する注視点位置推定手段と、
前記注視点位置推定手段により推定された注視点位置を示す指標を、前記表示素子上に表示する注視点位置表示手段と、
前記表示素子上に表示された注視点位置を示す指標の位置を、使用者が手動で変更することを可能とする手動操作手段と、
を有し、前記手動操作手段による指標の位置変更があった場合において、その際に撮影された眼球画像と前記手動操作手段による指標位置の変更量を用いて、前記注視点推定手段のパラメータの修正を行うことを特徴とする。
撮像素子と、
表示素子と、
眼球用撮像素子と、
該眼球用撮像素子から得られる眼球画像より、前記表示素子上において使用者の注視する箇所を推定する注視点位置推定手段と、
前記注視点位置推定手段により推定された注視点位置を示す指標を、前記表示素子上に表示する注視点位置表示手段と、
前記表示素子上に表示された注視点位置を示す指標の位置を、使用者が手動で変更することを可能とする手動操作手段と、
を有し、前記手動操作手段による指標の位置変更があった場合において、その際に撮影された眼球画像と前記手動操作手段による指標位置の変更量を用いて、前記注視点推定手段のパラメータの修正を行うことを特徴とする。
本発明によれば、視線検出装置を有する撮像装置において、視線位置のずれがあった場合でも機会を逃さずに撮影する事を可能としつつ、注視位置のキャリブレーション動作を自動的に行い、撮影者の利便性を向上する事ができる。
以下、本発明を実施するための形態について、図面を参照しながら説明する。
<構成の説明>
図2は本発明におけるデジタルスチルカメラ1の外観を示している。図2(a)は正面斜視図、図2(b)は背面斜視図である。
図2は本発明におけるデジタルスチルカメラ1の外観を示している。図2(a)は正面斜視図、図2(b)は背面斜視図である。
デジタルスチルカメラ1は本実施例においては、図2(a)の正面斜視図に示すように、撮影レンズ1A及びカメラ本体の筐体部1Bで構成されている。また、ユーザーからの撮像操作を受ける操作部材であるレリーズボタン5が配置されている。また、図2(b)の背面斜視図で示すように、デジタルスチルカメラ1の背面には、カメラ内部に含まれる後述する表示素子を、ユーザーが覗きこむための接眼レンズ12が配置されている。また、41〜43で示す、操作部材α(タッチパネル対応液晶)、操作部材β(レバー式操作部材)、操作部材γ(ボタン式十字キー)といった、後述するカメラ操作に使用する各種操作部材が配置されているとする。
図1は図2(a)で図示したY軸とZ軸が成すYZ平面でカメラ筐体を切った断面図であり、本発明におけるデジタルスチルカメラ1の構成の概略を示した説明図である。図1及び図2において、対応する部位は同じ番号で表記されている。
図1において、1Aはレンズ交換式カメラにおける撮影レンズを示す。本実施形態では便宜上撮影レンズ1Aの内部を101、102の二枚のレンズで表したが、実際はさらに多数のレンズで構成されていることは周知の通りである。1Bはカメラ本体の筐体部を示し、その内部に含まれるユニットの構成は以下のようになる。2は撮像素子で、デジタルスチルカメラ1の撮影レンズ1Aの予定結像面に配置されている。デジタルスチルカメラ1には、カメラ全体を制御するCPU3、撮像素子2にて撮像された画像を記録するメモリ部4が内包される。また、撮像された画像を表示するための液晶等で構成される表示素子10と、それを駆動する表示素子駆動回路11、表示素子10に表示された被写体像を観察するための接眼レンズ12が配置されている。上記撮像素子2及び表示素子10は請求項1における撮像素子及び表示素子に相当する。
13a〜13bは、従来より一眼レフカメラ等に用いられている光源の角膜反射による反射象と瞳孔の関係から視線方向を検出するための撮影者の眼球14を照明するための光源で、赤外発光ダイオードからなり、接眼レンズ12の周りに配置されている。照明された眼球像と光源13a〜13bの角膜反射による像は接眼レンズ12を透過し、光分割器15で反射され、受光レンズ16によってCCD棟の光電素子列を2次元的に配した眼球用撮像素子17上に結像される。受光レンズ16は撮影者の眼球14の瞳孔と眼球用撮像素子17を共役な結像関係に位置付けている。眼球用撮像素子17上に結像された眼球と光源13a〜13bの角膜反射による像の位置関係から後述する所定のアルゴリズムで視線方向を検出する。上記眼球用撮像素子は、請求項1における眼球用撮像素子に相当する。
111は撮影レンズ1内に設けた絞り、112は絞り駆動装置、113はレンズ駆動用モーター、114は駆動ギヤ等からなるレンズ駆動部材、115はフォトカプラーでレンズ駆動部材114に連動するパルス板116の回転を検知して、レンズ焦点調節回路118に伝えている。焦点調節回路118は、この情報とカメラ側からのレンズ駆動量の情報にもとづいてレンズ駆動用モーター113を所定量駆動させ、撮影レンズ1aを合焦点位置に移動させるようになっている。117は公知のカメラとレンズとのインターフェイスとなるマウント接点である。
また、前述した41〜43で示す操作部材α(タッチパネル対応液晶)、操作部材β(レバー式操作部材)、操作部材γ(ボタン式十字キー)の操作部材が配置され、後述の推定注視点枠位置の手動操作による移動制御等が行われる。
図3は前期構成のデジタルスチルカメラに内蔵された電気的構成を示すブロック図であり、図1と同一のものは同一番号をつけている。
カメラ本体に内蔵されたマイクロコンピュータの中央処理装置3(以下、CPU3と呼ぶ)には視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示素子駆動回路11、照明光源駆動回路205が接続されている。また、撮影レンズ内に配置された焦点調節回路118、前述の絞り駆動装置112に含まれる絞り制御回路206とは図1で示したマウント接点117を介して信号の伝達がなされる。CPU3に付随したメモリ部4は、撮像素子2および眼球用撮像素子17からの撮像信号の記憶機能及び、後述する視線の個人差を補正する視線補正データの記憶機能を有している。
視線検出回路201は、眼球用撮像素子17(CCD−EYE)からの眼球像が結像することによる出力をA/D変換し、この像情報をCPU3に送信する。CPU3は視線検出に必要な眼球像の各特徴点を後述する所定のアルゴリズムに従って抽出し、更に各特徴点の位置から撮影者の視線を算出する。
測光回路202は、測光センサの役割も兼ねる撮像素子2から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、被写界輝度情報として、CPU3に送る。
自動焦点検出回路203は、撮像素子2におけるCCDの中に含まれる、位相差検出の為に使用される複数の画素からの信号電圧をA/D変換し、CPU3に送る。CPU3は前記複数の画素の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施例では、一例として、図4のファインダ内視野像で示した箇所に対応する撮像面上の位置に180か所の焦点検出ポイントがあるとする。
信号入力回路204には不図示のレリーズボタン5の第一ストロークでONし、カメラの測光、測距、視線検出動作等を開始するためのスイッチであるSW1と、レリーズボタンの第二ストロークでONし、レリーズ動作を開始するためのスイッチであるSW2が接続される。前記の信号が信号入力回路204に入力され、CPU3に送信される。
また、前述した41〜43で示す操作部材α(タッチパネル対応液晶)、操作部材β(レバー式操作部材)、操作部材γ(ボタン式十字キー)は、CPU3にその操作信号が伝わる構成となっており、それに応じて後述する推定注視点枠位置の移動操作制御等が行われる。
図4はファインダ視野内を示した図で、表示素子10が動作した状態を示す。
図4において、300は視野マスク、400は焦点検出領域、4001〜4180は表示素子10に示されるスルー画像に、前記撮像面上における複数の焦点検出ポイントに対応する位置に重ねて表示した180個の測距点視標を示す。また、それらの指標の内、現在の推定注視点位置に対応する指標を図における推定注視点Aのように枠を出現させた表示を行う。上記推定注視点位置に枠を表示させる事は請求項1における、前記注視点位置推定手段により推定された注視点位置を示す指標を、前記表示素子上に表示する事に相当する。また、CPU3が表示素子10対して信号を送り、上記推定注視点位置に枠を表示させる構成は、請求項1における注視点位置表示手段に相当する。
図5は視線検出方法の原理説明図であり、前述の図1の視線検出をおこなうための光学系の要約図に相当する。
図5において、13a、13bは観察者に対して不感の赤外光を放射する発光ダイオード等の光源であり、各光源は受光レンズ16の光軸に対して略対称に配置され観察者の眼球14を照らしている。眼球14で反射した照明光の一部は受光レンズ16によって、眼球用撮像素子17に集光する。
図6(A)は眼球用撮像素子17に投影される眼球像の概略図、同図(B)は眼球用撮像素子17におけるCCDの出力強度図である。図7は視線検出の概略フロールーチンを表している。
以下、図5〜7を用いて、視線の検出手段を説明する。
<視線検出動作の説明>
図7において、視線検出ルーチンが開始すると、S001において、光源13a、13bは観察者の眼球14に向けて赤外光を放射する。上記赤外光によって照明された観察者の眼球像は、眼球用撮像素子17上に受光レンズ16を通して結像し、眼球用撮像素子17により光電変換がなされ、眼球像は電気信号として処理が可能となる。
図7において、視線検出ルーチンが開始すると、S001において、光源13a、13bは観察者の眼球14に向けて赤外光を放射する。上記赤外光によって照明された観察者の眼球像は、眼球用撮像素子17上に受光レンズ16を通して結像し、眼球用撮像素子17により光電変換がなされ、眼球像は電気信号として処理が可能となる。
ステップS002において上記のように眼球用撮像素子17から得られた眼球画像信号をCPU3に送る。ステップS003では、S002において得られた眼球画像信号の情報から、図5に示す光源13a、13bの角膜反射像Pd,Pe及び瞳孔中心cに対応する点の座標を求める。光源13a、13bより放射された赤外光は観察者の眼球14の角膜142を照明し、このとき角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは受光レンズ16により集光され、眼球用撮像素子17上に結像する(図示の点Pd’,Pe’)。
同様に瞳孔141の端部a、bからの光束も眼球用撮像素子17上に結像する。図6では、図6(a)において眼球用撮像素子17から得られる反射像の画像例を、図6(b)に上記画像例の領域αにおける、眼球用撮像素子17から得られる輝度情報例を示す。図示のように、水平方向をX軸、垂直方向をY軸とする。このとき、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとする。また、瞳孔14bの端部a、bからの光束が結像した像a’,b’のX軸方向の座標をXa、Xbとする。(b)の輝度情報例において、光源13a、13bの角膜反射像が結像した像Pd’,Pe’に相当する位置Xd,Xeでは、極端に強いレベルの輝度が得られている。
瞳孔141の領域に相当する、座標XaからXbの間の領域は、上記Xd、Xeの位置を除き、極端に低いレベルの輝度が得られる。これに対し、瞳孔141の外側の光彩143の領域に相当する、Xaより低いX座標の値を持つ領域及びXbより高いX座標の値を持つ領域では、前記2種の輝度レベルの中間の値が得られる。上記X座標位置に対する輝度レベルの変動情報から、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX座標Xd,Xeと、瞳孔端の像a’,b’のX座標Xa、Xbを得ることができる。
また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合、眼球用撮像素子17上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。上記より、眼球用撮像素子17上に結像する瞳孔中心に相当するc’のX座標、光源13a、13bの角膜反射像Pd’,Pe’の座標を見積もることができた。
さらに、ステップS004では、眼球像の結像倍率βを算出する。βは受光レンズ16に対する眼球14の位置により決まる倍率で、実質的には角膜反射像Pd‘、Pe’の間隔(Xd−Xe)の関数として求めることができる。
また、ステップS005では、角膜反射像Pd及びPeの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致するため、角膜142の曲率中心Oと瞳孔141の中心cまでの標準的な距離をOcとすると、眼球14の光軸のZ−X平面内の回転角θXは、
β*Oc*SINθX≒{(Xd+Xe)/2}−Xc
の関係式から求めることができる。
β*Oc*SINθX≒{(Xd+Xe)/2}−Xc
の関係式から求めることができる。
また、図5、図6においては、観察者の眼球がY軸に垂直な平面内で回転する場合の回転角θXを算出する例を示しているが、観察者の眼球がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
前ステップにおいて観察者の眼球14の光軸の回転角θx、θyが算出されると、ステップS006では、θx、θyを用いて、表示素子10上で観察者の視線の位置(注視している点の位置。以下、注視点と称する。)を求める。注視点位置を表示素子10上での瞳孔141の中心cに対応する座標(Hx,Hy)であるとして、
Hx=m×(Ax×θx+Bx)
Hy=m×(Ay×θy+By)
と算出することができる。
Hx=m×(Ax×θx+Bx)
Hy=m×(Ay×θy+By)
と算出することができる。
この時、係数mはカメラのファインダ光学系の構成で定まる定数で、回転角θx、θyを表示素子10上での瞳孔141の中心cに対応する位置座標に変換する変換係数であり、あらかじめ決定されてメモリ部4に記憶されているとする。また、Ax,Bx,Ay,Byは観察者の視線の個人差を補正する視線補正係数であり、後述するキャリブレーション作業を行うことで取得され、視線検出ルーチンが開始する前にメモリ部4に記憶されているものとする。
上記のように表示素子10上での瞳孔141の中心cの座標(Hx,Hy)を算出した後、ステップS007においてメモリ部4に上記座標を記憶して、視線検出ルーチンを終える。
上記は光源13a、13bの角膜反射像を利用した表示素子上での注視点座標取得手法を示したが、それに限られるものではなく、撮像された眼球画像から眼球回転角度を取得する手法であれば本発明は適用可能である。
後述する実施例2においては眼球画像からCNNを用いてユーザーの表示素10上での注視位置を検出する場合の構成を示す。
上記視線検出ルーチンが、請求項1における注視点位置推定手段に相当する。
<キャリブレーション作業について>
前述のように、視線検出ルーチンにおいて眼球画像から眼球の回転角度θx、θyを取得し、瞳孔中心位置を表示素子10上において対応する位置に座標変換する演算を行って注視点位置を推定している。
前述のように、視線検出ルーチンにおいて眼球画像から眼球の回転角度θx、θyを取得し、瞳孔中心位置を表示素子10上において対応する位置に座標変換する演算を行って注視点位置を推定している。
しかし、人間の眼球の形状の個人差等の要因により、前記視線補正係数Ax,Ay,Bx,Byの値を使用者によって適切な値に調整しなければ図4(b)に示したように、使用者が実際に注視している位置Bと演算された推定注視点Cの位置にずれが生じてしまう。上記例では位置Bの人物に注視したいのに、背景が注視されているとカメラ側が誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。
そこで、カメラによって撮像を行う前に、キャリブレーション作業を行い、使用者に適切な補正係数の値を取得し、カメラに記憶させる必要がある。
従来、キャリブレーション作業は、撮像前にファインダ視野内に図4(c)のような位置の異なる複数の指標を強調表示し、観察者にその指標を見てもらうことで行う。各視標注視時に注視点検出フローを行い、算出された複数の推定注視点座標と各視標座標の位置から適切な前記係数の値を求める作業を行うことが公知の技術として知られている。しかしながら、明るさ等の周囲の環境や撮影者の体勢等が変わると、カメラが検出する注視点位置が変化するため、状況が変わるたびに撮像を中止して頻繁にキャリブレーション作業を行わねば精度を維持できず、煩雑となる問題があった。そのため、ユーザーの撮像動作を妨げることがなく、自動的にキャリブレーションが行われて精度を確保するシステムが求められる。
<自動キャリブレーションシステム>
上記課題を解決するために、本発明においては、撮影動作にキャリブレーション作業を組み込み、自動的にキャリブレーションを行うことで、撮像を中止する必要がなく、ユーザーの利便性を向上させる構成をとっており、その原理を以下に説明する。
上記課題を解決するために、本発明においては、撮影動作にキャリブレーション作業を組み込み、自動的にキャリブレーションを行うことで、撮像を中止する必要がなく、ユーザーの利便性を向上させる構成をとっており、その原理を以下に説明する。
キャリブレーション作業において、第一に必要となる事項は、ユーザーが実際に表示素子10上のどの箇所を注視しているかを特定することにある。従来は前述したように図3(c)のように表示素子10上に見るべき指標を示し、ユーザーにその指標を注視する動作を行わせることで注視箇所を特定しているが、当然ながら、その間はユーザー撮像動作を行うことができないという問題がある。キャリブレーション動作を行うたびに撮影を中断する構成ではユーザーの利便性がよくない。
故に、望ましくは、ユーザーの自然な撮影動作中にユーザーが実際に注視している点を特定できるタイミングがあれば、それを利用して眼球画像からの推定注視点と実際の注視点との座標の差異を検出し、その差異からキャリブレーションを行うことが求められる。
前記ユーザーの撮影動作中にユーザーが実際に注視している点を特定する作業を、本発明においては、ユーザーによる現在の注視点の手動微調整動作を利用して行うものとする。
本発明の撮像装置においては、現在の推定注視点位置と実際に自分が見ている注視点位置に差異がある場合、撮像装置に含まれる操作部材を手動操作することにより、その操作量に応じて注視点位置を変更できる構成であるとする。
図8(a)〜(c)を用いて上記構成の説明を行う。まず、ユーザーはファインダを覗きこんだ状態で図8(a)のような、表示部10に表示された撮像素子からのスルー画像とそれに重畳して表示された推定注視点位置Cを表す枠が見えているとする。この時ユーザーは、自身が見ている実際の注視点位置Bと表示された推定注視点位置Cの位置に差異があると見た場合、ファインダを覗きこんだ姿勢のまま、図8(c)の様にカメラ背面の液晶部材を指で注視点位置を修正したい方向になぞる等の手動操作を行うとする。その結果、その操作方向・操作量に対応して図8(b)のように推定注視点位置が元の位置Cから微調整後の位置C’に移動して、注視点位置の微修正を行うことができるものとする。
上記手動微調整機能により、ユーザーは撮影動作を中断して時間のかかるキャリブレーション作業を行わず、撮影チャンスを逃さずに注視点位置の微修正を行うことができ、利便性が向上する。この動作は請求項1における、表示素子上に表示された注視点位置を示す指標の位置を、使用者が手動で変更することに相当する。
また、本発明の最も肝要な点は、上記動作をユーザーが行ったことをカメラが検知すると、次の事項が判明することにある。第一に現在の注視点推定位置が間違っていることが分かり、また、第二に図8(b)に示すようにそのずれ量とずれ方向のベクトル(ΔUとする)が、ユーザー自身が行う微調整動作から判明する。そして、微調整動作後の位置C’が、この時ユーザーが実際に見ていた注視点の正確な位置となる。
よって、本実施例において、カメラはユーザーが上記微修正動作を行った場合、それを受けて、第一に現在の注視点推定位置は間違っている事を認識し、前記の注視点計算のための補正パラメータ等を修正する必要があると判断できる。そして、第二に前記微修正動作の操作方向・操作量から得られた、ユーザーが見ている注視点位置と推定注視点位置の差異ベクトルΔUのデータを用いて再キャリブレーションが行われ、自動的に補正パラメータの修正が実行される。これらの一連の動作により、前記自動キャリブレーションを実現できたこととなる。
また、今回は一例として、図8(c)に示すようにカメラ背面における液晶部(41操作部材α)を親指で操作する例を挙げた。しかし、それに限定されるものではなく、背面にレバー状の操作部材があり、レバーを倒した方向に操作できる、又はボタン式の十字キー等があり、押下回数に応じて移動できる、などの構成でもよく、操作方向・操作量に応じて微修正動作を実現できればよい。
図2(b)のカメラ背面部の斜視図において42操作部材βとしてレバー式の操作部材の例を示している。図2(c)はその拡大図兼操作の様子を示す図であり、レバーを左右等に倒して操作を行うものとする。レバーを倒した方向に、倒した状態で維持した時間に比例して表示素子10上に表示された枠の移動等がCPU3を介して行われるものとする。また、図2(b)において43操作部材γとしてボタン式の十字キーの例を示す。動かしたい上下左右の方向のボタンを押すことで、押下回数に応じて枠の移動等が行われるものとする。これらの操作部材は、請求項1における表示素子上に表示された注視点位置を示す指標の位置を、使用者が手動で変更することを可能とする手動操作手段に相当する。
<操作部材の差によるキャリブレーションの重みつけの差異の設定>
ここで、前記微修正動作における操作部材として、例として挙げたカメラ背面に位置する前記操作部材は大別して2種に分類される。
ここで、前記微修正動作における操作部材として、例として挙げたカメラ背面に位置する前記操作部材は大別して2種に分類される。
まず、第1種目はボタン部材等で構成され、その押下回数やクリック回数等によってカーソル(枠)の移動を行う部材である。その特徴として、1回押すとカーソル(枠)が測距点1個分移動、2回押したら2個分移動といったように、1回、2回といった段階的な操作によってカーソル移動が段階的に行われることがある。前記例では43操作部材γとして示した、ボタン式十字キーに相当する。また、こういった操作部材は請求項2における、段階的な調整手段に相当する。
これに対し、第2種目は、カメラ背面部における液晶部を親指で任意の方向になぞる操作をすることによって、その操作方向・操作量に対応した量だけカーソルの移動を行う事例に代表される操作部材である。この特徴として、ユーザーはわかりやすい1回、2回といった段階的な操作回数でなく、親指がなぞる量といった無段階の尺度で量を操作することにある。この時、ユーザーは親指の操作量に対するカーソルの移動量が、ボタン部材のように1回押したら1つ移動といったように、直感的にわからないため、移動するカーソルを目で注視して移動量を確認しながら操作する必要が出てくる。この種の操作部材の例としては前記41操作部材α(タッチパネル対応液晶)をなぞって操作する例や、前記42操作部材β(レバー式操作部材)を倒してその倒した方向、倒している時間によってカーソル移動を操作する事例がこれに相当する。また、これらの操作部材は請求項2における無段階の調整手段に相当する。
ここで、本発明で肝要な点として、後者の無段階操作部材は操作量に対してカーソル移動量が直感的にわからないために常に注視している必要があり、つまりこの操作部材を使用した際には、ユーザーがカーソルを実際に注視している信憑性が高いと言えることがある。
これに対し前者の段階的な操作部材はクリック回数等によってカーソル移動量が直感的にわかりやすい。そのため、ユーザーは図8(a)のように測距点2つ分ずれていることが分かっている場合、微修正動作の際にはカーソルを注視せずに回数で判断して2回クリックして調整動作を済ませる可能性がある。
つまり操作部材の種類によってユーザーが微調整動作時に実際に該当部を注視しているか否かの信憑性に差が生じると言える。
これらを加味すると、無段階の操作部材と段階的な操作部材を双方含む図2(b)のような撮像装置の場合、ユーザーがカーソルを注視している可能性の高い、無段階操作部材の操作時のキャリブレーションデータの有効性が、段階的操作部材のデータより高いと言える。
そこで、本発明ではこれらの操作部材の違いにおける有効性の差を、それまでに行ってきた複数のキャリブレーションデータを集計して補正係数等を再計算する際に、重みつけの形で反映させてキャリブレーション結果に取り入れるものとする。
具体的には一例として下記のような計算を行って実現する。前述の、検出された眼球のX方向の回転角θxから補正係数Ax,Bxを使用して、表示素子10上での推定注視点のX座標Hxを算出する
Hx=m×(Ax×θx+Bx)
の計算に対し、微調整動作から判明した、ユーザーが実際に見ている注視点のX座標をHx’とする。
Hx=m×(Ax×θx+Bx)
の計算に対し、微調整動作から判明した、ユーザーが実際に見ている注視点のX座標をHx’とする。
また、キャリブレーションはそれまでに行われたキャリブレーションデータに今回の微調整動作で得られたデータを追加して行われるものとする。
これまでのものと今回得られたものを含めてn回分(nは2以上の整数)の、推定注視点座標Hx=m×(Ax×θx+Bx)と、実際にユーザーが見ていた注視点座標Hx’のセットがあったとする。
この時、これらのデータに対応して最適の上記Ax,Bxの値を算出する方法の一例として、下記のように重み付き最小二乗法を用いるとする。
ここで、n回分の推定注視点座標測定時の眼球回転角度をθx1、θx2、θx3、・・・、θxi、・・・、θxn、それを用いて計算された推定注視点座標をHx1、Hx2、Hx3、・・・・、Hxi、・・・Hxnとする。また、同様にn回分の実際の注視点座標をHx1’、Hx2’、Hx3’、・・・・、Hxi’、・・・Hxn’とする。
この時、重み付き最小二乗法による最適化は、重みつけ係数wによって表された次の誤差sを用いて行われる
s=Σi=1〜nw×{Hxi’−Hxi}2
=Σi=1〜nw×{Hxi’−m×(Ax×θxi+Bx)}2
上記の重み付き2乗誤差sが最小となるようにAx,Bxを再計算して更新すればよい。この際に、本発明の肝要な点として、操作部材によって重みつけ係数wの値を異ならせるとする。
s=Σi=1〜nw×{Hxi’−Hxi}2
=Σi=1〜nw×{Hxi’−m×(Ax×θxi+Bx)}2
上記の重み付き2乗誤差sが最小となるようにAx,Bxを再計算して更新すればよい。この際に、本発明の肝要な点として、操作部材によって重みつけ係数wの値を異ならせるとする。
段階的操作部材を用いた際の重みつけ係数をw1として、無段階操作部材を用いた際の重みつけ係数をw2として、この時、w2>w1であるとする。
この重みつけ係数の値の相対的な大きさの差により、無段階操作部材を用いた場合のデータの影響を、段階的操作部材を用いた際のデータの影響より大きく反映させることができる。
上記微調整動作があった場合に注視点位置の推定手段におけるパラメータの修正を行う再キャリブレーション動作は、請求項1における眼球画像と前記手動操作手段による指標位置の変更量を用いて、前記注視点推定手段のパラメータの修正を行うことに相当する。
また、上記の重みつけ係数の設定は、請求項2における無段階の調整手段を用いた場合のデータのパラメータの修正への影響度が、段階的な調整手段を用いた場合のデータのパラメータの修正への影響度より大きくなるように重みづけが設定されていることに相当する。
上記によって操作部材の差異によるデータの有効性の差異をキャリブレーションに反映させることができ、より精度の高いキャリブレーションが可能となり、注視点推測精度が向上し、ユーザーの利便性を向上させることができた。
<視線検出機能及び自動キャリブレーション機能を有したカメラの動作>
これまでに原理を説明した、本実施例における視線検出機能及び自動キャリブレーション機能を有したカメラの動作について、図9のフローチャートに従って説明する。
これまでに原理を説明した、本実施例における視線検出機能及び自動キャリブレーション機能を有したカメラの動作について、図9のフローチャートに従って説明する。
カメラ電源がONされてフローが開始されると、ステップS101において、撮像素子2がスルー画像を取得開始し、画像信号をCPU3に送信し、CPU3は取得したスルー画像を表示素子10に表示する。ユーザーはファインダ内の表示素子10に表示されたスルー画像を見ることで被写体の視認を行う。表示素子10は請求項1における表示手段に相当する。
ステップS102では、電源がOFFされたか否かを判定し、OFFされていればフローは終了し、OFFされていなければ、ステップS103に進む。
ステップS103では、ステップS101で被写体を視認し始めたユーザーの眼球画像の取得を開始し、前述の視線検出ルーチンを実施する。本実施例では、前述の図7で示した視線検出ルーチンを使用することで、表示素子10上での推定注視点位置座標(Hx,Hy)を取得するとする。
ステップS104においては、表示素子10に、前記スルー画像に前ステップで得られた推定注視点座標位置に枠を重畳させた画像を表示する。この時ユーザーには、ファインダ内に、前述の図4(b)のような画像が見えており、スルー画像に枠を重ねて表示させて現在の推定注視点位置Cがユーザーに伝えられている。
ステップS105においては所定時間の待機を行う。ステップS106においては、ユーザーからの微調整動作があったか否かを判定する。微調整動作が行われていればステップS110に進み、微調整動作が無ければステップS200に進む。微調整動作は図8(c)で前述したように、カメラ背面の41操作部材α〜43操作部材γ等を用いて行われ、枠位置が実際の注視点位置までユーザーの手動操作によって移動される。
微調整動作が行われた場合のステップS110においては、微調整動作の操作方向・操作量に応じて、表示素子10上に表示している前記枠位置を移動させて表示し、ステップS111に進む。図8(b)に微調整動作に応じて枠をベクトルΔUだけ移動させた例を示す。
ステップS111においては、微調整動作の操作方向・操作量から計算したユーザーの実際の注視点位置及び、その実際の注視点位置と元の推定注視点位置とのずれ方向・量を示す前述のベクトルΔUをメモリ4に記録する。
ステップS112においては、微調整動作の入力に使用された操作部材が無段階操作部材か、段階的操作部材かの判定を行う。前述のように無段階操作部材は例として、図2(b)に示す41操作部材α(タッチパネル対応液晶)や42操作部材β(レバー式操作部材)等が挙げられる。無段階操作部材であればステップS121へ、無段階操作部材でなければステップS122へ進む。
微調整動作に無段階操作部材が使われた場合のステップS121においては、重みつけ係数をw2と設定して、その重みつけ係数をステップS111において記録した実際の注視点位置及びベクトルΔUに関連付けてメモリ部4に記録する。
微調整動作に無段階操作部材が使われなかった場合のステップS121においては、重みつけ係数をw1と設定してその重みつけ係数をステップS111において記録した注視点位置及びベクトルΔUに関連付けてメモリ部4に記録する。
この時、重みつけ係数w1、w2はw2>w1の関係にあり、無段階操作部材が使われた場合のデータが、前述のキャリブレーションにおいて無段階操作部材が使われなかった場合のデータが及ぼす影響より大きく設定されているとする。重みつけ係数w1、w2の設定は一例であり、無段階操作部材が使われた場合のデータが、キャリブレーションにおいて無段階操作部材が使われなかった場合のデータが及ぼす影響より大きく設定されていれば本発明は適用できるとする。
ステップS130においては、ステップS111,ステップS121orステップS122でメモリ部に記録された注視点位置、ずれベクトルΔU、重みつけ係数を用いて再びキャリブレーションを行って補正係数を再算出して、ステップS131に進む。再算出による補正係数の最適化は、一例として前述したような重み付き最小二乗法を使用する。
ステップS131においては、前ステップで再算出されて更新された補正係数データをメモリ部4に記録し、ステップS200に進む。
ステップS200においては、ユーザーによってレリーズボタン5が押されてSW1がONであるか否かを判定する。ユーザーは表示素子10上に表示された推定注視点の枠の位置で合焦を行うことに同意した場合にレリーズボタンを押し、SW1をONにすることとなる。ONであればステップS201に進み、ONでなければステップS103に戻り、注視点位置の再取得を行う。
ステップS201においては、現在の表示枠位置において測距動作を行い、測距動作が行われたことを表示素子10上のスルー画像上で枠の色を変える等の強調表示を行ってユーザーに知らせ、ステップS202に進む。
ステップS202においては、ステップS201で取得された測距結果に対応する合焦点位置へレンズ群を移動し、ステップS203に進む。
ステップS203ではレリーズボタンがさらに押しこまれ、SW2がONになったか否かを判定する。ユーザーは現在の合焦位置で撮影を行うことを同意した場合にSW2をONにすることとなる。SW2がONであればステップS204に進み、ONになっていない場合はステップS200に戻り、同じ位置で測距・表示をやり直す。
ステップS204においては撮像動作が行われ、撮像素子2において画像信号が取得され、CPU3に送信され、メモリ部4に記憶される。その後、ステップS205に進み、取得画像を所定時間表示した上でステップS102に戻る。
上記構成により、視線検出装置を有する撮像装置において、視線位置のずれがあった場合でも機会を逃さずに撮影する事を可能としつつ、注視位置のキャリブレーション動作を自動的に行い、撮影者の利便性を向上する事ができた。
前述の実施例1においては、眼球画像を取得した後の注視点位置推定は図6の原理図及び図7に示した視線検出ルーチンのように、X方向の眼球回転角θxを、瞳孔中心のX座標をXc、P像のX座標をXd,Xe、像倍率をβとした際に
β*Oc*SINθX≒{(Xd+Xe)/2}−Xc
の式を満たすもの仮定して、瞳孔座標、P像座標を検出した上で計算を行っていた。しかし、それに限られるものではなく、眼球画像から注視点を推測できる手法であれば本発明は適用可能である。
β*Oc*SINθX≒{(Xd+Xe)/2}−Xc
の式を満たすもの仮定して、瞳孔座標、P像座標を検出した上で計算を行っていた。しかし、それに限られるものではなく、眼球画像から注視点を推測できる手法であれば本発明は適用可能である。
本実施例においては眼球画像を取得した後の注視点位置推定方法として、眼球画像をCNNに入力することにより、ユーザーが注視している領域を解析・推定する手法を用いた場合について説明を行う。CNNを用いることで、各ユーザー個人の眼球の非線形なひずみ等の影響も含めた、より高精度な検出を行うことが可能となる。
<CNNを用いた眼球画像からの注視点位置の推測>
本実施形態では、視線検出回路201及びCPU3が構成する注視点位置推定手段をCNNで構成する。CNNの基本的な構成について、図10および図11を用いて説明する。
本実施形態では、視線検出回路201及びCPU3が構成する注視点位置推定手段をCNNで構成する。CNNの基本的な構成について、図10および図11を用いて説明する。
図10に入力された2次元画像データから注視点を推定するCNNの基本的な構成を示す。処理の流れは、左端を入力とし、右方向に処理が進んでいく。CNNは、特徴検出層(S層)と特徴統合層(C層)と呼ばれる2つの層をひとつのセットとし、それが階層的に構成されている。
CNNでは、まずS層において前段階層で検出された特徴をもとに次の特徴を検出する。またS層において検出した特徴をC層で統合し、その階層における検出結果として次の階層に送る構成になっている。
S層は特徴検出細胞面からなり、特徴検出細胞面ごとに異なる特徴を検出する。また、C層は、特徴統合細胞面からなり、前段の特徴検出細胞面での検出結果をプーリングする。以下では、特に区別する必要がない場合、特徴検出細胞面および特徴統合細胞面を総称して特徴面と呼ぶ。本実施形態では、最終段階層である出力層ではC層は用いずS層のみで構成している。
特徴検出細胞面での特徴検出処理、および特徴統合細胞面での特徴統合処理の詳細について、図11を用いて説明する。
特徴検出細胞面は、複数の特徴検出ニューロンにより構成され、特徴検出ニューロンは前段階層のC層に所定の構造で結合している。また特徴統合細胞面は、複数の特徴統合ニューロンにより構成され、特徴統合ニューロンは同階層のS層に所定の構造で結合している。
図5中に示した、L階層目S層のM番目細胞面内において、位置
の特徴検出ニューロンの出力値を
、L階層目C層のM番目細胞面内において、位置
の特徴統合ニューロンの出力値を
と表記する。その時、それぞれのニューロンの結合係数を
とすると、各出力値は以下のように表すことができる。
[数式1]
[数式1]
[数式2]
数式1の
は活性化関数であり、ロジスティック関数や双曲正接関数などのシグモイド関数であれば何でも良く、例えばtanh関数で実現して良い。
は、L階層目S層のM番目細胞面における、位置
の特徴検出ニューロンの内部状態である。数式2は活性化関数を用いず単純な線形和をとっている。数式2のように活性化関数を用いない場合は、ニューロンの内部状態
と出力値
は等しい。また、数式1の
、数式3の
をそれぞれ特徴検出ニューロン、特徴統合ニューロンの結合先出力値と呼ぶ。
数式1及び数式2中の
について説明する。位置
は入力画像における位置座標に対応しており、例えば
が高い出力値である場合は、入力画像の画素位置
に、L階層目S層M番目細胞面において検出する特徴が存在する可能性が高いことを意味する。また
は数式2において、L−1階層目C層n番目細胞面を意味しており、統合先特徴番号と呼ぶ。基本的にL−1階層目C層に存在する全ての細胞面についての積和演算を行う。
は、結合係数の相対位置座標であり、検出する特徴のサイズに応じて有限の範囲
において積和演算を行う。このような有限な
の範囲を受容野と呼ぶ。また受容野の大きさを、以下では受容野サイズと呼び、結合している範囲の横画素数×縦画素数で表す。
また数式1において、L=1つまり一番初めのS層では、
は、入力画像
または、入力位置マップ
となる。ちなみにニューロンや画素の分布は離散的であり、結合先特徴番号も離散的なので、
は連続な変数ではなく、離散的な値をとる。ここでは、
は非負整数、
は自然数、
は整数とし、何れも有限な範囲となる。
数式1中の
は、所定の特徴を検出するための結合係数分布であり、これを適切な値に調整することによって、所定の特徴を検出することが可能になる。この結合係数分布の調整が学習であり、CNNの構築においては、さまざまなテストパターンを提示して、
が適切な出力値になるように、結合係数を繰り返し徐々に修正していくことで結合係数の調整を行う。
次に、数式2中の
は、2次元のガウシアン関数を用いており、以下の数式3のように表すことができる。
[数式3]
[数式3]
ここでも、
は有限の範囲としてあるので、特徴検出ニューロンの説明と同様に、有限の範囲を受容野といい、範囲の大きさを受容野サイズと呼ぶ。この受容野サイズは、ここではL階層目S層のM番目特徴のサイズに応じて適当な値に設定すれば良い。数式3中の、
は特徴サイズ因子であり、受容野サイズに応じて適当な定数に設定しておけば良い。具体的には、受容野の一番外側の値がほぼ0とみなせるような値になるように設定するのが良い。
上述のような演算を各階層で行うことで、最終階層のS層において、注視点検出を行うのが、本実施形態におけるCNNの構成である。
<学習方法>
実施例1における再キャリブレーションを、本実施例においては、CNNにおける追加学習の形で実現する。
実施例1における再キャリブレーションを、本実施例においては、CNNにおける追加学習の形で実現する。
注視点位置推定における追加学習は、教師あり学習の形で行われ、眼球画像とその眼球画像撮影時にユーザーが実際に見ている注視点位置の正解データが与えられることによって実現できる。
図9のフローチャートで説明したように、本発明においては、ステップS106において微調整動作の有無の判定を行い、これにより微調整動作があった場合には現在の注視点位置推定が間違っていることが分かる。また、ステップS110〜S111において微調整操作の方向・量からユーザーが実際に見ている注視点位置のデータが分かる。眼球画像はステップS103において得られている。よって、ステップS111の段階で上述の眼球画像及びユーザーが実際に見ている注視点位置の正解データが揃っており、追加学習が可能な状態となっている。
ここで、具体的な学習方法について説明する。
本実施形態では教師ありの学習により、結合係数の調整を行う。教師ありの学習では、テストパターンを与えて実際にニューロンの出力値を求め、その出力値と教師信号(そのニューロンが出力すべき望ましい出力値)の関係から結合係数
の修正を行えば良い。本実施形態の学習においては、最終層の特徴検出層は最小二乗法を用い、中間層の特徴検出層は誤差逆伝搬法を用いて結合係数の修正を行う(最小二乗法や、誤差逆伝搬法等の、結合係数の修正手法の詳細は、下記の文献を参照)。
[文献]
S.Haykin,“Neural Networks A Comprehensive Foundation 2nd Edition”,Prentice Hall,pp.156-255,July 1998
本実施形態では、予め学習する場合には、学習用のテストパターンとして、眼球画像とそれを撮影した際の実際の注視点位置のセットのデータを多数用意し学習を行う。また、追加学習する場合には、撮影中に視線位置微調整動作があった際に上述の方法で眼球画像とそれを撮影した際の実際の注視点位置のセットのデータを得る。各テストパターンは、眼球画像および正解注視点位置を1セットとしている。
[文献]
S.Haykin,“Neural Networks A Comprehensive Foundation 2nd Edition”,Prentice Hall,pp.156-255,July 1998
本実施形態では、予め学習する場合には、学習用のテストパターンとして、眼球画像とそれを撮影した際の実際の注視点位置のセットのデータを多数用意し学習を行う。また、追加学習する場合には、撮影中に視線位置微調整動作があった際に上述の方法で眼球画像とそれを撮影した際の実際の注視点位置のセットのデータを得る。各テストパターンは、眼球画像および正解注視点位置を1セットとしている。
活性化関数にtanh関数を用いる場合は、検出すべき特定パターンを提示した時は、最終層の特徴検出細胞面の、特定パターンが存在する領域のニューロンに対し、出力が1となるように教師信号を与える。逆に、検出すべきでないパターンを提示した時は、そのパターンの領域のニューロンに対し、出力が−1となるように教師信号を与えることになる。
以上により、2次元画像から主被写体検出するためのCNNが構築される。実際の検出においては、学習により構築した結合係数
を用いて演算をおこない、最終層の特徴検出細胞面上のニューロン出力によって注視点位置の検出(推定)を行う。
上記構成により、視線検出装置を有する被写体認識装置において、注視位置のキャリブレーション動作の自動化をCNNにおける追加学習の自動化の形で実行し、各ユーザー個人の眼球の非線形なひずみ等の影響も含めた、より高精度な検出を行うことが可能となった。
1A 撮影レンズ、1B カメラ筐体、2 撮像素子、3 CPU、4 メモリ部、
10 表示素子、11 表示素子駆動回路、12 接眼レンズ、
13a〜b 照明光源、14 眼球、15 光分割器、16 受光レンズ、
17 眼球用撮像素子、111 絞り、112 絞り駆動部、
113 レンズ駆動モーター、114 レンズ駆動部材、115 フォトカプラー、
116 パルス板、117 マウント接点、141 瞳孔、142 角膜、
143 光彩
10 表示素子、11 表示素子駆動回路、12 接眼レンズ、
13a〜b 照明光源、14 眼球、15 光分割器、16 受光レンズ、
17 眼球用撮像素子、111 絞り、112 絞り駆動部、
113 レンズ駆動モーター、114 レンズ駆動部材、115 フォトカプラー、
116 パルス板、117 マウント接点、141 瞳孔、142 角膜、
143 光彩
Claims (5)
- 撮像素子と、
表示素子と、
眼球用撮像素子と、
該眼球用撮像素子から得られる眼球画像より、前記表示素子上において使用者の注視する箇所を推定する注視点位置推定手段と、
前記注視点位置推定手段により推定された注視点位置を示す指標を、前記表示素子上に表示する注視点位置表示手段と、
前記表示素子上に表示された注視点位置を示す指標の位置を、使用者が手動で変更することを可能とする手動操作手段と、を有し、
前記手動操作手段による指標の位置変更があった場合において、その際に撮影された眼球画像と前記手動操作手段による指標位置の変更量を用いて、前記注視点推定手段のパラメータの修正を行うことを特徴とする撮像装置。 - 前記指標位置の変更を行う手動操作手段は、無段階の調整手段と段階的な調整手段の双方を含み、どちらの操作手段を用いても前記指標位置の変更が可能であり、
前記注視点推定手段のパラメータの修正を行う際に、無段階の調整手段を用いた場合のデータのパラメータの修正への影響度が、段階的な調整手段を用いた場合のデータのパラメータの修正への影響度より大きくなるように重みづけが設定されていることを特徴とする請求項1に記載の撮像装置。 - 前記無段階の調整手段は、タッチパネル対応液晶を指でなぞり、その操作方向、操作量に対応する前記指標位置の変更を行うことに相当する請求項1又は2に記載の撮像装置。
- 前記無段階の調整手段は、レバー式の操作部材を用いて行う手段であり、そのレバーを倒した方向、倒したまま維持する時間に対応して決められた量だけ前記指標位置の変更を行うことに相当する請求項1又は2に記載の撮像装置。
- 前記段階的な調整手段はボタン式又はクリック式のキーに相当し、その押下操作されたキーの位置及び押下操作された回数に対応した前記指標位置の変更を行うことに請求項1又は2に記載の撮像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018241892A JP2020106552A (ja) | 2018-12-26 | 2018-12-26 | 被写体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018241892A JP2020106552A (ja) | 2018-12-26 | 2018-12-26 | 被写体認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020106552A true JP2020106552A (ja) | 2020-07-09 |
Family
ID=71448873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018241892A Pending JP2020106552A (ja) | 2018-12-26 | 2018-12-26 | 被写体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020106552A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113992907A (zh) * | 2021-10-29 | 2022-01-28 | 南昌虚拟现实研究院股份有限公司 | 眼球参数校验方法、系统、计算机及可读存储介质 |
US11930266B2 (en) | 2021-06-24 | 2024-03-12 | Canon Kabushiki Kaisha | Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, and non-transitory computer-readable storage medium |
JP7538647B2 (ja) | 2020-07-27 | 2024-08-22 | キヤノン株式会社 | 視線位置処理装置、撮像装置、学習装置、視線位置処理方法、学習方法、及びプログラム |
-
2018
- 2018-12-26 JP JP2018241892A patent/JP2020106552A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7538647B2 (ja) | 2020-07-27 | 2024-08-22 | キヤノン株式会社 | 視線位置処理装置、撮像装置、学習装置、視線位置処理方法、学習方法、及びプログラム |
US11930266B2 (en) | 2021-06-24 | 2024-03-12 | Canon Kabushiki Kaisha | Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, and non-transitory computer-readable storage medium |
CN113992907A (zh) * | 2021-10-29 | 2022-01-28 | 南昌虚拟现实研究院股份有限公司 | 眼球参数校验方法、系统、计算机及可读存储介质 |
CN113992907B (zh) * | 2021-10-29 | 2023-11-07 | 南昌虚拟现实研究院股份有限公司 | 眼球参数校验方法、系统、计算机及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7358530B2 (ja) | 被写体認識装置及び被写体認識装置の制御方法 | |
US5598248A (en) | Optical apparatus having visual point detection function | |
JP2020106552A (ja) | 被写体認識装置 | |
US20050099684A1 (en) | Telescope main body and spotting scope | |
JP7293039B2 (ja) | 撮像装置およびその制御方法 | |
US20220197111A1 (en) | Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium | |
JP3297481B2 (ja) | 視線検出装置 | |
JP2022131325A (ja) | 視線検出装置、及びその制御方法 | |
US11632496B2 (en) | Image pickup apparatus for detecting line-of-sight position, control method therefor, and storage medium | |
JP2002301030A (ja) | 視線検出機能付き機器 | |
JP2024002562A (ja) | 識別装置 | |
US20240085979A1 (en) | Recording device, image-capturing apparatus, control method, and recording system | |
US20230092593A1 (en) | Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor | |
US20230128281A1 (en) | Identification device | |
US12118747B2 (en) | Gaze detection apparatus | |
US11930266B2 (en) | Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, and non-transitory computer-readable storage medium | |
JP2023006629A (ja) | 制御装置およびその制御方法 | |
JP2022165239A (ja) | 撮像装置及びその制御方法、並びにプログラム | |
JP2024053967A (ja) | 視線検出装置、撮像装置、視線検出方法、およびプログラム | |
WO2022091664A1 (ja) | 電子機器およびその制御方法 | |
JP3391892B2 (ja) | 視線検出装置、光学装置及び視線検出方法 | |
JP3184634B2 (ja) | 視線検出装置を有する光学装置 | |
JP3219491B2 (ja) | 視線検出装置 | |
JP2023158365A (ja) | 対象物識別装置、電子機器、対象物識別方法、及びコンピュータプログラム | |
JP3211427B2 (ja) | 視線検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20191125 |