JP7358530B2 - 被写体認識装置及び被写体認識装置の制御方法 - Google Patents

被写体認識装置及び被写体認識装置の制御方法 Download PDF

Info

Publication number
JP7358530B2
JP7358530B2 JP2022026118A JP2022026118A JP7358530B2 JP 7358530 B2 JP7358530 B2 JP 7358530B2 JP 2022026118 A JP2022026118 A JP 2022026118A JP 2022026118 A JP2022026118 A JP 2022026118A JP 7358530 B2 JP7358530 B2 JP 7358530B2
Authority
JP
Japan
Prior art keywords
line
sight
optical flow
movement vector
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022026118A
Other languages
English (en)
Other versions
JP2022066266A (ja
Inventor
武志 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022026118A priority Critical patent/JP7358530B2/ja
Publication of JP2022066266A publication Critical patent/JP2022066266A/ja
Application granted granted Critical
Publication of JP7358530B2 publication Critical patent/JP7358530B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、視線検出装置を有する被写体認識装置に関する。
近年カメラの自動化・インテリジェント化が進み、特許文献1に示されるように、手動で被写体位置を入力せずとも、ファインダを覗く撮影者の視線位置の情報に基づいて撮影者が意図する被写体を認識し、焦点制御を行うことを可能とするカメラ制御装置が提案されている。
また、カメラが上記のように撮影者の視線位置を検出する際に、撮影者の意図した視線位置とカメラが認識する撮影者の視線位置の間にズレが生じ、撮影者の意図する被写体に焦点を合わせることができない場合がある。
これに対し、上記特許文献1においては、撮影前にファインダ内に指標を表示し、ユーザーにその指標を注視するよう指示を出し、その注視状態において、ユーザーの視線位置を検出し、該指標位置とのずれ量を検出する作業を行う。その検出されたずれ量だけ、撮影時にカメラが認識する撮影者の視線検出位置を補正することで、よりユーザーの意図どおりの視線位置を検出することを可能とするキャリブレーション技術が記載されている。
また、特許文献2においては、車両運転時に、運転者の注視点位置の単位時間内の動きを検出し、その移動方向・移動量が運転席から見た外部の風景の移動方向・移動量に一定時間以上一致した場合に、前方を見ていないと判断する、脇見運転検出技術を示している。
特開2004-8323号公報 特開2010-39933号公報
特許文献1においては、撮影者の意図する注視点位置とカメラが検出する注視点位置にずれがある場合に、キャリブレーションによってその補正を行っている。
しかし、明るさ等の周囲の環境や撮影者の体勢等が変わると、カメラが検出する注視点位置が変化するため、状況が変わるたびに頻繁にキャリブレーション作業を行わねばならず、煩雑となる問題がある。
また、特許文献2においては、注視点の所定時間当たりの移動方向・量に注目し、使用者が前方を注視して運転している状態にあるか、それとも視線が前方から側方に流れる景色を追って動く脇見運転の状態であるかの判定をしている。
しかし、使用者の意図する注視点位置と、カメラが認識する使用者の注視点位置との間のずれの検出や、ずれを補正するキャリブレーション作業については言及されていない。そのため、前記注視点位置のずれは解消されないまま残り、使用者の意図する被写体をカメラが正確に認識できない問題がある。
本発明は、上記課題に鑑みてなされたものであり、視線検出装置を有する被写体認識装置において、撮影者の注視する被写体を精度よく認識しつつ、かつ注視位置のキャリブレーション動作の自動化を図り、撮影者の利便性を向上することを目的とする。
上記の目的を達成するために、本発明に係る被写体認識装置は、撮像手段と、撮像した画像を表示する表示手段と、撮影者の視線位置を検出する視線位置検出手段と、前記撮像手段により取得された画像に基づいて、オプティカルフローを算出する、オプティカルフロー算出手段と、前記視線位置検出手段により検出された撮影者の視線位置が、所定の時間に移動する移動量及び移動方向を測定する視線移動ベクトル測定手段と、前記オプティカルフロー算出手段により算出されたオプティカルフローと、前記視線移動ベクトル測定手段により取得された視線移動ベクトルとを比較し、その差異から両者の一致度合を判断する、移動ベクトル一致度合判定手段と、前記オプティカルフローを有する画像領域の座標と、撮影者の視線位置との座標とを比較し、両者の距離が所定値以下であるか否かを判定する距離判定手段と、前記移動ベクトル一致度合判定手段により、両者が一致すると判定され、且つ、前記距離判定手段により前記両者の距離が前記所定値以下であると判定された場合、前記オプティカルフローを有する画像領域が被写体領域であると特定する被写体領域特定手段と、を有することを特徴とする。
本発明によれば、視線検出装置を有する被写体認識装置において、撮影者の注視する被写体を精度よく認識しつつ、かつ注視位置のキャリブレーション動作の自動化を図り、撮影者の利便性を向上することができる。
本発明の第1実施形態が適用される撮像装置の構成概略図 本発明の第1実施形態が適用される撮像装置のブロック図 本発明の第1実施形態におけるファインダ内視野を示す説明図 本発明の第1実施形態における視線検出方法の原理説明図 眼球用撮像素子17に投影される眼球像の概略図 視線検出の概略フロールーチン 被写体検出動作説明図 オプティカルフロー取得手法説明図 本発明の第1実施形態における撮影動作・自動キャリブレーション動作のフロー
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
<構成の説明>
図1は本発明におけるデジタルスチルカメラの概略図である。
1は撮影レンズで、本実施形態では便宜上1a、1bの二枚のレンズで示したが、実際はさらに多数のレンズで構成されていることは周知の通りである。2は撮像素子で、デジタルスチルカメラ1の撮影レンズ1の予定結像面に配置されている。デジタルスチルカメラ1には、カメラ全体を制御するCPU3、撮像素子2にて撮像された画像を記録するメモリ部4が内包される。また、撮像された画像を表示するための液晶等で構成される表示素子10と、それを駆動する表示素子駆動回路11、表示素子10に表示された被写体像を観察するための接眼レンズ12が配置されている。
13a~13bは、従来より一眼レフカメラ等に用いられている光源の角膜反射による反射象と瞳孔の関係から視線方向を検出するための撮影者の眼球14を照明するための光源で、赤外発光ダイオードからなり、接眼レンズ12の周りに配置されている。照明された眼球像と光源13a~13bの角膜反射による像は接眼レンズ12を透過し、光分割器15で反射され、受光レンズ16によってCCD棟の光電素子列を2次元的に配した眼球用撮像素子17上に結像される。受光レンズ16は撮影者の眼球14の瞳孔と眼球用撮像素子17を共役な結像関係に位置付けている。眼球用撮像素子17上に結像された眼球と光源13a~13bの角膜反射による像の位置関係から後述する所定のアルゴリズムで視線方向を検出する。
111は撮影レンズ1内に設けた絞り、112は絞り駆動装置、113はレンズ駆動用モーター、114は駆動ギヤ等からなるレンズ駆動部材、115はフォトカプラーでレンズ駆動部材114に連動するパルス板116の回転を検知して、レンズ焦点調節回路118に伝えている。焦点調節回路118は、この情報とカメラ側からのレンズ駆動量の情報にもとづいてレンズ駆動用モーター113を所定量駆動させ、撮影レンズ1aを合焦点位置に移動させるようになっている。117は公知のカメラとレンズとのインターフェイスとなるマウント接点である。
図2は前期構成のデジタルスチルカメラに内蔵された電気的構成を示すブロック図であり、図1と同一のものは同一番号をつけている。
カメラ本体に内蔵されたマイクロコンピュータの中央処理装置3(以下、CPU3と呼ぶ)には視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示素子駆動回路11、照明光源駆動回路205が接続されている。また、撮影レンズ内に配置された焦点調節回路118、前述の絞り駆動装置112に含まれる絞り制御回路206とは図1で示したマウント接点117を介して信号の伝達がなされる。CPU3に付随したメモリ部4は、撮像素子2および眼球用撮像素子17からの撮像信号の記憶機能及び、後述する視線の個人差を補正する視線補正データの記憶機能を有している。
視線検出回路201は、眼球用撮像素子17(CCD-EYE)からの眼球像が結像することによる出力をA/D変換し、この像情報をCPU3に送信する。CPU3は視線検出に必要な眼球像の各特徴点を後述する所定のアルゴリズムに従って抽出し、更に各特徴点の位置から撮影者の視線を算出する。
測光回路202は、測光センサの役割も兼ねる撮像素子2から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、被写界輝度情報として、CPU3に送る。
自動焦点検出回路203は、撮像素子2におけるCCDの中に含まれる、位相差検出の為に使用される複数の画素からの信号電圧をA/D変換し、CPU3に送る。
CPU3は前記複数の画素の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施例では、一例として、図3のファインダ内視野像で示した箇所に対応する撮像面上の位置に180か所の焦点検出ポイントがあるとする。
信号入力回路204には不図示のレリーズボタンの第一ストロークでONし、カメラの測光、測距、視線検出動作等を開始するためのスイッチであるSWと、レリーズボタンの第二ストロークでONし、レリーズ動作を開始するためのスイッチであるSW2が接続される。前記の信号が信号入力回路204に入力され、CPU3に送信される。
図3はファインダ視野内を示した図で、表示装置10が動作した状態を示す。
図3において、300は視野マスク、400は焦点検出領域、4001~4180は表示素子10に示されるスルー画像に、前記撮像面上における複数の焦点検出ポイントに対応する位置に重ねて表示した180個の測距点視標を示す。また、それらの指標の内、現在の合焦位置に対応する指標を図における合焦ポイントAのように強調表示を行う。
図4は視線検出方法の原理説明図であり、前述の図1の視線検出をおこなうための光学系の要約図に相当する。
図4において、13a、13bは観察者に対して不感の赤外光を放射する発光ダイオード等の光源であり、各光源は受光レンズ16の光軸に対して略対称に配置され観察者の眼球14を照らしている。眼球14で反射した照明光の一部は受光レンズ16によって、眼球用撮像素子17に集光する。
図5(A)は眼球用撮像素子17に投影される眼球像の概略図、同図(B)は眼球用撮像素子17におけるCCDの出力強度図である。図6は視線検出の概略フロールーチンを表している。
以下、図4~6を用いて、視線の検出手段を説明する。
<視線検出動作の説明>
図6において、視線検出ルーチンが開始すると、S001において、光源13a、13bは観察者の眼球14に向けて赤外光を放射する。上記赤外光によって照明された観察者の眼球像は、眼球用撮像素子17上に受光レンズ16を通して結像し、眼球用撮像素子17により光電変換がなされ、眼球像は電気信号として処理が可能となる。
ステップS002において上記のように眼球用撮像素子17から得られた眼球画像信号をCPU3に送る。
ステップS003では、S002において得られた眼球画像信号の情報から、図4に示す光源13a、13bの角膜反射像Pd,Pe及び瞳孔中心cに対応する点の座標を求める。光源13a、13bより放射された赤外光は観察者の眼球14の角膜142を照明し、このとき角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは受光レンズ16により集光され、眼球用撮像素子17上に結像する(図示の点Pd’,Pe’)。同様に瞳孔141の端部a、bからの光束も眼球用撮像素子17上に結像する。
図5では、図5(a)において眼球用撮像素子17から得られる反射像の画像例を、図5(b)に上記画像例の領域αにおける、眼球用撮像素子17から得られる輝度情報例を示す。
図示のように、水平方向をX軸、垂直方向をY軸とする。このとき、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとする。また、瞳孔14bの端部a、bからの光束が結像した像a’,b’のX軸方向の座標をXa、Xbとする。(b)の輝度情報例において、光源13a、13bの角膜反射像が結像した像Pd’,Pe’に相当する位置Xd,Xeでは、極端に強いレベルの輝度が得られている。瞳孔141の領域に相当する、座標XaからXbの間の領域は、上記Xd、Xeの位置を除き、極端に低いレベルの輝度が得られる。
これに対し、瞳孔141の外側の光彩143の領域に相当する、Xaより低いX座標の値を持つ領域及びXbより高いX座標の値を持つ領域では、前記2種の輝度レベルの中間の値が得られる。上記X座標位置に対する輝度レベルの変動情報から、光源13a、13bの角膜反射像が結像した像Pd’,Pe’のX座標Xd,Xeと、瞳孔端の像a’,b’のX座標Xa、Xbを得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合、眼球用撮像素子17上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。上記より、眼球用撮像素子17上に結像する瞳孔中心に相当するc’のX座標、光源13a、13bの角膜反射像Pd’,Pe’の座標を見積もることができた。
さらに、ステップS004では、眼球像の結像倍率βを算出する。βは受光レンズ16に対する眼球14の位置により決まる倍率で、実質的には角膜反射像Pd‘、Pe’の間隔(Xd-Xe)の関数として求めることができる。
また、ステップS005では、角膜反射像Pd及びPeの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致するため、角膜142の曲率中心Oと瞳孔141の中心cまでの標準的な距離をOcとすると、眼球14の光軸のZ-X平面内の回転角θは、β*Oc*SINθ≒{(Xd+Xe)/2}-Xc
の関係式から求めることができる。また、図4、図5においては、観察者の眼球がY軸に垂直な平面内で回転する場合の回転角θを算出する例を示しているが、観察者の眼球がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
前ステップにおいて観察者の眼球14の光軸の回転角θx、θyが算出されると、ステップS006では、θx、θyを用いて、表示素子10上で観察者の視線の位置(注視している点の位置。以下、注視点と称する。)を求める。注視点位置を表示素子10上での瞳孔141の中心cに対応する座標(Hx,Hy)であるとして、
Hx=m×(Ax×θx+Bx)
Hy=m×(Ay×θy+By)
と算出することができる。この時、係数mはカメラのファインダ光学系の構成で定まる定数で、回転角θx、θyを表示素子10上での瞳孔141の中心cに対応する位置座標に変換する変換係数であり、あらかじめ決定されてメモリ部4に記憶されているとする。また、Ax,Bx,Ay,Byは観察者の視線の個人差を補正する視線補正係数であり、後述するキャリブレーション作業を行うことで取得され、視線検出ルーチンが開始する前にメモリ部4に記憶されているものとする。
上記のように表示素子10上での瞳孔141の中心cの座標(Hx,Hy)を算出した後、ステップS007においてメモリ部4に上記座標を記憶して、視線検出ルーチンを終える。
上記は光源13a、13bの角膜反射像を利用した表示素子上での注視点座標取得手法を示したが、それに限られるものではなく、撮像された眼球画像から眼球回転角度を取得する手法であれば本発明は適用可能である。上記視線検出ルーチンが、請求項1における視線位置検出手段に相当する。
<キャリブレーション作業について>
前述のように、視線検出ルーチンにおいて眼球画像から眼球の回転角度θx、θyを取得し、瞳孔中心位置を表示素子10上において対応する位置に座標変換する演算を行って注視点位置を推定している。
しかし、人間の眼球の形状の個人差等の要因により、前記視線補正係数Ax,Ay,Bx,Byの値を使用者によって適切な値に調整しなければ図3(b)に示したように、使用者が実際に注視している位置Bと演算された推定注視点Cの位置にずれが生じてしまう。上記例では位置Bの人物に注視したいのに、背景が注視されているとカメラ側が誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。
そこで、カメラによって撮像を行う前に、キャリブレーション作業を行い、使用者に適切な補正係数の値を取得し、カメラに記憶させる必要がある。
従来、キャリブレーション作業は、撮像前にファインダ視野内に図3(c)のような位置の異なる複数の指標を強調表示し、観察者にその指標を見てもらうことで行う。各視標注視時に注視点検出フローを行い、算出された複数の推定注視点座標と各視標座標の位置から適切な前記係数の値を求める作業を行うことが公知の技術として知られている。
しかしながら、明るさ等の周囲の環境や撮影者の体勢等が変わると、カメラが検出する注視点位置が変化するため、状況が変わるたびに撮像を中止して頻繁にキャリブレーション作業を行わねば精度を維持できず、煩雑となる問題があった。そのため、ユーザーの撮像動作を妨げることがなく、自動的にキャリブレーションが行われて精度を確保するシステムが求められる。
<自動キャリブレーションシステム>
上記課題を解決するために、本発明においては、撮影動作にキャリブレーション作業を組み込み、自動的にキャリブレーションを行うことで、撮像を中止する必要がなく、ユーザーの利便性を向上させる構成をとっており、その原理を以下に説明する。
キャリブレーション作業において、最も重要な点は、ユーザーが実際に表示素子10上のどの箇所を注視しているか特定することにある。従来は前述したように図3(c)のように表示素子10上に見るべき指標を示し、ユーザーにその指標を注視する動作を行わせることで注視箇所を特定しているが、当然その間はユーザー撮像動作を行うことができない問題がある。そのため、ユーザーの撮像動作中にユーザーが実際に注視している点を特定できるタイミングがあれば、それを利用して眼球画像からの推定注視点と実際の注視点との座標の差異を検出し、その差異データからキャリブレーションを行うことが望ましい。
前記ユーザーの撮像動作中にユーザーが実際に注視している点を特定する作業を、本発明においては、動く被写体を撮像する場合に、表示素子10上に表示される被写体の動きをユーザーが視線で追っているか否かを判定することで行う。追っていると判定されれば、眼球画像からの推定注視点と前記動く被写体の位置にズレがあったとしても、実際の注視点は該被写体であるとする。
本発明の肝要な点として、視線で動く被写体を追っているか否かの判定を如何にして行うかという事項があり、その手段として、撮像素子2による時系列スルー画像から得られる被写体の動きベクトル(以下、オプティカルフローと記す)と、眼球用撮像素子17による眼球画像から得られる推定注視点の時系列データから得られる推定注視点の移動ベクトルを比較し、一致度合を判定することで行っている。
図7は動く被写体である走者をユーザーがファインダ内表示素子10を通して視認している状況を示しており、これを用いて上記の動作を説明する。
図7(a)では、ユーザーは時刻tにおいて、動く被写体である走者(点J)を実際には注視しているが、前記視線補正係数が適切な値になく、カメラが推定する注視点はS(座標(Hx,Hy))であると誤って認識している例を示している。本例では、注視点がベクトルZだけ並行移動してずれている。このとき、ユーザーは焦点を走者(点J)に合わせたいのに、点Sにある背景に焦点が誤って合わせられてしまう。このとき、時刻t1において得られるデータからのみでは、カメラはユーザーが実際に見ている注視点がどこかを判断することはできない。しかし、時系列的にデータを蓄積することで、その判定が可能となる。カメラはまず、上記時刻t1におけるスルー画像及び推定注視点位置座標(Hx1,Hy1)をメモリ部に記憶しておくとする。
次に図7(b)では、時刻t1から所定の時間Δtだけ経過した時刻t2におけるファインダ内表示素子10の状況を示す。スルー画像中のユーザーが実際に注視している走者の位置が移動し、点J1から点J2に移動し、この時点でのカメラが推定する注視点位置は点S(座標(Hx,Hy))であると判断されている。点Jと点S間には変わらずズレが存在しており、推定注視点であるSに焦点を合わせると背景に焦点が合ってしまう。このとき、記憶しておいた時刻tにおいてのスルー画像及び推定注視点位置を使用し、時刻tにおける同情報と比較することで、時刻tから時刻tに移り変わった際の、画像内の被写体の移動量及び方向を示す図示の動きベクトルΔO及び推定注視点が移動した量と方向を示す図示の推定注視点移動ベクトルΔHを得ることができる。
ユーザーが画像内の被写体の動きを目で追っていた場合に、実際の注視点と推定注視点の間に位置のズレがあったとしても、両者の時系列的な移動量及び方向である被写体動きベクトルΔOと推定注視点移動ベクトルΔHはほぼ等しくなる。そのため、スルー画像内において、推定注視点付近にその移動ベクトルΔHとほぼ一致する動きベクトルを有する画像領域があれば、その領域こそが実際にユーザーが注視している領域だと判定することができる。
図7(b)においては、表示素子10に表示される画像内に写る人物の被写体の領域が、推定注視点移動ベクトルΔHとほぼ一致する動きベクトルΔOを有し、該領域が実際に注視している点Jであると判断できる。実際の注視点である点Jを特定できると、前述した従来のキャリブレーションと同様に、視線補正係数を再計算し修正することが可能となる。
上記構成により、ユーザーに通常の撮像動作以外の特定の動作を行わせることなく、カメラが自動的に推定注視点と実際の注視点の位置の差異を判断し、キャリブレーションを実施することができる。
<オプティカルフローの取得について>
上記を行うためには、撮影対象の動きベクトルを取得することが必要であり、本実施例では以下のような構成においてそれを実現している。
近年撮像素子の高機能化が進展しており、画素数、フレームレートの向上などが図られている。この信号を利用して複数の画像間で対象物の動きを示すベクトルデータ(オプティカルフロー)を求める方法が知られている。本実施例では、上記オプティカルフローをスルー画像から取得する構成をとる。CPU3に含まれる画像処理部は撮像素子2から得られた複数の画像間の比較に基づいてオプティカルフローを生成することができ、撮像素子2と画像処理部で請求項1におけるオプティカルフロー算出手段を構成する。
図8は複数の画像比較に基づくブレ検知信号であるオプティカルフローの求め方の例を示す図である。図1におけるCPU8の具体的な動作に対応する。図8ではいわゆるブロックマッチング法について説明するが他の方法を用いても良い。
図8(a)はある時刻tで取得された画像、図8(b)は(a)より後の時刻tn+1で取得された画像とし、図5(c)は前記時刻tおよびtn+1で取得された画像を重ねて表示し、検知されたベクトルを模式的に示した図である。
図8において61は時刻tで取得された画像を、62は被写体を、63は画像61中の着目領域を、64は時刻tn+1で取得された画像を、65は63と画面内の位置が同一の領域を、66は探索することを模式的に示す矢印を、67は画像61の被写体の領域63に対応する画像64中の領域を、68は時刻tおよびtn+1で取得された画像を重ねて表示した画像を、69は画像61中の領域63で検知された移動ベクトルをそれぞれ示している。
図8に示すように異なる時間に取得された2つの画像61,64を用意する。そのうち一方の画像61内で被写体62が存在する領域63に着目する。この領域の大きさは任意に設定可能であるが例えば8x8画素などとすればよい。
この領域63が画像64のどこに移動したかを差分絶対値(=SAD)などを基準に探索すればよい。具体的には画像64で画像内の位置が対応する領域65を中心に、予め定められた範囲、矢印66のように領域をずらしながらSADを計算すればよい。SADを基準に用いた場合は、最小となる位置が対応する領域67となる。結果として2つの画像68間で領域63はベクトル69のように移動したことが分かる。
上記の動作を画面内に設定された複数の領域について行う(移動ベクトルは画面内で複数検知される。その後、主被写体に注目してベクトル選択をする、RANSAC(=RAndom Sample Consensus 既知の技術であり要部ではないので説明は割愛する)などの方法によって推定値を求める、などの方法で2つの画像間の移動ベクトルの評価値を1つ決めればよい。
<視線検出機能及び自動キャリブレーション機能を有したカメラの動作>
これまでに原理を説明した、本実施例における視線検出機能及び自動キャリブレーション機能を有したカメラの動作について、図9のフローチャートに従って説明する。
カメラ電源がONされてフローが開始されると、ステップS101において、撮像素子2がスルー画像を取得開始し、画像信号をCPU3に送信し、CPU3は取得したスルー画像を表示素子10に表示する。ユーザーはファインダ内の表示素子10に表示されたスルー画像を見ることで被写体の視認を行う。表示素子10は請求項1における表示手段に相当する。
ステップS102では、電源がOFFされたか否かを判定し、OFFされていればフローは終了し、OFFされていなければ、ステップS103に進む。
ステップS103では、ステップS101で被写体を視認し始めたユーザーの眼球画像の取得を開始し、前述の視線検出ルーチンを実施することで、表示素子10上での推定注視点位置座標(Hx,Hy)を取得する。
また、前ステップでの推定注視点位置座標の取得に続き、ステップS104では撮像素子2から得られるスルー画像をメモリ部4に記憶する。
ステップS105では、メモリ部4に記憶された前記推定注視点位置座標の履歴が2個以上存在するかの判断を行う。2個未満であれはステップS106へ、2個以上存在すれば、注視点位置移動ベクトル及びオプティカルフローの取得が可能となるため、ステップS201へ進む。
ステップS106では、図3(a)で示したようなファインダ内での表示素子10上での180個の焦点検出ポイントを示した指標のうち、メモリ部4に記憶されたユーザーの推定注視点位置座標履歴の中で最後に記憶された座標に最も近い位置の指標を焦点検出ポイントと判断して、撮像素子2上での対応する測距用画素を用いて測距を行い、図示の合焦ポイントAのように該視標を強調表示する。
次に、ステップS107では所定時間の待機が行われる。
ステップS108では、前述したレリーズボタンが押されてSW1がONであるか否かを判定する。ユーザーはステップS106で強調表示された視標の位置で合焦を行うことに同意した場合に前ステップの所定時間の待機の時点でレリーズボタンを押し、SW1をONにすることとなる。SW1がONであればステップS109に、ONになっていない場合はステップS103に戻り、注視点位置の再取得を行う。
ステップS109においては、ステップS104で取得された測距結果に対応する合焦点位置へレンズ群を移動し、ステップS110に進む。
ステップS110ではレリーズボタンがさらに押しこまれ、SW2がONになったか否かを判定する。ユーザーは現在の合焦位置で撮影を行うことを同意した場合にSW2をONにすることとなる。SW2がONであればステップS111に、ONになっていない場合はステップS106に戻り、同じ位置で測距・表示をやり直す。
ステップS111は撮像動作が行われ、撮像素子2において画像信号が取得され、CPU3に送信され、メモリ部4に記憶される。
ステップS112において、前ステップにおいて取得された画像を表示素子10に所定時間表示し、ステップS113に進む。
ステップS113において、メモリ部4に記憶された推定注視点履歴データ及びスルー画像履歴についての消去を行う。その後、ステップS101に戻り、スルー画像を再取得・表示し始める。
ステップS201においては前ステップまでに記憶された推定注視点位置座標の履歴及びスルー画像の履歴から、最新のデータ及びその一つ前に記憶されたデータを比較して、前述した推定注視点の所定時間内での移動ベクトルである推定注視点移動ベクトル及び、画面内の被写体の所定時間内での動きベクトルであるオプティカルフローの取得を行う。本ステップの動作は、請求項1における視線移動ベクトル測定手段及びオプティカルフロー算出手段に相当する。
ステップS202においては、後に行う推定注視点移動ベクトルと画面内のオプティカルフローのベクトルの一致を判断する過程で用いる基準となる許容差異度合いを算出する。ここで、許容差異度合いは前ステップで算出された推定注視点移動ベクトルの大きさによって変動し、推定注視点移動ベクトルが大きいほど許容差異度合いが大きくなる(差異が大きくても許容される)とする。これは、ファインダ視野内における被写体の移動速度が大きくなるほど、その動きを視線で追った際に視線の動きと被写体の動きの差異が出やすくなり、被写体補足精度が下がることを防止するためである。被写体の速度を、それを視線で追っている視線の移動べクトル(推定注視点移動ベクトル)の大きさから判断し、許容差異度合いの算出に反映させている。これは請求項2における許容差異度合い算出手段に相当する。
ステップS203においては、前ステップで取得された推定注視点移動ベクトルと所定度合い以上に一致するオプティカルフローを有する被写体領域が画面内にあるか否かの判定を行う。両ベクトルの一致の判定は前ステップで算出した許容差異度合いを用いて行い、両ベクトルの差異が該許容差異度合いの範囲内に収まる場合は一致と判断される。一致する領域がある場合にはその座標を取得し、ステップS204に進む。本ステップにおける動作は請求項1における移動ベクトル一致度合判定手段に相当する。一致する領域が無ければステップS106に戻り、最新の推定注視点位置で測距を行う。
ステップS204においては前ステップで取得された推定注視点移動ベクトルと所定度合い以上に一致するオプティカルフローを有する被写体領域の座標と、最新の推定注視点の座標の位置を比較し、両者が所定値以内の近い位置にある場合には、その領域こそがユーザーが実際に注視している点であると判断し、ステップS205に進む。これは、推定注視点位置は実際の注視点から個人差等の誤差により位置がずれるが、そのずれ量は大きくはなく、両者は近傍に存在すると判断できるためである。所定以上に離れている場合には前記ベクトル同士の一致は偶然であるとして、ステップS106に戻り、最新の推定注視点位置で測距を行う。
ステップS205においては上記オプティカルフローを有する領域こそがユーザーが実際に注視している点であるとして、その位置において測距を行い、該領域に相当する位置の焦点検出ポイントの指標を強調表示する。ステップS203からS205における実際に注視している点を特定する過程は、請求項1における被写体領域特定手段に相当する。上記過程により、視線検出結果に誤差がある場合にも、ユーザーが実際に注目している被写体に焦点を合わせることが可能となり、被写体補足精度が向上する。
次にステップS206においては所定時間の待機が行われ、ステップS207においては、レリーズボタンが押されてSW1がONであるか否かを判定する。ユーザーはステップ205で強調表示された視標の位置で合焦を行うことに同意した場合に前ステップの所定時間の待機の時点でレリーズボタンを押し、SW1をONにすることとなる。SW1がONであればステップS208に進み、ONになっていない場合はステップS102に戻り、注視点位置の再取得を行う。
ステップS208においては、ステップS205で取得された測距結果に対応する合焦点位置へレンズ群を移動し、ステップS209に進む。
ステップS209ではレリーズボタンがさらに押しこまれ、SW2がONになったか否かを判定する。ユーザーは現在の合焦位置で撮影を行うことを同意した場合にSW2をONにすることとなる。SW2がONであればステップS210に進み、ONになっていない場合はステップS205に戻り、同じ位置で測距・表示をやり直す。
ステップS210においては撮像動作が行われ、撮像素子2において画像信号が取得され、CPU3に送信され、メモリ部4に記憶される。
ステップS211において、ユーザーが強調表示された前述のオプティカルフローを有する領域を正しい注視点位置と認識したため撮像動作が行われたと判断し、該領域の座標を用いて前述の視線補正係数を修正し、メモリ部4に記憶する。本ステップの動作は、請求項1における視線位置検出結果修正手段に相当する。その後、ステップS112に進み、取得画像を表示する。
上記構成により、視線検出装置を有する被写体認識装置において、撮影者の注視する被写体を精度よく認識しつつ、かつ注視位置のキャリブレーション動作の自動化を図り、撮影者の利便性を向上する事を達成できた。
1 撮影レンズ
2 撮像素子
3 CPU
4 メモリ部
10 表示素子
11 表示素子駆動回路
12 接眼レンズ
13a~f 照明光源
14 眼球
15 光分割器
16 受光レンズ
17 眼球用撮像素子
111 絞り
112 絞り駆動部
113 レンズ駆動モーター
114 レンズ駆動部材
115 フォトカプラー
116 パルス板
117 マウント接点
141 瞳孔
142 角膜
143 光彩

Claims (8)

  1. 撮像手段と、
    撮像した画像を表示する表示手段と、
    撮影者の視線位置を検出する視線位置検出手段と、
    前記撮像手段により取得された画像に基づいて、オプティカルフローを算出する、オプティカルフロー算出手段と、
    前記視線位置検出手段により検出された撮影者の視線位置が、所定の時間に移動する移動量及び移動方向を測定する視線移動ベクトル測定手段と、
    前記オプティカルフロー算出手段により算出されたオプティカルフローと、前記視線移動ベクトル測定手段により取得された視線移動ベクトルとを比較し、その差異から両者の一致度合を判断する、移動ベクトル一致度合判定手段と、
    前記オプティカルフローを有する画像領域の座標と、撮影者の視線位置との座標とを比較し、両者の距離が所定値以下であるか否かを判定する距離判定手段と、
    前記移動ベクトル一致度合判定手段により、両者が一致すると判定され、且つ、前記距離判定手段により前記両者の距離が前記所定値以下であると判定された場合、前記オプティカルフローを有する画像領域が被写体領域であると特定する被写体領域特定手段と、
    を有することを特徴とする被写体認識装置。
  2. 前記特定された被写体領域の位置座標を用いることで、前記視線位置の検出結果を修正する視線位置検出結果修正手段を有することを特徴とする請求項1に記載の被写体に認識装置。
  3. 前記被写体領域特定手段により特定された被写体領域に対して焦点検出を行う焦点検出手段を有することを特徴とする請求項1又は2に記載の被写体認識装置。
  4. 前記焦点検出手段は、
    前記被写体領域特定手段により、該オプティカルフローを有する画像領域の座標と、撮影者の視線位置との座標との距離が前記所定値を越えると判定された場合、
    前記焦点検出手段は前記撮影者の視線位置に対して焦点検出を行うことを特徴とする請求項3に記載の被写体認識装置。
  5. 前記表示手段は、前記被写体領域特定手段により特定された被写体領域に相当する焦点検出ポイントを強調表示することを特徴とする請求項1乃至4のいずれか1項に記載の被写体認識装置。
  6. 前記距離判定手段は、前記移動ベクトル一致度合判定手段により両者が一致する判定が出た場合に、前記オプティカルフローを有する画像領域の座標と、撮影者の視線位置との座標とを比較することを特徴とする請求項1に記載の被写体認識装置。
  7. 前記視線移動ベクトルと前記オプティカルフローが一致しているとみなされる、両ベクトルの差異の許容範囲である、許容差異度合いを算出する許容差異度合い算出手段を有し、前記許容差異度合い算出手段は、前記視線移動ベクトル測定手段により測定された視線移動ベクトルの大きさにより、その許容差異度合いを決定し、視線移動ベクトルが大きいほど、その許容される差異度合いを大きくし、前記移動ベクトル一致度合判定手段において、両ベクトルが前記許容差異度合いの範囲内にある場合は、両ベクトルが一致しているとみなすことを特徴とする請求項1乃至6のいずれか1項に記載の被写体認識装置。
  8. 撮像手段を有する被写体認識装置の制御方法であって、
    撮像した画像を表示する表示ステップと、
    撮影者の視線位置を検出する視線位置検出ステップと、
    前記撮像手段により取得された画像に基づいて、オプティカルフローを算出する、オプティカルフロー算出ステップと、
    前記視線位置検出ステップにより検出された撮影者の視線位置が、所定の時間に移動する移動量及び移動方向を測定する視線移動ベクトル測定ステップと、
    前記オプティカルフロー算出ステップにより算出されたオプティカルフローと、前記視線移動ベクトル測定ステップにより取得された視線移動ベクトルとを比較し、その差異から両者の一致度合を判断する、移動ベクトル一致度合判定ステップと、
    前記オプティカルフローを有する画像領域の座標と、撮影者の視線位置との座標とを比較し、両者の距離が所定値以下であるか否かを判定する距離判定ステップと、
    前記移動ベクトル一致度合判定ステップにより、両者が一致すると判定され、且つ、前記距離判定ステップにより前記両者の距離が前記所定値以下であると判定された場合、
    前記オプティカルフローを有する画像領域が被写体領域であると特定する被写体領域特定ステップと、を有することを特徴とする被写体認識装置の制御方法。
JP2022026118A 2018-01-26 2022-02-22 被写体認識装置及び被写体認識装置の制御方法 Active JP7358530B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022026118A JP7358530B2 (ja) 2018-01-26 2022-02-22 被写体認識装置及び被写体認識装置の制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018011024A JP7030545B2 (ja) 2018-01-26 2018-01-26 被写体認識装置
JP2022026118A JP7358530B2 (ja) 2018-01-26 2022-02-22 被写体認識装置及び被写体認識装置の制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018011024A Division JP7030545B2 (ja) 2018-01-26 2018-01-26 被写体認識装置

Publications (2)

Publication Number Publication Date
JP2022066266A JP2022066266A (ja) 2022-04-28
JP7358530B2 true JP7358530B2 (ja) 2023-10-10

Family

ID=67472527

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018011024A Active JP7030545B2 (ja) 2018-01-26 2018-01-26 被写体認識装置
JP2022026118A Active JP7358530B2 (ja) 2018-01-26 2022-02-22 被写体認識装置及び被写体認識装置の制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018011024A Active JP7030545B2 (ja) 2018-01-26 2018-01-26 被写体認識装置

Country Status (1)

Country Link
JP (2) JP7030545B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7293039B2 (ja) 2019-08-16 2023-06-19 キヤノン株式会社 撮像装置およびその制御方法
JP7358130B2 (ja) 2019-09-12 2023-10-10 キヤノン株式会社 電子機器およびその制御方法
CN115184368B (zh) * 2022-09-07 2022-12-23 枣庄市胜达精密铸造有限公司 一种铸件缺陷检测控制系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120887A (ja) 2009-11-12 2011-06-23 Panasonic Corp 眼電位計測装置、眼科診断装置、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがね、眼電位計測方法、及びプログラム
JP2015211741A (ja) 2014-05-02 2015-11-26 富士通株式会社 視線状態判定装置、視線状態判定プログラム及び視線状態判定方法
WO2018016209A1 (ja) 2016-07-20 2018-01-25 富士フイルム株式会社 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6686757B2 (ja) * 2016-07-15 2020-04-22 住友電気工業株式会社 受光素子および光モジュール

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120887A (ja) 2009-11-12 2011-06-23 Panasonic Corp 眼電位計測装置、眼科診断装置、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがね、眼電位計測方法、及びプログラム
JP2015211741A (ja) 2014-05-02 2015-11-26 富士通株式会社 視線状態判定装置、視線状態判定プログラム及び視線状態判定方法
WO2018016209A1 (ja) 2016-07-20 2018-01-25 富士フイルム株式会社 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム

Also Published As

Publication number Publication date
JP7030545B2 (ja) 2022-03-07
JP2022066266A (ja) 2022-04-28
JP2019129461A (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
JP7358530B2 (ja) 被写体認識装置及び被写体認識装置の制御方法
JP5171468B2 (ja) 撮像装置及び撮像装置の制御方法
JP2002345756A (ja) 視線検出装置及び光学機器
KR100224538B1 (ko) 시선검출장치(viewpoint detecting device)
JP2024003037A (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP2004008323A (ja) 視線機能付光学装置
JPH0556924A (ja) ビデオカメラ
JP2002301030A (ja) 視線検出機能付き機器
US20230186520A1 (en) Gaze detection apparatus
US20240085979A1 (en) Recording device, image-capturing apparatus, control method, and recording system
JP7358130B2 (ja) 電子機器およびその制御方法
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
US20230179854A1 (en) Control apparatus, method of controlling control apparatus, control method, and storage medium
JP2022171084A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2003339642A (ja) 視線検出装置及びそれを有した光学装置
JP2023006629A (ja) 制御装置およびその制御方法
JP3219491B2 (ja) 視線検出装置
JP3184634B2 (ja) 視線検出装置を有する光学装置
CN114947732A (zh) 检测装置和用于控制检测装置的控制方法
JP2023074878A (ja) 視線検出装置、視線検出装置の制御方法およびプログラム
JP3548222B2 (ja) 視線検出装置を備えたビデオカメラ
JP2023073758A (ja) 電子機器、制御方法
JP3624030B2 (ja) 視線検出装置及び光学装置
JP2022165239A (ja) 撮像装置及びその制御方法、並びにプログラム
JPH0938038A (ja) 視線検出装置および視線検出装置を有する光学機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230927

R151 Written notification of patent or utility model registration

Ref document number: 7358530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151