JP2021043368A - Electronic apparatus and control method thereof - Google Patents
Electronic apparatus and control method thereof Download PDFInfo
- Publication number
- JP2021043368A JP2021043368A JP2019166234A JP2019166234A JP2021043368A JP 2021043368 A JP2021043368 A JP 2021043368A JP 2019166234 A JP2019166234 A JP 2019166234A JP 2019166234 A JP2019166234 A JP 2019166234A JP 2021043368 A JP2021043368 A JP 2021043368A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- line
- image
- display
- gazing point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title description 61
- 238000001514 detection method Methods 0.000 claims abstract description 142
- 238000003384 imaging method Methods 0.000 claims abstract description 56
- 238000012937 correction Methods 0.000 claims description 32
- 238000011156 evaluation Methods 0.000 claims description 22
- 230000011514 reflex Effects 0.000 claims description 22
- 230000001360 synchronised effect Effects 0.000 claims description 9
- 230000004424 eye movement Effects 0.000 claims description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 122
- 230000008569 process Effects 0.000 description 45
- 210000001508 eye Anatomy 0.000 description 31
- 210000001747 pupil Anatomy 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 210000004087 cornea Anatomy 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000004907 flux Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Eye Examination Apparatus (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
Description
本発明は電子機器に関し、より詳細には、視線を検出する電子機器に関する。 The present invention relates to an electronic device, and more particularly to an electronic device that detects a line of sight.
近年、カメラの自動化・インテリジェント化が進んでいる。特許文献1は、手動で被写体位置を入力せずとも、ファインダを覗く撮影者の視線位置の情報に基づいて撮影者が意図する被写体を認識し、焦点制御を行う技術を提案する。特許文献2は、記録する画像のタイム情報と視線検出したタイム情報を関連付けて、記録画像と視線情報を記録する技術が記載されている。
In recent years, cameras have become more automated and intelligent.
従来技術では、視線検出に用いた表示画像の特定が困難である。言い換えると、視線検出結果がどのフレーム画像を見ているときの視線を表すかを特定することが困難である。 With the prior art, it is difficult to identify the display image used for line-of-sight detection. In other words, it is difficult to specify which frame image the line-of-sight detection result represents the line-of-sight.
特許文献1は、そもそも、視線検出に用いた表示画像を特定することを開示しない。特許文献2は、タイム情報を用いて画像と視線検出結果を関連付けているが、画像表示と眼球撮像の同期関係によっては、眼球を撮像したときに視線位置に表示されている表示画像が前後する可能性がある。つまり、特許文献2は、視線検出に用いた表示画像の特定に失敗する場合がある。
例えば、視線検出結果を被写体追尾または焦点制御に利用する際に、どのフレーム画像に対する視線検出結果であるかが特定されていないと、ユーザーが意図しない被写体を追尾対象または合焦対象としてしまう。特に、被写体の動きが速いと、被写体追尾や焦点検出精度の低下を招く可能性がある。 For example, when the line-of-sight detection result is used for subject tracking or focus control, if the frame image for which the line-of-sight detection result is not specified is not specified, the subject unintended by the user is targeted for tracking or focusing. In particular, if the subject moves quickly, the subject tracking and focus detection accuracy may decrease.
本発明は、上記課題に鑑みてなされたものであり、視線検出結果がどのフレームを見ているときの視線を表すかを精度良く特定可能な電子機器を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an electronic device capable of accurately specifying which frame the line-of-sight detection result represents the line-of-sight.
本発明の第一の態様は、
画像を表示する表示手段と、
前記表示手段に表示される表示画像を見る眼を撮像する撮像手段と、
前記撮像手段で撮像された眼画像を用いて視線を検出する検出手段と、
前記検出手段の視線検出結果に対応する表示フレームである視線検出フレームを特定する特定手段と、
を備え、
前記特定手段は、前記撮像手段の駆動モード情報および前記表示手段の駆動モード情報に基づいて、前記視線検出フレームを特定する、
電子機器である。
The first aspect of the present invention is
Display means for displaying images and
An imaging means for capturing an eye for viewing a display image displayed on the display means, and an imaging means.
A detection means that detects the line of sight using an eye image captured by the imaging means, and
A specific means for specifying the line-of-sight detection frame, which is a display frame corresponding to the line-of-sight detection result of the detection means, and
With
The specific means identifies the line-of-sight detection frame based on the drive mode information of the image pickup means and the drive mode information of the display means.
It is an electronic device.
本発明の第二の態様は、
画像を表示手段に表示する表示ステップと、
前記表示手段に表示される表示画像を見る眼を撮像手段により撮像する撮像ステップと、
前記撮像ステップにおいて撮像された眼画像を用いて視線を検出する検出ステップと、
前記検出ステップの視線検出結果に対応する表示フレームである視線検出フレームを特定する特定ステップと、
を含み、
前記特定ステップでは、前記撮像手段の駆動モード情報および前記表示手段の駆動モード情報に基づいて、前記視線検出フレームを特定する、
電子機器の制御方法である。
The second aspect of the present invention is
A display step that displays an image on a display means,
An imaging step in which an eye for viewing a display image displayed on the display means is imaged by the imaging means,
A detection step of detecting the line of sight using the eye image captured in the imaging step, and a detection step.
A specific step for specifying the line-of-sight detection frame, which is a display frame corresponding to the line-of-sight detection result of the detection step,
Including
In the specific step, the line-of-sight detection frame is specified based on the drive mode information of the image pickup means and the drive mode information of the display means.
This is a control method for electronic devices.
本発明によれば、視線検出結果がどのフレームを見ているときの視線を表すかを精度良く特定可能となる。 According to the present invention, it is possible to accurately identify which frame the line-of-sight detection result represents the line-of-sight.
以下、添付の図面を参照して本発明の好適な実施形態を説明する。本発明は任意の電子機器に適用することができるが、以下では撮像装置(カメラ)を例として説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The present invention can be applied to any electronic device, but an image pickup device (camera) will be described below as an example.
<構成の説明>
図1(A),1(B)は、本実施形態に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す。図1(A)は正面斜視図であり、図1(B)は背面斜視図である。図1(A)に示すように、カメラ1は、撮影レンズユニット1A及びカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮像操作を受け付ける操作部材であるレリーズボタン5が配置されている。図1(B)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の表示デバイス10(表示パネル)をユーザーが覗き込むための接眼窓枠121と接眼レンズ12(接眼光学系)が配置されている。接眼窓枠121は接眼レンズ12を囲んでおり、接眼レンズ12に対して、カメラ筐体1Bの外側(背面側)に突出している。なお、接眼光学系には複数枚のレンズが含まれていてもよい。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付ける操作部材41〜43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパ
ネル)は、液晶パネル等の表示パネルを備えており、表示パネルで画像を表示する機能を有する。
<Explanation of configuration>
1 (A) and 1 (B) show the appearance of the camera 1 (digital still camera; interchangeable lens camera) according to the present embodiment. FIG. 1 (A) is a front perspective view, and FIG. 1 (B) is a rear perspective view. As shown in FIG. 1A, the
図2は、図1(A)に示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の大まかな内部構成を示す。
FIG. 2 is a cross-sectional view of the
撮影レンズユニット1A内には、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラー115、パルス板116、マウント接点117、焦点調節回路118等が含まれている。レンズ駆動部材114は駆動ギヤ等からなり、フォトカプラー115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラー115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェイスである。なお、簡単のために2枚のレンズ101,102を示したが、実際は2枚より多くのレンズが撮影レンズユニット1A内に含まれている。
In the photographing
カメラ筐体1B内には、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11等が含まれている。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像等を記憶する。表示デバイス10は、液晶等で構成されており、撮像された画像(被写体像)等を表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。
The
表示デバイス10が表示手段に想到し、撮像素子2が第2撮像手段に相当する。
The
ユーザーは、接眼窓枠121と接眼レンズ12を通して、表示デバイス10に表示された画像(視認用画像)を見ることができる。具体的には、図3に示すように、接眼レンズ12により、表示デバイス10を拡大した虚像300が、接眼レンズ12から50cm〜2m程度離れた位置に結像される。図3では、接眼レンズ12から1m離れた位置に虚像300が結像されている。ユーザーは、接眼窓枠121内を覗き込むことで、この虚像300を視認することとなる。
The user can see the image (visual image) displayed on the
カメラ筐体1B内には、光源13a,13b、光分割器15、受光レンズ16、眼球撮像素子17等も含まれている。光源13a,13bは、光の角膜反射による反射像(角膜反射像)と瞳孔の関係から視線方向を検出するために従来から一眼レフカメラ等で用いられている光源であり、ユーザーの眼球14を照明するための光源である。具体的には、光源13a,13bは、ユーザーに対して不感の赤外光を発する赤外発光ダイオード等であり、接眼レンズ12の周りに配置されている。照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCD等の光電素子列を2次元的に配した眼球撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼球撮像素子17を共役な結像関係に位置付けている。後述する所定のアルゴリズムにより、眼球撮像素子17上に結像された眼球像における角膜反射像の位置から、視線方向(視認用画像における視点)が検出される。
The
図4は、カメラ1内の電気的構成を示すブロック図である。CPU3には、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205等が接続されている。また、CPU3は、撮影レンズユニット1A内に配置された焦点調節回路118と、撮影レンズユニット1A内の絞り
駆動部112に含まれた絞り制御回路206とに、マウント接点117を介して信号を伝達する。CPU3に付随したメモリ部4は、撮像素子2および眼球撮像素子17からの撮像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。
FIG. 4 is a block diagram showing an electrical configuration in the
視線検出回路201が検出手段に相当し、眼球撮像素子17が撮像手段に相当し、CPU3が特定手段に相当する。
The line-of-
視線検出回路201は、眼球撮像素子17(CCD−EYE)上に眼球像が結像した状態での眼球撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置からユーザーの視線(視認用画像における視点)を算出する。
The line-of-sight detection circuit 201 A / D-converts the output (eye image obtained by imaging the eye) of the
測光回路202は、測光センサの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換等を行い、その結果を被写界輝度情報としてCPU3に送る。
The
自動焦点検出回路203は、撮像素子2におけるCCDの中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、図5(A)のファインダ内視野像(視認用画像)に示した180か所に対応する撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。
The autofocus detection circuit 203 A / D-converts signal voltages from a plurality of detection elements (a plurality of pixels) used for phase difference detection included in the CCD in the
信号入力回路204には、レリーズボタン5の第1ストロークでONし、カメラ1の測光、測距、視線検出動作等を開始するためのスイッチSW1と、レリーズボタン5の第2ストロークでONし、撮影動作を開始するためのスイッチSW2が接続されている。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。
The
追尾回路207は、入力画像中の被写体を追尾する回路であり、被写体位置を表す追尾枠の情報をCPU3に送信する。追尾処理は、例えば、SAD(Sum Of Absolute Difference)により、2枚の画像間の類似度を求めることにより行われる。また、追尾回路207は、SAD以外の追尾処理を用いても良い。
The
認識回路208は、入力画像中の被写体を認識する回路であり、例えば人物の顔検出や動物の検出を行う。
The
また、操作部材41〜43は、CPU3にその操作信号に伝達する。CPU3は、操作部材41〜43から伝達される操作信号に応じて推定注視点枠位置の移動操作制御を行う。
Further, the
図5(A)は、ファインダ内視野を示した図であり、表示デバイス10が動作した状態(視認用画像を表示した状態)を示す。図5(A)に示すように、ファインダ内視野には、焦点検出領域500、180個の測距点指標501、視野マスク502等がある。180個の測距点指標501のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。また、180個の測距点指標501のうち、現在の推定注視点A(
推定位置)に対応する測距点指標501は、枠等で強調されて表示される。
FIG. 5A is a view showing the field of view in the finder, and shows a state in which the
The
<視線検出動作の説明>
図6,7,8を用いて、視線検出方法について説明する。図6は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図6に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球14で反射した光の一部は、受光レンズ16によって、眼球撮像素子17に集光する。図7は、眼球撮像素子17で撮像された眼画像(眼球撮像素子17に投影された眼球像)の概略図701、および眼球撮像素子17におけるCCDの出力強度の分布702を示す。図8は、視線検出動作の概略フローチャートを表す。
<Explanation of line-of-sight detection operation>
The line-of-sight detection method will be described with reference to FIGS. 6, 7 and 8. FIG. 6 is a diagram for explaining the principle of the line-of-sight detection method, and is a schematic view of an optical system for performing line-of-sight detection. As shown in FIG. 6, the
視線検出動作が開始すると、図8のステップS801で、光源13a,13bは、ユーザーの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザーの眼球像は、受光レンズ16を通して眼球撮像素子17上に結像され、眼球撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
When the line-of-sight detection operation starts, the
ステップS802では、視線検出回路201は、眼球撮像素子17から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。
In step S802, the line-of-
ステップS803では、CPU3は、ステップS802で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。
In step S803, the CPU 3 obtains the coordinates of the points corresponding to the corneal reflex images Pd and Pe of the
光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼球撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼球撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。
The infrared light emitted from the
分布702は、眼画像701における領域α’の輝度情報(輝度分布)を示す。分布702において、眼画像701の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。本実施形態では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図7の輝度分布702に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼球撮像素子17上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の光彩143の領域(光彩143からの光束が結像して得られる、瞳孔像の外側の光彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより小さい領域と、X座標が座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
The
輝度分布702から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼球撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と
、瞳孔中心像c’の座標とを見積もることができる。
From the
ステップS804では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd−Xe)の関数を用いて求めることができる。
In step S804, the CPU 3 calculates the imaging magnification β of the eyeball image. The imaging magnification β is a magnification determined by the position of the
ステップS805では、CPU3は、受光レンズ16の光軸に対する眼球14の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z−X平面(Y軸に垂直な平面)内での眼球14の回転角θXは、以下の式(1)で算出できる。Z−Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β×Oc×SINθX≒{(Xd+Xe)/2}−Xc ・・・(1)
In step S805, the CPU 3 calculates the rotation angle of the optical axis of the
β × Oc × SINθ X ≒ {(Xd + Xe) / 2} -Xc ・ ・ ・ (1)
ステップS806では、CPU3は、ステップS805で算出した回転角θx,θyを用いて、表示デバイス10に表示された視認用画像におけるユーザーの視点(視線が注がれた位置;ユーザーが見ている位置)を求める(推定する)。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式(2),(3)で算出できる。
Hx=m×(Ax×θx+Bx) ・・・(2)
Hy=m×(Ay×θy+By) ・・・(3)
In step S806, the CPU 3 uses the rotation angles θx and θy calculated in step S805 to display the user's viewpoint (the position where the line of sight is poured; the position where the user is looking) in the visual image displayed on the display device 10. ) Is obtained (estimated). Assuming that the coordinates of the viewpoint (Hx, Hy) are the coordinates corresponding to the center of the pupil c, the coordinates of the viewpoint (Hx, Hy) can be calculated by the following equations (2) and (3).
Hx = m × (Ax × θx + Bx) ・ ・ ・ (2)
Hy = m × (Ay × θy + By) ・ ・ ・ (3)
式(2),(3)のパラメータmは、カメラ1のファインダ光学系(受光レンズ16等)の構成で定まる定数であり、回転角θx,θyを視認用画像において瞳孔中心cに対応する座標に変換する変換係数であり、予め決定されてメモリ部4に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで取得され、視線検出動作が開始する前にメモリ部4に格納されるとする。
The parameters m of the equations (2) and (3) are constants determined by the configuration of the finder optical system (
ステップS807では、CPU3は、視点の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。 In step S807, the CPU 3 stores the coordinates (Hx, Hy) of the viewpoint in the memory unit 4, and finishes the line-of-sight detection operation.
<キャリブレーション作業の説明>
前述のように、視線検出動作において眼画像から眼球14の回転角度θx,θyを取得し、瞳孔中心cの位置を視認用画像上での位置に座標変換することで、視点を推定できる。
<Explanation of calibration work>
As described above, the viewpoint can be estimated by acquiring the rotation angles θx and θy of the
しかし、人間の眼球の形状の個人差等の要因により、視点を高精度に推定できないことがある。具体的には、視線補正パラメータAx,Ay,Bx,Byをユーザーに適した値に調整しなければ、図5(B)に示したように、実際の視点Bと推定された視点Cとのずれが生じてしまう。図5(B)では、ユーザーは人物を注視しているが、カメラ1は背景が注視されていると誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。
However, it may not be possible to estimate the viewpoint with high accuracy due to factors such as individual differences in the shape of the human eyeball. Specifically, unless the line-of-sight correction parameters Ax, Ay, Bx, and By are adjusted to values suitable for the user, as shown in FIG. 5B, the actual viewpoint B and the estimated viewpoint C There will be a gap. In FIG. 5B, the user is gazing at a person, but the
そこで、カメラ1が撮像を行う前に、キャリブレーション作業を行い、ユーザーに適した視点補正パラメータ(眼球特性)を取得し、カメラ1に格納する必要がある。視点補正
パラメータ(眼球特性)には、眼球動作の遅延の程度を表す遅延情報が含まれる。キャリブレーション処理を実行するCPU3が、眼球特性取得手段に相当する。
Therefore, before the
従来より、キャリブレーション作業は、撮像前に図5(C)のような位置の異なる複数の指標を視認用画像で強調表示し、ユーザーにその指標を見てもらうことで行われている。そして、各指標の注視時に視線検出動作を行い、算出された複数の視点(推定位置)と、各指標の座標とから、ユーザーに適した視点補正パラメータを求める技術が、公知の技術として知られている。なお、ユーザーの見るべき位置が示唆されれば、指標の表示でなくてもよく、輝度や色の変更で位置が強調されてもよい。 Conventionally, the calibration work has been performed by highlighting a plurality of indexes having different positions as shown in FIG. 5C on a visual image and having the user see the indexes before imaging. Then, a technique of performing a line-of-sight detection operation when gazing at each index and obtaining a viewpoint correction parameter suitable for the user from a plurality of calculated viewpoints (estimated positions) and the coordinates of each index is known as a known technique. ing. If the position to be viewed by the user is suggested, the index may not be displayed and the position may be emphasized by changing the brightness or color.
また、キャリブレーション作業の際、CPU3は、人間の眼球動作の遅延フレーム数(遅延情報)Cを記憶する。遅延フレーム数Cは、図5(C)のキャリブレーション作業指標を表示させたフレームと、表示画像中の当該指標位置に視線が検出されたフレームとの間のフレーム数である。遅延フレーム数Cは、図11で後述する視線検出フレーム特定処理のS1110で用いるために、メモリ部4に記憶される。なお、眼球動作の遅延を表す遅延情報が取得されればよいので、遅延フレーム数の代わりに、遅延時間を取得および記憶してもよい。 Further, during the calibration work, the CPU 3 stores the number of delay frames (delay information) C of the human eye movement. The delay frame number C is the number of frames between the frame on which the calibration work index of FIG. 5C is displayed and the frame in which the line of sight is detected at the index position in the displayed image. The delay frame number C is stored in the memory unit 4 for use in S1110 of the line-of-sight detection frame identification process described later in FIG. Since it is sufficient to acquire the delay information indicating the delay of the eye movement, the delay time may be acquired and stored instead of the number of delay frames.
<視線検出した表示フレームの説明>
冒頭に述べたように、視線検出結果の注視点が、ユーザーが実際にどの表示フレームを見ているときのものであるかを特定することが望ましい。ユーザーが実際に見ていた表示フレームのことを、本開示では、視線検出に用いられた表示フレーム、あるいは視線検出フレームと称する。視線検出フレームは、視線検出結果に対応する表示フレーム、または、注視点に対応する表示フレームと称することもできる。
<Explanation of display frame with line-of-sight detected>
As mentioned at the beginning, it is desirable to identify which display frame the user is actually looking at when the gaze point of the line-of-sight detection result is. In the present disclosure, the display frame actually viewed by the user is referred to as a display frame used for line-of-sight detection or a line-of-sight detection frame. The line-of-sight detection frame can also be referred to as a display frame corresponding to the line-of-sight detection result or a display frame corresponding to the gazing point.
図9(A)〜図9(F)を用いて、表示デバイス10に表示されるフレーム(表示フレーム)と眼画像のフレーム(眼球撮像フレーム)の関係を説明する。これらの図において、縦方向はフレーム内の行を表し、横方向は時間を表す。
The relationship between the frame (display frame) displayed on the
図9(A)〜図9(F)において、表示フレームと眼球撮像フレームの同期関係と眼球撮像素子17の読み出し時間の組み合わせがそれぞれ異なる。表示デバイス10の表示走査時間と眼球撮像素子17の読み出し時間を比較するため、全ての場合で表示デバイス10の表示走査時間を一定としているが、表示デバイス10の表示走査時間は変更可能であってもよい。図9(A)〜図9(D)、図9(G)は眼球撮像素子17によるローリングシャッタ方式での撮像を想定しており、図9(E)、図9(F)はグローバルシャッタを方式での撮像を想定している。
In FIGS. 9A to 9F, the combination of the synchronization relationship between the display frame and the eyeball image pickup frame and the readout time of the eyeball
図9(A)〜9(F)において、900と901は表示フレームを示し、表示フレーム901は表示フレーム900の次に表示されるフレーム画像である。904,905は表示の同期タイミングを点線で示している。902は眼球撮像素子17の露光時間であり、903は眼球撮像フレームである。露光期間902において眼球撮像素子17によって撮像される画像が、眼球撮像フレーム903である。
In FIGS. 9A to 9F, 900 and 901 indicate a display frame, and the
906、907はユーザーの角膜反射像(プルキニエ像)の位置を表し、角膜反射像が4点ある場合には、画像のもっとも下側で検出された角膜反射像の位置を表している。注
視点(S807で算出する視点座標)は、角膜反射像の位置や瞳孔中心位置に基づいて検出されるので、以下では簡単のために906、907を注視点とも称する。角膜反射像位置906、907から伸びる矢印の先は、角膜反射像位置906、907に基づいて算出される注視点、すなわち利用者が実際に注視している表示フレーム内の位置を表す。必要に応じて、眼画像内での角膜反射像の位置を眼画像内の注視点と称し、ユーザーが実際に
注視している位置を表示フレーム内の注視点と称することもある。説明の都合上、1つの露光期間中に眼画像内の注視点が2箇所ある例を示しているが、実際の注視点は1箇所である。
906 and 907 represent the positions of the user's corneal reflex images (Purkinje images), and when there are four corneal reflex images, they represent the positions of the corneal reflex images detected at the lowermost side of the image. Since the gazing point (viewpoint coordinates calculated in S807) is detected based on the position of the corneal reflex image and the center position of the pupil, 906 and 907 are also referred to as gazing points for the sake of simplicity. The tip of the arrow extending from the corneal reflex image positions 906 and 907 represents the gaze point calculated based on the corneal reflex image positions 906 and 907, that is, the position in the display frame actually gazed by the user. If necessary, the position of the corneal reflex image in the eye image may be referred to as the gazing point in the ocular image, and the position actually gazing by the user may be referred to as the gazing point in the display frame. For convenience of explanation, an example is shown in which there are two gazing points in the eye image during one exposure period, but the actual gazing point is one.
図9(A)は、表示デバイス10と眼球撮像素子17は同期しており、眼球撮像素子17の読み出し時間が表示デバイス10の表示走査時間以下の場合を示す。
FIG. 9A shows a case where the
表示デバイス10と眼球撮像素子17が同期しているというのは、本実施形態では、表示デバイス10によるフレーム画像の表示開始タイミングと、眼球撮像素子17による眼球撮像フレームの読み出し開始タイミングとが一致していることを意味する。表示デバイス10は、表示同期信号の入力にしたがって、新しいフレーム画像の表示を開始する。眼球撮像素子17は、撮像同期信号の入力にしたがって、露光期間中に蓄積された信号電荷の読み出しを開始する。表示デバイス10と眼球撮像素子17が同期しているというのは、表示同期信号と撮像同期信号の入力が同じタイミングであると言い表すこともできる。
The fact that the
図9(A)の場合、眼画像内での注視点906の位置に関係なく、角膜反射像が撮影されたタイミングでは注視点に表示フレーム900が表示されている。したがって、視線検出フレームは、注視点の位置にかかわらず、眼球撮像フレーム903の露光を開始したときの表示フレーム900である。この表示フレーム900は、撮像同期信号の入力タイミングに表示されている(表示が開始される)表示フレーム901の1つ前の表示フレームとも特定できる。
In the case of FIG. 9A, the
図9(B)は、表示デバイス10と眼球撮像素子17は同期しており、眼球撮像素子17の読み出し時間が表示デバイス10の表示走査時間より長い場合を示す。この場合、眼画像内での注視点の位置に応じて、視線検出フレームが異なりうる。この例では、注視点906は表示フレーム900に対応し、注視点907は表示フレーム901に対応する。
FIG. 9B shows a case where the
図9(C)は、表示デバイス10と眼球撮像素子17は非同期であり、眼球撮像素子17の読み出し時間が表示デバイス10の表示走査時間以下の場合を示す。この場合、眼画像内での注視点の位置に応じて、視線検出フレームが異なりうる。この例では、注視点906は表示フレーム901に、注視点907は表示フレーム900に対応する。
FIG. 9C shows a case where the
図9(D)は、表示デバイス10と眼球撮像素子17は非同期であり、眼球撮像素子17の読み出し時間が表示デバイス10の表示走査時間より長い場合を示す。この場合、眼画像内での注視点の位置に応じて、視線検出フレームが異なる。表示フレームと撮像フレームの非同期性、すなわち、表示開始タイミングと撮像開始タイミングの差に応じた調整を行う必要がある点を除けば、視線検出結果に対応する表示フレームは図9(B)と同様にして求められる。
FIG. 9D shows a case where the
図9(E)は、表示デバイス10と眼球撮像素子17は同期しており、眼球撮像素子17がグローバルシャッタ方式で撮像する場合を示す。この場合は、図9(A)において眼球撮像素子17の読み出し時間がゼロである場合と同一視できる。したがって、眼画像内での注視点906の位置にかかわらず、視線検出フレームは表示フレーム900であると決定できる。
FIG. 9E shows a case where the
図9(F)は、表示デバイス10と眼球撮像素子17は非同期であり、眼球撮像素子17がグローバルシャッタ方式で撮像する場合を示す。この場合は、図9(C)において眼球撮像素子17の読み出し時間がゼロである場合と同一視できる。したがって、眼画像内での注視点の位置に応じて、視線検出表示フレームが異なる。
FIG. 9F shows a case where the
図9(G)は、表示デバイス10と眼球撮像素子17は同期しており、眼球撮像素子17の撮像フレームレートと表示デバイス10の表示フレームレートが2:1の場合を示す。眼球撮像フレーム908を視線検出に使用せず、眼球撮像フレーム903、909を視線検出に使用すれば、視線検出フレームは、図9(A)と同様に求めることができる。また、眼球撮像フレーム908のみを視線検出に使用する場合、視線検出フレームは、図9(C)と同様に求めることができる。つまり、眼球撮像素子17のフレームレートと表示デバイス10のフレームレートがn:1(nは2以上の整数)である場合は、表示と同期して撮像された眼画像のみを使用して視線検出すれば、容易に視線検出フレームを特定することが可能となる。
FIG. 9 (G) shows a case where the
図9(A)〜図9(G)は一部の例に過ぎない。これらの例から、表示フレームと眼球撮像フレームの同期関係、表示デバイス10の表示走査時間、眼球撮像素子17の読み出し時間、および注視点の垂直位置に応じて、視線検出位置に対応する表示フレームが異なることがわかる。
9 (A) to 9 (G) are only some examples. From these examples, the display frame corresponding to the line-of-sight detection position is determined according to the synchronization relationship between the display frame and the eyeball imaging frame, the display scanning time of the
<視線検出フレーム特定処理の説明>
以下、図10、11を用いて、視線検出フレーム特定処理について説明する。視線検出フレーム特定処理は、表示デバイス10及び眼球撮像素子17の駆動モード情報に基づいて、視線検出フレームを特定する処理である。
<Explanation of line-of-sight detection frame identification processing>
Hereinafter, the line-of-sight detection frame identification process will be described with reference to FIGS. 10 and 11. The line-of-sight detection frame identification process is a process for specifying the line-of-sight detection frame based on the drive mode information of the
図10は、撮像素子2により撮影した画像データの表示デバイス10での表示、その表示を見ているユーザーの眼球の眼球撮像素子17による撮像、眼画像に対する視線検出、の一連の流れを示すタイミング図である。図10の横方向が時間軸である。1000〜1003は表示フレーム、1004はユーザーの注視点を示している。T0は撮像素子2の同期タイミングである。T1は表示デバイス10への同期タイミングであり、表示同期信号が入力されるタイミング(表示走査開始タイミング)である。T2は眼球撮像素子17の同期タイミングであり、撮像同期信号が入力されるタイミング(読み出し開始タイミング;駆動開始タイミング)である。T3は表示デバイス10の表示走査完了タイミングである。T4は眼球撮像素子17の読み出し完了タイミングである。T5は、視線検出結果の出力タイミング、つまり表示画像中の注視点の位置を出力したタイミングである。T3とT1の差分が表示デバイス10の表示走査時間に、T4とT2の差分が、眼球撮像素子17の読み出し時間に相当する。図10中のα、Td、Ts、Trは以降で説明する。
FIG. 10 shows a timing showing a series of flow of displaying the image data captured by the
図11は視線検出フレーム特定処理(以下、フレーム特定処理とも称する)の流れを示すフローチャートである。この処理はCPU3で制御されるものとして説明する。 FIG. 11 is a flowchart showing the flow of the line-of-sight detection frame identification process (hereinafter, also referred to as frame identification process). This process will be described as being controlled by the CPU 3.
S101では、CPU3が、眼球撮像素子17と表示デバイス10が同期関係であり、かつ、眼球撮像素子17の読み出し時間が表示デバイス10の表示走査時間より短いか同じであるか否か判定する。眼球撮像素子17がグローバルシャッタ方式で撮像する場合(図9(E)、図9(F))は、眼球撮像素子17の読み出し時間はゼロとみなす。CPU3は、判定条件を満たす場合はS108へ進み、そうでない場合は処理をS102へ進む。
In S101, the CPU 3 determines whether or not the
S102では、CPU3は、表示デバイス10の表示走査中に眼球撮像素子17の露光を行ったか判定し、露光を行った場合はS103へ進み、行っていない場合はS108へ進む。
In S102, the CPU 3 determines whether or not the
S103では、CPU3は、眼球撮像素子17の読み出し開始時間T2と表示デバイス10の表示開始時間T1の差分時間αを、式(4)により算出する。
α=T2−T1 ・・・(4)
In S103, the CPU 3 calculates the difference time α between the read start time T2 of the
α = T2-T1 ・ ・ ・ (4)
S104では、CPU3は、眼球撮像素子17が読み出しを開始してから、注視点(角膜反射像)が写っている行の読み出しを開始するまでの時間Tsを、式(5)により算出する。但し、グローバル露光時はTs=0とする。
Ts = (眼球撮像素子17の水平1ラインの読み出し時間)×(眼球撮像素子17上の注視点まで(注視点を含む)の垂直方向のライン数) ・・・(5)
In S104, the CPU 3 calculates the time Ts from the start of reading by the
Ts = (reading time of one horizontal line of the eyeball image sensor 17) × (number of lines in the vertical direction up to the gazing point (including the gazing point) on the eyeball image sensor 17) ... (5)
S105では、CPU3は、表示デバイス10がフレーム画像の表示を開始してから、注視点を含む行を表示するまでの時間Tdを、式(6)により算出する。
Td = (表示走査の水平1ラインの時間)×(表示デバイス10の垂直総ライン数)×(眼球撮像素子17の注視点までの垂直ライン数)/(眼球撮像素子17の垂直総ライン数) ・・・(6)
In S105, the CPU 3 calculates the time Td from when the
Td = (time of one horizontal line of display scan) × (total number of vertical lines of display device 10) × (number of vertical lines to the gazing point of eyeball image sensor 17) / (total number of vertical lines of eyeball image sensor 17) ... (6)
S107では、CPU3は、視線検出フレームと、眼球撮像素子17の駆動開始時の表示フレームとのフレーム差X(調整情報)を算出する。視線検出フレームは、角膜反射像が撮影されている眼球撮像素子17のライン位置の露光開始時に表示されている表示フレームであると考えられる。したがって、表示デバイス10がフレーム画像の表示を開始してから注視点を含むラインを表示開始するタイミング(Td)と、角膜反射像が撮影される眼球撮像素子17のラインの露光がタイミング(α+Ts−露光時間)の差に応じて、値Xを算出できる。具体的には、CPU3は、以下の式(7)によりXの値を算出する。図10の例では、X=0と算出される。
X = Floor[(Ts+α−Td−露光時間)/表示周期] ・・・(7)
ここで、Floor(x)は床関数、すなわち実数xを超えない最大の整数を返す関数である。露光時間は、眼球撮像素子17の1ラインの露光時間である。表示周期は、表示デバイス10の表示同期信号の入力間隔である。
In S107, the CPU 3 calculates the frame difference X (adjustment information) between the line-of-sight detection frame and the display frame at the start of driving the
X = Floor [(Ts + α-Td-exposure time) / display cycle] ・ ・ ・ (7)
Here, Floor (x) is a floor function, that is, a function that returns the maximum integer that does not exceed the real number x. The exposure time is the exposure time of one line of the
なお、式(7)では、露光時間を用いているため、値Xは、露光開始時に表示されている表示フレームと、眼球撮像素子17の駆動開始時に表示されている表示フレームを表す。ここで、露光時間の半分の値を用いれば、露光開始と露光終了の中間の時点で表示されている表示フレームについての値Xが求められる。また、露光時間を用いなければ、露光終了時点に表示されている表示フレームについての値Xが求められる。式(7)の代わりに、このようにして値Xを算出しても構わない。
Since the exposure time is used in the equation (7), the value X represents a display frame displayed at the start of exposure and a display frame displayed at the start of driving the
S108では、CPU3は、X=−1とする。これは、視線検出フレームが、眼球撮像素子17の駆動タイミングにおいて表示されているフレームの1つ前の表示フレームであることを意味する。
In S108, the CPU 3 sets X = -1. This means that the line-of-sight detection frame is the display frame immediately before the frame displayed at the drive timing of the
なお、図11のフローチャートでは、S101およびS102の判定結果に応じて、S107とS108のいずれの処理によって値Xを算出するか変えている。しかしながら、S101およびS102の判定を行わずに、常にS107の処理によって値Xを算出しても同じ結果が得られる。例えば、S101で肯定判定されるときはα=0かつTs≦Tdであり、また、TsとTdの差および露光時間は表示周期に比べれば十分に小さいので、式(7)にしたがってもX=−1と算出される。 In the flowchart of FIG. 11, the value X is calculated by which of the processes S107 and S108 is calculated according to the determination results of S101 and S102. However, the same result can be obtained even if the value X is always calculated by the processing of S107 without determining S101 and S102. For example, when an affirmative judgment is made in S101, α = 0 and Ts ≦ Td, and since the difference between Ts and Td and the exposure time are sufficiently smaller than the display cycle, X = according to the equation (7). It is calculated as -1.
ただし、図9(A)および9(G)の場合に、S103〜S107の処理を行うことなくXの値を決定でき簡便である。すなわち、表示デバイス10と眼球撮像素子17が同期しており、眼球撮像素子17の撮像フレームレートが表示デバイス10の表示フレームレートンの整数倍であるときは、次のようにすればよい。具体的には、視線検出回路201は、表示デバイス10の表示開始タイミングと同じタイミングに読み出しが開始された眼画像のみを用いて視線検出を行う。このようにすれば、S103〜S107の処理を行うことなく、X=−1、すなわち、視線検出フレームは、眼球撮像素子17が読み出しを開始するタイミングで表示デバイス10に表示されている表示フレームの1つ前のフレームであると特定できる。
However, in the case of FIGS. 9 (A) and 9 (G), the value of X can be determined without performing the processes of S103 to S107, which is convenient. That is, when the
S109では、CPU3は、眼球撮像素子17の駆動開始タイミング(T2)の表示フレームと、注視検出完了タイミング(T5)の表示フレームとのあいだのフレーム数Yを算出する。具体的には、値Yは、時間Trと時間αの合計に対応するフレーム数であるので、式(8)により算出される。図10の例では、Y=2と算出される。
Y = Floor((Tr+α)/表示周期) ・・・(8)
ここで、Tr=T5−T2であり、Floor(x)は床関数である。
In S109, the CPU 3 calculates the number of frames Y between the display frame of the drive start timing (T2) of the
Y = Floor ((Tr + α) / display cycle) ・ ・ ・ (8)
Here, Tr = T5-T2, and Floor (x) is a floor function.
S110では、CPU3は、視線検出表示フレームが、視線結果出力タイミング(T5)の表示フレームから何フレーム前であるかを表す値Zを式(9)により算出する。具体的には、値Yを、駆動モード情報に基づく調整情報Xと、眼球特性の遅延情報Cとを用い調整することにより、値Zが算出される。
Z = Y − (X+C) ・・・(9)
ここで、Cは、キャリブレーション時に取得した遅延フレーム数である。
In S110, the CPU 3 calculates a value Z indicating how many frames before the line-of-sight detection display frame is before the display frame of the line-of-sight result output timing (T5) by the equation (9). Specifically, the value Z is calculated by adjusting the value Y using the adjustment information X based on the drive mode information and the delay information C of the eyeball characteristics.
Z = Y − (X + C) ・ ・ ・ (9)
Here, C is the number of delay frames acquired at the time of calibration.
以上の処理により、視線検出フレームは、視線検出結果が得られたタイミングで表示されている表示フレームから、Zフレーム前のフレームとして特定される。値Zは、視線検出結果が得られたタイミングに基づいて得られるフレーム差Yを、眼球撮像素子17および表示デバイス10の駆動モード情報に基づく調整情報Xおよび眼球の遅延情報Cを用いて調整した調整後のフレーム差である。駆動モード情報に基づく調整(S107)では、眼球撮像素子17の駆動モード情報として同期タイミング(T2)、撮像素子17からの画像読み出し時間(T4−T2)、および1ラインあたりの露光時間が用いられる。また、表示デバイス10の駆動モード情報として、同期タイミング(T1)および表示走査時間(T3−T1)が用いられる。
By the above processing, the line-of-sight detection frame is identified as a frame before the Z frame from the display frame displayed at the timing when the line-of-sight detection result is obtained. The value Z adjusts the frame difference Y obtained based on the timing at which the line-of-sight detection result is obtained by using the adjustment information X based on the drive mode information of the
式(8)による値Yを、表示デバイス10と眼球撮像素子17の駆動モード情報を用いて算出した値X(調整情報)を用いて調整することにより、視線検出フレームをより精度良く特定できる。
By adjusting the value Y according to the equation (8) using the value X (adjustment information) calculated by using the drive mode information of the
視線検出結果に対応する表示フレームが特定できると、ユーザーが実際に注視していた物体が特定できるため、ユーザーが注視していた物体に対する各種の処理をより適切に行える。これは特に、被写体の動きが速いときに有効である。以下では、ユーザーが実際に注視していた物体に対する処理の例として、合焦制御と追尾補正処理を説明する。 If the display frame corresponding to the line-of-sight detection result can be specified, the object that the user is actually gazing at can be specified, so that various processes for the object that the user is gazing at can be performed more appropriately. This is especially effective when the subject moves quickly. In the following, focusing control and tracking correction processing will be described as examples of processing for an object that the user is actually gazing at.
<合焦制御の説明>
以下、図12、図13を用いて、視線検出した注視点を利用した合焦制御について説明
する。撮像装置1は、ユーザーが実際に注視している被写体に焦点が合うように合焦制御を行う。
<Explanation of focusing control>
Hereinafter, focusing control using the gaze point detected by the line of sight will be described with reference to FIGS. 12 and 13. The
図12は、本実施形態に係る撮像装置1によって撮影した画像を、表示デバイス10に表示させたときの画像1201〜1204を示す図である。画像1201〜1203はこの順で時系列であり、その中で自動車1200が右上から左下に移動している。なお、画像1204は画像1203と同じフレームの画像であり、自動車1200の位置および大きさは同じである。追尾枠1211〜1214は、追尾対象である自動車1200が存在する領域を表す画像である。追尾枠1211〜1214の情報は追尾回路207から出力され、撮影画像に重畳されて表示デバイス10に表示される。
FIG. 12 is a
1221,1222,1223は注視点を示す。注視点は実際には点であるが、後述するように注視点を中心とする矩形画像を合焦制御処理に用いる。したがって、図12では、注視点1221,1222,1223を矩形画像で示している。本開示では、注視点を中心とする矩形画像を、注視点画像とも称する。以下では、注視点と注視点画像を同じ符号を用いて参照する。例えば、注視点1221を中心とする矩形画像のことを、注視点画像1221と称する。なお、図12には注視点1221,1222,1223が描かれているが、これらは表示デバイス10に表示されてもよいし表示されなくてもよい。注視点が表示される場合には、注視点を中心とし注視点画像(矩形画像)と同じ大きさの表示枠が画像に表示される。
1221, 1222, 1223 indicate the gazing point. The gazing point is actually a point, but as will be described later, a rectangular image centered on the gazing point is used for the focusing control process. Therefore, in FIG. 12, the gazing points 1221, 1222, 1223 are shown as rectangular images. In the present disclosure, a rectangular image centered on the gazing point is also referred to as a gazing point image. In the following, the gazing point and the gazing point image will be referred to using the same reference numerals. For example, a rectangular image centered on the
注視点1221は、表示デバイス10に画像1201のフレームが表示されているときのユーザーの注視点を表す。画像1202は、画像1201の次のフレームであり、自動車1200が移動している。画像1203および1204は、画像1202の次のフレームである。ここでは、ユーザーが画像1201を見ていたときの注視点1221がその2フレーム後に検出された、すなわち上述のZ=2であるとして説明する。
The
注視点1222は、画像内における水平位置および垂直位置が注視点1221と同じである。撮像装置1は、ユーザーが注視している被写体に焦点が合うように合焦制御を行う。しかしながら、画像1203内の注視点1222にある被写体に焦点を合わせることはユーザーの意図に反する。なぜならば、ユーザーは画像1201内の注視点1221にある被写体への合焦を意図して注視しているためである。そこで、撮像装置1は、視線検出フレーム特定処理によって特定された検出フレームに基づく補正処理により、注視点1222を、注視点1221に対応する注視点1223へと補正する。注視点1223に対する合焦制御を行えば、本来ユーザーが望む位置への合焦が行える。注視点の補正処理については、注視点合焦処理の中で説明する。
The
図13(A)は合焦制御処理の流れを示すフローチャートである。合焦制御処理は、CPU3が実行する。合焦制御処理が開始されると、CPU3は、S201以降の処理を実行する。 FIG. 13A is a flowchart showing the flow of focusing control processing. The focusing control process is executed by the CPU 3. When the focusing control process is started, the CPU 3 executes the processes after S201.
S201で、CPU3は、注視点補正処理を行う。注視点補正処理は、視線検出結果として得られる注視点1222を、ユーザーが実際に注視していた視線検出フレーム1201の注視点1221に対応する、現在の表示フレーム中の位置に補正する処理である。より具体的には、注視点補正処理は、視線検出フレーム1201の注視点1221に位置する被写体が損竿している、現在の表示フレーム1204中の位置(注視点1223)に補正する処理である。
In S201, the CPU 3 performs the gazing point correction process. The gaze point correction process is a process of correcting the
S202で、CPU3は、補正後の注視点(補正注視点)の位置にある被写体に対して合焦するように焦点調節回路118を制御する。
In S202, the CPU 3 controls the
図13(B)は注視点補正処理の流れを示すフローチャートである。図13(B)を参照して、S201の注視点補正処理についてより詳細に説明する。 FIG. 13B is a flowchart showing the flow of the gazing point correction process. The gaze point correction process of S201 will be described in more detail with reference to FIG. 13 (B).
S211で、CPU3は、視線検出フレーム特定処理で特定した視線検出フレームから、注視点位置を中心とする矩形画像を抽出する。以下では、この画像を注視点画像Aと称する。図12の例では、注視点画像Aは注視点画像1221である。
In S211 the CPU 3 extracts a rectangular image centered on the gazing point position from the line-of-sight detection frame specified by the line-of-sight detection frame identification process. Hereinafter, this image will be referred to as a gaze point image A. In the example of FIG. 12, the gazing point image A is the
S212では、CPU3は、現在表示している表示フレームに対して、注視点位置の画像を矩形画像として抽出する。以下では、この画像を注視点画像Bと称する。図12の例は、注視点画像Bは注視点画像1222である。CPU3は、追尾枠1211に対する注視点画像1221の大きさと、追尾枠1213に対する注視点画像1222の大きさが一致するように、注視点画像1222の大きさを設定する。
In S212, the CPU 3 extracts the image at the gazing point position as a rectangular image with respect to the currently displayed display frame. Hereinafter, this image will be referred to as a gaze point image B. In the example of FIG. 12, the gazing point image B is the
S213では、CPU3は、注視点枠画像AとBの類似度を算出するためにSAD(Sum Of Absolute Difference)演算つまり、画素値の差分の絶対値の和を演算する。SAD値は小さいほど類似度が高いことを意味する。注視点画像A,Bの大きさが異なる場合には、大きさをそろえてからSAD演算を施す。なお、本実施形態では、画像の類似度を算出するのにSADを用いたが別の演算で類似度を算出しても良い。例えば、SSD(Sum of Squared Difference)やNCC(Normalized Cross−Correlation)を用いてもよい。 In S213, the CPU 3 calculates the SAD (Sum Of Absolute Difference) calculation, that is, the sum of the absolute values of the differences between the pixel values, in order to calculate the similarity between the gazing point frame images A and B. The smaller the SAD value, the higher the similarity. If the sizes of the gazing point images A and B are different, the SAD calculation is performed after the sizes are the same. In the present embodiment, SAD is used to calculate the similarity of the images, but the similarity may be calculated by another calculation. For example, SSD (Sum of Squared Difference) or NCC (Normalized Cross-Correlation) may be used.
S214では、CPU3は、S203で算出したSAD値が閾値以内であるか判定し、閾値以内であればS205に進み、閾値以上であれば、S206へ進む。S204は、注視点枠画像AとBの類似度が閾値以上に高ければS205に進み、類似度が閾値未満であればS206に進む分岐処理であるともいえる。 In S214, the CPU 3 determines whether the SAD value calculated in S203 is within the threshold value, proceeds to S205 if it is within the threshold value, and proceeds to S206 if it is above the threshold value. It can be said that S204 is a branching process in which the process proceeds to S205 if the similarity between the gaze frame images A and B is higher than the threshold value, and proceeds to S206 if the similarity is less than the threshold value.
S215では、CPU3は、注視点の補正処理を行わずに処理を終了する。注視点画像AとBの類似度が高ければ、被写体が移動しておらず、注視点画像A(1221)と注視点画像B(1222)は一致しており補正処理が不要なためである。 In S215, the CPU 3 ends the process without performing the gazing point correction process. If the degree of similarity between the gaze point images A and B is high, the subject has not moved, and the gaze point image A (1221) and the gaze point image B (1222) match, and no correction process is required.
一方、注視点画像AとBの類似度が低ければ、被写体が移動しているため、S216以降の処理により、ユーザーが実際に注視していた物体の位置を現在フレームの中から探索し、得られた位置を補正後の注視点1223とする。
On the other hand, if the degree of similarity between the gazing point images A and B is low, the subject is moving. Therefore, the position of the object that the user was actually gazing at is searched from the current frame by the processing after S216, and the result is obtained. The corrected position is set as the
S216では、CPU3は、注視点1222の周辺の領域を探索領域として設定する。探索領域1222は、例えば、注視点1222を中心とする矩形領域であってもよいし、被写体の移動を考慮して視線検出フレーム1201の注視点1221にある物体が存在する可能性が高い位置を中心とする矩形領域で会ってもよい。
In S216, the CPU 3 sets the area around the
S217で、CPU3は、現表示フレーム1203(1204)の追尾枠1213内の画像に対して、評価枠を設定する。評価枠内の画像を評価枠画像と称する。評価枠の大きさは、注視点画像Bと同じ大きさとする。S218では、CPU3は、評価枠画像と注視点画像AのあいだのSAD値を演算する。S219では、CPU3は、算出したSAD値が閾値以内(類似度が閾値以上)であればS220に進み、そうでなければS221へ進む。
In S217, the CPU 3 sets an evaluation frame for the image in the
S220では、CPU3は、現在の評価枠の位置を補正後の注視点位置として設定する。これにより、現在フレームのうち、ユーザーが実際に注視していた表示フレーム1201の注視点1221にある物体が存在する位置を補正後の注視点とすることができる。
In S220, the CPU 3 sets the position of the current evaluation frame as the corrected gazing point position. As a result, among the current frames, the position where the object at the
S221では、CPU3は、追尾枠1213内の全ての位置での評価枠画像の類似度評価が完了したか判定し、完了している場合はS222へ進み、完了していない場合はS223へ進む。
In S221, the CPU 3 determines whether the similarity evaluation of the evaluation frame images at all the positions in the
S222では、CPU3は、追尾枠1213の中心位置にある被写体に対して合焦するように焦点調節回路118を制御する。これは、閾値よりも高い評価枠が存在しない場合には、追尾枠1213の中心を注視していると考えるのが、最も誤差が少ないと考えられるためである。S222では、追尾枠1213の中心位置以外の位置に焦点を合わせてもよい。例えば、CPU3は、追尾枠1221と追尾枠1223の位置の違いに基づいて注視点位置1222を移動させることによって、補正後の注視点位置1223を求め、補正後の注視点位置1223に焦点を合わせてもよい。
In S222, the CPU 3 controls the
S223では、CPU3は、追尾枠1213内の画像に対して、評価枠を一定画素ずらした枠を新しい評価枠画像に設定し、S207へ戻るように制御する。
In S223, the CPU 3 sets a frame in which the evaluation frame is shifted by a certain pixel as a new evaluation frame image with respect to the image in the
以上の処理により、ユーザーが実際に注視している被写体位置に対して焦点を合わせることができる。 By the above processing, it is possible to focus on the subject position that the user is actually gazing at.
なお、注視点補正処理により、補正後の注視点画像の大きさも補正される。具体的には、視線検出フレーム1201における追尾枠1211に対する注視点画像1221の大きさの比と、現在フレーム1204における追尾枠1213に対する注視点画像1223の比が同じなるように、補正後の注視点画像の大きさが設定される。
The gaze point correction process also corrects the size of the gaze point image after correction. Specifically, the corrected gazing point so that the ratio of the size of the
図13(B)のフローチャートでは、類似度が閾値以上の評価枠が発見されたらS209に進んでいるが、代替的には、追尾枠1213内の全ての位置に評価枠を設定し、最も高い類似度が得られる評価枠位置に焦点を合わせるようにしてもよい。この代替例では、得られた最も高い類似度が閾値未満であれば、S211の処理により追尾枠中心位置に焦点を合わせてもよい。
In the flowchart of FIG. 13B, if an evaluation frame having a similarity equal to or higher than the threshold value is found, the process proceeds to S209. Alternatively, evaluation frames are set at all positions in the
<追尾補正処理の説明>
以下、図14を用いて、視線検出した注視点を利用した追尾補正処理について説明する。撮像装置1は、追尾回路207により求められる追尾位置(追尾枠)と注視点のずれが大きい場合に、ユーザーが実際に注視している被写体を追尾位置に設定し直す。
<Explanation of tracking correction processing>
Hereinafter, the tracking correction process using the gaze point detected by the line of sight will be described with reference to FIG. When the deviation between the tracking position (tracking frame) obtained by the
図14は、視線検出した注視点を利用した被写体の追尾位置の補正処理の流れを示すフローチャートである。図14の追尾補正処理のフローは、CPU3で制御されるものとして説明するが、追尾補正処理は追尾回路207で行っても良い。
FIG. 14 is a flowchart showing a flow of correction processing of the tracking position of the subject using the gazing point detected by the line of sight. The flow of the tracking correction processing of FIG. 14 will be described as being controlled by the CPU 3, but the tracking correction processing may be performed by the
S301では、CPU3は、視線検出フレーム特定処理で特定した表示フレームの注視点位置と最新の追尾処理用画像の追尾位置を比較して、位置のずれを求める。CPU3は、位置のずれが閾値以内であれば、S302へ進み、そうでなければS303へ進む。用いられる閾値は、あらかじめ定められた値である。 In S301, the CPU 3 compares the gazing point position of the display frame specified by the line-of-sight detection frame specifying process with the tracking position of the latest tracking image, and obtains the position deviation. If the positional deviation is within the threshold value, the CPU 3 proceeds to S302, and if not, proceeds to S303. The threshold used is a predetermined value.
S302では、CPU3は、最新の追尾位置の信頼度が高いと判断して、追尾位置を維持して処理を終える。つまり、S301において位置のずれが閾値以内で判定された場合は、追尾位置の補正は行われない。 In S302, the CPU 3 determines that the reliability of the latest tracking position is high, maintains the tracking position, and finishes the process. That is, if the position deviation is determined within the threshold value in S301, the tracking position is not corrected.
S303では、CPU3は、追尾被写体の移動速度を求める。移動速度は、視線検出フレームおよびそれより時間的に前のフレームにおける追尾位置の差(すなわちフレーム間
での被写体移動量)と、画像フレームレートから算出できる。追尾被写体の移動速度はその他の公知の手法によって求められてもよい。
In S303, the CPU 3 obtains the moving speed of the tracking subject. The moving speed can be calculated from the difference in tracking position between the line-of-sight detection frame and the frame before that (that is, the amount of movement of the subject between frames) and the image frame rate. The moving speed of the tracking subject may be determined by other known methods.
S304では、CPU3は、被写体速度に基づいてずれ量の閾値を決定(更新)する。CPU3は、具体的には、被写体速度が速いほど大きな閾値を採用する。速度と閾値の関係は線形であっても非線形であってもよい。 In S304, the CPU 3 determines (updates) the threshold value of the deviation amount based on the subject speed. Specifically, the CPU 3 adopts a larger threshold value as the subject speed is faster. The relationship between velocity and threshold may be linear or non-linear.
S305では、CPU3は、注視点位置と追尾位置のずれがS304で決定した閾値以内であるか判定する。CPU3は、ずれが閾値以内でS302に進み、そうでなければS306へ進む。 In S305, the CPU 3 determines whether the deviation between the gazing point position and the tracking position is within the threshold value determined in S304. The CPU 3 proceeds to S302 within the threshold value, otherwise proceeds to S306.
S306では、CPU3は、視線検出フレームの注視点画像を用いて、被写体を再探索する。探索範囲は、被写体速度に基づいて予測される被写体が存在している可能性が高い領域とする。CPU3は、探索範囲内の評価枠に対して、視線検出フレームの注視点画像との類似度評価を行い、最も高い類似度の評価枠の位置を求める。類似度評価には例えばSADが採用可能であるが、その他の類似度基準を用いてもよい。CPU3は、最も高い類似度が閾値以上であれば、この評価枠を追尾枠に設定する。CPU3は、最も高い類似度閾値未満であれば、追尾枠なし(追跡ロスト)とする。追跡をロストした場合、CPU3は、認識回路208によって被写体(例えば、顔)を検出して、その結果を用いて追尾枠を更新してもよい。
In S306, the CPU 3 re-searches the subject using the gazing point image of the line-of-sight detection frame. The search range is a region in which there is a high possibility that a subject predicted based on the subject speed exists. The CPU 3 evaluates the similarity of the evaluation frame within the search range with the gazing point image of the line-of-sight detection frame, and obtains the position of the evaluation frame having the highest degree of similarity. For example, SAD can be adopted for the similarity evaluation, but other similarity criteria may be used. If the highest similarity is equal to or higher than the threshold value, the CPU 3 sets this evaluation frame as the tracking frame. If the CPU 3 is less than the highest similarity threshold value, the CPU 3 has no tracking frame (tracking lost). When the tracking is lost, the CPU 3 may detect a subject (for example, a face) by the
以上述べたように、本実施形態によれば、視線検出結果がどの表示フレームを見ていたときものであるかを精度良く特定できる。これにより、視線検出フレーム内の注視点位置にある被写体画像が特定できるので、ユーザーが実際に注視していた物体に対して制御を行える。例えば、合焦制御に適用する例では、ユーザーが実際に注視していた被写体に対して焦点を合わせることができる。また、追尾補正に適用する例では、ユーザーが実際に注視していた被写体を追尾位置にすることができる。 As described above, according to the present embodiment, it is possible to accurately identify which display frame the line-of-sight detection result is when the user is looking at. As a result, the subject image at the gazing point position in the line-of-sight detection frame can be specified, so that the user can control the object actually gazing. For example, in the example applied to focusing control, it is possible to focus on the subject that the user is actually gazing at. Further, in the example applied to the tracking correction, the subject actually being watched by the user can be set to the tracking position.
以上、本発明を実施例に基づき具体的に説明したが、本発明は、上記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることは言うまでもない。 Although the present invention has been specifically described above based on the examples, it goes without saying that the present invention is not limited to the above examples and various modifications can be made without departing from the gist thereof.
例えば、上記の実施形態では、表示デバイス10および眼球撮像素子17がカメラのファインダ内に配置されているが、本発明はカメラ以外の任意の電子機器に適用可能である。例えば、表示デバイス10はパーソナルコンピュータから出力されるモニタであり、眼球撮像素子17はこのモニタに取り付けられたカメラであってもよい。表示デバイス10はVR(仮想現実)等を体感するために頭部に装着されるHMD(ヘッドマウントディスプレイ)であり、眼球撮像素子17はHMDに取り付けられたカメラであってもよい。また、表示デバイス10はAR(拡張現実)グラス等のメガネ型デバイスであり、眼球撮像素子17はこのメガネ型デバイスに取り付けられたカメラであってよい。表示デバイス10は、虚像投影方式であっても網膜投影方式のいずれでもよい。
For example, in the above embodiment, the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1:カメラ 3:CPU 10:表示デバイス 17:眼球撮像素子
201:視線検出回路
1: Camera 3: CPU 10: Display device 17: Eyeball image sensor 201: Line-of-sight detection circuit
Claims (19)
前記表示手段に表示される表示画像を見る眼を撮像する撮像手段と、
前記撮像手段で撮像された眼画像を用いて視線を検出する検出手段と、
前記検出手段の視線検出結果に対応する表示フレームである視線検出フレームを特定する特定手段と、
を備え、
前記特定手段は、前記撮像手段の駆動モード情報および前記表示手段の駆動モード情報に基づいて、前記視線検出フレームを特定する、
電子機器。 Display means for displaying images and
An imaging means for capturing an eye for viewing a display image displayed on the display means, and an imaging means.
A detection means that detects the line of sight using an eye image captured by the imaging means, and
A specific means for specifying the line-of-sight detection frame, which is a display frame corresponding to the line-of-sight detection result of the detection means, and
With
The specific means identifies the line-of-sight detection frame based on the drive mode information of the image pickup means and the drive mode information of the display means.
Electronics.
前記表示手段の駆動モード情報は、同期タイミング、および表示走査時間を含む、
請求項1に記載の電子機器。 The drive mode information of the image pickup means includes synchronization timing, reading time of image data from the image pickup device, and exposure time.
The drive mode information of the display means includes a synchronization timing and a display scanning time.
The electronic device according to claim 1.
前記表示手段によるフレーム画像の表示開始タイミングと前記撮像手段の読み出し開始タイミングの差、
前記撮像手段が読み出しを開始してから、角膜反射像が写っている行の読み出しを開始するまでの時間、
前記撮像手段の露光時間、および
前記表示手段がフレーム画像の表示を開始してから、注視点を含む行を表示するまでの時間、
を用いて、前記視線検出フレームと、前記撮像手段の読み出し開始タイミングにおいて表示されている表示フレームとのフレーム差を示す調整情報を求め、当該調整情報を用いて前記視線検出フレームを特定する、
請求項1または2に記載の電子機器。 The specific means
Difference between the display start timing of the frame image by the display means and the read start timing of the image pickup means,
The time from when the imaging means starts reading to when reading the line in which the corneal reflex image appears.
The exposure time of the imaging means, and the time from when the display means starts displaying the frame image until the line including the gazing point is displayed.
Is used to obtain adjustment information indicating a frame difference between the line-of-sight detection frame and the display frame displayed at the read start timing of the imaging means, and the line-of-sight detection frame is specified using the adjustment information.
The electronic device according to claim 1 or 2.
前記表示手段によるフレーム画像の表示を開始してから前記撮像手段が読み出しを開始するまでの時間と、前記撮像手段が読み出しを開始してから視線検出結果が得られるまでの時間との合計に対応するフレーム数を、前記調整情報を用いて調整し、
前記視線検出結果が得られたタイミングの表示フレームから、前記調整の後のフレーム数だけ前の表示フレームを、前記視線検出フレームとして決定する、
請求項3に記載の電子機器。 The specific means
Corresponds to the total of the time from the start of displaying the frame image by the display means to the start of reading by the imaging means and the time from the start of reading by the imaging means until the line-of-sight detection result is obtained. Adjust the number of frames to be performed using the adjustment information,
From the display frame at the timing when the line-of-sight detection result is obtained, the display frame that is the number of frames before the adjustment is determined as the line-of-sight detection frame.
The electronic device according to claim 3.
前記表示手段の駆動モード情報は、同期タイミング、およびフレームレートを含み、
前記撮像手段と前記表示手段が同期しており、前記撮像手段のフレームレートが前記表示手段のフレームレートの整数倍であり、
前記検出手段は、前記表示手段の表示開始タイミングと同じタイミングに読み出しが開始された眼画像のみを用いて視線検出を行い、前記視線検出フレームを、前記撮像手段が読み出しを開始するタイミングで前記表示手段に表示されている表示フレームの1つ前のフレームであると特定する、
請求項1または2に記載の電子機器。 The drive mode information of the imaging means includes a synchronization timing and a frame rate.
The drive mode information of the display means includes a synchronization timing and a frame rate.
The imaging means and the display means are synchronized, and the frame rate of the imaging means is an integral multiple of the frame rate of the display means.
The detection means detects the line of sight using only the eye image whose reading is started at the same timing as the display start timing of the display means, and displays the line of sight detection frame at the timing when the imaging means starts reading. Identify the frame immediately before the display frame displayed in the means,
The electronic device according to claim 1 or 2.
前記特定手段は、前記遅延情報も用いて前記視線検出フレームを特定する、
請求項1から4のいずれか1項に記載の電子機器。 Further provided with a characteristic acquisition means for acquiring eye characteristics including at least delay information of the user's eye movements,
The identifying means also identifies the line-of-sight detection frame using the delay information.
The electronic device according to any one of claims 1 to 4.
請求項1から6のいずれか1項に記載の電子機器。 Further provided with a gazing point correction means for determining a position in the current display frame corresponding to the gazing point of the line-of-sight detection frame as a correction gazing point.
The electronic device according to any one of claims 1 to 6.
請求項7に記載の電子機器。 The position in the current display frame corresponding to the gazing point of the line-of-sight detection frame is the position in the current display frame where the subject located at the gazing point of the line-of-sight detection frame exists.
The electronic device according to claim 7.
現在の表示フレームの前記注視点の周辺の領域を探索領域に設定し、
前記探索領域において、評価枠を移動させて、現在の表示フレームの前記評価枠内の画像と、前記視線検出フレームの前記注視点を含む枠画像との類似度を求め、
前記視線検出フレームの前記注視点にある枠画像との類似度が所定の閾値以上である評価枠の位置を、前記補正注視点として決定する、
請求項7または8に記載の電子機器。 The gaze correction means is
Set the area around the gazing point of the current display frame as the search area, and set it as the search area.
In the search area, the evaluation frame is moved to obtain the similarity between the image in the evaluation frame of the current display frame and the frame image including the gazing point of the line-of-sight detection frame.
The position of the evaluation frame in which the similarity of the line-of-sight detection frame with the frame image at the gazing point is equal to or higher than a predetermined threshold value is determined as the corrected gazing point.
The electronic device according to claim 7 or 8.
請求項9に記載の電子機器。 The gazing point correction means determines the position of the evaluation frame having the highest degree of similarity as the corrected gazing point.
The electronic device according to claim 9.
請求項9または10に記載の電子機器。 The search area is set according to the moving speed of the subject located at the gazing point.
The electronic device according to claim 9 or 10.
請求項7から11のいずれか1項に記載の電子機器。 The display means displays a display frame for representing the position of the user's gaze at the position of the correction gaze point of the display frame.
The electronic device according to any one of claims 7 to 11.
請求項12に記載の電子機器。 The display frame has a size based on the ratio of the size of the object detected at the position of the gazing point of the line-of-sight detection frame to the size of the object detected at the position of the corrected gazing point of the display frame. Have,
The electronic device according to claim 12.
前記第2撮像手段の焦点制御を行う焦点調節手段と、
をさらに備え、
前記表示手段は、前記第2撮像手段が撮像した画像を表示し、
前記焦点調節手段は、前記補正注視点に焦点が合うように焦点制御を行う、
請求項7から13のいずれか1項に記載の電子機器。 With the second imaging means
A focus adjusting means for controlling the focus of the second imaging means and
With more
The display means displays an image captured by the second imaging means, and displays the image.
The focus adjusting means controls the focus so as to focus on the corrected gazing point.
The electronic device according to any one of claims 7 to 13.
前記視線検出フレームの前記注視点の位置の画像と、現在の表示フレームの前記注視点の位置の画像との類似度が所定の閾値より高い場合に、前記焦点調節手段は、前記注視点に焦点が合うように焦点制御を行う
請求項14に記載の電子機器。 When the similarity between the image of the gazing point position of the line-of-sight detection frame and the image of the gazing point position of the current display frame is lower than a predetermined threshold value, the focus adjusting means is applied to the corrected gazing point. Control the focus so that it is in focus,
When the similarity between the image of the gazing point position of the line-of-sight detection frame and the image of the gazing point position of the current display frame is higher than a predetermined threshold value, the focus adjusting means focuses on the gazing point. The electronic device according to claim 14, wherein the focus is controlled so as to match.
前記追尾手段は、追尾位置と前記検出手段により検出された注視点の位置のずれが所定の閾値以上であれば、前記追尾位置を、前記補正注視点の位置に補正する、
請求項7から15のいずれか1項に記載の電子機器。 With additional tracking means to track the subject,
If the deviation between the tracking position and the position of the gazing point detected by the detecting means is equal to or greater than a predetermined threshold value, the tracking means corrects the tracking position to the position of the corrected gazing point.
The electronic device according to any one of claims 7 to 15.
前記表示手段に表示される表示画像を見る眼を撮像手段により撮像する撮像ステップと、
前記撮像ステップにおいて撮像された眼画像を用いて視線を検出する検出ステップと、
前記検出ステップの視線検出結果に対応する表示フレームである視線検出フレームを特定する特定ステップと、
を含み、
前記特定ステップでは、前記撮像手段の駆動モード情報および前記表示手段の駆動モード情報に基づいて、前記視線検出フレームを特定する、
電子機器の制御方法。 A display step that displays an image on a display means,
An imaging step in which an eye for viewing a display image displayed on the display means is imaged by the imaging means, and an imaging step.
A detection step of detecting the line of sight using the eye image captured in the imaging step, and a detection step.
A specific step for specifying the line-of-sight detection frame, which is a display frame corresponding to the line-of-sight detection result of the detection step,
Including
In the specific step, the line-of-sight detection frame is specified based on the drive mode information of the image pickup means and the drive mode information of the display means.
How to control electronic devices.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019166234A JP7358130B2 (en) | 2019-09-12 | 2019-09-12 | Electronic equipment and its control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019166234A JP7358130B2 (en) | 2019-09-12 | 2019-09-12 | Electronic equipment and its control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043368A true JP2021043368A (en) | 2021-03-18 |
JP7358130B2 JP7358130B2 (en) | 2023-10-10 |
Family
ID=74863945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019166234A Active JP7358130B2 (en) | 2019-09-12 | 2019-09-12 | Electronic equipment and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7358130B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004008323A (en) * | 2002-06-04 | 2004-01-15 | Canon Inc | Optical device with visual axis function |
JP2005252732A (en) * | 2004-03-04 | 2005-09-15 | Olympus Corp | Imaging device |
US20130169754A1 (en) * | 2012-01-03 | 2013-07-04 | Sony Ericsson Mobile Communications Ab | Automatic intelligent focus control of video |
JP2018205648A (en) * | 2017-06-09 | 2018-12-27 | キヤノン株式会社 | Imaging device |
JP2019027824A (en) * | 2017-07-26 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Display control device, display control system, display control method, and display control program |
JP2019047250A (en) * | 2017-08-31 | 2019-03-22 | フォーブ インコーポレーテッド | Video display system, video display method and video display program |
JP2019129461A (en) * | 2018-01-26 | 2019-08-01 | キヤノン株式会社 | Subject recognition device |
-
2019
- 2019-09-12 JP JP2019166234A patent/JP7358130B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004008323A (en) * | 2002-06-04 | 2004-01-15 | Canon Inc | Optical device with visual axis function |
JP2005252732A (en) * | 2004-03-04 | 2005-09-15 | Olympus Corp | Imaging device |
US20130169754A1 (en) * | 2012-01-03 | 2013-07-04 | Sony Ericsson Mobile Communications Ab | Automatic intelligent focus control of video |
JP2018205648A (en) * | 2017-06-09 | 2018-12-27 | キヤノン株式会社 | Imaging device |
JP2019027824A (en) * | 2017-07-26 | 2019-02-21 | パナソニックIpマネジメント株式会社 | Display control device, display control system, display control method, and display control program |
JP2019047250A (en) * | 2017-08-31 | 2019-03-22 | フォーブ インコーポレーテッド | Video display system, video display method and video display program |
JP2019129461A (en) * | 2018-01-26 | 2019-08-01 | キヤノン株式会社 | Subject recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP7358130B2 (en) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8147064B2 (en) | Fundus camera | |
JP7358530B2 (en) | Object recognition device and method of controlling the object recognition device | |
JP5171468B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
US11829052B2 (en) | Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium | |
JP2024003037A (en) | Electronic apparatus, method for controlling electronic apparatus, program, and storage medium | |
US5402199A (en) | Visual axis detecting apparatus | |
JP3192483B2 (en) | Optical equipment | |
JP7358130B2 (en) | Electronic equipment and its control method | |
CN114947732A (en) | Detection device and control method for controlling detection device | |
JP2021180446A (en) | Imaging control device, imaging device, control method of imaging device, and program | |
US20230186520A1 (en) | Gaze detection apparatus | |
JP4594402B2 (en) | Auto focus camera | |
JP7446898B2 (en) | Electronics | |
US20240085979A1 (en) | Recording device, image-capturing apparatus, control method, and recording system | |
JP2023063023A (en) | Electronic device and control method for the same | |
JP3320123B2 (en) | Eye gaze detecting apparatus and method, and video camera | |
JP2024003432A (en) | Electronic device | |
JP2023074878A (en) | Visual line detecting apparatus, method of controlling visual line detecting apparatus, and program | |
JP2022171084A (en) | Imaging device, control method of the same and program | |
JP2022165239A (en) | Imaging apparatus and control method for the same, and program | |
JP2023003735A (en) | Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, program, and storage medium | |
CN116095452A (en) | Electronic device, control method thereof, and storage medium | |
JP2022185313A (en) | Imaging device | |
JP2023045131A (en) | Detection device, control method and program | |
JP2022183552A (en) | Visual line information acquisition device, imaging device, visual line information acquisition method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230927 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7358130 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |