JP2006285715A - 視線検出システム - Google Patents
視線検出システム Download PDFInfo
- Publication number
- JP2006285715A JP2006285715A JP2005105690A JP2005105690A JP2006285715A JP 2006285715 A JP2006285715 A JP 2006285715A JP 2005105690 A JP2005105690 A JP 2005105690A JP 2005105690 A JP2005105690 A JP 2005105690A JP 2006285715 A JP2006285715 A JP 2006285715A
- Authority
- JP
- Japan
- Prior art keywords
- person
- correction data
- pointer
- correction
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】視線検出対象の人物に負担をかけず、人物の状態変化に適応した視線の補正データを取得できる視線検出システムを提供する。
【解決手段】視線検出システムでは、人物の視線を検出して表示画面上の注視点(検出注視点)P0にポインタPTを表示させる。ここで、ポインタPTによって指定したボタンB1に対して例えば人物が素早く2回瞬きを行うことで押下イベントが生じる場合、ボタンB1が十分に小さいと、人物が実際に注視している点(主観注視点)QはボタンB1の中央Bcとみなすことができる。そこで、このような場合には検出注視点P0とボタンB1の中央Bcとの位置ずれ量(補正データ)を算出し、以後のポインタPTの表示位置の補正に反映させることとする。これにより、上記の入力イベントが発生する度に補正データを更新できるため、人物に負担をかけず人物の状態変化に適応した補正データを取得できる。
【選択図】図3
【解決手段】視線検出システムでは、人物の視線を検出して表示画面上の注視点(検出注視点)P0にポインタPTを表示させる。ここで、ポインタPTによって指定したボタンB1に対して例えば人物が素早く2回瞬きを行うことで押下イベントが生じる場合、ボタンB1が十分に小さいと、人物が実際に注視している点(主観注視点)QはボタンB1の中央Bcとみなすことができる。そこで、このような場合には検出注視点P0とボタンB1の中央Bcとの位置ずれ量(補正データ)を算出し、以後のポインタPTの表示位置の補正に反映させることとする。これにより、上記の入力イベントが発生する度に補正データを更新できるため、人物に負担をかけず人物の状態変化に適応した補正データを取得できる。
【選択図】図3
Description
本発明は、所定サイズより小さい小型入力部品が表示画面に表示される視線検出システムに関する。
人物の視線を検出する視線検出システムにおいては、検出される人物の視線方向と人物の実際に「見ている」方向(人物の主観)とは一般に一致せず、両者の間にずれが生じている。その原因としては、例えば
・検出装置の出力に誤差がある
・眼球形状に個人差がある
・光学的に検出される眼球の光軸と、中心窩を通る光軸とが異なる
・左右方向と上下方向とでずれ量が異なる
が考えられる。
・検出装置の出力に誤差がある
・眼球形状に個人差がある
・光学的に検出される眼球の光軸と、中心窩を通る光軸とが異なる
・左右方向と上下方向とでずれ量が異なる
が考えられる。
そこで、上記のずれを改善するために、例えば特許文献1の技術が提案されている。この技術は、検出対象の人物に2点のターゲットを注視させ、その時の検出装置の検出結果と既知のターゲット位置とのずれ量を補正データとして取得し、以後の視線検出結果に反映させるというものである。
しかしながら、特許文献1の技術では、補正データの取得を最初に行うため、補正データ取得後に人物の状態が変化する場合(例えば人物が眼鏡を着脱する場合や疲労により眼の開き具合等が小さくなって眼部位の形状が変化する場合)、この状態変化に適応した補正を行えない。
また、特許文献1の技術では、補正データ取得のためのアクション(ターゲットの注視)を人物に要求するため、その負担が大きい。
本発明は、上記課題に鑑みてなされたものであり、視線検出対象の人物に負担をかけず、人物の状態変化に適応した視線の補正データを取得できる視線検出システムを提供することを目的とする。
上記の課題を解決するため、請求項1の発明は、所定サイズより小さい小型入力部品が表示画面に表示される視線検出システムであって、(a)前記表示画面の前にいる人物の頭部に関する位置と姿勢と視線方向との情報を取得する情報取得手段と、(b)前記情報取得手段で取得された情報に基づき、前記人物の視線と前記表示画面とに関する交点を算出する算出手段と、(c)前記交点に基づく表示画面の位置にポインタを表示させる表示制御手段と、(d)前記ポインタによって指定された小型入力部品で入力イベントが発生する際に、当該小型入力部品の中央部と前記交点とに関する位置ずれ量を検出する位置ずれ検出手段と、(e)前記位置ずれ量に基づく補正データを記憶手段に保存する保存手段とを備え、前記表示制御手段は、(c-1)前記記憶手段に保存される補正データに基づき前記ポインタの表示位置を補正する補正手段を有する。
また、請求項2の発明は、請求項1の発明に係る視線検出システムにおいて、前記保存手段は、(e-1)前記位置ずれ検出手段で前記位置ずれ量が検出された検出済の小型入力部品に関する位置情報と、当該検出済の小型入力部品で得られた前記補正データとを関連付けた第1データテーブルを前記記憶手段に保存する手段を有するとともに、前記補正手段は、前記表示画面に表示されているポインタの近傍位置にある前記検出済の小型入力部品に関連付けられた補正データを前記第1データテーブルに基づき取得して、当該ポインタの表示位置を補正する手段を有する。
また、請求項3の発明は、請求項1または請求項2の発明に係る視線検出システムにおいて、(f)前記人物の状態を検出する状態検出手段をさらに備え、前記保存手段は、(e-2)前記入力イベントが発生した際に前記状態検出手段で検出された人物の状態と、当該入力イベントによって得られた補正データとを関連付けた第2データテーブルを前記記憶手段に保存する手段を有するとともに、前記補正手段は、前記状態検出手段で検出されている人物の状態に応じた補正データを前記第2データテーブルに基づき取得して、前記ポインタの表示位置を補正する手段を有する。
また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る視線検出システムにおいて、(g)前記人物が行う特定の入力動作により、前記補正データに追加する追加の補正データを取得する追加データ取得手段をさらに備え、前記保存手段は、(e-3)前記追加データ取得手段で取得された追加の補正データを前記記憶手段に保存する手段を有するとともに、前記補正手段は、前記記憶手段に保存される前記補正データと前記追加の補正データとに基づき、前記ポインタの表示位置を補正する手段を有する。
上記の課題を解決するため、請求項1ないし請求項4の発明によれば、表示画面の前にいる人物の頭部に関する位置と姿勢と視線方向との情報を取得し、この取得情報に基づき人物の視線と表示画面とに関する交点を算出してポインタを表示させる。ここで、ポインタによって指定された小型入力部品で入力イベントが発生する際に当該小型入力部品の中央部と交点とに関する位置ずれ量を検出し、位置ずれ量に基づく補正データでポインタの表示位置を補正する。その結果、小型入力部品で入力イベントが発生する度に補正データを更新できるため、視線検出対象の人物に負担をかけず、人物の状態変化に適応した補正データが得られる。
特に、請求項2の発明においては、位置ずれ量が検出された検出済の小型入力部品に関する位置情報と当該検出済の小型入力部品で得られた補正データとを関連付けた第1データテーブルに基づき、表示されているポインタの近傍位置にある検出済の小型入力部品に関連付けられた補正データを取得して当該ポインタの表示位置を補正する。その結果、ポインタの位置補正に関する精度を向上できる。
また、請求項3の発明においては、入力イベントが発生した際に検出された人物の状態と当該入力イベントによって得られた補正データとを関連付けた第2データテーブルに基づき、検出されている人物の状態に応じた補正データを取得してポインタの表示位置を補正する。その結果、ポインタの位置補正に関する精度を向上できる。
また、請求項4の発明においては、人物が行う特定の入力動作により補正データに追加する追加の補正データを取得し、補正データと追加の補正データとに基づきポインタの表示位置を補正するため、補正データによるポインタの位置補正が不十分な場合でも、追加の補正データによる補正を行える。
<第1実施形態>
<視線検出システムの要部構成>
図1は、本発明の第1実施形態に係る視線検出システム1Aの要部構成を示す図である。
<視線検出システムの要部構成>
図1は、本発明の第1実施形態に係る視線検出システム1Aの要部構成を示す図である。
視線検出システム1Aは、ステレオカメラ2と、ステレオカメラ2と通信可能に接続する情報処理装置3とを備えている。
ステレオカメラ2は、例えばCCD等の撮像素子を有する2台の撮像装置21、22を備えており、これらの撮像装置21、22により被写体である人物SBを異なる方向から撮影して得られた各画像データを情報処理装置3に送信する。
情報処理装置3は、例えばパーソナルコンピュータとして構成されており、本体部30Aと、画像表示が可能な表示画面33を有する表示部31と、キーボードとして構成された操作部32とを備えている。表示画面33は、例えば縦28cm・横35cmの画面サイズを持っており、例えば縦1024ピクセル・横1280ピクセルの解像度を有している。
本体部30Aは、コンピュータとして働くCPUおよびメモリを内蔵し、情報処理装置3の各部を統括的に制御する。また、本体部30Aには、ステレオカメラ2の前にいる人物SBの視線を検出して補正を行うプログラムや、その補正データを保存する記憶部(例えばハードディスク)が設けられている。
情報処理装置3では、スレテオカメラ2から受信した画像データと、本体部30A内の記憶部に記憶している各撮像装置21、22の既知のカメラパラメータ(例えば光学パラメータとしての撮影レンズの焦点距離や画素サイズなど)とに基づき、被写体の3次元情報、具体的には表示画面33の前にいる人物SBの頭部HDに関する3次元位置、姿勢および視線方向DEの情報を取得できる。この3次元情報の取得については、特開2003−15816号公報で開示される「ステレオカメラを使用した顔・視線認識装置」の手法を利用できる。
以上のように取得された人物SBの3次元情報を利用し、情報処理装置3では表示画面33上において人物SBが注視しているポイント(注視点)Pを検出できるようになっている。
注視点Pの検出については、ステレオカメラ2と表示画面33との3次元位置関係が既知であれば、
(1)ステレオカメラ2の撮影画像から得られた人物SBの頭部HDの位置、姿勢および視線方向の情報と、
(2)ステレオカメラ2と表示画面33との位置関係の情報と、
に基づき、視線方向DEに沿った人物SBの視線(視線ベクトル)と表示画面33との交点を算出することにより、注視点Pの表示画面33上の位置が得られることとなる。このように検出される注視点Pについては、ステレオカメラ2で人物SBの頭部HDを繰り返し撮影することにより人物の視線方向DEに追従した注視点Pの移動が可能となる。
(1)ステレオカメラ2の撮影画像から得られた人物SBの頭部HDの位置、姿勢および視線方向の情報と、
(2)ステレオカメラ2と表示画面33との位置関係の情報と、
に基づき、視線方向DEに沿った人物SBの視線(視線ベクトル)と表示画面33との交点を算出することにより、注視点Pの表示画面33上の位置が得られることとなる。このように検出される注視点Pについては、ステレオカメラ2で人物SBの頭部HDを繰り返し撮影することにより人物の視線方向DEに追従した注視点Pの移動が可能となる。
ただし、視線検出システム1Aで検出される人物SBの視線方向DEと、人物SBが実際に注視している方向とは、検出誤差や眼球形状の個人差等によって「ずれ」が生じているため、上記の注視点Pも位置ずれが発生していることとなる。
そこで、視線検出システム1Aでは、注視点Pの位置ずれを改善するために補正データを取得して以後の視線検出に反映させるキャリブレーション(較正)動作を行うが、この補正データの取得について以下で詳しく説明する。
<補正データの取得>
図2は、表示画面33に表示されるポインタPTを示す図である。また、図3は、図2のポインタPT付近を拡大した図である。
図2は、表示画面33に表示されるポインタPTを示す図である。また、図3は、図2のポインタPT付近を拡大した図である。
ポインタPTは操作部32に対するユーザの入力操作によっても表示画面33内の移動が可能であるが、以下ではポインタPTを視線検出システム1Aで検出される注視点(以下では「検出注視点」という)P0に基づく表示画面33の位置に表示させて移動するケースについて説明する。具体的には、検出注視点P0にポインタPTを表す矢印の先端を一致させるようにポインタPTを表示して移動させる場合を考える。
視線検出システム1Aでは、視線検出対象の人物SBが表示画面33に表示されるウィンドウWN上の「F」ボタンB1を指定して押下イベント(マウスのクリックイベントに相当)を発生させたい場合、まず人物SBは視線を「F」ボタンB1上に移してポインタPTを「F」ボタンB1上に移動させる。そして、ポインタPTが「F」ボタンB1に合っていることを確認した後、人物SBはボタン入力動作として例えば素早く2回瞬きを行うことにより、視線検出システム1Aにおいて「F」ボタンB1の押下イベントを発生させることとする。
この「F」ボタンB1の押下時は、上述のように検出注視点P0の位置ずれが生じているため、人物SBがボタン押下動作を行う直前に検出された検出注視点P0と、人物SBが実際に主観で見ている点(以下では「主観注視点」という)Qとの位置ずれ量を演算して、補正データを取得することとする。この補正データ取得について、具体的に説明する。
表示画面33は上述のように縦28cm・横35cmの画面サイズであるため、表示画面33と人物SBの眼までの距離が例えば60cmである場合には、表示画面33全体に対する人物SBの視野角は横32.5°、縦26.3°となる。一方、表示画面33の解像度は上述のように縦1024ピクセル・横1280ピクセルであるため、「F」ボタンB1の縦横方向が各16ピクセルである場合には、「F」ボタンB1は4.38mm角の大きさとなり、人物SBの視野角で表すと0.42°となる。
このように人物SBにとって縦横方向とも十分に小さい「F」ボタンB1においては、主観注視点Qは「F」ボタンB1の中央Bcに一致しているとみなすことができる。ここで、十分に小さいボタンとしては、視野角で0.5°以内に収まる程度のボタンが好適である。一方、検出注視点P0については、主観注視点Qとみなす「F」ボタンB1の中央Bcから右下に位置ずれが生じている。
そこで、視線検出システム1Aは、「F」ボタンB1の中央Bcに対する検出注視点P0の縦方向のずれ量Evおよび横方向のずれ量Ehを補正データとして算出する。すなわち、ポインタPTによって指定された「F」ボタンB1で押下イベント(入力イベント)が発生する際に、当該「F」ボタンB1の中央部と検出注視点P0とに関する位置ずれ量を検出し、この位置ずれ量に基づく補正データを本体部30A内の記憶部に保存する。そして、保存された補正データに基づきポインタPTの表示位置補正を行って、以後のポインタPTの表示位置を改善することとする。
一方、「F」ボタンB1のように縦横方向とも小さいボタンではなく、図2の「E」ボタンB2のように縦方向は小さいが横方向に長いボタンに対して押下イベントが生じた場合、「E」ボタンB2の横方向について人物SBがどの箇所を注視しているかを判断するのは難しい。このような場合には、ボタン押下動作の際に縦方向の位置ずれ量のみを補正データとして取得することとする。同様に、横方向は小さいが縦方向に長いボタンい対して押下イベントが生じた場合には、横方向の位置ずれ量のみを補正データとして取得する。
なお、図2の「A」ボタンB3のように縦方向も横方向も大きなボタンの場合には、主観注視点Qを特定するのが困難であるため、この場合の補正データの更新は行わないこととする。
以上のように人物SBがポインタPTで選択したボタンに基づき主観注視点Qを推定してポインタPTの補正量を算出するため、人物SBに負担をかけずに簡易に補正データの取得が行える。
<視線検出システム1Aの動作>
図4は、視線検出システム1Aの基本的な動作を示すフローチャートである。本動作は、特にポインタPTの位置ずれ量を検出し補正データを取得する動作を示している。
図4は、視線検出システム1Aの基本的な動作を示すフローチャートである。本動作は、特にポインタPTの位置ずれ量を検出し補正データを取得する動作を示している。
ステップST1では、ステレオカメラ2で取得した画像中に人物SBの顔が検出されたかを判定する。ここで、人物SBの顔が検出された場合には、ステップST2に進み、検出されない場合には、ステップST1を繰り返す。
ステップST2では、人物SBの頭部HDの3次元位置、姿勢、視線方向を検出する。
ステップST3では、ステップST2の検出結果に基づき人物SBの視線と表示部31の表示画面33との交点、つまり検出注視点Pを求め、この検出注視点PにポインタPTを表示する。これにより、人物SBの視線が動くと、これに追従してポインタPTが表示画面33上を移動することとなる。
ステップST4では、ポインタPTにより指定された表示画面33上のボタンが押下されたかを判定する。すなわち、ポインタPTによって選択されたボタンで押下イベントが発生したか否かを判断する。ここで、ボタンが押下された場合には、ステップST5に進み、ボタンが押下されていない場合には、ステップST1に戻る。
ステップST5では、押下されたボタンの中心とポインタPTとの位置ずれ量を算出する。ここでは、例えば図3に示す「F」ボタンB1の中央BcとポインタPTの先端(検出注視点P0)との縦・横方向のずれ量Ev、Ehが導出される。
ステップST6では、例えば図2に示す「F」ボタンB1のように、縦横方向が十分に小さいボタンが押下されたかを判定する。具体的には、縦横方向が所定サイズ(例えば視野角0.5°)より小さい小型のボタン(小型入力部品)に該当するか否かを判断する。ここで、縦横方向が小さいボタンの場合には、ステップST7に進み、小さくないボタンの場合には、ステップST8に進む。
ステップST7では、ステップST5で算出した縦横方向の位置ずれ量をポインタPTの補正データとして保存する。これにより、保存される補正量をオフセット値として検出注視点に加えることができるため、以後のポインタPTの位置補正に反映できることとなる。
ステップST8では、例えば図2に示す「E」ボタンB2のように、縦方向のみが小さいボタンが押下されたかを判定する。具体的には、縦方向の幅が所定サイズ(例えば視野角0.5°に相当する長さ)より小さい小型のボタンに該当するか否かを判断する。ここで、縦方向のみが小さいボタンの場合には、ステップST9に進み、小さくないボタンの場合には、ステップST10に進む。
ステップST9では、横方向の主観注視点Qが特定できないため、ステップST5で算出した縦方向の位置ずれ量のみを補正データとして保存する。これにより、保存される補正量をオフセット値として検出注視点に加えることができるため、以後のポインタPTの縦方向の位置補正に反映できることとなる。
ステップST10では、横方向のみが小さいボタンが押下されたかを判定する。具体的には、横方向の幅が所定サイズ(例えば視野角0.5°に相当する長さ)より小さい小型のボタンに該当するか否かを判断する。ここで、横方向のみが小さいボタンの場合には、ステップST11に進み、小さくないボタンの場合には、ステップST12に進む。
ステップST11では、縦方向の主観注視点Qが特定できないため、ステップST5で算出した横方向の位置ずれ量のみを補正データとして保存する。これにより、保存される補正量をオフセット値として検出注視点に加えることができるため、以後のポインタPTの横方向の表示位置補正に反映できることとなる。
ステップST12では、ステップST5で算出された位置ずれ量に基づく補正データの保存を行わない。これは、例えば図2に示す「A」ボタンB3のように縦方向も横方向も大きなボタンの場合には、主観注視点Qを特定できないためである。
以上の視線検出システム1Aの動作により、所定長さより小さい幅を有する小型ボタンを人物の視線に追従するポインタで指定して押下する際に補正データを取得し、以後のポインタの表示位置補正に反映させるため、小型ボタン押下の都度、補正データを更新できる。その結果、視線検出対象の人物に負担をかけず、人物の状態変化に適応した補正データを取得できる。
<第2実施形態>
本発明の第2実施形態に係る視線検出システム1Bは、図1に示す第1実施形態の視線検出システム1Aと類似の構成を有しているが、情報処理装置の本体部が異なっている。
本発明の第2実施形態に係る視線検出システム1Bは、図1に示す第1実施形態の視線検出システム1Aと類似の構成を有しているが、情報処理装置の本体部が異なっている。
すなわち、第2実施形態の本体部30Bには、以下で説明する視線検出の補正データ取得を行うプログラムが格納されている。
<補正データの取得>
人物が同じ姿勢であっても注視方向によっては、ステレオカメラ2で取得した画像データに基づき検出される検出注視点と人物が感じる主観注視点との位置ずれ量が変化する場合がある。よって、表示画面33上でも注視点の位置が異なると上記の位置ずれ量が変化する可能性がある。
人物が同じ姿勢であっても注視方向によっては、ステレオカメラ2で取得した画像データに基づき検出される検出注視点と人物が感じる主観注視点との位置ずれ量が変化する場合がある。よって、表示画面33上でも注視点の位置が異なると上記の位置ずれ量が変化する可能性がある。
そこで、本実施形態の補正データ取得では、注視する画面位置に応じた位置ずれ量を補正データとして保存できるように構成されている。これについて詳しく説明する。
図5は、視線検出システム1Bにおける補正データの取得を説明するための図であり、表示画面33の様子を示している。
まず、表示画面33を格子状に分割、具体的には縦横方向に6分割および7分割して、42の分割エリアGkを作成する。
例えば、人物SBがポインタPTで指定した「F」ボタンB1の押下イベントが生じた場合には第1実施形態のようにポインタPTの位置ずれ量を算出し、「F」ボタンB1を含む分割エリア(上から2番目、左から3番目のエリア)Gmの補正データとして保存する。そして、ポインタPTが分割エリアGm内に入る場合には、分割エリアGmの補正量に基づきポインタPTの表示位置を補正することとする。
上述した分割エリアGmのような分割エリア毎の補正量の取得を表示画面33の全ての分割エリアについて逐次に行って2次元(6×7)の補正マップを作成し保存する。すなわち、位置ずれ量が検出された検出済のボタンの位置情報と、この検出済のボタンで得られた補正データとを関連付けた補正マップ(データテーブル)を作成して本体部30Bの記憶部に保存する。
上記の補正マップにより、例えば表示画面33に表示されているポインタPTが補正量検出済の「F」ボタンB1の近傍位置になる場合、つまりポインタPTが分割エリアGm内に入る場合には、補正量検出済の「F」ボタンB1に関連付けられた補正データを取得してポインタPTの表示位置を補正できるため、ポインタPTの表示位置を人物SBの主観注視点Qに精度良く合わせることが可能となる。
なお、ポインタPTが補正データ未検出の分割エリアGk内にある場合には、ポインタPTから最も近い(近傍の)補正データ取得済の分割エリアGkの補正データに基づき、ポインタPTの表示位置を補正する。ここで、最も近傍の分割エリアとは、隣接するエリア(1つ離れたエリア)で補正データが未取得の場合には、2つ以上離れたエリアでも補正データが取得済のエリアがあればこのエリアが該当する。そして、補正データが未取得の分割エリアGk内のボタンに対してポインタPTによる指定入力が行われる場合にはその補正データを取得することで、本分割エリアにおける以後のポインタPTの表示に反映できることとなる。
以上の視線検出システム1Bの動作により、第1実施形態と同様の効果を奏する。さらに、表示画面の分割エリア毎に補正データを逐次に取得して補正マップを作成し、この補正マップに基づきポインタの表示位置に応じた補正データを取得するため、ポインタの表示位置補正に関する精度を向上できる。
なお、視線検出システム1Bにおいては、図5に示すように表示画面33を6×7個のエリアに分割するのは必須でなく、もっと多くのエリアに分割するようにしても良い。これにより、補正量に関して一層詳細なマップを作成でき、補正精度を一層向上できる。
<第3実施形態>
本発明の第3実施形態に係る視線検出システム1Cは、図1に示す第1実施形態の視線検出システム1Aと類似の構成を有しているが、情報処理装置の本体部が異なっている。
本発明の第3実施形態に係る視線検出システム1Cは、図1に示す第1実施形態の視線検出システム1Aと類似の構成を有しているが、情報処理装置の本体部が異なっている。
すなわち、第3実施形態の本体部30Cには、以下で説明する視線検出の補正データの取得を行うプログラムが格納されている。
<補正データの取得>
ステレオカメラ2で取得した画像データに基づき検出される検出注視点については、人物が同様に表示画面33を注視している場合でも人物SBの頭部HDの3次元位置やステレオカメラ2に対する傾き、眼の開き具合等によって検出結果が異なる場合がある。
ステレオカメラ2で取得した画像データに基づき検出される検出注視点については、人物が同様に表示画面33を注視している場合でも人物SBの頭部HDの3次元位置やステレオカメラ2に対する傾き、眼の開き具合等によって検出結果が異なる場合がある。
そこで、注視点の検出に影響を与える人物の状態の変化に応じて補正量を変更できるように、本実施形態の補正データ取得では、人物の状態に対応した補正量を規定する多次元の補正マップを作成し、検出される人物の状態に応じたポインタPTの表示位置補正を行うこととする。
視線検知システム1Dで検出可能な人物の状態として、例えば次に挙げるものがある。
(1)頭部の3次元位置(図6に示すX、Y、Z方向の位置)
(2)頭部の3次元姿勢(図6に示すroll,Pitch,yawの回転)
(3)瞼の開き具合(例えば上瞼と下瞼との距離と、目頭と目尻との距離との比率)
(4)眼鏡の有無
さらに、本実施形態の補正マップには、第2実施形態で説明した、視線方向と表示画面33との交点が存在する各分割エリアの補正量を加えることも可能である。
(2)頭部の3次元姿勢(図6に示すroll,Pitch,yawの回転)
(3)瞼の開き具合(例えば上瞼と下瞼との距離と、目頭と目尻との距離との比率)
(4)眼鏡の有無
さらに、本実施形態の補正マップには、第2実施形態で説明した、視線方向と表示画面33との交点が存在する各分割エリアの補正量を加えることも可能である。
そして、以上の9次元の入力(人物の状態)に対する一意な補正量を定めた詳細な補正マップを作成して保存する。すなわち、人物によるボタン押下時(押下イベントが発生した際)に検出された人物の状態と、この押下イベントによって得られた補正データとを関連付けた補正マップ(データテーブル)を作成して本体部30C内の記憶部に保存する。
上記の補正マップにより、検出されている人物の状態に応じた補正データを取得してポインタPTの表示位置を補正できるため、ポインタPTの表示位置を人物SBの主観注視点Qに精度良く合わせることが可能となる。
以上の視線検出システム1Cの動作により、第1実施形態と同様の効果を奏する。さらに、検出時の人物の状態に応じた補正データを補正マップから取得するため、ポインタの表示位置補正に関する精度を向上できる。
<第4実施形態>
本発明の第4実施形態に係る視線検出システム1Dは、図1に示す第1実施形態の視線検出システム1Aと類似の構成を有しているが、情報処理装置の本体部が異なっている。
本発明の第4実施形態に係る視線検出システム1Dは、図1に示す第1実施形態の視線検出システム1Aと類似の構成を有しているが、情報処理装置の本体部が異なっている。
すなわち、第4実施形態の本体部30Dには、以下で説明する視線検出の補正データの取得を行うプログラムが格納されている。
<補正データの取得>
ステレオカメラ2で取得した画像データに基づき検出される検出注視点と人物が感じる主観注視点との位置ずれについては、上述した各実施形態で取得される補正データによっても完全に改善できず、指定入力したいボタンの上にポインタPTを移動できない場合がある。
ステレオカメラ2で取得した画像データに基づき検出される検出注視点と人物が感じる主観注視点との位置ずれについては、上述した各実施形態で取得される補正データによっても完全に改善できず、指定入力したいボタンの上にポインタPTを移動できない場合がある。
そこで、本実施形態の視線検出システム1Dでは、指定入力したいボタンの上にポインタPTを確実に移動できる構成となっている。これについて詳しく説明する。
図7は、視線検出システム1Dの動作を説明するための図であり、図3に対応するものである。そして、検出された補正量による補正を行っても、注視している「F」ボタンB1上にポインタPTが移動できていない具体例を示している。
人物SBが「F」ボタンB1を注視する状態で検出された検出注視点P1に、上述の各実施形態で取得された補正量R1を加えて補正した注視点(以下では「補正注視点」ともいう)P2は、「F」ボタンB1上に存在しない。すなわち、検出注視点P1に補正量R1を加算した位置の補正注視点P2は、「F」ボタンB1から一定距離離れていて、人物SBの意図する主観注視点Qから大きく外れている。よって、指定入力したい「F」ボタンB1上にポインタPTがないため、人物SBは「F」ボタンB1の押下動作を行えない状況となっている。
このような場合、例えば人物SBが「F」ボタンB1とポインタPTとの間で視線を素早く往復させる動作(特定の入力動作)を行えば、人物SBが補正量R1に追加する追加の補正データを入力したいことを意図しているものと判断して、この追加の補正データを取得することとする。すなわち、視線検出システム1Dは視線の移動量の変化を常に監視し、短時間のうちに同一の移動距離を視線が往復したことを検出すると、この移動量が人物SBの意図する追加の補正データであると判断して、その補正量、例えば図7に示す補正量R2を取得し本体部30D内の記憶部に保存する。
そして、追加の補正量R2を表示中のポインタPTの位置に加えた補正注視点P3を求め、この補正注視点P3にポインタPTを移動させる。つまり、本体部30D内に保存される補正量R1と追加の補正量R2とに基づきポインタPTの表示位置が補正されることとなる。
上記の補正注視点P3については、検出した視線の移動量に誤差が含まれる可能性があるため、必ずしも補正注視点P3が主観注視点Qに相当する「F」ボタンB1の中央Bcと一致しない場合がある。そこで、人物SBはポインタPTが「F」ボタンB1上に移動されたことを確認した後に行うボタン押下動作の際に、上記の補正注視点P3と「F」ボタンB1の中央Bcとの位置ずれ量、つまり補正量R3を算出して保存することとする。これにより、3つの補正量R1〜R3を合成した補正量R4に基づき以後のポインタPTの表示位置を補正できるため、ポインタPTの位置精度を一層向上できる。
以上の視線検出システム1Dの動作により、第1実施形態と同様の効果を奏する。さらに、補正データに追加する追加の補正データを取得してポインタの表示位置補正に反映させるため、自動的に取得された補正データによる位置補正が不十分な場合でも追加の補正データによる補正を行える。
<変形例>
◎上記の各実施形態においては、小さなボタンで押下イベントが発生する場合に補正データを取得するのは必須でなく、例えば小さなチェック・ボックスなどのGUI入力部品で入力イベントが発生する場合に補正データを取得するようにしても良い。
◎上記の各実施形態においては、小さなボタンで押下イベントが発生する場合に補正データを取得するのは必須でなく、例えば小さなチェック・ボックスなどのGUI入力部品で入力イベントが発生する場合に補正データを取得するようにしても良い。
1A〜1D 視線検出システム
2 ステレオカメラ
3 情報処理装置
30A〜30D 本体部
31 表示部
33 表示画面
B1〜B3 ボタン
Bc ボタンの中央
HD 頭部
Gk 分割エリア
P0、P1 検出注視点
P2、P3 補正注視点
PT ポインタ
Q 主観注視点
R1〜R4 補正量
SB 人物
2 ステレオカメラ
3 情報処理装置
30A〜30D 本体部
31 表示部
33 表示画面
B1〜B3 ボタン
Bc ボタンの中央
HD 頭部
Gk 分割エリア
P0、P1 検出注視点
P2、P3 補正注視点
PT ポインタ
Q 主観注視点
R1〜R4 補正量
SB 人物
Claims (4)
- 所定サイズより小さい小型入力部品が表示画面に表示される視線検出システムであって、
(a)前記表示画面の前にいる人物の頭部に関する位置と姿勢と視線方向との情報を取得する情報取得手段と、
(b)前記情報取得手段で取得された情報に基づき、前記人物の視線と前記表示画面とに関する交点を算出する算出手段と、
(c)前記交点に基づく表示画面の位置にポインタを表示させる表示制御手段と、
(d)前記ポインタによって指定された小型入力部品で入力イベントが発生する際に、当該小型入力部品の中央部と前記交点とに関する位置ずれ量を検出する位置ずれ検出手段と、
(e)前記位置ずれ量に基づく補正データを記憶手段に保存する保存手段と、
を備え、
前記表示制御手段は、
(c-1)前記記憶手段に保存される補正データに基づき前記ポインタの表示位置を補正する補正手段、
を有することを特徴とする視線検出システム。 - 請求項1に記載の視線検出システムにおいて、
前記保存手段は、
(e-1)前記位置ずれ検出手段で前記位置ずれ量が検出された検出済の小型入力部品に関する位置情報と、当該検出済の小型入力部品で得られた前記補正データとを関連付けた第1データテーブルを前記記憶手段に保存する手段、
を有するとともに、
前記補正手段は、
前記表示画面に表示されているポインタの近傍位置にある前記検出済の小型入力部品に関連付けられた補正データを前記第1データテーブルに基づき取得して、当該ポインタの表示位置を補正する手段、
を有することを特徴とする視線検出システム。 - 請求項1または請求項2に記載の視線検出システムにおいて、
(f)前記人物の状態を検出する状態検出手段、
をさらに備え、
前記保存手段は、
(e-2)前記入力イベントが発生した際に前記状態検出手段で検出された人物の状態と、当該入力イベントによって得られた補正データとを関連付けた第2データテーブルを前記記憶手段に保存する手段、
を有するとともに、
前記補正手段は、
前記状態検出手段で検出されている人物の状態に応じた補正データを前記第2データテーブルに基づき取得して、前記ポインタの表示位置を補正する手段、
を有することを特徴とする視線検出システム。 - 請求項1ないし請求項3のいずれかに記載の視線検出システムにおいて、
(g)前記人物が行う特定の入力動作により、前記補正データに追加する追加の補正データを取得する追加データ取得手段、
をさらに備え、
前記保存手段は、
(e-3)前記追加データ取得手段で取得された追加の補正データを前記記憶手段に保存する手段、
を有するとともに、
前記補正手段は、
前記記憶手段に保存される前記補正データと前記追加の補正データとに基づき、前記ポインタの表示位置を補正する手段、
を有することを特徴とする視線検出システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005105690A JP2006285715A (ja) | 2005-04-01 | 2005-04-01 | 視線検出システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005105690A JP2006285715A (ja) | 2005-04-01 | 2005-04-01 | 視線検出システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006285715A true JP2006285715A (ja) | 2006-10-19 |
Family
ID=37407567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005105690A Pending JP2006285715A (ja) | 2005-04-01 | 2005-04-01 | 視線検出システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006285715A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008113902A (ja) * | 2006-11-06 | 2008-05-22 | Toyota Motor Corp | 眼開度検出装置及び方法 |
JP2009054101A (ja) * | 2007-08-29 | 2009-03-12 | Saga Univ | 視線入力装置、視線入力方法、及び、視線入力プログラム |
JP2011217764A (ja) * | 2010-04-02 | 2011-11-04 | Fujitsu Ltd | 補正値算出装置、補正値算出方法および補正値算出プログラム |
JP2012065781A (ja) * | 2010-09-22 | 2012-04-05 | Fujitsu Ltd | 視線検出装置および補正係数算出プログラム |
JP2013190942A (ja) * | 2012-03-13 | 2013-09-26 | Nippon Hoso Kyokai <Nhk> | 視線誤差補正装置、そのプログラム及びその方法 |
US8810624B2 (en) | 2010-11-10 | 2014-08-19 | Samsung Electronics Co., Ltd | Apparatus and method for configuring screen for video call using facial expression |
JP2014235729A (ja) * | 2013-06-03 | 2014-12-15 | ユーテックゾーン カンパニー リミテッド | スクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法及び該方法を実現するために用いるコンピュータシステムとコンピュータプログラム製品 |
JP2015207290A (ja) * | 2014-04-22 | 2015-11-19 | レノボ・シンガポール・プライベート・リミテッド | 自動ゲイズ・キャリブレーション |
WO2016093419A1 (ko) * | 2014-12-11 | 2016-06-16 | 삼성전자 주식회사 | 시선 캘리브레이션 방법 및 그 전자 장치 |
WO2016137405A1 (en) * | 2015-02-27 | 2016-09-01 | Meditech Solution Company Limited | A communicative system by monitoring patients' eye blinking |
-
2005
- 2005-04-01 JP JP2005105690A patent/JP2006285715A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008113902A (ja) * | 2006-11-06 | 2008-05-22 | Toyota Motor Corp | 眼開度検出装置及び方法 |
US8435188B2 (en) | 2006-11-06 | 2013-05-07 | Toyota Jidosha Kabushiki Kaisha | Eye opening detection system and method of detecting eye opening |
JP2009054101A (ja) * | 2007-08-29 | 2009-03-12 | Saga Univ | 視線入力装置、視線入力方法、及び、視線入力プログラム |
JP2011217764A (ja) * | 2010-04-02 | 2011-11-04 | Fujitsu Ltd | 補正値算出装置、補正値算出方法および補正値算出プログラム |
JP2012065781A (ja) * | 2010-09-22 | 2012-04-05 | Fujitsu Ltd | 視線検出装置および補正係数算出プログラム |
US8810624B2 (en) | 2010-11-10 | 2014-08-19 | Samsung Electronics Co., Ltd | Apparatus and method for configuring screen for video call using facial expression |
JP2013190942A (ja) * | 2012-03-13 | 2013-09-26 | Nippon Hoso Kyokai <Nhk> | 視線誤差補正装置、そのプログラム及びその方法 |
JP2014235729A (ja) * | 2013-06-03 | 2014-12-15 | ユーテックゾーン カンパニー リミテッド | スクリーン内のカーソルをクリック可能なオブジェクトに移動させる方法及び該方法を実現するために用いるコンピュータシステムとコンピュータプログラム製品 |
JP2015207290A (ja) * | 2014-04-22 | 2015-11-19 | レノボ・シンガポール・プライベート・リミテッド | 自動ゲイズ・キャリブレーション |
WO2016093419A1 (ko) * | 2014-12-11 | 2016-06-16 | 삼성전자 주식회사 | 시선 캘리브레이션 방법 및 그 전자 장치 |
WO2016137405A1 (en) * | 2015-02-27 | 2016-09-01 | Meditech Solution Company Limited | A communicative system by monitoring patients' eye blinking |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006285715A (ja) | 視線検出システム | |
JP6454851B2 (ja) | 3次元上の注視点の位置特定アルゴリズム | |
JP5923603B2 (ja) | 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 | |
CN109558012B (zh) | 一种眼球追踪方法及装置 | |
WO2012172719A1 (ja) | ヘッドマウントディスプレイおよびその位置ずれ調整方法 | |
US11822718B2 (en) | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes | |
US11448903B2 (en) | Method for correcting centering parameters and/or an axial position and corresponding computer program and methods | |
JP7030317B2 (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
Blignaut et al. | The effect of mapping function on the accuracy of a video-based eye tracker | |
JP5602708B2 (ja) | 注視位置推定システム、注視位置推定システムの制御方法、注視位置推定装置、注視位置推定装置の制御方法、プログラム、及び情報記憶媒体 | |
JP5868128B2 (ja) | 情報処理装置およびその制御方法 | |
JP2019215688A (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
CN111580273B (zh) | 视频穿透式头戴显示器及其控制方法 | |
US10108259B2 (en) | Interaction method, interaction apparatus and user equipment | |
JP5719216B2 (ja) | 視線測定装置および視線測定プログラム | |
Blignaut | Idiosyncratic feature-based gaze mapping | |
JP2001134371A (ja) | 視線検出装置 | |
WO2013179425A1 (ja) | 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 | |
US20140062997A1 (en) | Proportional visual response to a relative motion of a cephalic member of a human subject | |
US11829530B2 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
WO2024047990A1 (ja) | 情報処理装置 | |
JP2019063310A (ja) | 視線検出装置、視線検出プログラム、及び視線検出方法 | |
Groner | The Effect of Real-time Headbox Adjustments on Data Quality. | |
Blignaut | The effect of real-time headbox ad | |
JP5082092B2 (ja) | 画像表示装置 |