JP2014155635A - 視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法 - Google Patents

視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法 Download PDF

Info

Publication number
JP2014155635A
JP2014155635A JP2013028756A JP2013028756A JP2014155635A JP 2014155635 A JP2014155635 A JP 2014155635A JP 2013028756 A JP2013028756 A JP 2013028756A JP 2013028756 A JP2013028756 A JP 2013028756A JP 2014155635 A JP2014155635 A JP 2014155635A
Authority
JP
Japan
Prior art keywords
gaze
point
marker
coordinate system
watching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013028756A
Other languages
English (en)
Other versions
JP6210447B2 (ja
Inventor
Oky Dicky Ardiansyah Prima
オキ ディッキ アルディアンシャー プリマ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwate Prefectural University
Original Assignee
Iwate Prefectural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwate Prefectural University filed Critical Iwate Prefectural University
Priority to JP2013028756A priority Critical patent/JP6210447B2/ja
Publication of JP2014155635A publication Critical patent/JP2014155635A/ja
Application granted granted Critical
Publication of JP6210447B2 publication Critical patent/JP6210447B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】注視面に対する注視者の位置と姿勢を考慮した注視点の6自由度を算出し、それをもとに注視面上の注視領域と注視点のガウス分布を三次元的に計測することができる視線計測装置を提供する。
【解決手段】一つまたは複数のARマーカーを注視面6に配置し、それらのARマーカーを注視者の頭部に装着したシーンカメラで認識し、注視面6に対する注視者の位置と姿勢を計測して注視者からみた注視面6の座標系を算出する。この座標系を利用して、注視面6上の注視者の注視点の6自由度を算出し、それをもとに注視面6上の注視領域と注視点のガウス分布を三次元的に計測する。
【選択図】図9

Description

本発明は、視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法に係わり、特に、注視面を三次元空間として計測し、注視面上の注視点、注視領域および注視分布を計測することができる視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法に関する。
一般に、視線計測において、被験者(注視者)の注視点は、点または円で表示されている。
また、当該注視点に対して混合ガウシアン関数(Gaussian mixture)を適用することにより、被験者(注視者)の視線分布がヒートマップ(heat map)として表示されることが多い(例えば、非特許文献1参照)。
さらに、当該ヒートマップから、被験者(注視者)の視線停留域や興味領域(注視領域)を求めるための方法も開発されている(例えば、非特許文献2参照)。
一方、複数人の視線分布を同時に計測する場合、事前にそれぞれの被計測者(注視者)の視野を計測し、全員がもつ共通視野を求める必要があるところ、当該共通視野に含まれる注視点を記録し、それらの座標を共通視野の座標に変換することによって、全員の視線分布を同時に表示することが可能となる。
従来、このような注視者の共通視野の座標値を求める方法としては、(イ)シーンカメラで撮られた視野内の画像の特徴点を基準画像との差分によって求め、注視者の共通視野の座標値を求める方法(例えば、特許文献1等)や、(ロ)一つまたは複数の赤外線(IR)信号源を注視者の視野に配置し、被計測者(注視者)が装着したIR信号受信機により、複数の注視者の視線分野を共通視野内に表示する方法が知られている(例えば、特許文献2等)。
前述の(イ)の注視点位置計測方法によれば、頭部を固定することなく、基準の視野画像内における注視座標が実時間で得られるため、被計測者が自然な状態で計測ができ、且つ注視点解析に伴うデータ処理の労力を軽減することができるものの、注視者の位置が考慮されないため、最終的に得られた注視点の測定結果から注視者の注視方向を求めることができない、という難点があった。
一方、前述の(ロ)の注視点位置計測方法によれば、IR信号源によって注視者の位置を特定することができるものの、当該注視者の位置の違いが注視点の記録方法または表示方法に考慮されない、という難点があった。
ところで、中心窩から視覚情報を詳細に分析できる領域は、注視点を中心とした2度の領域(以下、「注視領域」という。)であることが知られている(例えば、非特許文献3等)。
この領域は、注視者にとっては実際に見ている範囲(注視領域)であり、この注視領域の形状およびその面積は、注視面に対する注視者の位置と姿勢によって変化することから、当該領域を視線計測時に考慮しないと、視線計測を適切に行うことができない、という難点があった。
Nielsen, J. and Pernice, K., Eyetracking Web Usability, New Riders Publishing, Thousand Oaks, CA, 2009 Suzuki et al., "Learning to estimate user interest utilizing the variational Bayes’ estimator". Proc. of 5th of International Conference on Intelligent Systems Design and Applications, Wroclaw, Poland, 94-99, 2005 郷地大紀・小潰剛, "復帰抑制の特性を考慮した顕著性マップモデルの拡張による視線予測", 近畿大学生物理工学部紀要, No.24, pp.45-55, 2009
特開昭62−53630号公報 特表2012−515579号公報
本発明は、上述の難点を解決するためになされたもので、一つ又は複数の注視面に対する一人又は複数人の注視者の位置と姿勢を自動的に計測し、計測した情報に基づいて注視面における注視点、注視領域および注視点のガウス分布を自動的に計測することができる視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法を提供することを目的としている。
本発明の第1の態様である視線計測装置は、注視者の頭部に配置され、一つの注視面に配置された一つ又は複数のマーカーを撮像する手段と、マーカーを撮像する手段により取得された諸データから注視面に対する注視者の位置と姿勢を計測する手段と、注視者からみた注視面の座標系を算出する手段と、座標系から注視面上の注視者の6自由度を求める手段とを備えるものである。
本発明の第2の態様である視線計測装置は、注視者の頭部に配置され、複数の注視面にそれぞれ配置された一つ又は複数のマーカーを撮像する手段と、マーカーを撮像する手段により取得された諸データから注視面に対する注視者の位置と姿勢を計測する手段と、注視者からみた注視面の座標系を算出する手段と、座標系から注視面上の注視者の6自由度を求める手段とを備えるものである。
本発明の第3の態様である視線計測装置は、第2の態様である視線計測装置において、複数の注視面にそれぞれ配置される一つ又は複数のマーカーは、それぞれ異なる形式とされているものである。
本発明の第4の態様である視線計測装置は、第1の態様乃至第3の態様の何れかの態様である視線計測装置において、マーカーは、黒枠と黒枠に白領域が設けられ全体として正方形または矩形を呈しているARマーカーで構成されているものである。
本発明の第5の態様である注視領域の表示方法は、第1の態様乃至第4の態様の何れかの態様の視線計測装置により注視点を計測するステップと、注視点に基づいて、注視点の周囲に見える範囲を定義するステップと、範囲を注視領域として算出して注視面上に投影するステップとを含むものである。
本発明の第6の態様である注視点のガウス分布の表示方法は、第1の態様乃至第4の態様の何れかの態様の視線計測装置により注視点を計測するステップと、注視点の分布を表すガウス分布を注視面に投影するステップとを含むものである。
本発明の第1の態様乃至第4の態様の視線計測装置によれば、一つまたは複数のARマーカーを利用することで、注視面座標系(X、Y、Z)上での注視点の6自由度(xm、ym、zm、θxm、θym、θzm)、すなわち並進3成分と回転3成分を合わせた6成分の6自由度を計測することができる。
具体的には、使用したARマーカーの数に応じた共通視野の求め方が異なるところ、それぞれについて次のような効果を奏する。
第1に、注視面が壁のように一面になっている場合においては、一つのARマーカーを注視面の端または注視しようとする対象物を妨げない注視面上の場所に配置することで、ARマーカーの座標系を注視面の座標系とし、注視面上の任意の地点における注視点の6自由度を求めることができる。
第2に、任意の対象空間を注視面とする場合においては、4つのそれぞれ異なるARマーカーを注視面の端に配置して注視点計測のための範囲を定義し、次に、複数のARマーカーの中から一つARマーカーを選択して当該ARマーカーを持つ座標系を注視面の座標系とし、さらに、注視面の座標系での4つのARマーカーの中心の位置を算出し、それらのARマーカーで区切られた空間を注視範囲とすることで、その空間内の注視点の6自由度を求めることができる。
第3に、注視面が複数ある場合においては、注視面数に相当する4つのそれぞれ異なるARマーカーをセットすることで、それぞれの注視面上に注視点の6自由度を計測することができる。
また、本発明の第5の態様の注視領域の表示方法によれば、注視領域は注視点を中心とした2度の領域であることから、この領域を注視面に投影することで、注視者が見ようとしたものだけでなく、注視者に見えたものを計測することができる。
具体的には、第1の態様乃至第4の態様の何れかの態様の視線計測装置において、注視面上の注視点の6自由度を求めることができるため、注視者からみた注視点周囲の約2度の領域を求めることができ、ひいては、注視者の位置が注視面から遠くなればなるほど、この注視領域が広くなり、一方、注視者の姿勢が注視面に垂直からずれるほど、この注視領域が真円から楕円に変化することから、このような注視領域を表現することによって、注視者が見ようとしたものだけでなく、注視者に見えたものを計測することができる。
さらに、本発明の第6の態様の注視点のガウス分布の表示方法によれば、第1の態様乃至第4の態様の何れかの態様の視線計測装置を利用して、注視点を中心としたガウス分布の各地点を注視面に投影することで、注視面上でのガウス分布が非対称となり、その歪みが注視者の位置と姿勢によって変化することから、非対称となったガウス分布において、上下左右の半径の変化に伴い、ガウス分布の頂点(中心)も当該分布の中心から移動することがあるところ、このような非対称となったガウス分布の頂点(中心)の移動を表現することによって、注視面上の注視点のガウス分布を三次元的に計測することができる。また、第5の態様の発明と同様に、注視者の位置が注視面から遠くなればなるほど、当該ガウス分布が広くなり、注視者の姿勢が注視面に垂直からずれるほど、当該ガウス分布の歪みが大きくなることから、視線計測を適切に行うことができる。
また、本発明の第1の態様乃至第6の態様の発明を組み合わせると次のような効果を奏する。
第1に、部屋内の複数面の壁を注視面とする場合は、それぞれの注視面上の注視点の6自由度を求めることができるため、それぞれの注視面上の注視領域と注視点のガウス分布を同時に計測することができる。
第2に、これらの計測結果を標準座標系に再投影することで、複数の注視者の注視点、注視領域およびガウス分布を同一座標で重ねて(オーバーレイ)表示することができる。
本発明の一実施例における複数の注視者による一つの注視面に対する注視点の6自由度を計測するためのシステム構成図。 本発明の一実施例における注視線計測装置を構成するシーンカメラの座標系とARマーカーの座標系を示す概略図。 本発明の一実施例における注視面上に配置した一つのARマーカーから当該注視面の平面方程式を算出し、当該注視面上の注視点の6自由度を計測している状態を示す説明図。 本発明の一実施例における複数の注視面上で、視線計測を行っている状態を示す説明図。 本発明の一実施例における複数人による二つの注視面に対する注視点の6自由度を計測するためのシステム構成図。 本発明の一実施例における四つのARマーカーを配置して注視面の範囲を定義し、それらのマーカーの中心の位置を注視範囲とし、その注視面上の注視点の6自由度を計測している状態を示す説明図。 本発明の一実施例における注視者の位置と姿勢を考慮した注視面上の注視領域を示す説明図。 本発明の一実施例における注視者の位置と姿勢を考慮した注視面上の注視点分布(ガウス分布)を示す説明図。 本発明の標準座標系における注視点、注視領域および注視点のガウス分布の概要を示す説明図。
以下、本発明の視線計測装置、注視領域の表示方法および注視点のガウス分布の表示方法を適用した好ましい実施の形態例について、図面を参照して説明する。
[実施例1]
図1は、本発明の一実施例における二人の注視者による一つの注視面に対する注視点の6自由度を計測するためのシステム構成図を示している。
同図において、本発明における視線計測装置1は、注視者の頭部に装着される眼鏡型のフレーム(不図示)の所定箇所、例えば注視者の利き目付近に取り付けられ、視野映像であるARマーカー7を撮像するためのシーンカメラ2と、当該フレームの前方であって注視者の瞳孔付近に取り付けられ、注視者の瞳孔を撮像するための瞳孔カメラ3と、データベース42(後述)にアクセス可能なパーソナルコンピュータ等から成る制御端末4とを備えている。
ここで、シーンカメラ2には、注視者の視野をカバーすることが可能な広角レンズ(視野角120°以上)が搭載されている。
このような広角レンズを使用すれば、比較的に近距離(例えば30〜50cm程度)からARマーカー7を捉えることができる。
また、注視面6上には一つAR(Augmented Reality:拡張現実感)マーカー7が配置されている)が配置され、シーンカメラ2とARマーカー7との距離に応じて、ARマーカー7のサイズが用意され、このようなARマーカー7の種類とサイズは、事前に制御端末4のデータベース42内に登録されている。
このように、事前に、ARマーカー7のサイズを定めれば、後述するようにして、シーンカメラ2で撮影した画像内におけるARマーカー7の形状(歪み)とその大きさにより、注視面6に対するシーンカメラ2の位置と姿勢の諸データを計測することができる。
制御端末4は、シーンカメラ2と瞳孔カメラ3をキャリブレーションするキャリブレーション処理部41と、諸データを登録するデータベース42と、各部(回路)を制御するCPU43とを備えている。ここで、シーンカメラ2と瞳孔カメラ3はキャリブレーション処理部41に接続され、これらのシーンカメラ2と瞳孔カメラ3はキャリブレーション処理部41の制御により予めキャリブレーションされている。
また、シーンカメラ2には、注視者の視野をカバーすることが可能な広角レンズが搭載されている。
このような広角レンズを使用すれば、比較的に近距離(例えば30〜50cm程度)からARマーカー7を捉えることができる。
注視面6上には一つまたは複数のAR(Augmented Reality:拡張現実感)マーカー7が配置され、シーンカメラ2とARマーカー7との距離に応じて、ARマーカー7のサイズが用意され、このようなARマーカー7の種類(例えば7a)とサイズ(例えば16cm×16cm)は、事前にデータベース42に登録されている。
このように、事前に、ARマーカー7のサイズを定めれば、後述するようにして、シーンカメラ2で撮影した画像内におけるARマーカー7の形状(歪み)とその大きさにより、注視面6に対するシーンカメラ2の位置と姿勢の諸データを計測することができる。
次に、このような構成の視線計測装置1は、注視者ごとに装着される。具体的には、第1の注視者の頭部に、第1の視線計測装置1aを構成する第1のシーンカメラ2aおよび第1の瞳孔カメラ3aが装着され、また、第2の注視者の頭部に、第2の視線計測装置1bを構成する第2のシーンカメラ2bおよび第2の瞳孔カメラ3bが装着されている。なお、これらの第1、第2のシーンカメラ2a、2bおよび第1、第2の瞳孔カメラ3a、3bは予め第1、第2のキャリブレーション処理部41a、41bでキャリブレーションされることで第1、第2のシーンカメラ2a、2bの位置と姿勢の諸データは、それぞれ第1、第2の注視者の位置と姿勢とみなすことができる。
このような状態で、一つの注視面6を注視する際の各注視点の6自由度5a、5bを注視面6の座標系で計測し、最後にこれらの注視点の座標を標準座標系8に変換する。なお、符号5a´、5b´は標準座標系8に変換した後の6自由度を示している。
ここで、注視面6の座標系としては、当該注視面6上のARマーカー7と同じものが用いられる。標準座標系8は、注視面6の原点に無回転のシ−ンカメラ2(2a、2b)から見た注視面6の座標系であり、この標準座標系8によって、複数の注視者の注視点を重ねて表示することができる。
次に、一連の処理方法について説明する。
先ず、本発明における視線計測装置1(1a、1b)を構成するシーンカメラ2(2a、2b)と、注視面6上に配置されたARマーカー7を利用して注視面6に対する注視者の位置と姿勢を求める。ここで、シーンカメラ2(2a、2b)は、注視者の目の付近に配置されているため、後述するシーンカメラ2(2a、2b)の位置と姿勢の諸データは、注視者の位置と姿勢とみなすことができる。
図2は、シーンカメラ2(2a、2b)とARマーカー7との位置関係を示しており、これらのシーンカメラ2(2a、2b)とARマーカー7の座標系との関連は(1)式で表すことができる。
ここで、(X、Y、Z)は、ARマーカーの座標系、(Xc、Yc、Zc)は、シーンカメラの座標系、(V11〜V33)および(Wx、Wy、Wz)は、ARマーカーに対する回転成分(シーンカメラのローリングに基づく回転成分)および並進成分(シーンカメラのピッチング、ヨーイングの回動に基づく並進成分)(以下、これを「変換行列」という。)を示す。
式(1)より、シーンカメラの回転角度(θx、θy、θz)は、以下の式(2)、(3)、(4)により求めることができる。
以上のことから、注視面6の座標系(X、Y、Z)上で、各注視点の位置(xm、ym、zm)と注視者の姿勢(θxm、θym、θzm)、すなわち、注視者の前後、左右、上下、ロール(roll)、ピッチ(pitch)、ヨー(yaw)の6種類の動きである注視者の6自由度を同時に計測することができる。
なお、上述のARマーカー7に対するシーンカメラ2(2a、2b)の位置および姿勢は、従来から知られている技術、例えば、例えば、「H. Kato and M. Billinghurst, “Marker Tracking and HMD Calibration for a Video-based Augmented Reality Conferencing System”, In Proc. IWAR '99, San Francisco, CA, pp.85-94, 1999.」等に記載されている技術により求めることができる。
図3は、本発明の一実施例における注視面上に配置した一つのARマーカーから当該注視面の平面方程式(ARマーカーの平面方程式)を算出し、当該注視面上の注視点の6自由度を計測している状態を示している。
同図において、点線は、シーンカメラ2(2a、2b)でARマーカー7を捉えている状態を示しており、実線は、注視者の注視点の6自由度を注視面6上で計測している状態を示している。
具体的には、第1の注視点の位置と姿勢は、(x1、y1、z1、θx1、θy1、θz1)として、第2の注視点の位置と姿勢は、(x2、y2、z2、θx2、θy2、θz2)として、第3の注視点の位置と姿勢は、(x3、y3、z3、θx3、θy3、θz3)として、第4の注視点の位置と姿勢は、(x4、y4、z4、θx4、θy4、θz4)として、それぞれ同時に計測することができる。
以上のように、本発明の第1の実施例による視線計測装置によれば、ARマーカー7のサイズを事前に定めれば、シーンカメラ2(2a、2b)で撮影した画像内におけるARマーカー7の形状(歪み)とその大きさにより、注視面6に対するシーンカメラ2(2a、2b)の位置と姿勢の諸データを計測することができ、ひいては、このようなARマーカー7を利用することで、注視面座標系(X、Y、Z)上での注視点の6自由度(xm、ym、zm、θxm、θym、θzm)を計測することができる。
より具体的には、注視面6が壁のように一面になっている場合においては、一つのARマーカー7を注視面6の端または注視しようとする対象物を妨げない注視面6上の場所に配置することで、ARマーカー7の座標系を注視面6の座標系とし、注視面6上の任意の地点における注視点の6自由度を求めることができる。
ここで、この実施例においては、シーンカメラ2(2a、2b)で一つの注視面6に配置された一つのARマーカー7を撮像する場合について述べているが、シーンカメラ2(2a、2b)で一つの注視面6に配置された複数(例えば4つ)のARマーカー7を撮像してもよい。
[実施例2]
図4は、複数の注視面6a、6b上で、視線計測を行っている状態を示している。なお、同図において、図1〜図3と共通する部分には同一の符号を付して詳細な説明を省略する。
この実施例においては、図4に示すように、第1の注視面6aの四隅に、それぞれ白枠の領域にA〜Dが付されたそれぞれ異なる型式の第1〜第4のARマーカー7a〜7d(以下、「第1〜第4のARマーカー7a〜7d」を「第1のARマーカーのセット」ともいう。)が配置され、第2の注視面6bに、それぞれ白枠の領域にE〜Hが付されたそれぞれ異なる型式の第5〜第8のARマーカー7e〜7h(以下、「第5〜第8のARマーカー7e〜7h」を「第2のARマーカーのセット」ともいう。)が配置されている。
この実施例においては、第1の注視面6aにおける第1〜第4のARマーカー7a〜7dや、第2の注視面6bにおける第5〜第8のARマーカー7e〜7hを用いて、第1、第2の注視面6a、6bの四隅の範囲とそれぞれの座標系を決定することができる。
具体的には、先ず、式(1)より、シ−ンカメラ2の座標系をC、任意のi番目のARマーカー7の座標系をA、シーンカメラ2とARマーカー7の座標系に対する変換行列をMと置くと、シーンカメラ2の座標系とARマーカー7の座標系との関連を式(5)で表すことができる。
次に、任意の注視面6における座標系は、当該注視面6上の一つのARマーカー7の座標系で代表させることができ、当該ARマーカー7の座標系と他の同一面上のARマーカー7の座標系との関係を求めることができる。
例えば、図5に示すように、第1の注視面6aの左上の第1のARマーカー7aを使用して第1の注視面6aの座標系を以下のようにして求めることができる。
すなわち、シーンカメラ2の座標系Cと第1のARマーカー7aの座標系が
C=M(第1のARマーカー7a)
C=M(第2のARマーカー7b)
C=M(第3のARマーカー7c)
C=M(第4のARマーカー7d)
として、それぞれ成立することから、第1のARマーカー7aと第2のARマーカー7bの座標系の関係は、
になる。
同様にして、第1のARマーカー7aと第3のARマーカー7cの座標系の関係、第1のARマーカー7aと第4のARマーカー7dの座標系の関係も求めることができる。
これらの処理は、注視面6ごとに施すことにより、注視面6上での注視点の6自由度(5c、5d)を求めることができ、それらの注視点を該当する標準座標系8a、8bでその位置(5c´、5d´)を表示することができる。
以上の方法で、図6に示すように、第1のARマーカー7aの座標系を注視面6における座標系(X、Y、Z)とし、シーンカメラ2から視た四つのARマーカー7の中心座標(xm1、ym1、zm1)、(xm2、ym2、zm2)、(xm3、ym3、zm3)、(xm4、ym4、zm4)を注視する範囲として、当該面上での注視点の6自由度(xm、ym、zm、θxm、θym、θzm)を計測することができる。
ここで、第1、第2の注視面6a、6bを識別するためには、第1のARマーカーセットと第2のARマーカーセットで利用されたARマーカー7は重複しないようにする必要がある。
以上のように、本発明の第2の実施例による視線計測装置によれば、第1の実施例による視線計測装置の作用、効果に加えて、次の効果を奏する。
すなわち、注視面6が複数ある場合においては、注視面数に相当する4つのそれぞれ異なるARマーカー7a〜7hをセットすることで、それぞれの注視面上に注視点の6自由度を計測することができる。
また、任意の対象空間を注視面6とする場合においては、4つのそれぞれ異なるARマーカー7を注視面の端に配置して注視点計測のための範囲を定義し、複数のARマーカー7の中から一つARマーカー7を選択して当該ARマーカー7を持つ座標系を注視面6の座標系とし、注視面6の座標系での4つのARマーカー7の中心の位置を算出し、それらのARマーカー7で区切られた空間を注視範囲とすることで、その空間内の注視点の6自由度を求めることができる。
[実施例3]
図7は、注視者の位置と姿勢を考慮した注視面上の注視領域を求めるための概要を示している。なお、同図において、図1〜図6と共通する部分には同一の符号を付して詳細な説明を省略する。
図7において、注視点を中心とした2度の領域を考慮した場合、注視者の注視方向に垂直な面であるシーンカメラ2のスクリーン12上においては、注視領域は当該注視点を中心とする真円になるものの、注視面6上においては、この注視領域は楕円領域として算出される。
ここで、上記の楕円の算出方法について述べると、先ず、シーンカメラ2と注視面6上の注視点をなすベクトル10と、当該ベクトル10と2度の角度をなすシーンカメラ2の座標系の中心(0、0、0)からの五つのベクトル11a、11b、11c、11d,11e(以下、11aを「第1の注視領域ベクトル」、11bを「第2の注視領域ベクトル」、11cを「第3の注視領域ベクトル」、11dを「第4の注視領域ベクトル」、11eを「第5の注視領域ベクトル」という。)を作成する。
次に、第1〜第5の注視領域ベクトル11a〜11eを延長させて、それぞれ注視面6との交点(11a´、11b´、11c´、11d´,11e´)を求める。
そうすると、注視面6の座標系上で五つの交点(xi、yi)を通る楕円は、(6)式で表すことができる。
これにより、係数a〜fを(7)式の行列演算で求めることができる。
なお、詳細な方法については、例えば、Hartley, R. and Zisserman, A., “Multiple View Geometry in Computer Vision”, Cambridge University press, 2nd edition, pp30-31, 2003.等に先行技術文献に記載されている。
以上のように、本発明の注視領域の表示方法によれば、注視領域は注視点を中心とした2度の領域であることから、この領域を注視面6に投影することで、注視者が見ようとしたものだけでなく、注視者に見えたものを計測することができる。
具体的には、前述の視線計測装置1(1a、1b)において、注視面6上の注視点の6自由度を求めることができるため、注視者からみた注視点周囲の約2度の領域を求めることができ、ひいては、注視者の位置が注視面6から遠くなればなるほど、この注視領域が広くなり、一方、注視者の姿勢が注視面6に垂直からずれるほど、この注視領域が真円から楕円に変化することから、このような注視領域を表現することによって、注視者が見ようとしたものだけでなく、注視者に見えたものを計測することができる。
[実施例4]
図8は、注視者の位置と姿勢を考慮した注視面6上の注視点分布(ガウス分布)を示している。
同図において、図1〜図7と共通する部分には同一の符号を付して詳細な説明を省略する。
図8において、当該分布を算出するためには、先ず、シーンカメラ2のスクリーン12上で注視点のガウシアン分布を作成し、当該分布のそれぞれの地点について、注視面6上に投影する必要がある。
しかして、シーンカメラ2のスクリーン12上において、注視者の注視点(xc、yc)に対するガウス分布f(x、y)は、式(8)で求めることができる。
ここで、σ、σはガウス分布の幅を決定するためのものであり、その大きさは、前述の注視領域の半径の1/3とする。
シーンカメラ2のスクリーン12上において、注視領域が真円となるため、σ=σとなる。
x、y はそれぞれxc±3σ、yc±3σの範囲の地点座標である。
シーンカメラ2の座標系の中心(0,0,0)から、当該注視点のガウス分布の各地点に向けてベクトルを作成し、それらのベクトルを延長させて注視面6と交差させる。
シーンカメラ2のスクリーン12のガウス分布をそれらのベクトルに従って注視面6に投影させることによって、注視面6上のガウス分布を求めることができる。
以上のように、本発明の注視点のガウス分布の表示方法によれば、前述の視線計測装置1(1a、1b)を利用して、注視点を中心としたガウス分布の各地点を注視面6に投影することで、注視面6上でのガウス分布が非対称となり、その歪みが注視者の位置と姿勢によって変化することから、非対称となったガウス分布において、上下左右の半径の変化に伴い、ガウス分布の頂点(中心)も当該分布の中心から移動することがあるところ、このような非対称となったガウス分布の頂点(中心)の移動を表現することによって、注視面6上の注視点のガウス分布を三次元的に計測することができる。また、第3の実施例と同様に、注視者の位置が注視面から遠くなればなるほど、当該ガウス分布が広くなり、注視者の姿勢が注視面に垂直からずれるほど、当該ガウス分布の歪みが大きくなることから、視線計測を適切に行うことができる。
[実施例5]
図9は、複数の注視者が同一注視面を注視し、その注視点、注視領域および注視点のガウス分布を計測し、標準座標系上で重ねて表示した状態を示している。
すなわち、第1の実施例〜第4の実施例を組み合わせることで、次のような効果を奏する。
第1に、部屋内の複数面の壁を注視面6とする場合は、それぞれの注視面6上の注視点の6自由度を求めることができるため、それぞれの注視面6上の注視領域と注視点のガウス分布を同時に計測することができる。
第2に、これらの計測結果を標準座標系8(8a、8b)に再投影することで、複数の注視者の注視点や注視領域、ガウス分布を同一座標で重ねて(オーバーレイ)表示することができる。
なお、これまで本発明について、図面に示した特定の実施の形態をもって本発明を説明しているが、本発明はこれらの実施の形態に限定されるものではなく、本発明の効果を奏する限り、これまで知られているいかなる構成であっても採用することができる。
例えば、前述の実施例では、注視面に正方形の囲みから成るARマーカーを配置した場合について説明したが、QRコード(登録商標)やロボットなどが物体を認識するための平面パターンから成るマーカー等を用いてもよい。
また、前述の説明では、データベース42を制御端末4に搭載した場合について述べているが、当該データベース42は制御端末4と別体で構成してもよい。
1・・・視線計測装置
1a、1b・・・第1、第2の視線計測装置
2・・・シーンカメラ
2a、2b・・・第1、第2のシーンカメラ
3・・・瞳孔カメラ
3a、3b・・・第1、第2の瞳孔カメラ
4・・・制御端末
4a、4b・・・第1、第2の制御端末
5・・・注視面上の注視点
5a〜5d・・・第1〜第5の注視面上の注視点
6・・・注視面
6a、6b・・・第1、第2の注視面
7・・・ARマーカー
7a〜7h・・・第1〜第8のARマーカー
8・・・標準座標系
8a、8b・・・第1、第2の標準座標系

Claims (6)

  1. 注視者の頭部に配置され、一つの注視面に配置された一つ又は複数のマーカーを撮像する手段と、前記マーカーを撮像する手段により取得された諸データから前記注視面に対する前記注視者の位置と姿勢を計測する手段と、前記注視者からみた前記注視面の座標系を算出する手段と、前記座標系から前記注視面上の前記注視者の6自由度を求める手段とを備えることを特徴とする視線計測装置。
  2. 注視者の頭部に配置され、複数の注視面にそれぞれ配置された一つ又は複数のマーカーを撮像する手段と、前記マーカーを撮像する手段により取得された諸データから前記注視面に対する前記注視者の位置と姿勢を計測する手段と、前記注視者からみた前記注視面の座標系を算出する手段と、前記座標系から前記注視面上の前記注視者の6自由度を求める手段とを備えることを特徴とする視線計測装置。
  3. 前記複数の注視面にそれぞれ配置される一つ又は複数の前記マーカーは、それぞれ異なる形式とされていることを特徴とする請求項2記載の視線計測装置。
  4. 前記マーカーは、黒枠と前記黒枠に白領域が設けられ全体として正方形または矩形を呈しているARマーカーであることを特徴とする請求項1乃至請求項3の何れか1項に記載の視線計測装置。
  5. 請求項1乃至請求項4の何れか1項に記載の視線計測装置により注視点を計測するステップと、前記注視点に基づいて、前記注視点の周囲に見える範囲を定義するステップと、前記範囲を注視領域として算出して注視面上に投影するステップとを含むことを特徴とする注視領域の表示方法。
  6. 請求項1乃至請求項4の何れか1項に記載の視線計測装置により注視点を計測するステップと、前記注視点に基づいて、前記注視点の分布を表すガウス分布を前記注視面に投影するステップとを含むことを特徴とする注視点のガウス分布の表示方法。
JP2013028756A 2013-02-18 2013-02-18 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法 Expired - Fee Related JP6210447B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013028756A JP6210447B2 (ja) 2013-02-18 2013-02-18 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013028756A JP6210447B2 (ja) 2013-02-18 2013-02-18 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法

Publications (2)

Publication Number Publication Date
JP2014155635A true JP2014155635A (ja) 2014-08-28
JP6210447B2 JP6210447B2 (ja) 2017-10-11

Family

ID=51576939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013028756A Expired - Fee Related JP6210447B2 (ja) 2013-02-18 2013-02-18 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法

Country Status (1)

Country Link
JP (1) JP6210447B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008232A1 (ja) * 2016-07-04 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019017800A (ja) * 2017-07-19 2019-02-07 富士通株式会社 コンピュータプログラム、情報処理装置及び情報処理方法
CN112651270A (zh) * 2019-10-12 2021-04-13 北京七鑫易维信息技术有限公司 一种注视信息确定方法、装置、终端设备及展示对象

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0377533A (ja) * 1989-08-19 1991-04-03 Ishikawa Pref Gov 注視姿勢及び注視点絶対位置の計測装置
US20070171367A1 (en) * 2005-12-14 2007-07-26 Digital Signal Corporation System and method for tracking eyeball motion
JP2013024586A (ja) * 2011-07-15 2013-02-04 Univ Of Yamanashi モノスペクトル・マーカならびにその検出方法および装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0377533A (ja) * 1989-08-19 1991-04-03 Ishikawa Pref Gov 注視姿勢及び注視点絶対位置の計測装置
US20070171367A1 (en) * 2005-12-14 2007-07-26 Digital Signal Corporation System and method for tracking eyeball motion
JP2009519780A (ja) * 2005-12-14 2009-05-21 デジタル シグナル コーポレイション 眼球の動きを追跡するシステムおよび方法
JP2013024586A (ja) * 2011-07-15 2013-02-04 Univ Of Yamanashi モノスペクトル・マーカならびにその検出方法および装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008232A1 (ja) * 2016-07-04 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11030975B2 (en) 2016-07-04 2021-06-08 Sony Corporation Information processing apparatus and information processing method
JP2019017800A (ja) * 2017-07-19 2019-02-07 富士通株式会社 コンピュータプログラム、情報処理装置及び情報処理方法
US10642353B2 (en) 2017-07-19 2020-05-05 Fujitsu Limited Non-transitory computer-readable storage medium, information processing apparatus, and information processing method
CN112651270A (zh) * 2019-10-12 2021-04-13 北京七鑫易维信息技术有限公司 一种注视信息确定方法、装置、终端设备及展示对象

Also Published As

Publication number Publication date
JP6210447B2 (ja) 2017-10-11

Similar Documents

Publication Publication Date Title
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
US20200051267A1 (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least part of a real object at absolute spatial scale
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
US6411266B1 (en) Apparatus and method for providing images of real and virtual objects in a head mounted display
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
US8571258B2 (en) Method of tracking the position of the head in real time in a video image stream
Pfeiffer Measuring and visualizing attention in space with 3D attention volumes
US6690338B1 (en) Apparatus and method for providing images of real and virtual objects in a head mounted display
US9696543B2 (en) Information processing apparatus and information processing method
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
WO2017161660A1 (zh) 增强现实设备、系统、图像处理方法及装置
US20190297318A1 (en) Methods and systems for multiple access to a single hardware data stream
CN109804220A (zh) 用于跟踪头部和眼睛的运动和姿势的系统和方法
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP2005256232A (ja) 3dデータ表示方法、装置、およびプログラム
Rocca et al. Head pose estimation by perspective-n-point solution based on 2d markerless face tracking
JP6210447B2 (ja) 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法
US11941851B2 (en) Systems and methods for calibrating imaging and spatial orientation sensors
JP2016057634A (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
US20210165999A1 (en) Method and system for head pose estimation
JP2015201734A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP5522799B2 (ja) 視線位置推定システム及び視線位置推定プログラム
CN111201502A (zh) 用于校准眼睛跟踪系统的系统和方法
KR20140068416A (ko) 스마트 기기를 활용한 3차원 이미지 생성장치 및 그 방법
WO2021075113A1 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170904

R150 Certificate of patent or registration of utility model

Ref document number: 6210447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees