JP2015058246A - 視線分析システム - Google Patents

視線分析システム Download PDF

Info

Publication number
JP2015058246A
JP2015058246A JP2013194951A JP2013194951A JP2015058246A JP 2015058246 A JP2015058246 A JP 2015058246A JP 2013194951 A JP2013194951 A JP 2013194951A JP 2013194951 A JP2013194951 A JP 2013194951A JP 2015058246 A JP2015058246 A JP 2015058246A
Authority
JP
Japan
Prior art keywords
image
subject
head
camera unit
scene image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013194951A
Other languages
English (en)
Other versions
JP6171781B2 (ja
Inventor
隼 沖
Hayato Oki
隼 沖
智子 小堀
Tomoko Kobori
智子 小堀
小川 隆
Takashi Ogawa
隆 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2013194951A priority Critical patent/JP6171781B2/ja
Publication of JP2015058246A publication Critical patent/JP2015058246A/ja
Application granted granted Critical
Publication of JP6171781B2 publication Critical patent/JP6171781B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】シーン画像の領域に対応する画像を自動的に基本画像から切り抜き,切り抜いた画像を用いて対応点の探索処理を行うことのできるシステムを提供する。
【解決手段】視線分析装置2は,6軸モーションセンサ4の出力から被験者頭部の移動距離と回転角を演算する変位演算手段20と,被験者頭部の移動距離と回転角から,カメラユニット30の位置と向きの変動量とカメラユニット30の対象物からの距離の変動量を演算し,これらの変動量に従い切り抜き範囲を変更する切り抜き範囲変更手段21と,切り抜き範囲変更手段21が変更した後の切り抜き範囲内の画像を基本画像から切り抜き,切り抜いた画像とシーン画像間の対応点を探索する対応点探索手段22と,切り抜いた画像とシーン画像間の対応点用いてシーン画像上の注視点座標を変換する注視点変換手段24を備える。
【選択図】図2

Description

本発明は,アイトラッキング装置が出力した注視点の座標を分析する際,対象物全体を撮影した対象物画像に対して,被験者の視界の中心部を2次元画像化した画像であるシーン画像の撮影範囲が小さすぎる場合であっても,対象物画像とシーン画像間の対応点を効率良く探索できるようにする発明である。
マーケティング分野等において,アイトラッキング試験を行い,アイトラッキング試験の被験者が視線を向けた対象物上の位置を分析することは重要なことである。被験者が視線を向けた対象物上の位置を特定する際,特許文献1に記載されているように,対象物全体を撮影した対象物画像とアイトラッキング装置が撮影したシーン画像間の対応点を探索し,この対応点を利用して,シーン画像上における注視点座標を対象物画像上の座標値に変換する座標変換行列を演算する。
上述の座標変換行列は,シーン画像と対象物画像間の4つの対応点から演算可能であるが,4つの対応点の標本数を一つとすると座標変換行列の精度が低くなるため,数多くの対応点から4つの対応点の標本を数多く抽出し,RANSAC(RANdom SAmple Consensus)などのロバスト推定手法により座標変換行列の精度を高めることが必要になる。
対象物画像とシーン画像がほぼ同じであれば,特別な処理を行うことなく,数多くの対応点を探索することができるが,シーン画像が対象物の局所的な部分のみ撮影した画像の場合,数多くの対応点を探索することができない。
シーン画像が対象物の局所的な部分のみ撮影した画像の場合であっても,数多くの対応点を探索できる手法として,特許文献1では,対象物画像を複数の分割画像に分割し,シーン画像と分割画像間の対応点を探索する手法が開示されているが,この手法では,対象物画像の分割画像毎に対応点を探索する処理が必要になってしまう。
特開2013−81762号公報
そこで,本発明は,シーン画像が対象物の局所的な部分のみ撮影した画像の場合であっても,対象物画像を複数の分割画像に分割することなく,数多くの対応点を効率良く探索できる視線分析システムおよび視線分析装置を提供することを目的とする。
上述した課題を解決する第1の発明は,被験者の視界の中心部を2次元画像化した画像であるシーン画像を所定のフレームレートで撮影するカメラユニットと,前記シーン画像上における注視点座標を検出する注視点検出部を有し,被験者頭部に装着するように構成されたアイトラッキング装置と,所定のサンプリングレートで3軸方向の加速度と3軸回りの角速度を計測するセンサを有し,被験者頭部に装着するように構成された6軸モーションセンサと,前記アイトラッキング装置と前記6軸モーションセンサの出力を用いて被験者の視線を分析する視線分析装置とから少なくとも構成される視線分析システムである。
第1の発明に係る前記視線分析装置は,対象物の全体を撮影した対象物画像を利用できるように前記対象物画像を記憶する記憶手段を備える。また,始時点からの被験者頭部の移動距離と回転角がわかるように,アイトラッキング試験中に前記6軸モーションセンサから得られた3軸方向の加速度から,始時点から前記シーン画像が撮影された時点までの被験者頭部の移動距離を演算し,更に,アイトラッキング試験中に前記6軸モーションセンサから得られた角速度から,始時点から前記シーン画像が撮影された時点までの被験者頭部の回転角を演算する変位演算手段を備える。また,第1の発明に係る前記視線分析装置は,前記シーン画像に対応する切り抜き範囲を自動で決定できるように,始時点から前記シーン画像が撮影された時点までの前記被験者頭部の移動距離と前記被験者頭部の回転角から,前記カメラユニットの位置と向きの変動量と前記カメラユニットの対象物からの距離の変動量を演算し,前記カメラユニットの位置と向きの変動量と前記カメラユニットの前記対象物からの距離の変動量に従い,始時点における切り抜き範囲の位置とサイズを変更する切り抜き範囲変更手段を備える。更に,第1の発明に係る前記視線分析装置は,前記シーン画像との対応点を探索できるように,前記切り抜き範囲変更手段が前記切り抜き範囲を変更すると,前記対象物画像から,前記切り抜き範囲変更手段が変更した後の前記切り抜き範囲内の画像を切り抜き,切り抜いた画像と前記シーン画像間の対応点を探索する対応点探索手段を備える。また,第1の発明に係る前記視線分析装置は,前記シーン画像上の注視点座標を前記対象物画像上の座標値に変換できるように,前記対応点探索手段が前記切り抜いた画像と前記シーン画像間の対応点を探索すると,前記切り抜いた画像と前記シーン画像間の対応点を用いて,前記シーン画像上における前記注視点座標を前記対象物画像上の座標値に変換する行列を算出し,前記シーン画像上における前記注視点座標を前記対象物画像上の座標値に変換する注視点変換手段を備える。
更に,第2の発明は,第1の発明に記載した視線分析システムにおいて,切り抜き範囲を変更する内容を詳細にした発明で,前記視線分析装置の前記変位演算手段は,前記被験者頭部の移動距離を前記対象物の縦方向,横方向および奥行方向毎に演算し,更に,前記被験者頭部の回転角を縦方向および横方向毎に演算し,前記切り抜き範囲変更手段は,縦方向と横方向に係る前記被験者頭部の回転角並びに縦方向と横方向に係る前記被験者頭部の移動距離を利用して,前記カメラユニットの位置と向きの変動量を演算し,前記カメラユニットの位置と向きの変動量に基づいて,始時点における前記切り抜き範囲の中心位置を変更し,奥行方向に係る前記被験者頭部の移動距離を用いて前記カメラユニットの対象物からの距離を演算し,前記カメラユニットの対象物からの距離から演算した拡大縮小倍率に基づいて,始時点における前記切り抜き範囲のサイズを変更することを特徴とする。
更に,第3の発明は,第1の発明または第2の発明に記載した視線分析システムにおいて,アイトラッキング試験を開始した時点を始時点とし,前記視線分析装置の前記切り抜き範囲変更手段は,アイトラッキング試験を開始した時点からの前記カメラユニットの位置と向きの変動量と前記カメラユニットの対象物からの距離を演算し,アイトラッキング試験を開始した時点における切り抜き範囲を変更することを特徴とする。
更に,第4の発明は,第1の発明または第2の発明に記載した視線分析システムにおいて,前回の前記シーン画像が撮影された時点を始時点とし,前記視線分析装置の前記切り抜き範囲変更手段は,前回の前記シーン画像が撮影された時点からの前記カメラユニットの位置と向きの変動量と前記カメラユニットの対象物からの距離を演算し,前回の前記シーン画像が撮影された時点の切り抜き範囲を変更することを特徴とする。
更に,第5の発明は,第1の発明から第4の発明のいずれか一つに記載した視線分析システムを構成する視線分析装置である。
このように,上述した発明によれば,シーン画像が対象物の局所的な部分のみ撮影した画像の場合であっても,シーン画像に対応する画像を自動的に対象物画像から切り抜き,切り抜いた画像を用いて対応点の探索処理が行われるため,数多くの対応点を効率良く探索できるようになる。
本実施形態に係る視線分析システムの構成を説明する図。 本実施形態に係る視線分析システムのブロック図。 アイトラッキング試験を説明する図。 対象物画像とシーン画像を説明する図。 被験者頭部の回転による切り抜き範囲の位置の変動を説明する図。 被験者頭部の移動による切り抜き範囲の位置の変動を説明する図。 被験者頭部の移動による切り抜き範囲のサイズの変動を説明する図。 切り抜き範囲の座標を説明する図。 視線分析装置の動作を説明する図。 アイトラッキング試験工程を説明する図。 キャリブレーション工程を説明する図。 視線分析工程を説明する図。 注視点変換処理を説明する図。
ここから、本発明の好適な実施形態について、図面を参照しながら詳細に説明する。なお,以下の記載は本発明の範囲を束縛するものでなく,理解を助けるために記述するものである。
図1は,本実施形態に係る視線分析システム1の構成を説明する図で,図2は,本実施形態に係る視線分析システム1のブロック図,図3は,アイトラッキング試験を説明する図,図4は,対象物画像とシーン画像を説明する図である。
図1,2に図示したように,本実施形態に係る視線分析システム1は,被験者6の注視点を検出するアイトラッキング装置3と,3軸方向(x軸方向,y軸方向,z軸方向)の加速度と3軸回り(x軸回り,y軸回り,z軸回り)の角速度を計測する6軸モーションセンサ4と,距離を計測する距離センサ5と,アイトラッキング装置3および6軸モーションセンサ4が少なくとも接続される視線分析装置2を含む。
アイトラッキング装置3は,被験者6の被験者頭部6aに装着できるように構成された装置で,図1では,アイトラッキング装置3を眼鏡型の装置として図示している。図2に図示しているように,アイトラッキング装置3は,シーン画像を所定のフレームレートで撮影するカメラユニット30と,被験者6の注視点を検出し,シーン画像上における注視点座標を出力する注視点検出部31を備え,カメラユニット30がシーン画像を撮影すると,シーン画像とシーン画像上の注視点座標を出力する装置で,アイトラッキング装置3は,これ以外に,電源,メモリ,通信インターフェース等を有しているが,図1および図2では図示していない。なお,本実施形態において,シーン画像とは,アイトラッキング装置3のカメラユニット30が撮影した画像で,被験者の視界の中心部を2次元画像化した画像になる。
このような機能を備えたアイトラッキング装置3は既に市販化されており,アイトラッキング装置3の注視点検出部31が被験者6の注視点を検出する手法としては,被験者6の瞳孔を撮影する手法(例えば,特開平8−140937),眼電位を用いる手法(例えば,WO2009/142008号公報),そして,赤外線信号を用いる手法(例えば,特表2012−515579公報)が知られている。
被験者頭部6aに装着する6軸モーションセンサ4は,3軸方向の加速度と3軸回りの角速度を所定のサンプリングレートで計測して出力するセンサで,このような6軸モーションセンサ4としては,3軸加速センサと3軸ジャイロセンサを備えた小型のセンサが既に市販化されている。
本実施形態において,6軸モーションセンサ4のx軸が対象物7の横方向に,6軸モーションセンサ4のy軸が対象物7の縦方向に,6軸モーションセンサ4のz軸が対象物7の奥行方向にそれぞれ一致するように,被験者頭部6aに6軸モーションセンサ4を装着している。なお,図1では,アイトラッキング装置3に6軸モーションセンサ4を取り付けているが,ヘッドバンドを用いて被験者頭部6aに取り付けることも想定できる。
距離センサ5は,視線分析装置2がキャリブレーションを行う際,アイトラッキング試験を開始する際の被験者6から対象物7までの距離d0を測定するために用いるセンサである。距離d0は数m程度になることが多いため,赤外光を照射しその反射光から距離を計測する距離画像センサを距離センサ5として用いることが望ましい。なお,距離センサ5は,視線分析装置2が切り抜き範囲のキャリブレーションを行うときのみに利用されるため,距離センサ5を被験者頭部6aに装着する必要はない。
図3に図示したように,アイトラッキング試験を行う際,アイトラッキング装置3と6軸モーションセンサ4を被験者頭部6aに装着した被験者6が自由に移動して対象物7を閲覧すると,アイトラッキング装置3のカメラユニット30によって,被験者6が視線を向けた対象物7上の一部領域の画像であるシーン画像が撮影され,アイトラッキング装置3の注視点検出部31によって,シーン画像上における注視点座標が検出される。
図4(a)は,対象物画像を説明する図である。対象物画像とは,対象物7の全体を正面から撮影した画像で,対象物画像は視線分析装置2の記憶手段(例えば,ハードディスク)に予め記憶される。なお,対象物画像を撮影するカメラは,アイトラッキング装置3のカメラユニット30でもよく,他のデジタルカメラでもよい。
図4(b),(c)は,シーン画像を説明する図で,図4(b)は,被験者6が図3の位置P0にいる時に撮影されるシーン画像で,図4(c)は,被験者6が図3の位置P1にいる時に撮影されるシーン画像である。
アイトラッキング装置3は,被験者頭部6aに装着されるため,被験者頭部6aの移動や回転によって,対象物画像上におけるカメラユニット30の撮影範囲は変化する。被験者6が位置P0にいる時,この時のカメラユニット30の撮影方向は対象物7の中心であるため,図4(b)のシーン画像は対象物7の中心部を撮影した画像になる。また,位置P0にいる被験者6は,対象物7を向かって見て位置P0から左に移動し,更に,被験者頭部6aを上方向に向いているため,図4(c)のシーン画像は対象物7の左上部を撮影した画像になる。
このように,被験者頭部6aの移動や回転によって,アイトラッキング装置3のカメラユニット30が撮影するシーン画像の内容は変化するが,アイトラッキング装置3と同様に,6軸モーションセンサ4も被験者頭部6aに装着されるため,6軸モーションセンサ4の出力から被験者頭部6aの移動距離と回転角を算出することができ,これらの値から,対象物画像上におけるカメラユニット30の撮影範囲を推定できる。
ここから,視線分析装置2について説明する。図2に図示したように,視線分析装置2は,汎用のコンピュータを利用して実現される装置で,視線分析装置2として用いるコンピュータの記憶装置に記憶するコンピュータプログラムによって実現される手段として,キャリブレーションを行う際に作動するキャリブレーション手段23と,6軸モーションセンサ4の出力から被験者頭部6aの移動距離と回転角を演算する変位演算手段20と,被験者頭部6aの移動距離と回転角から,対象物7に対するカメラユニット30の位置と向きの変動量とカメラユニット30の対象物7からの距離を演算し,カメラユニット30の位置と向きの変動量に合わせて切り抜き範囲を変更する切り抜き範囲変更手段21と,切り抜き範囲変更手段21が変更した後の切り抜き範囲内の画像を対象物画像から切り抜き,切り抜いた画像とシーン画像の対応点を探索する対応点探索手段22と,シーン画像上の注視点座標を対象物画像上の座標値に変換する注視点変換手段24を備える。
一般的に,シーン画像上の注視点座標を対象物画像上の座標値に座標変換する際,シーン画像と対象物画像間の対応点を探索するが,本実施形態に係る視線分析装置2は,被験者頭部6aの移動距離と回転角に応じてシーン画像に対応する切り抜き範囲を自動的に決定し,決定した切り抜き範囲内の画像を対象物画像から切り抜き,対象物画像から切り抜いた画像とシーン画像間における対応点を探索し,この対応点を用いて注視点座標を変換する。
シーン画像が対象物の局所的な部分のみ撮影した画像の場合,シーン画像と対象物画像間の対応点を数多く探索できないことがあるが,シーン画像に対応する画像を対象物画像から切り抜き,切り抜いた画像を用いて対応点を探索することで,このような場合であっても,数多くの対応点を探索できるようになる。また,対象物画像を予め分割する手法とは異なり,対応点を検索する処理は一回で済むため,対応点探索処理を効率化できる。
ここから,視線分析装置2が備える各手段について説明する。視線分析装置2のキャリブレーション手段23は,視線分析装置2のキャリブレーションを実行する際に作動する手段で,視線分析装置2のキャリブレーションを実行するタイミングはアイトラッキング試験の直前である。
視線分析装置2のキャリブレーション手段23は,被験者6が最初に視線を向ける対象物画像上の座標が指定されると,アイトラッキング試験を開始する際の切り抜き範囲の幅c0から切り抜き範囲の位置とサイズを決定する処理と,距離センサ5を用いて計測した被験者6と対象物7間の距離d0を取得する処理を実行する。
被験者6が最初に視線を向ける対象物7上の一点は予め定められる。視線分析装置2のキャリブレーション手段23は,視線分析装置2のディスプレイに対象物画像を表示した後,アイトラッキング試験の試験者に,この点に対応する対象物画像上の点をポインティングデバイスで指定させることで,被験者6が最初に視線を向ける対象物画像上の座標を取得する。なお,切り抜き範囲の幅c0は,予め定めておくこともできるが,キャリブレーションを行う毎に視線分析装置2に入力させるようにすることもできる。
本実施形態において,アイトラッキング試験を開始する際の切り抜き範囲の形状を正方形とし,視線分析装置2のキャリブレーション手段23は,切り抜き範囲の位置とサイズを決定する処理として,対象物画像の左下隅を原点とした時の切り抜き範囲の4隅の座標を演算する。被験者6が最初に視線を向ける対象物画像上の座標を (gx0, gy0)とすると,切り抜き範囲の4隅の座標は数式1で演算することができる。
Figure 2015058246
また,被験者6から対象物7までの距離d0を取得する際,視線分析装置2のキャリブレーション手段23は,アイトラッキング試験の試験者または被験者6に距離センサ5を用いて距離を計測させ,距離センサ5が計測した距離を距離d0として取得する。なお,図1では,距離センサ5と視線分析装置2を接続し,距離センサ5から距離が視線分析装置2に入力されるように構成しているが,アイトラッキング試験の試験者が距離d0を手動で視線分析装置2に入力するように構成することもできる。
視線分析装置2の変位演算手段20は,6軸モーションセンサ4からこれまでに得られている3軸方向の加速度から,始時点からの被験者頭部6aの移動距離を演算し,更に,6軸モーションセンサ4からこれまでに得られた2軸回りの角速度(縦方向と横方向の角速度)から,始時点からの被験者頭部6aの回転角を演算する手段である。なお,始時点としては,アイトラッキング試験を開始した時点と,前回のシーン画像を撮影した時点の2通りが考えられる。
具体的には,視線分析装置2の変位演算手段20は,被験者頭部6aの移動距離として,対象物7の縦方向,横方向および奥行方向それぞれの移動距離を演算する。また,被験者頭部6aの回転角として,縦方向(ここでは,x軸回りの回転になる),横方向(ここでは,y軸回りの回転になる)それぞれの回転角を演算する。被験者頭部6aの移動距離は,時間を積分変数として加速度を2重積分することで演算できる。また,被験者頭部6aの回転角は,時間を積分変数として角速度を1重積分することで演算できる。
視線分析装置2の切り抜き範囲変更手段21は,アイトラッキング装置3からシーン画像と注視点座標が出力されると,この時の被験者頭部6aの移動距離と回転角から,カメラユニット30の位置と向きの変動量とカメラユニット30の対象物7からの距離を演算し,カメラユニット30の位置と向きの変動量とカメラユニット30の対象物7からの距離に基づいて切り抜き範囲を変更する手段である。
具体的には,視線分析装置2の切り抜き範囲変更手段21は,縦方向と横方向に係る被験者頭部6aの回転角並びに縦方向と横方向に係る被験者頭部6aの移動距離を利用して,カメラユニット30の位置と向きの変動量を演算し,カメラユニット30の位置と向きの変動量に基づいて,始時点における切り抜き範囲の中心位置を変更する。更に,視線分析装置2の切り抜き範囲変更手段21は,奥行方向に係る被験者頭部6aの移動距離からカメラユニット30の対象物7からの距離を演算し,カメラユニット30の対象物7からの距離に基づき演算した拡大縮小倍率に基づいて,始時点における切り抜き範囲のサイズを変更する。アイトラッキング試験を開始した時点を始時点とする際,切り抜き範囲変更手段21は,始時点における切り抜き範囲の中心位置とサイズを記憶し,これらを変更することになる。また,前回のシーン画像を撮影した時点を始時点とする際,前回の切り抜き範囲の中心位置とサイズを保持し,これらを変更することになる。
まず,被験者頭部6aの回転による切り抜き範囲の位置の変動について説明する。図5は,被験者頭部6aの回転による切り抜き範囲の位置の変動を説明する図である。被験者頭部6aが縦方向や横方向に回転をすると,被験者頭部6aに装着したアイトラッキング装置3のカメラユニット30の撮影方向も被験者頭部6aを中心として回転する。
図5は,被験者頭部6aが横方向に回転した時の図で,被験者6が移動することなく,被験者頭部6aが横方向に回転すると,被験者頭部6aに装着したアイトラッキング装置3のカメラユニット30の撮影方向は左または右方向(図5では左方向)に回転し,この時の回転角をθwとすると,被験者頭部6aが横方向に回転した時の切り抜き範囲の位置の変動量は数式2で演算することができる。なお,数式2において,係数kは,実際の長さを対象物画像の画素数に変換する係数である。
Figure 2015058246
同様に,被験者6が移動することなく被験者頭部6aが縦方向に回転し,この時の回転角をθhとすると,被験者頭部6aが縦方向に回転した時の切り抜き範囲の位置の変動量は数式3で演算することができる。なお,数式3において,係数kは,実際の長さを対象物画像の画素数に変換する係数である。
Figure 2015058246
次に,被験者頭部6aの移動による切り抜き範囲の位置の変動量について説明する。図6は,被験者頭部6aの移動による切り抜き範囲の位置の変動量を説明する図である。被験者6が,縦方向や横方向に移動すると,被験者6の被験者頭部6aに装着したアイトラッキング装置3のカメラユニット30の位置が変化する。
図6は,被験者頭部6aが横方向に移動した時の図で,被験者6が横方向に移動すると,被験者頭部6aに装着したアイトラッキング装置3のカメラユニット30の位置は左または右方向(図6では左方向)に移動し,この時の移動距離をMxとすると,被験者頭部6aの横方向の移動に伴う切り抜き範囲の位置の変動量は数式4になる。なお,数式4において,係数kは,実際の長さを対象物画像の画素数に変換する係数である。
Figure 2015058246
同様に,被験者6がしゃがむなどして,被験者頭部6aが縦方向に移動すると,被験者頭部6aに装着したアイトラッキング装置3のカメラユニット30の位置は上または下方向に移動し,この時の移動距離をMyとすると,数式4と同様に,被験者頭部6aの縦方向の移動による切り抜き範囲の位置の変動量は数式5になる。なお,数式5において,係数kは,実際の長さを対象物画像の画素数に変換する係数である。
Figure 2015058246
次に,被験者頭部6aの移動による切り抜き範囲のサイズの変動量について説明する。図7は,被験者頭部6aの移動による切り抜き範囲のサイズの変動量を説明する図である。被験者6が奥行方向に移動すると,被験者頭部6aに装着したアイトラッキング装置3のカメラユニット30の画角が一定であるため,カメラユニット30の撮影距離が変化することで,カメラユニット30の撮影範囲は拡大縮小し,この時のカメラユニット30の撮影範囲の拡大縮小倍率は数式6で演算することができる。また,始時点の切り抜き範囲の幅をc0とし,奥行方向の移動距離をMzとすると,切り抜き範囲のサイズの変動量は数式7で演算することができる。
Figure 2015058246
Figure 2015058246
このように,被験者頭部6aの移動距離と回転角から,切り抜き範囲の変動量が演算できるため,切り抜き範囲の変動量に合わせて,始時点の切り抜き範囲の位置とサイズを変更すれば,カメラユニット30の撮影範囲に合わせて切り抜き範囲を変更できる。
図8は,切り抜き範囲の座標を説明する図である。始時点の切り抜き範囲の左上隅の座標を(cL0,cT0),右上隅の座標を(cR0,CT0),左下隅の座標を(cL0,cB0)そして右下隅の座標を(cR0,cB0)とすると,カメラユニット30の撮影範囲に合わせた切り抜き範囲の左上隅の座標(cL,cT),右上隅の座標(cR,CT),左下隅の座標(cL,cB)そして右下隅の座標(cR0,cB0)は数式8で演算することができる。なお,数式8において,係数kは,実際の長さを対象物画像の画素数に変換する係数である。
Figure 2015058246
数式7では,始時点の切り抜き範囲の座標の縦軸の値に,被験者頭部6aの縦方向の回転と縦方向の移動に伴う切り抜き範囲の位置の変動量を加算し,更に,被験者頭部6aの奥行方向の移動に伴う切り抜き範囲のサイズの変動量(ここでは,Δc)を座標の位置に応じて加算または減算している。また,始時点の切り抜き範囲の座標の横軸の値に,被験者頭部6aの横方向の回転と横方向の移動に伴う切り抜き範囲の位置の変動量を加算し,更に,被験者頭部6aの奥行方向の移動に伴う切り抜き範囲のサイズの変動量(ここでは,Δc)を座標の位置に応じて加算または減算している。
ここから,視線分析装置2の動作について説明する。図9は,視線分析装置2の動作を説明する図である。図9に図示したように,視線分析装置2は,アイトラッキング試験中に実施するアイトラッキング試験工程(S1)を実行した後,アイトラッキング試験で得た被験者の視線を分析する視線分析工程(S2)を実行する。
図10は,アイトラッキング試験工程(S1)を説明する図である。アイトラッキング試験工程(S1)において,視線分析装置2は,まず,視線分析装置2のキャリブレーションを行うキャリブレーション工程(S10)を実施する。
図11は,キャリブレーション工程(S10)を説明する図である。キャリブレーション工程(S10)において,視線分析装置2のキャリブレーション手段23は,被験者6が最初に視線を向ける対象物画像上の座標が指定されると(S100),対象物画像上の座標と切り抜き範囲の幅c0から切り抜き範囲の位置とサイズを決定した後(S101),距離センサ5を用いて計測した被験者6と対象物7間の距離を距離d0として取得して(S102),キャリブレーション工程(S10)は終了する。
キャリブレーション工程(10)が終了すると,視線分析装置2は,アイトラッキング試験に係るデータを収集して記憶するデータ収集工程(S11)を実行し,データ収集工程(S11)が終了すると,この手順は終了する。
データ収集工程(S11)において,視線分析装置2は,アイトラッキング装置3からシーン画像と注視点座標が出力されると,シーン画像と注視点座標を時系列的に記憶し,6軸モーションセンサ4から3軸方向の加速度と3軸回りの角速度が出力されると,これらの値を時系列的に記憶する。
次に,視線分析工程について説明する。図12は,視線分析工程(S2)を説明する図で,視線分析装置2は,アイトラッキング試験工程(S1)で時系列で記憶した注視点座標毎に図12で図示した手順を繰り返す。なお,本実施形態において,視線分析工程(S2)において作動する手段は,視線分析装置2の変位演算手段20,切り抜き範囲変更手段21,対応点探索手段22および注視点変換手段24である。
図12で図示した手順において,まず,視線分析装置2の変位演算手段20は,6軸モーションセンサ4からこれまでに得られている3軸方向の加速度から,始時点からの被験者頭部6aの移動距離を対象物7の縦方向,横方向および奥行方向毎に演算し,更に,6軸モーションセンサ4からこれまでに得られた角速度から,始時点からの被験者頭部6aの回転角を縦方向および横方向毎に演算し,被験者頭部6aの移動距離と回転角を時系列データの形式で記憶する(S20)。
次に,視線分析装置2の切り抜き範囲変更手段21が作動し,視線分析装置2の切り抜き範囲変更手段21は,縦方向と横方向に係る被験者頭部6aの回転角並びに縦方向と横方向に係る被験者頭部6aの移動距離を利用して,カメラユニット30の位置と向きの変動量を演算し,カメラユニット30の位置と向きの変動量から切り抜き範囲の位置の変動量を演算し(S21),更に,奥行方向に係る被験者頭部6aの移動距離を用いて,カメラユニット30の対象物7からの距離を演算し,カメラユニット30の対象物7からの距離から演算した拡大縮小倍率に基づいて,切り抜き範囲のサイズの変動量を演算した後(S22),切り抜き範囲の位置とサイズの変動量に基づいて,始時点における切り抜き範囲の位置とサイズを変更する(S23)。
次に,視線分析装置2の対応点探索手段22が作動し,視線分析装置2の対応点探索手段22は,切り抜き範囲決定手段が決定した後の切り抜き範囲内の画像を対象物画像から切り抜き,切り抜いた画像とシーン画像間の対応点を探索する(S24)。
2画像間における対応点の探索には,画像の特徴点と共に,画像の回転やスケールの変化に対してロバスト性を有する特徴量が利用される。特徴点と共にこのような特徴量を算出する手法として、SIFT(Scale Invariant Feature Transform)やSURF(Speed-Up Robust Features)が知られている。例えば,SIFTでは、輝度勾配方向を利用して画像のSIFT特徴点(キーポイント)が抽出され,そのSIFT特徴点の特徴量として,輝度勾配方向から得られた128次元の特徴ベクトルが算出される。
本実施形態において,視線分析装置2の対応点探索手段22は,切り抜き範囲変更手段21が変更した切り抜き範囲を対象物画像から切り抜いた画像とシーン画像間の対応点を探索するため,切り抜いた画像とシーン画像それぞれから特徴点と特徴量を算出することになる。
画像の特徴点を算出する手法としてSIFTを用いる場合,2画像間の特徴点を対応付けする指標は,128次元の特徴ベクトルを用いて演算される特徴点間のユークリッド距離になる。例えば,切り抜いた画像から抽出できたSIFT特徴点をM個,シーン画像から抽出できたSIFT特徴点をN個とすると,切り抜いた画像の一つのSIFT特徴点iに対して,シーン画像から抽出できたN個すべてのSIFT特徴点とのユークリッド距離が演算される。そして,所定の基準(例えば,ユークリッド距離が規定値以下でかつ最も小さい)を満たすシーン画像のSIFT特徴点がSIFT特徴点kの場合,切り抜いた画像のSIFT特徴点iとシーン画像のSIFT特徴点kが一つの対応点として探索される。なお,対応点は,切り抜いた画像の特徴点と,切り抜いた画像の特徴点に対応するシーン画像の特徴点の組で表記される。
次に,視線分析装置2の対応点探索手段22が切り抜いた画像とシーン画像間の対応点を探索すると,視線分析装置2の注視点変換手段24が作動し,視線分析装置2の注視点変換手段24は,シーン画像上の注視点座標を対象物画像上の座標値に変換する注視点変換処理(S25)を実行して,この手順は終了する。
図13は,注視点変換処理(S25)を説明する図である。本実施形態では,対応点の探索に用いる画像は,対象物画像から切り抜いた画像とシーン画像になるため,視線分析装置2は,シーン画像上の注視点座標を対象物画像上の座標値に変換する際,まず,シーン画像上の注視点座標を切り抜いた画像上の座標値に変換した後,切り抜いた画像上の注視点座標を対象物画像上の座標値に変換する。
視線分析装置2の対応点探索手段22が対応点を探索すると,視線分析装置2の注視点変換手段24は,視線分析装置2の対応点探索手段22が探索した対応点を利用して,シーン画像上の注視点座標を切り抜いた画像上の座標値に変換する座標変換行列を演算する(S250)。
この座標変換行列の演算には,3次元空間のある平面から他の平面へ投影するためのホモグラフィ行列を利用することができ,このホモグラフィ行列は,以下に述べる原理により,投影する平面間(ここでは,シーン画像と切り抜いた画像)の4つの対応点から演算することが知られている。
数式9で示したように,ホモグラフィ行列Hは3行3列の行列である。h33はホモグラフィ行列のスケールファクタになるため,h33の値が1になるようにホモグラフィ行列を正規化することを考えると,切り抜いた画像の特徴点(xi,yi)とこれに対応するシーン画像の特徴点(x‘i,y‘i)は,正規化後のホモグラフィ行列H’(h33が1)を用いて数式10のような関係になる。よって,最低限,4つの対応点がわかれば,ホモグラフィ行列において不明な8個の要素(h11からh32)を解くことのできる連立方程式を導出することができる。
Figure 2015058246
Figure 2015058246
なお,対応点の数が多ければ,座標変換行列を演算する際,ランダムに4つの対応点を抽出してホモグラフィ行列を演算する処理を複数繰り返すことで,ホモグラフィ行列の演算精度を高めるRANSAC(RANdom SAmple Consensus)に代表されるロバスト推定手法を利用することができる。
次に,視線分析装置2は,演算した座標変換行列を用いて,シーン画像上の注視点座標を切り抜いた画像上の座標値に変換する(S251)。
次に,視線分析装置2は,切り抜いた画像上の注視点座標を対象物画像上の座標値に変換して(S252),この手順は終了する。対象物画像上における切り抜き範囲の位置とサイズはこの時点でわかっているため,対象物画像上における切り抜き範囲の位置とサイズおよび切り抜いた画像上の注視点座標から,対象物画像上の注視点を演算できる。
1 視線分析システム
2 視線分析装置
20 変位演算手段
21 切り抜き範囲変更手段
22 対応点探索手段
23 キャリブレーション手段
24 注視点変換手段
3 アイトラッキング装置
30 カメラユニット
31 注視点検出部
4 6軸モーションセンサ
5 距離センサ
6 被験者
6a 被験者頭部
7 対象物

Claims (5)

  1. 被験者の視界の中心部を2次元画像化した画像であるシーン画像を所定のフレームレートで撮影するカメラユニットと,前記シーン画像上における注視点座標を検出する注視点検出部を有し,被験者頭部に装着するように構成されたアイトラッキング装置と,所定のサンプリングレートで3軸方向の加速度と3軸回りの角速度を計測するセンサを有し,被験者頭部に装着するように構成された6軸モーションセンサと,前記アイトラッキング装置と前記6軸モーションセンサの出力を用いて被験者の視線を分析する視線分析装置とから少なくとも構成され,
    前記視線分析装置は,
    対象物の全体を撮影した対象物画像を記憶する記憶手段と,
    アイトラッキング試験中に前記6軸モーションセンサから得られた3軸方向の加速度から,始時点から前記シーン画像が撮影された時点までの被験者頭部の移動距離を演算し,更に,アイトラッキング試験中に前記6軸モーションセンサから得られた角速度から,始時点から前記シーン画像が撮影された時点までの被験者頭部の回転角を演算する変位演算手段と,
    始時点から前記シーン画像が撮影された時点までの前記被験者頭部の移動距離と前記被験者頭部の回転角から,前記カメラユニットの位置と向きの変動量と前記カメラユニットの対象物からの距離の変動量を演算し,前記カメラユニットの位置と向きの変動量と前記カメラユニットの前記対象物からの距離の変動量に従い,始時点における切り抜き範囲の位置とサイズを変更する切り抜き範囲変更手段と,
    前記切り抜き範囲変更手段が前記切り抜き範囲を変更すると,前記対象物画像から,前記切り抜き範囲変更手段が変更した後の前記切り抜き範囲内の画像を切り抜き,切り抜いた画像と前記シーン画像間の対応点を探索する対応点探索手段と,
    前記対応点探索手段が前記切り抜いた画像と前記シーン画像間の対応点を探索すると,前記切り抜いた画像と前記シーン画像間の対応点を用いて,前記シーン画像上における前記注視点座標を前記対象物画像上の座標値に変換する行列を算出し,前記シーン画像上における前記注視点座標を前記対象物画像上の座標値に変換する注視点変換手段と,
    を備えている,
    ことを特徴とする視線分析システム。
  2. 前記視線分析装置の前記変位演算手段は,前記被験者頭部の移動距離を前記対象物の縦方向,横方向および奥行方向毎に演算し,更に,前記被験者頭部の回転角を縦方向および横方向毎に演算し,前記切り抜き範囲変更手段は,縦方向と横方向に係る前記被験者頭部の回転角並びに縦方向と横方向に係る前記被験者頭部の移動距離を利用して,前記カメラユニットの位置と向きの変動量を演算し,前記カメラユニットの位置と向きの変動量に基づいて,始時点における前記切り抜き範囲の中心位置を変更し,奥行方向に係る前記被験者頭部の移動距離を用いて前記カメラユニットの対象物からの距離を演算し,前記カメラユニットの対象物からの距離から演算した拡大縮小倍率に基づいて,始時点における前記切り抜き範囲のサイズを変更することを特徴とすることを特徴とする請求項1に記載した視線分析システム。
  3. アイトラッキング試験を開始した時点を始時点とし,前記視線分析装置の前記切り抜き範囲変更手段は,アイトラッキング試験を開始した時点からの前記カメラユニットの位置と向きの変動量と前記カメラユニットの対象物からの距離を演算し,アイトラッキング試験を開始した時点における切り抜き範囲を変更することを特徴とする,請求項1または2に記載した視線分析システム。
  4. 前回の前記シーン画像が撮影された時点を始時点とし,前記視線分析装置の前記切り抜き範囲変更手段は,前回の前記シーン画像が撮影された時点からの前記カメラユニットの位置と向きの変動量と前記カメラユニットの対象物からの距離を演算し,前回の前記シーン画像が撮影された時点の切り抜き範囲を変更することを特徴とする,請求項1または2に記載した視線分析システム。
  5. 請求項1からは請求項4のいずれか一つに記載した視線分析システムを構成する視線分析装置。
JP2013194951A 2013-09-20 2013-09-20 視線分析システム Expired - Fee Related JP6171781B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013194951A JP6171781B2 (ja) 2013-09-20 2013-09-20 視線分析システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013194951A JP6171781B2 (ja) 2013-09-20 2013-09-20 視線分析システム

Publications (2)

Publication Number Publication Date
JP2015058246A true JP2015058246A (ja) 2015-03-30
JP6171781B2 JP6171781B2 (ja) 2017-08-02

Family

ID=52816245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013194951A Expired - Fee Related JP6171781B2 (ja) 2013-09-20 2013-09-20 視線分析システム

Country Status (1)

Country Link
JP (1) JP6171781B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019513519A (ja) * 2016-04-08 2019-05-30 ビビオール アクチェンゲゼルシャフト 視距離を測定する装置及び方法
CN112015265A (zh) * 2019-05-28 2020-12-01 见臻科技股份有限公司 一种眼动追踪装置
CN114578975A (zh) * 2022-05-09 2022-06-03 南昌虚拟现实研究院股份有限公司 眼动追踪设备的注视点质量评测方法及系统
CN116228748A (zh) * 2023-05-04 2023-06-06 天津志听医疗科技有限公司 一种基于眼动追踪的平衡功能分析方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012515579A (ja) * 2009-01-26 2012-07-12 トビー・テクノロジー・アーベー 光学的参照の支援による注視点検出
WO2012126844A1 (en) * 2011-03-18 2012-09-27 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and apparatus for gaze point mapping
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012515579A (ja) * 2009-01-26 2012-07-12 トビー・テクノロジー・アーベー 光学的参照の支援による注視点検出
WO2012126844A1 (en) * 2011-03-18 2012-09-27 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and apparatus for gaze point mapping
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019513519A (ja) * 2016-04-08 2019-05-30 ビビオール アクチェンゲゼルシャフト 視距離を測定する装置及び方法
US11058294B2 (en) 2016-04-08 2021-07-13 Vivior Ag Device and method for measuring viewing distances
CN112015265A (zh) * 2019-05-28 2020-12-01 见臻科技股份有限公司 一种眼动追踪装置
CN112015265B (zh) * 2019-05-28 2024-02-23 见臻科技股份有限公司 一种眼动追踪装置
CN114578975A (zh) * 2022-05-09 2022-06-03 南昌虚拟现实研究院股份有限公司 眼动追踪设备的注视点质量评测方法及系统
CN116228748A (zh) * 2023-05-04 2023-06-06 天津志听医疗科技有限公司 一种基于眼动追踪的平衡功能分析方法和系统
CN116228748B (zh) * 2023-05-04 2023-07-14 天津志听医疗科技有限公司 一种基于眼动追踪的平衡功能分析方法和系统

Also Published As

Publication number Publication date
JP6171781B2 (ja) 2017-08-02

Similar Documents

Publication Publication Date Title
US11285613B2 (en) Robot vision image feature extraction method and apparatus and robot using the same
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
CN109059895B (zh) 一种基于手机摄像头和传感器的多模态室内测距及定位方法
TWI574223B (zh) 運用擴增實境技術之導航系統
JP2017174125A5 (ja)
JP4809291B2 (ja) 計測装置及びプログラム
EP3315068A1 (en) Measurement device and measurement method
WO2021147905A1 (zh) 三维空间内注视行为的识别方法、装置及存储介质
CN102833486A (zh) 一种实时调节视频图像中人脸显示比例的方法及装置
WO2012091144A4 (en) Information processing apparatus and method
JP6171781B2 (ja) 視線分析システム
US20160370865A1 (en) Operation Input Device, Operation Input Method, and Program
WO2015068470A1 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
EP2372652B1 (en) Method for estimating a plane in a range image and range image camera
CN104268880A (zh) 基于特征和区域匹配相结合的深度信息获取方法
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
CN105387847A (zh) 非接触式测量方法、测量设备及其测量系统
JP2010044448A (ja) 画像処理装置および画像処理方法
JP6327441B2 (ja) 注視点変換装置および方法
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
Meers et al. Face recognition using a time-of-flight camera
CN103793919A (zh) 一种二维图像的匹配效果评价方法
JP2009151516A (ja) 情報処理装置および情報処理装置用操作者指示点算出プログラム
KR20210028538A (ko) 가상 현실에서 인사이드 아웃 트래킹을 위한 imu 센서 데이터를 활용하는 가속 비전 기반 포즈 추정 방법
JP7405527B2 (ja) 変化タイミング検知装置、変化タイミング検知方法及び変化タイミング検知プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170619

R150 Certificate of patent or registration of utility model

Ref document number: 6171781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees