JP5689850B2 - 映像解析装置、映像解析方法、および注視点表示システム - Google Patents

映像解析装置、映像解析方法、および注視点表示システム Download PDF

Info

Publication number
JP5689850B2
JP5689850B2 JP2012120124A JP2012120124A JP5689850B2 JP 5689850 B2 JP5689850 B2 JP 5689850B2 JP 2012120124 A JP2012120124 A JP 2012120124A JP 2012120124 A JP2012120124 A JP 2012120124A JP 5689850 B2 JP5689850 B2 JP 5689850B2
Authority
JP
Japan
Prior art keywords
user
movement
head
light source
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012120124A
Other languages
English (en)
Other versions
JP2013244212A5 (ja
JP2013244212A (ja
Inventor
善数 大貫
善数 大貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2012120124A priority Critical patent/JP5689850B2/ja
Priority to US14/400,979 priority patent/US9727130B2/en
Priority to PCT/JP2013/002483 priority patent/WO2013175701A1/ja
Priority to CN201380025947.1A priority patent/CN104302226B/zh
Publication of JP2013244212A publication Critical patent/JP2013244212A/ja
Publication of JP2013244212A5 publication Critical patent/JP2013244212A5/ja
Application granted granted Critical
Publication of JP5689850B2 publication Critical patent/JP5689850B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3209Monitoring remote activity, e.g. over telephone lines or network connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、映像解析装置、映像解析方法、および注視点表示システムに関する。
注視点(Point-Of-Gage;POG)の推定技術は長く研究されており、コンピュータへの情報入力や、ウェブブラウザ上での人の注目対象の観察など、コンピュータとの対話に関わる多くの分野に応用されている。高精度な注視点推定を達成するため、角膜の湾曲中心と瞳孔中心とを光屈折を考慮して正確に計測することが行わることもある。
一方で、注視点の推定技術を例えばゲームのようなアプリケーションに適用する場合、注視点を常に正確に推定することよりも、快適な操作で簡単に注視点制御ができることが求められる。言い換えると、ターゲットに視線を置きつつカーソルをターゲットに正確に合わせられる技術が望まれている。
上述した角膜の湾曲中心と瞳孔中心とを光屈折を考慮した注視点の推定技術は精度は高いが、比較的高い計算能力を必要とするため遅延が生じうる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、計算コストをかけずに注視点を制御することを可能とする技術を提供することにある。
上記課題を解決するために、本発明のある態様は映像解析装置である。この装置は、ユーザの頭部の動きと連動して移動する第1光源と、ユーザが観察対象とする映像提示部に対して相対位置が不変な第2光源とのふたつの光源から、ユーザのいずれか一方の眼球に対して照射された光のそれぞれの反射光を含む領域を、ユーザの頭部の動きと連動して移動する撮像素子が撮像した映像を取得する映像取得部と、前記映像取得部が取得した映像中における前記第1光源の反射光に対する前記第2光源の反射光の相対位置をもとに、ユーザの頭部の動きを推定する頭部移動推定部とを含む。
本発明の別の態様は、映像解析方法である。この方法は、ユーザの頭部の動きと連動して移動する第1光源と、ユーザが観察対象とする映像提示部に対して相対位置が不変な第2光源とのふたつの光源から、ユーザのいずれか一方の眼球に対して照射された光のそれぞれの反射光を含む領域を、ユーザの頭部の動きと連動して移動する撮像素子が撮像した映像を取得し、当該映像中におけるふたつの反射光の相対位置をもとにユーザの頭部の動きを推定することをプロセッサに実行させる。
本発明のさらに別の態様は、注視点表示システムである。このシステムは、ユーザのいずれか一方の眼球を撮像する撮像素子であって、ユーザの頭部の動きと連動して移動する頭部装着型撮像素子と、前記撮像素子が撮像する眼球に光を照射する光源であって、前記撮像素子の動きと連動して移動する第1光源と、ユーザが観察対象とする映像提示部と、前記撮像素子が撮像する眼球に光を照射する光源であって、前記映像提示部に取り付けられた第2光源と、前記撮像素子が撮像する映像中における前記第1光源の反射光に対する前記第2光源の反射光の相対位置をもとに、ユーザの頭部の動きを推定する頭部移動推定部と、前記撮像素子が撮像する映像中における前記第1光源の反射光の絶対位置を、前記撮像素子が撮像する眼球の動きを推定する眼球移動推定部と、推定したユーザの頭部の動きと眼球の動きとをもとに、ユーザの注視位置を取得する注視位置取得部と、前記注視位置取得部が取得した注視位置と対応する前記映像提示部の表示領域における位置に表示させるカーソル画像を生成するカーソル生成部とを含む。
本発明のさらに別の態様は、上記の方法の各ステップをコンピュータに実現させるプログラムである。
このプログラムは、ビデオやオーディオのデコーダ等のハードウェア資源の基本的な制御を行なうために機器に組み込まれるファームウェアの一部として提供されてもよい。このファームウェアは、たとえば、機器内のROM(Read Only Memory)やフラッシュメモリなどの半導体メモリに格納される。このファームウェアを提供するため、あるいはファームウェアの一部をアップデートするために、このプログラムを記録したコンピュータ読み取り可能な記録媒体が提供されてもよく、また、このプログラムが通信回線で伝送されてもよい。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、計算コストをかけずに注視点を制御することを可能とする技術を提供することができる。
実施の形態に係る角膜反射を用いた視線追跡システムの系統図である。 実施の形態に係る手法A−1およびA−2における、画面上の各Pgazeに対応するPcorの座標を示す図である。 実施の形態に係る手法Cにおける、Pcor_scrとPcor_hmの相対位置の座標を示す図である。 実施の形態に係る各手法の性能を比較するための実験システムを示す図である。 実施の形態に係る各フェーズのキャリブレーションプロセスとキャリブレーション結果を示す図である。 被験者が画面上の9つのマーカを追跡する場合の推定注視点を示す図である。 被験者が10個の固定されたマーカにカーソルを1つずつ重ねる場合の軌跡を示す図である。 実施の形態に係る各手法のゲームの使用事例における性能を評価するためのアプリケーションを示す図である。 実施の形態に係る各手法のゲームの使用事例における性能を評価した結果を示す図である。 実施の形態に係る各手法のゲームの使用事例における性能を評価した結果を示す別の図である。 実施の形態に係る注視点表示システムの構成を模式的に示す図である。 実施の形態に係る頭部移動推定部および眼球移動推定部の内部構成を模式的に示す図である。 図13(a)−(d)は、第1光源220の反射光の位置Pcor_hmと第2光源400の反射光の位置Pcor_scrとの位置関係を例示する図である。 実施の形態に係る注視点表示システムにおける処理の流れを示すフローチャートである。
以下本発明を好適な実施の形態をもとに説明する。まず、実施の形態の基礎となる理論を前提技術として述べ、その後、具体的な実施の形態を説明する。
(前提技術)
I.はじめに
注視点の推定技術は長く研究されており、コンピュータへの情報入力や、ウェブブラウザ上での人の注目対象の観察など、コンピュータとの対話に関わる多くの分野に応用されている。ほとんどすべての状況において、最も重大な関心事の1つが高精度な注視点推定である。この目的を達成するため、角膜の湾曲中心と瞳孔中心とを光屈折を考慮して正確に計測することが行わることもある。この方法は非常に精度が高いが、比較的高い計算能力を必要とするため遅延が生じる。ゲームにおいては、入力データの遅延を最小限にすることが最も重要な要件の1つとなるため、このような複雑な画像処理は可能な限り避けるべきである。
一方で、ゲームにおける視線推定の効果的な利用を考えた場合に、まず思いつくのがファーストパーソン・シューティングゲーム(First Person Shooter;FPS)への応用である。完全に正確な視線推定が実現できればすぐに適用可能であるが、現実には多くの要因によって、実際の注視点から簡単にずれがちである。このような状況で、ターゲットに照準を合わせる際に重要なのは、常に正確に注視点を推定することよりも、快適な操作で簡単に注視点制御ができることである。言い換えると、ターゲットに視線を置きつつカーソルをターゲットに正確に合わせられる能力が非常に重要である。ちなみに、ゲーム制作の観点からみると、頭の動きと視線の動きとを別々に表現できると、臨場感をうまく表現できる場合がある。頭の動きと連動して背景画像をパンし、視線の動きでカーソルを移動させるケースがその代表例である。
II.関連手法
注視点の推定においては、角膜表面の光源反射を利用するのが一般的である。図1は、角膜反射を用いた視線追跡システムの系統図である。この図では、2つの赤外線光源が示されており、1つは画面上にあり、もう1つは頭部に搭載されている。多くの研究では、これらのいずれか1つが注視点推定に使用される。図1の画像に見られるように、画面上の光源の光力が比較的強く(3つの光源が2列に並んだ構成)、非常に出力の低い光源が鼻の先端のすぐ近くに置かれている。前者の選択の理由は、2種類の光源の反射を効果的に区別するためで、後者の選択の理由は目への悪影響を考慮しているからである。さらに、より高い解像度で目の画像を得るために、カメラを頭部に搭載している。標準的なUSB2.0カメラを用い、赤外線遮断シートを取り除くことで、効率的に赤外線反射を検出できるように構成されている。
このシステムを使用することで、角膜反射点Pcorの座標から注視点Pgazeへのマッピング変換は以下の式(1)で表せる。
gaze=M・Pcor (1)
式(1)において、Mはマッピング変換行列である。標準的なケースでは、Mはキャリブレーションプロセスで計算される。このプロセスでは、被験者が画面上の特定のいくつかの固定点(通常は4隅と中心)を注視し、それに伴う角膜反射点の座標がそれぞれ計測される。式(1)で表されたこの関係に基づいて、視線推定における頭の動きの影響が、以下に示す2つのシンプルな視線推定技術を用いてシミュレーションされる。このシミュレーションでは、図1のように画面全体に広がって格子状に並べられた9つのマーカを被験者が注視し、さらに被験者は左右上下に10度ずつ頭を回転させる。このシミュレーションで用いられるパラメータを表1に示す。
A.単一光源の角膜反射を用いて注視点を推定するシンプルなマッピング手法(手法A)
視線推定で最もシンプルな手法の1つはPcorをPgazeにマッピングすることであるが、これは頭の動きがマッピングに敏感に影響することがよく知られている。
図2には、手法A−1およびA−2における、画面上の各Pgazeに対応するPcorの座標を示している。ここで、手法A−1は画面の上に設置された光源のPcorを用いたケースで、Pcor_scrで表している。ここで、マッピング変換は以下の式(2)で表すことがでる。
gaze=Mscr・Pcor_scr (2)
式(2)において、Mscrはキャリブレーション済みのマッピング変換行列を表し、Pgazeは推定注視点を表す。手法A−2は、頭部に搭載した光源のPcorを用いたケースで、Pcor_hmで表している。ここで、マッピング変換は以下の式(3)で表すことがでる。
gaze=Mhm・Pcor_hm (3)
式(3)において、Mhmはキャリブレーション済みのマッピング変換行列を表す。
これらの結果が示すのは、注視点は頭の動きに応じて大きく変化するため、正確に注視点を推定するには被験者が頭をしっかりと固定し、目だけを動かすようにしなければならないということである。さらに、手法A−2は手法A−1よりも頭の動きの影響は小さくなるが、特に被験者が頭を右に動かした場合に、点の並びのゆがみがひどくなる。これは、カメラの位置と頭部搭載光源の位置との関係に起因しており、位置調整によって状況は改善されるが、傾向は大きくは変わらない。
B.角膜反射と瞳孔中心の相対位置を用いて注視点を推定するマッピング手法(手法B)
corと瞳孔中心の相対位置の検出とPgazeへのマッピングは、頭の動きに比較的左右されにくいことが知られている。図2には、手法B−1およびB−2における、画面上の各Pgazeに対応するPcorと瞳孔中心の相対位置の座標を示す。ここで、手法B−1は画面上の光源のPcorを用いたケースを示している。ここで、マッピング変換は以下の式(4)で表すことがでる。
gaze=Mscr_pup・(Pcor_scr−Cpup) (4)
式(4)において、Mscr_pupはキャリブレーション済みのマッピング変換行列を表し、Cpupは瞳孔中心の座標を表す。手法B−2は、頭部搭載の光源のPcorを用いたケースを示す。ここで、マッピング変換は以下の式(5)で表すことがでる。
gaze=Mhm_pup・(Pcor_hm−Cpup) (5)
式(5)において、Mhm_pupはキャリブレーション済みのマッピング変換行列である。これらの結果が示すのは、頭の動きの影響が手法A−1およびA−2に比べて小さいため、被験者が頭を動かした場合でも推定注視点は大きく変化しないということである。さらに、検出されるPcor_hm−Cpupのダイナミックレンジは手法A−1およびA−2よりも大きくなる。つまり、手法B−1およびB−2を用いることで、より高い解像度のPgazeを得ることができる。一方で、これらの結果から直接観察はできないが、Cpupを検出するための計算がより複雑になり、特に目の中心で瞳孔が定まらない場合には、信頼度の低い瞳孔認識と光の屈折の影響のために精度があまり保証されない。さらに、カメラが被験者から遠い位置にあると、頭の動きの影響があまり改善されないことが知られている。本明細書には記載しないが、別のシミュレーションによれば、カメラが画面上部に置かれていると、頭の動きの影響は無視できるほど小さくなる。しかし、今回の分析では、このような性能の高さよりも高解像度のカメラ画像が優先される。これは、遠距離カメラを使用すると高度な検出や認識の技術が必要となり、推定性能が低下してしまう恐れがあるからである。
III.提案技術
提案技術は、Pcor_scrとPcor_hmとの間の相対位置が頭の動きを反映するという特性を利用する。さらに、手法Aと組み合わせることで、頭が動く状況での新たな視線推定技術を提示する。重要なポイントは、すべての手順で瞳孔中心の検出が不要だということであり、これにより、必要となる計算能力を比較的低く抑えることができる。
A.2つの光源の角膜反射の位置関係を用いて頭の動きを推定するマッピング手法(手法C)
図3は、手法Cにおける、Pcor_scrとPcor_hmの相対位置の座標を示している。ここで、マッピング変換は以下の式(6)で表すことがでる。
gaze=Mscr_hm・(Pcor_scr−Pcor_hm) (6)
式(6)において、Mscr_hmはキャリブレーション済みのマッピング変換行列を表す。これらの結果が示すのは、Pcor_scr−Pcor_hmは純粋に頭の動きを反映し、視線の動きの影響はほぼ排除されるということである。シミュレーションおよび実験結果によると、頭部搭載カメラ位置と頭部搭載光源位置の関係が若干結果に影響するため、それらの配置に多少の調整を要する。
B.2つの光源の角膜反射の位置関係を用いて注視点を推定するマッピング手法(手法D)
手法Aは、注視点を推定する最もシンプルな技術であるが、頭の動きの影響は著しく大きくなる。一方で、手法Cは純粋に頭の動きを反映し、視線の動きの影響はほぼ排除される。提案技術は、手法Cを用いることで手法Aにおける頭の動きの影響を排除するという考えに基づく。手法A−2を用いると、手法Dは以下の式(7)で表される。
gaze=Mhm・Pcor_hm+Mscr_hm・(Pcor_scr−Pcor_hm) (7)
hm・Pcor_hm=0の場合、式(7)は式(6)と等しくなる。つまり、Mscr_hmをキャリブレーションする際に、Mhm・Pcor_hm=0であれば式(6)が成り立つ。実際、以下の1から4のプロセスにしたがってキャリブレーションを実行すれば、実現は難しくない。
1.Pcor_hmを測定して、Pcor_hmからPgazeへの変換行列を計算することでMhmを推定する。このとき、被験者は頭をしっかりと固定して「キャリブレーション用マーカ」を追跡する。
2.この最初のキャリブレーション結果を用いて、画面上にPgaze(=Mhm・Pcor_hm)を表す「マーカ1」を表示する。
3.画面の中心(=0)に「マーカ2」を表示する。
4.Pcor_scr−Pcor_hmを測定して、Pcor_scr−Pcor_hmからPgazeへの変換行列を計算することで、Mscr_hmを推定する。被験者は「キャリブレーション用マーカ」の追跡において、「マーカ1」が「マーカ2」に重なるよう注視する。
あるいは、画面の中心を注視して頭を動かす際に、Pcor_hmとPcor_scrとを測定する方法もある。これら2つの要素の関係を計算することによって、Mhm −1・Mscr_hmを求めることができる。実際、図3の手法Dは、マッピング変換がシンプルな線形変換であることを条件として、Pcor_hm+Mhm −1・Mscr_hm・(Pcor_scr−Pcor_hm)をシミュレーションすることで求められる。つまり、手法Cの結果を用いることで手法A−2における頭の動きの影響を排除することができ、Pgazeを正確に推定できる。
IV.実験
A.実験システム
図4は、上述した各手法の性能を比較するための実験システムを示す。図4に示す例は初期の試作型であるため、外見は手作りであるが、十分に動作する。図4に示す例では、2台のカメラが左右それぞれの目の前に置かれるが、そのうちの1台だけを評価で使用する。カメラで撮影した画像のサイズはVGA(Video Graphics Array)で、撮影速度はおよそ10fpsである。
B.キャリブレーション
キャリブレーションプロセスは2つのフェーズで構成される。1つ目は手法A−2向けであり、2つ目が手法C向けのものである。図5は、各フェーズのキャリブレーションプロセスとキャリブレーション結果を示す。手法A−2のキャリブレーションプロセスでは、図5の「手法A−2向けプロセス」に示すように、被験者は9つのマーカを連続して注視する。この手順では、被験者は頭を動かさずに視線だけを動かすことが重要なポイントである。測定されたPcor_hmの結果の例を、図5の「手法A−2の結果」に示す。この図において、撮影される原寸カメラ画像が640×480ピクセルという条件で、各軸の単位がカメラのピクセルになる。このステップの後、手法C向けのキャリブレーションプロセスを開始する。マーカの動きは前回の順序と同様であり、さらに中心マーカと手法A−2の推定注視点が手順全体を通じて示される。被験者は、9つのマーカを1つずつ注視し、推定注視点のマーカが中心マーカにそれぞれ重なるよう頭を動かす。測定されたPcor_scr−Pcor_hmの結果の例を、図5の「手法Cの結果」に示す。この結果は、頭の動きが比較的正確に測定できることを示している。さらに、手法Cのキャリブレーションプロセス全体を通じてMhm・Pcor_hm=0が維持されるため、式(7)で表されるように、手法A−2と手法Cの線形結合によって手法Dが実現できる。
C.注視点推定の比較
ここで提示している評価は、注視点推定の正確性に焦点を当てるのではなく、ターゲットに容易に到達できることを重視しているため、本実施の形態に係るアルゴリズムは正確な視線推定法を実行するよう調整されてはいない。マッピングアルゴリズムはシンプルな線形変換で、最初のプロセスにおけるガウスフィルタ以外に高度なフィルタは使用しない。このような状況において、図6は被験者が画面上の9つのマーカを追跡する場合の推定注視点を示している。この実験では、被験者は頭を動かすことを制限されていないため、頭の動きの影響が直接観察される。この図において、パネルの原寸が1920×1080で、実験アプリケーションのウィンドウサイズが1300×940(幅20cm高さ14cmのサイズに相当)という条件で、各軸の単位がカメラのピクセルとなる。結果、手法B−2および手法Dでは、頭が動いた場合でも推定注視点は9つのマーカの点の周りに集まっている。
D.カーソル移動手段としての比較
注視点推定が正確にできるとカーソル移動が素早く行えるようになるが、ターゲットに到達する能力も重要である。図7は、被験者が10個の固定されたマーカにカーソルを1つずつ重ねる場合の軌跡を示している。手法A−2のケースでは、まずカーソルが素早く動き、その後、頭の動きによってカーソルを置く手順が見られる。マーカを通り過ぎてしまうこともあるが、カーソルは確実にマーカに到達する。実際、手法A−2では頭の動きの影響が明確であるため、被験者にかかるストレスは大きくない。手法B−2のケースでは、カーソルが非常に迅速に動き、ほとんどの場合でカーソルを置く手順を必要としない。しかし、カーソルがマーカを外れた場合、被験者はカーソルをマーカに向けて少しも動かすことができないストレスを感じることになる。手法Cのケースでは、状況はかなり異なる。カーソルは頭の動きによってのみ制御されるため、カーソルは比較的ゆっくり近づく。しかし、確実にマーカに到達する。手法Dのケースでは、カーソルが完璧に動き、マーカに重ねられる。実際、手法Dでは頭の動きの影響が明確で直感的であるため、被験者は操作しやすい。
E.ゲーム利用での性能比較
各手法の、ゲームの使用事例における性能を評価するため、図8に示すゲームのようなアプリケーションを用いる。アプリケーションAでは、10個のマーカが連続的に表示され、これらは動かない。被験者は推定注視点を表すカーソルを制御して、マーカに重ねる。重なるまでの時間がカウントされ、2秒が経過するとマーカは消え、別のマーカが現れる。同時に複数のマーカを表示することはしないため、被験者は1つのマーカに集中し、これを逐次処理する。マーカは、半径40ピクセル(6mm)の円で示され、推定注視点を表すカーソルは半径20ピクセル(3mm)の円で示される。それぞれの円の端が接触する、つまりこれらの中心間の距離が60ピクセル(9mm)未満になると、重なったと認識する。アプリケーションBでは、マーカの外見条件はアプリケーションAと同様であるが、さらにマーカは秒速約200ピクセル(30mm/秒)で動く。マーカの位置と方向はランダムに決められ、図8はその一例を示す。10個すべてのマーカが消えるまでにかかった時間を測定、評価する。
24歳女性、35歳男性、43歳女性、45歳男性の4人の被験者が実験に参加した。43歳女性および45歳男性はこのシステムに精通しており、残り2人の被験者は初めてこのシステムを使用した。全員の被験者が、短時間自由に試した後に各アプリケーションを5回実行した。その結果を図9と図10に示す。記載のように、マーカが消えるまで少なくとも2秒かかっているため、1回の試行につき少なくとも20秒かかることになる。
アプリケーションAの結果から、すべての手法の結果が100秒未満であり、特に悪い記録ではないことがわかる。平均スコアが良いのは手法B−2および手法Dであり、スコアが最高であったのは手法B−2であった。スコアのばらつきが最も小さいのは手法Cだが、手法B−2および手法Dもそれほど悪くはなかった。最も悪いスコアは手法A−2であった。一方、アプリケーションBの結果では、手法A−2および手法B−2でとりわけ悪いスコアが見られた。平均スコアが最も良いのは手法Dで、わずかな差で手法B−2が続いた。スコアのばらつきが最も小さいのは手法Cで、最も大きいのは手法A−2であった。
E.考察
手法A−2では、被験者は頭を固定して目だけを動かすようにする。さらに、手法Aではカーソルが頭の動きと反対の方向に移動するという特性があるため、カーソルを右に動かすには、被験者は頭を左に動かす。カーソルがマーカから外れると、被験者はマーカと反対の方向に頭を動かすことになるが、動くマーカを追跡する際に被験者は混乱しがちである。
手法B−2では正確に視線推定ができ、頭の動きにも対応できる。その一方で、手法B−2では、いったんカーソルがマーカから外れると、頭の動きを使って誤りを修正するのは比較的困難になるという負の特性がある。これが、手法B−2においてときおり特にスコアが悪くなる理由である。これは手法A−2ほど著しいわけではないが、手法B−2も頭の動きと反対の方向にカーソルが動くという特性がある。しかし、その影響はかなり小さいため、一部の被験者はその影響を明確に感じることができず、カーソルを近づけることができなかった。そのような状況で、視線を少しマーカから離すことで回避しようとする被験者もいた。
手法Cは視線の動きに影響されないため、被験者は頭の動きによってのみカーソルを制御しなければならない。断続的眼球運動によって素早くカーソルを移動させることができないため、手法Cはカーソルをマーカに近づけるのに時間がかかるという弱点がある。しかしながら、全員の被験者が、明確な頭の動きによって確実にマーカに到達できた。結果、カーソルへ近づくのに時間はかかるが、安定したスコアが得られた。
手法Dは、手法Cにおける頭の動きの影響と手法A−2における視線の動きの影響という両方の特性がある。被験者が固定点を注視して頭を動かすと、カーソルは頭の動きと同じ方向にゆっくりと動く。視線推定のレベルは手法B−2よりも若干低下するが、カーソルがマーカから外れた場合であっても、被験者は直感的な頭の動きで容易に修正することができる。これが、手法Dで特に悪いスコアが見られなかった理由である。結論として、手法Dは、断続的眼球運動と頭の動きによる直感的な操作のバランスがうまく保たれているといえる。
V.結論
以上、視線推定のゲームへの応用について考察し、ゲームのようなアプリケーションを用いることで2つの従来手法と2つの提案手法の性能比較を記載した。そして、カーソルを確実にターゲットに移動させることに焦点を当て、注視点制御の性能を提示した。この結果、提案手法は、瞳孔中心を計算することなく従来手法と同様の性能を実現でき、計算コストをかけず、ストレスのない直感的操作で注視点制御が得られた。
(具体例)
実施の形態
図11は、実施の形態に係る注視点表示システム100の全体構成を模式的に示す図である。実施の形態に係る注視点表示システム100は、ヘッドセット200、映像解析装置300、映像提示部500、および映像提示部500に取り付けられた第2光源400を含む。
ヘッドセット200は、ユーザの頭部に装着して使用できるように構成されており、ユーザの右目あるいは左目のいずれか一方の眼球を含む映像を撮像する撮像素子210と、撮像素子210が撮像する方の眼球に赤外光を照射する第1光源220とを備える。第1光源220は、上述した前提技術[II]の頭部に搭載された赤外光源に対応し、撮像素子210は赤外線遮断シートを取り除いた標準的なUSB2.0カメラに対応する。ヘッドセット200はユーザの頭部に装着されているため、撮像素子210と第1光源220とはともに、ユーザの頭部の動きと連動して移動する。
第1光源220が赤外光を照射する方の目には、ユーザが観察対象とする映像提示部500に対して相対位置が不変な第2光源400からも赤外光が照射される。映像提示部500は、上述した前提技術[II]における画面に対応し、例えば液晶モニタ等で実現される。第2光源400は上述の画面上の光源に対応し、3つの光源を2列に並べて比較的強い光を照射するように構成されている。撮像素子210は、ユーザの眼球上で反射する第1光源220および第2光源400それぞれの反射光を含む領域を流し撮りする。撮像素子210が撮像する映像の一例は、図1に示されている。
映像解析装置300は、映像取得部310、頭部移動推定部320、眼球移動推定部330、注視位置取得部340、およびカーソル生成部350を含む。
映像取得部310は、撮像素子210が撮像する、ユーザの眼球上で反射する第1光源220および第2光源400それぞれの反射光を含む領域の映像を取得する。頭部移動推定部320は、映像取得部310が取得した映像中における第1光源220の反射光に対する第2光源400の反射光の相対位置をもとに、ユーザの頭部の動きを推定する。
ここで、ユーザの眼球上で反射する第1光源220の反射光の位置は上述の前提技術におけるPcor_hmであり、ユーザの眼球上で反射する第2光源400の反射光の位置は上述のPcor_scrである。映像中における第1光源220の反射光の位置Pcor_hmは、撮像素子210が撮像する映像における位置座標で表すことができる。前提技術[IV]で説明したように、撮像素子210が撮像する映像はVGAサイズであり、640ピクセル×480ピクセルの解像度である。そのため、例えば第1光源220の反射光が映像の中央に存在する場合、その位置座標は(320,240)となる。頭部移動推定部320は、第1光源220の反射光の位置座標を始点とし、第2光源400の反射光を終点とする位置ベクトルの向きおよび大きさから、ユーザの頭部の動きの推定量を求める。
眼球移動推定部330は、撮像素子210が撮像する映像中における第1光源220の反射光の絶対位置Pcor_hmをもとに、撮像素子210が撮像する眼球の動きを推定する。注視位置取得部340は、頭部移動推定部320が推定したユーザの頭部の動きと、眼球移動推定部330が推定した眼球の動きとをもとに、映像提示部500の表示領域におけるユーザの注視位置Pgazeの推定値を取得する。
図12は、実施の形態に係る頭部移動推定部320および眼球移動推定部330の内部構成を模式的に示す図である。眼球移動推定部330は、第1位置座標取得部332と第1変換部334とを含む。また頭部移動推定部320は、第2位置座標取得部322、位置ベクトル取得部324、および第2変換部326を含む。
眼球移動推定部330中の第1位置座標取得部332は、撮像素子210が撮像する映像中における第1光源220の反射光の位置座標Pcor_hmを取得する。第1変換部334は、第1位置座標取得部332が取得した第1光源220の反射光の位置座標Pcor_hmに第1変換行列Mhmを積算して、ユーザが観察対象とする映像提示部500の表示領域における位置座標に変換する。これは上述の式(3)に基づく。
頭部移動推定部320中の第2位置座標取得部322は、撮像素子210が撮像する映像中における第2光源400の反射光の位置座標Pcor_scrを取得する。位置ベクトル取得部324は、第1位置座標取得部332が取得した第1光源220の反射光の位置座標Pcor_hmを始点とし、第2位置座標取得部322が取得した第2光源400の反射光の位置座標Pcor_scrを終点とする位置ベクトルVhm_scr(=Pcor_scr−Pcor_hm)を取得する。第2変換部326は、第2変換行列Mscr_hmを用いて、位置ベクトル取得部324が取得した位置ベクトルVhm_scrを、ユーザが観察対象とする映像提示部500の表示領域における位置座標に変換する。これは上述の式(6)に基づく。
以下、眼球移動推定部330によるユーザの眼球の動きの推定と、頭部移動推定部320によるユーザの頭部の動きの推定との原理について、図13を参照して具体的に説明する。
図13は、第1光源220の反射光の位置座標Pcor_hmと第2光源400の反射光の位置座標Pcor_scrとの位置関係を例示する図である。図13(a)−(d)において、符号602は第1光源220の反射光の位置Pcor_hmを示し、符号604は、第2光源400の反射光の位置Pcor_scrを示す。また符号606は、瞳孔中心の位置Cpupを示す。
図13(a)は、ユーザの頭部は正面を向いており、かつユーザの眼球が目の中央付近に存在する場合における、撮像素子210が撮像する映像の一例を模式的に示す図である。一方、図13(b)は、ユーザが眼球が目の中央付近に位置するように保ったまま、ユーザの頭部を動かした場合における、撮像素子210が撮像する映像の一例を模式的に示す図である。
上述したように、撮像素子210と第1光源220とはともにヘッドセット200に備えられており、これらはユーザの頭部の動きと連動して移動する。このため、ユーザが眼球の位置を変えずに頭部を動かした場合、撮像素子210、第1光源220、およびユーザの眼球の相対的な位置関係は変化しない。したがって、図13(a)および図13(b)に示すように、ユーザが頭部を動かしたとしても眼球の位置を変えなければ、撮像素子210が撮像する映像中における第1光源220の反射光の位置Pcor_hmの位置座標はほとんど変化しない。言い換えると、撮像素子210が撮像する映像中における第1光源220の反射光の位置Pcor_hmの位置座標は、ユーザが頭部の動きによらず眼球の位置によって定まる。
これに対し、第2光源400はユーザの頭部に接続していない。したがって、ユーザが頭部を動かすと、ユーザが眼球の位置を変えない場合であっても、第2光源400とユーザの眼球との位置関係が変化する。したがって、図13(a)および図13(b)に示すように、ユーザが眼球の位置を変えない場合であっても頭部を動かすことにより、撮像素子210が撮像する映像中における第2光源400の反射光の位置Pcor_scrの位置座標が変化する。
図13(c)は、ユーザの頭部は正面を向けたまま、眼球を目の中央付近から端に移動させた場合における、撮像素子210が撮像する映像の一例を模式的に示す図である。撮像素子210および第1光源220は、ユーザの頭部の動きとは連動して移動するものの、ユーザの眼球の動きには連動しない。したがって、図13(a)および図13(c)に示すように、ユーザが頭部を動かさない場合であっても、眼球を動かすことにより、撮像素子210が撮像する映像中における第1光源220の反射光の位置Pcor_hmおよび第2光源400の反射光の位置Pcor_scrの位置座標が変化する。一方で、人間の眼球がほぼ球形状であること等の理由により、第1光源220の反射光の位置Pcor_hmおよび第2光源400の反射光の位置Pcor_scrの相対的な位置関係はほとんど変化しない。言い換えると、第1光源220の反射光の位置Pcor_hmおよび第2光源400の反射光の位置Pcor_scrの相対的な位置関係は、ユーザの眼球の動きによらず頭部の位置によって定まる。
本発明の実施の形態は、撮像素子210が撮像する映像中における第1光源220の反射光の位置Pcor_hmの位置座標がユーザが頭部の動きによらず眼球の位置によって定まる第1の事実と、第1光源220の反射光の位置Pcor_hmおよび第2光源400の反射光の位置Pcor_scrの相対的な位置関係がユーザの眼球の動きによらず頭部の位置によって定まる第2の事実とを利用して、ユーザの注視点Pgazeを推定する。上述した前提技術における手法A−2は第1の事実を利用する手法であり、手法Cは第2の事実を利用する手法である。
図13(d)は、ユーザが図13(b)に示した位置にまで頭部を動かし、かつ図13(c)に示した位置まで眼球を動かした場合における、撮像素子210が撮像する映像の一例を模式的に示す図である。上述した第1の事実と第2の事実とは互いに独立な事象である。したがって、図13(d)に示すように、第1光源220の反射光の位置Pcor_hmの位置は図13(b)に示す位置とほぼ同じであり、第1光源220の反射光の位置Pcor_hmおよび第2光源400の反射光の位置Pcor_scrの相対的な位置関係は図13(c)に示す位置とほぼ同じである。
以上より、眼球移動推定部330が第1光源220の反射光の位置Pcor_hmの位置座標からユーザの眼球の動きを推定し、頭部移動推定部320が第1光源220の反射光の位置Pcor_hmおよび第2光源400の反射光の位置Pcor_scrの相対的な位置関係からユーザの頭部の動きを推定することにより、ユーザの頭部の動きと眼球の動きとを独立して推定することが可能となる。また、ユーザの頭部の動きと眼球の動きとを合成することにより、ユーザの視線方向を推定することもできる。
ここで、第1変換部334が用いる第1変換行列Mhmは、ユーザが頭部の動きを固定して眼球を動かすことによって映像提示部500の表示領域中の注視位置Pgazeを移動させたときの、第1光源220の反射光の位置Pcor_hmとその注視位置Pgazeの表示領域における絶対位置座標とをもとに予め算出された2行2列の大きさの行列である。
具体的に、第1光源220の反射光の位置Pcor_hmの撮像素子210が撮像する映像における位置座標を(x,y)とし、そのときの注視位置Pgazeの映像提示部500の表示領域における位置座標を(X,Y)とする。ユーザが頭部の動きを固定する場合、注視位置Pgazeの表示領域における位置座標(X,Y)は、第1光源220の反射光の位置Pcor_hmに応じて定まるから、(X,Y=Mhm・(x,yとなるMhmを定めればよい。すなわち、行列Mhmは撮像素子210が撮像する映像における位置座標を映像提示部500の表示領域における位置座標に写像する行列である。Mhmは上述した前提技術の手法A−2のキャリブレーションプロセスによって求めることができる。なお記号「T」はベクトルの転置を表す。
第2変換部326が用いる第2変換行列Mscr_hmは、ユーザが眼球の動きを固定して頭部を動かすことによって映像提示部500の表示領域中の注視位置Pgazeを移動させたときの、位置ベクトル取得部324が取得した位置ベクトルVhm_scr(=Pcor_scr−Pcor_hm)と、表示領域における注視位置Pgazeの絶対位置座標とをもとに予め算出された行列である。
第2変換行列Mscr_hmの具体的な算出手段は、第1変換行列Mhmの算出手段と同様である。すなわち、撮像素子210が撮像する映像における第1光源220の反射光の位置Pcor_hmの位置座標を(x,y)、第2光源400の反射光の位置座標Pcor_scrの位置座標を(x,y)、そのときの注視位置Pgazeの映像提示部500の表示領域における位置座標を(X,Y)とする。ユーザが眼球の動きを固定する場合、注視位置Pgazeの表示領域における位置座標(X,Y)は、第1光源220の反射光の位置Pcor_hmに対する第2光源400の反射光の位置Pcor_scrの相対的な位置関係に応じて定まるから、(X,Y=Mscr_hm・(x−x,y−yとなるMscr_hmを定めればよい。すなわち、行列Mscr_hmも撮像素子210が撮像する映像における位置座標を映像提示部500の表示領域における位置座標に写像する行列である。行列Mscr_hmは上述した前提技術の手法Cのキャリブレーションプロセスによって求めることができる。
図11の説明に戻り、映像解析装置300中の注視位置取得部340は、第1変換部334が変換して取得した位置座標(X,Y)と、第2変換部が変換して取得した位置座標(X,Y)とを加算して、映像提示部500の表示領域におけるユーザの注視位置Pgazeの位置座標を確定する。具体的には、注視位置取得部340は上述した式(7)に基づいてMhm・Pcor_hm+Mscr_hm・(Pcor_scr−Pcor_hm)を計算し、注視位置Pgazeの位置座標を取得する。カーソル生成部350は、注視位置取得部340が取得した表示領域におけるユーザの注視位置Pgazeに基づいて、映像提示部500に表示させるカーソルの位置を制御する。
図14は、実施の形態に係る注視点表示システム100における注視点表示処理の流れを示すフローチャートである。本フローチャートにおける処理は、例えば映像解析装置300の電源が投入されたときに開始する。
ヘッドセット200に備えられた撮像素子210は、第1光源220および第2光源400の反射光を含む、ヘッドセット200を装着したユーザの目を撮像する(S2)。第1位置座標取得部332は、第1光源220の反射光の位置座標Pcor_hmを取得する(S4)。第1変換部334は、第1変換行列Mhmを用いて、第1位置座標取得部332が取得した第1光源220の反射光の位置座標Pcor_hmに起因する表示領域における位置座標を取得する(S6)。
第2位置座標取得部322は、第2光源400の反射光の位置座標Pcor_scrを取得する(S8)。位置ベクトル取得部324は、第1位置座標取得部332が取得した第1光源220の反射光の位置座標Pcor_hmを始点とし、第2位置座標取得部322が取得した第2光源400の反射光の位置座標Pcor_scrを終点とする位置ベクトルVhm_scrを取得する(S10)。
第2変換部326は、第2変換行列Mscr_hmを用いて、位置ベクトル取得部324が取得した位置ベクトルVhm_scrをユーザの頭部移動に起因する位置座標を取得する(S12)。注視位置取得部340は、第1変換部334が取得した位置座標と第2変換部326が取得した位置座標とを加算して、映像提示部500の表示領域におけるユーザの注視点Pgazeの位置を算出する(S14)。カーソル生成部350は、注視位置取得部340が取得した表示領域におけるユーザの注視位置Pgazeに基づいて、映像提示部500に表示させるカーソルの位置を移動する(S16)。カーソル生成部350が映像提示部500に表示させるカーソルの位置を移動すると、本フローチャートにおける処理は終了する。
以上の構成による注視点表示システム100の利用シーンは以下のとおりである。ユーザは、実施の形態に係るヘッドセット200を装着して映像提示部500の表示領域を眺める。ヘッドセット200に備えられた撮像素子210は、ユーザの眼球を含む領域を撮像する。映像解析装置300は、ユーザの頭部の動きに連動して移動する第1光源220とから照射された赤外光と、映像提示部500に取り付けられた第2光源400から照射された赤外光とのふたつの反射光の位置関係から、映像提示部500の表示領域におけるユーザの注視点の位置を推定し、その位置にカーソルを移動する。
以上述べたように、実施の形態に係る注視点表示システム100によれば、計算コストをかけずに注視点を制御することを可能とする技術を提供することができる。
特に、本発明の実施の形態に係る注視点表示システム100によれば、ユーザの注視点の推定にユーザの瞳孔中心の位置を利用しないため、瞳孔中心位置を求める演算を省略することができる。また、ユーザの頭部の動きと眼球の動きとを分離して推定することができるため、それらの情報を独立して利用することができる。これにより、例えば頭の動きと連動して背景画像をパンしつつ、視線の動きでカーソルを移動させるといった操作を実現することができる。また、頭部の動きや位置と、眼球の動きや位置とが特定の関係となったときに、特定の処理を実現することもできる。より具体的には、例えば頭部と眼球とが同じ方向に動くときは、その方向に画面をスクロールするといった処理を実現できる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
(第1の変形例)
上記では、第2光源400は映像提示部500に取り付けられていることを前提に説明したが、第2光源400は必ずしも映像提示部500の近くに設置する必要はない。第2光源400はユーザの頭部の動きとは独立して、ユーザの眼球に赤外光線を照射可能な位置に設置されていればよい。一方で、映像提示部500はユーザの観察対象である。したがって第2光源400の照射光をユーザの目に照射しやすくなるために、第2光源400と映像提示部500との距離は近いほど好ましい。
(第2の変形例)
瞳孔中心Cpupを求めるための計算コストを許容する場合、上述の前提技術における手法B−2と手法Cとを組み合わせて注視点Pgazeを推定してもよい。この場合、マッピング変換は以下の式(8)で表すことがでる。
gaze=Mhm_pup・(Pcor_hm−Cpup)+Mscr_mh・(Pcor_scr−Pcor_hm) (8)
これにより、手法B−2の特徴と手法Cの特徴とのふたつの特徴を合わせ持つ注視点制御が実現できる。
(第3の変形例)
上述した手法をさらに一般化して、第1光源220の反射光の位置Pcor_hmと、第2光源400の反射光の位置Pcor_scrと、瞳孔中心Cpupとの3点から注視点Pgazeを推定する問題に帰着することもできる。この場合、マッピング変換は以下の式(9)で表すことがでる。
gaze=M・Pcor_hm+M・Pcor_scr+M・Cpup (9)
ここでM,M,Mは、それぞれ一般化された変換行列である。M,M,Mのうちいずれか1つあるいは2つがゼロ行列となる場合もある。
これにより、例えば計算リソースに余裕があるときはCpupを注視点推定に利用し、計算コストを下げたいときはCpupを利用せずに注視点を推定するといった柔軟な注視点推定を実現することができる。
100 注視点表示システム、 200 ヘッドセット、 210 撮像素子、 220 第1光源、 300 映像解析装置、 310 映像取得部、 320 頭部移動推定部、 322 第2位置座標取得部、 324 位置ベクトル取得部、 326 第2変換部、 330 眼球移動推定部、 332 第1位置座標取得部、 334 第1変換部、 340 注視位置取得部、 350 カーソル生成部、 400 第2光源、 500 映像提示部。

Claims (9)

  1. ユーザの頭部の動きと連動して移動する第1光源と、ユーザが観察対象とする映像提示部に対して相対位置が不変な第2光源とのふたつの光源から、ユーザのいずれか一方の眼球に対して照射された光のそれぞれの反射光を含む領域を、ユーザの頭部の動きと連動して移動する撮像素子が撮像した映像を取得する映像取得部と、
    前記映像取得部が取得した映像中における前記第1光源の反射光に対する前記第2光源の反射光の相対位置をもとに、ユーザの頭部の動きを推定する頭部移動推定部とを含むことを特徴とする映像解析装置。
  2. 前記撮像素子が撮像する映像中における前記第1光源の反射光の絶対位置をもとに、前記撮像素子が撮像する眼球の動きを推定する眼球移動推定部と、
    推定したユーザの頭部の動きと眼球の動きとをもとに、ユーザの注視位置を取得する注視位置取得部とをさらに含むことを特徴とする請求項1に記載の映像解析装置。
  3. 前記眼球移動推定部は、
    前記撮像素子が撮像する映像中における前記第1光源の反射光の位置座標を取得する第1位置座標取得部と、
    前記第1位置座標取得部が取得した位置座標に所定の第1変換行列を積算してユーザが観察対象とする映像提示部の表示領域における位置座標に変換する第1変換部とを含み、
    前記第1変換部が用いる第1変換行列は、ユーザが頭部の動きを固定して眼球を動かすことによって映像提示部の表示領域中の注視位置を移動させたときの、前記第1光源の反射光の位置座標と当該注視位置の表示領域における絶対位置座標とをもとに予め算出された行列であることを特徴とする請求項2に記載の映像解析装置。
  4. 前記頭部移動推定部は、
    前記撮像素子が撮像する映像中における前記第2光源の反射光の位置座標を取得する第2位置座標取得部と、
    前記第1位置座標取得部が取得した位置座標を始点とし、前記第2位置座標取得部が取得した位置座標を終点とする位置ベクトルを取得する位置ベクトル取得部と、
    前記位置ベクトル取得部が取得した位置ベクトルを、ユーザが観察対象とする映像提示部の表示領域における位置座標に変換する第2変換部とを含み、
    前記第2変換部は、ユーザが眼球の動きを固定して頭部を動かすことによって映像提示部の表示領域中の注視位置を移動させたときの前記位置ベクトル取得部が取得した位置ベクトルと、当該注視位置の表示領域における絶対位置座標とをもとに予め算出された第2変換行列を用いて前記位置ベクトルを映像提示部の表示領域における位置座標に変換することを特徴とする請求項3に記載の映像解析装置。
  5. 前記注視位置取得部は、前記第1変換部が変換した位置座標と前記第2変換部が変換した位置座標とを加算して、ユーザの注視位置を取得することを特徴とする請求項4に記載の映像解析装置。
  6. 前記第2光源は、ユーザが観察対象とする映像提示部に取り付けられていることを特徴とする請求項1から5のいずれかに記載の映像解析装置。
  7. ユーザの頭部の動きと連動して移動する第1光源と、ユーザが観察対象とする映像提示部に対して相対位置が不変な第2光源とのふたつの光源から、ユーザのいずれか一方の眼球に対して照射された光のそれぞれの反射光を含む領域を、ユーザの頭部の動きと連動して移動する撮像素子が撮像した映像を取得し、当該映像中におけるふたつの反射光の相対位置をもとにユーザの頭部の動きを推定することをプロセッサに実行させることを特徴とする映像解析方法。
  8. ユーザの頭部の動きと連動して移動する第1光源とユーザが観察対象とする映像提示部に対して相対位置が不変な第2光源とのふたつの光源から、ユーザのいずれか一方の眼球に対して照射された光のそれぞれの反射光を含む領域を、ユーザの頭部の動きと連動して移動する撮像素子が撮像した映像を取得する機能と、
    取得した映像中におけるふたつの反射光の相対位置を、ユーザの頭部の動きベクトルの推定値に変換する機能とをコンピュータに実現させることを特徴とするプログラム。
  9. ユーザのいずれか一方の眼球を撮像する撮像素子であって、ユーザの頭部の動きと連動して移動する頭部装着型撮像素子と、
    前記撮像素子が撮像する眼球に光を照射する光源であって、前記撮像素子の動きと連動して移動する第1光源と、
    ユーザが観察対象とする映像提示部と、
    前記撮像素子が撮像する眼球に光を照射する光源であって、前記映像提示部に取り付けられた第2光源と、
    前記撮像素子が撮像する映像中における前記第1光源の反射光に対する前記第2光源の反射光の相対位置をもとに、ユーザの頭部の動きを推定する頭部移動推定部と、
    前記撮像素子が撮像する映像中における前記第1光源の反射光の絶対位置をもとに、前記撮像素子が撮像する眼球の動きを推定する眼球移動推定部と、
    推定したユーザの頭部の動きと眼球の動きとをもとに、ユーザの注視位置を取得する注視位置取得部と、
    前記注視位置取得部が取得した注視位置と対応する前記映像提示部の表示領域における位置に表示させるカーソル画像を生成するカーソル生成部とを含むことを特徴とする注視点表示システム。
JP2012120124A 2012-05-25 2012-05-25 映像解析装置、映像解析方法、および注視点表示システム Active JP5689850B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012120124A JP5689850B2 (ja) 2012-05-25 2012-05-25 映像解析装置、映像解析方法、および注視点表示システム
US14/400,979 US9727130B2 (en) 2012-05-25 2013-04-11 Video analysis device, video analysis method, and point-of-gaze display system
PCT/JP2013/002483 WO2013175701A1 (ja) 2012-05-25 2013-04-11 映像解析装置、映像解析方法、および注視点表示システム
CN201380025947.1A CN104302226B (zh) 2012-05-25 2013-04-11 视频分析设备、视频分析方法和注视点显示系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012120124A JP5689850B2 (ja) 2012-05-25 2012-05-25 映像解析装置、映像解析方法、および注視点表示システム

Publications (3)

Publication Number Publication Date
JP2013244212A JP2013244212A (ja) 2013-12-09
JP2013244212A5 JP2013244212A5 (ja) 2014-07-03
JP5689850B2 true JP5689850B2 (ja) 2015-03-25

Family

ID=49623416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012120124A Active JP5689850B2 (ja) 2012-05-25 2012-05-25 映像解析装置、映像解析方法、および注視点表示システム

Country Status (4)

Country Link
US (1) US9727130B2 (ja)
JP (1) JP5689850B2 (ja)
CN (1) CN104302226B (ja)
WO (1) WO2013175701A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2924540B1 (de) * 2014-03-27 2019-04-24 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und System zum Betreiben einer Anzeigevorrichtung
KR102284821B1 (ko) * 2014-12-18 2021-08-03 페이스북, 인크. 가상 현실 환경에서의 내비게이션을 위한 방법, 시스템 및 장치
US10354136B2 (en) 2015-03-03 2019-07-16 Apple Inc. Head mounted eye tracking device and method for providing drift free eye tracking through a lens system
US10565446B2 (en) 2015-09-24 2020-02-18 Tobii Ab Eye-tracking enabled wearable devices
CN108604116A (zh) * 2015-09-24 2018-09-28 托比股份公司 能够进行眼睛追踪的可穿戴设备
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
JP2017211891A (ja) 2016-05-27 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
CN107357429B (zh) * 2017-07-10 2020-04-07 京东方科技集团股份有限公司 用于确定视线的方法、设备和计算机可读存储介质
TWI704501B (zh) * 2018-08-09 2020-09-11 宏碁股份有限公司 可由頭部操控的電子裝置與其操作方法
US11353952B2 (en) 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
CN110051319A (zh) * 2019-04-23 2019-07-26 七鑫易维(深圳)科技有限公司 眼球追踪传感器的调节方法、装置、设备及存储介质
JP2023108559A (ja) * 2022-01-25 2023-08-04 キヤノン株式会社 光学装置、撮像装置、光学装置の制御方法、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1540992A (en) * 1975-04-22 1979-02-21 Smiths Industries Ltd Display or other systems and equipment for use in such systems
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US4852988A (en) * 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
JPH04288122A (ja) * 1991-03-18 1992-10-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk 視線表示装置
JP2988178B2 (ja) * 1993-03-11 1999-12-06 日産自動車株式会社 視線方向計測装置
JP3185522B2 (ja) * 1994-02-15 2001-07-11 日産自動車株式会社 車両用視線方向計測装置
FR2731896B1 (fr) * 1995-03-24 1997-08-29 Commissariat Energie Atomique Dispositif de mesure de la position du point de fixation d'un oeil sur une cible, procede d'eclairage de l'oeil et application a l'affichage d'images dont les images changent en fonction des mouvements de l'oeil
JPH09179062A (ja) * 1995-12-25 1997-07-11 Canon Inc コンピュータシステム
JP2000316811A (ja) * 1999-05-14 2000-11-21 Sumitomo Osaka Cement Co Ltd 眼球運動測定装置
DE19953835C1 (de) * 1999-10-30 2001-05-23 Hertz Inst Heinrich Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens
JP2002143094A (ja) * 2000-11-07 2002-05-21 Nac Image Technology Inc 視線検出装置
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US8077914B1 (en) * 2006-08-07 2011-12-13 Arkady Kaplan Optical tracking apparatus using six degrees of freedom
WO2010003410A1 (en) * 2008-07-08 2010-01-14 It-University Of Copenhagen Eye gaze tracking
CN101872237B (zh) 2009-04-23 2012-04-18 由田新技股份有限公司 瞳孔追踪方法与系统及用于瞳孔追踪的校正方法与模组
EP2309307B1 (en) * 2009-10-08 2020-12-09 Tobii Technology AB Eye tracking using a GPU
CN101901485B (zh) * 2010-08-11 2014-12-03 华中科技大学 3d自由头动式视线跟踪系统
FR2970576B1 (fr) * 2011-01-19 2013-02-08 Matchic Labs Procede de determination de la direction du regard et dispositif pour sa mise en oeuvre
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8942419B1 (en) * 2012-01-06 2015-01-27 Google Inc. Position estimation using predetermined patterns of light sources

Also Published As

Publication number Publication date
US20150130714A1 (en) 2015-05-14
WO2013175701A1 (ja) 2013-11-28
US9727130B2 (en) 2017-08-08
CN104302226B (zh) 2016-07-06
JP2013244212A (ja) 2013-12-09
CN104302226A (zh) 2015-01-21

Similar Documents

Publication Publication Date Title
JP5689850B2 (ja) 映像解析装置、映像解析方法、および注視点表示システム
JP6902075B2 (ja) 構造化光を用いた視線追跡
US11861062B2 (en) Blink-based calibration of an optical see-through head-mounted display
JP6340503B2 (ja) 目追跡システム及び利き目を検出する方法
US10025384B1 (en) Eye tracking architecture for common structured light and time-of-flight framework
US20180342066A1 (en) Apparatus and method for hybrid eye tracking
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
US9398848B2 (en) Eye gaze tracking
JP6515086B2 (ja) 経時的な確率的オブジェクト追跡のためのシステムおよび方法
EP3353632A1 (en) Eye-tracking enabled wearable devices
CN104089606B (zh) 一种自由空间视线跟踪测量方法
US10433725B2 (en) System and method for capturing spatially and temporally coherent eye gaze and hand data during performance of a manual task
CN107991775A (zh) 能够进行人眼追踪的头戴式可视设备及人眼追踪方法
JP2019097675A (ja) 視線検出校正方法、システム、及びコンピュータプログラム
Tatler et al. Eye movement recordings in natural settings
JP2019021049A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015123262A (ja) 角膜表面反射画像を利用した視線計測方法及びその装置
JP2019024608A (ja) 視線検出校正方法、システム、及びコンピュータプログラム
US20240265574A1 (en) Method and system for determining direction of gaze
US10963046B1 (en) Drift corrected eye tracking
Fornaser et al. Eye tracker uncertainty analysis and modelling in real time
WO2024166116A1 (en) Retina image references for gaze tracking
Ibrahim et al. A Study towards Improving Eye Tracking Calibration Technique Using Support Vector Regression

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150129

R150 Certificate of patent or registration of utility model

Ref document number: 5689850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250