JP2004310470A - 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム - Google Patents

視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム Download PDF

Info

Publication number
JP2004310470A
JP2004310470A JP2003103491A JP2003103491A JP2004310470A JP 2004310470 A JP2004310470 A JP 2004310470A JP 2003103491 A JP2003103491 A JP 2003103491A JP 2003103491 A JP2003103491 A JP 2003103491A JP 2004310470 A JP2004310470 A JP 2004310470A
Authority
JP
Japan
Prior art keywords
user
information
gaze
coordinate system
respect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003103491A
Other languages
English (en)
Other versions
JP2004310470A5 (ja
Inventor
Niklaus Guion Swoboda
ニコラウス グィオン スウォボダ
Ichiro Umada
一郎 馬田
Takahiro Katagiri
恭弘 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003103491A priority Critical patent/JP2004310470A/ja
Publication of JP2004310470A publication Critical patent/JP2004310470A/ja
Publication of JP2004310470A5 publication Critical patent/JP2004310470A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザの頭部の位置が変わっても、ユーザのRW/SVWにおける視線位置を安定して推定する。
【解決手段】システム240は、実世界または共有された仮想世界(RW/SVW)内の対象物の存在位置情報を記憶するための第一の記憶部268、アイ−トラッカ74から出力される映像信号の各フレームにおける「アンカー」の存在位置を定め、ユーザの視界内の対象物の画像の存在位置情報を出力するための存在位置決定モジュール260、及び、視界内のユーザの視点位置と、アンカーの存在位置と、RW/SVW内のアンカーの存在位置情報とに基づいてRW/SVW内の視点位置を計算するためのモジュール262を含む。参加者のデータは組み合わされてSVWを更新する。
【選択図】 図7

Description

【0001】
【発明の属する技術分野】
この発明はユーザの視線位置を判定し組合わせるためのシステムに関し、特に、実世界(real world)又は共有仮想世界(Shared Virtual‐World)(以下、「RW/SVW」と称する)におけるユーザの視線位置を、ユーザの視野内での「RW/SVW」内の対象物の存在位置に基づいて判定し組合わせるためのシステムに関する。
【0002】
【従来の技術】
高性能のコンピュータとインターネット等のネットワーク用ツールが進歩するに従って、より多くの人々がネットワーク上で意思の疎通をはかるとともに共同作業を行なう様になってきた。この様な意思の疎通を図ろうとする参加者は離れた場所にいるため、時として意思の疎通が困難となる。その典型例が、共有仮想世界である。
【0003】
図1は共有仮想世界の参加者間で意思の疎通に齟齬を生じやすいある設定を例示したものである。図1では、3人の参加者32、34、36が家30の3−D仮想モデルの周りに仮想的に座っている。もし参加者が「実際に」テーブルの周りに座っているならば、互いの顔を見るだけで容易に参加者達の視線位置を判定することができる。仮想設定ではこれははるかに困難である。ラベルを付したボックス42、44及び46を用いて、3−D空間における参加者32、34及び36の実世界での視線位置を示す。
【0004】
参加者32及び34は家30のモデルの屋根の一方の端を見ており、参加者36は屋根の他方の端を見ている。この状況で、参加者32又は34の視線位置と同じ位置を全員が見ているものと参加者32又は34が誤解すると、意思の疎通に齟齬が生じる。
【0005】
この様な齟齬を防ぐために、又は参加者の正確な意思の疎通を支援するために、参加者32、34及び36の視線位置の、実世界での存在位置を全て知ることが望ましい。しかし、絶対的な視線位置を判定するのは容易ではない。
【0006】
この様な問題に対する解決策の一つがアイ−トラッキングシステムである。アイ−トラッキングシステムは、画像処理、マン−マシンインターフェイス、テレビ会議及び仮想現実の分野で、ユーザ又は参加者の視線の存在位置を収集する目的のものとして知られている。視線の存在位置を用いて、参加者の顔の適切な画像を準備したり、マン−マシンインターフェイスにおいて適切な反応を引き起こしたり、又は参加者の意図を推測したりすることができる。
【0007】
既存のアイ−トラッキングシステムの多くは参加者の頭部に装着したアイ−トラッキングハードウェアからデータを収集する。この様なハードウェアは鏡、カメラ、及び専用の処理ハードウェアを用いて参加者の視野内における参加者の視線の存在位置を決定する。
【0008】
【発明が解決しようとする課題】
しかし、参加者の頭部の位置が変わると、参加者の視野も変わり、絶対的な視線情報を判定することが困難になる。
【0009】
従って、この発明の目的は、たとえユーザの頭部位置が変わっても、ユーザのRW/SVWにおける視線位置を安定して推定することが可能なシステム及びコンピュータで実行可能なプログラムを提供することである。
【0010】
この発明の別の目的は、たとえユーザの頭部位置が変わっても、ユーザの視野の映像信号に基づき、RW/SVWにおける視線位置を安定して推定することが可能なシステム及びコンピュータで実行可能なプログラムを提供することである。
【0011】
【課題を解決するための手段】
この発明のある局面に従えば、ユーザの視野の映像信号と、ユーザの視野内におけるユーザの視線位置情報とを出力するアイ・トラッカを装着したユーザの視線位置を判定し組合わせるためのシステムは、予め定義された基準座標系に対する対象物の存在位置の情報を記憶するための第一の記憶手段と、アイ・トラッカから出力された映像信号の各フレームにおける対象物の画像の存在位置を定め、ユーザの視野内に定義された座標系に対する対象物の画像の存在位置情報を出力するための存在位置決定手段とを含み、存在位置決定手段はアイ・トラッカからの映像信号を受信する様に接続されており、さらに、
(a)アイ・トラッカから出力されたユーザの視野内のユーザの視線位置情報、
(b)存在位置決定手段から出力された映像信号の各フレームにおける対象物の画像の存在位置、及び
(c)記憶手段に記憶された、予め定義された基準座標系に対する対象物の存在位置情報、に基づいて予め定義された基準座標系を参照してユーザの視線位置を計算するための手段を含む。
【0012】
好ましくは、システムは各対象物の予め定められた属性情報を記憶するための第2の記憶手段をさらに含み、存在位置決定手段は第2の記憶手段に記憶された予め定められた属性情報に基づいて、アイ・トラッカにより出力された映像信号の各フレームにおける対象物の画像の存在位置を定めるための手段を含み、存在位置を定めるための手段は、アイ・トラッカからの映像信号と、ユーザの視野内で定義される座標系に対する対象物の画像の存在位置の情報とを受信する様に接続される。
【0013】
属性は各対象物の色と、各対象物の形状と、各対象物の動きと、各対象物の大きさとからなる群から選択されてもよい。
【0014】
より好ましくは、システムは計算手段によって計算された、予め定義された座標系に対するユーザの視線位置情報を、予め定められた宛先に送信する手段をさらに含む。
【0015】
システムはさらに、ネットワークに接続され、ネットワーク上で、予め定められた座標系に対する別のユーザの視線位置情報を受信する手段と、ユーザの視線位置情報及び受信手段により受信された情報を、予め定められた座標系において組合わせるための手段とを含んでもよい。
【0016】
好ましくは、システムはさらに組合わされた情報を記憶するための手段と、組合わされた情報を、ネットワーク上のアドレスへ、そのアドレスからの要求に応じて送信するための手段とを含む。
【0017】
システムはさらに、予め定められた宛先に対し、予め定められた座標系に対するユーザの視線位置の組の情報を求める要求を送る手段と、予め定められた宛先から、ユーザの視線位置の組の情報を受信する手段とを含んでもよい。
【0018】
この発明の別の局面は、コンピュータ上で実行されると、請求項1から7のいずれかに記載のシステムとしてコンピュータを動作させる、コンピュータで実行可能なプログラムに関するものである。
【0019】
【発明の実施の形態】
図2はこの発明の好ましい実施の形態による共有仮想世界システムの全体構成を示す。システム50は共有されたホワイトボード機能を有し、電子ホワイトボード76と、マイクロフォン64及びスピーカ78の組と、CD−ROM(Compact Disc Read−Only Memory)ドライブ70及びFD(Flexible Disk)ドライブ70を有するコンピュータ60と、いずれもコンピュータ60に接続されたモニタ62、キーボード66及びマウス68と、コンピュータ60に接続された市販のウェアラブル・アイ・トラッカ74とを含む、テレビ会議システムである。
【0020】
この実施の形態において、電子ホワイトボード76のプラズマディスプレイパネル(PDP)100はまたコンピュータ60に接続されコンピュータ60に制御されて、電子ホワイトボードの機能を提供する。しかしながら、システムの電子ホワイトボードはこの発明の中核をなすものではなく、従って、電子ホワイトボードの制御の詳細はここでは説明しない。また、マイクロフォン64とスピーカ78とは音声通信に用いられるものであって、この発明の一部を構成するものではない。従って、システムのうちマイクロフォン64及びスピーカ78に関する部分の詳細はここでは説明しない。
【0021】
図3はアイ・トラッカ74の概観を示す。図3を参照して、アイ・トラッカ74は普通の帽子の形状を有する帽子80と、帽子80の庇上に装着されたプラスチックのハウジング82と、ハウジングに取付けられた、端部に鏡88及び90を備えたアーム84及び86と、ビデオカメラ92と、鏡88及び90にそれぞれ反射した目の画像をキャプチャするための一対のカメラ94及び96とを含む。アイ・トラッカ74は鏡88及び90とカメラ94及び96とを用いて参加者の頭部に対する相対的な視線方向を検出し、視野内で定義された座標系に対する参加者の視野内での視線位置の存在位置データと、ビデオカメラ92によりキャプチャされたビデオ画像とを出力する。図3には示さない別個のプロセッサが視線位置データの計算を行なう。
【0022】
図4は電子ホワイトボードを例示する。電子ホワイトボード76はデジタイザパネルがその上に形成されたPDP100と、マーカ102−128とを含む。マーカ102−128はPDP100の周辺のそれぞれ予め選択された位置に取付けられる。参加者がPDP100を見ると、マーカ102−128の幾つかがアイ・トラッカ74から出力されるビデオ画像中に入り、「アンカー」として選択される。「アンカー」とは、以下で詳細に説明する通り、映像信号中にありユーザの視線位置を計算するのに用いられる、マーカ102−128の画像のことを意味する。
【0023】
この実施の形態では、マーカ102−128はPDPの周辺部分に固定されている。しかし、PDP100はそのスクリーン上にどの様な対象物でも表示できるため、マーカ102−128をPDP100のスクリーン上に表示されるオブジェクトで置換えてもよい。この様な場合、マーカはスクリーン上を移動してもよい。それらの位置は予め定められたスケジュールに従って動かす様にしてもよいが、固定されている方が好ましい。
【0024】
図5はコンピュータ60のハードウェアブロック図である。図5を参照して、コンピュータ60はCPU(Central Processing Unit:中央処理装置)140と、CPU140に接続されたバス142と、バス142に接続された読出専用メモリ(ROM)144と、バス142に接続されたランダムアクセスメモリ(RAM)146と、バス142に接続されたハードディスクドライブ148と、CD−ROM160が装着され、そこからデータを読出すCD−ROM(Compact Disc ROM)ドライブ70と、FD162が装着され、そこからデータを読出し、データを書込むフレキシブルディスク(FD)ドライブ72と、マイクロフォン64及びスピーカ78が接続されるサウンドボード150と、バス142に接続されローカルエリアネットワーク(LAN)等のデータ通信ネットワークに接続する機能を提供するネットワークボード152と、バス142に接続される、アイ・トラッカ専用のビデオキャプチャボード154とを含む。
【0025】
ビデオキャプチャボード154はアイ・トラッカ74から参加者の視界の映像信号を受信し、映像信号の各フレームをキャプチャし、キャプチャされたフレームデータをCPU140に与える。CPU140は図3に示されたアイ・トラッカ74からアイ・トラッカ74のプロセッサとのシリアル接続を通して、参加者の視線位置データを収集する。
【0026】
図6はこのシステムがどの様に働くかを図示したものである。図6を参照して、システムは二当事者を含み、これを当事者A及びBとする。各当事者は図2から図5に示されたシステムを持つ。二人の参加者180A及び180Bが別々の部屋で電子ホワイトボード76A及び76Bの前に立っている。これらのホワイトボード76A及び76Bは物理的に同じではないが、同じ仮想的な描画空間を表し、その内容とアンカーのマーキングとに関して同一である。これらホワイトボード76A及び76BのPDP100A及び100Bの面は、従って、共有仮想世界と考えられる。
【0027】
参加者180Aがホワイトボード76Aの前に立ち、スタイラスペンで、ある形状を描こうとしているものと仮定する。PDP100A上でのスタイラスペンの動きがデジタイザによって検知され、描画されるにつれてその動きが2枚のホワイトボード76Aと76Bとの間で送信される。こうして、対応する形状がPDP100AとPDP100Bとの同一の位置に電子的に描かれる。当事者Bの参加者180Bは参加者180Aが描いている線を、まさにその線が描かれているときに見ることができる。こうして参加者180A及び180Bはホワイトボード76A及び76B上の仮想世界を共有する。
【0028】
さらに、当事者Aの参加者180Aと当事者Bの参加者180Bとが電子ホワイトボード76A及び76Bに描かれた形状又は図を用いて議論していると仮定する。参加者180Aはその視界200Aのある点202Aに注目している。参加者180Bはその視界200Bの点202Bに注目している。このシステムは点202A及び202Bの存在位置を検出し、これらの点の存在位置データを組合せ、これら位置204A及び204Bを、組合わされた仮想世界の視野210の上に示し、これらがPDP100A及び100B上に表示される。一方当事者が、共通の視野上で他方当事者がどこを見ているかはっきりと知ることができるので、議論から誤解を除くことができる。
【0029】
この目的のために、各当事者の視点の存在位置を得なければならないが、これは容易なことではなかった。
【0030】
この実施の形態では、図7の構成でこの問題に対する解答を与える。図7はこの実施の形態のシステム50のコアモジュール240の機能図である。これら機能は、コンピュータ60上で実行されるソフトウェア及びコンピュータ60の適切なハードウェアで実現される。
【0031】
図7を参照して、コアモジュール240は、RW/SVW座標系におけるアンカー(マーカ)の存在位置情報と、アンカーの色、形状、大きさ等の予め定められた属性とを記憶するためのアンカー情報記憶部268、記憶部268に記憶された情報を用いて、アイ・トラッカ74からの映像信号の各フレームにおける、アンカーの頭部に対する相対的な存在位置を決定し抽出するためのアンカー抽出モジュール260、及び、参加者の視界における視線位置の存在位置と、アンカー抽出モジュール260からの、参加者の視野内のアンカーの存在位置データを抽出したものと、記憶部268に記憶されたアンカー情報とを受け、アンカーの存在位置情報に基づいて修正した予め選択された数学的変換を、参加者の頭部に対する相対的な視線位置に適用することによって、参加者のRW/SVW視線位置を計算し決定する数学的変換モジュール262を含む。
【0032】
コアモジュール240はさらに、参加者のRW/SVW視線位置をサーバに送信し、他の参加者のRW/SVW視線位置の組合わされた視線位置情報の組をサーバから受信するデータ送受信モジュール264と、データをネットワーク上に送信するネットワークモジュール266とを含む。組合わされた視線位置はアプリケーション242に与えられ、共有される仮想世界等を更新する。
【0033】
この実施の形態では、コアモジュール240はさらに、ネットワークモジュール266に接続され、参加者の視線位置情報をネットワークを介して受信し、組合わされた視線位置情報の組を組合わされたデータテーブルとして維持し、要求に応じて要求を出した当事者に対し組合わされた視線位置情報の組を送信するためのサーバモジュール270と、サーバモジュール270によって維持される、組合わされたデータテーブルを記憶するための組合せデータ記憶部272とを含む。
【0034】
コアモジュール240は以下の様に動作する。図8を参照して、参加者のアイ・トラッカ74から、アンカー抽出モジュール260が参加者の頭部に対する相対的な視野200Aを受信する。数学的変換モジュール262はアイ・トラッカ74から頭部に対する相対的な視線位置202Aを受信する。
【0035】
図9を参照して、アンカー情報記憶部268(図7を参照)に記憶されたアンカー情報を用いて、アンカー抽出モジュール260により参加者の視野200A内にあるマーカ102−108及び126−128(図4を参照)に対応する画像220、222、224、226、228及び230の存在位置が定められ、フレームから抽出される(図7を参照)。図7を参照して、アンカー抽出モジュール260はマーカの色、形状、大きさ等の属性のいずれかを使用する。マーカがPDP100上に表示される対象物である場合、アンカー抽出モジュール260はマーカの動きを用いてマーカの画像の存在位置を決定し特定することもできる。
【0036】
その後、数学的変換モジュール262により、参加者の視界が決定される。この視界は数学的等式からなり、アイ・トラッカ74(図3を参照)から受信した頭部との相対的な視線位置をRW/SVW視点位置に変換するのに、これを用いることができる。
【0037】
データ送受信モジュール264は参加者180AのRW/SVW視線位置204Aを、この実施の形態ではコアモジュール240内のサーバモジュール270であるサーバに送信し、サーバモジュール270から組合わされた視線位置情報の組を受信する。組合わされたデータはアプリケーション242に与えられる。このアプリケーションは、たとえばRW/SVWの表示を管理するアプリケーションである。
【0038】
図11はコアモジュール240の機能を実現するフローチャートを示す。図11を参照して、ステップ280で、プログラムはまず、ハードディスク148に予め記憶されている、RW/SVWにおけるマーカ(「アンカー」)の存在位置を含む識別データと、色、形状、大きさ等の属性とを読出す。これらのデータは参加者の視界を決定するのに必要となる。
【0039】
ステップ282で、「終了」イベントが発生したか否かが判断される。もし「終了」イベントが発生していれば、プログラムは終了し、そうでなければ制御はステップ284に進む。
【0040】
ステップ284で、アイ・トラッカ74からの映像信号の、次のフレームを処理すべき時刻であるか否かが判断される。もしその時刻でなければ制御はステップ282に戻り、その時刻であればステップ286に進む。
【0041】
ステップ286でアイ・トラッカ74からの映像信号のフレームがキャプチャされる。次にステップ288で、参加者の頭部に対する相対的な視線位置がアイ・トラッカ74から受信され、映像の各フレームについて、頭部に対する相対的な視線存在位置のテーブルが生成される。
【0042】
ステップ290で、アイ・トラッカ74からのキャプチャされた映像フレームがベンダーの提供する映像処理ソフトウェアを用いて処理され、このフレームでのマーカの存在位置を決定し特定する。マーカは抽出され、ステップ280で与えられるそれらの存在位置、色、大きさに従ってラベル付けされる。
【0043】
ステップ292では抽出されたマークの存在位置データを用いて、変換式が修正される。この動作は最初に、共有仮想世界内でのアンカーの既知の位置に基づいて、映像信号の各フレームについて、頭部に対する相対的な視線位置と、共有仮想世界の視線位置との間での変換式を決定する。ステップ288で受信された参加者の視野内での頭部に対する相対的な視線情報に対し、この変換を適用することで、共有仮想世界での視点の存在位置がステップ294で得られる。
【0044】
ステップ296で、この様にして得られたRW/SVWにおける視点の存在位置がサーバに送信される。サーバはデータを記憶し、組合わされたデータテーブルを更新する。サーバはさらに、参加者の視点の組合わされたデータをこのシステムに送信し、ステップ298でコアモジュール240がそれらを受信する。組合わされたデータはメモリの予め選択されたロケーションに記憶される。このデータはRW/SVWデータを更新するのに利用される。その後制御はステップ282にもどる。
【0045】
図12はこの実施の形態におけるコアモジュール240のサーバモジュール270でのプログラムの制御フローを示すフローチャートである。図12を参照して、プログラムでは、最初にステップ320で関連のメモリエリアが初期化される。ステップ322ではプログラムはイベントを待ち、イベントを受取ると制御はステップ324に進む。
【0046】
ステップ324で、イベントが終了イベントであるか否かが判断される。もし終了イベントであればプログラムは終了し、そうでなければ制御はステップ326に進む。
【0047】
ステップ326で、イベントがデータ受信イベントであるか否かが判断される。もしデータ受信イベントであれば、制御はステップ332に進み、そうでなければステップ328に進む。
【0048】
ステップ332で、参加者の一人から受信された視点情報を用いて、組合わされたデータテーブルが更新される。制御はステップ322に戻る。
【0049】
ステップ328では、イベントが参加者からのデータ要求イベントであるか否かが判定される。もしデータ要求イベントであれば、制御はステップ330に進み、そうでなければ制御はステップ322にもどる。
【0050】
ステップ330で、視点位置情報の組合わされたデータが要求した当事者に送られる。制御はステップ322に戻る。
【0051】
[例]
各々が上述のシステムを備えた2つの当事者間で実験が行なわれた。この例では、共有仮想世界でのアンカーのラベルと配置とは図4に示す通りである。アンカーとして用いられたカラーマーカの、共有仮想世界内での固定された存在位置を以下の表に示す。
【0052】
【表1】
Figure 2004310470
一参加者の頭部に対する相対的なカラーアンカー情報のサンプル入力データを以下の表に示す。
【0053】
【表2】
Figure 2004310470
【0054】
【表3】
Figure 2004310470
【0055】
【表4】
Figure 2004310470
【0056】
【表5】
Figure 2004310470
【0057】
【表6】
Figure 2004310470
ここに記載したシステムにより出力された、一方の当事者の共有仮想世界での視線位置情報を次のテーブルに示す。
【0058】
【表7】
Figure 2004310470
他方当事者の共有仮想世界の視線情報も同様に得られる。この後、複数回同期させた、共有仮想世界の視線存在位置を組合わせることができる。
【0059】
この実施の形態によれば、共有仮想世界における各参加者の視線位置が計算され、その後組合わされて、各参加者は他の参加者が共有仮想世界の視界のどこに注目しているかを知ることができる。これを知ることで、参加者達は誤解の生じやすい点に容易に気付き、意思の疎通がより良好になるであろう。
【0060】
上述の実施の形態には2当事者が関わっている。しかしながら、3又はそれ以上の当事者を含む意思疎通のシステムにもこの発明が容易に拡大できることは当業者には容易に理解されるであろう。当業者はまた、上述のシステムが専用のハードウェア又は専用のハードウェアとソフトウェアの組合せ、及び汎用コンピュータとソフトウェアの組合せで実現できることを容易に理解するであろう。
【0061】
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内でのすべての変更を含む。
【図面の簡単な説明】
【図1】この発明を採用することができるある設定を例示する図である。
【図2】この発明の1の実施の形態によるシステムを示す図である。
【図3】図2で示されたシステムで用いられるアイ・トラッカを示す図である。
【図4】図2で示されたシステムで用いられる電子ホワイトボードの正面図である。
【図5】図2で示されたシステムで用いられるコンピュータのハードウェアブロック図である。
【図6】この発明の実施の形態の動作を概略的に示す図である。
【図7】この発明の実施の形態のコアモジュールの機能ブロック図である。
【図8】一人の参加者の視野とその視線位置を概略的に示す図である。
【図9】ビデオフレームにおけるアンカー位置を例示する図である。
【図10】二人の参加者の視線位置情報の組合せを例示する図である。
【図11】この発明の実施の形態を実現するソフトウェアのフローチャートである。
【図12】この実施の形態のサーバモジュールを実現するソフトウェアのフローチャートである。
【符号の説明】
30 家のモデル、32、34、36、180A及び180B 参加者 50共有仮想世界システム、60 コンピュータ、62 モニタ、64 マイクロフォン、74 アイ・トラッカ、76、76A、及び76B 電子ホワイトボード、88、90 鏡、92 ビデオカメラ、94、96 カメラ、100 PDP、102−128 マーカ、140 CPU、144 ROM、146 RAM、202A及び202B 視線位置、210 仮想世界の視野、240 コアモジュール、242 アプリケーション、260 アンカー抽出モジュール、262 数学的変換モジュール、264 データ組合せモジュール、266 ネットワークモジュール

Claims (8)

  1. ユーザの視野の映像信号と、ユーザの視野内におけるユーザの視線位置の情報とを出力するアイ・トラッカを装着したユーザの視線位置を判定し組合わせるためのシステムであって、
    予め定義された基準座標系に対する対象物の存在位置の情報を記憶するための第一の記憶手段と、
    アイ・トラッカから出力された映像信号の各フレームにおける対象物の画像の存在位置を定め、ユーザの視野内に定義された座標系に対する対象物の画像の存在位置情報を出力するための存在位置決定手段と、を含み、存在位置決定手段はアイ・トラッカからの映像信号を受信する様に接続されており、
    さらに、
    (a)アイ・トラッカから出力されたユーザの視野内のユーザの視線位置情報、
    (b)存在位置決定手段から出力された映像信号の各フレームにおける対象物の画像の存在位置、及び
    (c)記憶手段に記憶された予め定義された基準座標系に対する対象物の存在位置情報
    に基づいて、予め定義された基準座標系に対するユーザの視線位置を計算するための手段を含む、視線位置を判定し組合わせるためのシステム。
  2. 各対象物の予め定められた属性情報を記憶するための第2の記憶手段をさらに含み、
    存在位置決定手段は第2の記憶手段に記憶された予め定められた属性情報に基づいて、アイ・トラッカにより出力された映像信号の各フレームにおける対象物の画像の存在位置を定めるための手段を含み、存在位置を定めるための手段は、アイ・トラッカからの映像信号と、ユーザの視野内で定義される座標系に対する対象物の画像の存在位置情報とを受信する様に接続される、請求項1に記載のシステム。
  3. 属性は各対象物の色と、各対象物の形状と、各対象物の動きと、各対象物の大きさとからなる群から選択される、請求項2に記載のシステム。
  4. 計算手段によって計算された、予め定義された座標系に対するユーザの視線位置情報を、予め定められた宛先に送信するための手段をさらに含む、請求項1から3のいずれかに記載のシステム。
  5. ネットワークに接続され、ネットワーク上で、予め定められた座標系に対する別のユーザの視線位置情報を受信する手段と、
    ユーザの視線位置情報と、受信手段により受信された情報とを、予め定められた座標系において組合わせるための手段とをさらに含む、請求項4に記載のシステム。
  6. 組合わされた情報を記憶するための手段と、
    組合わされた情報を、ネットワーク上のアドレスへ、そのアドレスからの要求に応じて送信するための手段とをさらに含む、請求項5に記載のシステム。
  7. 予め定められた宛先に対し、予め定められた座標系に対するユーザの視線位置の組の情報を求める要求を送る手段と
    予め定められた宛先から、ユーザの視線位置の組の情報を受信する手段とをさらに含む、請求項4に記載のシステム。
  8. コンピュータ上で実行されると、請求項1から7のいずれかに記載のシステムとしてコンピュータを動作させる、コンピュータで実行可能なプログラム。
JP2003103491A 2003-04-07 2003-04-07 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム Pending JP2004310470A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003103491A JP2004310470A (ja) 2003-04-07 2003-04-07 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003103491A JP2004310470A (ja) 2003-04-07 2003-04-07 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム

Publications (2)

Publication Number Publication Date
JP2004310470A true JP2004310470A (ja) 2004-11-04
JP2004310470A5 JP2004310470A5 (ja) 2005-08-11

Family

ID=33466572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003103491A Pending JP2004310470A (ja) 2003-04-07 2003-04-07 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム

Country Status (1)

Country Link
JP (1) JP2004310470A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011217098A (ja) * 2010-03-31 2011-10-27 Ns Solutions Corp 情報処理システム、会議管理装置、情報処理方法、会議管理装置の制御方法及びプログラム
WO2013095393A1 (en) * 2011-12-20 2013-06-27 Intel Corporation Augmented reality representations across multiple devices
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
JP2016103109A (ja) * 2014-11-27 2016-06-02 富士通株式会社 表示装置、表示方法及び表示プログラム
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
JP2011217098A (ja) * 2010-03-31 2011-10-27 Ns Solutions Corp 情報処理システム、会議管理装置、情報処理方法、会議管理装置の制御方法及びプログラム
CN102577370A (zh) * 2010-03-31 2012-07-11 新日铁系统集成株式会社 信息处理系统、会议管理装置、信息处理方法、会议管理装置的控制方法以及程序
CN102577370B (zh) * 2010-03-31 2013-07-31 新日铁系统集成株式会社 信息处理系统以及信息处理方法
US8659635B2 (en) 2010-03-31 2014-02-25 Ns Solutions Corporation Information processing system and information processing method
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
WO2013095393A1 (en) * 2011-12-20 2013-06-27 Intel Corporation Augmented reality representations across multiple devices
CN103959344A (zh) * 2011-12-20 2014-07-30 英特尔公司 跨越多个设备的增强现实表示
US9952820B2 (en) 2011-12-20 2018-04-24 Intel Corporation Augmented reality representations across multiple devices
JP2016103109A (ja) * 2014-11-27 2016-06-02 富士通株式会社 表示装置、表示方法及び表示プログラム

Similar Documents

Publication Publication Date Title
US11089266B2 (en) Communication processing method, terminal, and storage medium
JP6610546B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6214828B1 (ja) ドッキング・システム
US10726625B2 (en) Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
JP2016522463A5 (ja)
JP2013061937A (ja) ステレオカメラ及びステレオディスプレイを組み合わせたやり取り
JP2010217719A (ja) 装着型表示装置、その制御方法及びプログラム
JP2018106297A (ja) 複合現実感提示システム、及び、情報処理装置とその制御方法、並びに、プログラム
US9848168B2 (en) Method, synthesizing device, and system for implementing video conference
CN112783700A (zh) 用于基于网络的远程辅助系统的计算机可读介质
US20190138803A1 (en) Image processing apparatus, image processing system, and image processing method, and program
WO2009066219A1 (en) Methods and devices for receiving and transmitting an indication of presence
JP2004310470A (ja) 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム
JP2017062720A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6725827B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2021196973A1 (zh) 虚拟内容的显示方法、装置、电子设备及存储介质
JPWO2009119288A1 (ja) コミュニケーションシステム及びコミュニケーションプログラム
EP3702008A1 (en) Displaying a viewport of a virtual space
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5326816B2 (ja) 遠隔会議システム、情報処理装置、及びプログラム
JP2010282497A (ja) 異世界状態反映装置
KR102208708B1 (ko) 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치
JP2018067157A (ja) 通信装置およびその制御方法
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
WO2019242634A1 (zh) 虚拟对象的增强现实显示方法和设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080219