JP4503945B2 - リモート観測装置 - Google Patents

リモート観測装置 Download PDF

Info

Publication number
JP4503945B2
JP4503945B2 JP2003192146A JP2003192146A JP4503945B2 JP 4503945 B2 JP4503945 B2 JP 4503945B2 JP 2003192146 A JP2003192146 A JP 2003192146A JP 2003192146 A JP2003192146 A JP 2003192146A JP 4503945 B2 JP4503945 B2 JP 4503945B2
Authority
JP
Japan
Prior art keywords
user
video
remote
sight
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003192146A
Other languages
English (en)
Other versions
JP2005027166A (ja
Inventor
宗伯 浮田
正継 木戸出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003192146A priority Critical patent/JP4503945B2/ja
Publication of JP2005027166A publication Critical patent/JP2005027166A/ja
Application granted granted Critical
Publication of JP4503945B2 publication Critical patent/JP4503945B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザの位置からは直接見えない映像を、ユーザが直感的に理解しやすいように提示可能なリモート観測装置、および、そのプログラムおよび記録媒体に関するものである。
【0002】
【従来の技術】
従来から、例えば、障害物の向こうや隣の位置、あるいは、遠隔地などに相手がいる場合など、複数の人間が直接顔を合わせて話すことのできない環境にいる場合、カメラ映像を介することによって、お互いの表情・状況を視認可能なコミュニケーションシステムが広く使用されている。
【0003】
例えば、後述の非特許文献1に記載されているコミュニケーションシステムでは、各ユーザの目の前に固定されたカメラが設けられており、各ユーザの前には、相手のカメラの撮影して送信した映像を受信して表示するディスプレイが配置されている。これにより、各ユーザは、相手のカメラ映像を介して、コミュニケートできる。
【0004】
さらに、当該非特許文献1では、各ユーザの近傍に、複数のカメラを配置し、それらのいずれかからの映像を相手のディスプレイに表示している。これにより、当該コミュニケーションシステムにおいて、カメラが1つの場合の問題点、すなわち、「互いにコミュニケートするためには、各ユーザが、それぞれの近傍(例えば、机の上など)に固定されたカメラの前にいる必要がある」という問題、および、「各ユーザが相手の目の前にある固定カメラの視野以外の様子を見ることができない」という問題を、ある程度解消している。
【0005】
【非特許文献1】
宮崎英明, 亀田能成, 美濃導彦: ”複数のカメラを用いた複数ユーザに対する講義の実時間映像化法”, 電子情報通信学会論文誌, J82-DII, No.10, pp.1598-1692,1999年
【0006】
【発明が解決しようとする課題】
しかしながら、上記従来の構成では、各ユーザは、「相手のカメラのうち、いずれの映像を表示するか」、あるいは、「自分の近傍に配置されたカメラのうち、いずれの映像を相手に送信するか」を選択する必要があり、手間がかかるという問題を生じる。
【0007】
また、ユーザが視認対象物を目視する場合とは異なって、相手のカメラ映像の視点は、ユーザが体を動かしても静止しており、当該視点は、カメラの切り換えによってのみ移動する。したがって、ユーザに違和感を感じさせてしまい、ユーザは、相手の状況を的確に把握することが難しいという問題も生じてしまう。
【0008】
なお、これらの問題は、相互に映像を送信しあうコミュニケーションシステムに限るものではなく、ユーザの位置からは直接見ることができない場所の映像をユーザに提示するリモート観測装置全般で発生する。
【0009】
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザの位置からは直接見ることができない場所の映像を、ユーザが直感的に理解しやすいように提示可能なリモート観測装置を実現することにある。
【0010】
【課題を解決するための手段】
本発明に係るリモート観測装置は、上記課題を解決するために、互いに異なる方向を撮影するように配置した複数のカメラにより撮影された映像を合成することによって、予め定められる特定位置から予め定められる特定方向を見た映像を生成し、生成されたリモート映像をユーザに提示するリモート映像生成手段と、上記ユーザの視線を計測する視線計測手段と、計測された視線の変更に伴なって、上記特定位置および特定方向を変更する変更手段とを備えていることを特徴としている。
【0011】
上記構成において、リモート映像生成手段は、上記複数のカメラにより撮影された映像を合成して、特定位置から特定方向を見た映像(リモート映像)を生成している。また、ユーザが姿勢を変更するなどして、ユーザの視線の方向や視線の開始位置(視点)が変化すると、上記変更手段は、上記視線計測手段によって計測された視線の変更に伴なって、上記特定位置および特定方向を変更する。
【0012】
上記構成では、リモート映像は、複数のカメラによって撮影された映像自体ではなく、リモート映像生成手段が上記複数のカメラにより撮影された映像を合成することによって生成されている。したがって、複数のカメラにより撮影された映像を切り換える場合とは異なり、リモート映像の仮想的な撮影位置および撮影方向(特定位置および特定方向)を連続的に変化させることができる。また、特定位置および特定方向は、ユーザが視認対象を目で直接視認する場合と同様に、視線の変更に追従して変更される。これらの結果、複数のカメラにより撮影されている遠隔地の映像、すなわち、ユーザの位置からは直接見ることができない場所の映像を、ユーザが直感的に理解しやすいように提示できる。
【0013】
また、上記構成に加えて、ユーザが見ている方向を撮影するユーザ側カメラによって撮影されたユーザ側映像と、上記リモート映像とを重畳する重畳手段とを備えていてもよい。
【0014】
当該構成では、リモート映像がユーザ側映像に重畳されて表示されるので、臨場感を増すために、ユーザの視界の殆どを覆うディスプレイによって、両映像を表示している場合であっても、ユーザは、ユーザ側映像によって、自分自身の周囲の状況を確認できる。したがって、このような場合であっても、安全性を損なうことなく、ユーザが位置や姿勢を変更可能な範囲、および、ユーザが上記特定位置および特定方向を変更可能な範囲を広げることができる。
【0015】
さらに、上記構成に加えて、上記ユーザ側映像およびリモート映像が、両者の境界で滑らかにつながるように、上記特定位置および特定方向を微調整する調整手段を備えていてもよい。
【0016】
当該構成では、ユーザから見える場所と、遠隔地とが、以下のような関係、すなわち、本来であれば、ユーザから見える場所の映像と、特定位置から特定方向を見たときの映像(リモート映像)との間に幾何学的整合性が保たれている関係にある場合に、上記視線計測手段による視線計測に誤差が発生したとしても、上記調整手段が、計測誤差に起因する幾何学的整合性の乱れを打ち消しているので、リモート観測装置は、計測誤差を打ち消すことができ、ユーザに幾何学的整合性を保ったまま、ユーザ側映像とリモート映像とを重畳して提示できる。したがって、視線計測の誤差に起因する幾何学整合性の乱れが発生する場合と異なり、ユーザに違和感を感じさせない映像を提示できる。
【0017】
なお、上記「本来であれば」は、「視線計測手段による視線の計測が正確で、しかも、リモート映像生成手段による特定位置から特定方向を見たときの映像生成に誤差がないとすると」を意味しており、上記両場所が、このような関係にある場合の例としては、例えば、ユーザ側映像およびリモート映像が同じ対象を示している場合、あるいは、ユーザから見える壁面や天井あるいは床面などに上記遠隔地と同じ模様が描かれている場合などが挙げられる。
【0018】
また、上記調整手段は、重畳手段がリモート映像に重畳して表示しているリモート映像を参照している。したがって、ユーザに、新たな機器を装着させ、当該機器からの情報を参照して視線計測の精度を向上させる場合と異なり、ユーザに新たな機器を装着させることなく、視線計測の精度を向上できる。
【0019】
さらに、上記構成に加えて、上記重畳手段は、上記ユーザ側映像の輝度とリモート映像の輝度とが、両映像の境界で滑らかに変化するように、両映像の輝度の少なくとも一方を調整してもよい。
【0020】
当該構成では、重畳手段が、両映像の境界でそれぞれの輝度が滑らかに変化するように、それぞれの映像の輝度を調整する。したがって、上記複数のカメラ、および、ユーザ側カメラのパラメータ(絞り、ゲイン、口径喰補正値など)が互いに異なっているなどして、本来は等しいはずの輝度値が異なる場合であっても、リモート観測装置は、滑らかに輝度が変化する映像をユーザに提示できる。この結果、輝度が急峻に変化する場合と異なり、ユーザに違和感を感じさせない映像を提供できる。
【0021】
ところで、上記リモート観測装置は、ハードウェアで実現してもよいし、プログラムをコンピュータに実行させることによって実現してもよい。具体的には、本発明に係るプログラムは、上記各手段としてコンピュータを動作させるプログラムであって、本発明に係る記録媒体には、当該プログラムが記録されている。
【0022】
これらのプログラムがコンピュータによって実行されると、当該コンピュータは、上記リモート観測装置として動作する。したがって、上記リモート観測装置と同様に、複数のカメラにより撮影されている遠隔地の映像、すなわち、ユーザの位置からは直接見ることができない場所の映像を、ユーザが直感的に理解しやすいように提示できる。
【0023】
【発明の実施の形態】
本発明の一実施形態について図1ないし図14に基づいて説明すると以下の通りである。すなわち、本実施形態に係るリモート観測システム1は、例えば、図2に示すように、ユーザUが所在する第1の場所P1から直接見えない第2の場所P2の映像を、ユーザUが直感的に理解し易いように提示可能なシステムである。
【0024】
具体的には、本実施形態に係るリモート観測システム1は、上記第2の場所P2に配置された機器として、互いに異なる方向を撮影するためのリモート側カメラ11a〜11c…と、各リモート側カメラ11a〜11cのそれぞれに接続されたリモート側コンピュータ12a〜12cとを備えており、各リモート側コンピュータ12a〜12cは、それぞれに対応するカメラが撮影した映像を、ネットワーク2を介して、後述するリモート映像生成用コンピュータ31に送信できる。
【0025】
図2では、一例として、部屋がしきりPによって区切られているため、しきりPの一方側(第1の場所P1)にいるユーザUが部屋の全体を見渡せず、しきりPによって、部屋の一部が死角になっている場合を図示しており、上記リモート観測システム1は、上記しきりPを透視して、上記死角の映像を見ているようにユーザUに見せかけている。
【0026】
この例では、上記カメラ11a〜11cのうちの2つ(11c・11b)が、ユーザUの場所P1から見て、しきりPの向こう側にある壁面W1の上辺両端に配置されており、残余のカメラ11aが、しきりPの上辺の一端に配置されている。さらに、各カメラ11a〜11cは、上記壁面W1を含む部屋の壁面としきりPとで3方を囲まれた場所(P2)の床面中央への方向を撮影している。なお、カメラ11a〜11cの上記配置は、あくまで一例であって、当然ながら、これに限るものではない。各カメラ11a〜11cからの映像に基づいて、後述のリモート映像生成用コンピュータ31が特定位置Sxから特定方向Sdを見たときのリモート映像R31を生成できれば、他の配置であっても同様の効果が得られる。
【0027】
また、上記リモート観測システム1は、上記ユーザUが所在する第1の場所P1に配置された機器として、ユーザUを撮影して、ユーザUの視線を計測するための視線計測用カメラ21と、当該視線計測用カメラ21に接続された視線計測用コンピュータ22とを備えており、当該視線計測用カメラ21は、視線計測用カメラ21が撮影したユーザUの映像に基づいて、ユーザUの視線を検出し、ユーザUの視線を示す視線情報を、ネットワーク2を介して、後述するリモート映像生成用コンピュータ31に送信できる。
【0028】
より詳細には、上記視線計測用コンピュータ22は、例えば、「浮田宗伯,松山隆司,”能動視覚エージェント群による複数対象の実時間強調追跡”,情報処理学会CVIM研究会論文誌,Vol.43, No. SIG11,pp.64-79, 2002年:2002年12月15日発行」などに示すような対象位置の追跡システムを利用して、ユーザUの目の位置を追跡し、例えば、「大野健彦,武田直樹,吉川厚,”眼球形状モデルに基づく視線計測システム”,情報処理学会研究報告,2001-HI-93,pp.47-54, 2001年:2001年5月11日開催」などに示すようにユーザUの視線を検出している。
【0029】
すなわち、ユーザUの映像のうち、例えば、ユーザUの瞳孔の形状特徴と、および、瞳孔および虹彩の間の輝度差があることを利用し、映像において、輝度差がある領域として求めた瞳孔の輪郭とから、瞳孔の中心を求める。また、上記視線計測用コンピュータ22は、上記ユーザUの映像からプルキニエ像の位置を求め、当該プリキニエ像の位置から角膜の中心を求める。さらに、上記視線計測用コンピュータ22は、プリキニエ像の位置および瞳孔中心の位置から、視線ベクトルを算出する。
【0030】
なお、瞳孔の検出を容易にするために、近赤外線の照射装置(図示せず)を設け、当該照射装置により視線方向と同一方向から近赤外線を照射し、網膜で反射させることによって、瞳孔を虹彩より明るくさせてもよい。
【0031】
図2の例では、上記視線計測用カメラ21は、しきりPの上辺の一端に配置されており、上記壁面W1に対向する壁面(図示せず)を含む部屋の壁面としきりPとで3方を囲まれた場所(P1)の床面中央への方向を撮影している。これにより、ユーザUが場所P1のいずれから、しきりPを見ていたとしても、視線計測用カメラ21は、ユーザUの目を撮影でき、上記視線計測用コンピュータ22は、何ら支障なく、ユーザUの視線を計測できる。なお、視線計測用カメラ21の上記配置は、あくまで一例であって、当然ながら、これに限るものではない。視線計測用カメラ21からの映像に基づいて、視線計測用コンピュータ22がユーザの視線を計測できれば、他の配置であっても同様の効果が得られる。
【0032】
さらに、上記リモート観測システム1には、上記各コンピュータ12a〜12cおよび22とネットワーク2を介して接続可能なリモート映像生成用コンピュータ31が設けられている。当該リモート映像生成用コンピュータ31は、図1に示すように、上記各リモート側カメラ11a〜11cが撮影した映像を合成して、第2の場所P2の、ある位置(特定位置Sx)から、ある方向(特定方向Sd)を見たときの映像(リモート映像)を生成し、後述するウェアラブルコンピュータ43へ送信するリモート映像生成処理部32と、上記視線計測用コンピュータ22からの視線情報に基づいて、ユーザUの視線の変化を検出し、視線の変化に応じて、上記特定位置Sxおよび特定方向Sdの変更を上記リモート映像生成処理部32へ指示する特定位置・方向決定部33とを備えている。
【0033】
図2の例では、2つの場所P1・P2がしきりPによって区切られており、ユーザUが、しきりPによって、第2の場所P2を直接見ることができないにも拘わらず、リモート観測システム1は、ユーザUがしきりPを透視して第2の場所P2を見ているように見せかけている。したがって、上記特定位置・方向決定部33は、ユーザUの視線の開始位置Uxと一致するように、上記特定位置Sxを制御し、ユーザUの視線方向Udと一致するように、上記特定方向Sdを制御する。
【0034】
さらに、上記リモート観測システム1は、ユーザUに着用される機器として、ユーザUから見た映像を撮影するためのウェアラブルカメラ41と、第2の場所P2の映像を含む映像をユーザUに提示するウェアラブルディスプレイ42と、両機器41・42に接続されたウェアラブルコンピュータ43とを備えている。
【0035】
一例として、上記ウェアラブルカメラ41およびウェアラブルディスプレイ42は、例えば、図3に示すように、メガネと一体に形成されていてもよい。図3の例では、ウェアラブルカメラ41がメガネの上部フレーム(装着時に目の上に配されるフレーム)の中央部に設置されており、ウェアラブルディスプレイ42は、左眼用のレンズの一部を覆うように設置されている。さらに、両機器41・42は、メガネのツルの部分から延設されたコードを介して、上着のポケットの中に入れられているウェアラブルコンピュータ43に接続されている。図3の構成では、ウェアラブルカメラ41およびウェアラブルディスプレイ42がメガネと一体に形成されている。したがって、メガネを着用するだけで、ウェアラブルカメラ41を、ユーザUから見た映像を撮影できる位置に配置できると共に、ウェアラブルディスプレイ42を、ユーザUから見える位置に配置できる。したがって、各機器41・42が別体の場合に比べて、それぞれを正しい位置に配置する際の手間を削減できる。
【0036】
一方、上記ウェアラブルコンピュータ43には、図1に示すように、ウェアラブルカメラ41が撮影した映像(視野映像R41)と、上記リモート映像生成処理部32から送信されたリモート映像とを合成して、前者に後者をスーパーインポーズした画像を生成し、上記ウェアラブルディスプレイ42に表示させる映像合成処理部44が設けられている。
【0037】
なお、上記各部材32・33・34(一部後述)は、上記リモート映像生成用コンピュータ31のCPUが記憶装置に格納されたプログラムを実行し、必要に応じて入出力回路などの周辺回路(いずれも図示せず)を制御することによって実現される機能ブロックである。同様に、上記各部材44・45(一部後述)は、上記ウェアラブルコンピュータ43のCPUが記憶装置に格納されたプログラムを実行し、必要に応じて入出力回路などの周辺回路を制御することによって実現される機能ブロックである。
【0038】
上記構成では、ウェアラブルディスプレイ42の画面の少なくとも一部に、上記第2の場所の特定位置Sxから特定方向Sdを見たときの映像(リモート映像)が表示されており、ユーザUの視線が移動すると、上記特定位置・方向決定部33は、視線計測用コンピュータ22による視線の検出結果に基づいて、上記特定位置Sxおよび特定方向Sdを、当該視線の開始位置Uxおよび方向Udの移動に合わせて変更する。
【0039】
ここで、上記リモート映像生成処理部32は、例えば、「S. M. Seitz and C. R. Dyer, "View morphing",Proc. of SIGGRAPH96, pp.21-30,1996.:1996年8月4-9開催」に示すように、上記場所P2に配された複数のカメラ11a〜11cが撮影した映像を、リモート映像生成処理部33が必要に応じて回転させ、補間することによって、上記リモート映像を生成しているので、上記特定位置Sxから特定方向Sdを撮影するカメラが存在していなくても、何ら支障なく、ユーザUの視線の移動に追従するリモート映像を生成できる。
【0040】
この結果、ユーザUが第2の場所P2を直接目視できない場所にいるにも拘わらず、場所P2を示すリモート映像は、ユーザUが上記特定位置Sxから特定方向Sdを見ているときに視線を移動させたときと同じように変更される。
【0041】
したがって、上記場所P2を撮影する複数のカメラが撮影した映像を切り換えてユーザUに提示する構成とは異なり、ユーザUが、どのカメラからの映像を表示するかを切り換える必要がない。
【0042】
また、上記リモート映像生成処理部33が各カメラ11a〜11cからの映像を合成して、特定位置Sxから特定方向Sdを見たときの映像(リモート映像)を生成している。したがって、上記各リモート側カメラ11a〜11cが離散的に配置されているにも拘わらず、ユーザUに提示されている映像の視点が断続的に変化する上記構成とは異なり、ユーザUが自分の体を動かして、視線を移動させると、リモート映像は、ユーザUの視線の移動に追従して、連続的にかつ滑らかに変化する。
【0043】
この結果、上記構成の場合に発生する不具合、すなわち、ユーザUが視線を移動させているにも拘わらず、ウェアラブルディスプレイ42がユーザUに提示するリモート映像の視点が固定されているため、ユーザUに違和感を感じさせるという不具合の発生を防止できる。これにより、リモート観測システム1は、直感的に理解しやすいリモート映像をユーザUに提示でき、場所P2の情景を的確に伝えることができる。
【0044】
なお、上記では、場所P1のユーザUが、リモート映像によって、場所P2の状況を見る場合、すなわち、映像の伝達が場所P2から場所P1への一方向の場合を例にして説明したが、当該方向に映像を伝達する場合と同様の機器を、場所P1からP2へ伝達するために配置し、双方向にリモート映像を伝達できるようにしてもよい。
【0045】
具体的には、場所P1に、場所P2に配置されていた機器11a〜12cと同様の機器を配置すると共に、場所P2に、場所P1に配置されていた機器21・22と同様の機器を配置する。さらに、場所P2のユーザUにも、場所P1のユーザUが装着した機器41〜43と同様の機器を装着させる。なお、この場合、一方方向の映像伝送用のリモート映像生成用コンピュータ31とは別に他方方向の映像伝送用のリモート映像生成用コンピュータ31を設けてもよいし、両方向に共通のリモート映像生成用コンピュータ31を設けてもよい。いずれの場合であっても、各方向の伝送用に、特定位置・方向決定部33およびリモート映像生成処理部32がそれぞれ設けられていれば、同様の効果が得られる。また、双方向に映像を伝送する場合、リモート側カメラ11a〜11cおよびリモート側コンピュータ12a〜12cの一部または全部と、視線計測用カメラ21および視線計測用コンピュータ22とを共用してもよい。
【0046】
この場合は、双方向に映像をやりとりできるので、例えば、複数のユーザが、直接顔を合わせて話すことができない環境(例えば、障害物の向こうの部屋、遠隔地など)にいるような状況であっても、上述のリモート映像、すなわち、ユーザが直感的に理解しやすいように、視点(上記特定位置Sxおよび特定方向Sd)が変化する、リモートのカメラ映像を介して、各ユーザがコミュニケートできる。
【0047】
ところで、リモート映像を双方向伝送するか否かに拘わらず、特定位置Sxおよび特定方向SdをユーザUの視線の移動に追従して移動させることができれば、ユーザUが直感的に理解しやすいリモート映像を提示できるので、上記ウェアラブルディスプレイ42は、据え置き型のディスプレイであってもよいし、各ウェアラブルコンピュータ43とリモート映像生成用コンピュータ31とが有線で接続されていてもよい。
【0048】
ただし、本実施形態に係るリモート観測システム1では、特定位置Sxおよび特定方向SdがユーザUの視線の移動に追従して移動するので、例えば、上記各機器43・31を有線で接続した場合のように、ユーザUが視線を移動できる範囲が制限されていると、上記特定位置Sxおよび特定方向Sdの変更可能な範囲も制限されてしまう。また、ユーザUの視線の移動に追従して、ディスプレイに表示されるリモート映像が変化しても、例えば、ディスプレイが据え置き型の場合など、ユーザUの視線の移動に伴なって、ユーザUから見たディスプレイの位置が変化すると、ある状態のときに、ディスプレイが見やすい位置にあったとしても、その状態から視線を移動すると、ディスプレイが見にくくなってしまう。
【0049】
ところが、本実施形態に係るリモート観測システム1では、場所P1に配置される機器41〜43が、いずれもユーザUに装着可能な機器であり、ウェアラブルコンピュータ43とリモート映像生成用コンピュータ31とが無線で通信している。したがって、これらの機器41〜43を装着したユーザUは、ウェアラブルコンピュータ43とリモート映像生成用コンピュータ31との間の通信を阻害することなく移動でき、ユーザUの移動範囲が限定されている場合に比べて、上記特定位置Sxおよび特定方向Sdの変更可能な範囲を拡大できる。この結果、より的確に場所P2の情景を提示できる。
【0050】
また、本実施形態に係るリモート観測システム1では、上記ウェアラブルディスプレイ42がユーザUに装着されているので、ユーザUが移動しても、ユーザUから見たウェアラブルディスプレイ42の位置は一定である。したがって、ユーザUの視線が移動するにも拘わらず、常時、ユーザUの見やすい位置にウェアラブルディスプレイ42を配置でき、より的確に場所P2の情景を提示できる。
【0051】
さらに、本実施形態に係るリモート観測システム1は、上記映像合成処理部44が、ウェアラブルカメラ41の撮影した映像の一部に重畳してリモート映像を表示している。
【0052】
したがって、臨場感を増すために、ウェアラブルディスプレイ42がユーザUの視界全てまたは殆ど全てを覆った結果、ユーザUが自分の周囲をウェアラブルディスプレイ42の表示によらず、直接、目で確認することが難しい場合であっても、ウェアラブルディスプレイ42に表示された、ウェアラブルカメラ41の映像によって、ユーザUの周囲の状況をユーザUへ伝えることができる。この結果、ユーザUは、上記リモート観測システム1から、視界全てまたは殆ど全てを覆うウェアラブルディスプレイ42によって臨場感溢れる映像の提示を受けているにも拘わらず、安全かつ自由に上記場所P1を移動できる。したがって、いつでも、どこでも、歩きながらでも、ユーザUは、送信されてくるリモート映像を視認でき、ポジションフリーなリモート観測システム1を実現できる。また、本実施形態において、機器41〜43は、ユーザUに装着されるので、ユーザUが、これらの機器41〜43を手で保持しなくても、ユーザUの視界を撮影できると共に、ユーザUにリモート映像などの映像を提示できる。したがって、ユーザUは、歩きながらであっても、他の作業中であっても、リモート観測システム1からの映像を視認できる。
【0053】
また、リモート側カメラ11a〜11cとして、ユビキタスカメラ、すなわち、環境中に設置されたカメラ群を利用することによって、広範囲な観測が可能になり、必要に応じて、観測空間中のさまざまな場所の様子を見ることができるようになる。
【0054】
さらに、リモート映像を双方向伝送した場合、従来のリモートコミュニケーションシステム、すなわち、お互いの目の前に固定されたカメラ・ディスプレイからの映像を表示するシステムとは異なり、机の上などに固定されたカメラの前にいなくても、相手側(リモート側)の映像を取得でき、かつ、相手に、自らの映像をリモート映像として提示できる。また、上記カメラの設置場所および撮影方向からの映像以外の映像を相手に提示できる。したがって、より自然で的確なコミュニケーションが可能になり、上記リモート観測システム1は、コミュニケーションシステムとして好適に動作できる。
【0055】
ところで、リモート映像を双方向伝送するか否かに拘わらず、上記場所P1および場所P2が、以下のような関係、すなわち、本来であれば、ユーザUから見た場所P1の映像と、場所P2の特定位置Sxから特定方向Sdを見たときの映像(リモート映像)との間に幾何学的整合性が保たれている関係にある場合、リモート映像と、ウェアラブルカメラ41の撮影した映像との双方を表示し、しかも、視線計測用コンピュータ22による、ユーザUの視線の検出時に誤差が発生すると、両映像の境界において、幾何学的整合性が崩れる虞れがある。
【0056】
ここで、上記「本来であれば」は、より詳細に説明すると、「視線計測用コンピュータ22による視線の計測が正確で、しかも、リモート映像生成処理部33による特定位置Sxから特定方向Sdを見たときの映像生成に誤差がないとすると」を意味している。また、上記場所P1およびP2が、このような関係にある場合の例としては、壁面W1のうち、しきりPによって遮られていない場所がユーザUの視界に入る場合(図2参照)のように、リモート映像と、ウェアラブルカメラ41の撮影した映像とが同じ対象を観測している場合、あるいは、場所P1の壁面や天井あるいは床面などに場所P2と同じ模様が描かれている場合などが挙げられる。
【0057】
これに対して、本実施形態に係るウェアラブルコンピュータ43には、ウェアラブルカメラ41が撮影した視野映像をリモート映像生成用コンピュータ31に送信する視野映像送信部45が設けられており、リモート映像生成用コンピュータ31は、視野映像送信部45から受け取った視野映像と、リモート映像とを比較して、上記両映像の幾何学的整合性を検出すると共に、両映像が幾何学的に最も整合性の取れるように、上記特定位置・方向決定部33へ、上記特定位置Sxおよび特定方向Sdの変更を指示する幾何学的整合性調整部34を備えている。
【0058】
当該構成では、ユーザUの視線の計測時の誤差などによって、幾何学的整合性が取れなくなっても、上記幾何学的整合性調整部34によって幾何学的整合性の乱れが解消されるように、上記特定位置Sxおよび特定方向Sdが変更され、視線計測時の誤差が打ち消される。この結果、より高精度に視線を計測でき、視線計測の誤差に起因する、上記両映像の幾何学的整合性の乱れを防止できる。これにより、リモート観測システム1が上記両映像を重畳して提示しているにも拘わらず、違和感のない映像をユーザUに提示できる。
【0059】
また、上記では、視線計測の精度向上のために、ユーザUに、周囲の状況を伝えるための機器(ウェアラブルカメラ41)の映像を参照している。したがって、計測精度が向上しているにも拘わらず、他の機器を新たにユーザUに装着させて計測精度を向上させる場合と異なり、ユーザUが装着する必要のある機器の数や重量の増加を抑えることができる。
【0060】
また、上記映像合成処理部44は、両映像を合成する際、上記両映像が光学的に最も整合性が取れるように、両映像の少なくとも一方の輝度を調整する。これにより、ウェアラブルカメラ41が撮影した映像とリモート映像との境界において、輝度が相互に異なっている場合、すなわち、そのまま合成すると、光学的整合性が取れなくなり、ユーザUに両者の境界を不所望に認識させると共にユーザUの目に負担をかける場合であっても、ウェアラブルディスプレイ42に表示された時点の上記両映像の光学的整合性を維持できる。この結果、上記両映像を重畳して表示しているにも拘わらず、自然で目に負担の少ない映像をユーザUに提示できる。
【0061】
以下では、図4〜図12を参照しながら、幾何学的整合性の検出/補正方法および光学的整合性の検出/補正方法について詳細に説明する。例えば、図4に示すように、リモート側カメラ11a〜11cは、場所P1の床面に載置された視認対象物O1を撮影している場合、それぞれの撮影結果R11a〜R11cは、図5〜図7に示すようになる。これら撮影結果R11a〜R11cは、図1に示すリモート映像生成用コンピュータ31によって合成され、図8に示すように、特定位置Sxおよび特定方向Sdからの映像(リモート映像)R31になる。さらに、ウェアラブルコンピュータ43によって、当該リモート映像R31は、ウェアラブルカメラ41が撮影した映像(視野映像R41:図9参照)に重畳され、図10に示す映像R42としてウェアラブルディスプレイ42に表示される。
【0062】
ここで、上述したように、視線計測用コンピュータ22による視線の計測が正確で、しかも、リモート映像生成処理部33による特定位置Sxから特定方向Sdを見たときの映像生成に誤差がないとすると、ユーザUから見た場所P1の映像と、場所P2の特定位置Sxから特定方向Sdを見たときの映像(リモート映像)との間に幾何学的整合性が保たれているはずである。
【0063】
例えば、図10は、ユーザUが、図2に示す、しきりPを介して、壁面W11を見た場合の映像R42を示しており、視野映像R41の左2/3は、図2に示すしきりPを、右1/3は、壁面W11を示している。一方、視野映像R41に重畳表示されているリモート映像R31は、リモート側カメラ11a〜11cによって、しきりPを介さずに壁面W11などを撮影し、撮影結果R11a〜11cを、ユーザUの視点から見たように合成したものである。この場合、視野映像R41の一部とリモート映像R31の一部とは、壁面W11の同じ場所(線)を、同じ位置から見たときの映像になる。したがって、視線の計測誤差がなければ、両者の境界(リモート映像R31の右側の境界)において、リモート映像R31中の線L1は、図10に示すように、視野映像R41中の線L2と滑らかに繋がるはずである。
【0064】
ところが、実際には、視線計測用コンピュータ22による視線の計測に誤差が含まれているため、単に上記リモート映像R31を視野映像R41に重畳しただけでは、図11に示すように、幾何学的整合性が取れなくなり、線L1と線L2とが滑らかに繋がらなくなる虞れがある。
【0065】
これに対して、本実施形態に係る幾何学的整合性調整部34は、以下のようにして、幾何学的整合性が取れるように、特定位置Sxおよび特定方向Sdを調整している。すなわち、幾何学的整合性調整部34は、最初に、リモート映像R31のうち、視線の計測誤差がなければ、視野映像R41と幾何学的整合性が取られている部分を抽出する。
【0066】
具体的には、幾何学的整合性調整部34は、リモート映像R31と、視野映像R41のうち、リモート映像R31に重畳されている部分との双方を、図12に示すように、予め定められた大きさのブロックに分割し、リモート映像R31の各ブロックと、それに対応する視野映像R41のブロックとを比較して、両者の差分、より詳細には、それぞれに含まれる画素同士の差分値の総和を求める。さらに、各ブロックの差分のヒストグラムが双峰性を持つと仮定して、上記幾何学的整合性調整部34は、各ブロックの差分値をしきい値で2値化し、差分値がしきい値よりも小さいブロックを、同一対象を観測しているブロックB1(幾何学的整合性を取るべきブロック)、しきい値よりも大きなブロックを、異なる対象を観測しているブロックB2(幾何学的整合性を取る必要がないブロックと判定する。
【0067】
このように、リモート映像R31および視野映像R41のうち、幾何学的整合性を取るべき部分(上記ブロックB1)が抽出されると、当該部分では、リモート映像R31と視野映像R41との差分が最小になるような特定位置Sxおよび特定方向Sdを、非線形最小2乗法によって求める。ここで、非線形最小2乗法の評価値は、リモート映像R31と視野映像R41との差分値であり、調整パラメータは、特定位置Sxおよび特定方向Sdである。
【0068】
両者の差分が最小となるような特定位置Sxおよび特定方向Sdが決定されると、当該特定位置Sxおよび特定方向Sdが図1に示す特定位置・方向決定部33へ指示され、リモート映像生成処理部32は、当該特定位置Sxから特定方向Sdを見たときのリモート映像を生成する。
【0069】
これにより、視線計測に誤差が発生したとしても、リモート観測システム1は、図10に示すように、リモート映像R31と視野映像R41との間に整合性の取れた映像R42をウェアラブルディスプレイ42に表示できる。
【0070】
続いて、映像合成処理部44による光学的整合性の取り方について図13に基づいて説明する。すなわち、映像合成処理部44は、図13中、NlおよびNsに示すように、視野映像R41およびリモート映像R31のうち、隣接する画素群については、両画素の輝度を、両者の平均値に補正する。
【0071】
さらに、映像合成処理部44は、視野映像R41のうち、上記隣接画素群以外の画素Iについては、補正後の輝度Irを、以下の式(1)に示すように、
Ir=Io+Df/(Db+Df)×(Inr−Ino) …(1)
と設定する。なお、上式(1)において、Dfは、画素Iから、最も近い映像R42の外枠までの距離であり、Dbは、画素Iから、最も近い境界の画素Nまでの距離である。ここで、画素Nは、視野映像R41中の画素であり、Inrは、当該画素Nの補正後の輝度値、Inoは、画素Nの補正後の輝度値を示している。さらに、Ioは、画素Iの輝度である。
【0072】
また、映像合成処理部44は、リモート映像R31のうち、上記隣接画素群以外の画素Jについては、補正後の輝度Jrを、以下の式(2)に示すように、
Jr=Jo+Dc/(Db+Dc)×(Icr−Ico) …(2)
と設定する。なお、上式(2)において、Dcは、画素Jから、リモート映像R31の中心までの距離であり、Dbは、画素Iから、最も近い境界の画素Nまでの距離である。ここで、画素Nは、リモート映像R31中の画素であり、Inrは、当該画素Nの補正後の輝度値、Inoは、画素Nの補正後の輝度値を示している。さらに、Joは、画素Jの輝度である。
【0073】
これにより、各カメラのパラメータ(絞り、ゲイン、口径喰補正値など)の差などによって、本来は等しいはずの輝度値が異なる場合であっても、リモート観測システム1は、滑らかに輝度が変化する映像をユーザUに提示でき、輝度が急峻に変化する場合と異なり、ユーザUに違和感を感じさせない映像を提供できる。
【0074】
なお、上記では、各映像R41・R31がモノクロ濃淡画像の場合を例にして説明したが、カラー画像に対しても、R,G,Bの各輝度値について、同様の処理を行うことによって、両映像間の光学的整合性を取ることができる。
【0075】
ところで、上記では、上記場所P1および場所P2が、以下のような関係、すなわち、本来であれば、ユーザUから見た場所P1の映像と、場所P2の特定位置Sxから特定方向Sdを見たときの映像(リモート映像)との間に幾何学的整合性が保たれている関係にある場合を例にして、ユーザUが装着する機器の数および重量の増加を抑えながら、視線計測の精度を向上する構成について説明したが、場所P1およびP2が上述の関係にない場合には、以下の構成によって、同様の効果が得られる。
【0076】
具体的には、図14に示すように、場所P1にも、場所P2と同様に、互いに異なる方向を撮影するためのユーザ側カメラ46a〜46cおよびユーザ側コンピュータ47a〜75cをそれぞれ複数備え、例えば、ウェアラブルコンピュータ43やネットワーク2に接続されたコンピュータ(図14の場合は、リモート映像生成用コンピュータ31)には、リモート映像生成処理部32および特定位置・方向決定部33と略同様のユーザ映像生成処理部35およびユーザ位置・方向決定部36が設けられている。なお、双方向に映像を伝送する場合と同様に、ユーザ側カメラ46a〜46cおよびユーザ側コンピュータ47a〜47cの一部または全部と、視線計測用カメラ21および視線計測用コンピュータ22とを共用してもよい。
【0077】
ただし、ユーザ映像生成処理部35は、各リモート側カメラ11a〜11cが撮影した映像に代えて、ユーザ側カメラ46a〜46cからの映像に基づいて、ユーザUの視線の開始位置Uxから、ユーザUの視線の方向Udを見たときの映像(ユーザ映像)を生成している。また、ユーザ位置・方向決定部36は、特定位置Sxおよび特定方向Sdに代えて、上記開始位置Uxおよび方向Udを視線情報に基づいて変更する。
【0078】
さらに、この構成の場合、上記幾何学的整合性調整部34は、リモート映像と視野映像R41との境界が滑らかに繋がるように、ユーザ映像と視野映像R41とが一致するように、開始位置Uxおよび方向Udを調整する。なお、この場合は、両映像が一致することが想定されるため、視野映像R41の各ブロックにおいて、両映像の差分が最小になるような開始位置Uxおよび方向Udを、非線形最小2乗法によって求める。また、ユーザ位置・方向決定部36は、開始位置Uxおよび方向Udを変更した分だけ、特定位置Sxおよび特定方向Sdを変更するように、特定位置・方向決定部33へ指示する。
【0079】
この場合であっても、ユーザUに、周囲の状況を伝えるための機器(ウェアラブルカメラ41)の映像を参照して特定位置Sxおよび特定方向Sdを変更しているため、ユーザUが装着する機器の数および重量の増加を抑えながら、視線計測の精度を向上することができる。
【0080】
なお、上記では、視線計測用コンピュータ22が視線計測用カメラ21によるユーザの撮影結果に基づいて、ユーザの視線を追跡しているが、これに限るものではない。例えば、頭部の位置・姿勢を検出するシステムをユーザに装着させて、これらによって、頭部の位置および向きを計測し、それに基づいて、ユーザの視線方向を推定してもよい。いずれの場合であっても、ユーザの視線を追跡できれば、同様の効果が得られる。
【0081】
ただし、本実施形態のように、ユーザの撮影結果に基づいてユーザの視線を追跡する方が、頭部の位置・姿勢を検出するための機器を新たにユーザに装着させる場合よりも、ユーザの装着する機器の数および重量の増加を抑えることができる。
【0082】
また、本実施形態では、リモート映像生成用コンピュータ31およびウェアラブルコンピュータ43を構成する各部材32〜36・44〜45が、「CPUなどの演算手段がROMやRAMなどの記録媒体に格納されたプログラムコードを実行することで実現される機能ブロックである」場合を例にして説明したが、同様の処理を行うハードウェアで実現してもよい。また、処理の一部を行うハードウェアと、当該ハードウェアの制御や残余の処理を行うプログラムコードを実行する上記演算手段とを組み合わせても実現することもできる。さらに、上記各部材のうち、ハードウェアとして説明した部材であっても、処理の一部を行うハードウェアと、当該ハードウェアの制御や残余の処理を行うプログラムコードを実行する上記演算手段とを組み合わせても実現することもできる。なお、上記演算手段は、単体であってもよいし、装置内部のバスや種々の通信路を介して接続された複数の演算手段が共同してプログラムコードを実行してもよい。
【0083】
上記演算手段によって直接実行可能なプログラムコード自体、または、後述する解凍などの処理によってプログラムコードを生成可能なデータとしてのプログラムは、当該プログラム(プログラムコードまたは上記データ)を記録媒体に格納し、当該記録媒体を配付したり、あるいは、上記プログラムを、有線または無線の通信路を介して伝送するための通信手段で送信したりして配付され、上記演算手段で実行される。
【0084】
なお、通信路を介して伝送する場合、通信路を構成する各伝送媒体が、プログラムを示す信号列を伝搬し合うことによって、当該通信路を介して、上記プログラムが伝送される。また、信号列を伝送する際、送信装置が、プログラムを示す信号列により搬送波を変調することによって、上記信号列を搬送波に重畳してもよい。この場合、受信装置が搬送波を復調することによって信号列が復元される。一方、上記信号列を伝送する際、送信装置が、デジタルデータ列としての信号列をパケット分割して伝送してもよい。この場合、受信装置は、受信したパケット群を連結して、上記信号列を復元する。また、送信装置が、信号列を送信する際、時分割/周波数分割/符号分割などの方法で、信号列を他の信号列と多重化して伝送してもよい。この場合、受信装置は、多重化された信号列から、個々の信号列を抽出して復元する。いずれの場合であっても、通信路を介してプログラムを伝送できれば、同様の効果が得られる。
【0085】
ここで、プログラムを配付する際の記録媒体は、取外し可能である方が好ましいが、プログラムを配付した後の記録媒体は、取外し可能か否かを問わない。また、上記記録媒体は、プログラムが記憶されていれば、書換え(書き込み)可能か否か、揮発性か否か、記録方法および形状を問わない。記録媒体の一例として、磁気テープやカセットテープなどのテープ、あるいは、フロッピー(登録商標)ディスクやハードディスクなどの磁気ディスク、または、CD−ROMや光磁気ディスク(MO)、ミニディスク(MD)やデジタルビデオディスク(DVD)などのディスクが挙げられる。また、記録媒体は、ICカードや光カードのようなカード、あるいは、マスクROMやEPROM、EEPROMまたはフラッシュROMなどのような半導体メモリであってもよい。あるいは、CPUなどの演算手段内に形成されたメモリであってもよい。
【0086】
なお、上記プログラムコードは、上記各処理の全手順を上記演算手段へ指示するコードであってもよいし、所定の手順で呼び出すことで、上記各処理の一部または全部を実行可能な基本プログラム(例えば、オペレーティングシステムやライブラリなど)が既に存在していれば、当該基本プログラムの呼び出しを上記演算手段へ指示するコードやポインタなどで、上記全手順の一部または全部を置き換えてもよい。
【0087】
また、上記記録媒体にプログラムを格納する際の形式は、例えば、実メモリに配置した状態のように、演算手段がアクセスして実行可能な格納形式であってもよいし、実メモリに配置する前で、演算手段が常時アクセス可能なローカルな記録媒体(例えば、実メモリやハードディスクなど)にインストールした後の格納形式、あるいは、ネットワークや搬送可能な記録媒体などから上記ローカルな記録媒体にインストールする前の格納形式などであってもよい。また、プログラムは、コンパイル後のオブジェクトコードに限るものではなく、ソースコードや、インタプリトまたはコンパイルの途中で生成される中間コードとして格納されていてもよい。いずれの場合であっても、圧縮された情報の解凍、符号化された情報の復号、インタプリト、コンパイル、リンク、または、実メモリへの配置などの処理、あるいは、各処理の組み合わせによって、上記演算手段が実行可能な形式に変換可能であれば、プログラムを記録媒体に格納する際の形式に拘わらず、同様の効果を得ることができる。
【図面の簡単な説明】
【図1】本発明の実施形態を示すものであり、リモート観測システムの要部構成を示すブロック図である。
【図2】上記リモート観測システムのカメラの配置を示す図面である。
【図3】上記リモート観測システムにおいて、ユーザに装着される機器を示す図面である。
【図4】上記リモート観測システムにおいて、ユーザと視認対象物との位置関係を示す図面である。
【図5】上記リモート観測システムにおいて、あるリモート側カメラが撮影した映像を示す図面である。
【図6】上記リモート観測システムにおいて、他のリモート側カメラが撮影した映像を示す図面である。
【図7】上記リモート観測システムにおいて、さらに他のリモート側カメラが撮影した映像を示す図面である。
【図8】上記リモート観測システムにおいて、上記各リモート側カメラが撮影した映像から生成されたリモート映像を示す図面である。
【図9】上記リモート観測システムにおいて、ウェアラブルカメラが撮影した映像を示す図面である。
【図10】上記リモート観測システムにおいて、ユーザに提示される映像を示す図面である。
【図11】幾何学的整合性が保たれていないにも拘わらず、ユーザ側映像とリモート映像とを単に重畳して表示した状態を示す図面である。
【図12】上記リモート観測システムにおいて、幾何学的整合性を保つべきブロックを抽出する方法を示す図面である。
【図13】上記リモート観測システムにおいて、光学的整合性を維持する方法を示す図面である。
【図14】上記リモート観測システムの変形例を示すものであり、双方向にリモート映像を伝送可能なリモート観測システムの要部構成を示すブロック図である。
【符号の説明】
1・1a リモート観測システム(リモート観測装置)
11a〜11c リモート側カメラ(カメラ)
22 視線計測用コンピュータ(視線計測手段)
32 リモート映像生成処理部(リモート映像生成手段)
33 特定位置・方向決定部(変更手段)
34 幾何学的整合性調整部(調整手段)
43 映像合成処理部(重畳手段)

Claims (4)

  1. 互いに異なる方向を撮影するように配置した複数のカメラにより撮影された映像を合成することによって、予め定められる特定位置から予め定められる特定方向を見た映像を生成し、生成されたリモート映像をユーザに提示するリモート映像生成手段と、
    上記ユーザの視線を計測する視線計測手段と、
    計測された視線の変更に伴なって、上記特定位置および特定方向を変更する変更手段と、
    ユーザが見ている方向を撮影するユーザ側カメラによって撮影されたユーザ側映像と、上記リモート映像とを重畳する重畳手段と
    上記ユーザ側映像およびリモート映像が、両者の境界で滑らかにつながるように、上記特定位置および特定方向を微調整する調整手段と、を備えていることを特徴とするリモート観測装置。
  2. 上記重畳手段は、上記ユーザ側映像の輝度とリモート映像の輝度とが、両映像の境界で滑らかに変化するように、両映像の輝度の少なくとも一方を調整することを特徴とする請求項1記載のリモート観測装置。
  3. 互いに異なる方向を撮影するように配置した複数のカメラにより撮影された映像を合成することによって、予め定められる特定位置から予め定められる特定方向を見た映像を生成し、生成されたリモート映像をユーザに提示するリモート映像生成手段と、
    上記ユーザの視線を計測する視線計測手段と、
    計測された視線の変更に伴なって、上記特定位置および特定方向を変更する変更手段と、
    ユーザが見ている方向を撮影するユーザ側カメラによって撮影されたユーザ側映像と、上記リモート映像とを重畳する重畳手段と、を備え、
    上記重畳手段は、上記ユーザ側映像の輝度とリモート映像の輝度とが、両映像の境界で滑らかに変化するように、両映像の輝度の少なくとも一方を調整することを特徴とするリモート観測装置。
  4. 上記ユーザ側映像およびリモート映像が、両者の境界で滑らかにつながるように、上記特定位置および特定方向を微調整する調整手段を備えていることを特徴とする請求項3記載のリモート観測装置。
JP2003192146A 2003-07-04 2003-07-04 リモート観測装置 Expired - Fee Related JP4503945B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003192146A JP4503945B2 (ja) 2003-07-04 2003-07-04 リモート観測装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003192146A JP4503945B2 (ja) 2003-07-04 2003-07-04 リモート観測装置

Publications (2)

Publication Number Publication Date
JP2005027166A JP2005027166A (ja) 2005-01-27
JP4503945B2 true JP4503945B2 (ja) 2010-07-14

Family

ID=34189530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003192146A Expired - Fee Related JP4503945B2 (ja) 2003-07-04 2003-07-04 リモート観測装置

Country Status (1)

Country Link
JP (1) JP4503945B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107256136A (zh) * 2012-06-25 2017-10-17 英特尔公司 使用叠加动画促成由多个用户对媒体内容的同时消费

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4747296B2 (ja) * 2005-06-15 2011-08-17 国立大学法人九州工業大学 遮蔽空間の可視化方法
WO2017094978A1 (ko) * 2015-12-04 2017-06-08 심플렉스 인터넷 주식회사 다수 개의 카메라를 기반으로 하는 영상 전송 방법, 장치 및 시스템
KR101782582B1 (ko) * 2015-12-04 2017-09-28 카페24 주식회사 아이 트랙킹을 기반으로 하는 영상 전송 방법, 장치 및 시스템
KR101807159B1 (ko) * 2015-12-04 2017-12-11 카페24 주식회사 다수 개의 카메라를 기반으로 하는 영상 전송 방법, 장치 및 시스템
WO2017094979A1 (ko) * 2015-12-04 2017-06-08 심플렉스 인터넷 주식회사 아이 트랙킹을 기반으로 하는 영상 전송 방법, 장치 및 시스템
AT518890B1 (de) 2016-09-02 2018-02-15 Trumpf Maschinen Austria Gmbh & Co Kg Biegemaschine mit einer Arbeitsbereich-Bilderfassungsvorrichtung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039398A (ja) * 1999-07-30 2001-02-13 Kawasaki Heavy Ind Ltd ヘリコプタの操縦支援装置
JP2001320732A (ja) * 2000-05-10 2001-11-16 Natl Inst Of Advanced Industrial Science & Technology Meti 遠隔操作用画像の伝送方法
JP2002176661A (ja) * 2000-12-08 2002-06-21 Kawasaki Heavy Ind Ltd 画像表示装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3338618B2 (ja) * 1996-10-07 2002-10-28 ミノルタ株式会社 実空間画像と仮想空間画像の表示方法及び表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039398A (ja) * 1999-07-30 2001-02-13 Kawasaki Heavy Ind Ltd ヘリコプタの操縦支援装置
JP2001320732A (ja) * 2000-05-10 2001-11-16 Natl Inst Of Advanced Industrial Science & Technology Meti 遠隔操作用画像の伝送方法
JP2002176661A (ja) * 2000-12-08 2002-06-21 Kawasaki Heavy Ind Ltd 画像表示装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107256136A (zh) * 2012-06-25 2017-10-17 英特尔公司 使用叠加动画促成由多个用户对媒体内容的同时消费
CN107256136B (zh) * 2012-06-25 2020-08-21 英特尔公司 使用叠加动画促成由多个用户对媒体内容的同时消费
US10956113B2 (en) 2012-06-25 2021-03-23 Intel Corporation Facilitation of concurrent consumption of media content by multiple users using superimposed animation
US11526323B2 (en) 2012-06-25 2022-12-13 Intel Corporation Facilitation of concurrent consumption of media content by multiple users using superimposed animation
US11789686B2 (en) 2012-06-25 2023-10-17 Intel Corporation Facilitation of concurrent consumption of media content by multiple users using superimposed animation

Also Published As

Publication number Publication date
JP2005027166A (ja) 2005-01-27

Similar Documents

Publication Publication Date Title
US9798920B2 (en) Image processing apparatus, image processing method, and image communication system
CN108885799B (zh) 信息处理设备,信息处理系统以及信息处理方法
RU2693684C1 (ru) Система отображения изображения, способ управления системой отображения изображения, система трансляции изображения и закрепляемое на голове устройство отображения
CN109952759B (zh) 用于具有hmd的视频会议的改进的方法和系统
JP5538483B2 (ja) 映像処理装置、映像処理方法、および映像処理システム
US10310595B2 (en) Information processing apparatus, information processing method, computer program, and image processing system
JP6953247B2 (ja) ゴーグル型表示装置、視線検出方法及び視線検出システム
US11294179B2 (en) Coordinating an eye-mounted imager with an external camera
US20210278671A1 (en) Head wearable device with adjustable image sensing modules and its system
US20230239457A1 (en) System and method for corrected video-see-through for head mounted displays
JP4503945B2 (ja) リモート観測装置
JP2011010126A (ja) 画像処理装置、画像処理方法
CN111127822B (zh) 一种基于增强现实的消防辅助方法及智能穿戴设备
US20200213467A1 (en) Image display system, image display method, and image display program
JP2021515302A (ja) 視線追跡方法および装置
EP3588448B1 (en) Method and system for displaying a virtual object
KR101842210B1 (ko) 시선 추적 기반 콘텐츠 제공 방법 및 장치
US20210400234A1 (en) Information processing apparatus, information processing method, and program
WO2022091832A1 (ja) 情報処理装置、情報処理システム、情報処理方法、および情報処理端末
JP7258620B2 (ja) 画像処理システム、及び画像処理方法
JP7256491B2 (ja) 映像伝送システム、映像伝送装置、および、映像伝送プログラム
JP2000218575A (ja) 画像提示装置
JP2016005007A (ja) ヘッドマウントディスプレイおよび画像処理装置
US20230290081A1 (en) Virtual reality sharing method and system
WO2024071208A1 (ja) 表示装置、表示方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060509

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees