JP2013218535A - 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置 - Google Patents
三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置 Download PDFInfo
- Publication number
- JP2013218535A JP2013218535A JP2012088776A JP2012088776A JP2013218535A JP 2013218535 A JP2013218535 A JP 2013218535A JP 2012088776 A JP2012088776 A JP 2012088776A JP 2012088776 A JP2012088776 A JP 2012088776A JP 2013218535 A JP2013218535 A JP 2013218535A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- image
- hand
- single color
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】三次元モデリングされたCG画像による仮想空間の中で、現実空間の手や指の動きを正確に表現できる方法及び装置を提供する。更には、その三次元モデリングされたCG画像を鮮明に表示する為の広視野角ヘッドマウントディスプレイ装置を提供する。
【解決手段】三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、前記第2のCG画像の各指の動きについては、現実空間での被験者の指をカメラで撮影して、前記カメラで撮影した各指の画像から推定した各指の形状と同じ形状になる様に、前記第2のCG画像の各指の動きを制御する際、背景や各指の干渉が少ない手袋を用い、予め計測されたデータベースと同手袋の形状を照合することで、現実空間の手や指の動きを正確に表現する。
【選択図】図1
【解決手段】三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、前記第2のCG画像の各指の動きについては、現実空間での被験者の指をカメラで撮影して、前記カメラで撮影した各指の画像から推定した各指の形状と同じ形状になる様に、前記第2のCG画像の各指の動きを制御する際、背景や各指の干渉が少ない手袋を用い、予め計測されたデータベースと同手袋の形状を照合することで、現実空間の手や指の動きを正確に表現する。
【選択図】図1
Description
本発明は、仮想空間で三次元モデリングされたCG(コンピュータグラフィックス)画像と、それを評価する手及び指を三次元モデリングしたCG画像とを重畳し、混在させて表示する評価システム、及び三次元モデリングされたCGを仮想空間像として表示する広視野角ヘッドマウントディスプレイ装置に関する。
世の中には高付加価値の大型特注品、自動車等の大型装置を開発・製造する技術が数多くある。その殆どは大規模試作により検証を行う為、開発のコスト・期間が増加する等の問題を抱える。この様な付加価値の高い製品を開発する企業にとって、上記問題の改善は不可欠である。これを解決する為の手段として、バーチャルリアリティを用いた試作レスシステムに注目が集まっている。この試作レスシステムとして有名なのが、リアプロジェクターのスクリーンを立方体の面に沿って配置していく「Cave」というシステムである。コスト面から3面のスクリーンで構成されるものが多く、この3面のスクリーンに継ぎ目が目立たない様に仮想空間で三次元モデリングされたCG画像を表示し、専用メガネによりCADでデザインした製品が、あたかも浮かび出ている様に3Dで見せるシステムである。
しかし、このCaveは実際の手で評価を行う。その為、仮想空間で三次元モデリングされたCG画像の奥に手を入れることができず、混在させることができない。その為、大きさや部品配置を手で検証することが難しいという問題を有している。仮想空間の中では、仮想空間に自分の存在(例えば手など)を混在させ表示することにより、高い臨場感、没入感で仮想空間内での作業を効率良く進めることが重要となる。
この問題を解決できるのは、仮想空間で三次元モデリングされたCG画像に、それを評価する手段(例えば手)もCG画像として重畳し、混在させ表示する評価システムである。
この評価システムの第1の方法として、仮想空間の現実世界の映像と、三次元モデリングされたCG画像とを重畳して表示し、あたかも現実の世界にCGで描かれた物体(仮想物体)が存在しているかのように見せることができる複合現実感技術が知られている。これは、現実世界の映像を撮影するための現実映像撮影手段(例えばビデオカメラ)と、現実世界の映像を撮影している位置から見たようにCG画像を作り出すCG画像生成手段と、両者を合成して表示することのできる映像表示手段(例えばヘッドマウントディスプレイやモニタ)とからなる装置である。
しかしながら、観察者が操作しようとしている現実空間上のオブジェクトの前に仮想空間上のCGオブジェクトが存在する場合、単純に現実世界の映像の上に仮想空間上のCGオブジェクトを重畳してしまうと、観察者が操作しようとする現実空間上のオブジェクトは仮想空間上のCGオブジェクトに隠れて見えなくなってしまう。
そこで、これを解決する為に、特許文献1では、複合現実空間において、現実空間上のオブジェクトの前に仮想空間上のコンピュータグラフィックスによるオブジェクトが存在して、現実空間上のオブジェクトを隠している場合に、仮想空間上のコンピュータグラフィックスによるオブジェクトを透明化する方法が提案されている。
そこで、これを解決する為に、特許文献1では、複合現実空間において、現実空間上のオブジェクトの前に仮想空間上のコンピュータグラフィックスによるオブジェクトが存在して、現実空間上のオブジェクトを隠している場合に、仮想空間上のコンピュータグラフィックスによるオブジェクトを透明化する方法が提案されている。
また、複合現実感技術を使わない第2の方法として、三次元モデリングされたCG画像で手のモデルを作成する方法がある。モーションキャプチャー技術を用いて現実空間での手の位置を検出し、三次元モデリングされたCG画像による仮想空間の中で、三次元モデリングされたCG画像の手も表示することにより、複合現実感技術と同様に仮想空間内での作業を効率良く進めることが可能である。
しかし、モーションキャプチャーで動きを確認できるのは手の動きだけであり、指の細かい動きを広い空間で検出し、画像表示手段に表示するのは技術的に難しい。
一方、別の分野で、人間の手指と類似した形状の多指型のロボットハンドが開発されている。その多指型のロボットハンドは、人間の手と同様に関節が動く構成とすることにより、人間の手と同様に物を掴むなどの作業が可能となり、高度な作業が行える。
このロボットハンドの動作を制御する手法の1つとして、操作者の手指をカメラで撮影して、そのカメラで撮影した手指の画像から推定した手指の形状と同じ形状を、ロボットハンドで再現させることが提案されている。特許文献2には、手指の画像から手指の形状を推定して、ロボットハンドを制御する手法についての記載がある。特許文献2に記載された手法では、手指を撮影した画像から、手指の輪郭を検出し、その輪郭から手指の形状を推定するようにしている。
しかし、その輪郭からの推定では、手の平が見えているのか、あるいは手の甲が見えているのか、判別するのが困難な場合がある。さらに、指を曲げた状態の画像から、1つ1つの指の関節の角度を正確に判断するのが困難な場合がある。そこで特許文献3では、手指の種々の形状に対応した画像データと、その画像データで示される形状のときの爪の位置を示す爪位置データを用いる方法が提案されている。これにより、手指画像を高速、高精度で最類似画像を推定することができ、且つデータベースの構築を簡単にできる。
更に、データベースの構築を簡単にする方法として、特許文献4では、形状推定すべき手指画像の前腕部の延在方向が所定方向に向いていない場合でも、すなわちユーザが上肢を自由に動かした場合でも、手指形状と前腕部の傾きとの推定を可能にする手指形状推定を行う処理が考案されている。これは第1推定処理で手指画像の全体形状の特徴で類似画像検索を行い、類似画像候補となる照合画像データの数(データセット数)をある程度の数に絞りこみ、その結果、第2推定処理で詳細な類似度照合を行う際の探索量(処理量)を減らすことができるというものである。
また特許文献5には、手首に装着したカラーリストバンドをカメラで撮影し、このカラーリストバンドの色データを検出し、その検出された色データを、データベースに記憶された回旋角度の色データと照合し、前腕回旋角度を決定する。さらに、その前腕回旋角度データに基づいて、その前腕回旋角度データに対応してデータベースに記憶された手指の画像を読み出し、その手指の画像で示される手指の形状を、検出対象の手指の形状として判定することで、照合時間を短縮する方法も提案されている。
一方、仮想空間で三次元モデリングされたCG画像を表示する為の表示装置として、ヘッドマウントディスプレイがある。中でも、視野角60°を超す装置は、バーチャルリアリティを用いた試作レスシステムとして産業用に採用されている。しかし、視野角が60°以上になると、その光学設計が極端に困難となり、市販されているヘッドマウントディスプレイの様に、画像表示パネル自体を、接眼レンズを介して直接見ることが出来なくなってくる。特許文献6ではこれを解決する為に、画像表示パネルの映像をリレー光学系により拡大し、拡散板に投影し、その拡散板からの透過像を、接眼光学系を介して見る方法をとっている。
上記の複合現実感技術を用いた第1の方法に於いては、その現実世界の映像の上に仮想空間上のCGオブジェクトが重畳した場合、現実世界の映像には座標が無い為、どちらを透明化するかを正確に判断することが難しいという問題がある。
一方、上記の第2の方法に於いては、三次元モデリングされたCG画像による仮想空間の中で、三次元モデリングされたCG画像の手を表示する際、手指の動きについては、前述の人間の手指と類似した形状の多指型のロボットハンドの技術を融合する方法が考えられる。
操作者の手指をカメラで撮影して、そのカメラで撮影した手指の画像から推定した手指の形状と同じ形状になる様に、CG画像の手指を操作する方法を組み合わせることで、三次元モデリングされたCG画像による仮想空間の中で、三次元モデリングされたCG画像の手を混在させることができる。この方法では、手指を操作する際に、手指の関節情報に基づき動かす為、手指の座標が明確になるので、前記の複合現実感技術の様な重畳問題は発生しない。
操作者の手指をカメラで撮影して、そのカメラで撮影した手指の画像から推定した手指の形状と同じ形状になる様に、CG画像の手指を操作する方法を組み合わせることで、三次元モデリングされたCG画像による仮想空間の中で、三次元モデリングされたCG画像の手を混在させることができる。この方法では、手指を操作する際に、手指の関節情報に基づき動かす為、手指の座標が明確になるので、前記の複合現実感技術の様な重畳問題は発生しない。
しかし、従来の手指の形状推定技術では、手の肌色とバックの黒を分離して、データを手指のシルエットとそれ以外の背景で2値化することが前提である。手指の画像を撮る位置は、背景が肌色と分離し易い色(例えば黒)である条件が無いと、手の肌色に関する2値化は難しく手を動かす範囲が限定されるという問題がある。更に、手と指とを合わせたシルエットは、各指の細かい動きに対して、全ての手指形状のシルエットデータベースが必要であり、膨大な照合作業が必要で、照合時間がかかる欠点を有する。その上、手と指を合わせたシルエットでは、指と手の甲、掌が重なったときの分離が難しく、2台以上のカメラが必要という問題がある。
本発明はかかる点に鑑みてなされたものであり、三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、第2のCG画像の指の動きについては、現実空間での操作者の指をカメラで撮影して、そのカメラで撮影した指の画像から推定した指の形状と同じ形状になる様に、第2のCG画像の指を制御することを目的とする。
一方、ヘッドマウントディスプレイ装置については、画像表示パネルの映像をリレー光学系により拡大し、拡散板に投影し、その拡散板からの透過像を、接眼光学系を介して見る方法を用いることで、広視野角が得られる。しかし、プロジェクター等に用いられるスクリーン(拡散板)は裸眼で見るが、ヘッドマウントディスプレイに用いる拡散板は接眼光学系を介して見るので、その拡散面が拡大されるという問題がある。
その為、拡散板としては図39の様な拡散構造を有するものを利用している。図39は下側から拡散板101、104、105に向けて投影した像面102の透過、反射の様子を示している。
図39(a)は白濁色のフィルムで作られた拡散板101である。拡散板101の幅を厚くすることにより、拡散面のムラを抑えることが可能である。しかし、厚くすることで拡散板101に入射した像面102がフィルム101内でも拡散するので、その射出時には拡散幅が大きくなることにより、その像面自体が像面103の様にぼけてしまうという問題がある。
図39(b)では透明フィルムの片面にミクロングレードの細かい粒子を蒸着または塗布し、像面102の射出光を拡散させる拡散板104を用いている。しかし、その細かい粒子が均一に蒸着、塗布されないので、像面102がそのムラにより磨りガラスの上に投影されている様に見えてしまうという欠点がある。蒸着、塗布が行われない部分等があると、その部分のみ強い光が透過する為、光点として見えてしまう欠点もある。
図39(c)ではそのムラを改善する為に、透明フィルムの片面に球形の透明ビーズを敷き詰めた拡散板105を用いている。しかし、両目で見るスクリーンの大きさは、左右のスクリーンが干渉しない様に眼福よりも小さくするので、大きくても幅80mm程度である。フルハイビジョンの場合、走査線の本数は1920であるから、40μmの直径の球形ビーズを敷き詰めなければ、画像のドットよりもビーズが大きくなってしまい、画質を落とす原因となる。現時点では、ビーズの成形及び、ビーズを均一に敷き詰めることは非常に難しい。
更に、図40では図39で説明した拡散板に関する問題以外の不具合を説明する。図40(a)は白濁色のフィルム101が薄い場合、透明フィルム104の拡散角が小さい場合、透明フィルム105の球面ビーズが1列のみの場合を示す。透過光は0次の直進する光強度が強い為、接眼レンズを介して見る画像は下図に示す様に視線の中心付近にホットスポット(明るい部分)が見える映像となる。
一方、図40(b)は、白濁色のフィルム101が厚い場合、透明フィルム104の拡散角が大きい場合、透明フィルム105の球面ビーズが多数列重ねてある場合を示す。拡散が大きいと、あらゆる方向に均一に拡散が行われるので、ホットスポットは発生しない。しかし、透過だけでなく、反射光も多くなってしまうので、接眼レンズを介して見る画像は下図に示す様に全体が暗くなる。
本発明はかかる点に鑑みてなされたものであり、画像表示パネルの映像をリレー光学系により拡大し、拡散板に投影し、その拡散板からの透過像を、接眼光学系を介して見る方法を用いても、像面のボケ、磨りガラスの様な像面の見え、ホットスポット、画面が暗くなる等の問題が発生しない装置を提供することを目的とする。
上記問題点を解決するため、本発明の1つの実施態様は、三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、前記第2のCG画像の各指の動きについては、現実空間での被験者の指をカメラで撮影して、前記カメラで撮影した各指の画像から推定した各指の形状と同じ形状になる様に、前記第2のCG画像の各指の動きを制御する方法であって、
手の各指を背景の映像と分離容易な単色で覆うと共に、前記単色で覆われた各指に対応した部分とそれ以外の部分に分離するステップと、
各指に対応した前記部分の第1の特徴を検出し、前記第1の特徴とその際の指毎の状態をデータベースとして記憶するステップと、
被験者の手の各指を背景の映像と分離容易な単色で覆うと共に、前記単色で覆われた各指に対応した部分とそれ以外の部分に分離するステップと、各指に対応した前記部分の第2の特徴を検出し、前記データベースの第1の特徴と照合するステップと、
照合した結果に基づき、前記データベースより指毎の状態を求め、前記第2のCG画像の各指の動きを制御するステップと、を有することを特徴とする、三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法である。
手の各指を背景の映像と分離容易な単色で覆うと共に、前記単色で覆われた各指に対応した部分とそれ以外の部分に分離するステップと、
各指に対応した前記部分の第1の特徴を検出し、前記第1の特徴とその際の指毎の状態をデータベースとして記憶するステップと、
被験者の手の各指を背景の映像と分離容易な単色で覆うと共に、前記単色で覆われた各指に対応した部分とそれ以外の部分に分離するステップと、各指に対応した前記部分の第2の特徴を検出し、前記データベースの第1の特徴と照合するステップと、
照合した結果に基づき、前記データベースより指毎の状態を求め、前記第2のCG画像の各指の動きを制御するステップと、を有することを特徴とする、三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法である。
本発明のその他の実施態様は、三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、前記第2のCG画像の各指の動きについては、現実空間での被験者の指をカメラで撮影して、前記カメラで撮影した各指の画像から推定した各指の形状と同じ形状になる様に、前記第2のCG画像の各指の動きを制御する装置であって、
手の各指を背景の映像と分離容易な単色で覆った手袋と、同手袋を撮影するカメラと、
前記単色で覆われた部分の第1の特徴とその際の指毎の状態をデータベースとして記憶する記憶装置と、
前記単色で覆われた部分とそれ以外の部分に分離し、前記単色で覆われた部分の第2の特徴を検出し、前記データベースの第1の特徴と照合する演算装置と、
照合した結果に基づき、前記データベースより指毎の状態を求め、前記第2のCG画像の各指の動きを制御する制御装置を有することを特徴とする、三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する装置である。
手の各指を背景の映像と分離容易な単色で覆った手袋と、同手袋を撮影するカメラと、
前記単色で覆われた部分の第1の特徴とその際の指毎の状態をデータベースとして記憶する記憶装置と、
前記単色で覆われた部分とそれ以外の部分に分離し、前記単色で覆われた部分の第2の特徴を検出し、前記データベースの第1の特徴と照合する演算装置と、
照合した結果に基づき、前記データベースより指毎の状態を求め、前記第2のCG画像の各指の動きを制御する制御装置を有することを特徴とする、三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する装置である。
本発明のその他の実施態様は、2次元型画像形成装置から射出された三次元モデリングされたCGによる仮想空間画像を、それぞれ第1(右眼用)、及び第2(左目用)のスクリーンに投影する第1(右眼用)、及び第2(左目用)の拡大リレー光学系と、前記第1及び第2のスクリーンの透過像を、それぞれ、第1(右眼用)、第2(左目用)の接眼光学系を介して左右両目に対し視野角±60°以上の広域像で眼球内の網膜上に投影する広視野角ヘッドマウントディスプレイ装置であって、
前記スクリーンは多角形のマイクロアレイレンズを敷き詰めて構成され、スクリーン上の任意の位置で、前記拡大リレー光学系からの入射光と前記スクリーンと直交する方向のなす角をθ1、前記視野角に必要な前記接眼光学系への射出光と前記スクリーンと直交する方向のなす角をθ2としたとき、前記マイクロアレイレンズからの発散角をθ1+θ2以上にすることを特徴とする広視野角ヘッドマウントディスプレイ装置である。
前記スクリーンは多角形のマイクロアレイレンズを敷き詰めて構成され、スクリーン上の任意の位置で、前記拡大リレー光学系からの入射光と前記スクリーンと直交する方向のなす角をθ1、前記視野角に必要な前記接眼光学系への射出光と前記スクリーンと直交する方向のなす角をθ2としたとき、前記マイクロアレイレンズからの発散角をθ1+θ2以上にすることを特徴とする広視野角ヘッドマウントディスプレイ装置である。
本発明の1つの実施形態では、三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、前記第2のCG画像の各指の動きについては、現実空間での被験者の指をカメラで撮影して、前記カメラで撮影した各指の画像から推定した各指の形状と同じ形状になる様に、前記第2のCG画像の各指の動きを制御する方法であって、手の各指を背景の映像と分離容易な単色で覆うと共に、前記単色で覆われた各指に対応した部分とそれ以外の部分に分離するステップと、各指に対応した前記部分の第1の特徴を検出し、前記第1の特徴とその際の指毎の状態をデータベースとして記憶するステップと、被験者の手の各指を背景の映像と分離容易な単色で覆うと共に、前記単色で覆われた各指に対応した部分とそれ以外の部分に分離するステップと、各指に対応した前記部分の第2の特徴を検出し、前記データベースの第1の特徴と照合するステップと、照合した結果に基づき、前記データベースより指毎の状態を求め、前記第2のCG画像の各指の動きを制御するステップを有する。
ここで、モーションキャプチャーは手にマーカを設置し、その位置や回転を非接触で検出するシステムである。よって、その位置、回転計測精度は数mm、数mradという性能を有している。この結果に基づき三次元モデリングされたCG画像の手を表示する方法を用いれば、産業用途として十分な信頼性を有する。
しかし、狭い範囲に関節が密集する指にマーカを取り付けるのは容易では無く、誤検出が多くなってしまう為、本発明ではその部分を画像処理で担う方法を採用している。これにより、産業用途の性能で手のCG画像を立体的に取り扱えるだけでなく、指の動きもCG画像として表示することが可能となる。
しかし、画像処理の2値化作業は、手の肌色を背景と分離するのが非常に難しい。これを実現する為には、モーションキャプチャースタジオと同様、緑色等の単色で部屋を構成する必要がある。そこで本発明では、手に単色(例えば緑色)の手袋を付け、その手袋の手の甲側にモーションキャプチャー用マーカを設置している。図3に示す様に、緑の手袋は背景とも簡単に識別が可能であり、大規模な部屋が無くても画像処理が簡単に行えるという利点がある。
但し、このままでは従来技術の手指推定のデメリットが改善できない。そこで本発明では単色の手袋を指に対してのみ緑色に着色する様な処理を行っている。この処理により、指と手の平や手の甲の識別が可能となる。
その技術を発展させ、本発明の第2の実施形態としては、前記手の各指を背景の映像と分離容易な単色で覆う手段は、指毎にその覆う範囲を識別可能な様に異ならせている。
図4に示す様に、それぞれの指毎に緑色の着色を行い、更にその大きさを異ならせている手袋の形状を示す。この例では人差し指と薬指が第3関節まで、中指と小指が第2関節まで、親指は図5の様に、第一関節部にラインを設けて、他の指と識別できる様な形状としている。ラインは形状を識別する方法でも良いし、色を僅かに変えて判別する方法を取っても良い。この方法により、複数の指が重なった映像に関しても、どの指であるかを容易に識別可能となる。
本発明の第3の実施形態として、前記手の各指を背景の映像と分離容易な単色で覆う手段は、指毎にその覆う単色を識別可能な様に複数色とすることとしている。
PC上の着色はデジタル的に[α,R,G,B]の数値で設定されている。αは透過の係数であり、透過しない場合は階調255の場合、α=255である。完全な緑は[255,0,255,0]で表される。これに対し、青みがかった緑は例えば[255,0,255,120]、黄色がかった緑は[255,120,255,0]の様な数値となる。両方が混ざった[255,120,255,120]の様なものも考えられる。画像処理の際、これらの緑色の差異により各指の識別を行うことで、より確実に指形状の推定が可能となる。無論、色は緑だけでなく、赤や青等の単色でも良い。画像処理範囲の色環境に応じてできるだけデジタル的に判別し易い単色を採択する方が望ましい。
本発明の第4の実施形態として、前記仮想空間を表示する映像表示手段はヘッドマウントディスプレイであり、前記指を撮影するカメラは前記ヘッドマウントディスプレイに設置することとしている。
更に、本発明の第5の実施形態として、モーションキャプチャー技術により手の甲に取り付けられたマーカ及び、前記ヘッドマウントディスプレイに取り付けられたマーカを検出し、前記カメラから得られる映像の中の手の座標及び回転角を推定し、その結果に基づき、前記映像の中から手の映像を抽出することとしている。
図6の(a)は、ヘッドマウントディスプレイ1を装着した被験者が手に取り付けた緑色の手袋2R、2Lを見ている様子を示す。同ヘッドマウントディスプレイ1の先端には同ヘッドマウントディスプレイ1とほぼ同等の視野角を有するカメラ3が図7(a)の様に設置されている。図6(b)は、同カメラ3により撮像されたマーカ5及び手袋2L、2Rの単色部分を強調した映像の見えを示す。
尚、図6(c)に示す通り、被験者の周りには複数のモーションキャプチャー装置6を設置しており、前記ヘッドマウントディスプレイ1に設置されたマーカ4の位置及び、同手袋2L,2Rに設置されたマーカ5の位置を非接触でモニタしている。このモニタした結果に基づき、三次元モデリングされたCG画像による仮想空間7の中に、あたかも実際に被験者が自分の手を見ているかの様に、三次元モデリングされたCG画像の手8を3次元表示用ソフトウェアにより表示している(図6(d)参照)。
具体的には、前記モーションキャプチャー装置6は、そのマーカ4の位置からヘッドマウントディスプレイ1の位置及び回転量を検出すると共に、そのマーカ5の位置から、手袋2L,2Rの位置及び回転量を正確に計測する。ヘッドマウントディスプレイ1に設置されたカメラ3と同マーカ4の相対位置が求まると、ヘッドマウントディスプレイ1と被験者の目の相対位置は予め分かっているので、被験者の目から見た三次元モデリングされたCG画像の手8を、三次元モデリングされたCG画像による仮想空間7の中に3次元表示用ソフトウェアにより正確に表示できる。
同カメラ3の画像は1920×1080のフルハイビジョンで撮像するので、この領域全てに対して画像処理を行うのは時間がかかる。本発明では前記カメラ3と前記手袋2L,2Rの相対位置と相対回転角をモーションキャプチャー装置から受け取り、同カメラ3で得られた画像の中で、手袋2R,2Lがどの位置に表示されているかを予め算出し、図7(b)の様に白いカーソルで切り取り境域を決定している。図7(c)の様に、切り取った画像領域の回転補正を行い、図7(d)の様に、倍率補正を行った上で、その領域内のみで指の位置検出を行なう。画像処理の範囲が少なく、高速で各指の検出を行えるという利点がある。
カメラの設置方法として本発明の第6の実施形態の様に、前記指を撮影するカメラを前腕に固定する方法もある。図8は、例として手首に固定する場合を示している。カメラ11は手首固定部9からアーム10により所定の位置から手全体をモニタできる様に配置されている。図8(a)が手の甲側から見る方法であり、図8(b)の様な画像が得られる。図8(c)が手の平側から見る方法であり、図8(d)の様な画像が得られる。ヘッドマウントディスプレイ1にカメラを設置する方法に比べて、手の画像が手の甲と平に限定されるので、画像処理が簡単になり高速化できるという利点がある。但し、カメラ11の固定位置と手の甲が手首の回転により一体に動かないので、手首及び手の甲の2ヶ所にマーカを設置するか、カメラ11にマーカを設置し、カメラの画像処理でベースライン12の傾きを検出、画像の回転補正を行う等の処置により、手首と手の甲の回転を補正することでデータベースの照合量を少なくするのが望ましい。
次に、本発明の第7の実施形態として、単色で覆われた前記部分の第1及び第2の特徴は、手の一部に設置された、単色で覆われた部分の検出位置に基づき決定された基準点からの座標情報を含むこと、本発明の第8の実施形態として、単色で覆われた前記部分の第1及び第2の特徴は、前記部分のそれぞれの輪郭が内接または外接すし、多角形の頂点または辺の座標を含むこと、本発明の第9の実施形態として、前記データベースの指毎の状態は単色で覆われた前記部分の第1及び第2の特徴部分の移動領域情報と、各関節情報を含むことについて説明する。
図9(a)は各指の緑色部の任意の動きに対して重ならない様に、手首の上に設置された緑色のベースライン12を示している。ベースライン12は高さがBLheight、幅がBLwidthであり、画像の中でこの特徴を検出することで、容易にその位置が確定される。この手の向きの場合、ベースライン12の親指側は、親指の動きによりその位置が変わるが、反対側は指の動きに依存しない。そこで、この向きではベースライン12の左側が基準点BP(x、y)となる。尚、手の向きによりベースライン12のどの部分が指の動きに依存せず安定しているかは異なるので、手の向きに応じて基準点BP(x、y)の求め方はデータベース上に定められている。
図9(b)には、図9(a)の親指を例とした多角形検出の拡大図が例として紹介されている。基準点BP(x、y)を(0,0)とした相対座標として、親指の緑部の最上点:親top(x、y)、最下点:親bottom(x、y)、最左点:親left(x、y)、最右点:親right(x、y)という4つの特徴点を算出すると、その値から親指四角形を求めることができる。この四角形は親指の形状の特徴を簡略して示したものである。図9(c)を見ると判る様に、人間の各指は動きに制約があり、それぞれの関節角度で所定の四角形形状となる。即ち、所定の関節状態と所定の四角形形状・位置は1対1で対応するので、指の複雑な形状を記憶しなくても良い。四角形の形状を特徴としてデータベースに記憶していけば、データベースが簡略化されるので、照合の時間が短縮するという利点がある。
この様に、データベースには基準点(x、y)を(0,0)とした所定の関節状態と所定の四角形形状・位置が格納されるが、ベータベースを作る際の手は標準的な手の大きさが用いられている。その為、手の細い人、手の大きい人、指の長い人、短い人に対する照合が難しいことが考えられる。そこで本発明では、前記手袋は伸縮性のある素材を用い、被験者が最初に手を思いっきり広げた状態で、全指の特徴点を計測し、データベース内の手を思いっきり広げた状態の全指の特徴点と比較、それぞれの特徴点に対する伸縮量をX,Y軸独立で計測する。それ以降の照合は、この伸縮量を用いて補正するので、手、指の大きさ、太さ等に依存しない精度の高い照合が可能となる。
無論、三次元モデリングされたCG画像の手8の指を動かす為には、個々の関節角度情報が必須となる。そこで、1対1で対応する所定の四角形形状・位置と所定の関節状態とをリンクしてデータベースに格納していく。
検出結果の四角形がデータベースの四角形形状・位置と照合されると、それにより、指の形状が特定できる。指の形状が特定できれば、指の関節情報も分かり、その情報を3次元表示用ソフトウェアに送れば、三次元モデリングされたCG画像の手の指の動きを正確に高速で表示することが可能となる利点がある。
尚、この特徴点は4点の四角形で説明したが、輪郭の3点が内接した三角形でも良いし、五角形もしくはそれ以上の多角形でも良いし、外接点でも良い。いずれも指の複雑な関節情報を簡単な形状に変換してデータベース化、照合作業を行うという目的は同じで、照合時間の短縮及び、アルゴリズムの簡略化が実現できる。
更に、本発明では、指毎の動きを独立にデータベースと照合する。その為、一本の指のデータベースが100ずつあるとすると、その手指のパターンは100の5乗通りの手形状を照合できることになる。しかし、従来技術である手指のシルエットをデータベースと照合する方法では、同様のデータベース量では500通りの手指形状しか照合できない。即ち、本発明は従来よりも細かい指の動きまで再現できるという効果もある。
次に、本発明の第10の実施形態として、三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、前記第2のCG画像の各指の動きについては、現実空間での被験者の指をカメラで撮影して、前記カメラで撮影した各指の画像から推定した各指の形状と同じ形状になる様に、前記第2のCG画像の各指の動きを制御する装置に於いて、手の各指を背景の映像と分離容易な単色で覆った手袋と、同手袋を撮影するカメラと、前記単色で覆われた部分の第1の特徴とその際の指毎の状態をデータベースとして記憶する記憶装置と、前記単色で覆われた部分とそれ以外の部分に分離し、前記単色で覆われた部分の第2の特徴を検出し、前記データベースの第1の特徴と照合する演算装置と、照合した結果に基づき、前記データベースより指毎の状態を求め、前記第2のCG画像の各指の動きを制御する制御装置を有することとしている。
ここで、モーションキャプチャー装置は手にマーカを設置し、その位置や回転を非接触で検出する装置である。よって、その位置、回転計測精度は数mm、数mradという性能を有している。この結果に基づき三次元モデリングされたCG画像の手を表示するソフトウェアを用いれば、産業用途として十分な信頼性を有する。
しかし、指の細かい位置を計測するのは困難な為、本発明ではその部分を画像処理で担う装置を採用している。これにより、産業用途の性能で手のCG画像を立体的に取り扱えるだけでなく、指の動きもCG画像として表示することが可能となる。しかし、画像処理の2値化作業は、手の肌色を背景と分離するのが非常に難しい。これを実現する為には、モーションキャプチャースタジオと同様、緑色等の単色で部屋を構成する必要がある。
そこで本発明では、手に単色(例えば緑色)の手袋を付け、その手袋の手の甲側にモーションキャプチャー用マーカを設置している。図3に示す様に、緑の手袋は背景とも簡単に識別が可能であり、大規模な部屋が無くても画像処理が簡単に行えるという利点がある。
更に、本発明では、指毎の動きを独立にデータベースと照合する。その為、一本の指のデータベースが100ずつあるとすると、その手指のパターンは100の5乗通りの手形状を照合できることになる。しかし、従来技術である手指のシルエットをデータベースと照合する方法では、同様のデータベース量では500通りの手指形状しか照合できない。即ち、本発明は従来よりも細かい指の動きまで再現できるという効果もある。
次に、本発明の第11の実施形態として、2次元型画像形成装置から射出された三次元モデリングされたCGによる仮想空間画像を、それぞれ第1(右眼用)、及び第2(左目用)のスクリーンに投影する第1(右眼用)、及び第2(左目用)の拡大リレー光学系と、前記第1及び第2のスクリーンの透過像を、それぞれ、第1(右眼用)、第2(左目用)の接眼光学系を介して左右両目に対し視野角±60°以上の広域像で眼球内の網膜上に投影する広視野角ヘッドマウントディスプレイ装置に於いて、
前記スクリーンは多角形のマイクロアレイレンズを敷き詰めて構成され、スクリーン上の任意の位置で、前記拡大リレー光学系からの入射光と前記スクリーンと直交する方向のなす角をθ1、前記視野角に必要な前記接眼光学系への射出光と前記スクリーンと直交する方向のなす角をθ2としたとき、前記マイクロアレイレンズからの発散角をθ1+θ2以上にする構成とした。
前記スクリーンは多角形のマイクロアレイレンズを敷き詰めて構成され、スクリーン上の任意の位置で、前記拡大リレー光学系からの入射光と前記スクリーンと直交する方向のなす角をθ1、前記視野角に必要な前記接眼光学系への射出光と前記スクリーンと直交する方向のなす角をθ2としたとき、前記マイクロアレイレンズからの発散角をθ1+θ2以上にする構成とした。
ヘッドマウントディスプレイ装置は被験者が装着するものであり、できるだけ軽い方が望ましい。軽量化する為に、画像を出力する2次元型画像形成装置としては、画角が0.5〜1インチ以下のものが用いられる場合が多い。しかし広視野角用のスクリーンは2〜3インチ程度の幅が必要な為、2次元型画像形成装置からの射出光を前記スクリーンまで拡大投影する必要がある。その拡大リレー光学系としては、やはり軽量化の為、片テレセントリック光学系(2次元型画像形成装置側はテレセントリック、スクリーン側は広がりを持つ非テレセントリック)が採用される。
図31は、図30で示す拡大光学系47からのスクリーン50への入射光がスクリーン50と直交する方向とのなす角をθ1とし、眼球52の瞳Hを図31(a)から(b)の様に動かした場合を含め、接眼光学系49により、網膜に投影像を広角で映し出すのに必要なスクリーン50からの射出光とスクリーン50と直交する方向とのなす角をθ2とした場合の図である。ヘッドマウントディスプレイに用いるスクリーン50の必要な拡散角は±(θ1+θ2)であることが分かる。
但し、視野角60°を超す接眼レンズは色々なタイプがある。図32(a)は色収差補正を行っている例であり、網膜に投影像を広角で映し出すのに必要なスクリーン50からの射出光とスクリーン50と直交する方向とのなす角θ2はレンズ外径付近に近づく程、傾きが大きくなっている。
図32(b)は、前記なす角θ2の傾きが小さくなる様に設計したものである。図32(c)はレンズ枚数を少なくして軽量化したものであるが、前記なす角θ2の傾きは非線形であることが分かる。一方、図32(d)は、2次元型画像形成装置44からの射出光をXプリズム45、拡大リレー光学系47を介してスクリーン50に投影した例である。なす角θ1はレンズ外径付近に近づく程、傾きが大きくなっている。
以上の様に、前記なす角θ1と前記なす角θ2は接眼レンズ49の特徴、任意のスクリーン50の位置や目の動かし方で条件が異なることが分かる。そこで、スクリーン上の任意の位置で、前記拡大リレー光学系からの入射光と前記スクリーンと直交する方向のなす角をθ1、前記視野角に必要な前記接眼光学系への射出光と前記スクリーンと直交する方向のなす角をθ2としたとき、前記スクリーンとしてマイクロアレイレンズを用い、前記マイクロアレイレンズからの発散角をθ1+θ2以上にする構成を取れば、視線を動かしても2次元型画像形成装置44からの射出光を目で見ることができる。
尚、マイクロアレイレンズはLEDアレイの照明の光量ロスをできるだけ抑え、均一にする照明均一化手段として採用されている。反対に指向性の無いLEDアレイ照明に対し、所定の指向性を持たせる手段としても採用されている。本発明ではこの指向性の特徴を生かし、広視野角ヘッドマウントディスプレイのスクリーンとしてマイクアレイレンズを応用している。
図33(a)は正六角形のマイクロレンズアレイの上面図を示し、図33(b)は側面図を示し、図33(c)は斜視図を示す。マイクロアレイレンズはfθレンズが最も好ましく、図33(d)、図33(e)で示す様に、レンズに入った光を均等に所定の角度に広げることが可能である。図33(f)は、凸レンズの代わりに凹レンズを用いた場合の例である。集光点がレンズ内に移動するだけであり、曲率がRでも、−Rでも同様の効果がある。尚、球面レンズであっても、所定の角度に広げるときのムラは10%程度であり、ホットスポットが見える様な大きな角度に依存したムラは発生しない。
それ以外の構造で、図34(a)は正四角形形状、図34(b)は正三角形形状のマイクロレンズアレイの例である。これらは全てレンズの各辺を合わせた構造であり、多角形に内接する円の直径がマイクロアレイレンズの隣接するレンズ間の距離になっている。曲率のある部分のみでスクリーンの表面が形成されているので、フラット部分が無く、0次の透過光が強く透過することは無い。よって、ホットスポットも発生しない。
次に図35より、前記マイクロアレイレンズからの発散角をθ1+θ2以上にする具体的な方法について述べる。図35(a)は例として正六角形のマイクロレンズであり、屈折率がn=1.5のプラスチック素材を用いている。内接円の直径がW=10μm、レンズの曲率がR=6μmの例で、上図が側面図、下図が上面図となっている。側面図には所定の平行光を下から照射した場合のレンズ部での屈折する様子を示している。
マイクロアレイレンズの場合、安価で作るにはマイクロアレイレンズの型をホトリソグラフィック技術で形成し、その型を用いてPETやアクリルに代表されるプラスチック素材で射出成形法により製造するのが一般的である。その為、一般の大きなレンズと異なり、レンズ表面に反射防止膜等の処理を行うことができない。よって、レンズ面での反射率、透過率等の計算は以下の式により決まってくる(*:乗算、Asin:アークサイン)。
レンズ内からの入射角°θin=Asin(W/2/R)*180/π
θinとθoutの関係式θout=Asin(n*Sin(θin))
レンズ外への射出角°θout=Asin(n*W/2/R)*180/π
レンズ外での拡散角°=θout−θin
臨界角°θr=Asin(1/n)*180/π
ブリュースター角θb=Atan(1/n)*180/π
S偏光透過率=1−ABS(Sin((θout−θin)*π/180)/Sin((θout+θin)*π/180))
P偏光透過率=1−ABS(Tan((θout−θin)*π/180)/Tan((θout+θin)*π/180))
平均透過率=(S偏光透過率+P偏光透過率)/2
・・・・・式1
θinとθoutの関係式θout=Asin(n*Sin(θin))
レンズ外への射出角°θout=Asin(n*W/2/R)*180/π
レンズ外での拡散角°=θout−θin
臨界角°θr=Asin(1/n)*180/π
ブリュースター角θb=Atan(1/n)*180/π
S偏光透過率=1−ABS(Sin((θout−θin)*π/180)/Sin((θout+θin)*π/180))
P偏光透過率=1−ABS(Tan((θout−θin)*π/180)/Tan((θout+θin)*π/180))
平均透過率=(S偏光透過率+P偏光透過率)/2
・・・・・式1
式1に、n=1.5、W=10μm、R=6μmをそれぞれ入力すると、臨界角θr=41.81°、ブリュースター角θb=33.69°、内接円上入射角56.44°が求まる。θinを変数として横軸とし、S偏光透過率、P偏光透過率、平均透過率を縦軸として表にしたのが図35(b)である。図35(a)に記載したθin:0〜θbにより決まる円内からの射出光は80%の透過率でほぼ一定であり、θb〜θrの範囲からの射出光は徐々に透過率が下がり、θr〜56.44°の範囲では内面での全反射により、光が出てこないことが、図35(b)より確認できる。よって、θ1+θ2の発散角を効率良く均一にマイクロアレイレンズで得る為には、上記要因を加味する必要があることが分かる。
次に、前記拡大リレー光学系47からの入射光と前記スクリーン50と直交する方向のなす角をθ1、前記視野角に必要な前記接眼光学系への射出光と前記スクリーン50と直交する方向のなす角をθ2として、マイクロアレイレンズの側面図を用いて図36にて詳しく説明していく。図36は図31(a)の図面を右から見たときのマイクロアレイレンズ部を拡大した図である。2次元型画像形成装置44の投影像はマイクロアレイレンズ部に投影されている。マイクロアレイレンズはフィールドレンズの役割を果たす。図36(a)は、左上に進む光軸のなす角θ1を、凸レンズにより右上に進む光軸のなす角θ2に偏向している。図36(b)は、なす角θ1=0のとき、図36(c)は、右上に進む光軸のなす角θ1を、凸レンズにより左上に進む光軸のなす角θ2に偏向している。
この様に、発散角がθ1+θ2となる様にすれば、なす角θ1をなす角θ2に偏向するSpotは内接円の中に一か所だけ存在する。もし、目を動かしてなす角θ2の角度がθ2‘に変わった場合でも、図36(a)に示す様に、なす角θ1の位置が横に移動するだけで、変化したなす角θ2’に対応するSpotが内接円の中に存在する。
もし、2次元型画像形成装置44のスクリーン上の画素の大きさPと内接円の直径Wが等しければ、画素は各spotとして被験者に認識される。P=2*Wならば、2*2=4つのspotとして画素は表される。P=3*Wならば、3*3=9つのspotとして画素は表される。画素が分割されることで、画素が目立たなくなるという効果がある。
一方、P<Wでマイクロアレイレンズの大きさWがスクリーン上の画素の大きさPを上回ると、図36(c)に示す様に、画素Pの中にspotが含まれない。画素Pの光が被験者の目に届かないので、その画素は黒点となり、情報が欠落してしまう。そこで第12の形態として、P>=Wとなる様に、マイクロアレイレンズの内接円の直径Wを決定する必要がある。尚、PとWの大きさによっては、モアレを引き起こし、スクリーンに模様が発生してしまう可能性がある。その場合は、マイクロアレイレンズを僅かに傾けることで、モアレが発生しない様に工夫する。
上記の一連の説明に引き続き、θ1+θ2の発散角を効率良く均一にマイクロアレイレンズで得る為の条件を説明する。最初の条件は図35で説明した臨界角についてである。図36の(a)の様にマイクロアレイレンズの厚さをT、屈折率をnとした場合、なす角θ1は下の平面を透過した材質内で
θ3=Asin(1/n*Sin(θ1))*180/π・・・式2
の傾きを持つ。この式2によりθ3で補正した補正入射角は、
θ4=Asin(W/2/R)*180/π-θ3・・・式3
式3より補正した補正射出角θ5は
θ5=Asin(n*Sin(θ4*π/180))*180/π・・・式4
となる。補正射出角θ5が90°を越えなければ、内接円の臨界角には達しない。
即ち、
θ5<=90°・・・式5
となる。
θ3=Asin(1/n*Sin(θ1))*180/π・・・式2
の傾きを持つ。この式2によりθ3で補正した補正入射角は、
θ4=Asin(W/2/R)*180/π-θ3・・・式3
式3より補正した補正射出角θ5は
θ5=Asin(n*Sin(θ4*π/180))*180/π・・・式4
となる。補正射出角θ5が90°を越えなければ、内接円の臨界角には達しない。
即ち、
θ5<=90°・・・式5
となる。
式2〜式5をまとめると、第13の形態として、補正射出角θ5が臨界角に達しない条件は
n*Sin(Asin(W/2/R)−Asin(1/n*Sin(θ1))<=1
・・・式6
となる。臨界角に達すると、それ以上、補正射出角を上げることができず、全反射によりレンズアレイに達する光を効率良く使うことができなくなってくる。
n*Sin(Asin(W/2/R)−Asin(1/n*Sin(θ1))<=1
・・・式6
となる。臨界角に達すると、それ以上、補正射出角を上げることができず、全反射によりレンズアレイに達する光を効率良く使うことができなくなってくる。
元々、拡大リレー光学系47で得られるスクリーン上でのSpotの広がり角をθiとすると、補正射出角θ5と合わせて光の広がりが分かる。よって、基本となる補正射出角をθ5baseとすると、式6を満たす範囲の照度比は以下の式で表せる。
照度比=(Sin((θ5+θi/2)*π/180))2/(Sin((θ5base+θi/2)*π/180))2・・・式7
但し、式6を満たさなくなったとき点で、補正射出角θ5は変化しなくなり、全反射で見かけ上の内接円の直径Wが小さくなっていく。よって、それ以降の照度は以下の式で表される。
照度=(Sin((θ5+θi/2)*π/180))2*(2*R/n)2/(W)2・・・式8
照度比=(Sin((θ5+θi/2)*π/180))2/(Sin((θ5base+θi/2)*π/180))2・・・式7
但し、式6を満たさなくなったとき点で、補正射出角θ5は変化しなくなり、全反射で見かけ上の内接円の直径Wが小さくなっていく。よって、それ以降の照度は以下の式で表される。
照度=(Sin((θ5+θi/2)*π/180))2*(2*R/n)2/(W)2・・・式8
式4、式7、式8の結果をまとめ、縦軸に照度比(%)と補正射出角(°)、横軸にマイクロアレイレンズの曲率Rを示した表が図37(a)である。式6を満たす条件では、照度は減るが補正射出角θ5を増やすことができる。しかし、式6を満たさない条件では、補正射出角θ5は変化せず、照度のみ落ちていくのが確認できる。よって、効率良く拡散を行うには、式6を満足する条件で、マイクロアレイレンズを製造することが望ましい。
尚、今回のマイクロアレイレンズをスクリーン50として使用する目的は発散角をなす角θ2以上にすることである。式2、式3、式4から補正発散角は
Asin(n*Sin(Asin(W/2/R)−Asin(1/n*Sin(θ1)))−Asin(W/2/R)・・・式9
で表せる。よって、本発明の第14の実施形態として、以下の条件
Asin(n*Sin(Asin(W/2/R)−Asin(1/n*Sin(θ1)))−Asin(W/2/R)>=θ2・・・式10
が導き出せる。
Asin(n*Sin(Asin(W/2/R)−Asin(1/n*Sin(θ1)))−Asin(W/2/R)・・・式9
で表せる。よって、本発明の第14の実施形態として、以下の条件
Asin(n*Sin(Asin(W/2/R)−Asin(1/n*Sin(θ1)))−Asin(W/2/R)>=θ2・・・式10
が導き出せる。
本例では、なす角θ2を20°に設定しており、縦軸になす角θ2(°)と補正発散角(°)、横軸にマイクロアレイレンズの曲率Rを示したときの関係は図37(b)の様になる。式10の条件を満たしていれば、接眼レンズ内の何処を見ても、マイクロレンズアレイを介して2次元型画像形成装置44の投影像を見ることができる。これを満たしていない場合、なす角θ2の傾きが大きい位置ではマイクロレンズアレイを透過した光が目の瞳に到達せず、黒点となってしまう不具合がある。
次に式1のブリュースター角について考える。図35(b)で示した様に、ブリュースター角を超えると、マイクロレンズアレイの平均透過率が悪化していく。なす角θ1となす角θ2による補正後を考えると、補正後平均透過率は、式1、式3、式4より、
補正後S偏光透過率=1−ABS(Sin((θ5−θ4)*π/180)/Sin((θ5+θ4)*π/180))
補正後P偏光透過率=1−ABS(Tan((θ5−θ4)*π/180)/Tan((θ5+θ4)*π/180))
補正後平均透過率=(補正後S偏光透過率+補正後P偏光透過率)/2
・・・式11
で表せる。
補正後S偏光透過率=1−ABS(Sin((θ5−θ4)*π/180)/Sin((θ5+θ4)*π/180))
補正後P偏光透過率=1−ABS(Tan((θ5−θ4)*π/180)/Tan((θ5+θ4)*π/180))
補正後平均透過率=(補正後S偏光透過率+補正後P偏光透過率)/2
・・・式11
で表せる。
ブリュースター角が最も透過率が高いので、全体でその部分がどの程度、照度ムラになるかは式11を用いて
照度ムラ=補正後平均透過率/ブリュースター角での補正後透過率・・・式12
で表せる。照度ムラを縦軸、マイクロレンズアレイの曲率Rを横軸に取ったときの関係を図38(a)に示す。面内の照度ムラを抑えるには第15の形態として、以下の条件
Atan(1/n)>=Asin(W/2/R)−Asin(1/n*Sin(θ1))
・・・式13
を満たす必要がある。これはマイクロレンズアレイのレンズをfθレンズで設計した場合であるが、式13を満たしていれば、接眼光学系49から、どの場所を見ても、殆ど照度ムラは無くなることが分かる。
照度ムラ=補正後平均透過率/ブリュースター角での補正後透過率・・・式12
で表せる。照度ムラを縦軸、マイクロレンズアレイの曲率Rを横軸に取ったときの関係を図38(a)に示す。面内の照度ムラを抑えるには第15の形態として、以下の条件
Atan(1/n)>=Asin(W/2/R)−Asin(1/n*Sin(θ1))
・・・式13
を満たす必要がある。これはマイクロレンズアレイのレンズをfθレンズで設計した場合であるが、式13を満たしていれば、接眼光学系49から、どの場所を見ても、殆ど照度ムラは無くなることが分かる。
以上、式5、式10、式13を用いた各値を縦軸、マイクロレンズアレイの曲率Rを横軸にしてまとめたのが図38(b)である。前記拡大リレー光学系47からの入射光と前記スクリーン50と直交する方向のなす角θ1、前記視野角に必要な前記接眼光学系49への射出光と前記スクリーン50と直交する方向のなす角θ2がある広視野角ヘッドマウントディスプレイに於いては、マイクロアレイレンズをスクリーン50として用いる場合、効率良く照度ムラなく、全ての目の視線に対して映像情報を確実に提供する必要がある。その為には、この様な設計上の制約があり、本発明では、その制約を満たす条件を提供することで、性能の高いヘッドマウントディスプレイを開発できることを示している。尚、この3式から導き出された理想的なマイクロアレイレンズの曲率Rは8.5μmであるが、製造公差、装置として必要な仕様、被験者とヘッドマウントディスプレイ設置誤差により、条件が異なる。よって、その条件に応じてマイクロアレイレンズの曲率Rを設定するのが望ましい。
以下においては、本発明の構成を図1で説明する。図1に於いて、被験者30は頭部に広視野角ヘッドマウントディスプレイ1を装着し、左手に手袋2L、右手に手袋2Rを着けている。同ヘッドマウントディスプレイ1にはモーションキャプチャー用マーカ4、手袋2L、2Rにはマーカ5が所定の配置で取り付けられている。ヘッドマウントディスプレイ1には、ヘッドマウントディスプレイとほぼ同じ視野角を有する広視野角カメラ3も中央部に1台取り付けられており、目の前にある手袋2L、2Rの画像が取り込める様になっている。尚、このカメラには、緑を基調としたLED照明部もあり、緑色の手袋2L、2Rを照明することで、暗い場所や照明のムラがある場所でも、影等に影響されずに、手袋2L,2Rの緑部分の画像がきちんと取り込める様に画像処理装置28で制御されている。
頭部の上に配置されている4つのモーションキャプチャー用センサー部6には赤外のLED照明があり、マーカ4、マーカ5を照明することで、同センサー部6のCMOS部で2次元のマーカ画像を取り込める様にモーションキャプチャー制御装置29で制御されている。このモーションキャプチャー制御装置29は、4つのモーションキャプチャー用センサー部6から取り込んだマーカをステレオ画像処理法により解析し、それぞれのマーカの位置座標を正確に計測できる。マーカ4、マーカ5共に、数か所にマーカが配置されており、その配置形状からヘッドマウントディスプレイ1の位置、手袋2L、手袋2Rの3次元座標(x、y、z)と、3軸回転(θx、θy、θz)を数mm、数mradという精度でモーションキャプチャー制御装置29によりそれぞれ計測できる構成となっている。
尚、モーションキャプチャー制御装置29には、予めヘッドマウントディスプレイ装置1と被験者30の両目の相対距離がオフセットとして記憶されている。更に、手袋2L、2Rの位置と両手の平の基準位置についても、相対距離がオフセットとして記憶されている。よって、モーションキャプチャー制御装置29からの出力は、同オフセットが加味された、仮想空間内の、被験者の両目の3次元座標と3軸回転、両手の手の平の基準位置の3次元座標と3軸回転となる。
具体的には、3次元仮想空間表示制御装置27は、被験者の両目の3次元座標(Xeye、Yeye、Zeye)と、3軸回転(θxeye、θyeye、θzeye)に基づき、ソフトウェア内に記憶されている仮想空間内で被験者からの視線であたかも仮想空間を見ている様に被験者に錯覚させる為、3次元空間に観測位置を設定する。また、左手の平の基準位置の3次元座標(Xl、Yl、Zl)と、3軸回転(θxl、θyl、θzl)、右手の平の基準位置の3次元座標(Xr、Yr、Zr)と、3軸回転(θxr、θyr、θzr)は、前記三次元モデリングされたCG画像による仮想空間上に表示される、三次元モデリングされたCG画像の左右の手を独立に動かす為のデータである。仮想空間内に両手の3次元座標、回転座標に応じた位置に両手のモデルを配置する。
本発明では更に指の動きを三次元モデリングされたCGの左右の指に反映させる。同画像処理装置28は、モーションキャプチャー制御装置29から、被験者の両目の3次元座標(Xeye、Yeye、Zeye)と、3軸回転(θxeye、θyeye、θzeye)、左手の平の基準位置の3次元座標(Xl、Yl、Zl)と、3軸回転(θxl、θyl、θzl)、右手の平の基準位置の3次元座標(Xr、Yr、Zr)と、3軸回転(θxr、θyr、θzr)の情報を受け取る。予め記憶されているカメラ3の視野角とカメラ3と両目のオフセット量を考慮した上で、カメラ3上に表示される両手の位置と回転量を推測し、その部分を切り取った上で回転・倍率補正して規格化する。
この規格化の意味は、画像を回転補正後、倍率補正も画像を加工する方法を取っても良いし、倍率補正値を記憶し、その補正値で検出結果を補正する方法でも良い。規格化された手袋2L、2Rの画像は、画像処理装置28により手袋上の単色部(ここでは緑色)とそれ以外の映像で2値化される。更に、画像処理装置28のデータベース部に格納されている各指の特徴点と検出された各指の特徴点を照合することで、各指の形状を推測する。その各指の形状に対応した関節情報をベータベース部より取り出し、3次元仮想空間表示制御装置27に各指の関節情報を送信する。3次元仮想空間表示制御装置27は各指の関節情報に基づき、三次元モデリングされたCGの左右の指を駆動する。
最終的には、三次元モデリングされた仮想空間CG内で、三次元モデリングされたCGの左右の手及び指が観測位置から見て正確に混在した画像としてヘッドマウント画像表示制御装置26に送信される。ヘッドマウント画像表示制御装置26は、被験者30の目で見て不自然な部分が無い様に、ディストーション補正や画像処理を行った上で、ヘッドマウントディスプレイ1の左右の2次元画像表示部上に画像を表示することで、仮想空間を3次元画像として被験者30に見せることが可能となる。
次に、データベース部に格納されている各指の特徴点と、検出された特徴点の照合について詳しく説明していく。
図10(a)はデータベースbn(n=1、2、3、・・・・、N)の特徴点(親指の緑部の最上点:親topbn(x、y)、最下点:親bottombn(x、y)、最左点:親leftbn(x、y)、最右点:親rightbn(x、y))と、計測された指の特徴点(親指の緑部の最上点:親top(x、y)、最下点:親bottom(x、y)、最左点:親left(x、y)、最右点:親right(x、y))との比較に関するイメージ図を示している。
図10(a)はデータベースbn(n=1、2、3、・・・・、N)の特徴点(親指の緑部の最上点:親topbn(x、y)、最下点:親bottombn(x、y)、最左点:親leftbn(x、y)、最右点:親rightbn(x、y))と、計測された指の特徴点(親指の緑部の最上点:親top(x、y)、最下点:親bottom(x、y)、最左点:親left(x、y)、最右点:親right(x、y))との比較に関するイメージ図を示している。
親topbn(x、y)=(親top値bnx、親top値bny)と定義し、他の値も同様に表す。親指を例とすると、各値を見つける最初の条件式1が、成り立つ必要がある。
親left値x<=親top値x、親bottom値x<=親right値x
親bottom値y<=親left値y、親right値y<=親top値y
・・・・・・式14
親bottom値y<=親left値y、親right値y<=親top値y
・・・・・・式14
式14を満たした特徴値に対し、式15がデータベースの四角形データと計測された四角形値の比較式となる。この条件を満たした場合、最終的な判断は式16のCOMPnの値が許容値以内のものとなる。
親top許容値>=Abs(親top値y−親top値bny)
親bottom許容値>= Abs(親bottom値y−親bottom値bny)
親left値許容値>= Abs(親left値x−親left値bnx)
親right値許容値>= Abs(親right値x−親right値bnx)
・・・・・・式15
親top許容値>=Abs(親top値y−親top値bny)
親bottom許容値>= Abs(親bottom値y−親bottom値bny)
親left値許容値>= Abs(親left値x−親left値bnx)
親right値許容値>= Abs(親right値x−親right値bnx)
・・・・・・式15
COMPn=√((親top値y−親top値bny) ^2+(親bottomy−親bottombnx) ^2+(親left値x−親left値bny) ^2+(親right値x−親right値bnx) ^2・・・・・・式16
但し、画像は全ての指のデータが入っているので、それぞれ検出された特徴点のどれがどの指かの識別を行う必要がある。その識別は各指が移動できる領域をデータベースで保持しておき、その領域内で特徴点が検出されるか否かで判断される。図10(b)は緑色でベースラインと親指部を着色している白い手袋を用いて、PCの前でデータベースを作成している様子を示す。基準点を求め、親指の各特徴点の位置を校正し、基準点からの相対座標として規格化してから4角形で表示している。その為、データベースを取る際に、手が動いても問題無く4角形を算出できているのが分かる。尚、データベースについてはより詳しく後述する。
図11は、2次元画像データの緑手袋部分を2値化したデータである。x軸、y軸共に、2値化データ(1:白、0:黒)の1の部分の最大値、最小値をプロットした1次元データを作り、微分法にてスロープ信号を作成する。判り難いので、白黒反転して説明しているのが図12(a)であり、図12(a)ではその特徴点の検出と移動領域を示している。
スロープ信号は傾きがプラスの場合ピーク信号、マイナスの場合ボトム信号となる。x軸上の1次元データからは親left(x、y)、親right(x、y)が検出され、y軸上の1次元データからは親top(x、y)、親bottom(x、y)が検出される。それぞれピーク信号13,14とボトム信号12,15の違いにより、親left値と親right値、親top(x、y)と親bottom(x、y)の区別も可能である。
それぞれ信号強度は異なるが、所定の大きさの信号を検出すると、図12(b)に示す様な特徴点が指の輪郭上で算出される。○は信号強度が強いもので、×が信号強度の弱いものである。○がある場合は○を優先して特徴点を検出していくが、有効なものが無い場合は、×も候補として特徴点の検出を行なう。
図12(a)には親top(x、y)が移動可能な範囲を親top境域17、人指top値が移動可能な範囲を人指top境域21、中top(x、y)が移動可能な範囲を中top境域22、薬top(x、y)が移動可能な範囲を薬top境域23、小top(x、y)が移動可能な範囲を小top境域24で示している。親指の特徴点の検出はこの移動範囲から行われるので、移動範囲が重なる十字印25の中に親指top(x、y)と人指top(x、y)が存在する様な指の動かし方以外は、それぞれの特徴点が誤認識されることは無い。
図13には、親指を例として、親top境域17の計測と同時に計測する、親bottom境域18、親left境域19、親right境域20が示されている。親指の移動領域内で、式1の条件を満足するものが、親top(x、y)、最下点:親bottom(x、y)、最左点:親left(x、y)、最右点:親right(x、y)として検出される。その他の指についても同様の方法で特徴点が決定される。
しかし、前述の移動範囲が重なる十字印25の中に親指top(x、y)と人指top(x、y)が存在する様な指の動かし方では、それぞれの移動領域内に複数の特徴点が発生する。図14(a)は、人差し指の形状が親指の移動範囲に入ってきたときを示している。本来の親指の特徴点は十字印であるが、人指し指の特徴点によって決まる四角形の形状が、図14(b)の親指の特徴点で決まる四角形に似ていることが分かる。よって、親指のみデータベースと照合していくと、図14(a)のシルエットに対し、2通りの親指の形状が得られることになる。
次に同様の照合を人差し指に対して行うと、図14(a)では人差し指の移動領域には1通りの人差し指の形状しか無いことが確認できる。この場合は、○印で表される特徴点が人差し指であることが認定されるので、親指の形状は十字印の特徴点(図14(a))であることが認定できる。一方、図14(b)では、親指も人差し指も選択は一通りしかなく、共通であると認定される。この場合は図14(b)の様に、親指と人差し指が重なっていると認定されることになる。
次に、図14(b)の状態から、人指し指を伸ばした場合を図15では示している。人指し指を伸ばすと、親指top(x、y)と人指bottom(x、y)の位置が重なるので、共にその特徴点を見つけられない可能性がある。但し、他の特徴点は検出できているので、残りの3点の特徴から指の形状を推定していく。親指の移動領域には1通りの親指の形状しか無く、親指の形状と認定できる。一方、人差し指の移動領域には2通りの人差し指形状が検出されている。但し、十字印で示された特徴点は親指の特徴点と共通なので、丸印で示された方が人差し指の形状であると認定することができる。この様に、各指の移動領域と特徴点を用いると、指のシルエットが重なったときでも誤認識無く、指形状の認定が可能となる。
図16より、データベースの構成とその構築方法、指画像から検出された内容とベータベースの照合方法に関して詳しく説明していく。指の検出データは、カメラ3で撮像された手の映像をモーションキャプチャー制御装置29から送られてきた情報に基づき、左右の手の画像データとして切り取られ、回転・倍率した後の規格化された画像に対し、特徴点算出を行う。もちろん、データベースも同様の規格化された画像データより特徴点を算出している。図17はY軸周りの回転Yθについて示しているが、これは前述のカメラ3から切り取る画像の回転補正を行えば、同じ指形状となる為、1つのデータベースで良いことを示している。
また、データベースを作る際の手は標準的な手の大きさが用いられている。その為、手の細い人、手の大きい人、指の長い人、短い人に対する照合が難しいことが考えられる。そこで本発明では、上記の手袋は伸縮性のある素材を用い、被験者が最初に手を思いっきり広げた状態で、全指の特徴点を計測し、データベース内の手を思いっきり広げた状態の全指の特徴点と比較、それぞれの特徴点に対する伸縮量をX、Y軸独立で計測する。それ以降の照合は、この伸縮量を用いて補正する。これにより、手の大きさや指の長さ、細さによるデータベースと検出結果の誤差は最小限に抑えられていることを前提とする。
図16はX軸周りの回転Xθ(0〜100°)とZ軸周りの回転Zθ(−90〜90°)のデータベースを示している。
手の動きについては、前述のモーションキャプチャー制御装置29の結果に基づき行われる為、データベースは指先形状の推定のみである。よって、5°または10°程度の間隔でデータベースを構成する。もちろん、細かい間隔でデータベースを構築しても良い。
手の動きについては、前述のモーションキャプチャー制御装置29の結果に基づき行われる為、データベースは指先形状の推定のみである。よって、5°または10°程度の間隔でデータベースを構成する。もちろん、細かい間隔でデータベースを構築しても良い。
図18からは、図15のデータベースの中でXθ=90°、Zθ=−90°、Yθ回転補正後の場合を例として説明していく。図18は、左の親指のデータベースを構築していく様子を示している。左手に親指とベースライン12のみ緑色部で塗られた黒い手袋を着け、右手にはデータグローブを着けている。右の親指と左の親指をYZ面対称に同じ動きをさせながら、カメラ3で手の画像データを連続して取り込んでいる。
カメラ3からの画像データからベースライン12を検出、基準点十字印の位置を決定、親top(x、y)、親bottom(x、y)、親left(x、y)、親right(x、y)を順次求め、記憶していく。それと同時に右手のデータグローブからは、親指の関節情報を同時に記憶していく。
図19(a)の様に、親left(x、y)の検出を例とすると、最初に親指を大きく旋回させ、その輪郭上の結果を記憶していく。検出結果はコンピュータ上に逐次結果が更新されるので、その後、その内部を埋める様に親指を細かく動かしていく。図19(b)の様に、全ての内部が埋め尽くされるまで、親指の動きを繰り返す。
実際には並行して、親top(x、y)、親bottom(x、y)、親right(x、y)の結果も同時にコンピュータ上に表示されるので、全ての指で内部が埋め尽くされた時点で親指の検出は終了する。最終的にデータベースの中で、同じ内容の結果を除いたものが、親topbn(x、y)、親bottombn(x、y)、親leftbn(x、y)、親rightbn(x、y)となり、データベースの構築が終了する。この作業を全ての指で行うことで、Xθ=90°、Zθ=−90°の手の向きに関するデータベースが確定する。
これと同じ作業を、X軸周りの回転Xθ(0〜100°)とZ軸周りの回転Zθ(−90〜90°)の様に、手の向きを変えて全て実施する。この作業で全てのデータベースが確定する。
図20、図21には、データベースの構成が示されている。この例ではデータベースはn=1〜100の100通りあり、各指の4角形を表す辺の座標データと親指認識線の角度情報、照合時に使用するCOMP、更には各指の関節情報、各指の画像データアレイがデータベース上に記憶されている。
次に図22を用いて、本データベースと指の画像取り込みによる結果の照合の方法について説明する。図11及び図12(a)で説明した通り、2次元画像データの緑手袋部分を2値化したデータに対し、x軸、y軸共に、2値化データ(1:白、0:黒)の1の部分の最大値、最小値をプロットした1次元データを作り、微分法にてスロープ信号を取る。画像データのスロープ信号は、傾きがプラスの場合ピーク信号、マイナスの場合ボトム信号となる。x軸上の1次元データからはleft(x、y)、right(x、y)が検出され、y軸上の1次元データからはtop(x、y)、bottom(x、y)が検出される。その特徴点と信号強度(ピーク値、ボトム値)を順次表に書き込んだものが図22(a)である。但し、この時点ではどの指の特徴点かの区別はつかない。
次に親指を例にとると、データベース親leftbn(x、y)と検出値left(x、y)を比較し、親指の移動領域内の特徴点であるかを照合する。図22(b)はその照合結果であり、内部の2点が親left(x、y)として認定される。この作業を、検出結果right(x、y)に対してはデータベース親rightbn(x、y)、検出結果top(x、y)に対してはデータベース親topbn(x、y)、検出結果right(x、y)に対してはデータベース親rightbn(x、y)、検出結果bottom(x、y)に対してはデータベース親bottombn(x、y)と照合していく。
他の指についても同様の照合を実施し、照合された特徴点を表にしたのが図23である。これは図12に示した様な、各指が干渉無く離れている場合の例であり、特徴点による4角形が全て検出されているときの結果である。親指はn=2,3、人差し指はn=6、7、8、中指はn=13,14,15、薬指はn=3,4、小指はn=17,18のデータベースに格納された指形状であることが推定される。式1、式2をそれぞれ満たしている指形状の候補となる。
但し、指関節の特定には、1つの指形状に特定する必要があり、そこで照合されたものに対し式3を行い、COMPの最も小さい親指はn=2、人差し指はn=7、中指はn=14、薬指はn=3、小指はn=18が最終的に照合された指形状となる。特定された指形状と一緒に格納された指の関節情報を3次元仮想空間表示制御装置27に送ることで、一連のシーケンスが終了する。
図24には、図15で示した様な、指が干渉している場合の照合結果を示す。親topbnyの欄を見ると判る様に、親topnyと照合された検出結果が無く、特徴点による4角形が検出できていないことが分かる。この場合は、3辺の検出ができているn=89,90,91が指形状の候補となる。親指については、データベースの中に、親指認識線という欄があり、その線の傾きがデータベース内に格納されている。ここでは候補の中で、親指認識線角度が検出結果と近いn=90の親指形状が選択されている。
一方、人差し指も4角形が検出できているものは無く、中bottombn(x、y)以外の3辺が検出されているn=6,7,8と、中topbn(x、y)以外の3辺が検出されているn=90,91がその候補となっている。しかし、既に照合が終わっている親指の形状と、n=90,91は同一の場所であり、中指はn=6,7,8の別の指情報も検出されているので、n=90,91は中指の候補から外される。n=6,7,8については、検出できていない中bottombn(x、y)以外の辺を用いて式3の計算が行われ、COMPの最も小さいn=7が最終的に照合された指形状となる。
次に、図29及び図30を用いて、2次元型画像形成装置から射出された三次元モデリングされたCGによる仮想空間画像を、被験者30の左右両目に対し視野角±60°以上の広域像で眼球内の網膜上に投影する広視野角ヘッドマウントディスプレイ装置1の構造を説明する。
図29は、被験者30が広視野角ヘッドマウントディスプレイ装置1を装着しているときの側面図を示す。
図29は、被験者30が広視野角ヘッドマウントディスプレイ装置1を装着しているときの側面図を示す。
広視野角ヘッドマウントディスプレイ装置1は、照明系、2次元型画像形成装置及びその制御基板、画像をスクリーンに投影する拡大光学系を有し、スクリーンの透過像を、接眼レンズを介して両目に独立に表示する機能を有する装置である。画像を光軸がずれない様に被験者30の両目に表示する為、骨格は軽量でしっかりした剛性のアルミ素材が使われている。そのアルミフレームを被験者30にしっかりと固定する為に、固定用マジックテープ(登録商標)32、34、37、40が被験者のかぶる帽子31とフレーム部を所定の位置関係になる様に連結している。
また、十字印36は、広視野角ヘッドマウントディスプレイ装置1の重心位置を示す。その重心位置から、帽子31に対して斜め方向から固定用マジックテープ(登録商標)33、35で連結している。これは被験者30が上を向いても、下を向いても重心支持となる様に工夫されている為である。また、マジックテープ(登録商標)37には連結環38があり、帽子31とフレームの間をアゴパット39の方向からマジックテープ(登録商標)を引っ張ることで、締めることができる構成である。顔の左右からのマジックテープ(登録商標)37をアゴパット39の位置で連結することで、顔の動きに依存せず、フレームが被験者30にしっかりと固定される。通常のヘルメットとほぼ同じ頭上の延長線上に重心位置がある為、長時間装着しても疲れない構造となっている。
図30は被験者30が広視野角ヘッドマウントディスプレイ装置1を装着しているときの上面図であり、前述のフレームを除いた光学系を示している。照明光学系46L、46Rは外部に設置された光源またはLEDの射出光を所定の条件とし、均一化する役割を果たす。光はRGBの3色であり、Xプリズム系45L、45Rの中にあるPBS部(偏光ビームスプリッタ)で偏向され、RGBのLCOS44L、44R(R、G、Bは独立のLCOSであるが、紙面と直交方向なので図示せず)を照明する。2次元型画像形成基板42L、42Rは電源基板43から電気を供給され、LCOS44L、44Rから映像が射出される様にLCOS44L、44Rを制御する。
LCOS44L、44Rからの映像情報を有する射出光は、Xプリズム系45L、45Rの中にあるPBS部を介してXプリズム部でRGBが合成された後、片テレセントリックタイプの拡大リレー光学系47L,47Rを介し、偏向ミラー48L、48Rにより偏向され、スクリーン50L、50R上にLCOS44L、44Rで形成された映像を拡大投影する。このときのスクリーン50L、50Rの片面には、図33、図34で説明した様なマイクロアレイレンズが形成されている。カメラ3は本発明の第1〜第10の実施形態において、本ヘッドマウントディスプレイを利用する場合に、偏向ミラー48L、48Rの間に設置される。
スクリーン50L,50Rを透過した透過像は、視野角が60〜140°の接眼光学系49L、49Rを介して、被験者30の左右の眼球内の網膜上にLCOS44L、44Rの画像情報を再投影する。この接眼光学系44L、44Rの視野角に必要な前記接眼光学系への射出光と、前述のスクリーンと直交する方向のなす角θ2はスクリーン上の点Pが最も大きい。その点Pでの拡大リレー光学系47L,47Rからの入射光と前記スクリーンと直交する方向のなす角はθ1であり、マイクロアレイレンズの発散角はθ1+θ2以上となる様に、マイクロアレイレンズのピッチ及び曲率が設計されている。
[発明の効果]
以上の様に本発明の第1から第10実施形態に於いては、手の各指を背景の映像と分離容易な単色で覆うと共に、単色で覆われた各指に対応した部分とそれ以外の部分に分離して、前述の各指に対応した部分の特徴を検出し、各特徴とその際の指毎の状態をデータベースとして記憶すると共に、検出対象の各指の状態に対して前記特徴を検出し、前記データベースと照合しているので、誤認識無く、正確に指の形状を推測することができる。
以上の様に本発明の第1から第10実施形態に於いては、手の各指を背景の映像と分離容易な単色で覆うと共に、単色で覆われた各指に対応した部分とそれ以外の部分に分離して、前述の各指に対応した部分の特徴を検出し、各特徴とその際の指毎の状態をデータベースとして記憶すると共に、検出対象の各指の状態に対して前記特徴を検出し、前記データベースと照合しているので、誤認識無く、正確に指の形状を推測することができる。
特に、図25の様に、手が横向きであり指の特定が困難な場合、各指の単色で覆う部分を第2関節と第3関節に分けることで、認識が簡単になる。図25Aは人差し指を伸ばしているときの図であり、図25Bは中指を伸ばしているときである。上の図が本来検出したい特徴点(十字印)であるが、目で見ればその場所を特定できる。しかし、指のシルエットが重なる場合、上の様に簡単に分離できず、実際には丸印の様に検出できない部分が発生する。しかし、人差し指は第3関節まで単色で覆っているのに対し、中指は第2関節までしか覆っていない。この差によって下図の様に、人差し指と中指の識別が容易となり、特徴点を検出し易くしている。
図26は、手に何かものを持っている場合の指形状検出である。図26Aの下図は工具を持っているときの特徴点(十字印)の検出であり、図26Bの下図は封筒を持っているときの特徴点の検出結果を示している。本来、図26A,Bの上図の様に、各指4角形の特徴点を検出できるはずが、物を持っている為に、丸印の部分で誤検出や検出できない特徴点が存在しているのが分かる。しかし、各指とも指の先の特徴点の検出が少なくとも2点でできていることが分かる。
図27ではこの点について実験を行った様子を示している。図27(a)は、手首を固定し、指の先をもう一方の指で固定している。指先を固定しているだけなのに、第1、第2、第3関節も動かせないことが分かる。これは指先近傍の特徴点の検出ができれば、指の形状も推測できることを意味する。
図27(b)は、指を動かしたときの特徴点がどの部分の影響を受けているかを示している。第3関節及び第2関節で決められた特徴点(丸印)はあまり大きく動いていないが、指先を動かすことで、指先及び第1関節で決められた特徴点(十字印)は大きく動き、4角形も大きく変化することが分かる。即ち、図26A、Bの下図の様な物を持っている場合でも、指先若しくは第1関節近傍で決まる特徴点を検出できれば第2、第3関節の情報が無くても、指の形状を推測できるという効果がある。
特に図27(b)は基準点も隠れているが、ベースライン12は高さがBLheight、BLwidthと決まっており、モーションキャプチャー制御装置29からの情報で回転補正が行われているので、基準点位置の推定も可能である。
尚、今回説明したデータベースについては、お互いの指が干渉しない条件で特徴点を計測しているが、各指の検出領域が決定されれば、本シーケンスが実行できるので、お互いの指が干渉した状態でデータを取り、算出された特徴点をデータベースとして格納しても良い。図28は人差し指、中指、薬指が重なっているときの様子を示す。図28(a)は人差し指と薬指が前にある場合であり、(b)は中指が前にある場合である。第2、第3関節近傍の特徴点の間隔が狭くなるという特徴で区別できるが、指先付近の特徴点は複雑であり、誤検出する可能性も高い。データベースにこの2つの指形状の特徴点があれば、誤検出無く、指形状を再現できる。この様に、検出が難しいと思われる指形状については、データベースに登録することで、更に難しい指形状の推定が可能となる。
また、指の検出領域は殆どの場合、隣り合う指と親指の干渉である。よって、本発明の第3の実施形態を利用して、親指を指毎にその覆う単色を分離可能な様に複数色とする。例えば、完全な緑[255、0、255、0]で親指を覆い、青みがかった緑[255,0、255、120]で人指し指と薬指を覆い、黄色がかった緑[255、120、255、0]で中指と小指を覆う様にする。それぞれの色に近い色で2値化すると、簡単に各指を分離した状態で特徴点が検出でき、誤検出が殆ど無くなるという効果も発生する。
また、両手が重なることも考えられる。この場合も、右と左の単色を変えることで、容易に分離できるという効果がある。
また、両手が重なることも考えられる。この場合も、右と左の単色を変えることで、容易に分離できるという効果がある。
一方、本発明の第11から第15の実施形態に於いては、スクリーン50上のマイクロアレイレンズの拡散角がθ1+θ2以上になる様に設計されているので、きれいな映像を高い照度で見ることが可能となっている。尚、本発明はヘッドマウントディスプレイに適用するものであるが、広視野角で三次元モデリングされたCGによる仮想空間画像を見る方法としては、被験者ではなく、地面設置型の画像表示装置を除く方法もある。更には両目では無く、片目で覗き込む場合も接眼光学系とマイクロアレイレンズによるスクリーンを使用することで、同様の効果が期待できる。よって、本発明の範囲に含むものである。
更には、本発明は拡大リレー光学系として片テレセントリックのものを利用しているが、拡大リレー光学系にはLCOS側がテレセントリックではない両非テレセントリック光学系もある。これはθ1がある以上、当然本発明に含まれる。また、視野角が60°程度の場合、両テレセントリック光学系で拡大光学系を設計できることもある。この場合も、θ1=0とすれば、本発明の数値条件を満たすので、同様の効果が期待できる。よって、本発明に含まれるものである。
尚、本発明では図33(e)、(f)の様に、凸レンズと凹レンズを例として説明している。基本的には凸レンズのみのマイクロレンズアレイ、凹レンズのみのマイクロレンズアレイの方が、接触する辺部の効率が良いが、無論、交互に設置しても本発明の効果は得ることができる。更には本発明ではfθレンズと球面レンズのみの説明しかしていないが、コーニック定数や高次の制御を行う非球面レンズについても、ほぼ同等の効果が得られるものであれば、本発明に含まれるものである。
また、本発明ではマイクロレンズアレイに多角形形状を用いているが、図41(a)に示す様な方法で、球面でθ1+θ2の発散角を得る構成も可能である。図41(a)は、球面以外の平面部53に光を透過しない金属面を蒸着している例である。この場合は、曲面のみしか持たないマイクロアレイレンズ部のみしか光が透過しないので、正六角形形状の本発明と同等の効果がある。また、図41(b)に示すように、その平面部53に急な傾斜を持つ(C線の断面の側面図を下図に示している)構造54にすると、光は全反射により外に光が出てこないので、同様に正六角形形状の本発明と同等の効果がある。図41(c)は、その平面部53に急な傾斜を持つ(C線の断面の側面図を下図に示している)構造55を複数配置している。この配列はランダムでも配列化されていても良い。光は全反射により外に光が殆ど出てこないので、同様に正六角形形状の本発明と同等の効果がある。よって、これらも本発明を応用した技術として本発明に含まれるものである。
更に、平行四辺形形状、ひし形形状等も同等の効果があるので、多角形として本発明に含まれる。この様に、本発明ではレンズ部以外の部分から光が殆ど漏れないか、拡散する方法も含めて多角形と定義している。
1・・・ヘッドマウントディスプレイ、2R,2L・・・緑色の手袋、3・・・カメラ、4,5・・・マーカ、6・・・モーションキャプチャー装置、7・・・CG画像による仮想空間、8・・・モデリングされたCG画像の手、9・・・手首固定部、10・・・アーム、11・・・カメラ、12・・・緑色のベースライン、26・・・ヘッドマウント画像表示制御装置、27・・・3次元仮想空間表示制御装置、28・・・画像処理装置、29・・・モーションキャプチャー制御装置、30・・・被験者、31・・・帽子、32、33、34,35、37、40・・・固定用マジックテープ(登録商標)、38・・・連結環、39・・・アゴパット、42L、42R・・・2次元型画像形成基板、43・・・電源基板、44L、44R・・・LCOS、45L、45R・・・Xプリズム系、46L、46R・・・照明光学系、47L,47R・・・片テレセントリックタイプの拡大リレー光学系、48L、48R・・・偏向ミラー、49L、49R・・・接眼光学系、50L,50R・・・スクリーン
Claims (15)
- 三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、前記第2のCG画像の各指の動きについては、現実空間での被験者の指をカメラで撮影して、前記カメラで撮影した各指の画像から推定した各指の形状と同じ形状になる様に、前記第2のCG画像の各指の動きを制御する方法であって、
手の各指を背景の映像と分離容易な単色で覆うと共に、前記単色で覆われた各指に対応した部分とそれ以外の部分に分離するステップと、
各指に対応した前記部分の第1の特徴を検出し、前記第1の特徴とその際の指毎の状態をデータベースとして記憶するステップと、
被験者の手の各指を背景の映像と分離容易な単色で覆うと共に、前記単色で覆われた各指に対応した部分とそれ以外の部分に分離するステップと、各指に対応した前記部分の第2の特徴を検出し、前記データベースの第1の特徴と照合するステップと、
照合した結果に基づき、前記データベースより指毎の状態を求め、前記第2のCG画像の各指の動きを制御するステップと、を有することを特徴とする、三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。 - 前記手の各指を背景の映像と分離容易な単色で覆うステップは、指毎にその覆う範囲を識別可能な様に異ならせることを特徴とする請求項1に記載の三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。
- 前記手の各指を背景の映像と分離容易な単色で覆うステップは、指毎にその覆う単色を識別可能な様に複数色とすることを特徴とする請求項1に記載の三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。
- 前記仮想空間を表示する映像表示手段はヘッドマウントディスプレイであり、前記指を撮影するカメラは前記ヘッドマウントディスプレイに設置することを特徴とする請求項1に記載の三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。
- モーションキャプチャー技術により手の甲に取り付けられたマーカ及び、前記ヘッドマウントディスプレイに取り付けられたマーカを検出し、前記カメラから得られる映像の中の手の座標及び回転角を推定し、その結果に基づき、前記映像の中から手の映像を抽出することを特徴とする請求項4に記載の三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。
- 前記指を撮影するカメラは前腕に固定されていることを特徴とする請求項1記載の三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。
- 単色で覆われた前記部分の第1及び第2の特徴は、手の一部に設置された、単色で覆われた部分の検出位置に基づき決定された基準点からの座標情報を含むことを特徴とする請求項1に記載の三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。
- 単色で覆われた前記部分の第1及び第2の特徴は、前記部分のそれぞれの輪郭が内接若しくは外接する多角形の頂点または辺の座標を含むことを特徴とする請求項1記載の三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。
- 前記データベースの指毎の状態は単色で覆われた前記部分の第1及び第2の特徴部分の移動領域情報と、各関節情報を含むことを特徴とする請求項1記載の三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する方法。
- 三次元モデリングされた第1のCG画像による仮想空間の中に、モーションキャプチャー技術を用いて現実空間での手の位置を検出し、その結果に基づき三次元モデリングされた第2のCG画像の手を表示すると共に、前記第2のCG画像の各指の動きについては、現実空間での被験者の指をカメラで撮影して、前記カメラで撮影した各指の画像から推定した各指の形状と同じ形状になる様に、前記第2のCG画像の各指の動きを制御する装置であって、
手の各指を背景の映像と分離容易な単色で覆った手袋と、同手袋を撮影するカメラと、
前記単色で覆われた部分の第1の特徴とその際の指毎の状態をデータベースとして記憶する記憶装置と、
前記単色で覆われた部分とそれ以外の部分に分離し、前記単色で覆われた部分の第2の特徴を検出し、前記データベースの第1の特徴と照合する演算装置と、
照合した結果に基づき、前記データベースより指毎の状態を求め、前記第2のCG画像の各指の動きを制御する制御装置を有することを特徴とする、三次元モデリングされた第1のCG画像内に第2のCG画像の手指を表示する装置。 - 2次元型画像形成装置から射出された三次元モデリングされたCGによる仮想空間画像を、それぞれ第1(右眼用)、及び第2(左目用)のスクリーンに投影する第1(右眼用)、及び第2(左目用)の拡大リレー光学系と、前記第1及び第2のスクリーンの透過像を、それぞれ、第1(右眼用)、第2(左目用)の接眼光学系を介して左右両目に対し視野角±60°以上の広域像で眼球内の網膜上に投影する広視野角ヘッドマウントディスプレイ装置であって、
前記スクリーンは多角形のマイクロアレイレンズを敷き詰めて構成され、スクリーン上の任意の位置で、前記拡大リレー光学系からの入射光と前記スクリーンと直交する方向のなす角をθ1、前記視野角に必要な前記接眼光学系への射出光と前記スクリーンと直交する方向のなす角をθ2としたとき、前記マイクロアレイレンズからの発散角をθ1+θ2以上にすることを特徴とする広視野角ヘッドマウントディスプレイ装置。 - スクリーン上での前記仮想空間画像の画素の大きさをP、前記マイクロアレイレンズの内接円の直径をWとしたとき、以下の条件
P>=W
を満たすことを特徴とする請求項11記載の広視野角ヘッドマウントディスプレイ装置。 - 前記マイクロアレイレンズの内接円の直径をW、レンズ部の屈折率をn、レンズ曲率の絶対値をRとしたとき、以下の条件
n*Sin(Asin(W/2/R)−Asin(1/n*Sin(θ1))<=1
を満たすことを特徴とする請求項11記載の広視野角ヘッドマウントディスプレイ装置。 - 以下の条件
Asin(n*Sin(Asin(W/2/R)−Asin(1/n*Sin(θ1)))>=Asin(W/2/R)+θ2
を満たすことを特徴とする請求項13記載の広視野角ヘッドマウントディスプレイ装置。 - 以下の条件
Atan(1/n)>=Asin(W/2/R)−Asin(1/n*Sin(θ1))
を満たすことを特徴とする請求項14記載の広視野角ヘッドマウントディスプレイ装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012088776A JP2013218535A (ja) | 2012-04-09 | 2012-04-09 | 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012088776A JP2013218535A (ja) | 2012-04-09 | 2012-04-09 | 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013218535A true JP2013218535A (ja) | 2013-10-24 |
Family
ID=49590550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012088776A Pending JP2013218535A (ja) | 2012-04-09 | 2012-04-09 | 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013218535A (ja) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015114818A (ja) * | 2013-12-11 | 2015-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2015114676A (ja) * | 2013-12-09 | 2015-06-22 | 三菱電機株式会社 | 作業確認システム |
WO2016185634A1 (ja) * | 2015-05-21 | 2016-11-24 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
JP2017048053A (ja) * | 2015-09-04 | 2017-03-09 | 公立大学法人岩手県立大学 | ピッキング台車 |
WO2017204581A1 (ko) * | 2016-05-26 | 2017-11-30 | 경북대학교 산학협력단 | 혼합현실을 이용한 가상현실 시스템 및 그 구현방법 |
JP2017227687A (ja) * | 2016-06-20 | 2017-12-28 | 聖 星野 | カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体 |
US9953207B2 (en) | 2015-09-04 | 2018-04-24 | Fujitsu Limited | Biometric authentication device, biometric authentication method and computer-readable non-transitory medium |
KR101882219B1 (ko) * | 2016-07-29 | 2018-08-24 | 정우락 | 가상현실 슈팅 게임 장치 |
JPWO2017191703A1 (ja) * | 2016-05-02 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置 |
JP2019179502A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
KR20200032990A (ko) * | 2018-09-19 | 2020-03-27 | 재단법인 실감교류인체감응솔루션연구단 | 실제 손에 대응하는 가상 손 모델링 방법 및 이를 위한 장치 |
KR20200061861A (ko) * | 2018-11-26 | 2020-06-03 | 재단법인 실감교류인체감응솔루션연구단 | 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치 |
WO2020218533A1 (ja) * | 2019-04-26 | 2020-10-29 | 株式会社エスイーフォー | オブジェクトに属性情報を付与する方法及び装置 |
WO2023209818A1 (ja) * | 2022-04-26 | 2023-11-02 | 株式会社ソニー・インタラクティブエンタテインメント | 操作装置、情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム |
CN117274205A (zh) * | 2023-09-27 | 2023-12-22 | 深圳市六六六国际旅行社有限公司 | 一种基于新型数据标注与数据增强的四边形检测方法 |
-
2012
- 2012-04-09 JP JP2012088776A patent/JP2013218535A/ja active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015114676A (ja) * | 2013-12-09 | 2015-06-22 | 三菱電機株式会社 | 作業確認システム |
JP2015114818A (ja) * | 2013-12-11 | 2015-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10642349B2 (en) | 2015-05-21 | 2020-05-05 | Sony Interactive Entertainment Inc. | Information processing apparatus |
WO2016185634A1 (ja) * | 2015-05-21 | 2016-11-24 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
JPWO2016185634A1 (ja) * | 2015-05-21 | 2017-08-31 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
JP2017048053A (ja) * | 2015-09-04 | 2017-03-09 | 公立大学法人岩手県立大学 | ピッキング台車 |
US9953207B2 (en) | 2015-09-04 | 2018-04-24 | Fujitsu Limited | Biometric authentication device, biometric authentication method and computer-readable non-transitory medium |
JPWO2017191703A1 (ja) * | 2016-05-02 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置 |
WO2017204581A1 (ko) * | 2016-05-26 | 2017-11-30 | 경북대학교 산학협력단 | 혼합현실을 이용한 가상현실 시스템 및 그 구현방법 |
KR101822471B1 (ko) * | 2016-05-26 | 2018-01-29 | 경북대학교 산학협력단 | 혼합현실을 이용한 가상현실 시스템 및 그 구현방법 |
CN109196406B (zh) * | 2016-05-26 | 2021-06-04 | 庆北大学校产学协力团 | 利用混合现实的虚拟现实系统及其实施方法 |
CN109196406A (zh) * | 2016-05-26 | 2019-01-11 | 庆北大学校产学协力团 | 利用混合现实的虚拟现实系统及其实施方法 |
US10587868B2 (en) | 2016-05-26 | 2020-03-10 | Kyungpook National University Industry-Academic Cooperation Foundation | Virtual reality system using mixed reality and implementation method thereof |
JP2017227687A (ja) * | 2016-06-20 | 2017-12-28 | 聖 星野 | カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体 |
KR101882219B1 (ko) * | 2016-07-29 | 2018-08-24 | 정우락 | 가상현실 슈팅 게임 장치 |
JP2019179502A (ja) * | 2018-03-30 | 2019-10-17 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
JP2022171661A (ja) * | 2018-03-30 | 2022-11-11 | 株式会社 ディー・エヌ・エー | 動画を作成するためのシステム、方法、及びプログラム |
KR102157246B1 (ko) * | 2018-09-19 | 2020-10-23 | 재단법인 실감교류인체감응솔루션연구단 | 실제 손에 대응하는 가상 손 모델링 방법 및 이를 위한 장치 |
KR20200032990A (ko) * | 2018-09-19 | 2020-03-27 | 재단법인 실감교류인체감응솔루션연구단 | 실제 손에 대응하는 가상 손 모델링 방법 및 이를 위한 장치 |
KR20200061861A (ko) * | 2018-11-26 | 2020-06-03 | 재단법인 실감교류인체감응솔루션연구단 | 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치 |
KR102203933B1 (ko) | 2018-11-26 | 2021-01-15 | 재단법인 실감교류인체감응솔루션연구단 | 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치 |
WO2020218533A1 (ja) * | 2019-04-26 | 2020-10-29 | 株式会社エスイーフォー | オブジェクトに属性情報を付与する方法及び装置 |
WO2023209818A1 (ja) * | 2022-04-26 | 2023-11-02 | 株式会社ソニー・インタラクティブエンタテインメント | 操作装置、情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム |
CN117274205A (zh) * | 2023-09-27 | 2023-12-22 | 深圳市六六六国际旅行社有限公司 | 一种基于新型数据标注与数据增强的四边形检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013218535A (ja) | 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置 | |
JP6074494B2 (ja) | 形状認識装置、形状認識プログラム、および形状認識方法 | |
US20230259220A1 (en) | Smart ring for manipulating virtual objects displayed by a wearable device | |
US9823764B2 (en) | Pointer projection for natural user input | |
US11900569B2 (en) | Image-based detection of surfaces that provide specular reflections and reflection modification | |
US9779512B2 (en) | Automatic generation of virtual materials from real-world materials | |
CN105793764B (zh) | 用于为头戴式显示设备提供扩展显示设备的设备、方法和系统 | |
JP6177872B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
Nitschke et al. | Corneal imaging revisited: An overview of corneal reflection analysis and applications | |
JP7480882B2 (ja) | 情報処理装置、認識支援方法およびコンピュータプログラム | |
CN107004279A (zh) | 自然用户界面相机校准 | |
JP2009223331A (ja) | 光投影装置、照明装置 | |
JP6250025B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
WO2014128751A1 (ja) | ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法 | |
US12114103B2 (en) | Projector with field lens | |
US10229313B1 (en) | System and method for identifying and tracking a human hand in an interactive space based on approximated center-lines of digits | |
US10296098B2 (en) | Input/output device, input/output program, and input/output method | |
CN108664118B (zh) | 眼球追踪方法和装置、隐形眼镜、虚拟现实系统 | |
JP2017111081A (ja) | 運送点検用ヘッドマウントディスプレイおよび運送点検用ヘッドマウントディスプレイのプログラム | |
US11982814B2 (en) | Segmented illumination display | |
Mori et al. | A wide-view parallax-free eye-mark recorder with a hyperboloidal half-silvered mirror and appearance-based gaze estimation | |
CN117724240A (zh) | 具有面内照明的眼睛追踪系统 | |
JP2017111721A (ja) | クリーンルーム用ヘッドマウントディスプレイ、クリーンルーム用ヘッドマウントディスプレイの制御方法、およびクリーンルーム用ヘッドマウントディスプレイの制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150316 |