JP2009252240A - リフレクション組み込みシステム、方法及びプログラム - Google Patents
リフレクション組み込みシステム、方法及びプログラム Download PDFInfo
- Publication number
- JP2009252240A JP2009252240A JP2009039274A JP2009039274A JP2009252240A JP 2009252240 A JP2009252240 A JP 2009252240A JP 2009039274 A JP2009039274 A JP 2009039274A JP 2009039274 A JP2009039274 A JP 2009039274A JP 2009252240 A JP2009252240 A JP 2009252240A
- Authority
- JP
- Japan
- Prior art keywords
- reflection
- user interface
- effect
- video
- graphical user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Image Generation (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】コンピュータインタフェースと現実世界とを統合する。
【解決手段】ユーザ及び周囲環境の映像をリアルタイムで捕捉し、捕捉された映像を受信し、リフレクション効果を生成するために映像を操作する。リフレクティブユーザインタフェースを生成するためにグラフィカルユーザインタフェースの少なくとも1つの要素へ前記リフレクション効果を組み込み、前記リフレクティブユーザインタフェースをユーザにリアルタイムで表示する。前記リフレクション効果の少なくとも一部がユーザに表示される。
【選択図】図3
【解決手段】ユーザ及び周囲環境の映像をリアルタイムで捕捉し、捕捉された映像を受信し、リフレクション効果を生成するために映像を操作する。リフレクティブユーザインタフェースを生成するためにグラフィカルユーザインタフェースの少なくとも1つの要素へ前記リフレクション効果を組み込み、前記リフレクティブユーザインタフェースをユーザにリアルタイムで表示する。前記リフレクション効果の少なくとも一部がユーザに表示される。
【選択図】図3
Description
本発明は、ユーザ及び周囲環境のリフレクションをグラフィカルユーザインタフェースに組み込むシステム、方法およびプログラムに関し、詳細には、ユーザ及び周囲環境のリアルタイム映像からリフレクション効果を生成し、リフレクション効果をグラフィカルユーザインタフェースの要素に組み込むことに関する。
存在仮説(Presence Hypothesis)によれば、環境における人の存在感覚(sense of presence)は、自分の位置に対してどのオブジェクトが移動し、どのオブジェクトが静止しているかに関する人の知覚に環境が与える影響の程度を反映する(Rest Frame Construct)(非特許文献1)。ユーザインタフェース中の静的オブジェクト表面を(ユーザの実際の移動と同期した形で)ユーザのリフレクションが移動するのを見ることにより、オブジェクトが静止しているという外観が強化される。同様に、ユーザインタフェース中のオブジェクトが移動し、ユーザのリフレクションが適宜変形される場合、当該オブジェクトとユーザとの空間的関係が強化される。人の存在感覚は、人が環境に対し進んで払う注意の量に影響を及ぼす(非特許文献1を参照)。
パトナムは、2007年の論文で、人が自分に似ている他人を信頼する傾向が強いことに言及した(非特許文献2)。更に、人は自分と似ている人々に対してより協力的となる傾向がある。2007年にサイエンス誌に掲載された記事の中でドーナスは、人は、中性的なアバターや人間以外の生き物のアバターとは対照的に、見た目や挙動が人間のようなアバターを信頼することに言及した(非特許文献3)。ドーナスは更に、自然な動作が重要である点に言及した。
ATM機、電子ロック又は他の保護されたシステムなどの広く使用されている技術的デバイスに対し、ユーザのリフレクションを組み込むことで悪行を思いとどまらせる可能性がある。近隣のユーザのリフレクションを組み込んだ公共のディスプレイはユーザの興味を引きつけ、ここでもユーザによりよい行動をとらせることがある。最近の研究で、キューが実際にはいずれの実在観察者にも関連付けられていないことが明白である場合であっても、見られているというキューが存在すると人はより正直に振る舞うことが観察された(非特許文献4)。
ユーザインタフェース(UI)設計は、パーソナルコンピュータのグラフィックス能力の向上に伴って一層効果的にレンダリングされる傾向にある。これらのUIは、ここではつや消し金属、ガラス又は半透明プラスチックなどの現実世界の材質を模した表面を示している。これらの模擬環境はますます三次元的外観に近づいている。しかし、これらの模擬環境はユーザを取り囲む現実環境と結びつけられていない。
2004年に、ストットらは、フェーストップ(FaceTop)というインタフェース技術を開発した(非特許文献5)。このインタフェースは、ユーザがコンピュータ画面上に表示されたオブジェクトを制御できるように運動トラッキングを利用する。フェーストップ上で実行される作業の多くは遠隔共同作業を扱う。全ての場合において、フェーストップUIで使用されるユーザの映像はα(透過度)調節を行った映像オーバレイとして現れ、自然に近づけることを目的としていない。
2003年に、ショーン・ローソンズクルードオイルズ(Shawn Lawson's CrudeOils)プロジェクトがフォリーズ・ベルジェールのバー(A Bar at the Folies Bergere)を制作した(非特許文献6)。この芸術作品は、有名な絵画にビューワのリフレクションを組み込んだものである。絵画中の形態(figures)は、絵画の平坦な面上でユーザの存在に反応する。このことの効果は、ユーザの画像を反映しながら完全にシーンに没入することのない、シーンの「穴(hole)」にある。
「視覚的背景操作はシミュレータ酔いを軽減するか?(Do Visual Background Manipulations Reduce Simulator Sickness?)」、[online]、1997年、インターネット<URL:http://www.hypercerulean.com/documents/r-97-12.rtf>
「多数から一つへ:21世紀における多様性と共同体(E Pluribus Unum:Diversity and Community in the Twenty−first Century)、[online]、2007年、インターネット<URL:http://www.humanities.manchester.ac.uk/socialchange/aboutus/news/documents/Putnam2007.pdf>
「仮想と信頼(Virtually Trustworthy)」、[online]、2007年、インターネット<URL:http://www.humanities.manchester.ac.uk/socialchange/aboutus/news/documents/Putnam2007.pdf>
「見られているというキューが現実世界の環境における協調性を高める(Cues of being watched enhance cooperation in a real−world setting)」、[online]、2006年、インターネット<URL:http://www.staff.ncl.ac.uk/daniel.nettle/biology%20letters.pdf>
「透過映像フェーストップにおける分散型対プログラミングサポート(Support for Distributed Pair Programming in the Transparent Video Facetop)、[online]、2004年、インターネット<URL:http://delivery.acm.org/10.1145/1020000/1012827/p48-stotts.pdf?key1=1012827&key2=8548549811&coll=portal&dl=ACM&CFID=25432631&CFTOKEN=65578812>
[online]、2003年、インターネット<URL: http://www.crudeoils.us/html/Barmaid.html>
「投影テクスチャマッピング(Projective Texture Mapping)、[online]、インターネット<URL: http://developer.nvidia.com/view.asp=?IO=Projective_Texture_Mapping>
「VirtuSphere」、[online]、インターネット<URL:http://www.virtusphere.com>
ショートら、「社会存在理論(Social Presence Theory)、1976年
上記プロジェクトは、リアルタイム映像解析及びリアルタイム映像フィードバックを利用してユーザの動作を追跡することにより、人間とコンピュータとの相互作用をサポートすることに関する。コンピュータインタフェースに対するユーザ経験を改善すべくコンピュータインタフェースと現実世界とを統合することが依然求められている。
本発明は、ユーザ及び周囲環境のリフレクションをグラフィカルユーザインタフェース(GUI)に組み込むシステム及び方法に関する。本発明の方法の一態様に従うと、ユーザ及び周囲環境の映像がウェブカメラなどの映像キャプチャデバイスを利用して取得され、映像画像は本発明のリフレクティブユーザインタフェースを生成するためにGUIの要素に組み込まれるリフレクション効果を生成すべく操作される。リフレクション効果はGUIの異なる要素毎にカスタマイズされ、要素中に示されたサイズ、形状、材質により変更できる。リフレクション効果は、周囲環境中の光源に反応するシャドウを含む本発明のリフレクティブユーザインタフェースにシャドウ及びハイライトを組み込むことを更に含んでいてもよい。
本発明の第1の態様は、ユーザ及び周囲環境のリアルタイムリフレクションをグラフィカルユーザインタフェースに組み込むシステムであって、前記システムは、ユーザ及び周囲環境の映像をリアルタイムで捕捉するための映像キャプチャデバイスと、前記映像キャプチャデバイスから映像を受信し、リフレクション効果を生成するために映像を操作する処理手段であって、リフレクティブユーザインタフェースを生成するために前記グラフィカルユーザインタフェースの少なくとも1つの要素へ前記リフレクション効果を組み込む処理手段と、前記リフレクティブユーザインタフェースをユーザにリアルタイムで表示するディスプレイと、を含み、前記リフレクション効果の少なくとも一部をユーザに表示する。
なお、前記映像キャプチャデバイスはカメラであってよい。
なお、前記処理手段は、コンピュータ可読指示を記憶するメモリと、前記コンピュータ可読指示を実行するプロセッサと、を含むコンピュータシステムであってよい。
なお、前記処理手段は前記映像の不透明度を変更することにより前記映像を操作することができる。
なお、前記処理手段は前記映像の拡大縮小率を変更することにより前記映像を操作することができる。
なお、前記処理手段は前記映像の向きを変更することにより前記映像を操作することができる。
なお、前記処理手段は前記映像画像を反転させることにより前記映像の向きを変更することができる。
なお、前記処理手段は前記映像の画質を低下することにより前記映像を操作することができる。
なお、前記処理手段は前記映像を不鮮明化することにより前記映像の画質を低下することができる。
本発明の第2の態様は、第1の態様のシステムであって、前記処理手段はテクスチャマッピングを利用して前記グラフィカルユーザインタフェース上に前記映像をオーバレイすることにより、前記リフレクション効果を前記グラフィカルユーザインタフェースの前記少なくとも1つの要素に組み込む。
本発明の第3の態様は、第1の態様のシステムであって、前記グラフィカルユーザインタフェースの前記少なくとも1つの要素はウィンドウ、フレーム、ボタン又はアイコンを含む。
本発明の第4の態様は、第1の態様のシステムであって、前記処理手段は前記グラフィカルユーザインタフェースに示された材質の種類からリフレクションをシミュレートするために前記リフレクション効果を変更する。
本発明の第5の態様は、第1の態様のシステムであって、前記処理手段は前記グラフィカルユーザインタフェースの前記少なくとも1つの要素の形状からリフレクションをシミュレートするために前記リフレクション効果を変更する。
本発明の第6の態様は、第1の態様のシステムであって、前記処理手段は前記周囲環境を削除及び置換する。
本発明の第7の態様は、第1の態様のシステムであって、前記処理手段は前記リフレクティブユーザインタフェースを三次元環境に組み込む。
本発明の第8の態様は、第7の態様のシステムであって、前記処理手段はシーンの背景へ映像をインポートし、三次元グラフィックエンジンを利用して前景へ映像をリフレクションする。
なお、前記ディスプレイはコンピュータモニタを含むことができる。
本発明の第9の態様は、第1の態様のシステムであって、前記グラフィカルユーザインタフェースはウィンドウ、アイコン、メニュー又はポインティングデバイスインタフェースを含む。
本発明の第10の態様は、第1の態様のシステムであって、前記グラフィカルユーザインタフェースはシーンの三次元表示を含む。
本発明の第11の態様は、第10の態様のシステムであって、前記ディスプレイは前記リフレクティブユーザインタフェースを複数のユーザに表示し、前記複数のユーザの各々は前記リフレクティブユーザインタフェースを異なって知覚する。
本発明の第12の態様は、第1の態様のシステムであって、前記処理手段は前記グラフィカルユーザインタフェースの前記少なくとも1つの要素へシャドウ効果を組み込むことにより、リフレクティブユーザインタフェースを生成する。
本発明の第13の態様は、第12の態様のシステムであって、前記シャドウ効果は前記周囲環境中の光源を識別することにより生成される。
本発明の第14の態様は、第1の態様のシステムであって、前記処理手段は前記グラフィカルユーザインタフェースの前記少なくとも1つの要素へハイライト効果を組み込むことにより、リフレクティブユーザインタフェースを生成する。
本発明の第15の態様は、第14の態様のシステムであって、前記処理手段は前記周囲環境中の光源を識別することにより前記ハイライト効果を組み込む。
本発明の第16の態様は、ユーザ及び周囲環境のリアルタイムリフレクションをグラフィカルユーザインタフェースに組み込む方法であって、前記方法は、ユーザ及び周囲環境の映像をリアルタイムで捕捉し、映像キャプチャデバイスから映像を受信し、リフレクション効果を生成すべく前記映像を操作し、リフレクティブユーザインタフェースを生成すべく前記リフレクション効果を前記グラフィカルユーザインタフェースの少なくとも1つの要素に組み込み、前記リフレクティブユーザインタフェースをリアルタイムでユーザに表示する、ことを含み、少なくとも前記リフレクション効果の一部をユーザに表示する。
なお、前記リフレクション効果を映像の画質を低下することにより生成することができる。
本発明の第17の態様は、第16の態様の方法であって、前記リフレクション効果は前記グラフィカルユーザインタフェースのフレーム、ボタン又はアイコンに組み込まれる。
本発明の第18の態様は、第16の態様の方法であって、前記リフレクション効果は前記グラフィカルユーザインタフェースの前記少なくとも1つの要素へシャドウ効果を組み込むことにより生成される。
本発明の第19の態様は、ユーザ及び周囲環境のリアルタイムリフレクションをグラフィカルユーザインタフェースに組み込む機能をコンピュータに実現させるためのプログラムであって、前記機能は、ユーザ及び周囲環境の映像信号をリアルタイムで受信し、リフレクション効果を生成すべく映像を操作し、前記リフレクション効果を前記GUIの少なくとも1つの要素に組み込み、組み込まれた前記リフレクション効果を利用してリフレクティブユーザインタフェースを生成する、ことを含む。
なお、前記リフレクション効果を前記映像の画質を低下することにより生成することができる。
本発明の第20の態様は、第19の態様の方法であって、前記リフレクション効果は前記グラフィカルユーザインタフェースのフレーム、ボタン又はアイコンに組み込まれる。
本発明の第21の態様は、第19の態様の方法であって、前記リフレクティブユーザインタフェースはシャドウ効果を前記グラフィカルユーザインタフェースの少なくとも1つの要素に組み込むことにより生成される。
本発明に関連する更なる態様は、その一部が以下の説明に記載され、一部が説明より明白となり、あるいは本発明を実施することにより理解されることができる。本発明の態様は、以下の詳細な説明及び添付の特許請求の範囲において特に指摘された要素及び各種要素と態様との組合せによって実現され達成されることができる。
上記説明及び以下の説明はあくまで例示及び説明のためになされるもので、特許請求された発明やその応用をなんら制限する意図はないことを理解されたい。
上記問題点に鑑み、本発明では、ユーザ及び周囲環境のリフレクションをグラフィカルユーザインタフェースに組み込むようにしているので、コンピュータインタフェースと現実世界との統合された感覚を高めることができる。
本明細書に組み込まれ、本明細書の一部をなす添付の図面は、本発明の実施形態を例示し、説明と相俟って本発明の技術原理を説明し図示するために供される。
以下の詳細な説明では、添付の図面を参照する。図面において同一の機能要素は同様の数字で示されている。上記添付の図面は、本発明の原理と一致する特定の実施形態及び実施態様を例示するもので、本発明を制限しない。これらの実施態様は、当業者が本発明を実行できるよう十分に詳細に記載される。他の実施態様も利用でき、本発明の範囲及び精神を逸脱することなく各種要素の構造変更及び/又は置換を行い得ることが理解されよう。従って、以下の詳細な説明は本発明を制限するものとして解釈されない。更に、記載される本発明の各種実施形態は、汎用コンピュータ上で実行されるソフトウェア、専用ハードウェア、あるいはソフトウェアとハードウェアとの組合せとして実施できる。
本発明の一実施形態は、ユーザ及び周囲環境のリフレクション(反射映像)をグラフィカルユーザインタフェース(GUI)に組み込むためのシステム及び方法に関する。一実施形態において、ユーザ及び周囲環境の映像はウェブカメラなどの映像キャプチャデバイスを利用して取得される。映像画像はリフレクティブユーザインタフェースを生成するためにGUIの要素に組み込まれるリフレクション効果を生成すべく操作される。リフレクション効果はGUIの異なる要素毎にカスタマイズされ、要素中に示されるサイズ、形状及び材質について変化する。リフレクション効果の生成は、更に周囲環境中の光源に反応するシャドウを含む本発明のリフレクティブユーザインタフェースにシャドウ及びハイライトを組み込むことを含む。
発明概念の一態様に従ってユーザ及びユーザの周囲環境のリフレクションを含めることで、自然な「感じを与える」本発明のユーザインタフェースが得られる。当業者には理解されるように、GUI設計においてよく知られている多数のオブジェクトの表面などの多数の表面は、現実世界における人々とその周囲オブジェクトなどの環境のリフレクションを自然に生成する。そのような表面として、クロム、ガラス、つや消し金属、水などが挙げられるが、これらに限定されない。現実世界では、人々は、このようなオブジェクトの表面上でリフレクションを見ることを期待し、また、人々の存在感覚はそのようなリフレクションを見ることにある程度依存する。上記リフレクションなどの各種視覚的キューをユーザに提供することによって、本発明のユーザインタフェースは周囲環境の中へ固定される。本発明のシステムの一実施形態は、ユーザを直接見ている人間の顔(ユーザ自身の顔)を特徴付けるユーザインタフェースを生成する。顔のリフレクションは、完全に予期される論理的な方法で動作する。この実施形態では、ユーザの顔のリフレクションをGUI中に含めることで、基礎をなすアプリケーションに対するユーザの所有意識をシンプルに高め、あるいはそれがユーザのためにカスタマイズされたという感覚を与えることができる。更に、上記引用されたパトナム及びドーナス(非特許文献2および3)により示唆されるように、ユーザは三次元(3D)ビューワで自身のより現実的な描写を見ることで、システムにより共感することが可能となり得る。
本発明の一実施形態において、本発明のリフレクティブユーザインタフェースは、現実の空間とコンピュータインタフェースを有用な方法で混合する試みの中で、ユーザ及びユーザを取り巻く現実の環境の自然なリフレクションを組み込む。本発明のリフレクティブユーザインタフェースの本実施形態の目標は、ユーザの現実世界とコンピュータインタフェースの人工世界とを統合させることにある。この本発明による統合の効果は、よりカスタマイズされた感覚をユーザに与える、よりダイナミックなユーザインタフェースである。実際には、ユーザの周囲環境がGUIに組み込まれるために、本発明のリフレクティブユーザインタフェースは閲覧される位置に応じて実質上異なって見える。これにより、ユーザによって知覚される本発明のインタフェースの現実感が増大する。
一実施形態において、ユーザはコンピュータモニタなどのディスプレイの前に着座し、カメラはディスプレイの視点からユーザ及び周囲環境を捕捉すべくディスプレイ付近に配置される。カメラ102、ディスプレイ104及びユーザ106の位置は図1に示されており、カメラ102からのビュー200は図2に示されている。ビュー200は、ユーザ202及び周囲環境204の画像を含む。
本発明の一実施形態では、カメラ102は、ユーザ202及び周囲環境204の映像(あるいは多数の静止画像)をリアルタイムで捕捉し、ディスプレイ104に接続されたコンピュータ108(処理手段)へ映像信号(あるいは多数の静止画像信号)を送る。一実施形態において、コンピュータ108は、コンピュータ可読指示を実施可能なプロセッサ及びメモリを備えたデスクトップ又はラップトップコンピュータである。コンピュータ108はカメラ102から映像信号(あるいは多数の静止画像信号)を受信する。本発明の一実施形態において、映像信号又は多数の静止画像信号は、次いでアドビフラッシュ(Adobe Flash、アドビシステムズ、カリフォルニア州サンホセ)などのマルチメディア・オーサリング・ツールを利用して開発されたソフトウェアを利用して処理されてもよい。映像オブジェクトがフラッシュ・オーサリング環境において作成され、次いで映像信号に付加される。これにより、複数の画像が得られる。次いで映像オブジェクトは各種リフレクション効果を生成すべく操作され、次いで生成されたリフレクション効果はボタン、ウィンドウ及びフレームなどGUIの諸要素に組み込まれる。映像を操作するための各種方法を以下に更に詳細に説明する。リフレクション効果がGUIに組み込まれると、リフレクティブユーザインタフェースがディスプレイ104上で作成され、ユーザに表示される。例えばユーザが自らの動作に対応するリフレクション効果を即座に見られるように、映像捕捉、及びリフレクティブユーザインタフェースの操作及び表示は、リアルタイムで行われる。リフレクティブユーザインタフェースをリアルタイムで表示することで、ユーザにとって現実的に見え、コンピュータインタフェースと現実の空間との混合を更に支援するユーザ及び周囲環境の自然なリフレクションが提供される。
当業者は、カメラ102が任意の画像又は映像ソースを利用して実施できることを認識するであろう。更に、画像操作ソフトウェアは、例えばJava(登録商標)(サン・マイクロシステムズ(カリフォルニア州サンタクララ))などの各種異なるプログラミング言語及び環境を利用して実施することができるがこれらに限定されない。
本発明の一実施形態のシステムは適当な(convincing)リフレクティブユーザインタフェースをレンダリングするために入力映像信号に関して何も知る必要がないことから、上記実施形態は信号処理を必要としない。従って、本発明の一実施形態のシステムは多くの計算能力を必要とせず、既存のデスクトップ又はラップトップコンピュータにおいて容易に実施される。
本発明の一実施形態において、グラフィカルユーザインタフェース(例えばウィンドウ、ボタン及びフレーム)の全ての態様は、対応するGUI要素が表す材質に適切なリフレクション効果を受信する。例えば、図3に示されたグラフィカルユーザインタフェース300では、球状ガラスボタン302は適切に変形されたリフレクション304を有する。一方、マット仕上げの平面パネル306は、より透き通った、変形のないリフレクション308を有していてもよい。
リフレクティブユーザインタフェースの多くの実施形態がGUIのタイプに応じて可能となる。図3に示される第一実施形態では、現実的なリフレクション効果312を示す仮想ミラー310が展開されている。ミラーが移動すると、当該仮想物体に対するユーザの空間的関係が強化される。オブジェクトを通過する自らのリフレクションを見ているユーザは、ユーザがオブジェクトに対して移動しているか、オブジェクトがユーザに対し移動している視覚的キューである。更に、アプリケーションのフレーム314は更にリフレクション効果316を表す。
本発明概念の別の実施形態において、図4に示されるように、メディア・プレイヤー・アプリケーションGUIは第一の非リフレクションGUI402、及び第二のリフレクティブユーザインタフェース404によって示されている。示された実施形態では、ボタン406はガラス面タイプのリフレクション効果408を示し、ウィンドウ枠410は変形されたリフレクション効果412を示し、GUIのパネル面414は薄れていく、部分的に可視的なリフレクション効果416を示す。
更に別の実施形態では、図5に示されるように、3Dビューワ・アプリケーション500が表される。フレーム502は変形されたリフレクション効果504を含む。ボタン506はミラー状のリフレクション効果508を含む。会議用テーブル510は、ユーザのミラー状のリフレクション効果512を更に含む。追加のリフレクション効果として、金属製ドア枠514上のリフレクション効果516、及び絵画518のガラス上のリフレクション効果520が挙げられる。
各実施形態では、ユーザのリフレクションの自然な処理が本技術を適用する上で重要である。リフレクションの自然な処理は、反転画像、不透明度、拡大/縮小及び遠近感の4つの成分へ分けることができる。
リフレクション効果の重要な要素は、ユーザ及び環境のリフレクションが映像キャプチャデバイスによって捕捉される映像画像から常に反転される点にある。現実のリフレクションが常に反転画像であるため、GUI中のリフレクション効果も反転されるべきである。
不透明度はリフレクション効果を創出する別の要素である。より光沢のある、よりリフレクションの大きい面は不透明度の高いリフレクションを有する一方、よりマットな表面は、不透明度の低いリフレクションを通じてそれらの基礎をなす色を示す。例えば、図3の仮想ミラー310は100%の不透明リフレクション312を有する一方、図5の扉枠514の光沢金属面は30%の不透明リフレクション516を有することができる。リフレクションの不透明度がシミュレートされた表面材質によって変更されない場合、リフレクション効果が低減し、リフレクションの現実感が低減し、映像オーバレイのようになる。リフレクションにおける不透明度の変化はユーザに現実感のある外観を提供すべく完全に正確である必要はなく、単に基礎をなす「仮想」材質によって導かれればよい。
リフレクション効果を拡大/縮小することで、GUI中のオブジェクト間の奥行の知覚が可能となる。UIにおいて別のオブジェクトの下になっているオブジェクトは、上のオブジェクトのリフレクションと比較してリフレクションが縮小されている。本明細書中で議論される全ての例示的UIは拡大/縮小されたリフレクションを利用する。拡大/縮小されたリフレクションは、UIの前景要素を背景層から分ける、奥行きの微妙な感覚を提供する。この効果は、恐らく図5の例示的3Dにおいて最も顕著である。同図では、会議室の3Dレンダリング後部の絵画518の表面に関するリフレクション520が前景における会議用テーブル510に関するリフレクション512と比べて著しく小さい。リフレクション効果の著しい拡大/縮小に伴ってリフレクションの拡大/縮小が変更されない場合、リフレクションの現実感が薄れ、更に映像オーバレイのように見えるようになる。既述の如く、リフレクションにおける拡大/縮小(拡大縮小率)はユーザに対し現実的な外観を提供するために完全に正確である必要はなく、単に基礎をなす「仮想」オブジェクトによって導かれればよい。
遠近感はGUIに適切にリフレクションを表すための別の成分である。シミュレートされたリフレクションは図3のボタン302などの、GUI中の任意のシミュレートされた3D形状を考慮して変形される必要がある。不透明度及び拡大/縮小の成分と同様に、遠近感のひずみは完全に正確である必要はなく、単に基礎をなす形状によって導かれればよい。
不鮮明度はこれらのシミュレートされたリフレクションの別の潜在的な成分である。ユーザが鏡面を見ていない限り、表面は完全なリフレクションを作成しない。材料のタイプによりリフレクションは幾分不鮮明化され得る。上記操作に加えて、リフレクション効果全体に不鮮明化の効果を加えることで、リフレクションの外観の自然さが増大する。ユーザはリフレクション画像が多くの点で不完全であることを予期しており、不鮮明度成分は上記成分(すなわち不透明度、拡大/縮小及び遠近感)の使用は完全に正確である必要がないことの更なる証拠である。
自然なリフレクションの個々の成分において言及されたように、満足な結果を達成するのに完全な正確性は必要とされない。現在のユーザインタフェースが3D形状及び材料を抽象する方法と概ね同一の方法でより有用なユーザインタフェースを生成すべく更に慎重にリフレクションを統合する必要がある。一実施形態において、リフレクション効果は操作がリフレクションの正確性の低下を要求する場合であっても、GUIの全体的な有用性を強化すべく操作される。この抽出は、視覚的混乱(visual clutter)を防止することによりGUIの有用性を強化する。リフレクション画像をこのように操作することは、正確なリフレクション画像を生成するためにカメラを利用することに特有の制限をマスクする。長時間にわたりユーザのリフレクションを操作することで、画面の特定の領域へユーザの注意を引くことができる。例えば、重要なダイアログボックスはそれらの画像をより強くリフレクションし得る。
一実施形態において、ユーザ及び周囲環境の映像は二次元(2D)又は3Dの、コンピュータにより生成されたユーザインタフェースに自然なリフレクションとして現れるべく操作される。映像はカメラ又は同様の映像キャプチャデバイスによって捕捉できる。図10(以下に議論する)に示されるように、ユーザの周囲環境は最終合成リフレクション効果において強化されあるいは置換されることがある。一実施形態において、1つ以上の例示的映像がGUI上で操作されオーバレイされる。映像はテクスチャマッピングを利用してGUI上に投影されてもよい。更なる実施形態において、映像はシーンの背景へインポートされ、こうしたリフレクションをサポート可能な3Dグラフィックエンジンを利用して、前景のGUIへリフレクションされる。このような実施形態では、映像はテクスチャ・マップとして1つ以上のオブジェクトに付随され、あるいは仮想光源からの1つ以上のオブジェクト上に投影されることができる。
更なる実施形態において、リフレクティブユーザインタフェースは、コンピュータモニタに表示される従来のウィンドウ、アイコン、メニュー、ポインティングデバイス(WIMP)インタフェース、3Dシーン又は他の設計である。リフレクティブユーザインタフェースは、リフレクション画面又は背面投射型スクリーンなどの表面に投影されてもよく、あるいはヘルメットやゴーグルなどの立体視装置を利用して見ることもできる。
リフレクティブユーザインタフェースは、複数のユーザが同一のGUIを異なって知覚するように設計されてもよい。ユーザのリフレクション(及びその近辺の環境のリフレクション)を組み込むUIがそれぞれのユーザで異なるために、複数のユーザにより1レベルでのユニークな知覚がなされる。ユーザがアバターとして表示され、全ての他のユーザがアバターとして表示される仮想空間では、各参加者の共有のシーンの知覚は異なる。このことは、大部分の仮想環境(例えばSecondLife、Qwaq及びWorld of Warcraft)の場合のように、共有シーンのレンダリングがローカルに扱われる場合に当てはまる。
本発明のリフレクティブユーザインタフェースは、図6に示される仮想現実インタラクションなどの3Dインタフェースの大きな潜在的可能性を有する。一般的に、ユーザはアバターによって3D環境における存在感覚を付与される。図6に示されるようなPOV(Point Of View)インタフェースにおいて、ユーザは一般的に自らのアバターの後頭部602又は画面の最下部から発生する体とは離れた腕604を見る。リフレクティブ3Dインタフェースは、仮想空間における存在感覚をユーザに与える目的で、アバターとしてユーザが表示される必要性を低減しあるいは除去する。このようなユーザのより自然な表示は、仮想環境におけるユーザの経験を強化する。ユーザはもはや仮想環境中で自身を見ているのではなく、仮想環境に更に浸るようになる。
図7に示される実施形態では、静的3Dビューワ(ユーザの視点が変化しないもの)が、ハイブリッド・リアリティ通信手段の基礎である。ユーザは、各種表面にこれらの自然なリフレクションを含めることによりハイブリッド環境中の存在感覚を付与される。他のユーザ702はアバターとして示される。この環境における全ての参加者が類似の経験を有する。すなわち、仮想空間にリフレクションされた自分自身を見ると共にアバターとして示された全ての他の参加者を見る。ユーザは、会議室704、会議用テーブル706及び他のユーザ702の3D描写を有する仮想会議に参加する。会議室にいるという現実感をユーザに与えるために、リフレクション効果は会議用テーブル、扉枠710及び絵画712に対するリフレクション効果708を含む画像中の多くの表面に実施される。
このシステムの全てのユーザが異なる第四の壁(ここではユーザ背部に物理的に存在する壁)を知覚することから、たとえそのグローバル構造が非ユークリッドであっても、この空間は各個人ユーザにとって論理的に見える。1つの潜在的な実施形態では、3D通信モデルは、異なるユーザ間の通信を可能とする。最後に、当該技術分野で知られているように、アバターを制御する方法が更に可能である。
一実施形態において、入力映像画像を自然なリフレクションに見せかける効果は、経時と共に何らかの制限のある「カメラ動作」(例えば、シーンをパンする)を可能とすべく変更できる。
更に、3Dビューワの極めて静的でないバージョンも可能である。この実施形態では、リフレクションは、入力映像信号の射影テクスチャマッピングによって、又は3Dレンダリングエンジンによりサポートされる何らかの他の方法によってシミュレートされる(非特許文献7)。投影マッピング効果のシミュレーションは、図8に示されるように、独自の特徴並びにいくつかの制限を明らかにする。映像画像のエッジは、確実なリフレクションを生成すべく仮想カメラ(3D空間中の仮想カメラ)の視野に比例して拡張される必要がある。画像が単純に拡大/縮小されると、リフレクションは当該シーンに対し不釣り合いとなる。図9に示されるように、このことを行う方法の一つは単純に映像画像のエッジを拡張する方法である。図10に示されるように、ユーザの画像1002はその環境1004から抽出され、新しい環境に配置されることができる。次いで、合成画像1006は3Dシーン1008へ投影される。前景/背景抽出技術は粗い合成を生ずる。リフレクションのアルファ(透過度)が十分に低い場合(すなわちリフレクションが極めて明るい場合)、いずれにしても多くの詳細がこの状況で失われることから、このことは十分である。高いアルファリフレクションが望まれる場合、クロマキー技術が必要とされる。
合成に利用される背景プレートは、
1)異なるカメラにより捕捉されたユーザ環境の別の広角ビュー
2)非関連画像(例えば海岸シーン、都市スカイライン又はアートワーク)
3)3D空間にある仮想カメラにより捕捉された3Dシーンの逆のアングル・ビュー
を含むことが可能である。
1)異なるカメラにより捕捉されたユーザ環境の別の広角ビュー
2)非関連画像(例えば海岸シーン、都市スカイライン又はアートワーク)
3)3D空間にある仮想カメラにより捕捉された3Dシーンの逆のアングル・ビュー
を含むことが可能である。
例えばOpen GLなどの多くの3D環境において、かなり自然なリフレクションが可能である。これを利用すると、上記方法と概ね同一の方法にて修正されるユーザの画像1002は、(3D空間中の)POVカメラ1012の背部にある大きい平面1010にマップされる。この方法は、よりプロセッサ集約的であるが、最も現実的な効果を生ずる。
VirtuSphereなどのバーチャルリアリティシステムは、ユーザを模擬環境に可能な限り完全に浸すことを目指している(非特許文献8)。これらのシステムにおいて、3D環境はユーザの着用するヘルメットによって立体的に表示される。このようなシステムにリフレクション効果を含めることは、このようなシステムのメーカー及びユーザによって求められる全体的に浸される感覚を著しく強化する。このことは娯楽と訓練シミュレータの両方に当てはまる。リフレクションは、シングルユーザ及びグループのいずれに由来するかに関わらず、シミュレーションの現実感及び予測不可能性を著しく強化する。ユーザグループ(領域(spheres)がネットワーク化される)のために、この効果は非特許文献9に記載されているようなそれらの社会的存在を強化することで、共同体の感覚を強化する。このことは、軍事訓練シミュレータ又は法執行訓練シミュレータにおいて特に有用であり得る。
上記方法は更にユーザの行動に影響を及ぼすことがある。現在、「グリーフィング(嫌がらせ)」を行うこと、あるいは3D環境で故意に著しい混乱を発生させることが頻繁に起こっている。このような混乱は、関係のないキャラクター画像を大量に表示させるといった攻撃的な、あるいは馬鹿馬鹿しいものであり得る。ある場合には、これらの混乱により3D環境をホストするシステムがクラッシュする。単に一組の目を表示するだけでユーザがよりよく行動するよう影響することがある。増加した「存在」及び共感の感情は更に肯定的に行動に影響を及ぼすことがある。システムが画像を記録していることを知るだけで更に行動に影響を及ぼし得る。グリーフィングは、「オンライン」又は仮想のキャラクターに注意を引きながら、現実のアイデンティティを隠蔽したい人によって行われる。
ユーザの仮想リフレクションを特に操作し、次にグラフィカルユーザインタフェースに組み込むことにより、このシステムは、有用なフィードバックを行うためのグラフィカルユーザインタフェースの視覚的アピール及び能力を増加させる新規な方法を提供する。ユーザは、強化された所有感覚及び存在感覚を付与される。
リアルタイム映像解析は、リフレクティブユーザインタフェース設計において将来的に重要な特徴であると証明されるであろう。上記又は他の運動トラッキングを組み込むことで、従来のキーボード・マウス設定にサポートされるヒューマン・コンピュータ・インタラクションよりも自然なヒューマン・コンピュータ・インタラクションを組み込んだUIを作成することが可能である。現在の実施形態では、システムにより捕捉された画像に基づいてシステムが決定を行うことはない。映像は事前に定義された効果をレンダリングするために単に捕捉され、処理される。他の実施形態では、一例において、画像解析を行うことで、「仮想」シャドウを投影し仮想ハイライトを形成すべく使用される主要光源がユーザ環境のどこにあるかを決定できる。
リフレクティブユーザインタフェースは、更にGUIの各種態様にシャドウ効果の描写を含んでいてもよい。シャドウは、GUI要素の背部に投影されているシャドウをシミュレートするためにウィンドウ、ボタンなどのGUI要素上に示される。図11は、リフレクション効果1206に加えてシャドウ1202がGUI要素1204上に示される場合のリフレクティブユーザインタフェース1200の一実施形態を示している。
別の実施形態では、ダイナミックシャドウ効果及びハイライト効果は、周囲環境中の光源又は最も明るいスポットの位置を識別し、最も明るいスポットに対応するリフレクティブユーザインタフェース中にシャドウ及びハイライトを作成することにより実施できる。この実施形態は、入力映像ストリーム(リフレクション生成に利用されるものと同一のストリーム)を分析することにより、シャドウ及びハイライトを生成する。ストリームは多数のセグメントを有するグリッドに分割され、グリッドの各セグメントは絶えずポーリングされる。各セグメントはセグメントがシャドウを投影するに足る明るさを有するか否かに関して投票を行う。全てのセルがポーリングされると投票が集計され、集計において到達した量だけ投影しているオブジェクトと置換される。ハイライトは、新たに投影されたシャドウの中心から外れた方向を「示す」ようにシャドウを投影しているオブジェクトの中心周りに回転される。シャドウが投影されない場合(すなわち、強い光源がない場合)、シャドウ及びリフレクションのアルファ値は0である。
上記光源を計算する方法は、効果的なシャドウ又はハイライト効果を達成するために最小限の処理を要求すべく設計される。当業者は、計算の要求及び誤差の程度において異なる光源を検出する方法が多数存在することを認識するであろう。しかし、上記方法は、本明細書中に記載されたアプリケーションに好適な、計算時間が最小限で誤差の程度が許容範囲の効果的なシャドウ及びハイライト効果を生成する。
図12に示される一例では、オリジナル映像1300は、周囲環境1304においてユーザ1306付近に位置する光源1302を含む。システムは画像を反転させ、リフレクション効果を生成するために利用されるリフレクション画像1308を正確な向きとすべく映像画像を操作する。リフレクション画像1308の最も暗い領域及び最も明るい領域を決定するために、映像信号が濃度マッピングを利用して処理される。次いで、システムは、シャドウ1312の位置が、リフレクション画像1308内に位置する光源1302の対向位置となるように、GUI要素1314の特定のエッジに沿ったシャドウ1312を含むリフレクティブユーザインタフェース1310を生成する。更に、光源1302付近のGUI要素1314はハイライト効果1316を有していてもよく、この場合GUI要素1314は光源1302に対向するエッジに沿って輝度を増す。頭部又は目をトラッキングする代わりに、ユーザにとってより現実感のあるシャドウ効果を生成すべく信号処理及び濃度マッピングが利用される。しかし、信号処理はプロセッサ集約的で、性能及びリフレクティブユーザインタフェースを利用するアプリケーションに影響する可能性がある。リフレクティブユーザインタフェース全体の性能を犠牲にしないために、シャドウの正確性を低下させてシャドウを「投影する」のに必要な計算能力レベルを下げてもよい。
図13は、本発明の方法の実施形態を実施可能なコンピュータ/サーバシステム1400の実施形態を示すブロック図である。システム1400はコンピュータ/サーバ・プラットホーム1401、周辺機器1402及びネットワークリソース1403を含む。
コンピュータプラットフォーム1401は、コンピュータプラットフォーム1401の各種部分間又は部分内で情報を通信するためのデータバス1404又はその他の通信機構、及び情報を処理し、他の計算及び制御タスクを行うためにバス1404と接続されるプロセッサ(CPU)1405を含んでいてもよい。コンピュータプラットフォーム1401は、更に、各種情報並びにプロセッサ1405により実行される指示を記憶するための、バス1404に接続されたランダムアクセスメモリ(RAM)などの揮発性記憶装置1406又は他の動的記憶装置を含む。揮発性記憶装置1406は、更に、プロセッサ1405が指示を実行する間に一時変数又は他の中間情報を記憶すべく利用されてもよい。コンピュータプラットフォーム1401は、基本入出力システム(BIOS)並びに各種システム構成パラメータなどの、プロセッサ1405のための静的情報及び指示を記憶するためにバス1404に接続された読み取り専用メモリ(ROM又はEPROM)1407又はその他の静的記憶装置を更に含んでもよい。磁気ディスク、光ディスク又はソリッドステート・フラッシュメモリデバイスなど持続性記憶装置1408が設けられ、情報及び指示を記憶すべくバス1404に接続される。
コンピュータプラットフォーム1401は、コンピュータプラットフォーム1401のシステム管理者又はユーザへ情報を表示するための陰極線管(CRT)、プラズマディスプレイ又は液晶ディスプレイ(LCD)などのディスプレイ1409にバス1404を介して接続されてもよい。英数字及びその他のキーを含む(キーボードなどの)入力デバイス1410はプロセッサ1405に対し情報及びコマンド選択を通信すべくバス1404に接続される。別のタイプのユーザ入力デバイスとして、プロセッサ1405に対し指示情報及びコマンド選択を通信し、及びディスプレイ1409上のカーソル移動を制御するためのマウス、トラックボール又はカーソル方向キーなどのカーソル制御デバイス1411が挙げられる。一般的に、この入力デバイスは、デバイスが平面上で位置を指定することを可能とする2つの軸、すなわち第一軸(例えばx軸)及び第二軸(例えばy軸)に2つの自由度を有する。
外部記憶装置1412は、コンピュータプラットフォーム1401に追加あるいはリムーバブルな記憶容量を提供すべくバス1404を介してコンピュータプラットフォーム1401に接続されてもよい。コンピュータシステム1400の一実施形態において、外部リムーバブル記憶装置1412は他のコンピュータシステムとの間でのデータ交換を促進すべく利用されてもよい。
本発明は、本明細書中に記載された技術を実施するためのコンピュータシステム1400の使用に関する。実施形態では、本発明のシステムはコンピュータプラットフォーム1401などのマシン上に存在してもよい。本発明の一実施形態によれば、本明細書中に記載された技術は、揮発性メモリ1406に含まれる1つ以上の指示の1つ以上のシーケンスをプロセッサ1405が実行することに応答してコンピュータシステム1400によって実行される。このような指示は、持続性記憶装置1408などの別のコンピュータ可読媒体から揮発性メモリ1406に読み込まれてもよい。揮発性メモリ1406に含まれる指示のシーケンスが実行されると、プロセッサ1405は本明細書中に記載されたプロセスステップを実行する。別の実施例では、本発明を実施するために、ハードワイヤード回路をソフトウェア命令の代わりにあるいはソフトウェア命令と組み合わせて利用できる。従って、本発明の実施形態はハードウェア回路とソフトウェアの任意の特定の組合せに制限されない。
本明細書中で使用される用語「コンピュータ可読媒体」は、実行するためにプロセッサ1405に指示を提供することに関連する任意の媒体を指す。コンピュータ可読媒体は、本明細書中に記載された方法及び/又は技術のいずれかを実施するための指示を伝送可能な機械可読媒体の一例である。上記媒体は数多くの形態をとることができ、例えば不揮発性媒体、揮発性媒体及び伝送媒体が挙げられるが、これらに限定されない。不揮発性媒体は、例えば記憶装置1408などの光学ディスク又は磁気ディスクを含む。揮発性媒体は、揮発性記憶装置1406などのダイナミックメモリを含む。伝送媒体は、データバス1404を含むワイヤを含む同軸ケーブル、銅線及び光ファイバを含む。伝送媒体は、更に電波と赤外線データ通信の間に生成される波などの音波又は光波の形態をとることが可能である。
コンピュータ可読媒体の一般的な形態として、例えばフロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ又は任意の他の磁気媒体、CD−ROM、任意の他の光学媒体、せん孔カード、紙テープ、穴のパターンを有する他の物理的媒体、RAM、PROM、EPROM、FLASH−EPROM、フラッシュドライブ、メモリカード、他のメモリチップ又はカートリッジ、後述する搬送波、あるいはコンピュータが読み取ることのできる任意の他の媒体が挙げられる。
各種形態のコンピュータ可読媒体は、実行するために1つ以上の指示の1つ以上のシーケンスをプロセッサ1405に搬送することに関係してもよい。例えば、指示は、最初に遠隔コンピュータから磁気ディスク上で搬送されてもよい。あるいは、遠隔コンピュータはダイナミックメモリに指示をロードし、モデムを利用して電話線上の指示を送ることが可能である。コンピュータシステム1400にローカルなモデムは、電話線上でデータを受け取り、データを赤外線信号に変換すべく赤外線トランスミッタを利用できる。赤外線検出器は、赤外線信号で搬送されたデータを受け取ることが可能であり、適切な回路はデータバス1404にデータを配置できる。バス1404は、揮発性記憶装置1406にデータを搬送し、プロセッサ1405は揮発性記憶装置1406から指示を検索し実行する。揮発性メモリ1406によって受け取られた指示は、プロセッサ1405によって実行される前後に、持続性記憶装置1408に必要に応じて記憶されてもよい。指示は、当該技術においてよく知られている各種ネットワークデータ通信プロトコルを利用して、インターネットを通じてコンピュータプラットフォーム1401へダウンロードされてもよい。
コンピュータプラットフォーム1401は、データバス1404に接続されたネットワーク・インタフェースカード1413などの通信インタフェースを更に含む。通信インタフェース1413は、ローカルネットワーク1415に接続されるネットワークリンク1414に二方向のデータ通信カップリングを提供する。例えば、通信インタフェース1413は、対応するタイプの電話線にデータ通信接続を提供するデジタル総合通信サービス綱(ISDN)カード又はモデムであってもよい。別の例として、通信インタフェース1413は、互換性を有するLANにデータ通信接続を提供するローカルエリアネットワーク・インタフェースカード(LAN NIC)であってもよい。よく知られている802.11a、802.11b、802.11gなどのワイヤレスリンク及びブルートゥースが更にネットワーク実施に利用できる。任意のそのような実施において、通信インタフェース1413は、多様な情報を表すデジタルデータストリームを搬送する電気信号、電磁気信号又は光学信号を送受信する。
通常、ネットワークリンク1413は1つ以上のネットワークを介して他のネットワークリソースにデータ通信を提供する。例えば、ネットワークリンク1414は、ローカルネットワーク1415を介してホストコンピュータ1416又はネットワークストレージ/サーバ1422への接続を提供してもよい。更に又はあるいは、ネットワークリンク1414は、ゲートウェイ/ファイアウォール1417を介してインターネットなどのワイドエリアネットワーク又はグローバルネットワーク1418に接続されてもよい。従って、コンピュータプラットフォーム1401は遠隔ネットワーク記憶装置/サーバ1419など、インターネット1418上の任意の場所に位置するネットワークリソースにアクセス可能である。他方、コンピュータプラットフォーム1401は、ローカルエリアネットワーク1415及び/又はインターネット1418上の任意の場所に位置するクライアントによってもアクセス可能である。ネットワーククライアント1420及び1421は、プラットホーム1401に類似するコンピュータプラットフォームに基づいて実施されてもよい。
ローカルネットワーク1415及びインターネット1418はいずれもデジタルデータストリームを搬送する電気信号、電磁気信号又は光学信号を利用する。コンピュータプラットフォーム1401との間でデジタルデータを搬送する、各種ネットワークを介した信号、ネットワークリンク1414上の及び通信インタフェース1413を介した信号は、情報を搬送する搬送波の例示的形態である。
コンピュータプラットフォーム1401は、インターネット1418及びLAN1415、ネットワークリンク1414及び通信インタフェース1413を含む各種ネットワークを介して、プログラムコードを含むメッセージ及び受信データを送信可能である。インターネットの例において、システム1401がネットワークサーバとして機能する場合、システム1401はインターネット1418、ゲートウェイ/ファイアウォール1417、ローカルエリアネットワーク1415及び通信インタフェース1413を介してクライアント1420及び/又は1421上で実行されるアプリケーションプログラムのための要求されたコード又はデータを送信してもよい。同様に、他のネットワークリソースからコードを受信してもよい。
受信されたコードは受信されると同時にプロセッサ1405によって実行されてもよく、及び/又は後で実行されるべく持続性記憶装置1408又は揮発性記憶装置1406にそれぞれ記憶されてもよく、あるいは他の不揮発性記憶装置に記憶されてもよい。このように、コンピュータシステム1401は搬送波の形態でアプリケーションコードを取得してもよい。
本発明の各種態様は、単独で又は本発明の他の態様との組合せにおいて、ウィンドウズ(登録商標)xp環境で動作するコンピューティング・プラットフォーム上で実行されるC++コードで実施できる。しかし、本明細書中で提供される本発明の態様は、他のオペレーティングシステム環境中で作動するのに適した他のプログラミング言語で実施されてもよい。更に、本方法は任意のタイプのコンピューティング・プラットフォームにおいて実施可能である。コンピューティング・プラットフォームは、パーソナルコンピュータ、ミニコンピュータ、メインフレーム、ワークステーション、ネットワーク分散コンピューティング環境又は分散コンピューティング環境、荷電粒子ツールに対し分離され、一体化され、あるいはこれと通信するコンピュータプラットフォームなどが挙げられるがこれらに限定されない。更に、本発明の態様は、ハードディスク、光学読取及び/又は書込記憶媒体、RAM、ROMなどのコンピューティング・プラットフォームに対し取外可能な又は一体化された任意のメモリ媒体において提供される機械可読コードにおいて実施可能である。更に、機械可読コード、又はその一部がワイヤード又はワイヤレスネットワークを通して送信されてもよい。
最後に、本明細書中に記載されたプロセス及び技術は任意の特定の装置と本質的に関連せず、構成要素を任意に適宜組み合わせることで実行可能であることを理解されたい。更に、各種タイプの汎用デバイスを本明細書中に記載された教示に従って利用できる。本明細書中に記載された方法ステップを実行する専用の装置を構築することは更に有利であり得る。本発明を特定の例に関して記載したが、これらは本発明を何ら制限するものではなく、あくまで例示を目的としている。当業者は、ハードウェア、ソフトウェア及びファームウェアの各種組合せが本発明の実行に適することを認識するであろう。例えば、記載されたソフトウェアは、アセンブラ、C/C++、perl、シェル、PHP、Java(登録商標)など、各種プログラミング言語又はスクリプト言語で実施できる。
本発明の各種代表的実施形態をある程度詳細に記載したが、当業者は、本明細書及び特許請求の範囲に記載された本発明の主題の精神又は範囲から逸脱することなく、示された実施形態に対し多数の変更を行うことが可能である。直接的又は間接的に本明細書中に記載された方法では、各種ステップ及び作用は、1つの可能な作用順序で記載されている。しかし、当業者は、本発明の精神及び範囲から逸脱することなくステップ及び作用の並べ替え、交換又は除去が可能であることを認識するであろう。更に、記載された実施形態の各種態様及び/又は構成要素は、本発明の機能の1つ以上を備えたユーザインタフェース中で単独に又は任意の組合せにおいて利用できる。上記説明に含まれる、あるいは添付図面に示される全ての事柄はあくまで例であり、本発明を制限しないものとして解釈されるべきである。
102 カメラ
104 ディスプレイ
108 コンピュータ
300 グラフィカルユーザインタフェース
104 ディスプレイ
108 コンピュータ
300 グラフィカルユーザインタフェース
Claims (21)
- ユーザ及び周囲環境のリアルタイムリフレクションをグラフィカルユーザインタフェースに組み込むシステムであって、
前記システムは、
ユーザ及び周囲環境の映像をリアルタイムで捕捉するための映像キャプチャデバイスと、
前記映像キャプチャデバイスから映像を受信し、リフレクション効果を生成するために映像を操作する処理手段であって、リフレクティブユーザインタフェースを生成するために前記グラフィカルユーザインタフェースの少なくとも1つの要素へ前記リフレクション効果を組み込む処理手段と、
前記リフレクティブユーザインタフェースをユーザにリアルタイムで表示するディスプレイと、
を含み、
前記リフレクション効果の少なくとも一部をユーザに表示する、
リフレクション組み込みシステム。 - 前記処理手段はテクスチャマッピングを利用して前記グラフィカルユーザインタフェース上に前記映像をオーバレイすることにより、前記リフレクション効果を前記グラフィカルユーザインタフェースの前記少なくとも1つの要素に組み込む請求項1に記載のリフレクション組み込みシステム。
- 前記グラフィカルユーザインタフェースの前記少なくとも1つの要素はウィンドウ、フレーム、ボタン又はアイコンを含む請求項1に記載のリフレクション組み込みシステム。
- 前記処理手段は前記グラフィカルユーザインタフェースに示された材質の種類からリフレクションをシミュレートするために前記リフレクション効果を変更する請求項1に記載のリフレクション組み込みシステム。
- 前記処理手段は前記グラフィカルユーザインタフェースの前記少なくとも1つの要素の形状からリフレクションをシミュレートするために前記リフレクション効果を変更する請求項1に記載のリフレクション組み込みシステム。
- 前記処理手段は前記周囲環境を削除及び置換する請求項1に記載のリフレクション組み込みシステム。
- 前記処理手段は前記リフレクティブユーザインタフェースを三次元環境に組み込む請求項1に記載のリフレクション組み込みシステム。
- 前記処理手段はシーンの背景へ映像をインポートし、三次元グラフィックエンジンを利用して前景へ映像をリフレクションする請求項7に記載のリフレクション組み込みシステム。
- 前記グラフィカルユーザインタフェースはウィンドウ、アイコン、メニュー又はポインティングデバイスインタフェースを含む請求項1に記載のリフレクション組み込みシステム。
- 前記グラフィカルユーザインタフェースはシーンの三次元表示を含む請求項1に記載のリフレクション組み込みシステム。
- 前記ディスプレイは前記リフレクティブユーザインタフェースを複数のユーザに表示し、前記複数のユーザの各々は前記リフレクティブユーザインタフェースを異なって知覚する請求項10に記載のリフレクション組み込みシステム。
- 前記処理手段は前記グラフィカルユーザインタフェースの前記少なくとも1つの要素へシャドウ効果を組み込むことにより、リフレクティブユーザインタフェースを生成する請求項1に記載のリフレクション組み込みシステム。
- 前記シャドウ効果は前記周囲環境中の光源を識別することにより生成される請求項12に記載のリフレクション組み込みシステム。
- 前記処理手段は前記グラフィカルユーザインタフェースの前記少なくとも1つの要素へハイライト効果を組み込むことにより、リフレクティブユーザインタフェースを生成する請求項1に記載のリフレクション組み込みシステム。
- 前記処理手段は前記周囲環境中の光源を識別することにより前記ハイライト効果を組み込む請求項14に記載のリフレクション組み込みシステム。
- ユーザ及び周囲環境のリアルタイムリフレクションをグラフィカルユーザインタフェースに組み込む方法であって、
前記方法は、
ユーザ及び周囲環境の映像をリアルタイムで捕捉し、
映像キャプチャデバイスから映像を受信し、
リフレクション効果を生成すべく前記映像を操作し、
リフレクティブユーザインタフェースを生成すべく前記リフレクション効果を前記グラフィカルユーザインタフェースの少なくとも1つの要素に組み込み、
前記リフレクティブユーザインタフェースをリアルタイムでユーザに表示する、
ことを含み、
少なくとも前記リフレクション効果の一部をユーザに表示する、
リフレクション組み込み方法。 - 前記リフレクション効果は前記グラフィカルユーザインタフェースのフレーム、ボタン又はアイコンに組み込まれる請求項16に記載のリフレクション組み込み方法。
- 前記リフレクション効果は前記グラフィカルユーザインタフェースの前記少なくとも1つの要素へシャドウ効果を組み込むことにより生成される請求項16に記載のリフレクション組み込み方法。
- ユーザ及び周囲環境のリアルタイムリフレクションをグラフィカルユーザインタフェースに組み込む機能をコンピュータに実現させるためのプログラムであって、
前記機能は、
ユーザ及び周囲環境の映像信号をリアルタイムで受信し、
リフレクション効果を生成すべく映像を操作し、
前記リフレクション効果を前記GUIの少なくとも1つの要素に組み込み、
組み込まれた前記リフレクション効果を利用してリフレクティブユーザインタフェースを生成する、
ことを含む、プログラム。 - 前記リフレクション効果は前記グラフィカルユーザインタフェースのフレーム、ボタン又はアイコンに組み込まれる請求項19に記載のプログラム。
- 前記リフレクティブユーザインタフェースはシャドウ効果を前記グラフィカルユーザインタフェースの少なくとも1つの要素に組み込むことにより生成される請求項19に記載のプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/080,675 US20090251460A1 (en) | 2008-04-04 | 2008-04-04 | Systems and methods for incorporating reflection of a user and surrounding environment into a graphical user interface |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009252240A true JP2009252240A (ja) | 2009-10-29 |
Family
ID=41132837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009039274A Pending JP2009252240A (ja) | 2008-04-04 | 2009-02-23 | リフレクション組み込みシステム、方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090251460A1 (ja) |
JP (1) | JP2009252240A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014509758A (ja) * | 2011-02-28 | 2014-04-21 | フェイスケーキ マーケティング テクノロジーズ,インコーポレイテッド | リアルタイムの仮想反射 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10783528B2 (en) * | 2000-08-24 | 2020-09-22 | Facecake Marketing Technologies, Inc. | Targeted marketing system and method |
JP4764305B2 (ja) * | 2006-10-02 | 2011-08-31 | 株式会社東芝 | 立体画像生成装置、方法およびプログラム |
US9092053B2 (en) * | 2008-06-17 | 2015-07-28 | Apple Inc. | Systems and methods for adjusting a display based on the user's position |
US8675025B2 (en) * | 2009-12-17 | 2014-03-18 | Nokia Corporation | Method and apparatus for providing control over a device display based on device orientation |
WO2011080142A1 (en) * | 2009-12-21 | 2011-07-07 | Thomson Licensing | Method for generating an environment map |
JP2011250356A (ja) * | 2010-05-31 | 2011-12-08 | Sony Corp | 情報処理装置、情報処理方法、コンピュータプログラム、および情報処理システム |
US8749557B2 (en) | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US8913056B2 (en) | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
US9411413B2 (en) | 2010-08-04 | 2016-08-09 | Apple Inc. | Three dimensional user interface effects on a display |
US9275475B2 (en) | 2011-06-03 | 2016-03-01 | Apple Inc. | Generating a simulated three dimensional scene by producing reflections in a two dimensional scene |
EP2783273A4 (en) * | 2011-11-21 | 2015-08-26 | Intel Corp | MODIFYING CHROME PER ACCORDING TO ENVIRONMENTAL CONDITIONS |
US11073959B2 (en) * | 2012-06-08 | 2021-07-27 | Apple Inc. | Simulating physical materials and light interaction in a user interface of a resource-constrained device |
EP2867757A4 (en) * | 2012-06-30 | 2015-12-23 | Intel Corp | 3D GRAPHIC USER INTERFACE |
US9424678B1 (en) * | 2012-08-21 | 2016-08-23 | Acronis International Gmbh | Method for teleconferencing using 3-D avatar |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US20140313117A1 (en) * | 2013-04-17 | 2014-10-23 | Honeywell International Inc. | Camouflaged connected home controller |
US9716842B1 (en) * | 2013-06-19 | 2017-07-25 | Amazon Technologies, Inc. | Augmented reality presentation |
KR20150101915A (ko) * | 2014-02-27 | 2015-09-04 | 삼성전자주식회사 | 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스 |
US10600245B1 (en) | 2014-05-28 | 2020-03-24 | Lucasfilm Entertainment Company Ltd. | Navigating a virtual environment of a media content item |
US9710972B2 (en) * | 2014-05-30 | 2017-07-18 | Lucasfilm Entertainment Company Ltd. | Immersion photography with dynamic matte screen |
US10475274B2 (en) * | 2014-09-23 | 2019-11-12 | Igt Canada Solutions Ulc | Three-dimensional displays and related techniques |
US10013845B2 (en) | 2014-09-23 | 2018-07-03 | Igt Canada Solutions Ulc | Wagering gaming apparatus with multi-player display and related techniques |
US9874857B1 (en) * | 2015-06-25 | 2018-01-23 | Fissix, Llc | Simulated mirrored display apparatus and method |
US10225655B1 (en) * | 2016-07-29 | 2019-03-05 | Relay Cars LLC | Stereo user interface elements placed in 3D space for virtual reality applications in head mounted displays |
TWI622298B (zh) * | 2016-08-23 | 2018-04-21 | 和碩聯合科技股份有限公司 | 廣告影像生成系統及其廣告影像生成之方法 |
KR102107706B1 (ko) * | 2017-10-31 | 2020-05-07 | 에스케이텔레콤 주식회사 | 영상 처리 방법 및 장치 |
US10834478B2 (en) | 2017-12-29 | 2020-11-10 | Dish Network L.L.C. | Methods and systems for an augmented film crew using purpose |
US10783925B2 (en) * | 2017-12-29 | 2020-09-22 | Dish Network L.L.C. | Methods and systems for an augmented film crew using storyboards |
EP3691277A1 (en) * | 2019-01-30 | 2020-08-05 | Ubimax GmbH | Computer-implemented method and system of augmenting a video stream of an environment |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6088018A (en) * | 1998-06-11 | 2000-07-11 | Intel Corporation | Method of using video reflection in providing input data to a computer system |
US6985145B2 (en) * | 2001-11-09 | 2006-01-10 | Nextengine, Inc. | Graphical interface for manipulation of 3D models |
US20070139408A1 (en) * | 2005-12-19 | 2007-06-21 | Nokia Corporation | Reflective image objects |
US7768543B2 (en) * | 2006-03-09 | 2010-08-03 | Citrix Online, Llc | System and method for dynamically altering videoconference bit rates and layout based on participant activity |
TW200840365A (en) * | 2007-03-23 | 2008-10-01 | Ind Tech Res Inst | Motion-blur degraded image restoration method |
-
2008
- 2008-04-04 US US12/080,675 patent/US20090251460A1/en not_active Abandoned
-
2009
- 2009-02-23 JP JP2009039274A patent/JP2009252240A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014509758A (ja) * | 2011-02-28 | 2014-04-21 | フェイスケーキ マーケティング テクノロジーズ,インコーポレイテッド | リアルタイムの仮想反射 |
Also Published As
Publication number | Publication date |
---|---|
US20090251460A1 (en) | 2009-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009252240A (ja) | リフレクション組み込みシステム、方法及びプログラム | |
US9818228B2 (en) | Mixed reality social interaction | |
KR102382362B1 (ko) | 거울 메타포를 사용한 원격 몰입 경험 제공 | |
US10192363B2 (en) | Math operations in mixed or virtual reality | |
Kantonen et al. | Mixed reality in virtual world teleconferencing | |
CN111355944B (zh) | 生成并用信号传递全景图像之间的转换 | |
US20080295035A1 (en) | Projection of visual elements and graphical elements in a 3D UI | |
KR20220140402A (ko) | 신규 뷰 합성을 위한 신경 블렌딩 | |
US11562531B1 (en) | Cascading shadow maps in areas of a three-dimensional environment | |
US11956571B2 (en) | Scene freezing and unfreezing | |
US11593989B1 (en) | Efficient shadows for alpha-mapped models | |
US20240037837A1 (en) | Automatic graphics quality downgrading in a three-dimensional virtual environment | |
US20230316663A1 (en) | Head-tracking based media selection for video communications in virtual environments | |
Soares et al. | Designing a highly immersive interactive environment: The virtual mine | |
CN117788689A (zh) | 一种基于三维建模的可交互式虚拟云展厅构建方法及系统 | |
Schäfer et al. | Towards collaborative photorealistic VR meeting rooms | |
WO2024026245A2 (en) | Static rendering for a combination of background and foreground objects | |
US11711494B1 (en) | Automatic instancing for efficient rendering of three-dimensional virtual environment | |
US11704864B1 (en) | Static rendering for a combination of background and foreground objects | |
Kurillo et al. | Teleimmersive 3D collaborative environment for cyberarchaeology | |
CN109949396A (zh) | 一种渲染方法、装置、设备和介质 | |
Jin et al. | Volumivive: An authoring system for adding interactivity to volumetric video | |
Lee et al. | Real-time 3D video avatar in mixed reality: An implementation for immersive telecommunication | |
Pan et al. | Improving VIP viewer gaze estimation and engagement using adaptive dynamic anamorphosis | |
Tao | A VR/AR-based display system for arts and crafts museum |