JP4916126B2 - 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム - Google Patents

仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム Download PDF

Info

Publication number
JP4916126B2
JP4916126B2 JP2005134420A JP2005134420A JP4916126B2 JP 4916126 B2 JP4916126 B2 JP 4916126B2 JP 2005134420 A JP2005134420 A JP 2005134420A JP 2005134420 A JP2005134420 A JP 2005134420A JP 4916126 B2 JP4916126 B2 JP 4916126B2
Authority
JP
Japan
Prior art keywords
physical object
display surface
virtual
active
virtual environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005134420A
Other languages
English (en)
Other versions
JP2005317032A (ja
Inventor
ディー.ウィルソン アンドリュー
サマー チェン クリスティーナ
ジョシュア カーランダー デビッド
ピー.デリン ジョエル
バシチェ スティーブン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005317032A publication Critical patent/JP2005317032A/ja
Application granted granted Critical
Publication of JP4916126B2 publication Critical patent/JP4916126B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F3/00Board games; Raffle games
    • A63F3/00643Electric board games; Electric features of board games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/18Question-and-answer games
    • A63F9/183Question-and-answer games electric

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、一般に、表面上に表示された仮想環境とディスプレイ表面上に置かれたオブジェクトとの間で対話が行われる方法および装置に関し、より具体的には、ディスプレイ表面上に表示されたグラフィックイメージと、ディスプレイ表面上に置かれた、またはディスプレイ表面近くに配置された受動的および/または能動的なオブジェクトとの間の対話を円滑にすることに関する。
仮想環境は、通常、ゲームコンソール上、パーソナルコンピュータ上、および他のタイプのコンピューティングデバイス上で行われる電子ゲームにおいても、その他のタイプのアプリケーションにおいても使用される。ユーザは、普通、仮想オブジェクトが特定の仕方で動くように、または仮想環境を生じさせるソフトウェアプログラムによって定義された他の何らかのアクションまたは機能を実行するようにさせる、マウス、ジョイスティック、ホイール(wheel)、ゲームパッド、トラックボール、または他のユーザ入力デバイスを操作することにより、仮想環境内のオブジェクトと対話する。仮想環境内のオブジェクトとのユーザ対話の効果は、一般に、ディスプレイで可視である。例えば、ユーザは、仮想環境において表示された宇宙船またはレースカーなどの仮想オブジェクトを制御して、仮想オブジェクトが何らかのタスクを実行するようにしていることが可能である。ユーザによって制御される仮想オブジェクトが別の仮想オブジェクトを攻撃した場合、仮想オブジェクトは、ディスプレイ上で破壊を示すグラフィックイメージによって示されるとおり、「破壊される」ことが可能である。一部のゲームでは、ゲームコンソールまたはゲームコンピュータが、ユーザのタスクをサポートして、またはユーザのタスクの完了を妨害するように、環境内の他の仮想オブジェクトを制御することが可能である。以上のように、仮想環境内の仮想オブジェクト間の対話は、周知である。
別の形態のユーザ入力は、ユーザの指またはスタイラスの接触に応答するディスプレイを使用する。タッチ応答ディスプレイは、圧力によってアクティブ化される(pressure activated)こと、静電容量に応答すること、磁界強度が変化すること、表面弾性波を使用すること、またはディスプレイ上の指またはスタイラスの位置を示す他の変数に応答することが可能である。別のタイプのタッチセンシティブ(touch sensitive)ディスプレイは、スクリーンに触れる指またはスタイラスの位置を検出することができるように、ディスプレイスクリーンの周囲に間隔を開けて置かれた複数の光センサを含む。以上のタッチセンシティブディスプレイの1つを使用して、ユーザは、表示された仮想オブジェクトをより直接的に制御することができる。例えば、ユーザは、表示された仮想オブジェクトに触れて、そのオブジェクトを選択し、そのオブジェクトをタッチセンシティブディスプレイ上の新たな位置にドラッグすることができる。
ただし、ほとんどのそのようなタッチセンシティブディスプレイにおいて、応答は、あるポイントにおける指またはスタイラスの接触に対してだけである。ユーザにより豊かな体験を提供することが可能な、仮想環境との別のタイプの対話が存在する。ゲームなどの仮想環境は、しばしば、スクリーン上に表示された仮想オブジェクトを含むが、仮想環境が、ディスプレイ表面上に置かれた物理的オブジェクトにも応答することが望ましい。ほとんどの従来技術のタッチセンシティブディスプレイでは、指またはスタイラスは、実際に仮想環境内にある物理的オブジェクトとして扱われず、代わりに、スクリーン上で選択を行う、または要素をドラッグしてまわるのに使用される、単なる代替のタイプのポインティングデバイスである。ディスプレイ表面上に置かれた物理的オブジェクトに対して真に対話的であるには、ディスプレイ表面は、ディスプレイ表面上で複数の物理的オブジェクトがどこに置かれているかも検出することができるとともに、ユーザに異なる対話体験をそれぞれが提供することが可能な、異なるタイプの物理的オブジェクトも検出することができなければならない。しかし、従来のタッチセンシティブディスプレイにおいて使用される静電容量タイプ、電磁タイプ、光タイプ、またはその他のタイプのセンサは、通常、ディスプレイに触れている複数の指またはオブジェクトの位置を一度に同時に検出することができず、このため、ディスプレイ上に置かれた複数の異なるタイプの物理的オブジェクトの位置、またはそれぞれの異なるタイプを検出することができない。従来技術のこれらの接触感知(touch−sensing)システムは、一般に、複数の接触ポイントを検出することができず、ディスプレイ表面に近接した、または接触しているオブジェクトの形状を検出することができない。複数の接触ポイントを検出することができる静電容量式、または抵抗式、または表面弾性波式の感知ディスプレイ表面でも、適切な解像度でディスプレイ表面上のオブジェクトをイメージングすることができない。これらのタイプの従来技術のシステムは、ディスプレイ表面上に置かれた複数の異なるオブジェクトの間で各オブジェクトを識別するのに使用することができるオブジェクト上のパターン、または詳細な形状を検出することができない。
従来の技術において開発された別のアプローチは、水平ディスプレイスクリーンの上方の側部に取り付けられたカメラ群を使用して、ディスプレイスクリーンに触れるユーザの指、または他のオブジェクトのイメージを視覚的にキャプチャする。この複数のカメラを取り付ける構成は、明らかに、大方の人々が住宅環境で使用することを所望するような小型のシステムではない。さらに、ディスプレイ表面上の、またはディスプレイ表面に近接したオブジェクトに応答する際の、このタイプのマルチカメラシステムの精度は、オブジェクト群、ならびに3次元空間内のオブジェクト群の位置を視覚的に認識するのにシステムで使用されるソフトウェアの能力に依存する。さらに、カメラの1つによる1つのビューは介在するオブジェクトによって妨げられることがある。
以上に説明したタイプのタッチセンシティブディスプレイに固有の問題の多くに対処するため、MIT Media Labにおいて、metaDESKという、ユーザインタフェースプラットフォームが開発された(非特許文献1参照)。metaDESKは、2次元の地理的情報を表示するのに使用される水平に近いグラフィカル面(graphical surface)を含む。グラフィカル面の上方には、3次元の地理的情報を表示するのに使用するための「アクティブなレンズ」の役割をするアームマウント式のフラットパネルディスプレイが配置される。デスクユニット内部(すなわち、グラフィカル面より下)のコンピュータビジョンシステムが、赤外線(IR)ランプ、IRカメラ、ビデオカメラ、ビデオプロジェクタ、およびミラーを含む。ミラーは、グラフィカルディスプレイ表面の下面上にプロジェクタによって投影されたグラフィカルイメージを反映する。IRカメラは、グラフィカル面上に置かれた「ファイコン(phicon)」と呼ばれる受動的オブジェクトの底面上で提供される特徴的なパターンを検出することができる。磁界位置センサおよび電気接触センサも、metaDESKに含まれる。例えば、IRカメラが、「グレートドーム(Great Dome)ファイコン」の底面に印加された(可視光にはトランスペアレントな)IRパターンを検出したことに応答して、グレートドームファイコンが位置する、グレートドームの実際の位置が地図の中に位置付けられて、MITキャンパスの地図がグラフィカル面上に表示される。グラフィカル面上でグレートドームファイコンを動かすことにより、ユーザによるファイコンの動きに対応して地図を回転させる、または平行移動させることで、表示された地図が操作される。上記の論文は、グラフィカルディスプレイ表面で使用されるオブジェクトまたはファイコンのすべてが、受動的であり、したがって、ディスプレイシステムは、特定のグラフィカルイメージを生成することで単にファイコンに応答するが、ファイコン自体は、仮想環境に応答しないことを述べている。
ディスプレイ上のオブジェクトを感知することに対する類似のアプローチが、株式会社ソニーコンピューターサイエンス研究所のレキモトジュンが、他の人々と共同で出版したいくつかの論文で開示されている。これらの論文は、「HoloWall」および「HoloTable」を簡単に説明しており、「HoloWall」と「HoloTable」はともに、IR光線を使用して、背面映写されたイメージが見えるディスプレイ表面に近接した、または接触するオブジェクトを検出する。HoloWallにおいて垂直であり、HoloTableにおいて水平である背面映写パネルは、半透明な拡散パネルであり、したがって、オブジェクトは、パネルに接近し、パネルに接触するにつれ、より明確に見えるようになる。このように検出されるオブジェクトは、ユーザの指または手、あるいは他のオブジェクトであることが可能である。しかし、ディスプレイパネルの表面上に能動的なオブジェクトが置かれて、スクリーン上に表示される仮想環境との対話に関わる何らかの能動的な機能を実行することは、全く説明されていない。
仮想環境内で、ディスプレイ表面上に置かれた物理的オブジェクトと仮想環境内の仮想オブジェクトとの間の対話を可能にし、あるタイプの物理的オブジェクトが、表示されている仮想環境に能動的で知覚できる形で応答できるようにすることが望ましい。理想的には、対話は、タッチセンシティブスクリーン上で仮想オブジェクトを単に選択し、動かすのに物理的オブジェクトを使用することをはるかに凌ぐべきである。ディスプレイ表面上に置かれる一部のタイプのオブジェクトは、受動的であり、ユーザの手によってディスプレイ表面上で動かされることしかできないが、他のタイプの物理的オブジェクトは、アクティブであり、対話的な形で仮想環境に応答することができなければならない。例えば、何らかのタイプの乗り物のように見える物理的オブジェクトが、ユーザによって拾い上げられ、異なる位置に移動されることなしに、ディスプレイ表面上で動くことができれば、好ましい。このため、オブジェクト上の車輪を駆動するように結合された小型電気モータを含む物理的オブジェクトが、ユーザ、または仮想環境を生じさせるコンピューティングデバイスによって、ディスプレイ表面上を動きまわり、ディスプレイ表面上に表示された仮想オブジェクト群と対話するようにさせられることが可能である。また、異なるタイプの能動的なオブジェクトにおいて他のタイプの能動的な諸機能を使用して、表示されている仮想環境に応答することも望ましい。
物理的オブジェクトと表示された仮想環境内の仮想オブジェクトの間の対話は、異なる形態をとることも可能である。例えば、ディスプレイ表面上に物理的オブジェクトを配置し、仮想環境を実行しているソフトウェアプログラムに物理的オブジェクト、および物理的オブジェクトの位置を認識させた後、仮想環境内の仮想オブジェクトを動かす際に、物理的オブジェクトの存在に応答させることができることが望ましい。また、仮想環境が、ユーザによって生じさせられた、仮想環境内の物理的オブジェクトの位置の変化に応答することも可能である。このため、ユーザが、物理的オブジェクトを動かして、ディスプレイ表面上で物理的オブジェクトの位置または向きを変えた場合、これに応答して、仮想環境ソフトウェアプログラムは、仮想環境ソフトウェアによって生じさせられるサウンドの音量などの、仮想環境に関連する何らかの機能、パラメータ、または特徴を変更することにより、応答することが可能である。
ディスプレイ表面に対する物理的オブジェクトの接触の変化する範囲(area)および位置を感知することにより、好ましくは、表示された仮想環境との対応する対話ももたらされる。例えば、物理的オブジェクトが、変化する圧力で形状を変える場合、ディスプレイ表面上のオブジェクトをユーザが動かすことにより、ディスプレイ表面と接触しているオブジェクトの変化する形状を表す、ディスプレイにおける対応するストローク(stroke)がもたらされなければならない。ディスプレイ表面上の物理的オブジェクトと、ディスプレイ表面上に表示されたグラフィックイメージおよび仮想環境の間における以上、およびその他の形態の対話により、はるかに楽しい現実感のある体験がユーザに提供されることが可能である。
Brygg Ullmer and Hiroshi Ishii, "The metaDESK: Models and Prototypes for Tangible User Interfaces", Proceedings of UIST 10/1997:14-17
従来のシステムには上述したようにさらなる改善が望まれている。
本発明は、このような状況に鑑みてなされたもので、その目的とするところは、オブジェクトと仮想環境ディスプレイとの間の対話を円滑にする、仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステムを提供することにある。
本発明は、物理的オブジェクトの現実世界と、仮想オブジェクトおよびグラフィックイメージがディスプレイスクリーン上に表示される仮想環境の間の区別を曖昧にすることを可能にする。この結果を実現するのに、テーブルトップの中央部分として形成されたディスプレイ表面を含む対話型ディスプレイが開発されている。仮想環境が下側から投影され、ディスプレイ表面上で見られる。ディスプレイ表面上に配置されたあらゆる物理的オブジェクトが、ディスプレイ表面の下に配置され、物理的オブジェクトから反射されるIR光線に応答するIRカメラによって光学的に検出されることが可能である。物理的オブジェクトが、カメラを使用して特定の位置で検出されると、表示されている仮想環境またはグラフィックイメージを制御するソフトウェアプログラムが、あたかも物理的オブジェクトが仮想環境内に含まれているかのように、物理的オブジェクトと仮想環境の間の対話を円滑にする。ディスプレイ表面の上に配置された物理的オブジェクトのタイプに依存して、対話は、2つの異なるモードで行われることが可能である。具体的には、第1のモードでは、表示された仮想環境は、ディスプレイ表面上の物理的オブジェクトの存在に応答する。第2のモードでは、物理的オブジェクトは、表示された仮想環境に応答し、特に、ディスプレイ表面上に表示された仮想環境またはグラフィックイメージの変化に応答する。
ディスプレイ表面に対する物理的オブジェクトのあらゆる動きが、ディスプレイ表面上の物理的オブジェクトの位置の変化を感知することによって追跡される。したがって、物理的オブジェクトに対する応答には、ディスプレイ表面に対する物理的オブジェクトの動きに応答して、仮想環境内のパラメータの値を変更することが含まれることが可能である。
物理的オブジェクトに対する応答は、物理的オブジェクトとの仮想環境内の仮想オブジェクトの対話によって実施されることも可能である。このため、例えば、仮想オブジェクトは、ディスプレイ表面上に物理的オブジェクトが配置されている仮想環境内の領域を通過することが妨げられることが可能である。物理的オブジェクトが仮想環境内の壁を表す場合、仮想環境を表示するソフトウェアプログラムによって制御される自動車に相当する仮想オブジェクトが、ディスプレイスクリーン上の物理的オブジェクトの位置にある壁から離れるようにハンドルを切り、壁に衝突することを回避するようにさせられる。この方法は、ディスプレイ表面上の特定の位置にある物理的オブジェクトのサイズと形状の少なくともどちらかを検出して、仮想環境内の物理的オブジェクトに対する事前定義された応答を可能にすることもできる。
また、この方法は、物理的オブジェクトから反射されたIR光線に基づき、物理的オブジェクトを識別することもできる。例えば、反射されるIR光線は、ディスプレイ表面の下に配置されたIRカメラによって光学的に検出される事前定義されたパターンで符号化されていることが可能である。物理的オブジェクトは、ユーザが知覚できる能動的機能を全く実行しない受動的オブジェクトであることも、能動的機能を実行する能動的オブジェクトであることも可能である。能動的オブジェクトは、能動的オブジェクトが能動的機能を実行するようにさせる、特定の光信号などの、仮想環境内で生成された信号を検出することが可能である。
能動的機能には、光を放出すること、またはトーンを生成すること、または振動すること、またはディスプレイ表面上の能動的オブジェクトの動きなどの、1つまたは複数の異なるタイプの知覚できる条件を生成することが含まれることが可能である。可動の能動的オブジェクトは、ディスプレイ表面上で自らを動かし、仮想環境と対話することができる。例えば、能動的オブジェクトは、電気モータがおもちゃの戦車上のトレッド(tread)を駆動してディスプレイ表面上を動き回る無線操縦式(RC)のおもちゃの戦車であることが可能である。あるいは、おもちゃの戦車は、代わりに、ディスプレイ表面の下に配置されたIR発光ダイオード(LED)などの、IR源からのIR光線を変調することにより、あるいはディスプレイ表面上で見られる表示を生成するために使用されるイメージ源によって生成される可視光の可視光パルスまたは変調によって制御されてもよい。上記、およびその他のタイプの能動的オブジェクトの場合、能動的オブジェクトの能動的機能は、ユーザによって制御されること、あるいは代替として、仮想環境を生成するソフトウェアプログラムによって制御されることが可能である。電力が、バッテリ、または充電されたキャパシタによって能動的オブジェクトに供給されて、能動的オブジェクトが、ある能動的機能を実行できるようにすることが可能である。このため、ソフトウェアを実行するコンピューティングデバイスが、能動的オブジェクトを制御することができ、能動的オブジェクトは、仮想オブジェクトの動作に影響を与え、ユーザにさらに影響を与えることができ、その逆も同様である。多くの異なる対話のシナリオも、明らかに容易に想像できる。
受動的オブジェクトと仮想環境の間で、他のタイプの対話が可能である。例えば、物理的オブジェクトに固有であり、物理的オブジェクトを介して見えるイメージが、物理的オブジェクトが配置されたディスプレイ表面上に投影されることが可能である。すると、投影されたイメージは、物理的オブジェクトを介して可視であり、物理的オブジェクトの一部として現れる。というのは、この投影されたイメージは、ディスプレイ表面上で受動的オブジェクトが動かされるにつれ、動き回るからである。
この方法において、物理的オブジェクトの位置は判定されるので、仮想オブジェクトと物理的オブジェクトとの間で視覚的干渉を避けるように選択されたディスプレイ表面上の位置に、仮想エンティティを表示することができる。仮想エンティティは、仮想オブジェクトまたは情報を含む。好ましくは、物理的オブジェクトに対する干渉を避けるように仮想エンティティを選択的に表示することができる、複数の優先順位付けされた位置、または順序付けされた位置が判定される。物理的エンティティに対する干渉を避け、最高の優先順位を有する位置が、仮想エンティティの表示のために選択される。また、この方法は、好ましくは、仮想エンティティを視覚的に認識する特定のユーザの位置も判定して、その特定のユーザが仮想エンティティを容易に視覚的に認識することを可能にするように選択された位置に、仮想エンティティが方向付けられ、表示されるようにする。その位置は、物理的オブジェクトと仮想エンティティの間の視覚的干渉を避けるように選択される。仮想エンティティを、最高優先順位の位置で物理的オブジェクトに対する干渉なしに表示することができない場合、仮想エンティティのサイズを縮小して、物理的オブジェクトに対する干渉を避けることができる。
本発明の別の態様は、本方法のステップを実行するためのマシン実行可能命令が格納された記憶媒体を対象とする。
本発明のさらに別の態様は、仮想環境と物理的オブジェクトとの間の対話を可能にするためのシステムを対象とする。システムは、仮想環境が表示されるディスプレイ表面を含む対話型ディスプレイ、およびディスプレイ表面上に置かれた物理的オブジェクトを検出するためのセンサを含む。プロセッサが、対話型ディスプレイ、ならびにマシン命令が格納されたメモリに結合される。プロセッサによって実行されると、マシン命令は、プロセッサが、以上に説明した方法のステップと全体的に合致する複数の機能を実行するようにさせる。
本発明の以上の態様、および付随する利点の多くは、添付の図面と併せて解釈される以下の詳細な説明を参照して本発明がよりよく理解されるにつれ、より容易に認識されるようになろう。
本発明によれば、オブジェクトと仮想環境ディスプレイとの間の対話を円滑にする効果を奏する。
以下、図面を参照して本発明を適用できる実施形態を詳細に説明する。
本発明を実施するための典型的なシステム
図1を参照し、本発明の様々な部分を実施するのに適した典型的なシステムを説明する。システムは、プロセッサ21、システムメモリ22、およびシステムバス23を備えた、従来のPC(personal computer)20の形態の汎用コンピューティングデバイスを含む。システムバスは、システムメモリを含む様々なシステムコンポーネントをプロセッサ21に結合し、様々なバスアーキテクチャのいずれかを使用するメモリバスまたはメモリコントローラ、周辺バス、およびローカルバスを含め、いくつかのタイプのバス構造のいずれであることも可能である。システムメモリは、読み取り専用メモリ(ROM)24およびランダムアクセスメモリ(RAM)25を含む。スタートアップ中などに、PC20内部の要素間で情報を転送するのを助ける基本ルーチンを含む、BIOS(Basic Input/Output System)26が、ROM24の中に格納される。PC20は、ハードディスク(図示せず)に対して読み取りおよび書き込みを行うためのハードディスクドライブ27、リムーバブルな磁気ディスク29に対して読み取りまたは書き込みを行うための磁気ディスクドライブ28、およびCD−ROM(compact disk−read only memory)または他の光媒体などの、リムーバブルな光ディスク31に対して読み取りまたは書き込みを行うための光ディスクドライブ30をさらに含む。ハードディスクドライブ27、磁気ディスクドライブ28、および光ディスクドライブ30は、それぞれ、ハードディスクドライブインタフェース32、磁気ディスクドライブインタフェース33、および光ディスクドライブインタフェース34でシステムバス23に接続される。以上のドライブ、および関連するコンピュータ可読媒体により、コンピュータ可読マシン命令、データ構造、プログラムモジュール、およびその他のデータの不揮発性ストレージが、PC20に提供される。本明細書で説明する典型的な環境は、ハードディスク、リムーバブルな磁気ディスク29、およびリムーバブルな光ディスク31を使用するが、磁気カセット、フラッシュメモリカード、デジタルビデオディスク(DVD)、ベルヌーイカートリッジ、RAM、ROMなどの、コンピュータがアクセスすることができるデータおよびマシン命令を格納することができる、他のタイプのコンピュータ可読媒体も典型的な動作環境で使用できることが、当業者には認識されよう。
オペレーティングシステム35、1つまたは複数のアプリケーションプログラム36、その他のプログラムモジュール群37、およびプログラムデータ38を含め、いくつかのプログラムモジュールが、ハードディスク、磁気ディスク29、光ディスク31、ROM24、またはRAM25に格納されることが可能である。ユーザは、キーボード40やポインティングデバイス42などの入力デバイス群を介して、コマンドおよび情報をPC20に入力することができ、制御入力を与えることができる。ポインティングデバイス42には、マウス、スタイラス、ワイヤレスリモコン、または他のポインタが含まれることが可能であるが、本発明に関連して、そのような従来のポインティングデバイス群は、省くことができる。というのは、ユーザは、入力および制御のために対話型ディスプレイを使用することができるからである。以下に使用する「マウス」という用語は、スクリーン上でカーソルの位置を制御するのに役立つ、実質的にあらゆるポインティングデバイスを包含するものとする。その他の入力デバイス群(図示せず)には、マイク、ジョイスティック、触覚(haptic)ジョイスティック、ヨーク(yoke)、フットペダル、ゲームパッド、衛星パラボラアンテナ、スキャナなどが含まれることが可能である。以上、およびその他の入出力(I/O)デバイス群は、しばしば、システムバス23に結合されたI/Oインタフェース46を介してプロセッサ21に接続される。I/Oインタフェースという用語は、シリアルポート、パラレルポート、ゲームポート、キーボードポート、および/またはユニバーサルシリアルバス(USB)として具体的に使用される各インタフェースを包含するものとする。システムバス23は、カメラインタフェース59にも接続され、インタフェース59は、対話型ディスプレイ60に結合されて、以下に説明するとおり、ディスプレイ60内部に含まれるデジタルビデオカメラから信号を受け取る。デジタルビデオカメラは、代わりに、USBバージョン2.0ポートなどの、適切なシリアルI/Oポートに結合してもよい。オプションとして、モニタ47を、ビデオアダプタ48などの適切なインタフェースを介して、システムバス23に接続することができるが、本発明の対話型ディスプレイは、情報の表示および入力のため、およびソフトウェアアプリケーション群の制御のために、はるかに豊かな表示、およびユーザとの対話を提供することができ、したがって、ビデオアダプタに結合される。モニタに加え、PCは、しばしば、スピーカ(図示していない、サウンドカードまたは他のオーディオインタフェースを介して)やプリンタなどの、他の周辺出力デバイス(図示せず)にも結合される。PC20は、PCが能動的オブジェクトと通信することを可能にするピアツーピア(例えば、Bluetooth(商標))システム(図示せず)を介して、ディスプレイ表面上に置かれた能動的オブジェクト群に結合できることも企図されている。代替として、コントローラを、適切なI/Oポートを介してPCに結合することもでき、コントローラは、以下に説明するとおり、対話型テーブル内部に含まれるソースによって生成される、可視またはIRの光信号を介することも含め、適切な有線リンク、RF(radio frequency)リンク、または他のタイプの無線リンクを介して、1つまたは複数の能動的オブジェクトに結合することができる。
本発明は、単一のマシン上で実施することができるが、PC20は、リモートコンピュータ49のような、1つまたは複数のリモートコンピュータに対する論理接続を使用するネットワーク化された環境においても動作することができる。リモートコンピュータ49は、別のPC、サーバ(通常、全体的にPC20とほぼ同様に構成される)、ルータ、ネットワークPC、ピアデバイス、若しくはサテライトまたは他の一般的なネットワークノードであることが可能であり、通常、PC20に関連して前述した要素の多く、またはすべてを含むが、外部メモリ記憶装置50だけを図1に示している。図1に示した論理接続は、ローカルエリアネットワーク(LAN)51およびワイドエリアネットワーク(WAN)52を含む。そのようなネットワーキング環境は、オフィス、企業全体のコンピュータネットワーク、イントラネット、およびインターネットで一般的である。
LANネットワーキング環境で使用される場合、PC20は、ネットワークインタフェースまたはネットワークアダプタ53を介してLAN51に接続される。WANネットワーキング環境で使用される場合、PC20は、通常、インターネットなどのWAN52を介して通信を確立するために、モデム54、またはケーブルモデム、デジタル加入者線(DLS)インタフェース、またはISDN(Integrated Services Digital Network)インタフェースなどの他の手段を含む。内部にあることも、外部にあることも可能なモデム54は、システムバス23に接続されるか、またはI/Oデバイスインタフェース46を介して、すなわち、シリアルポートを介して、このバスに結合される。ネットワーク化された環境では、PC20に関連して示したプログラムモジュール群、またはプログラムモジュール群の諸部分は、リモートメモリ記憶装置の中に格納することができる。図示したネットワークは、典型的であり、無線通信や広帯域ネットワークリンクなどの、コンピュータ間で通信リンクを確立する他の手段も使用できることが認められよう。
典型的な対話型テーブル
図2に、フレーム62内にPC20を含み、コンピュータのための光入力デバイスと光出力デバイスの両方の役割をする典型的な対話型テーブル60を示す。対話型テーブルのこの破断図では、グラフィックイメージを表示するために使用される光線が、全般的に、点線(dotted line)を使用して示される一方で、ディスプレイ表面64aの上、または少し上方のオブジェクト群を感知するために使用される赤外(IR)光線が、破線(dash line)を使用して示される。ディスプレイ表面64aは、対話型テーブルのテーブル表面64の範囲内に置かれる。テーブル表面の周囲(perimeter)は、ユーザの腕、あるいはディスプレイ表面64a上に表示されるグラフィックイメージまたは仮想環境と対話するのにまだ使用されていない他のオブジェクト群を支承するのに役立つが、明らかに必須ではない。
IR光線源66は、好ましくは、複数のIR発光ダイオード(LED)を含み、フレーム62の内側に取り付けられる。IR光線源66によって生じさせられたIR光線は、破線78a、78b、および78cで示すとおり、ディスプレイ表面64aの下面に向けて上方に向けられる。IR光線源66のIR光線は、ベラム(vellum)、または光拡散特性を有する他の適切な材料のシートを含む、テーブルの半透明レイヤ64bを透過した後、ディスプレイ表面上の、またはディスプレイ表面近くのあらゆるオブジェクトから反射される。透明なプラスチックなどの透明の材料のシートを使用して、必要な場合、半透明レイヤ64bとして使用される光を拡散させる材料を支えることができる。1つだけのIR源66を示しているが、複数のそのようなIR源をフレーム62の内側の周囲に離間した位置で取り付けて、ディスプレイ表面64aの均等な照射を実証する(prove)こともできることが認められよう。IR源によって生じさせられる赤外線は、次のことが可能である。すなわち、
・破線78aで示すとおり、オブジェクトを全く照射せずに、テーブル表面を透過して出ること、
・破線78bで示すとおり、テーブル表面上のオブジェクトを照射すること、または
・破線78cで示すとおり、テーブル表面から上方に短い距離であるが、テーブル表面には触れていないオブジェクトを照射することである。
ディスプレイ表面64aの上方のオブジェクトには、ディスプレイ表面の上に置かれている「接触」オブジェクト76a、ならびにディスプレイ表面に近接しているが、実際に接触はしていない「ホバー(hover)」オブジェクト76bが含まれる。ディスプレイ表面の下で半透明レイヤ64bを使用して、ディスプレイ表面を透過するIR光線を拡散させることの結果として、オブジェクトがディスプレイ表面64aの上面に接近するにつれ、オブジェクトによって反射されるIR光線の量は、オブジェクトがディスプレイ表面64aに実際に接触した場合に達せられる最大レベルまで増加する。
デジタルビデオカメラ68が、ディスプレイ表面64aの上方に置かれた接触オブジェクトまたはホバーオブジェクトから反射されたIR光線を受け取るのに適切な位置で、ディスプレイ表面64aの下のフレーム62に取り付けられる。デジタルビデオカメラ68は、IR光線だけを透過させ、点線84aに沿ってディスプレイ表面64aを透過する周辺可視光を遮るIR透過フィルタ86aを備える。IR源66とデジタルビデオカメラとの間にバフル(baffle)79が配置されて、IR源から直接に放出されたIR光線がデジタルビデオカメラに入るのを防止する。というのは、そのデジタルビデオカメラが、ディスプレイ表面64aから上方に短い距離の、またはディスプレイ表面64aに接触するオブジェクト群から反射されたIR光線に応答する出力信号を生成することが重要だからである。ミラー72b(図2)からの2次反射の結果として生じさせられる鏡面反射を避けるため、または直接のIR光線がビジョンシステムに達するのを避けるため、それらのIR LEDの位置を選択する際に注意が払われた。それらの鏡面反射および直接IR光線は、ディスプレイ表面上のオブジェクト群を感知することを妨げるデッドスポット(dead spot)をビジョンシステムにおいて生じさせる可能性がある。デジタルビデオカメラ68は、ディスプレイ表面64aを透過し、対話型ディスプレイの内部に入る周辺光(例えば、点線84aで示した経路に沿っても伝わる周辺IR光線)に含まれるIR光線にも応答することが認識されよう。
テーブル表面の上、または上方のオブジェクト群から反射されるIR光線は、次のことが可能である。すなわち、
・破線80aおよび80bで示すとおり、反射されて半透明レイヤ64bを透過して戻り、IR透過フィルタ86aを透過し、デジタルビデオカメラ68のレンズ群に入ること、または
・破線80cで示すとおり、デジタルビデオカメラ68のレンズ群に入らずに、対話型ディスプレイ内部の他の内側面(interior surface)によって反射されるか、または吸収されることである。
半透明レイヤ64bは、入射するIR光線と反射されたIR光線をともに拡散させる。このため、前述したとおり、ディスプレイ表面64aにより近い「ホバー」オブジェクト群は、ディスプレイ表面からより遠くに離れた同一の反射率のオブジェクト群より多くのIR光線をデジタルビデオカメラ68に反射して戻す。デジタルビデオカメラ68は、カメラ68のイメージングフィールド内の「接触」オブジェクト群または「ホバー」オブジェクト群から反射された赤外線を感知し、その反射されたIR光線のイメージ群に対応するデジタル信号を生成し、この信号が、それぞれのそのようなオブジェクトの位置、ならびにオプションとして、そのオブジェクトのサイズ、向き、および形状を判定する処理のためにPC20に入力される。オブジェクトの一部分(ユーザの前腕など)がテーブルの上方にある一方で、別の部分(ユーザの指など)は、ディスプレイ表面に接触していることも可能であることに留意されたい。さらに、オブジェクトは、オブジェクトの底面上に、そのオブジェクト、またはそのオブジェクトがメンバである関連するオブジェクトのクラスに固有であるIR光線反射パターンまたはIR光線反射コード(例えば、バーコード)を含むことも可能である。したがって、デジタルビデオカメラ68からのイメージング信号は、オブジェクトの反射パターンから反射されたIR光線に基づき、そのような特定のオブジェクトを検出することとならんで、オブジェクトの向きを判定することのためにも使用することができる。
PC20は、図2に示すとおり、対話型テーブル60と一体になっていることも、そうではなく、図6の実施形態で示すとおり、対話型テーブルの外部にあることも可能である。図6では、対話型テーブル182が、データケーブル186を介して外部PC184(前述したとおり、オプションのモニタを含む)に接続されている。対話型テーブルは、外部PC184、あるいはセットトップボックス、ビデオゲーム、ラップトップコンピュータ、またはメディアコンピュータなどの、他の何らかのタイプのコンピューティングデバイスに接続される場合、入出力デバイスを含む。外部PC184を対話型テーブル182に接続するデータケーブル186は、PC184上のUSB2.0ポート、IEEE(Institute of Electrical and Electronics Engineers(米電気電子学会))1394(またはFirewire)ポート、またはイーサネット(登録商標)ポートに結合することができる。無線接続の速度が向上するにつれ、対話型テーブルは、高速無線接続を介して、または他の何らかの適切な有線または無線のデータ通信リンクを介してPC184などのコンピューティングデバイスに接続することが可能であることも企図されている。対話型ディスプレイの一部として内部に含められるか、外部に含められるかに関わらず、PCは、デジタルビデオカメラ68からのデジタルイメージを処理するためのアルゴリズムを実行し、対話型テーブル60のより直観的なユーザインタフェース機能を有利に使用するように設計されたソフトウェアアプリケーション群を実行するとともに、そのような機能を利用するように特に設計されていないが、それでも、対話型テーブルの入力能力および出力能力を使用することができる他のソフトウェアアプリケーション群も実行する。
対話型テーブル(前述した実施形態のいずれでも)の重要で強力な特徴は、ゲームまたは他のソフトウェアアプリケーション群に関するグラフィックイメージまたは仮想環境を表示することができ、ディスプレイ表面64a上に見られるグラフィックイメージまたは仮想環境と、ディスプレイ表面の上に置かれた、またはディスプレイ表面から少し上方に浮いたオブジェクト群の間の対話を可能にすることができることである。
図2を再び参照すると、対話型テーブル60は、ディスプレイ表面64a上にグラフィックイメージ、仮想環境、またはテキスト情報を表示するのに使用されるビデオプロジェクタ70を含む。ビデオプロジェクタは、好ましくは、少なくとも640×480ピクセルの解像度を有する、LCD(液晶ディスプレイ)、またはDLP(digital light processor(デジタルライトプロセッサ))ディスプレイタイプ、またはLCoS(liquid crystal on silicon)ディスプレイタイプを含む。IRカットフィルタ86bが、ビデオプロジェクタ70のプロジェクタレンズの前方に取り付けられて、ビデオプロジェクタによって放出されたIR光線が、対話型テーブルの内部に入り、ディスプレイ表面64aの上、または上方のオブジェクトから反射されたIR光線に干渉するのを防止する。第1のミラーアセンブリ72aが、プロジェクタレンズから点線の経路82aに沿ってフレーム62における透明な開口90aを透過して伝わる、投射された光を方向付け、その投射された光が、第2のミラーアセンブリ72b上に入射するようにする。第2のミラーアセンブリ72bは、投射された光を半透明レイヤ64b上に反射し、レイヤ64bは、投影されたイメージが、表示(viewing)のためにディスプレイ表面64a上で焦点が合って見えるように、プロジェクタレンズの焦点に位置する。
アラインメントデバイス74aおよび74bが提供され、第1のミラーアセンブリおよび第2のミラーアセンブリの角度を調整して、ディスプレイ表面上に投影されたイメージが、ディスプレイ表面と揃っていることを確実にするためのネジ棒と回転可能な調整ナット群74cを含む。投影されたイメージを所望の方向に向けることに加え、これら2つのミラーアセンブリの使用は、プロジェクタ70と半透明レイヤ64bの間でより長い経路を提供し、より重要なことには、対話型ディスプレイテーブルの所望のサイズおよび形状を実現することに役立ち、対話型ディスプレイテーブルが大き過ぎず、ユーザがテーブルの隣に快適に座ることを可能にするサイズと形状であるようにする。
仮想環境内における物理的オブジェクトと仮想オブジェクトとの間の対話
図4の機能ブロックダイアグラム130は、本発明に従って、受動的な物理的オブジェクト136が、どのようにユーザおよび仮想環境と対話するかを示す。(本明細書では、「受動的な物理的オブジェクト」という用語を時として短縮して、単に「受動的オブジェクト」と呼ぶ)この図に示すとおり、ユーザ132は、受動的な物理的オブジェクト136をディスプレイ134上、またはその近くに置くことができる。ディスプレイ表面上の受動的な物理的オブジェクト136の存在は、感知機能138によって検出され、この機能138は、受動的な物理的オブジェクトがディスプレイ134の上に置かれている、またはすぐ上方に位置している場合、対話型テーブル60内部で、受動的な物理的オブジェクトの底部から反射されたIR光線を検出するデジタルビデオカメラ68によって実行される。受動的な物理的オブジェクトを示す信号は、CPU(central processing unit)によって実行されるソフトウェアに供給されて仮想環境140を生成し、仮想環境が、受動的な物理的オブジェクトの存在を認識し、その存在に応答することができるようにする。図4には示していないが、ディスプレイ134の上で、またはすぐ上方に物理的オブジェクトを位置付ける、またはそこで動かすことに加え、ユーザ132は、キーボード、ポインティングデバイスを介して、または単に仮想環境と対話することにより、例えば、メニュー項目を選択することなどにより、他のソースの入力を仮想環境140に提供することができる。仮想環境140は、ディスプレイ134にイメージングされるので、仮想環境を生成するソフトウェアプログラムは、仮想環境内の仮想オブジェクト群が、物理的オブジェクト136の存在に応答するとともに、物理的オブジェクトの位置、向き、サイズ、ならびに物理的オブジェクトを一意に識別する物理的オブジェクト上に含まれる符号化された情報にも応答する、または共通クラス内の一群の物理的オブジェクトの1つとして物理的オブジェクト136の存在に応答するようにさせることができる。ユーザ、受動的な物理的オブジェクト、および仮想環境の間で行われることが可能な対話のタイプの例を以下に説明する。
図5の機能ブロックダイアグラム150の機能図は、能動的な物理的オブジェクト154が、どのように仮想環境内の表示されたイメージ156と対話するかを示す。(本明細書では、「能動的な物理的オブジェクト」という用語をときとして短縮して、単に「能動的オブジェクト」と呼ぶ。)能動的な物理的オブジェクト154は、ユーザが知覚できる1つまたは複数の能動的機能を実行することができる物理的オブジェクトであり、したがって、各能動的オブジェクトとユーザの間には、通常、双方向の対話が存在することが可能である。能動的オブジェクト154は、ディスプレイ134上に置かれた場合、またはディスプレイのすぐ上方で「ホバリング(hover)」させられた場合に検出される。能動的オブジェクト154を感知するのに、ディスプレイ134の上に、またはすぐ上方に配置された能動的オブジェクトから反射されたIR光線が、感知システム138によって検出され、システム138は、前述したとおり、好適実施形態では、IR感知デジタルビデオカメラを含む。感知システムによって生成された信号は、デジタル化され、ディスプレイ表面上の能動的オブジェクトの位置、およびオプションとして、形状、向き、ならびに能動的オブジェクトを識別するように能動的オブジェクト上で提供される特定の符号化された情報が、仮想環境140を生成するCPUに提供される。この場合も、ユーザ132は、仮想環境の表示されたイメージと対話するとともに、能動的オブジェクト群154とも対話する。ただし、ユーザは、単にディスプレイ表面上の特定の位置に能動的オブジェクトを配置することを超えて能動的オブジェクト154と対話することもできる。例えば、能動的オブジェクトが自走式の車である場合、ユーザ132は、能動的オブジェクト154に接続されたRC(remote control)デバイス、または別のタイプのコントローラを使用して、方向、速度、ならびにその車が実行することができるその他の能動的機能を制御することができる。能動的オブジェクト154は、ディスプレイ134と対話することができる。というのは、ディスプレイ上で仮想環境140のグラフィックイメージを生成するソフトウェアは、能動的オブジェクト群154を制御する信号も生成することができるからである。好ましくは、能動的オブジェクトの制御は、PCに結合されたコントローラを介して行われ、PCが、オブジェクトのユーザによる制御にいくつかの制限を差し挟むことができ、オブジェクトがテーブル上の、またはテーブルから外れた他の受動的オブジェクトまたは能動的オブジェクトと不適切に対話するように能動的な物理的オブジェクトをユーザが制御するのを防止することができるようにしなければならない。例えば、PCは、ユーザが、能動的オブジェクトをディスプレイ表面から外れるように走行させる、または能動的オブジェクトを使用して、ソフトウェア仮想環境の規則内でそのように動かされることになっていない受動的オブジェクトを動かすのを防止することができる。
前述したとおり、あるタイプの能動的な物理的オブジェクトが行うことができる1つの形態の能動的機能は、ディスプレイ表面上で動き回ることである。ただし、能動的オブジェクト154は、ユーザ132が知覚できる他の能動的機能も実施することができる。例えば、能動的オブジェクト154は、仮想環境内の諸条件に応答して、光を放出することができ、場合により、1つまたは複数の異なる光を放出することができる。同様に、能動的オブジェクト154は、場合により、表示されている仮想環境内の仮想オブジェクトまたは他のグラフィックイメージのステータスに依存して異なるピッチの、可聴の信号またはトーンを生成することができる。可聴のトーンを生成する代りに、能動的オブジェクト154は、振動することも可能である。能動的機能の以上の例のそれぞれにおいて、能動的オブジェクト154は、仮想環境と対話し、したがって、能動的オブジェクトは、仮想環境の一部分であるように見え、別個の分離したエンティティではないように見える。
表示された仮想環境は、能動的オブジェクト群154、ならびに能動的オブジェクト群154がいくつかの異なる形で実施する能動的機能を、制御することができる。仮想環境内で、IRビデオカメラを使用して「ループを閉じ」、オブジェクトの制御された動きの誤りを、制御理論における標準の技術を使用して訂正することができるようにする。例えば、PCのユーザは、ディスプレイ表面上を直線で動くように能動的オブジェクトを制御することを、ビジョンシステムフィードバックを利用することなく、能動的オブジェクト上のモータ群がそのような正確な制御ができない可能性があっても、行うことができる。ブロック160で示すとおり、仮想環境(または仮想環境を生成するCPU)は、能動的オブジェクトが応答し、表示されたイメージの一部である光を使用して能動的オブジェクトと通信すること、あるいはRF信号を生成して、またはIR光線、または他の何らかの信号を使用して、能動的オブジェクトと通信することができる。このため、仮想環境が、ディスプレイ表面上で動き回る可視光の点を含む場合、能動的オブジェクト154は、表示されたイメージを生成するソフトウェアアプリケーションプログラムによって制御されるその光の点を実際上、追うことができる。対話型ディスプレイを使用して行われるゲームでは、仮想環境を生成するCPUが、1つまたは複数の能動的オブジェクトを制御することが可能な一方で、ユーザは、他の能動的オブジェクトを制御する。能動的オブジェクトは、受動的オブジェクトとしても機能することが可能である。というのは、ディスプレイ表面上に能動的オブジェクトが単に存在することにより、その位置に能動的な物理的オブジェクトが単に存在することに、仮想環境が適切に応答するようにさせられることが可能だからである。
いくつかの例が、受動的オブジェクトと仮想環境の間、および能動的オブジェクトと仮想環境の間でどのように様々な対話が行われることが可能であるかを示すのに役立つ可能性がある。例えば、ユーザが、ピンボールゲームレイアウトがディスプレイ表面上に現れる仮想環境を含む、ピンボールゲーム(pinball arcade game)を行っている場合、ユーザは、ディスプレイ表面上に現れるピンボールゲームイメージ内のバンパ(bumper)として構成される受動的オブジェクトを配置することができる。ピンボールを表す仮想オブジェクトが放たれ、ユーザによって配置されたバンパに「当たった」場合、仮想イメージは、はね返るようにさせられ、仮想の光の明滅が、仮想環境によって生成されるサウンドとともに現れるようにさせられる。ユーザが、バンパの役割をする受動的オブジェクトの位置を変えた場合、仮想ゲーム環境は、受動的オブジェクトの新たな位置および向きを感知し、ピンボールが、バンパの新たな位置でバンパに「当たる」ことの応答は、やはり事前定義された応答をもたらす。
次に、ユーザが、仮想環境として表示されたピンボールゲームボード上に円形のバンパを表す能動的オブジェクトを配置した場合、異なるタイプの応答が生成されることが可能である。仮想ピンボールが円形のバンパに「当たった」場合、仮想環境は、能動的オブジェクトの下で光信号を生成することが可能であり、その信号に能動的オブジェクトは、振動して、能動的オブジェクト内部に含まれる光源から光のパルスを生成すること、および/または事前定義された鳴り響くサウンドを生成することで応答する。仮想環境は、ピンボールが能動的エージェントに当たった場合に、能動的オブジェクトの下で他の視覚的な照明の効果または点滅を生成することもできる。
ピンボールは、能動的オブジェクトまたは受動的オブジェクトに「当たった」際のピンボールの動きに適切な方向および力で、ピンボールゲームの仮想環境内で動くようにさせて、仮想ピンボールが、物理の法則で定義される方向で物理的オブジェクトからはね返るようにすることができる。能動的オブジェクトに点灯させる、またはサウンドを発するようにさせる、または振動させるのに、仮想環境は、仮想オブジェクトが能動的オブジェクトに衝突した時点で、能動的オブジェクトの下面上のレセプタ(receptor)に可視光線またはIR光線のパルスを向けて、能動的オブジェクトが、能動的機能を実施するようにさせることができる。さらに、仮想環境内で能動的オブジェクトに伝送される光信号は、能動的オブジェクトが、能動的オブジェクトの下面上に配置されたセンサによって受け取られる特定のコードシーケンスに依存して、異なる能動的機能を実行するようにさせるように符号化することができる。
図7は、物理的オブジェクトがディスプレイ表面192上に置かれた場合に仮想イメージ190と対話することができる、いくつかの異なる物理的オブジェクトを示す。図7に示すとおり、受動的オブジェクト194aが、仮想環境内の壁を表す。別のタイプの受動的オブジェクトが、ノブ(knob)またはリニアパッドなどのユーザインタフェースコントロールを表し、このコントロールが、物理的オブジェクトを回転させる、またはスライドさせることによりユーザによって動かされて、仮想環境の物理的パラメータが変更される。音量レベルなど、ほとんどあらゆるパラメータが、このように調整されることが可能であり、受動的オブジェクトの動きを使用して、複数のメニュー項目の1つを選択することができる。他の受動的オブジェクトには、ディスプレイ表面192と接触させられ、表面上で引かれた場合、ディスプレイ表面に押し付けられるオブジェクトに印加される圧力の関数として、太さ、およびその他の諸特性が変化するストロークを表す対応するイメージが、仮想環境によって表示されるようにする、オブジェクトが含まれる。ストロークの諸特性は、ディスプレイ表面に接触するオブジェクトの面積に応答して変化する。描画(drawing)ソフトウェアプログラム群でやはり役立つのが、スタイラスを表す受動的オブジェクトであり、したがって、ユーザは、単に受動的オブジェクトをディスプレイ表面上で動かすことにより、受動的オブジェクトを使用して描画を行うことができる。同様に、受動的オブジェクトは、ディスプレイ表面上に表示されたイメージの諸部分を、表示されたイメージのその部分の上で消しゴム(eraser)を動かすことによって削除することができる消しゴムであることが可能である。
図7の戦車194bが、光の点196aがディスプレイ表面192上を動き回るのにつれ、その光の点196aの後を追うのが示される。光の点に応答するため、タンク194bは、点196aを生成するために使用される光の波長に応答する光レセプタ(別個に図示せず)を含む。代替として、戦車194bは、RC戦車194eと同様に、仮想環境ソフトウェアプログラムによって送信されるRF信号を使用して制御されることも可能である。
この例では、ユーザは、戦車194eの行路に受動的オブジェクト194aを配置しており、オブジェクト194aは、仮想環境において実際の戦車を止める重厚な壁を表す。仮想環境は、受動的オブジェクト194aの検出に応答し、オブジェクト194aの形状、位置、および向きに応答する。受動的オブジェクト194aは、受動的オブジェクト194aの位置が感知される仮想環境内の場所における壁を表すので、仮想環境は、戦車194eが、仮想環境内で受動的オブジェクト194aによって占められる領域を通って前進することを許さない。このため、壁を表す受動的オブジェクトは、仮想環境によって制御される物理的オブジェクト194eの動きに影響を与える仮想環境の一部分として扱われる。
物理的オブジェクトは、戦車194bによって発射された砲弾196cなどの仮想オブジェクトに応答することもできる。そのような砲弾が当たったことに応答して、仮想の爆発196dが、戦車194eのまわりに目立つように現れるようにして、仮想の砲弾が戦車に当たったことを示すことができる。
能動的オブジェクト194cおよび194dは、RFコントロールまたは有線コントロール(図示せず)を使用するユーザによって、あるいはRFコントロール、IR光信号がディスプレイ表面192上に投射されると、能動的オブジェクト上の光センサが応答するパルスIR光信号源、または可視光線196bを使用する仮想環境により、やはり制御される、自動車、または他の乗り物に相当する。以上の信号のいずれを使用しても、能動的オブジェクト194cがディスプレイ表面192上で動く方向を制御することができる。
電力が能動的オブジェクトに通電することを要求する諸機能を実行する能動的オブジェクト194b、194c、194d、および194eは、通常、充電可能な(または充電可能でない)バッテリを含むか、または容量充電(capacitive charge)電源を使用する(最低限の電力量だけしか要さない場合)。図12は、AC電源電圧302に結合され、AC電源電圧を適切な電荷信号(charge signal)に変換して、電荷を能動的オブジェクト304に送る典型的な充電ステーション300を示し、オブジェクト304は、電気エネルギーを使用してオブジェクト304の能動的機能を実行する。充電可能なバッテリ、または代替として、容量充電ストレージが、電動の(powered)能動的オブジェクト304内部に含まれる。代替として、充電ステーション300自体、能動的オブジェクト内部のエネルギー源に充電するために使用されるバッテリを含むことが可能である。このため、能動的オブジェクトは、充電ステーション300に結合されて、対話型ディスプレイ上の能動的オブジェクトの使用の合間に充電を受ける。
まだ説明していない、本発明で使用される受動的オブジェクトの別の特徴は、表示されたイメージの特定の部分を、受動的オブジェクトが占めるディスプレイ表面上に投影して、表示されたイメージのその部分が、受動的オブジェクトの一部であるように、すなわち、あたかも受動的オブジェクトの底面に付けられているかのように見えるようにすることができることである。図11は、子供の綴りゲームがその特徴を使用する、単純な例を示す。この例では、ディスプレイ表面64a上に投影される仮想環境は、「ここに語を綴りなさい(Spell Word Here)」、すなわち、表示された線の上に語を綴りなさいという、ユーザに対する命令を含む。ディスプレイ表面64a上に散乱しているのが、透明なプラスチック材で作られ、受動的オブジェクトのそれぞれの下面にIR符号化されたパターン(人間の目に見えない)が印加されている、複数の受動的オブジェクト220である。そのようなパターンの例を1つの受動的オブジェクト上に示す。このため、各受動的オブジェクト220は、綴りゲームプログラムの制御の下でディスプレイ表面上のイメージの一部分として投影された文字群が、受動的オブジェクト220のそれぞれに関連付けられるように、一意に識別されることが可能である。この単純な例では示していないが、綴りプログラムは、子供のユーザが、示された線の上に受動的オブジェクト群220を含むブロック群を適切な順序で並べて、「RAKE(熊手)」という語を綴ろうと試みるように、熊手のピクチャを表示することも可能である。ユーザが、各ブロックをディスプレイ表面64a上で方々にスライドさせるのにつれ、受動的オブジェクトの下面上に投影された対応する文字が、その受動的オブジェクトとともに動き、受動的オブジェクトがディスプレイ表面上で回され、動かされるのに応じて、受動的オブジェクトの向きを保つ。この技術を使用する別の例は、パズルイメージの諸部分が、ディスプレイ表面上に置かれた受動的オブジェクト群の上に投影されるようにする、ソフトウェアアプリケーションに関連する。ユーザは、各受動的オブジェクトを、したがって、その受動的オブジェクト上に投影されたイメージの部分を、他の受動的オブジェクト、ならびにイメージの他の受動的オブジェクトに対応する部分とリンクして、パズルが表す完成されたイメージを形成することにより、パズルを完成させるように受動的オブジェクトを選択的に並べることができる。また、イメージは、ビデオイメージ、または静的でないイメージであることも可能である。
物理的オブジェクトと、仮想環境内に表示された仮想オブジェクトとの間の別の対話は、仮想オブジェクトの少なくとも一部分が、ユーザまたはソフトウェアによってディスプレイ表面上に配置された物理的オブジェクトによって覆い隠される場合、仮想オブジェクトの表示を避けることに関する。物理的オブジェクトは、透明ではないものと想定する。仮想オブジェクトの表示と、ボード上に配置された物理的オブジェクトとの間の干渉により、仮想環境は、物理的オブジェクトの位置およびサイズを認識することが要求される。ディスプレイ表面上で動かされている、またはディスプレイ表面上に置かれている物理的オブジェクトに対する干渉を避けるだけでなく、仮想表示の他の諸態様に対する干渉も避けるように、仮想オブジェクトを表示するための優先順位付けされた位置リストを作成することが、一般に、好ましい。
図8、図9、および図10は、どのように本発明のこの態様が実施されるかを示す例である。この例では、仮想環境200は、TRIVIAL PURSUIT(商標)ゲームボードの表示を表す。ゲーム内の各プレーヤの進行状況(progress)が、物理的オブジェクトの位置で示される。このため、物理的オブジェクトは、異なるプレーヤにそれぞれが割り当てられた、プレーヤの駒202、204、または208を表す。図8に示すとおり、プレーヤの駒202および204は、概して、仮想環境200としてのホイール様の表示の中心、またはハブに位置する。各プレーヤの順番になると、ディスプレイ表面上に仮想環境200を生成するソフトウェアプログラムが、現在、順番になっているプレーヤに仮想の質問カード206を表示し、その質問に対するプレーヤの応答を求めて、プレーヤの駒がゲーム内で前進することができるかどうかを判定する。現在のプレーヤが、図8に示すとおり、仮想表示200の南西の隅に隣接して物理的に位置しているものと想定すると、質問カード206を表示するための最高優先順位の位置は、仮想表示の南西の隅である。この位置が最高優先順位を有するのは、この位置により、この表示位置の隣のプレーヤが、質問カード上の質問を容易に読むことが可能になるからである。質問カード206は、仮想オブジェクトであるため、仮想表示200を生成するソフトウェアプログラムは、異なる優先順位付けされた位置で質問カードを選択的に表示することができる。このケースでは、最高優先順位を有する南西の位置が選択され、使用される。というのは、仮想環境ゲームボードの中心またはハブに配置されたプレーヤの駒202または204に対して全く干渉しないからである。
しかし、図9では、現在、仮想環境の南西のスポーク(spoke)上に置かれているプレーヤの駒208により、質問カードに相当する仮想オブジェクトが、図8で使用した南西の位置に表示されることが除外される。実際、質問カードに応答する必要があるプレーヤに比較的近い、優先順位付けされた位置、または順序付けられた位置のいずれも、選択可能ではない。このケースでは、質問カードに相当する仮想オブジェクト206’が表示されるが、仮想オブジェクト206’は、仮想オブジェクト206と比べてサイズが小さく、質問カードと、ディスプレイ表面上に置かれた物理的オブジェクト群の間で全く干渉を生じさせることなしに、ディスプレイ表面上の2番目に高い優先順位の位置で表示されることが可能である。
図10は、質問カードを含む仮想オブジェクトを表示することが可能なオプションの位置の優先順位付けされたリスト、または順序付けされたリストを判定する際、Trivial Pursuitゲームで使用されるハブ−ホイールデザインの幾何学的形状が、仮想オブジェクトの表示位置の優先順位付けされたリストを作成するのに考慮されることを示す。というのは、ディスプレイ表面上に物理的に置かれるプレーヤの駒は、ボードデザインの縁(rim)、スポーク、またはハブの上だけに置くことができるからである。したがって、ディスプレイ表面上で仮想環境を生成するのに使用されるそれぞれの異なるソフトウェアアプリケーションに関して、異なる基準が、仮想オブジェクトを表示することができる位置の優先順位付けされたリストの判定に影響を与えることが、明白であろう。
図3の流れ図100は、ディスプレイ表面上に置かれた物理的オブジェクト群に対する干渉を避けるのに、どこに仮想オブジェクトを表示するかを判定する際に使用されるロジックステップを示す。開始ブロック102の後、ステップ104が、仮想オブジェクトの表示のための可能な位置の順序付けされたリストを作成することを可能にする。図10に関連して既に述べたとおり、優先順位付けされたリストは、例えば、図10に示したとおり、仮想オブジェクトと対話するユーザの位置とならび、物理的オブジェクト群が配置される可能性のある位置を定義する可能性が高い、仮想環境のレイアウトも考慮するように順序付けられることが可能である。さらに、優先順位付けは、仮想オブジェクトが、重要な情報が隠されることなしに、物理的オブジェクトによって覆い隠されることが可能な諸部分を含む可能性があることも考慮に入れることができる。例えば、仮想の質問カードの周囲の境界は、仮想の質問カードを読むユーザの能力に影響を与えることなしに、覆い隠されることも可能である。次に、ステップ106が、例えば、対話型ディスプレイ内部に含まれるデジタルビデオカメラによって受け取られた、反射されたIR光線に基づき、ディスプレイ表面上の1つまたは複数の物理的オブジェクトの位置を確認する。
次に、ステップ108が、優先順位付けされたリスト内の各位置に関して、仮想オブジェクトがそこに表示されるべきであるかどうかを判定する。ステップ110で、プログラムは、仮想オブジェクトが表示される際に、仮想オブジェクトがプレーヤの方を向くように方向付ける。次に、判定ステップ112により、仮想オブジェクトに少なくとも部分的に干渉するように、ディスプレイ表面上でその位置に配置された物理的オブジェクトが存在するかどうかが判定される。存在する場合、ステップ114が、仮想オブジェクトのサイズを変更して、仮想オブジェクトがより小さくなるようにするか、または代替として、物理的オブジェクトの周囲に合うように仮想オブジェクトのサイズまたは形状を変更することにより、仮想オブジェクトを再フォーマットする。次に再び、判定ステップ116により、サイズ変更された、または再フォーマットされた仮想オブジェクトを覆い隠す物理的オブジェクトが存在するかどうかが判定される。存在する場合、ロジックは、ステップ118に進み、可能な位置の優先順位付けされたリスト内、または順序付けされたリスト内の次の位置が評価される。判定ステップ112における判定、または判定ステップ116における判定が否定であった場合、ロジックは、ステップ120に進み、ロジックが判定ブロック112から来た場合には、元のサイズで、ロジックが判定ブロック116から来た場合には、より小さいサイズ(または変更されたフォーマット)で、仮想オブジェクトを現在の位置に配置する。判定ブロック116に対する肯定応答の後、ステップ118は、ステップ110に戻り、順序付けされたリスト内の次の位置に関してプロセスを繰り返す。判定ブロック120で、仮想オブジェクトがディスプレイ表面上に置かれる(すなわち、表示される)と、ロジックは、ステップ122で完了する。優先順位付けされた位置リストを使用する前述したロジックは、単に典型的であり、ディスプレイ表面上に置かれている物理的オブジェクト群に対する干渉を避けるように仮想イメージ群を表示するための、他の制約を満足させる技術、または最適化技術を代わりに使用することもできることが、理解されよう。
本発明は、本発明を実施する好適な形態に関連して説明してきたが、添付の特許請求の範囲の範囲内で多数の変更形態を実施することもできることが、当業者には理解されよう。したがって、本発明の範囲が、以上の説明によって限定されることは全く意図されず、代わりに、添付の特許請求の範囲を参照することによって完全に規定されるものとする。
本発明を適用できる実施形態の、入力データおよび出力データを処理するのに適した全般的に従来のコンピューティングデバイスまたはパーソナルコンピュータ(PC)を示す機能ブロック図である。 本発明を適用できる実施形態の、対話型テーブルのハードウェアコンポーネント群、対話型テーブル内部の光が通る経路、テーブルの表面の上および上方に配置された典型的なオブジェクト群を示す対話型テーブルの内部の図である。 本発明を適用できる実施形態の、ディスプレイ表面上の物理的オブジェクトとディスプレイ表面上にイメージングされた仮想オブジェクトとの間の視覚的干渉を避ける際に実行されるロジックステップを示す流れ図である。 本発明を適用できる実施形態の、能動的物理的オブジェクトが、どのように感知され、対話型ディスプレイ上に表示された仮想環境と対話するかを示す機能ブロックダイアグラムの図である。 本発明を適用できる実施形態の、能動的物理的オブジェクトが、どのように対話型ディスプレイ上に表示された仮想環境と対話するかを示す機能ブロックダイアグラムの図である。 本発明を適用できる実施形態の、どのように本発明を、スタンドアロンパーソナルコンピュータ、または他のコンピューティングデバイスに結合された対話型ディスプレイとして実施することができるかを示すブロック図である。 本発明を適用できる実施形態の、複数の受動的オブジェクトおよび能動的オブジェクトを仮想環境との対話に関して示すディスプレイ表面の等角投影図である。 本発明を適用できる実施形態の、どのように仮想エンティティ、すなわち、質問カードが、ゲームボードの中央に置かれた複数のプレーヤの駒(player piece)からの視覚的干渉を避けるように、ゲームボードの隅近くの位置に表示されるかを示す、「TRIVIAL PURSUIT」ゲームに関する典型的な仮想環境ゲームボードを示す図である。 本発明を適用できる実施形態の、図8で質問カードが表示された位置辺りでディスプレイ表面上に配置されたプレーヤの駒の干渉を避けるように、異なる位置で質問カード(サイズが縮小された)が表示された、図8に示したゲームボードのさらなる例を示す図である。 本発明を適用できる実施形態の、ゲームのプレー中に物理的オブジェクト(すなわち、プレーヤの駒)が存在する可能性がある可能な位置をホイールハブ(wheel hub)が表し、プレーヤの駒による視覚的干渉を避けるように仮想エンティティ(すなわち、質問カード)を表示することができる位置の優先順位付けされたリスト、図8および図9からのゲームボードのホイールハブ部分を示す図である。 本発明を適用できる実施形態の、ディスプレイ表面を介して透明ブロック群の底部に投影された文字を示し、子供の綴りプログラムにおいて語を綴るように固有符号化パターンで識別される透明ブロック群を並べ替えることができるようにする、ディスプレイ表面の一部分を示す等角投影図である。 本発明を適用できる実施形態の、能動的オブジェクト内部のエネルギー源が、どのように充電ステーション(power charging station)によって充電されることが可能であるかを示す図である。
符号の説明
130、150 機能ブロックダイアグラム
132 ユーザ
134 ディスプレイ
136 受動的な物理的オブジェクト
138 感知機能
140 仮想環境
154 能動的な物理的オブジェクト
160 ブロック

Claims (43)

  1. 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法であって、
    (a)前記物理的オブジェクトが、前記仮想環境が表示されるディスプレイ表面上に置かれている場合、前記物理的オブジェクト、および前記物理的オブジェクトの位置を検出するステップであって、前記物理的オブジェクトは、前記物理的オブジェクトから反射された光を前記ディスプレイ表面の下から光学的に感知することによって、前記ディスプレイ表面上で検出されるステップと、
    (b)前記仮想環境内で、あたかも前記物理的オブジェクトが前記仮想環境内に含まれるかのように前記物理的オブジェクトに対する応答を生成するステップであって、前記ディスプレイ表面上に置かれた前記物理的オブジェクトのタイプに依存して、2つの異なるモードで前記物理的オブジェクトと前記仮想環境との間の対話を可能にし、前記2つの異なるモードは、
    (i)前記仮想環境が前記ディスプレイ表面上の前記物理的オブジェクトの存在に応答する第1のモードと、
    (ii)前記物理的オブジェクトが、前記物理的オブジェクトが検出された後に表示される前記仮想環境に応答する第2のモードであって、前記物理的オブジェクトは、前記仮想環境の変化に応答してユーザが知覚することができる能動的機能を実行する能動的オブジェクトを備える、第2のモードとを含む
    生成するステップと
    を備えることを特徴とする方法。
  2. 前記ディスプレイ表面上の前記物理的オブジェクトの位置の変化を感知することにより、前記ディスプレイ表面に対する前記物理的オブジェクトの動きを追跡するステップをさらに備えることを特徴とする請求項1に記載の方法。
  3. 前記第2のモードで前記物理的オブジェクトに対する前記応答を生成するステップは、前記ディスプレイ表面に対する前記物理的オブジェクトの前記動きに応答して、前記仮想環境内の少なくとも1つのパラメータの値を変更するステップを含むことを特徴とする請求項2に記載の方法。
  4. 前記第1のモードで前記応答を生成するステップは、前記仮想環境内で仮想オブジェクトが前記物理的オブジェクトと対話するようにさせるステップを含むことを特徴とする請求項1に記載の方法。
  5. 前記物理的オブジェクトとの前記仮想オブジェクトの前記対話は、前記仮想オブジェクトが、前記ディスプレイ表面上に前記物理的オブジェクトが置かれた前記仮想環境内の領域を通過しないよう制御するステップを含むことを特徴とする請求項4に記載の方法。
  6. 前記第1のモードにおいて前記物理的オブジェクトのサイズと形状の少なくともどちらかを検出して、前記仮想環境内で前記物理的オブジェクトに対する事前定義された応答を可能にするステップをさらに備えることを特徴とする請求項1に記載の方法。
  7. 前記ディスプレイ表面の下で光学的に検出される事前定義されたパターンで符号化された、前記物理的オブジェクトから反射された前記光に基づき、前記物理的オブジェクトを識別するステップをさらに備えることを特徴とする請求項1に記載の方法。
  8. 前記仮想環境が前記第1のモードで応答する前記物理的オブジェクトは、能動的機能を全く実行しない受動的オブジェクトを含むことを特徴とする請求項7に記載の方法。
  9. 前記仮想環境内において前記第2のモードで、前記能動的オブジェクトによって検出され、前記能動的オブジェクトが前記能動的機能を実行するようにさせる信号を生成するステップをさらに備えることを特徴とする請求項に記載の方法。
  10. 前記能動的機能は、
    (a)前記能動的オブジェクトの視覚的に認識できる状態、
    (b)前記能動的オブジェクトの聴覚的に認識できる状態、
    (c)前記ディスプレイ表面上の前記能動的オブジェクトの動き、および
    (d)前記能動的オブジェクトの少なくとも一部分の振動
    の1つを生成するステップを含むことを特徴とする請求項に記載の方法。
  11. 前記能動的オブジェクトは、可動であり、前記能動的機能の実行により、前記ディスプレイ表面上で該能動的オブジェクトことを特徴とする請求項に記載の方法。
  12. 前記能動的オブジェクトの前記能動的機能が前記ユーザによって制御されることを可能にするステップをさらに備えることを特徴とする請求項に記載の方法。
  13. 前記能動的オブジェクトによって実行される前記能動的機能が、前記仮想環境を生成するソフトウェアプログラムによって制御されることを可能にするステップをさらに備えることを特徴とする請求項に記載の方法。
  14. バッテリと充電されたキャパシタのどちらかによって前記能動的オブジェクトに電力が供給され、前記能動的オブジェクトが、前記能動的機能を実行することを可能にすることを特徴とする請求項に記載の方法。
  15. 前記物理的オブジェクトの前記位置に限定され、前記ディスプレイ表面上の前記物理的オブジェクトの前記位置で、前記物理的オブジェクトを介して見える投影されたイメージを表示して、前記物理的オブジェクトを介して見える前記投影されたイメージが、前記物理的オブジェクトの一部として見えるようにするが、前記ディスプレイ表面上に表示された前記仮想環境の全体的イメージの一部であるステップをさらに備えることを特徴とする請求項1に記載の方法。
  16. (a)前記ディスプレイ表面上の仮想オブジェクトと情報のどちらかを含む仮想エンティティを表示するステップと、
    (b)前記仮想オブジェクトと前記ディスプレイ表面上に置かれた前記物理的オブジェクトとの間の視覚的干渉を避けるように選択された位置で、前記仮想エンティティを表示するステップと
    をさらに備えることを特徴とする請求項1に記載の方法。
  17. 前記物理的オブジェクトに対する前記干渉を避けるように前記仮想エンティティを選択的に表示することができる複数の優先順位付けされた位置を提供し、より高い優先順位を有する位置が、前記物理的オブジェクトに対する前記干渉を避けるように、前記仮想エンティティの表示のために選択されるステップをさらに備えることを特徴とする請求項16に記載の方法。
  18. 前記仮想エンティティを視覚的に認識する特定のユーザの位置を判定し、前記物理的オブジェクトに視覚的に干渉することも回避しながら、前記特定のユーザが前記仮想エンティティを容易に視覚的に認識するのを促すように自動的に選択された位置で、前記仮想エンティティを方向付け、表示するステップをさらに備えることを特徴とする請求項16に記載の方法。
  19. 前記仮想エンティティのサイズを小さくして、前記仮想エンティティが前記ディスプレイ表面上に表示される位置で前記物理的オブジェクトに干渉するのを避けるようにするステップをさらに備えることを特徴とする請求項16に記載の方法。
  20. 前記仮想エンティティの形状を再フォーマットして、前記仮想エンティティが前記ディスプレイ表面上に表示される位置で前記物理的オブジェクトに干渉するのを避けるようにするステップをさらに備えることを特徴とする請求項16に記載の方法。
  21. 請求項1に記載のステップを実行するためのマシン実行可能命令が格納されていることを特徴とする記憶媒体。
  22. 仮想環境と物理的オブジェクトとの間の対話を可能にするためのシステムであって、
    (a)(i)前記仮想環境が表示されるディスプレイ表面と、
    (ii)前記ディスプレイ表面上に置かれた物理的オブジェクトを検出するためのセンサと
    を含む対話型ディスプレイと、
    (b)前記対話型ディスプレイに結合されたプロセッサと、
    (c)前記プロセッサに結合され、前記プロセッサによって実行されると、前記プロセッサに複数の機能を実行させるマシン命令を格納するメモリであって、該複数の機能は、
    (i)前記センサを使用して、前記物理的オブジェクトが、前記仮想環境が表示されるディスプレイ表面上に置かれた場合、前記物理的オブジェクト、および前記物理的オブジェクトの位置を検出する機能と、
    (ii)前記仮想環境内で、あたかも前記物理的オブジェクトが前記仮想環境内に含まれるかのように前記物理的オブジェクトに対する応答を生成する機能であって、前記ディスプレイ表面上に置かれた前記物理的オブジェクトのタイプに依存して、2つの異なるモードで前記物理的オブジェクトと前記仮想環境との間の対話を可能にし、前記2つの異なるモードは、
    (i)前記仮想環境が前記ディスプレイ表面上の前記物理的オブジェクトの存在に応答する第1のモードと、
    (ii)前記物理的オブジェクトが、前記物理的オブジェクトが検出された後に表示される前記仮想環境に応答する第2のモードであって、前記物理的オブジェクトは、前記仮想環境の変化に応答してユーザが知覚することができる能動的機能を実行する能動的オブジェクトを備える、第2のモードとを含む
    生成する機能と
    を含むメモリと
    を備えたことを特徴とするシステム。
  23. 前記センサは、前記ディスプレイ表面の下に配置され、前記ディスプレイ表面上の前記位置に配置された前記物理的オブジェクトから反射された光を検出するカメラを含むことを特徴とする請求項22に記載のシステム。
  24. 前記仮想環境は、前記ディスプレイ表面の下から前記ディスプレイ表面上に投影されることを特徴とする請求項22に記載のシステム。
  25. 前記マシン命令はさらに、前記プロセッサに、前記ディスプレイ表面上の前記物理的オブジェクトの前記位置の変化を感知することにより、前記ディスプレイ表面に対する前記物理的オブジェクトの動きを追跡するための、前記カメラからの信号を処理させることを特徴とする請求項23に記載のシステム。
  26. 前記プロセッサは、前記ディスプレイ表面に対する前記物理的オブジェクトの前記動きに応答して、前記仮想環境内の少なくとも1つのパラメータの値を変更することにより、前記第1のモードで前記物理的オブジェクトに対する前記応答を生成することを特徴とする請求項25に記載のシステム。
  27. 前記プロセッサは、前記仮想環境内の仮想オブジェクトが前記物理的オブジェクトと対話するようにさせることにより、前記第1のモードで前記物理的オブジェクトに対する前記応答を生成することを特徴とする請求項22に記載のシステム。
  28. プロセッサは、前記仮想オブジェクトが、前記物理的オブジェクトが前記仮想環境内に配置されている前記仮想環境内の領域を通過しないよう制御することにより、前記仮想オブジェクトに前記物理的オブジェクトと対話させることを特徴とする請求項27に記載のシステム。
  29. 前記プロセッサは、前記センサを使用して前記物理的オブジェクトのサイズと形状の少なくともどちらかを検出して、前記物理的オブジェクトに対する事前定義された応答が前記仮想環境内で実行されることを可能にすることを特徴とする請求項22に記載のシステム。
  30. 前記マシン命令はさらに、前記プロセッサに前記センサを使用して、前記センサによって光学的に検出される事前定義されたパターンで符号化された、前記物理的オブジェクトから反射された光に基づき、前記物理的オブジェクトを識別させることを特徴とする請求項22に記載のシステム。
  31. 前記仮想環境が前記第1のモードで応答する前記物理的オブジェクトは、能動的機能を全く実行しない受動的オブジェクトを含むことを特徴とする請求項30に記載のシステム。
  32. 前記マシン命令はさらに、前記プロセッサに、前記能動的オブジェクトによって検出される信号を前記対話型ディスプレイを使用して生成させ、前記能動的オブジェクトに、前記能動的機能を前記第2のモードで実行させることを特徴とする請求項22に記載のシステム。
  33. 前記能動的機能は、
    (a)前記能動的オブジェクトの視覚的に認識できる状態
    (b)前記能動的オブジェクトの聴覚的に認識できる状態、
    (c)前記ディスプレイ表面上の前記能動的オブジェクトの動き、および
    (d)前記能動的オブジェクトの少なくとも一部分の振動
    の1つを含むことを特徴とする請求項23に記載のシステム。
  34. 前記能動的オブジェクトは、可動であり、前記能動的機能の実行により、前記ディスプレイ表面上で該能動的オブジェクトことを特徴とすることを特徴とする請求項22に記載のシステム。
  35. 前記能動的オブジェクトの前記能動的機能は、ユーザによって制御されることを特徴とする請求項22に記載のシステム。
  36. 前記プロセッサは、前記能動的オブジェクトのユーザによる制御を制限して、好ましくない結果を防止することを特徴とする請求項35に記載のシステム。
  37. 前記能動的オブジェクトによって実行される前記能動的機能は、前記マシン命令に応答して前記プロセッサによって制御されることを特徴とする請求項22に記載のシステム。
  38. バッテリと充電されたキャパシタのどちらかによって前記能動的オブジェクトに電力が供給され、前記能動的オブジェクトが、前記能動的機能を実行することを可能にすることを特徴とする請求項22に記載のシステム。
  39. 前記対話型ディスプレイは、前記物理的オブジェクトの前記位置に限定され、前記ディスプレイ表面上の前記物理的オブジェクトの前記位置で、前記物理的オブジェクトを介して見える投影されたイメージを表示するためのプロジェクタを含み、前記物理的オブジェクトを介して見える前記投影されたイメージが、前記物理的オブジェクトの一部として見えるようにするが、前記ディスプレイ表面上に表示された前記仮想環境の全体的イメージの一部であることを特徴とする請求項22に記載のシステム。
  40. 前記マシン命令はさらに、前記プロセッサに、前記対話型ディスプレイ上に仮想エンティティを表示させ、前記仮想エンティティは、前記仮想エンティティと前記ディスプレイ表面上に配置された前記物理的オブジェクトとの間の視覚的干渉を避けるように選択された位置で前記ディスプレイ表面上に見える仮想オブジェクトと情報のどちらかを含むことを特徴とする請求項22に記載のシステム。
  41. 前記マシン命令は、前記物理的オブジェクトに対する前記視覚的干渉を避けるように、前記仮想エンティティが、前記プロセッサによって前記対話型ディスプレイを使用して選択的に表示されることが可能な複数の優先順位付けされた位置を定義し、より高い優先順位を有する位置が、前記仮想エンティティが前記物理的オブジェクトに視覚的に干渉するのを避けるように、前記仮想エンティティの表示のために選択されることを特徴とする請求項40に記載のシステム。
  42. 前記マシン命令はさらに、前記プロセッサに、前記対話型ディスプレイ上の前記仮想エンティティを視覚的に認識する特定のユーザの位置を特定させ、前記物理的オブジェクトに視覚的に干渉することも回避しながら、前記特定のユーザが前記仮想エンティティを容易に視覚的に認識するのを促すように選択された位置で、前記仮想エンティティが方向付けられ、表示されるようにすることを特徴とする請求項40に記載のシステム。
  43. 前記マシン命令はさらに、前記プロセッサに、前記仮想エンティティのサイズを小さくさせ、前記仮想エンティティが前記ディスプレイ表面上に表示される位置で前記物理的オブジェクトに干渉するのを避けるようにすることを特徴とする請求項40に記載のシステム。
JP2005134420A 2004-04-29 2005-05-02 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム Expired - Fee Related JP4916126B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/834,675 2004-04-29
US10/834,675 US7394459B2 (en) 2004-04-29 2004-04-29 Interaction between objects and a virtual environment display

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011200893A Division JP5330473B2 (ja) 2004-04-29 2011-09-14 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム

Publications (2)

Publication Number Publication Date
JP2005317032A JP2005317032A (ja) 2005-11-10
JP4916126B2 true JP4916126B2 (ja) 2012-04-11

Family

ID=35187796

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2005134420A Expired - Fee Related JP4916126B2 (ja) 2004-04-29 2005-05-02 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム
JP2011200893A Expired - Fee Related JP5330473B2 (ja) 2004-04-29 2011-09-14 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011200893A Expired - Fee Related JP5330473B2 (ja) 2004-04-29 2011-09-14 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム

Country Status (3)

Country Link
US (2) US7394459B2 (ja)
EP (1) EP1621985A3 (ja)
JP (2) JP4916126B2 (ja)

Families Citing this family (297)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US8160994B2 (en) * 1999-07-21 2012-04-17 Iopener Media Gmbh System for simulating events in a real environment
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20100009745A1 (en) * 2008-07-10 2010-01-14 Stockdale James W Method and apparatus for enhancing player interaction in connection with a multi-player gaming table
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
WO2004055776A1 (en) 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
WO2005041578A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for managing an interactive video display system
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
WO2005045729A1 (de) * 2003-11-10 2005-05-19 Siemens Aktiengesellschaft System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
US7379562B2 (en) * 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7787706B2 (en) 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7358962B2 (en) * 2004-06-15 2008-04-15 Microsoft Corporation Manipulating association of data with a physical object
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US20060050070A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
US20060072009A1 (en) * 2004-10-01 2006-04-06 International Business Machines Corporation Flexible interaction-based computer interfacing using visible artifacts
US7576725B2 (en) * 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
JP2006145645A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 情報表示装置
EP1817088B1 (en) * 2004-11-24 2014-06-25 Koninklijke Philips N.V. Privacy overlay for interactive display tables
US8210920B2 (en) 2005-01-24 2012-07-03 Jay Chun Methods and systems for playing baccarat jackpot
US8308559B2 (en) 2007-05-07 2012-11-13 Jay Chun Paradise box gaming system
US7922587B2 (en) 2005-01-24 2011-04-12 Jay Chun Betting terminal and system
US7914368B2 (en) 2005-08-05 2011-03-29 Jay Chun Methods and systems for playing baccarat jackpot with an option for insurance betting
US8920238B2 (en) 2005-01-24 2014-12-30 Jay Chun Gaming center allowing switching between games based upon historical results
US9940778B2 (en) 2005-01-24 2018-04-10 Igt System for monitoring and playing a plurality of live casino table games
US20060166726A1 (en) 2005-01-24 2006-07-27 Jay Chun Methods and systems for playing baccarat jackpot
JP4201775B2 (ja) * 2005-03-02 2008-12-24 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置の制御方法及びプログラム
US7479967B2 (en) * 2005-04-11 2009-01-20 Systems Technology Inc. System for combining virtual and real-time environments
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
JP4642538B2 (ja) * 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
GB2425356B (en) * 2005-04-20 2010-01-06 Richard Bruce Welch Sports game apparatus and method
US7265370B2 (en) * 2005-04-28 2007-09-04 Hewlett-Packard Development Company, L.P. Sensing light
US7499027B2 (en) * 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
ITPI20050062A1 (it) * 2005-06-10 2006-12-11 Scuola Superiore Di Studi Univ Sistema di collaborazione multisensoriale a distanza
US7970870B2 (en) * 2005-06-24 2011-06-28 Microsoft Corporation Extending digital artifacts through an interactive surface
US7760897B2 (en) * 2005-06-27 2010-07-20 Hewlett-Packard Development Company, L.P. Communicating audio data
US7525538B2 (en) * 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
EP1919219A4 (en) * 2005-07-11 2010-12-01 Sharp Kk VIDEO ENTRY DEVICE, VIDEO DISPLAY DEVICE, VIDEO END PROCEDURE AND VIDEO DISPLAY METHOD
KR101317171B1 (ko) 2005-08-03 2013-10-15 켄지 요시다 정보 출력장치, 매체 및 정보 입출력 장치
US7911444B2 (en) * 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US8221242B2 (en) * 2005-10-14 2012-07-17 Leviathan Entertainment, Llc Products and processes for providing a video game incorporating venture capital funding
US7666095B2 (en) * 2005-10-14 2010-02-23 Leviathan Entertainment, Llc Securing contracts in a virtual world
US7677975B2 (en) * 2005-10-14 2010-03-16 Leviathan Entertainment, Llc Video game with registration of funding sources
US7651395B2 (en) * 2005-10-14 2010-01-26 Leviathan Entertainment, Llc Video game with venture capital funding voting
US8007339B2 (en) 2005-11-04 2011-08-30 Mattel, Inc. Virtual character video toy with movable display
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US20090046140A1 (en) * 2005-12-06 2009-02-19 Microvision, Inc. Mobile Virtual Reality Projector
US20110111849A1 (en) * 2005-12-06 2011-05-12 Microvision, Inc. Spatially Aware Mobile Projection
US20070282564A1 (en) * 2005-12-06 2007-12-06 Microvision, Inc. Spatially aware mobile projection
WO2007067720A2 (en) * 2005-12-06 2007-06-14 Microvision, Inc. Projection display with motion compensation
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7630002B2 (en) * 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
US7843471B2 (en) * 2006-03-09 2010-11-30 International Business Machines Corporation Persistent authenticating mechanism to map real world object presence into virtual world object awareness
US8578282B2 (en) * 2006-03-15 2013-11-05 Navisense Visual toolkit for a virtual user interface
US20070218431A1 (en) * 2006-03-17 2007-09-20 Cheng-Chih Chien Interactive learning appliance and method
US20090081624A1 (en) * 2006-03-17 2009-03-26 Afaya Technology Corporation Interactive learning appliance
EP2004299A2 (en) * 2006-03-22 2008-12-24 Home Focus Development Limited Interactive playmat
JP4847184B2 (ja) * 2006-04-06 2011-12-28 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
WO2007127258A2 (en) * 2006-04-27 2007-11-08 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
US7607962B2 (en) * 2006-05-04 2009-10-27 Mattel, Inc. Electronic toy with alterable features
JP4019114B1 (ja) 2006-09-04 2007-12-12 株式会社I・Pソリューションズ 情報出力装置
US8062089B2 (en) 2006-10-02 2011-11-22 Mattel, Inc. Electronic playset
US8292689B2 (en) 2006-10-02 2012-10-23 Mattel, Inc. Electronic playset
WO2008045464A2 (en) 2006-10-10 2008-04-17 Wms Gaming Inc. Multi-player, multi-touch table for use in wagering game systems
JP4933304B2 (ja) * 2006-10-16 2012-05-16 キヤノン株式会社 画像処理装置、その制御方法及びプログラム
US10908421B2 (en) 2006-11-02 2021-02-02 Razer (Asia-Pacific) Pte. Ltd. Systems and methods for personal viewing devices
US9891435B2 (en) * 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
US9292996B2 (en) 2006-12-19 2016-03-22 Igt Distributed side wagering methods and systems
US20080163052A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for multi-modal fusion of physical and virtual information channels
US20080158223A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for dynamic adaptability of content and channels
US20080159328A1 (en) * 2007-01-02 2008-07-03 International Business Machines Corporation Method and system for in-context assembly of interactive actionable insights and modalities in physical spaces
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US7979315B2 (en) * 2007-03-14 2011-07-12 Microsoft Corporation Virtual features of physical items
US8199117B2 (en) * 2007-05-09 2012-06-12 Microsoft Corporation Archive for physical and digital objects
TWI330804B (en) * 2007-07-23 2010-09-21 Sunplus Mmedia Inc Remote controlled positioning system, control system and display device thereof
US11136234B2 (en) 2007-08-15 2021-10-05 Bright Cloud International Corporation Rehabilitation systems and methods
US20090131225A1 (en) * 2007-08-15 2009-05-21 Burdea Grigore C Rehabilitation systems and methods
US9569088B2 (en) * 2007-09-04 2017-02-14 Lg Electronics Inc. Scrolling method of mobile terminal
US9053529B2 (en) * 2007-09-11 2015-06-09 Smart Internet Crc Pty Ltd System and method for capturing digital images
WO2009033217A1 (en) * 2007-09-11 2009-03-19 Smart Internet Technology Crc Pty Ltd Systems and methods for remote file transfer
EP2201440A4 (en) * 2007-09-11 2012-08-29 Smart Internet Technology Crc Pty Ltd INTERFACE ELEMENT FOR A COMPUTER INTERFACE
AU2008299579B2 (en) * 2007-09-11 2014-03-27 Cruiser Interactive Pty Ltd A system and method for manipulating digital images on a computer display
AU2008299883B2 (en) 2007-09-14 2012-03-15 Facebook, Inc. Processing of gesture-based user interactions
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
US20090106667A1 (en) * 2007-10-19 2009-04-23 International Business Machines Corporation Dividing a surface of a surface-based computing device into private, user-specific areas
US8545321B2 (en) * 2007-11-09 2013-10-01 Igt Gaming system having user interface with uploading and downloading capability
US8439756B2 (en) * 2007-11-09 2013-05-14 Igt Gaming system having a display/input device configured to interactively operate with external device
US7976372B2 (en) 2007-11-09 2011-07-12 Igt Gaming system having multiple player simultaneous display/input device
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
TWI341779B (en) * 2007-12-04 2011-05-11 Ind Tech Res Inst Sytstem and method for graphically arranging robot's working space
ES2333688B1 (es) * 2007-12-10 2011-01-17 Universitat Pompeu Fabra Dispositivo interactivo.
JP2009165577A (ja) * 2008-01-15 2009-07-30 Namco Ltd ゲームシステム
KR100963238B1 (ko) * 2008-02-12 2010-06-10 광주과학기술원 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8167700B2 (en) * 2008-04-16 2012-05-01 Universal Entertainment Corporation Gaming device
US8152638B2 (en) 2008-04-16 2012-04-10 Universal Entertainment Corporation Gaming machine and gaming management system
US8042949B2 (en) * 2008-05-02 2011-10-25 Microsoft Corporation Projection of images onto tangible user interfaces
US8952894B2 (en) * 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
JP5452887B2 (ja) * 2008-05-26 2014-03-26 株式会社タイトー ゲーム装置、ペン入力デバイス
WO2012033863A1 (en) 2010-09-09 2012-03-15 Tweedletech, Llc A board game with dynamic characteristic tracking
US8974295B2 (en) * 2008-06-03 2015-03-10 Tweedletech, Llc Intelligent game system including intelligent foldable three-dimensional terrain
US8602857B2 (en) 2008-06-03 2013-12-10 Tweedletech, Llc Intelligent board game system with visual marker based game object tracking and identification
US10155156B2 (en) 2008-06-03 2018-12-18 Tweedletech, Llc Multi-dimensional game comprising interactive physical and virtual components
US9649551B2 (en) 2008-06-03 2017-05-16 Tweedletech, Llc Furniture and building structures comprising sensors for determining the position of one or more objects
WO2009149112A1 (en) * 2008-06-03 2009-12-10 Tweedletech, Llc An intelligent game system for putting intelligence into board and tabletop games including miniatures
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
JP5403953B2 (ja) * 2008-06-13 2014-01-29 株式会社タイトー 透明カードを用いたカードゲーム機
US8890842B2 (en) 2008-06-13 2014-11-18 Steelcase Inc. Eraser for use with optical interactive surface
US8241912B2 (en) * 2008-06-26 2012-08-14 Wms Gaming Inc. Gaming machine having multi-touch sensing device
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US8284170B2 (en) 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US8529345B2 (en) 2008-10-02 2013-09-10 Igt Gaming system including a gaming table with mobile user input devices
JP4793422B2 (ja) * 2008-10-10 2011-10-12 ソニー株式会社 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
GB2466023A (en) * 2008-12-08 2010-06-09 Light Blue Optics Ltd Holographic Image Projection Systems
US8375311B2 (en) * 2009-03-24 2013-02-12 Disney Enterprises, Inc. System and method for determining placement of a virtual object according to a real-time performance
US20110256927A1 (en) * 2009-03-25 2011-10-20 MEP Games Inc. Projection of interactive game environment
US9971458B2 (en) 2009-03-25 2018-05-15 Mep Tech, Inc. Projection of interactive environment
US20110165923A1 (en) * 2010-01-04 2011-07-07 Davis Mark L Electronic circle game system
US8392853B2 (en) * 2009-07-17 2013-03-05 Wxanalyst, Ltd. Transparent interface used to independently manipulate and interrogate N-dimensional focus objects in virtual and real visualization systems
KR101993848B1 (ko) 2009-07-22 2019-06-28 임머숀 코퍼레이션 플랫폼에 걸쳐 햅틱 피드백을 갖는 상호작용 터치 스크린 게임 메타포
US9595108B2 (en) 2009-08-04 2017-03-14 Eyecue Vision Technologies Ltd. System and method for object extraction
JP2013501304A (ja) 2009-08-04 2013-01-10 アイキュー ビジョン テクノロジーズ リミテッド 対象物抽出のためのシステム及び方法
TW201115451A (en) * 2009-10-20 2011-05-01 Ind Tech Res Inst A vectoring data transfer system and method based on sensor assisted positioning method
JP5177120B2 (ja) * 2009-11-10 2013-04-03 株式会社デンソー 遠隔操作デバイス用表示制御装置
US8328613B2 (en) * 2009-11-17 2012-12-11 Hasbro, Inc. Game tower
CA2782037A1 (en) 2009-11-30 2011-06-03 Zoll Medical Corporation Display for dual-mode medical device
CN101776836B (zh) * 2009-12-28 2013-08-07 武汉全真光电科技有限公司 投影显示系统及桌面计算机
JP5998936B2 (ja) * 2010-01-06 2016-09-28 ▲華▼▲為▼▲終▼端有限公司 ピクチャ/インターフェースを表示するための方法および端末
WO2011092609A1 (en) * 2010-01-29 2011-08-04 Koninklijke Philips Electronics N.V. Interactive lighting control system and method
US8928579B2 (en) * 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
KR101065408B1 (ko) * 2010-03-17 2011-09-16 삼성모바일디스플레이주식회사 터치 표시 장치
CN103127716B (zh) * 2010-03-22 2015-09-16 美泰有限公司 电子装置及数据的输入和输出
US9110540B2 (en) * 2010-04-07 2015-08-18 O-Net Wavetouch Limited Touch-sensitive device and method for detection of touch
US20110281252A1 (en) * 2010-05-11 2011-11-17 Pandya Shefali A Methods and systems for reducing the number of textbooks used in educational settings
JP2011239949A (ja) * 2010-05-18 2011-12-01 Taito Corp 湾曲または折曲画面を用いたゲーム機筐体構造
US9501145B2 (en) * 2010-05-21 2016-11-22 Disney Enterprises, Inc. Electrovibration for touch surfaces
TWM397186U (en) * 2010-07-06 2011-02-01 Nlighten Trading Shanghai Co Ltd Structure of the waterproof tabletop for the touch panel
US20120007808A1 (en) 2010-07-08 2012-01-12 Disney Enterprises, Inc. Interactive game pieces using touch screen devices for toy play
US9274641B2 (en) * 2010-07-08 2016-03-01 Disney Enterprises, Inc. Game pieces for use with touch screen devices and related methods
CN102335510B (zh) * 2010-07-16 2013-10-16 华宝通讯股份有限公司 人机互动系统
US8780085B2 (en) * 2010-08-03 2014-07-15 Microsoft Corporation Resolution enhancement
JP2012040076A (ja) * 2010-08-16 2012-03-01 Sega Toys:Kk 玩具セット
JP2012064201A (ja) * 2010-08-19 2012-03-29 Semiconductor Energy Lab Co Ltd 入出力装置及び入出力装置の駆動方法
JP5814532B2 (ja) * 2010-09-24 2015-11-17 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
US9418479B1 (en) * 2010-12-23 2016-08-16 Amazon Technologies, Inc. Quasi-virtual objects in an augmented reality environment
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9342186B2 (en) * 2011-05-20 2016-05-17 William Mark Forti Systems and methods of using interactive devices for interacting with a touch-sensitive electronic display
JP5880916B2 (ja) 2011-06-03 2016-03-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US9858552B2 (en) * 2011-06-15 2018-01-02 Sap Ag Systems and methods for augmenting physical media from multiple locations
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
GB201110156D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch-sensitive display devices
GB201110159D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
US8298081B1 (en) 2011-06-16 2012-10-30 Igt Gaming system, gaming device and method for providing multiple display event indicators
GB201110157D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
US9241082B2 (en) * 2011-08-20 2016-01-19 Darwin Hu Method and apparatus for scanning through a display screen
GB201117542D0 (en) 2011-10-11 2011-11-23 Light Blue Optics Ltd Touch-sensitive display devices
US9337926B2 (en) 2011-10-31 2016-05-10 Nokia Technologies Oy Apparatus and method for providing dynamic fiducial markers for devices
JP2015501984A (ja) 2011-11-21 2015-01-19 ナント ホールディングス アイピー,エルエルシー 加入請求書サービス、システムおよび方法
EP2783269B1 (en) * 2011-11-23 2018-10-31 Intel Corporation GESTURE INPUT WITH MULTIPLE VIEWS and DISPLAYS
US9950247B2 (en) * 2012-01-17 2018-04-24 Multimorphic, Inc. Pinball machine
US9604129B2 (en) * 2012-01-17 2017-03-28 Multimorphic Inc. Pinball machine with animated playfield components and automatic level detection
US9468841B2 (en) * 2012-01-17 2016-10-18 Multimorphic, Inc. Pinball machine with configurable playfield
US11511182B2 (en) * 2012-01-17 2022-11-29 Multimorphic, Inc. Deploying components in a pinball machine
US9604128B2 (en) * 2012-01-17 2017-03-28 Multimorphic Inc. Pinball machine with hybrid playfield
GB2513498A (en) 2012-01-20 2014-10-29 Light Blue Optics Ltd Touch sensitive image display devices
US20140362052A1 (en) 2012-01-20 2014-12-11 Light Blue Optics Ltd Touch Sensitive Image Display Devices
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8493354B1 (en) 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8605114B2 (en) 2012-02-17 2013-12-10 Igt Gaming system having reduced appearance of parallax artifacts on display devices including multiple display screens
US9372568B2 (en) * 2012-03-05 2016-06-21 Beijing Lenovo Software Ltd. Method, device and system for interacting
DE102012203859B3 (de) 2012-03-13 2013-09-19 Markus Hartmann Faltrad
GB201205303D0 (en) 2012-03-26 2012-05-09 Light Blue Optics Ltd Touch sensing systems
US9132346B2 (en) 2012-04-04 2015-09-15 Kenneth J. Huebner Connecting video objects and physical objects for handheld projectors
KR101793628B1 (ko) * 2012-04-08 2017-11-06 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
US20130302777A1 (en) * 2012-05-14 2013-11-14 Kidtellect Inc. Systems and methods of object recognition within a simulation
US8570296B2 (en) 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
KR20130139622A (ko) * 2012-06-13 2013-12-23 한국전자통신연구원 융합보안 관제 시스템 및 방법
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US9741145B2 (en) * 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
US9389682B2 (en) * 2012-07-02 2016-07-12 Sony Interactive Entertainment Inc. Methods and systems for interaction with an expanded information space
FR2993079B1 (fr) * 2012-07-03 2015-12-18 Editions Volumiques Dispositif plateau numerique a halo de territoire
US9317109B2 (en) 2012-07-12 2016-04-19 Mep Tech, Inc. Interactive image projection accessory
US20140080638A1 (en) * 2012-09-19 2014-03-20 Board Of Regents, The University Of Texas System Systems and methods for providing training and instruction to a football kicker
AU2013327323B2 (en) 2012-10-02 2017-03-30 Igt System and method for providing remote wagering games in live table game system
US20140098063A1 (en) * 2012-10-10 2014-04-10 Research In Motion Limited Electronic device with proximity sensing
US9320330B2 (en) * 2012-10-30 2016-04-26 Ek Success Ltd. Beading board device for a tablet computer and tablet computer program for use with same
US9122330B2 (en) 2012-11-19 2015-09-01 Disney Enterprises, Inc. Controlling a user's tactile perception in a dynamic physical environment
US9511276B2 (en) 2012-11-30 2016-12-06 Michael S. Caffrey Gaming system using gaming surface having computer readable indicia and method of using same
US8726172B1 (en) 2012-12-26 2014-05-13 Disney Enterprises, Inc. Managing an environment of a virtual space based on characters made accessible responsive to corresponding tokens being detected
US8909920B2 (en) 2012-12-26 2014-12-09 Disney Enterprises, Inc. Linking token detection at a single computing platform with a user identification to effectuate modifications in virtual space instances presented via multiple computing platforms
US9327200B2 (en) 2012-12-26 2016-05-03 Disney Enterprises, Inc. Managing a theme of a virtual space based on characters made accessible responsive to corresponding tokens being detected
US9457263B2 (en) 2012-12-26 2016-10-04 Disney Enterprises, Inc. Unlocking virtual items in a virtual space responsive to physical token detection
US9517404B2 (en) 2012-12-26 2016-12-13 Disney Enterprises, Inc. Apparatus, system, and method for effectuating modifications to a virtual space responsive to token detection
US20140179444A1 (en) * 2012-12-26 2014-06-26 Disney Enterprises, Inc. Apparatus, system, and method for effectuating modifications to characters and/or virtual items within a virtual space responsive to token detection
US8986115B2 (en) 2012-12-26 2015-03-24 Disney Enterprises, Inc. Facilitating customization of a virtual space based on accessible virtual items
US8972369B2 (en) 2012-12-26 2015-03-03 Disney Enterprises, Inc. Providing a common virtual item repository in a virtual space
US9387407B2 (en) 2012-12-26 2016-07-12 Disney Enterprises, Inc. Managing objectives associated with a virtual space based on characters made accessible responsive to corresponding tokens being detected
CN103929909A (zh) 2013-01-04 2014-07-16 美泰有限公司 用于便携式电子装置的保护壳
USD748200S1 (en) 2013-01-15 2016-01-26 Disney Enterprises, Inc. Power disk reader
USD748199S1 (en) 2013-01-15 2016-01-26 Disney Enterprises, Inc. Multi-sided power disk
US8904298B2 (en) 2013-03-15 2014-12-02 Disney Enterprises, Inc. Effectuating modifications within an instance of a virtual space presented via multiple disparate client computing platforms responsive to detection of a token associated with a single client computing platform
JP5900393B2 (ja) * 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
US9489772B2 (en) * 2013-03-27 2016-11-08 Intel Corporation Environment actuation by one or more augmented reality elements
US9576422B2 (en) 2013-04-18 2017-02-21 Bally Gaming, Inc. Systems, methods, and devices for operating wagering game machines with enhanced user interfaces
EP2796977A1 (en) * 2013-04-24 2014-10-29 Cartamundi Turnhout N.V. A method for interfacing between a device and information carrier with transparent area(s)
US9639984B2 (en) 2013-06-03 2017-05-02 Daqri, Llc Data manipulation based on real world object manipulation
US20140368425A1 (en) * 2013-06-12 2014-12-18 Wes A. Nagara Adjusting a transparent display with an image capturing device
US8821239B1 (en) 2013-07-22 2014-09-02 Novel Tech International Limited Gaming table system allowing player choices and multiple outcomes thereby for a single game
US9778546B2 (en) 2013-08-15 2017-10-03 Mep Tech, Inc. Projector for projecting visible and non-visible images
US8684830B1 (en) 2013-09-03 2014-04-01 Novel Tech International Limited Individually paced table game tournaments
US9595159B2 (en) 2013-10-01 2017-03-14 Igt System and method for multi-game, multi-play of live dealer games
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9011246B1 (en) * 2013-11-18 2015-04-21 Scott Kier Systems and methods for immersive backgrounds
KR101562901B1 (ko) 2013-12-23 2015-10-26 한국과학기술원 대화 지원 서비스 제공 시스템 및 방법
US20170039030A1 (en) * 2013-12-27 2017-02-09 Sony Corporation Display control device, display control method, and program
US9761059B2 (en) * 2014-01-03 2017-09-12 Intel Corporation Dynamic augmentation of a physical scene
US10169957B2 (en) 2014-02-13 2019-01-01 Igt Multiple player gaming station interaction systems and methods
US10510189B2 (en) 2014-04-16 2019-12-17 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, and information processing method
US10518188B2 (en) * 2014-06-30 2019-12-31 Microsoft Technology Licensing, Llc Controlling physical toys using a physics engine
JP6390277B2 (ja) * 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US10270985B2 (en) 2014-09-03 2019-04-23 Intel Corporation Augmentation of textual content with a digital scene
US10369477B2 (en) 2014-10-08 2019-08-06 Microsoft Technology Licensing, Llc Management of resources within a virtual world
US9696757B2 (en) 2014-10-08 2017-07-04 Microsoft Corporation Transfer of attributes between generations of characters
GB2532025A (en) * 2014-11-05 2016-05-11 Virtual Coherence Ltd A mixed-reality system for intelligent virtual object interaction
GB2532075A (en) * 2014-11-10 2016-05-11 Lego As System and method for toy recognition and detection based on convolutional neural networks
JP2016110469A (ja) 2014-12-09 2016-06-20 レノボ・シンガポール・プライベート・リミテッド 協働動作をする情報処理装置、携帯式電子機器、および位置の特定方法
JP6586758B2 (ja) * 2015-03-31 2019-10-09 ソニー株式会社 情報処理システム、情報処理方法及びプログラム
US9690400B2 (en) 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
WO2016198090A1 (fr) 2015-06-08 2016-12-15 Battlekart Europe Système de création d'un environnement
US9672747B2 (en) 2015-06-15 2017-06-06 WxOps, Inc. Common operating environment for aircraft operations
US10126636B1 (en) * 2015-06-18 2018-11-13 Steven Glenn Heppler Image projection system for a drum
US20160381171A1 (en) * 2015-06-23 2016-12-29 Intel Corporation Facilitating media play and real-time interaction with smart physical objects
US10198722B2 (en) 2015-07-15 2019-02-05 Toshiba Tec Kabushiki Kaisha Commodity-sales-data processing apparatus, commodity-sales-data processing method, and computer-readable storage medium
US9916735B2 (en) 2015-07-22 2018-03-13 Igt Remote gaming cash voucher printing system
US9898869B2 (en) 2015-09-09 2018-02-20 Microsoft Technology Licensing, Llc Tactile interaction in virtual environments
US10025375B2 (en) 2015-10-01 2018-07-17 Disney Enterprises, Inc. Augmented reality controls for user interactions with a virtual world
US10386940B2 (en) 2015-10-30 2019-08-20 Microsoft Technology Licensing, Llc Touch sensing of user input device
US20170216728A1 (en) * 2016-01-29 2017-08-03 Twin Harbor Labs Llc Augmented reality incorporating physical objects
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
US10630958B2 (en) * 2016-07-01 2020-04-21 Intel Corporation Technologies for automated projector placement for projected computing interactions
DE102016215746A1 (de) * 2016-08-23 2018-03-01 Robert Bosch Gmbh Projektor mit berührungsfreier Steuerung
US11435888B1 (en) * 2016-09-21 2022-09-06 Apple Inc. System with position-sensitive electronic device interface
US10139973B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10139930B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10496216B2 (en) * 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
JP6708540B2 (ja) * 2016-12-06 2020-06-10 株式会社バンダイ ゲーム装置及びプログラム
US10782668B2 (en) * 2017-03-16 2020-09-22 Siemens Aktiengesellschaft Development of control applications in augmented reality environment
WO2018207662A1 (ja) 2017-05-11 2018-11-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation
US10304239B2 (en) 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
US20190025906A1 (en) 2017-07-21 2019-01-24 Pearson Education, Inc. Systems and methods for virtual reality-based assessment
WO2019067482A1 (en) * 2017-09-29 2019-04-04 Zermatt Technologies Llc DISPLAYING APPLICATIONS IN A SIMULATED REALITY ENVIRONMENT ENVIRONMENT
JP6522719B2 (ja) * 2017-11-28 2019-05-29 シャープ株式会社 画像表示方法
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
US10839603B2 (en) * 2018-04-30 2020-11-17 Microsoft Technology Licensing, Llc Creating interactive zones in virtual environments
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US11237598B2 (en) * 2018-11-15 2022-02-01 Dell Products, L.P. Application management for multi-form factor information handling system (IHS)
US10860120B2 (en) 2018-12-04 2020-12-08 International Business Machines Corporation Method and system to automatically map physical objects into input devices in real time
US11245883B2 (en) * 2018-12-17 2022-02-08 Lightform, Inc. Method for augmenting surfaces in a space with visual content
US10805585B2 (en) * 2018-12-17 2020-10-13 Lightform, Inc. System and methods or augmenting surfaces within spaces with projected light
US10924639B2 (en) 2019-05-29 2021-02-16 Disney Enterprises, Inc. System and method for polarization and wavelength gated transparent displays
US11159766B2 (en) * 2019-09-16 2021-10-26 Qualcomm Incorporated Placement of virtual content in environments with a plurality of physical participants
WO2021061351A1 (en) 2019-09-26 2021-04-01 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
DE112020001415T5 (de) 2019-09-27 2021-12-09 Apple Inc. Umgebung für Fernkommunikation
US11207599B2 (en) * 2020-02-26 2021-12-28 Disney Enterprises, Inc. Gameplay system with play augmented by merchandise
US11660528B2 (en) * 2020-03-12 2023-05-30 Reavire, Inc. Populating virtual objects in physical environments
FR3110452B1 (fr) * 2020-05-20 2022-07-15 KaiKai Système de virtualisation pour plateau de jeu
US11148055B1 (en) * 2020-09-11 2021-10-19 Riot Games, Inc. Targeting of an individual object among a plurality of objects in a multi-player online video game
KR102571965B1 (ko) * 2020-12-16 2023-08-30 주식회사 이미지마이닝 레이저 및 카메라를 이용한 인터렉티브 시스템 및 인터렉티브 영상 제공 방법
US11543931B2 (en) * 2021-01-27 2023-01-03 Ford Global Technologies, Llc Systems and methods for interacting with a tabletop model using a mobile device
KR102615580B1 (ko) * 2023-02-06 2023-12-21 주식회사 에이치디엠 사용자의 움직임에 따라 캐릭터의 동작을 제어하는 캐릭터동작 제어장치 및 그 캐릭터동작 제어방법

Family Cites Families (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US618343A (en) * 1899-01-24 haiss
JP2692863B2 (ja) 1988-06-24 1997-12-17 株式会社東芝 無線電話装置
US4992650A (en) 1990-03-29 1991-02-12 International Business Machines Corporation Method and apparatus for barcode recognition in a digital image
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5319214A (en) 1992-04-06 1994-06-07 The United States Of America As Represented By The Secretary Of The Army Infrared image projector utilizing a deformable mirror device spatial light modulator
US5821930A (en) 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
US7084859B1 (en) * 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US5436639A (en) * 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
US5526177A (en) 1994-02-14 1996-06-11 Mobi Corporation Dual-view, immersible periscope
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JP3416268B2 (ja) 1994-06-30 2003-06-16 キヤノン株式会社 画像認識装置及びその方法
US5835692A (en) 1994-11-21 1998-11-10 International Business Machines Corporation System and method for providing mapping notation in interactive video displays
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
US5831601A (en) 1995-06-07 1998-11-03 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
US6239851B1 (en) 1995-10-12 2001-05-29 Ibm Corporation Planar light source device having polarization separator formed of two sheets with mating triangular prisms and different indices of refraction
US5920688A (en) 1995-11-13 1999-07-06 International Business Machines Corporation Method and operating system for manipulating the orientation of an output image of a data processing system
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US6750877B2 (en) 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
IL119498A (en) 1996-10-27 2003-02-12 Advanced Recognition Tech Application launching system
GB9622556D0 (en) * 1996-10-30 1997-01-08 Philips Electronics Nv Cursor control with user feedback mechanism
FR2756077B1 (fr) 1996-11-19 1999-01-29 Opto System Ecran tactile et dispositif de visualisation utilisant cet ecran tactile
ATE232621T1 (de) * 1996-12-20 2003-02-15 Hitachi Europ Ltd Verfahren und system zur erkennung von handgesten
US6266061B1 (en) 1997-01-22 2001-07-24 Kabushiki Kaisha Toshiba User interface apparatus and operation range presenting method
FR2765607B1 (fr) 1997-07-04 1999-09-10 Manuf Stephanoise De Transform Dispositif connecteur d'arceaux de tente
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6088019A (en) * 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
US5940076A (en) 1997-12-01 1999-08-17 Motorola, Inc. Graphical user interface for an electronic device and method therefor
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2938420B2 (ja) 1998-01-30 1999-08-23 インターナショナル・ビジネス・マシーンズ・コーポレイション ファンクション選択方法及び装置、ファンクションを選択するための制御プログラムを格納した記憶媒体、オブジェクトの操作方法及び装置、オブジェクトを操作するための制御プログラムを格納した記憶媒体、複合アイコンを格納した記憶媒体
US5973315A (en) 1998-02-18 1999-10-26 Litton Systems, Inc. Multi-functional day/night observation, ranging, and sighting device with active optical target acquisition and method of its operation
US6154214A (en) 1998-03-20 2000-11-28 Nuvomedia, Inc. Display orientation features for hand-held content display device
US6448987B1 (en) 1998-04-03 2002-09-10 Intertainer, Inc. Graphic user interface for a digital content delivery system using circular menus
US6269172B1 (en) 1998-04-13 2001-07-31 Compaq Computer Corporation Method for tracking the motion of a 3-D figure
US6111565A (en) * 1998-05-14 2000-08-29 Virtual Ink Corp. Stylus for use with transcription system
US7268774B2 (en) 1998-08-18 2007-09-11 Candledragon, Inc. Tracking motion of a writing instrument
US6088482A (en) * 1998-10-22 2000-07-11 Symbol Technologies, Inc. Techniques for reading two dimensional code, including maxicode
DE19917660A1 (de) * 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
US6522395B1 (en) 1999-04-30 2003-02-18 Canesta, Inc. Noise reduction techniques suitable for three-dimensional information acquirable with CMOS-compatible image sensor ICS
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6433907B1 (en) 1999-08-05 2002-08-13 Microvision, Inc. Scanned display with plurality of scanning assemblies
US6529183B1 (en) * 1999-09-13 2003-03-04 Interval Research Corp. Manual interface combining continuous and discrete capabilities
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP2001183994A (ja) * 1999-12-27 2001-07-06 Sony Corp 画像表示装置
JP2001265523A (ja) * 2000-03-21 2001-09-28 Sony Corp 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
JP2001337978A (ja) 2000-05-26 2001-12-07 Takashi Mine デジタル情報入力システム
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
US6812907B1 (en) 2000-07-19 2004-11-02 Hewlett-Packard Development Company, L.P. Segmented electronic display
US7161578B1 (en) 2000-08-02 2007-01-09 Logitech Europe S.A. Universal presentation device
US6714221B1 (en) * 2000-08-03 2004-03-30 Apple Computer, Inc. Depicting and setting scroll amount
US6791530B2 (en) 2000-08-29 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Circular graphical user interfaces
US6788813B2 (en) * 2000-10-27 2004-09-07 Sony Corporation System and method for effectively performing a white balance operation
US7095401B2 (en) 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
JP3792502B2 (ja) * 2000-11-22 2006-07-05 独立行政法人科学技術振興機構 思考支援システム
US6781069B2 (en) * 2000-12-27 2004-08-24 Hewlett-Packard Development Company, L.P. Method and apparatus for virtual interaction with physical documents
US6600475B2 (en) 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US6925611B2 (en) 2001-01-31 2005-08-02 Microsoft Corporation Navigational interface for mobile and wearable computers
US6520648B2 (en) 2001-02-06 2003-02-18 Infocus Corporation Lamp power pulse modulation in color sequential projection displays
US6895104B2 (en) * 2001-02-16 2005-05-17 Sac Technologies, Inc. Image identification system
US6888960B2 (en) 2001-03-28 2005-05-03 Nec Corporation Fast optimal linear approximation of the images of variably illuminated solid objects for recognition
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
US6959102B2 (en) 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
US6478432B1 (en) * 2001-07-13 2002-11-12 Chad D. Dyner Dynamically generated interactive real imaging device
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP4108317B2 (ja) * 2001-11-13 2008-06-25 日本電気株式会社 符号変換方法及び装置とプログラム並びに記憶媒体
US6663244B1 (en) * 2001-12-14 2003-12-16 Infocus Corporation Illumination field blending for use in subtitle projection systems
US20040005920A1 (en) * 2002-02-05 2004-01-08 Mindplay Llc Method, apparatus, and article for reading identifying information from, for example, stacks of chips
JP3983059B2 (ja) * 2002-02-07 2007-09-26 株式会社バンダイナムコゲームス ゲームボードシステム、プログラムおよび情報記憶媒体
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7305115B2 (en) 2002-02-22 2007-12-04 Siemens Energy And Automation, Inc. Method and system for improving ability of a machine vision system to discriminate features of a target
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US20040001113A1 (en) 2002-06-28 2004-01-01 John Zipperer Method and apparatus for spline-based trajectory classification, gesture detection and localization
WO2004019164A2 (en) 2002-08-20 2004-03-04 Fusionarc, Inc. Method of multiple algorithm processing of biometric data
US7120280B2 (en) 2002-09-27 2006-10-10 Symbol Technologies, Inc. Fingerprint template generation, verification and identification system
US20060034492A1 (en) 2002-10-30 2006-02-16 Roy Siegel Hand recognition system
US7390092B2 (en) 2002-11-08 2008-06-24 Belliveau Richard S Image projection lighting devices with visible and infrared imaging
US6840627B2 (en) 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
EP1603077B1 (en) 2003-03-07 2010-06-02 Nippon Telegraph and Telephone Corporation Biological image correlation device and correlation method thereof
JP2004304718A (ja) 2003-04-01 2004-10-28 Nara Institute Of Science & Technology 近接領域画像抽出装置及び近接領域画像抽出方法
JP2004319364A (ja) 2003-04-18 2004-11-11 Alps Electric Co Ltd 照明装置および液晶表示装置
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
JP4517601B2 (ja) 2003-07-09 2010-08-04 ソニー株式会社 投射型画像表示装置
EP1510911A3 (en) * 2003-08-28 2006-03-22 Sony Corporation Information processing apparatus, information processing method, information processing program and storage medium containing information processing program
KR100588042B1 (ko) 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
US20050255434A1 (en) 2004-02-27 2005-11-17 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US20050212753A1 (en) 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
US7379562B2 (en) 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US7204428B2 (en) * 2004-03-31 2007-04-17 Microsoft Corporation Identification of object on interactive display surface by identifying coded pattern
US20050227217A1 (en) 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
JP4708422B2 (ja) 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
EP2408193A3 (en) * 2004-04-16 2014-01-15 James A. Aman Visible and non-visible light sensing camera for videoing and object tracking
US7310085B2 (en) 2004-04-22 2007-12-18 International Business Machines Corporation User interactive computer controlled display system enabling a user remote from a display screen to make interactive selections on the display screen with a laser beam projected onto the display screen
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7397464B1 (en) * 2004-04-30 2008-07-08 Microsoft Corporation Associating application states with a physical object
US7467380B2 (en) * 2004-05-05 2008-12-16 Microsoft Corporation Invoking applications with virtual objects on an interactive display
US7404146B2 (en) * 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
US7787706B2 (en) 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7168813B2 (en) * 2004-06-17 2007-01-30 Microsoft Corporation Mediacube
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP2006031941A (ja) 2004-07-12 2006-02-02 Sharp Corp 面状光源ユニット
US7576725B2 (en) * 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
US8137195B2 (en) 2004-11-23 2012-03-20 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
US7813597B2 (en) * 2005-03-18 2010-10-12 The Invention Science Fund I, Llc Information encoded in an expression
US7499027B2 (en) 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US7525538B2 (en) 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7515143B2 (en) 2006-02-28 2009-04-07 Microsoft Corporation Uniform illumination of interactive display panel

Also Published As

Publication number Publication date
US7394459B2 (en) 2008-07-01
US20080231611A1 (en) 2008-09-25
JP2005317032A (ja) 2005-11-10
US20050245302A1 (en) 2005-11-03
EP1621985A3 (en) 2015-01-21
EP1621985A2 (en) 2006-02-01
JP2012069111A (ja) 2012-04-05
US7907128B2 (en) 2011-03-15
JP5330473B2 (ja) 2013-10-30

Similar Documents

Publication Publication Date Title
JP4916126B2 (ja) 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム
US7379562B2 (en) Determining connectedness and offset of 3D objects relative to an interactive surface
JP4842568B2 (ja) ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用
US7576725B2 (en) Using clear-coded, see-through objects to manipulate virtual objects
US7499027B2 (en) Using a light pointer for input on an interactive display surface
US7535481B2 (en) Orienting information presented to users located at different sides of a display surface
US7535463B2 (en) Optical flow-based manipulation of graphical objects
US8060840B2 (en) Orientation free user interface
US7570249B2 (en) Responding to change of state of control on device disposed on an interactive display surface
US7467380B2 (en) Invoking applications with virtual objects on an interactive display
US7787706B2 (en) Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7466308B2 (en) Disposing identifying codes on a user's hand to provide input to an interactive display application
US9041691B1 (en) Projection surface with reflective elements for non-visible light
US8077888B2 (en) Positioning audio output for users surrounding an interactive display surface
US20090091710A1 (en) Interactive projector system and method
EP3028120A1 (en) Ergonomic physical interaction zone cursor mapping
Maierhöfer et al. TipTrack: Precise, Low-Latency, Robust Optical Pen Tracking on Arbitrary Surfaces Using an IR-Emitting Pen Tip

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4916126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees