JP4332964B2 - 情報入出力システム及び情報入出力方法 - Google Patents
情報入出力システム及び情報入出力方法 Download PDFInfo
- Publication number
- JP4332964B2 JP4332964B2 JP36203899A JP36203899A JP4332964B2 JP 4332964 B2 JP4332964 B2 JP 4332964B2 JP 36203899 A JP36203899 A JP 36203899A JP 36203899 A JP36203899 A JP 36203899A JP 4332964 B2 JP4332964 B2 JP 4332964B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- computer
- digital
- space
- physical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
【発明の属する技術分野】
本発明は、コンピュータに対してオブジェクトの操作やコマンド等の入力を行うためのユーザ・インターフェース環境の提案に係り、特に、コンピュータに対してユーザが直感的で分かり易くオブジェクト操作やコマンド入力を行うことができるユーザ・インターフェース環境の提案に関する。
【0002】
更に詳しくは、本発明は、複数のコンピュータ間の連携的な作業を直感的で分かり易く表現することができるユーザ・インターフェース環境の提案に係り、特に、それぞれのコンピュータ上のデジタル空間と物理的な実世界とが深く融合し、コンピュータにネイティブな各デスクトップ画面が実世界にまで拡張された情報空間上において、各ユーザの個別作業やユーザ間の連携作業を直感的で分かり易く表現することができるユーザ・インターフェース環境の提案に関する。
【0003】
【従来の技術】
昨今の技術革新に伴い、ワークステーションやパーソナル・コンピュータ(PC)と呼ばれる、比較的小型且つ低価格で、高付加価値化・高機能化された汎用コンピュータ・システムが開発・市販され、大学その他の研究機関や企業その他のオフィス、さらには一般家庭内の日常生活にも深く浸透している。
【0004】
コンピュータ技術における最近の傾向の1つは、小型化である。特に最近では、半導体技術の向上に伴なうLSI(large Scale Integration)チップの小型化や、プロセッサの処理能力の目覚しい向上などとも相俟って、小型且つ軽量で可搬性に富むポータブル(携帯型)・コンピュータ(若しくはモバイル・コンピュータ)が広汎に普及してきている。
【0005】
携帯型コンピュータの一例は、いわゆる「ノートブック・コンピュータ」であり、他の例は「PDA(Personal Digital Assistance)」と呼ばれるさらに小型でほとんど掌(パームトップ)サイズのコンピュータである。例えば、ノートブック・コンピュータは、キーボードを上面に持つシステム本体と、LCD(Liquid Crystal Display)スクリーンを内面に持つ蓋体とが回動自在に連結されてなる、いわゆる「クラム・シェル」構造を有する。
【0006】
これら携帯型のコンピュータは、モバイル環境、すなわち屋外や移動先での携行的・可搬的なシステム稼動が可能である。このような携行性に優れたコンピュータの出現により、コンピュータ・ユーザの日常生活の各場面においてコンピュータが登場し、業務の遂行を支援する機会がますます増えてきている。例えば、会議室やプレゼンテーション・ルームなどに参加者がノートブック・コンピュータやPDAを持ち込むことは日常的な光景になってきている。
【0007】
最近のノートブック・コンピュータの計算機資源(CPU(Central Processing Unit)の演算能力やハード・ディスク容量など)は目覚しく向上し、デスクトップ・コンピュータのそれに匹敵する強力なものである。例えば、ノートブック・コンピュータは、個人が所有する大量の文書データなどのファイルを保持するに充分なハード・ディスク容量があり(数GB〜数十GB:例えば過去に行った全てのプレゼンテーション資料を格納することも可能である)、会議の進行次第で自由に情報をローカル・ディスクから引き出して、他の参加者との間で情報を共有・交換・配布することができる。このような場合、ローカル・ディスクからフロッピー・ディスクへデータをコピーしたり、さらに、フロッピー・ディスクから移動先のローカル・ディスクにコピーするという手間が省ける。
【0008】
コンピュータ・システムは、一般に、ユーザ入力コマンドに応答して駆動し、処理結果をディスプレイ・スクリーン上に表示することによって、「インタラクティブ」、すなわち対話的な処理環境を提供している。最近では、DOS(Disk Operating System)シェル画面を代表とする旧来のキャラクタ・ベースのユーザ入力環境すなわち「CUI(Character User Interface)」から、グラフィック・ベースのユーザ入力を実現した「GUI(Graphical User Interface)」への移行が挙げられる。GUI環境下では、コンピュータ・システムがシミュレートされたデスクトップと無数のアイコンがディスプレイ・スクリーンに用意される。
【0009】
GUIが提供されたデスクトップ上では、ファイル等のコンピュータ・システム上で取り扱われる全ての資源オブジェクトはアイコンとして表現される。また、ユーザは、ディスプレイ・スクリーン上のプログラム、データ、フォルダ、デバイスなどを象徴するアイコンに対してマウスなどを介して直接操作を印加する(例えば、クリックやドラッグ・アンド・ドロップ)ことで、直感的なコマンド入力を行うことができる。もはやユーザは、特定のコマンドの名称やコマンド操作方法等を特に習得したり、煩雑なキー入力を行わなくとも、コンピュータを充分に操作することができる。
【0010】
また、コンピュータ技術における他の傾向は相互接続である。コンピュータ間の相互接続は、例えば、シリアル・ポートやパラレル・ポートなどのローカルなインターフェース経由で行う以外に、ネットワーク・インターフェース・カード(NIC)経由でネットワーク接続することで実現する。ネットワークは、単一の構内に限定的に敷設されたLAN(Local Area Network)や、LAN同士を専用線等で相互接続してなるWAN(Wide Area Network)、ネットワーク同士が相互接続を繰り返し世界規模の巨大ネットワークに成長したインターネットなどさまざまである。
【0011】
コンピュータ同士を相互接続する意義は、お互いが持つコンピュータ資源の共有、情報の共有や流通・配布の効率化、複数のコンピュータにまたがった協働的な作業の実現などにある。例えば、あるデジタル・オブジェクトに対する処理を、複数のコンピュータ間での連携的若しくは協調的な動作によって、効率的に実行することもできよう。
【0012】
特に最近では、Ethernetを無線化した無線LANやBlueTooth[1]などの近接通信システムの登場により、ユーザは比較的容易にコンピュータをネットワーク接続できるようになってきた。建物内に備え付けられた種々のコンピュータやその周辺機器類(プリンタなど)のほとんどは、当然の如くネットワーク接続され、複数のユーザ間で共用される。また、各ユーザは自分の携帯型コンピュータを携行し、行く先々の場所で気軽にネットワーク接続することも可能になってきている。
【0013】
分散コンピューティング環境においては、ネットワーク接続された各コンピュータはトランスペアレントな状態であり、アプリケーションからはローカル・ディスクとリモート・ディスクを区別せずにコンピュータ操作を行うことができる。すなわち、ユーザはプログラムやデータ等の資源オブジェクトの所在を意識する必要はなくなり、コンピュータ間でシームレスにデータ交換などのやりとりを行うことができる。
【0014】
ユーザは、コンピュータをネットワーク接続するまではあまり意識せず(すなわち簡易に)に行うことができる。ところが、ネットワーク上でデータ転送先となるコンピュータや周辺機器(すなわちターゲット)を指定しようとすると、すぐ目の前にある相手であっても、その名前(若しくはIDやアドレスなど)を知る必要がある。言い換えれば、トランスペアレントな分散コンピューティング環境下であっても、ユーザ操作に関して言えば、間接的な形式でしかコンピュータ間の連携がなされておらず、直感性にやや欠ける。
【0015】
例えば、隣り合った2以上のコンピュータ間でオブジェクトを移動させたい場合、現状のGUI環境下では、ネットワーク接続された機器の一覧をエクスプローラ画面上(周知)で表示し、該当するコンピュータを模したアイコンを探し出してから「ドラッグ・アンド・ドロップ」操作を行うなどの手間を要する。
【0016】
このようなユーザ入力作業上の問題を解決するための1つの手法として、実世界指向のユーザ・インターフェースが挙げられる。これは、本来はコンピュータのディスプレイ・スクリーン上に体現される「デジタル空間」に限定されていたユーザ操作範囲としての情報空間を、実世界の空間にまで連続的に拡張する技術のことを意味する。実世界指向インターフェースによれば、コンピュータ・スクリーンだけでなく、コンピュータが設置されたテーブル表面や、部屋の壁面なども拡張されたディスプレイとして機能する。情報空間は、スタンドアロン・コンピュータのデジタル空間という垣根を越えて、コンピュータが設置された部屋全体に拡張され、デジタル・オブジェクトと実世界上の物理オブジェクトとを統合的に取り扱うことができる。
【0017】
例えば、Pick−and−Drop[2]は、GUI環境下で定着しているユーザ操作「ドラッグ・アンド・ドロップ」を拡張したものであり、複数のコンピュータ間におけるデータ等のオブジェクトの移動を実世界での直感的な動作にマッピングした、先進的なインタラクション・テクニックである。
【0018】
Pick−and−Dropは、2以上のコンピュータの各々が持つネイティブなデスクトップ間で連携を図り、オブジェクトについてのシームレスなドラッグ・アンド・ドロップ操作を提供することができる。例えば、トラックボールやスティックなどをユーザ入力装置とするコンピュータのデスクトップ上において、あるオブジェクトのドラッグ操作した結果、ポインタが画面の端に到達し、さらに画面を越えてしまった場合には、隣接する他のコンピュータのデスクトップ上までドラッグ操作が継承され、該オブジェクトをドラッグしたままのポインタが出現する。
【0019】
一方のコンピュータ・デスクトップ上では、ポインタが画面の端に到達した時点で、オブジェクトをドラッグしたままポインタは消滅するが、この処理をオブジェクトの”Pick”(デジタル・オブジェクトの拾い上げ)と呼ぶ。また、他方のコンピュータ・デスクトップ上において、該オブジェクトのドラッグ状態を継承したポインタが出現する処理のことを、オブジェクトの”Drop”と呼ぶ。Pick−and−Dropを実行する両コンピュータ間では、バックグラウンドにおいてオブジェクトのエンティティ(例えばデータ・ファイルなど)がネットワーク転送されるので、ドラッグ操作の継承はオブジェクトの実体の移動を伴なう。図51には、隣接するノートブック・コンピュータ間でデジタル・オブジェクトをPick−and−Dropする様子を描写している。
【0020】
なお、Pick−and−Drop操作に関しては、本出願人に既に譲渡されている特開平11−53236号公報にも開示されている。より詳しくは、同明細書の[0052]〜[0059]、及び、同出願に添付された図6〜図9を参照されたい。
【0021】
また、本出願人に既に譲渡されている特願平11−316461号明細書に記載される情報入出力システムは、GUIに代表されるコンピュータの作業空間すなわちデスクトップを実世界に拡張するとともに、コンピュータに対してユーザが直感的で分かり易くコマンドを入力することができる実世界指向のユーザ・インターフェースを提供するものである。
【0022】
同明細書に記載の情報入出力システムは、実空間に設置されたテーブル型や壁面型などの環境型コンピュータ群と、各ユーザが持ち運ぶ携帯型コンピュータ群との組合せによって動的に構成される情報空間すなわち作業環境を提供することができる。
【0023】
該情報入出力システムには、例えばカメラ・ベースのオブジェクト認識システムが導入される。コンピュータ・ディスプレイ画面を、投影機によってテーブルや壁面などの表面に投影する。さらに、投影画像すなわちコンピュータの論理空間上のオブジェクトと、実世界(すなわちテーブル上などに実在する)オブジェクトの双方を、カメラの撮像画像を基に認識し、且つ、これらオブジェクトの動きを追跡することができる。
【0024】
このような情報環境下では、会議室やプレゼンテーション・ルームなどにおけるテーブルや壁面がコンピュータライズされ、携帯型コンピュータを空間的に拡張する作業環境(すなわち「拡張デスクトップ」)として機能する。また、実世界のオブジェクト(紙文書、カード、ビデオ・テープなど)を、マーカー認識などによって特定し、それらの間での自由な情報交換が可能となる。
【0025】
また、ユーザは、自分が持ち運んだ携帯型コンピュータを、既に幾つかのコンピュータがインストールされている情報空間の中に、容易に統合して、他のコンピュータとの連携的な作業を行うことができる。
【0026】
ユーザは、単一のコンピュータという閉じた作業空間の境界を超えて機能する直接操作技法によって、個々の機器や物体のアドレスやIDを意識することなく、実世界における各オブジェクトの空間的な位置関係を利用して情報を操作することができる。
【0027】
同明細書で開示される情報空間上では、あるユーザのコンピュータ・ディスプレイすなわちデジタル空間上におけるオブジェクトのドラッグ操作をそのまま実世界上の空間に継承する「ハイパードラッグ」(Hyperdragging)[3]操作が可能となる。すなわち、あるユーザのコンピュータ上におけるマウス・カーソルのドラッグ操作を、そのまま、そのコンピュータが設置されている平面(例えばテーブル表面)で継承し(図52を参照のこと)、さらには、ドラッグ可能な平面若しくは空間をその作業場の壁へと拡張させることができる(図53を参照のこと)。言い換えれば、コンピュータが設置された作業場空間を、あたかもコンピュータ上のデスクトップの一部であるかのように、オブジェクトの操作を行うことができる。
【0028】
ハイパードラッグによれば、実世界上におけるオブジェクトの物理的な位置関係(例えば「あるオブジェクトがコンピュータの傍にある」など)の直感的な知識のみを以って、ユーザはオブジェクトに対する対話操作を実現することができる。また、フロントエンドにおけるオブジェクトの対話操作のバックグラウンドでは、関連するコンピュータ同士における演算処理(例えばネットワーク転送など)によって、文書ファイルなどデジタル・オブジェクトのエンティティの移動が実行される。
【0029】
また、ハイパードラッグによれば、通常のマウス操作(ドラッグ・アンド・ドロップ)を習得することと、ターゲット機器の物理的な場所(例えばテーブル上に載置された位置)を知るだけで、実世界上で情報を移動させることができる。すなわち、隣り合う携帯型コンピュータ間でデジタル・オブジェクトを移動・交換するような場合、ハイパードラッグを用いれば(例えば図54を参照のこと)、ユーザはネットワークの設定や接続等の作業や、ターゲット機器のアドレスを知る必要など全くない。
【0030】
さらに、同明細書に記載の情報入出力システムによれば、物理的な実空間とコンピュータ上の論理空間(デジタル空間)との連携が行われる。したがって、コンピュータ・データと物理的オブジェクトとを関連付けることができる。例えば、任意の文書フォルダを、テーブル上に置かれたVCRテープ・カートリッジなどの物理オブジェクトに添付することができる(例えば、同明細書に添付された図12〜図14を参照のこと)。
【0031】
また、プリンタやディスプレイ、スキャナなどのコンピュータ周辺機器もハイパードラッグ機能をサポートすることができる。例えば、情報空間にインストールされたプリンタ上にデジタル・オブジェクトをハイパードラッグ及びドロップすることにより、当該オブジェクトのプリント出力が開始される。
【0032】
物理的な実空間とコンピュータ上のデジタル空間との融合をさらに深めることによって、マウスやキーボードなどのコンピュータにネイティブのユーザ入力装置だけでなく、実世界上に散在する各種の物理オブジェクトを介してユーザ・コマンドをコンピュータに入力したり、あるいは、物理オブジェクトを介してデジタル・オブジェクトを引き出すことが可能になるであろう。この結果、コンピュータ操作はさらに直感的で理解容易なものとなり、且つ、ユーザにとって魅力的になることが期待される。
【0033】
【発明が解決しようとする課題】
本発明の目的は、コンピュータの作業空間を実世界に拡張するとともに、コンピュータに対してユーザが直感的で分かり易くコマンドを入力することができる、優れたユーザ・インターフェース環境を提供することにある。
【0034】
本発明の更なる目的は、物理的な実空間とコンピュータ上の論理空間(デジタル空間)とが効果的に連携された、優れたユーザ・インターフェース環境を提供することにある。
【0035】
本発明の更なる目的は、物理的な実空間とコンピュータ上の論理空間(デジタル空間)とが親密に連携され、実世界上の物理オブジェクトを介してデジタル・オブジェクトの操作を行うことができる、優れたユーザ・インターフェース環境を提供することにある。
【0036】
本発明の更なる目的は、物理的な実空間とコンピュータ上のデジタル空間との融合をさらに深めることによって、マウスやキーボードなどのコンピュータにネイティブのユーザ入力装置だけでなく、実世界上に散在する各種の物理オブジェクトを介してユーザ・コマンドをコンピュータに入力したり、あるいは、物理オブジェクトを介してデジタル・オブジェクトを引き出すことができる、優れたユーザ・インターフェース環境を提供することにある。
【0037】
【課題を解決するための手段】
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力システムであって、
前記情報空間に配設された1以上の作業面と、
前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、
前記情報空間に固定的に設置された環境型コンピュータと、
前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、
を備え、
前記環境型コンピュータは、前記撮像手段による撮像画像に基づいて、
ビジュアル・マーカーから各物理オブジェクトの識別情報及び位置情報を認識する処理と、
物理オブジェクト表面上の任意の部位にデジタル・オブジェクトにドロップされたことを認識する処理と、
該物理オブジェクト表面上のデジタル・オブジェクトがドロップされた場所に該デジタル・オブジェクトへのリンク情報を形成する処理とを実行する、
ことを特徴とする情報入出力システムである。
【0038】
前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な携帯型コンピュータであってもよい。
【0039】
環境型コンピュータは、携帯型コンピュータに貼設されたビジュアル・マーカーを基に、その識別情報や位置情報を認識することによって、携帯型コンピュータを情報空間にインストールすることができる。
【0040】
また、環境型コンピュータは、インストール後の携帯型コンピュータ上におけるマウス・カーソル操作を前記作業面上に拡張することができる。この結果、情報空間内では、物理的な実世界とコンピュータ上のデジタル空間とが深く融合することになる。
【0041】
また、前記撮像手段は、所定波長光の照射による特定の位置を指示する光学ポインタの指示位置を識別可能であってもよい。光学ポインタの一例は、特定波長領域の赤色スポット光を照射するレーザ・ポインタである。このような場合には、ユーザは、自分の携帯型コンピュータ上のマウス・カーソル操作だけでなく、該光学ポインタを用いて情報空間内の任意の場所を座標指示することができる。例えば、情報空間内のテーブル表面や壁面に拡張された広大なデスクトップ上を、光学ポインタを用いて直接的に指示することができるので、オブジェクトの操作性が向上するとともに、その操作は直感的に理解容易となる。
【0042】
また、前記環境型コンピュータは、前記撮像手段による撮像画像に基づいて、
物理オブジェクト表面上でリンク情報が形成された部位においてユーザ操作が適用されたことに応答して、リンクされたデジタル・オブジェクトを呼び出したり、あるいは、デジタル・オブジェクトをユーザに提示する処理を実行するようにしてもよい。ここで言うユーザ操作は、例えば、マウス・カーソルや光学ポインタを用いて、オブジェクト表面上の所定の部位に操作を印加することを指す。ユーザは、Webページ画面上でアンカーからリンク先のページを引き出す場合と同じような操作感で、物理オブジェクト上の所定の部位からデジタル・オブジェクトを参照することができる。
【0043】
また、本発明の第2の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力システムであって、
前記情報空間に配設された1以上の作業面と、
前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、
前記情報空間に固定的に設置された環境型コンピュータと、
前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、
前記物理オブジェクト表面上のビジュアル・マーカーを認識・識別する携行型のID認識装置と、
を具備することを特徴とする情報入出力システムである。
【0044】
前記環境型コンピュータは、
前記ID認識装置からソース・オブジェクト及びデスティネーション・オブジェクトの各々の識別情報を受信する処理と、
ソース・オブジェクト及びデスティネーション・オブジェクトのタイプの組み合わせによって特定されるアクションを適用する処理と、
を実行するようにしてもよい。
【0045】
例えば、ソース・オブジェクトとして所望のドキュメントの識別情報と、デスティネーション・オブジェクトとしてドキュメントのプリント先であるプリンタの識別情報とをそれぞれID認識装置で読み込んで、環境型コンピュータに送信することができる。このような場合、環境型コンピュータは、ソース・オブジェクトとしてのドキュメントをデスティネーション・ドキュメントとしてのプリンタにおいて出力するという特定のアクションを実行することができる。
【0046】
また、本発明の第3の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力システムであって、
前記情報空間に配設された1以上の作業面と、
前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、
前記情報空間に固定的に設置された環境型コンピュータと、
前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、
を備え、前記物理オブジェクトのうち少なくとも1つはビジュアル・マーカーが持つ位置情報によって指定される仮想の撮像方向を有する仮想カメラである、
ことを特徴とする情報入出力システムである。
【0047】
前記環境型コンピュータは、前記撮像手段による撮像画像に基づいて、
前記仮想カメラを認識・識別するとともに、その位置情報及び仮想の撮像方向を特定する処理と、
該位置情報及び仮想の撮像方向に従って仮想の撮像画像を生成する処理と、
該仮想の撮像画像をユーザに提示する処理と、
を実行することができる。
【0048】
ここで言う「仮想の撮像画像」は、例えば、撮像領域内にある各物理オブジェクトの描画情報を基にして、3次元コンピュータ・グラフィックス処理を適用することによって自動生成することができる。仮想の撮像画像とは、要するに、仮想カメラによって撮像される風景又は3次元シーンのことである。さらに、仮想カメラの設置場所を変更することによって、撮像される3次元シーンを切り替えることができる。
【0049】
また、本発明の第4の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力システムであって、
前記情報空間に配設された1以上の作業面と、
前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、
前記情報空間に固定的に設置された環境型コンピュータと、
前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、
所定波長光の照射による特定の位置を指示する光学ポインタと、
を備え、
前記撮像手段は、前記光学ポインタの指示位置を識別可能である、
ことを特徴とする情報入出力システムである。ここで言う光学ポインタの一例は、特定波長領域の赤色スポット光を照射するレーザ・ポインタである。
【0050】
このような場合、前記環境型コンピュータは、前記撮像手段による撮像画像に基づいて、
前記作業面上における前記光学ポインタを用いたユーザ操作を認識する処理と、
該認識結果に従って前記表示手段によるデジタル・オブジェクトの表示を制御する処理とを実行することができる。
【0051】
また、本発明の第5の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力システムであって、
前記情報空間に配設された1以上の作業面と、
前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、
前記情報空間に固定的に設置された環境型コンピュータと、
前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な1以上の携帯型コンピュータとを備え、
前記携帯型コンピュータ上では3次元モデルの検索及び/又は3次元モデルの生成が可能であり、
前記環境型コンピュータは、前記携帯型コンピュータ上の3次元モデルを前記作業面上に取り出すユーザ操作が適用されたことに応答して、該3次元モデルの描画情報に基づいて前記作業面上への投影画像を生成する処理と、前記表示手段による該生成された投影画像の表示を制御する処理とを実行する、
ことを特徴とする情報入出力システムである。
【0052】
本発明の第5の側面によれば、本来はコンピュータ上のデジタル空間にのみ存在する3次元オブジェクトを実世界上に取り出して表示することができる。したがって、ユーザは、実世界に拡張された拡張デスクトップ上で、よりリアリティに富んだ情報を相手に提示することができる。
【0053】
また、本発明の第6の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力システムであって、
前記情報空間に配設された1以上の作業面と、
前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、
前記情報空間に固定的に設置された環境型コンピュータと、
前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な1以上の携帯型コンピュータと、
前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、
前記物理オブジェクト表面上のビジュアル・マーカーを認識するとともに認識した識別情報の保留及び解放操作が可能な携行型のID認識装置と、
を具備することを特徴とする情報入出力システムである。
【0054】
このような場合、前記環境型コンピュータは、
前記ID認識装置の保留操作に応答して、該保留された識別情報に対応するデジタル・オブジェクトを取得する処理と、
該ID認識装置の解除操作に応答して、該保留された識別情報に対応するデジタル・オブジェクトを付近の物理オブジェクトに転送する処理とを実行することができる。すなわち、本発明の第6の側面に係る情報空間内では、本来はコンピュータ上のデジタル空間にのみ存在するデジタル・オブジェクトを、物理的な実世界を介して受け渡し作業することができる訳である。
【0055】
また、本発明の第7の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力システムであって、
前記情報空間に配設された1以上の作業面と、
前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、
前記情報空間に固定的に設置された環境型コンピュータと、
前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な1以上の携帯型コンピュータと、
前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、
を備え、前記環境型コンピュータは、前記携帯型コンピュータ上におけるマウス・カーソル操作を前作業面上に拡張することを許容するとともに、前記作業面上における該マウス・カーソルによる範囲指定に従って視覚的フィードバックとしてのラバーバンドを前記表示手段によって表示する、
ことを特徴とする情報入出力システムである。
【0056】
本発明の第7の側面に係る情報空間上では、ユーザには、「ラバーバンド」という視覚的にフィードバックが与えられる。この結果、オブジェクトに対する操作性が向上するとともに、実世界とデジタル空間との間をより効率的に連携させることができる。
【0057】
また、前記環境型コンピュータは、ラバーバンドによる指定領域を前記撮像手段によって撮像するとともに、該撮像画像をデジタル・オブジェクトとして前記情報空間に取り込むようにしてもよい。例えば、情報空間内のテーブル上に置かれた印刷物(例えば、ドキュメントや名刺など)の撮像画像を、そのままデジタル・オブジェクトとして、コンピュータのデジタル空間に取り込むことができる。当然、かかるデジタル・オブジェクトを他のコンピュータに向けて転送することもできる。
【0058】
また、前記作業面上において、ラバーバンドされた元のデジタル・オブジェクトが別のオブジェクト上にドロップされたことに応答して、元のデジタル・オブジェクトに対して該別のオブジェクトが有する処理又はメソッドを適用するようにしてもよい。
【0059】
ここで言う別のオブジェクトとは、例えば、ドキュメントをプリントする処理又はメソッドを有する物理オブジェクトである。この物理オブジェクト上に、ドキュメントを象徴するデジタル・オブジェクトをドロップすることによって、プリント・ジョブを発行するという、直接的な対話技法が実現される。
【0060】
また、別のオブジェクトは、例えば、名刺であり、その宛名に相当するメール・アドレスに対してドキュメントをメール送信する処理又はメソッドを有してもよい。この物理オブジェクト上に、ドキュメントを象徴するデジタル・オブジェクトをドロップすることによって、当該ドキュメントを送信文書とするメールを送信処理するという、直接的な対話技法が実現する。
【0061】
また、本発明の第8の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力方法であって、前記情報空間は、1以上の作業面と、前記作業面上に画像を表示する表示手段と、前記作業面上を撮像する撮像手段と、前記情報空間に固定的に設置された環境型コンピュータと、前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトとを備え、
(a)ビジュアル・マーカーから各物理オブジェクトの識別情報及び位置情報を認識するステップと、
(b)物理オブジェクト表面上の任意の部位にデジタル・オブジェクトにドロップされたことを認識するステップと、
(c)該物理オブジェクト表面上のデジタル・オブジェクトがドロップされた場所に該デジタル・オブジェクトへのリンク情報を形成するステップと、
を具備することを特徴とする情報入出力方法である。
【0062】
ここで、前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な携帯型コンピュータであり、
前記ステップ(b)では、前記携帯型コンピュータ上におけるマウス・カーソル操作を前記作業面上に拡張することが許容されていてもよい。
【0063】
また、前記撮像手段は、所定波長光の照射による特定の位置を指示する光学ポインタの指示位置を識別可能であり、
前記ステップ(b)では、前記情報空間内における該光学ポインタによる座標指示が許容されていてもよい。
【0064】
また、
(d)物理オブジェクト表面上でリンク情報が形成された部位においてユーザ操作が適用されたことに応答して、リンクされたデジタル・オブジェクトを呼び出す及び/又はユーザにデジタル・オブジェクトを提示するステップ、
をさらに備えていてもよい。
【0065】
また、本発明の第9の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力方法であって、前記情報空間は、1以上の作業面と、前記作業面上に画像を表示する表示手段と、前記作業面上を撮像する撮像手段と、前記情報空間に固定的に設置された環境型コンピュータと、前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、前記物理オブジェクト表面上のビジュアル・マーカーを認識・識別する携行型のID認識装置とを備え、
(a)前記ID認識装置からソース・オブジェクト及びデスティネーション・オブジェクトの各々の識別情報を受信するステップと、
(b)ソース・オブジェクト及びデスティネーション・オブジェクトのタイプの組み合わせによって特定されるアクションを該ソース・オブジェクトに適用するステップと、
を具備することを特徴とする情報入出力方法である。
【0066】
また、本発明の第10の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力方法であって、前記情報空間は、1以上の作業面と、前記作業面上に画像を表示する表示手段と、前記作業面上を撮像する撮像手段と、前記情報空間に固定的に設置された環境型コンピュータと、前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトとを備え、前記物理オブジェクトのうち少なくとも1つはビジュアル・マーカーが持つ位置情報によって指定される仮想の撮像方向を有する仮想カメラであり、
(a)前記仮想カメラを認識・識別するとともに、その位置情報及び仮想の撮像方向を特定するステップと、
(b)該位置情報及び仮想の撮像方向に従って仮想の撮像画像を生成するステップと、
(c)該仮想の撮像画像をユーザに提示するステップと、
を具備することを特徴とする情報入出力方法である。
【0067】
また、本発明の第11の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力方法であって、前記情報空間は、1以上の作業面と、前記作業面上に画像を表示する表示手段と、前記作業面上を撮像する撮像手段と、前記情報空間に固定的に設置された環境型コンピュータと、前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、所定波長光の照射による特定の位置を指示する光学ポインタとを備え、前記撮像手段は前記光学ポインタの指示位置を識別可能であり、
(a)前記作業面上における前記光学ポインタを用いたユーザ操作を認識するステップと、
(b)該認識結果に従って前記表示手段によるデジタル・オブジェクトの表示を制御するステップと、
を具備することを特徴とする情報入出力方法である。
【0068】
また、本発明の第12の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力方法であって、前記情報空間は、1以上の作業面と、前記作業面上に画像を表示する表示手段と、前記作業面上を撮像する撮像手段と、前記情報空間に固定的に設置された環境型コンピュータと、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な1以上の携帯型コンピュータとを備え、前記携帯型コンピュータ上では3次元モデルの検索及び/又は3次元モデルの生成が可能であり、
(a)前記携帯型コンピュータ上の3次元モデルを前記作業面上に取り出すユーザ操作が適用されたことに応答して、該3次元モデルの描画情報に基づいて前記作業面上への投影画像を生成するステップと、
(b)前記表示手段による該生成された投影画像の表示を制御するステップと、を具備することを特徴とする情報入出力方法である。
【0069】
また、本発明の第13の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力方法であって、前記情報空間は、1以上の作業面と、前記作業面上に画像を表示する表示手段と、前記作業面上を撮像する撮像手段と、前記情報空間に固定的に設置された環境型コンピュータと、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な1以上の携帯型コンピュータと、前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、前記物理オブジェクト表面上のビジュアル・マーカーを認識するとともに認識した識別情報の保留及び解放操作が可能な携行型のID認識装置とを備え、
(a)前記ID認識装置の保留操作に応答して、該保留された識別情報に対応するデジタル・オブジェクトを取得するステップと、
(b)該ID認識装置の解除操作に応答して、該保留された識別情報に対応するデジタル・オブジェクトを付近の物理オブジェクトに転送するステップと、
を具備することを特徴とする情報入出力方法である。
【0070】
また、本発明の第14の側面は、コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力方法であって、前記情報空間は、1以上の作業面と、前記作業面上に画像を表示する表示手段と、 前記作業面上を撮像する撮像手段と、前記情報空間に固定的に設置された環境型コンピュータと、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な1以上の携帯型コンピュータと、前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトとを備え、
(a)前記携帯型コンピュータ上におけるマウス・カーソル操作を前作業面上に拡張することを許容するステップと、
(b)前記作業面上における該マウス・カーソルによる範囲指定に従って視覚的フィードバックとしてのラバーバンドを前記表示手段によって表示するステップと、
を具備することを特徴とする情報入出力方法である。
【0071】
本発明の第14の側面に係る情報入出力方法は、さらに、
(c)ラバーバンドによる指定領域を前記撮像手段によって撮像するとともに、デジタル・オブジェクトとして前記情報空間に取り込むステップ、
を備えていてもよい。
【0072】
また、本発明の第14の側面に係る情報入出力方法は、
(d)前記作業面上において、ラバーバンドされた元のデジタル・オブジェクトが別のオブジェクト上にドロップされたことに応答して、元のデジタル・オブジェクトに対して該別のオブジェクトが有する処理又はメソッドを適用するステップ、
をさらに備えていてもよい。
【0073】
ここで言う別のオブジェクトとは、例えば、ドキュメントをプリントする処理又はメソッドを有する物理オブジェクトである。この物理オブジェクト上に、ドキュメントを象徴するデジタル・オブジェクトをドロップすることによって、プリント・ジョブを発行するという、直接的な対話技法が実現される。
【0074】
また、別のオブジェクトは、例えば、名刺であり、その宛名に相当するメール・アドレスに対してドキュメントをメール送信する処理又はメソッドを有してもよい。この物理オブジェクト上に、ドキュメントを象徴するデジタル・オブジェクトをドロップすることによって、当該ドキュメントを送信文書とするメールを送信処理するという、直接的な対話技法が実現する。
【0075】
【作用】
本発明によれば、実空間に設置されたテーブル型や壁面型などの環境型コンピュータ群と、各ユーザが持ち運ぶ携帯型コンピュータ群との組合せによって動的に構成される情報入出力操作のための好適な環境を提供することができる。
【0076】
本発明に係る情報空間では、例えばカメラ・ベースのオブジェクト認識システムが導入される。コンピュータ・ディスプレイ画面を、投影機によってテーブルや壁面などの表面に投影する。さらに、投影画像すなわちコンピュータの論理空間上のオブジェクトと、実世界(すなわちテーブル上などに実在する)オブジェクトの双方を、カメラの撮像画像を基に認識し、且つ、これらオブジェクトの動きを追跡する。
【0077】
本発明によれば、会議室やプレゼンテーション・ルームなどにおけるテーブルや壁面がコンピュータライズされ、携帯型コンピュータを空間的に拡張する作業環境(すなわち「拡張デスクトップ」)として機能する。また、実世界の様々なオブジェクト(名刺やパンフレットなどの印刷物、VCRテープ・カートリッジなど)を、マーカー認識などによって特定し、それらの間での自由な情報交換を可能にする。
【0078】
また、ユーザは、自分が持ち運んだ携帯型コンピュータを、既に幾つかのコンピュータがインストールされている情報空間の中に、容易に統合させることができる。
【0079】
ユーザは、単一のコンピュータという閉じた作業空間の境界を超えて機能する直接操作技法によって、実世界における各オブジェクトの空間的な位置関係を利用して情報を操作することができる。本発明に係る直接的な対話技法によれば、個々の機器や物体のアドレスやIDをユーザが意識する必要は全くない。
【0080】
例えば、あるユーザのコンピュータ・ディスプレイ上におけるオブジェクトのドラッグ操作を、そのままコンピュータが設置された平面(テーブルや壁面)に継承する「ハイパードラッグ」操作が可能となる。
【0081】
ハイパードラッグによれば、実世界上におけるオブジェクトの物理的な位置関係(例えば「あるオブジェクトがコンピュータの傍にある」など)の直感的な知識だけで、ユーザはオブジェクトに対する操作を実現することができる。また、フロントエンドにおけるオブジェクトの操作のバックグラウンドでは、関連するコンピュータ同士の演算処理(例えばネットワーク転送など)によって、ドキュメントなどのオブジェクトのエンティティが、コンピュータ間を自動的に移動する。
【0082】
また、本発明によれば、物理的な実空間とコンピュータ上のデジタル空間との融合関係がさらに深まり、両者を統合的に取り扱うことができる。この結果、マウスやキーボードなどのコンピュータにネイティブのユーザ入力装置だけでなく、実世界上に散在する各種の物理オブジェクトを介してユーザ・コマンドをコンピュータに入力したり、あるいは、物理オブジェクトを介してデジタル・オブジェクトを引き出すことが可能になる。この結果、コンピュータ操作はさらに直感的で理解容易なものとなり、且つ、ユーザにとって魅力的になる。
【0083】
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【0084】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施例を詳解する。
【0085】
本発明は、実空間に設置されたテーブル型や壁面型などのコンピュータ群と、各ユーザが持ち運ぶ携帯型コンピュータ群との組合せによって「情報空間」を動的に構成するものである。かかる情報環境下では、会議室やプレゼンテーション・ルームなどにおけるテーブルや壁面が、各コンピュータのデジタル空間を実世界上で空間的に拡張した作業環境(すなわち「拡張デスクトップ」)として機能する。本発明が適用される実空間の一例は、1以上のユーザが個別の作業や共同作業を行う会議室などである。
【0086】
1.システム環境
本発明によって提供される情報空間は、テーブルや壁面、あるいはテーブル上に置かれた物品などで構成される物理空間と、コンピュータ上で論理的に構成されるデジタル空間との間で連携的関係が構成された情報環境を提供するものである。
【0087】
図1には、本発明に係る情報空間1の構成例を模式的に示している。同図に示すように、テーブル11や壁面12の各々にデジタル・データを表示するための1以上のLCD(Liquid Crystal Display)プロジェクタ13及び14が配設されている(但し、LCDプロジェクタ13の出力画像は反射面13Aを介してテーブル11上に投影される)。各LCDプロジェクタ13及び14の投影画像は、情報空間1におけるユーザ出力装置すなわち「拡張ディスプレイ」を構成する。
【0088】
各LCDプロジェクタ13及び14が表示する内容は、ネットワーク15によって相互接続されたコンピュータ・システム16及び17の協働的動作によって制御される。各コンピュータ・システムは、例えば米IBM社のPC/AT(Personal Computer/Advanced Technology)互換機又はその後継機でよく、OADG(Open Architecture Developers Group)仕様に準拠する。各コンピュータ16及び17同士は、NIC(Network Interface Card)経由でネットワーク15に相互接続されている。あるいは、無線LAN(Local Area Network)などその他の手段によって接続されていてもよい。
【0089】
また、テーブル11や壁面12におけるデジタル・データの表示内容や、テーブル11上に載置された携帯型コンピュータその他の物理的オブジェクトを捕捉するために、固定カメラ18及びパン/チルト・カメラ19が設置されている。カメラ18及び19は、例えばCCD(Charge Coupled Device:電荷結合素子)カメラでよい。
【0090】
各カメラ18及び19は、情報空間1におけるユーザ入力装置を構成する。画像処理サーバ20は、これらの撮像画像を画像処理し、さらに、テーブル11や壁面12上に表示されたデジタル・オブジェクトや載置された物理オブジェクトの位置、各オブジェクトに対して適用されるユーザ操作などを画像認識する。
【0091】
また、自然光を撮像するカメラ18及び19の他に、1以上の赤色フィルタ付きカメラ41A,41B…が情報空間1内に配設されている。カメラ41において用いられる赤色フィルタは、例えば、プレゼンテーションなどで用いられる「レーザ・ポインタ」の出力光付近の波長のみを透過するように設定されている。画像処理サーバ20は、赤色フィルタ付きカメラ41の撮像画像を画像処理することにより、レーザ・ポインタによる指示位置を検出することができる。この結果、例えば、テーブル11や壁面12などの実空間上に拡張されたデスクトップ上において、ユーザは、遠方の部位をレーザ・ポインタを用いて直接的に座標指示操作することが可能となる。
【0092】
画像処理サーバ20は、LCDプロジェクタ13及び14の表示を駆動制御する各コンピュータ・システム16及び17とはネットワーク15経由で相互接続されている。したがって、画像処理サーバ20において画像認識された情報空間1におけるユーザ操作が投影画像に反映され、拡張ディスプレイを介したインタラクティブな情報環境が実現する。
【0093】
画像処理サーバ20やコンピュータ・システム16及び17は、情報空間1の環境すなわち情報環境に予め導入(pre−install)された「環境型コンピュータ」(environmental computer)である。なお、図1に示した例では、環境型コンピュータは複数台のネットワーク接続されたコンピュータ・システム16,17,及び20で構成されるが、演算能力が強化された1台のコンピュータとして構成されても、勿論構わない。
【0094】
また、情報空間1上には、物理オブジェクトやデジタル・オブジェクト、及び、オブジェクト間に形成されたリンク関係を登録・管理するためのデータベース・サーバ(図示しない)が存在するものとする。データベース・サーバの実体は、ネットワーク15に接続された専用のサーバ・マシンであっても、あるいは、他の環境型コンピュータのいずれかの上で稼動するサーバ・アプリケーションであってもよい。
【0095】
このような情報空間1では、ユーザは各自の携帯型コンピュータ…(図示)を持参して、個別の作業や、ユーザ間の連携的な共同作業を行う。
【0096】
情報空間1は、1以上のコンピュータの連携によって構成される複合的なデジタル空間である。テーブル11及び壁面12の各々には、デジタル空間上に存在するデジタル・オブジェクトが表示され、この結果、情報空間1内には物理オブジェクトとデジタル・オブジェクトが混在する。さらに、テーブル11及び壁面12の表面上でデジタル・オブジェクトに対する各種のユーザ操作(後述)が可能となり、コンピュータ・スクリーン上の作業空間(デスクトップ)を拡張した「拡張ディスプレイ」を構成する。本発明者等は、拡張ディスプレイとしてのテーブル11及び壁面12のことを、それぞれ”InfoTable”及び”InfoWall”とも呼ぶ
【0097】
本発明に係る情報空間を実現するためには、幾つかの前提条件が必要である。
【0098】
まず第一に、各携帯型コンピュータやその他の物理オブジェクトの表面には、サイバーコード[6]のように視覚的に識別・特定することができるビジュアル・マーカー31,32が貼設されているものとする。したがって、予め導入された環境型コンピュータは、カメラ18及び19の撮像画像を通してビジュアル・マーカーを認識・識別することができる。
【0099】
また、第2に、動的に導入される各携帯型コンピュータ21…は、無線(又は有線)LANなどの通信手段によって相互接続されていることである。すなわち、携帯型コンピュータ同士、あるいは携帯型及び環境型コンピュータとの間では、デジタル・オブジェクトのエンティティ(文書ファイルやデジタル・コンテンツなど)を、拡張ディスプレイ上の対話操作のバックグラウンドで転送することができる。
【0100】
次いで、カメラ18及び19を用いて情報空間1における物理オブジェクト(及びオブジェクトに対する操作)を認識・識別する仕組みについて説明する。
【0101】
オブジェクトの認識センサとして用いられるカメラ18及び19は、一般に、解像度と視野とのトレードオフ関係を持つ。物理オブジェクトに貼設されたビジュアル・マーカーの極小パターンを識別するためには、カメラ18及び19は充分高解像度でなければならない。高解像度の撮像イメージは、テーブル11の記録を作成する上でも有用である。
【0102】
しかしながら、現在市販されているビデオ・カメラのほとんどは必要とされる解像度と、テーブル11の表面全体を撮像する視野角の双方を満足するような仕様を備えていない。”DigitalDesk”[4]は、2台目のカメラを設置することでこの問題を解決することを試みたものである。この場合の2台目のカメラは、1台目のカメラよりも高解像度で机上の特定部分のみを撮像するために使用される。ユーザは、2台目のカメラの視野内にドキュメントを置くように指示されている。
【0103】
これに対し、本発明者等は、2台のカメラの組み合わせによって上記のトレードオフ問題を解決することとした。第1のカメラ19は、モータ制御型のビデオ・カメラ(例えばソニー(株)製のEVI−D30)であり、外部コンピュータ・システムからのコマンドに従って、パン、チルト、ズームなどを遠隔操作することができる。この第1のカメラ19によれば、テーブル11全体を撮像できるだけでなく、ズームすることによって一部の領域のみを高解像度(最大120dpi)で撮像することができる。通常は、パン/チルト・カメラ19のヘッドの向きや方向を周期的に変更することによって、テーブル11表面全体をスキャンする。例えば、テーブル11表面を6×6のブロックに分割して、パン/チルト・カメラ19が36個全ての領域を規則正しく訪れる(すなわち撮像する)ように制御する。本発明者等は、このようなカメラ動作のことを、Landsat(land−satellite)に喩えて”Desksat”と呼ぶ。全ての領域を訪れる所要時間は、カメラ制御やイメージ処理時間を含んで30秒程度である。
【0104】
他方、第2のカメラ18は、テーブル11表面全体を常時見渡すための固定カメラである。このカメラ18による現在及び過去の撮像画像間の差分によってテーブル11上の変化を解析する。次いで、36個のブロックのうちどのブロックに変化が起こったかを判断して、「領域変化」(area changed)というイベントをパン/チルト・カメラ19に送信する(図2を参照のこと)。パン/チルト・カメラ19側では、このようなイベント情報を用いて、変化が起こった領域を瞬時に再探索して、撮像画像を更新することができる。
【0105】
なお、固定カメラ18による検出が投影イメージの変動の影響を受けないようにするために、差分検出には所定の閾値を設定する必要がある。
【0106】
また、本実施例では、変化領域を探索する順序を決定するために、多少の経験則を活かしている。人間は、通常、テーブルを外側から内側に向かって使用する習性があるので、テーブル11の内側の方にオブジェクトの変化が起こり易いと言える。したがって、外側の領域よりも内側の方に優先順位を与えることができる。例えば、固定カメラ18が複数のブロックでの変化を同時に捉えた場合には、パン/チルト・カメラ19は内側から外側に向かって変化ブロックを探索するようにする。
【0107】
このような2台のカメラにより構成されるオブジェクト認識技術によれば、ユーザがテーブル11上にオブジェクトを置いたり、移動したり(さらに再移動したり)すると、このようなイベントは環境型コンピュータ20によって数秒のうちに認識することができる。このような応答時間は、”Illuminating Light”[5]などのような継続的且つ実時間のオブジェクト追跡には必ずしも充分とは言えないが、間欠的に動作するような情報環境下では適合するであろう。
【0108】
次いで、カメラの撮像画像を基に環境型コンピュータがビジュアル・マーカーを認識する仕組みについて説明する。
【0109】
携帯型コンピュータその他、情報空間1にインストールすべき全ての物理オブジェクトには、視覚的に識別可能なビジュアル・マーカーが貼設されている。このビジュアル・マーカーの一例は、サイバー・コード[6]であり、印刷されたパターンの配列の組み合わせによって224個のオブジェクトを識別することができる(但し、本実施例では文献[6]に記載された配列コード体系とは若干異なるバージョンを利用している)。上述したDesksatアーキテクチャによれば、テーブル11上に置かれた2cm×2cmサイズの小さな2次元マーカーを、パン/チルト・カメラ19によって認識することができる。
【0110】
サイバーコードは、2次元バーコードの一種であり、図3に示すように、サイバーコードの所在を表すための「ガイド・バー表示領域」と、2次元状のコード・パターンを表示する「コード・パターン表示領域」とで構成される。コード・パターン表示領域内は、n×mマトリックス(同図では7×7)に配列されたセルで構成され、各セルを白又は黒の2値表現することで識別情報を付与することができる。但し、コード・パターン表示領域の4隅のコーナー・セルは、識別情報としてではなく位置合わせ(registration)パターンとして常に黒パターンとなっている。
【0111】
サイバーコードの認識手順は、
(1)撮像画像を2値化するステップ
(2)2値画像中からガイド・バーの候補を発見するステップ
(3)ガイド・バーの位置や方向に基づいてコーナー・セルを探索するステップ(4)ガイド・バー及びコーナー・セルを検出したことに応答して画像ビットマップ・パターンを復号化するステップ
とで構成される。さらに、エラービットの検査を行うことで、撮像画像中に正しいサイバー・コードが含まれていることを確認して、該コードの識別情報や位置・方向情報を導出することができる。また、コーナー・セルの位置に基づいて、カメラやオブジェクトの傾きによって生じる歪みを算出して補償することができる。
【0112】
サイバー・コードを始めとするビジュアル・マーカーは、物理オブジェクトの識別情報の取得だけでなく、マーカーが貼設された物理オブジェクトの位置や向きを認識するために利用される。例えば、ユーザが情報空間1内でハイパードラッグ操作(後述)をしている間、携帯型コンピュータ上に貼設されたビジュアル・マーカーの現在位置や向きに基づいて、テーブル11上のカーソルの位置が計算され、LCDプロジェクタ13による投影画像に反映される。
【0113】
また、パンフレット用紙などの所定の表面積のある物理オブジェクトにビジュアル・マーカーが貼設されている場合、ビジュアル・マーカーを基準にして用紙表面上の座標系を定めることもできる。例えば、ビジュアル・マーカーを原点とした用紙上の座標位置(x,y)に対して物理オブジェクトやその他のリンク情報を埋め込むことも可能である(この点については後に詳解する)。
【0114】
ビジュアル・マーカーは印刷物として提供されるので、実質上コストは発生しない。また、他の識別システムでは達成できない幾つかの使用形態がある。例えば、ビジュアル・マーカーを含んだPost−itを使用することができる。ビジュアル・マーカーが示す識別情報に添付されたデジタル・オブジェクト(例えばボイス・ノートや写真画像など)が、Post−itの移動に伴なって転送される。
【0115】
次いで、情報空間1におけるオブジェクトすなわち情報の転送について説明しておく。
【0116】
本実施例に係る情報空間1では、ハイパードラッグを始めとする実世界上でのオブジェクトの対話操作を実行するときには、そのバックグラウンドにおいて、適当な機器(コンピュータ)間で、オブジェクトのエンティティであるデータ/ファイルの転送が行われる。
【0117】
本実施例では、情報空間1内に設置される各物理オブジェクトには識別情報を含んだビジュアル・マーカーが貼設されているので、カメラ18/19による撮像画像を基に、各物理オブジェクトを識別するとともに、オブジェクト間の位置情報を認識することができる。
【0118】
また、動作システムはJavaで記述されており(”Java”は米サン・マイクロシステムズ社が開発したオブジェクト指向プログラミング言語である)、Javaのオブジェクト移動機能、オブジェクト整列化プロトコル、及び遠隔メソッド呼び出し(Remote Method Invocation:RMI)などを利用することで、オブジェクト転送を実現している。
【0119】
本実施例に係る情報空間1において移動可能なオブジェクトとして、テキスト、イメージ、URL(Uniform Resource Locator)、サウンド、動画などが挙げられる。
【0120】
2.情報環境
次に、本実施例に係る情報空間1において提供される情報環境の特徴について説明する。
【0121】
2−1.環境型コンピュータと携帯型コンピュータとの連携
図1に示すような情報空間において提供される情報環境下では、会議室などの実空間に固定的に設置された「環境型コンピュータ」と、会議の参加者などの各ユーザが持ち運ぶ1以上の「携帯型コンピュータ」との間で連携が実現する。
【0122】
ユーザ各自が持つ携帯型コンピュータは、それ自身で完結したユーザ・インターフェースを備えている。したがって、環境型コンピュータと連携した場合には、従来のユーザ・インターフェースを全く置き換えてしまうのではなく、携帯型コンピュータ固有のユーザ・インターフェースを自然に延長する形態で、環境型コンピュータや情報空間1におけるユーザ・インターフェースすなわち対話操作が機能することが望ましい。
【0123】
例えば、テーブル上に携帯型コンピュータを置くだけで、テーブル11表面や壁面12が、携帯型コンピュータのための仮想的な拡張ディスプレイすなわちデスクトップとして利用できるようになる。
【0124】
さらに、複数のユーザが同じテーブル11上でそれぞれの携帯型コンピュータを置いた場合でも、テーブル11表面をユーザ・グループのための共有作業空間として利用できるようになる。
【0125】
図4〜図6には、各ユーザの携帯型コンピュータが環境型コンピュータによって拡張されていく過程を図解している。
【0126】
(a)ユーザは、各自の携帯型コンピュータ上で作業を行う(図4を参照のこと)。この場合、ユーザは、携帯型コンピュータというスタンドアロン環境で用意される従来のGUI(Graphical User Interface)画面上で、マウス・カーソルを用いたオブジェクトのドラッグ・アンド・ドロップ操作が可能である。
【0127】
(b)情報空間のテーブル11上に携帯型コンピュータを置くと、テーブルや壁の表面が携帯型コンピュータのデスクトップの空間的な延長として利用可能になる。
より具体的には、ユーザがテーブル11に着いて自分の携帯型コンピュータをその上に置くと、カメラ18がこれを撮像する。画像処理サーバ20は、撮像画像を基に、携帯型コンピュータに貼設されたビジュアル・マーカー31を認識して、該携帯型コンピュータの所有者ユーザを特定する。また、画像処理サーバ20は、該携帯型コンピュータの設置位置や向きも認識する。
例えば、文書ファイルやフォルダなどの情報アイテムを象徴するデジタル・オブジェクトを、携帯型コンピュータのディスプレイ・スクリーンからハイパードラッグして、テーブル11や壁面11の上に置く(実際には、LCDプロジェクタ13又は14で投影する)ことができる(図5を参照のこと)。
また、頻繁に利用するデジタル・オブジェクトを自分の携帯型コンピュータの周辺に配置しておくことで、必要な情報に迅速にアクセスすることができる。
テーブル11や壁面12に投影されたデジタル・オブジェクトは、各ユーザ・コンピュータ上のマウス・カーソルの他に、レーザ・ポインタを用いて操作してもよいが、この点については後述に譲る。
【0128】
(c)同一のテーブル11に複数のユーザが着いた場合、各ユーザは携帯型コンピュータを置きながら作業を行うこともできる。また、テーブル11や壁面12が、ユーザ・グループ間で共有することができる作業空間にもなる。例えば、デジタル・オブジェクトを、テーブル11表面や壁面12などからなる拡張ディスプレイ経由で、自由に転送したり、閲覧、交換、配布したりすることができる(図6を参照のこと)。
【0129】
要言すれば、ユーザは、コンピュータ上で扱われるデジタル・オブジェクトやアプリケーション・ウィンドウなどをテーブル11や壁面12上に構成された拡張ディスプレイ上に移動させることができる。また、自分が持ち込んだ携帯型コンピュータの周辺に、より広い論理的な作業空間を形成することができる。
【0130】
本実施例に係る情報空間では、GUI(Graphical User Interface)向けに開発された対話技法すなわち直接操作(direct manipulation)の概念を、実世界に展開された拡張ディスプレイ上に導入することができる。すなわち、テーブル11や壁面12などからなる拡張ディスプレイ上では、例えば、トラックボールやタッチパッド、キーボードのような携帯型コンピュータに装備されたユーザ入力装置を用いて、ポイント、ドラッグ、メニュー選択などの通常のGUI形式の操作に従ってデジタル・オブジェクトを操作することができる。
【0131】
図7には、情報空間1で用意される拡張ディスプレイ上で行われるユーザ操作の様子を図解している。
【0132】
(a)ユーザは、コンピュータ・ディスプレイ上のデジタル・オブジェクトを、ポインティング・デバイスを用いて通常のGUI操作に従ってドラッグする。
【0133】
(b)カーソルがディスプレイ・スクリーンの周縁に到達し、さらにドラッグし続けると、カーソルはスクリーンからテーブル11の上にジャンプする(実際には、プロジェクタによってテーブル11上にオブジェクトが投影される)。このとき、デジタル・オブジェクトのエンティティ(例えば該当する文書ファイルやフォルダ)が、携帯型コンピュータから環境型コンピュータに転送される。
【0134】
(c)ユーザは、さらにドラッグ操作を継続して、デジタル・オブジェクトをテーブル11以外の表面、例えば壁面12まで移動させることができる。
壁面12にカレンダなどの情報担体が存在する場合には、オブジェクトを其処まで移動させてカレンダに添付することができる(実際には、カレンダとオブジェクトが持つ情報とのリンクが形成される)。
【0135】
(d)また、ユーザは、VCRテープ・カートリッジのようなテーブル11上に置かれた現実の物理オブジェクトの上に、デジタル・オブジェクトをドロップすることもできる。この物理オブジェクトへのドロップの効果は、現実のオブジェクトとデジタルすなわち仮想のオブジェクトとのリンク形成である。
【0136】
図7で示したようなオブジェクト操作を行う際、ユーザは、各々のコンピュータやその他の物理的なオブジェクトなど、各オブジェクト間の物理的な配置のみを注意しておくだけで充分である。本実施例に係る情報環境よれば、情報を操作するための統合的な空間的なメタファが提供される。
【0137】
したがって、携帯型コンピュータ内に格納されたデジタル・オブジェクト、テーブル11や壁面12などの拡張ディスプレイ上に出現したデジタル・オブジェクト、あるいはテーブル11上の物理オブジェクトにリンク形成されたデジタル・オブジェクトなどを、相互間で、直感的且つシームレスに取り扱うことができる。
【0138】
図7を参照しながら説明したように、ユーザが携帯型コンピュータ内に格納されたデータをテーブル11等の拡張ディスプレイ上に転送したい場合には、該当するデジタル・オブジェクトを、コンピュータ・スクリーンからテーブル上に、すなわち、コンピュータという垣根を越えてドラッグ操作を行うだけでよい。マウス・カーソルがコンピュータ・スクリーンの端縁に到達すると、カーソルはコンピュータ・スクリーンからテーブルへと自動的に移動する。勿論、テーブル上の物理オブジェクト上にデジタル・オブジェクトをドラッグ・アンド・ドロップ操作するだけで、物理オブジェクトにデジタル・オブジェクトを添付すなわちリンク形成することができる。
【0139】
本実施例において、ハンド・ジェスチャ認識のような対話技法ではなく、GUI向けに開発された対話技法を採用したのは、ノートブック・コンピュータは豊富なアプリケーションを既に備えた対話装置を既に統合的に装備する、という理由に依拠する。一般的なコンピュータに標準装備された対話装置を用いれば、コンピュータ・ユーザは、既に定着し慣れ親しんでいるユーザ・インタフェース様式のままで、テーブル11や壁面12上でデジタル・オブジェクトを対話的に操作することができるという訳である。
【0140】
最近では、ノートブック・コンピュータはオーディオ入出力装置を装備することが多くなったので、拡張ディスプレイ上での作業中に音声を生成するという対話方式を使用することも可能である。
【0141】
さらに、携帯型コンピュータに装備されたマイクやカメラなどの入力装置を、会議中のボイスメモなどを作成する手段として活用することもできる。
【0142】
2−2.情報操作の空間的連続性
また、図1に示すような情報空間1において提供される情報環境下では、情報操作の空間的な連続性が実現する。
【0143】
コンピュータを含む多種多様な情報機器が動的に追加されるような環境を想定すると、それぞれの機器のネットワーク・アドレスや機器名を正確に把握することは、ユーザにとって過大な負担であり煩わしくさえある。一方で、会議室などの閉じた作業空間では、一般的な遠隔通信とは状況が異なり、たいていの機器はユーザから見える範囲に存在する。したがって、操作の対象となっているオブジェクトを実空間上で把握し、アドレスなどの間接的・記号的な概念を使用することなく、情報を直接的に操作することが可能なはずである。
【0144】
本実施例に係る情報空間1では、例えば、「コンピュータABCからコンピュータDEFにファイルを転送する」、「プロジェクタCにスライド・データを送る」などの間接的な指定方法ではなく、「右のコンピュータから左のコンピュータ」、「左側のスクリーン」などのような実世界上の空間的な位置関係によって、直感的且つ直接的に、機器を指定することができる。
【0145】
本実施例に係る情報空間1上では、「テーブルにコンピュータを置く」や、「PDAを黒板に近づける」といったユーザが行う物理的な操作は、ネットワーク接続で反映され、該当するデジタル・オブジェクトの機器間転送が必要に応じて適宜行われるようになっている。
【0146】
2−3.実世界上の物理オブジェクトとの連携
日常生活で扱われるオブジェクトのほとんどは、コンピュータの論理空間上にのみ存在するデジタル・オブジェクトではなく、非電子的・非デジタルな実世界上の物理オブジェクト(例えば、実文書の印刷物やVCRテープ・テープカートリッジなど)である。このような物理オブジェクトを情報環境の一部として取り込めることが好ましい。
【0147】
図1に示すような情報空間1において提供される情報環境下では、上述した「空間的連続性」の原則を守ることで、物理的な実空間とコンピュータ上のデジタル空間とが親密に融合し合い、実世界上の物理オブジェクトとデジタル・オブジェクトとの効果的な連携すなわちリンク関係が実現する。この結果、オブジェクト操作に伴なうユーザの負荷を軽減することができる。
【0148】
例えば、パンフレット上に印刷された写真などの媒体から3次元モデルを選んで、それをデジタイズしてテーブル11(すなわち拡張デスクトップ)や携帯型コンピュータの中に取り込んだり、関連するスライド・データを他の会議資料と一緒に持ち運んだり、ということが簡易且つ円滑に行えることができる。
【0149】
また、パンフレット上に印刷されている個々のアイテムに対して、デジタル・オブジェクトへのリンク情報を登録することができる。印刷物が家具を紹介するパンフレットであれば、該紙面上に印刷された家具の写真(若しくは商品型番を表記する文字列)に対して、該当する商品の3次元モデルへのリンク情報を埋め込んでおくことができる。さらに、一般的なGUI環境下で慣れ親しんでいるマウス・カーソル操作をパンフレット上で行うだけで、パンフレット上の特定のアイテムからリンクされているデジタル・オブジェクトを引き出すことができる。例えば、パンフレット上に印刷された写真や文字に対してドラッグ・アンド・ドロップ操作を適用することで、該当する商品の3次元モデルを付近のテーブル11など拡張ディスプレイ上に表示すなわち投影させることができる。
【0150】
このように印刷されたパンフレットからドラッグ・アンド・ドロップでデジタル・オブジェクトを取り出せるような直接的なユーザ・インターフェース環境においては、パンフレットとデジタル・コンテンツとの結合関係(マッピング)をユーザは特に意識する必要がなくなる。
【0151】
本実施例では、デジタル・オブジェクトと実世界上の物理オブジェクトとの連携は、前述したようなカメラ・ベースのオブジェクト認識技術によって実現される。
【0152】
例えば、実世界上の各物理オブジェクトには視覚的に認識・識別することが容易なビジュアル・マーカーが貼着されている。ビジュアル・マーカーの一例は「サイバー・コード」(図3を参照のこと)である。カメラ認識システムは、このビジュアル・マーカーを撮像し解析することで、物理オブジェクトやその位置・向きを識別・特定し、さらには、物理オブジェクトとリンク形成されたデジタル・オブジェクトを引き出すことができる。また、物理オブジェクト上にデジタル・オブジェクトをドラッグ・アンド・ドロップすることで、新たに物理オブジェクト及びデジタル・オブジェクト間でリンクを形成することができる。
【0153】
実世界オブジェクトとデジタル・コンテンツなどの電子情報を連携させる研究としては、InfoBinder[7]、mediaBlocks[8]、Passage[9]などが挙げられる。しかしながら、これらの論文で提案されている事例は、デジタル・オブジェクトの移動のために物理的に体現されたアイコンを用いているだけであり、かかる物理的なアイコンに対して実世界上での役割や用途を付与するものではない。
【0154】
これに対し本発明に係る情報空間1では、デジタル・オブジェクトと実世界上の特定の役割・用途を持った事物とのリンク関係を形成することが可能である。すなわち、文書フォルダ、書類、カード、VCRテープ・カートリッジなどの物理的なオブジェクト自体も、電子情報と結合したオブジェクトとなり得る。例えば、VCRテープ・カートリッジにその内容に関するデジタル写真を仮想的に添付して持ち歩いたり、あるいは編集上のインストラクションをデジタル・ボイス・ノートとして添付したりすることができる。また、会議に関連するスライド・データを文書フォルダに添付したりする用途も可能である。
【0155】
物理オブジェクトに対するデジタル・オブジェクトのリンク形成や、物理オブジェクト上のリンク情報の参照に関する処理手順については、後に詳解する。
【0156】
3.オブジェクト操作
次に、本実施例に係る情報空間1において提供されるオブジェクト操作の処理手順について説明する。
【0157】
3−1.情報空間への物理オブジェクトのインストール
実世界上の物理オブジェクトがコンピュータ上のデジタル空間に深く融合し、デジタル・オブジェクトとの親密な連携を実現する前提として、物理オブジェクトを情報空間1にインストールしなければならない。
【0158】
ユーザが情報空間1内に入って、物理オブジェクトをテーブル11上に置くと、物理オブジェクトは情報空間1の中にインストールされる。ここで言う物理オブジェクトには、ユーザ自身の携帯型コンピュータの他に、パンフレットなどの印刷物、VCRテープ・カートリッジ、カメラ模型など様々である。このインストール・オペレーションは、実際には以下のような処理手順が含まれる。
【0159】
(1)カメラ18及び19が物理オブジェクトを撮像する。
(2)画像処理サーバ20は、カメラ18及び19による撮像画像を基に、当該物理オブジェクトに貼設されたビジュアル・マーカー31を認識して、物理オブジェクトを識別・特定する。物理オブジェクトが携帯型コンピュータのように、それ自身がデジタル・オブジェクトを蓄積する装置である場合には、その所有者ユーザを特定するとともに、ネットワーク接続など環境型コンピュータとのデータ転送路を確立する。
(3)また、画像処理サーバ20は、物理オブジェクトが載置されているテーブル11上の位置や向きの情報も認識する。
(4)さらに、ビジュアル・マーカーが持つ位置・向き情報を基にして、物理オブジェクト表面上に座標系を設定することができる。例えば、物理オブジェクトがパンフレットのような表面積を持つ印刷物であれば、ビジュアル・マーカーを基準位置として、パンフレット用紙上の各印刷アイテムに対して座標位置を設定することができる。
【0160】
情報空間1へのインストールの有無を視覚的にフィードバックするために、図8に示すように、物理オブジェクト(同図に示す例ではVCRテープ・カートリッジ)に対してオブジェクト・オーラを投影表示させてもよい。オブジェクト・オーラとは、対象となるオブジェクトを取り囲むような楕円表示のことであり、オブジェクト・オーラは該当する物理オブジェクトが持つデータ空間を定義する。したがって、ユーザは、テーブル11上にあるデジタル・オブジェクトをハイパードラッグし(図9を参照のこと)、オブジェクト・オーラ内にドロップすることによって(図10を参照のこと)、該デジタル・オブジェクトを物理オブジェクトに添付すなわちリンク形成することができる。
【0161】
3−2.物理オブジェクトに対するリンクの形成とリンク参照
情報空間1にインストールされた物理オブジェクト表面の各アイテムに対してリンク情報を登録することができること、及び、各アイテムからリンク情報を取り出すことができることは、既に言及した。ここでは、リンク情報の登録処理及びリンク情報の参照処理手順について詳解する。
【0162】
図11には、物理オブジェクトの表面上にリンク情報を登録する処理手順をフローチャートの形式で図解している。但し、この場合の物理オブジェクトはパンフレットのような冊子とし、該パンフレットの所定のページ上にリンク情報を形成するものとする。以下、このフローチャートの各ステップについて説明する。
【0163】
まず、パンフレットの所望のページを開いてテーブル11上に置く(ステップS11)。
【0164】
パンフレットの各ページ上には、ページ識別子若しくはページ番号に相当するビジュアル・マーカーが添付されているものとする。したがって、テーブル11の上空に配設されたカメラ18/19が開かれたページを撮像して(ステップS12)、このビジュアル・マーカーを認識することで、ページ番号を識別することができる(ステップS13)。
【0165】
ページ番号を認識した帰結として、当該ページは情報空間1にインストールされたことになる。したがって、このページを取り囲むようなオブジェクト・オーラが投影表示される。
【0166】
また、ビジュアル・マーカーは、識別情報だけでなく位置や向きに関する情報も与えることができるので、ビジュアル・マーカーを基準点にしてページ上に座標系を設定して、ページ上の各部位に対して座標位置(x,y)を付与することができる(図12を参照のこと)。
【0167】
次いで、ユーザは、ハイパードラッグ操作を適用することで、テーブル11や壁面12上に散在するデジタル・オブジェクト(あるいは、未だコンピュータ・ディスプレイ上に存在するデジタル・オブジェクト)を、ページ上にドラッグ・アンド・ドロップする(ステップS13)(図13を参照のこと)。
【0168】
デジタル・オブジェクトがドロップされたページ上の場所は、ビジュアル・マーカーを基準位置として設定された座標系上の座標位置(xdrop,ydrop)として計測することができる。
【0169】
環境型コンピュータは、ドロップしたデジタル・オブジェクトの名前(例えばオブジェクト識別子)を、ページ識別子(若しくはページ番号)とドロップ先の座標位置(xdrop,ydrop)と関連付けて、データベース登録する(ステップS15)。
【0170】
ページ上にドロップしたデジタル・オブジェクトをデータベース登録した帰結として、当該ページ上のドロップ先(xdrop,ydrop)にはリンクが形成されたことになる。以後、ページを情報空間1にインストールすると、該ページ上でリンク情報が埋め込まれた各場所には、視覚的なフィードバックとしてのオブジェクト・オーラが投影表示される(図14を参照のこと)。また、リンク形成時には、テーブル上でのユーザ操作のバックグラウンドにおいて、デジタル・オブジェクトのエンティティであるデータ/ファイルの転送が適宜行われる。
【0171】
例えば、パンフレットの特定の記事に関連する情報を記述したデジタル・オブジェクトを、ページ上の該記事が印刷された部位に埋め込むことによって、後でパンフレットを閲覧するときに、より豊富な情報に容易且つ迅速にアクセスすることができる。例えば、商品の型番や写真などを印刷した場所に、その商品の3次元モデルをリンク情報として埋め込むこともできる。
【0172】
図15には、物理オブジェクトの表面上に埋め込まれたリンク情報を実世界上に取り出す(すなわち実世界上でリンク参照する)ための処理手順をフローチャートの形式で図解している。但し、上述した場合と同様に、物理オブジェクトはパンフレットのような冊子とし、パンフレットの所定のページ上にリンク情報があらかじめ形成されているものとする。以下、このフローチャートの各ステップについて説明する。
【0173】
まず、パンフレットの所望のページを開いてテーブル11上に置く(ステップS21)。
【0174】
パンフレットの各ページ上には、ページ識別子若しくはページ番号に相当するビジュアル・マーカーが添付されているものとする。したがって、テーブル11の上空に配設されたカメラ18/19が開かれたページを撮像して(ステップS22)、ビジュアル・マーカーを認識することで、ページ番号を識別することができる(ステップS23)。
【0175】
ページ番号を認識した帰結として、当該ページは情報空間1にインストールされたことになる。したがって、このページを取り囲むようなオブジェクト・オーラが投影表示される。
【0176】
当該ページには、リンク情報、すなわち、リンクされたデジタル・オブジェクトの名前(例えばオブジェクト識別子)と、ページ識別子(若しくはページ番号)と、リンク情報が埋め込まれた座標位置とからなるデータ・エントリが、既に幾つかデータベース登録されているものとする。このような場合には、ページが情報空間1にインストールされたことに応答して、該ページ上でリンク情報が埋め込まれた各場所には、視覚的なフィードバックとしてのオブジェクト・オーラが投影表示される(ステップS24)(図14を参照のこと)。
【0177】
ユーザは、ページ上の所望のオブジェクト・オーラに対してドラッグ・アンド・ドロップ操作を適用することによって、リンク情報としてのデジタル・オブジェクトをテーブル11上に取り出して(すなわちLCDプロジェクタ13で投影表示して)、リンク情報を閲覧に供することができる(ステップS25)(図16を参照のこと)。リンク参照時には、テーブル上でのユーザ操作のバックグラウンドにおいて、デジタル・オブジェクトのエンティティであるデータ/ファイルの転送が適宜行われる。
【0178】
例えば、パンフレットの特定の記事に関連する情報を記述したデジタル・オブジェクトが、ページ上の該記事が印刷された部位にあらかじめ埋め込まれていれば、より豊富な情報に容易且つ迅速にアクセスすることができる。例えば、商品の型番や写真などを印刷した場所に、その商品の3次元モデルをリンク情報として埋め込まれていれば、ページ上に印刷されている商品の写真などを直接ドラッグ・アンド・ドロップ操作するという直感的な操作によって、該商品のリアリスティックな3次元グラフィックスをテーブル11や壁面12などの拡張デスクトップ上に投影表示させることができる。すなわち、ユーザは、Webページ画面上でアンカーからリンク先のページを引き出す場合と同じような操作感で、物理オブジェクト上の所定の部位からデジタル・オブジェクトを参照することができる訳である。
【0179】
紙パンフレットのような物理オブジェクトの表面にデジタル・オブジェクトへのリンク情報を埋め込むことによって、物理オブジェクトを一種のハイパーメディアとして取り扱うこともできる。すなわち、ユーザからは、ページ上の所定位置に情報が埋め込まれているように扱い、其処から随時情報を取り出すことができる。
【0180】
3−3.デジタル・オブジェクトの実世界ドラッグ・アンド・ドロップ
本実施例に係る情報空間1では、実世界がコンピュータ上のデジタル世界と深く融合した結果として、デジタル・オブジェクトを実世界上でドラッグ・アンド・ドロップ操作することができる。
【0181】
実世界ドラッグ・アンド・ドロップの一例は、「ハイパードラッグ」[3](前述)である。
【0182】
本明細書では、さらに、実世界ドラッグ・アンド・ドロップの他の例について紹介する。該例では、実世界上の特定のオブジェクト(ソース・オブジェクト)を指示して、これを所望のオブジェクト(デスティネーション・オブジェクト)に投入することによって、デスティネーション・オブジェクトが暗示する処理をソース・オブジェクトに対して適用することができる。
【0183】
例えば、まず、物理的なドキュメントで構成されるソース・オブジェクトを指示し、次いで、これをプリンタで構成されるデスティネーション・オブジェクトに投入することによって、ドキュメントのプリント動作が開始する。通常のコンピュータ・デスクトップ画面上では、文書ファイル・アイコンをプリンタ・アイコン上にドラッグ・アンド・ドロップして文書ファイルのプリント・ジョブを発行することができる。このようなGUI操作と同様のメタファを実世界上に提供することができる訳である。
【0184】
また、VCRテープ・カートリッジのように動画像を保存した物理オブジェクトをソース・オブジェクトとして指示し、これをテレビ・モニタのように動画像を再生する機器で構成されるデスティネーション・オブジェクトに投入することによって、デスティネーション・オブジェクト上での動画像再生が実行される。通常のコンピュータ・デスクトップ画面上では、動画像ファイル・アイコンをビューワ・アイコン上にドラッグ・アンド・ドロップして動画像を再生処理することができる。このようなGUI操作と同様のメタファを実世界上に提供することができる。
【0185】
実世界上に散在するオブジェクトを指示するために、図17に示すようなハンディ・タイプのID(ビジュアル・マーカー)認識装置50が導入される。
【0186】
ID認識装置50は、ペン型デバイスのように、ユーザが片手で持って操作することができる程度の小型・軽量に構成されていることが好ましい。ID認識装置50のID認識装置50の先端部には、ビジュアル・マーカーなどの視覚的な識別情報を読み取るための読取部51が配設されている。また、上面には、ユーザが認識内容の記録動作を付勢するための操作ボタン52が配設されている。このボタン52は、マウスの左ボタンに類似するものと理解されたい。また、ID認識装置50の後端部には、電波や赤外線などの無線データ送信部53が配設されている。
【0187】
このID認識装置50における認識機構は、CCD(Charge Coupled Device:電荷結合素子)カメラ、バーコード・リーダ、RFTAGリーダなど、特に限定されない。また、ID認識装置50は、無線LAN若しくはその他の通信手段によって環境型コンピュータと接続されており、認識結果やユーザ操作内容を環境型コンピュータに転送するようになっている。
【0188】
図18には、ID認識装置50を用いた場合の、実世界上におけるオブジェクトのドラッグ・アンド・ドロップの処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0189】
まず、ユーザは、ID認識装置50の読取部51をソース・オブジェクトのビジュアル・マーカー付近に向けながら、操作ボタン52を押下する(ステップS31)。
【0190】
ID認識装置50は、ソース・オブジェクトのビジュアル・マーカーを撮像して、ソース・オブジェクトの識別情報を認識・識別するとともに、その識別情報を保存しておく(ステップS32)。図49には、ID認識装置50によって、ソース・オブジェクトとしてのドキュメントに貼設されたビジュアル・マーカーを読み取る様子を描写している。
【0191】
次いで、操作ボタン52を押下したままの状態で、今度は読取部51をデスティネーション・オブジェクトのビジュアル・マーカー付近に向ける(ステップS33)。
【0192】
ID認識装置50は、デスティネーション・オブジェクトのビジュアル・マーカーを撮像して、デスティネーション・オブジェクトの識別情報を認識・識別するとともに、その識別情報を保存しておく(ステップS34)。図50には、ID認識装置50によって、デスティネーション・オブジェクトとしてのプリンタに貼設されたビジュアル・マーカーを読み取る様子を描写している。
【0193】
その後、操作ボタン52を解放すると(ステップS35)、ID認識装置50は、蓄積しておいたソース・オブジェクト及びデスティネーション・オブジェクト双方の識別情報を、情報空間1内に設置された環境型コンピュータに対して転送する(ステップS36)。
【0194】
環境型コンピュータは、受信した各IDを基にユーザが意図する処理を適切に判別するために、以下に示すようなオブジェクト−タイプ対応表と、命令表とを備えている。
【0195】
【表1】
【0196】
[表1]に示すように、オブジェクト−タイプ対応表は、各オブジェクトが持つタイプ若しくは種別を記述したテーブルであり、左欄にはオブジェクトの識別情報が、右欄には対応するタイプが書き込まれる。同表に示す例では、オブジェクト識別子が101及び102のオブジェクトはいずれもドキュメント・タイプであり、オブジェクト識別子が120のオブジェクトはプリンタとなっている。
【0197】
【表2】
【0198】
[表2]に示すように、命令表は、ソース・オブジェクト及びデスティネーション・オブジェクトそれぞれのタイプの組み合わせに対してとるべきアクション(すなわちデスティネーション・オブジェクト)に対する命令を記述したテーブルである。同表に示す例では、ソース・オブジェクト及びデスティネーション・オブジェクトのタイプがそれぞれドキュメント及びプリンタである場合には、対応するアクションは、「ソース・オブジェクトをデスティネーション・オブジェクトからプリント出力せよ(PRINT SOURCE FROM DEST)」となっている。
【0199】
したがって、環境型コンピュータは、受信したソース・オブジェクト及びデスティネーション・オブジェクトそれぞれのIDを、オブジェクト−タイプ対応表で検索して、各々のタイプを特定する。さらに、命令表を検索して、タイプの組み合わせに対応するアクションの定義を取得することができる(ステップS37)。
【0200】
そして、環境型コンピュータは、対応するアクションを実行せしめる(ステップS38)。
【0201】
要するに、図18に示す処理手順に従えば、実世界上に拡張された仮想的なドラッグ・アンド・ドロップ操作を、現実の物理オブジェクトに対して適用することによって、物理オブジェクトに対して処理を適用することができる訳である。上述した処理手順は、コンピュータ・デスクトップ画面上における直感的なGUI操作のメタファを実世界に対して与えるものである。
【0202】
3−4.仮想カメラ
実世界上における「カメラ」は、実在する物理オブジェクトの撮像画像を生成し提供する装置である。
【0203】
本実施例に係る情報空間1では、実在する物理オブジェクトと、仮想的な(すなわち実体はコンピュータのデジタル空間上にしか存在しない)デジタル・オブジェクトとが、実世界上に混在する。実世界上のカメラは、物理オブジェクトを撮像することはできるが、デジタル・オブジェクトを撮像することはできない。
【0204】
そこで、本実施例では、ハイパードラッグなどの直接対話技法により実世界上に飛び出してきたデジタル・オブジェクトを実世界上で撮像することができる「仮想カメラ」なる概念を導入している。仮想カメラは、例えば、テーブル11上にレイアウトされたデジタル・オブジェクトを任意の位置及び方向で「撮像」して、該位置及び方向から撮像された風景すなわち3次元シーンを提供することができる。
【0205】
仮想カメラは、現実の撮像能力を持つカメラである必要は全くなく、仮想カメラとして情報空間1内にインストールされる物理オブジェクトであれば充分である。図19には、仮想カメラ60の一例について外観を示している。同例では、撮像するというメタファを視覚的に与えるために、現実のカメラに類似した形状を有する「カメラ模型」である。このカメラ模型60は、情報空間1に円滑にインストールされるべく、その上面にビジュアル・マーカーが貼設されている。また、カメラ模型60の前面には、カメラ・レンズを模した円筒状突起が配設されている。ビジュアル・マーカーは識別情報の他に位置・向きに関する情報を与えるので(前述)、環境型コンピュータは、カメラ模型60をインストールするときに、カメラ・レンズすなわち撮像方向を特定することができる。
【0206】
図20には、カメラ模型60がテーブル11上にレイアウトされたデジタル・オブジェクトをある所定の位置及び方向で「撮像」する様子を描写している。
【0207】
同図に示す例では、カメラ模型60が設置されたテーブル11上には、円柱、直方体、円錐など各立体形状を持つデジタル・オブジェクトが散在している。LCDプロジェクタ13(図20では図示しない)は、これらデジタル・オブジェクトの上面図をテーブル11上に投影表示している。
【0208】
カメラ模型60をテーブル11上に設置すると、カメラ18/19がこれを撮像する。環境型コンピュータは、カメラ模型60に貼設されたビジュアル・マーカーを基にして、設置された物理オブジェクトがカメラ模型60であることを認識する(すなわち、カメラ模型60が情報空間1にインストールされる)。さらに、ビジュアル・マーカーが持つ位置及び向き情報を基にして、カメラ模型60の撮像方向が矢印Dに示す方向であることを特定する。
【0209】
環境型コンピュータは、情報空間1内に配設されたすべてのオブジェクトの情報を把握している。すなわち、環境型コンピュータは、現在テーブル11上に存在している各デジタル・オブジェクトについての、表示位置情報や3次元図形情報(描画情報)を管理している。
【0210】
環境型コンピュータは、カメラ模型60の設置位置と撮像方向Dを認識すると、これらを視点情報として用いることによって、テーブル11上の各デジタル・オブジェクトをその位置及び方向から撮像したときに得られる画像を、3次元コンピュータ・グラフィックス処理によって生成する。図20に示す場合であれば、図21に示ような立体画像が得られることになる。
【0211】
得られた3次元シーンは、例えばLCDプロジェクタ14を用いて、テーブル11や壁面12上の所望の場所に投影表示することができる。あるいは、ネットワーク15経由で他のコンピュータ(例えばユーザ・コンピュータ)に画像情報を転送して、そのコンピュータ・スクリーン上に3次元シーンを表示するようにしてもよい。
【0212】
さらに、カメラ模型60の設置位置を図20の破線で示す位置に移動すると、カメラ18/19がこれを撮像し、カメラ模型60は移動先の場所にて情報空間1に再インストールされる。また、環境型コンピュータは、カメラ模型60が移動先の場所での撮像方向D'を認識して、これらを視点情報として用いることで、図22に示すような新しい3次元シーンを再生成する。生成された3次元シーンは、テーブル11や壁面12の所望の場所に投影表示したり、あるいはユーザ・コンピュータのディスプレイ上に表示する。
【0213】
図23には、仮想カメラによる撮像画像を処理する手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0214】
まず、カメラ模型60をテーブル11上の任意の場所に設置すると(ステップS41)、カメラ18/19がこれを撮像する(ステップS42)。
【0215】
環境型コンピュータは、カメラ模型60に貼設されたビジュアル・マーカーを基にして、設置された物理オブジェクトがカメラ模型60であることを認識する(すなわち、カメラ模型60が情報空間1にインストールされる)(ステップS43)。さらに、ビジュアル・マーカーが持つ位置及び向き情報を基にして、カメラ模型60の撮像方向が矢印Dに示す方向であることを特定する。
【0216】
次いで、環境型コンピュータは、カメラ模型60の設置位置と撮像方向Dを視点情報として、テーブル11上の各デジタル・オブジェクトをその位置及び方向から撮像したときに得られる画像を、3次元コンピュータ・グラフィックス処理によって生成する(ステップS44)。
【0217】
得られた3次元シーンは、例えばLCDプロジェクタ14を用いて、テーブル11や壁面12の所望の場所に投影表示することができる(ステップS44)。あるいは、ネットワーク15経由で他のコンピュータ(例えばユーザ・コンピュータ)に画像情報を転送して、そのコンピュータ・スクリーン上に3次元シーンを表示するようにしてもよい。
【0218】
3−5.レーザ・ポインタを用いたデジタル・オブジェクトの移動
「ハイパードラッグ」、すなわち、デジタル・オブジェクトを実世界上で操作するための座標指示手段として、各ユーザ・コンピュータのマウス・カーソルを用いることができる(前述)。「マウス」というユーザ入力装置は、コンピュータ業界に深く浸透しており、既に多くのユーザがその操作方法を習熟している優れた座標指示装置である。但し、マウスは本来、コンピュータにネイティブのディスプレイ・スクリーン上のオブジェクトを操ることを想定してデザインされたものであり、実世界上に拡張された広い作業空間をカーソル移動させたり、遠方のオブジェクトを指示するには、必ずしも適当ではない場面もあろう。
【0219】
そこで、本実施例では、実世界上のオブジェクト操作用のデバイスとして、レーザ・ポインタを使用することにした。レーザ・ポインタは、そもそも、プレゼンテーションなどの場面において、発表者が比較的距離のある対象物を容易に指し示すことができるようにデザインされた指示装置である。
【0220】
本発明者等は、レーザ・ポインタを用いて実世界上のオブジェクトをドラッグ・アンド・ドロップ操作する対話技法のことを、特に”Pick−and−Beam”と呼んでいる。Pick−and−Beamにおけるクリック操作は、例えばレーザ・ビームの点滅操作によって表現することができる。
【0221】
例えば、ユーザは、テーブル11上に投影表示されたデジタル・オブジェクトをレーザ・ポインタでクリックし(図24を参照のこと)、次いで、壁面12上をレーザ・ポインタで指示することによって、所望のデジタル・オブジェクトをテーブル11から壁面12へ移動させることができる(図25を参照のこと)。図示しないが、勿論、壁面12からテーブル11へオブジェクトを移動させることも可能である。
【0222】
すなわち、レーザ・ポインタというデバイスを介して、デジタル・オブジェクトをテーブル11上から「拾い上げ」(pick)、さらに壁面12上をビーム(beam)するような感覚を、ユーザに与えることができる。
【0223】
前述したPick−and−Drop[2]は、ユーザの手の届く範囲に限りペンによって情報すなわちオブジェクトを移動させる対話操作であった。これに対し、Pick−and−Beamは、ユーザから離れた場所にオブジェクトを容易に移動させることができる。
【0224】
Pick−and−Beam操作では、実世界上に存在する物理オブジェクトやデジタル・オブジェクトの他に、レーザ・ポインタが出力するビーム・スポットを認識する必要がある。このため、本実施例に係る情報空間1では、通常の可視光を検出する固定カメラ18及びチルト/パン・カメラ19に加えて、さらに、1以上の赤色フィルタ付きカメラ41A,41B…を導入している(前述)。ここで用いられる「赤色フィルタ」は、レーザ・ポインタの出力光の波長付近のみを透過する光学フィルタで構成される。
【0225】
図26には、レーザ・ポインタを用いて実世界上のオブジェクトをドラッグ・アンド・ドロップ操作する対話技法すなわちPick−and−Beamのうち、オブジェクトをPickする処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0226】
まず、実世界上に存在するデジタル・オブジェクト、すなわちテーブル11又は壁面12に投影表示されているデジタル・オブジェクトに、レーザ・ポインタのビーム光を当てて、点滅させる(ステップS51)。
【0227】
環境型コンピュータは、赤色フィルタ付きカメラ41による撮像画像を基に、テーブル11又は壁面12上でのレーザ・ビーム光の点滅を認識する(ステップS52)(図24を参照のこと)。
【0228】
環境型コンピュータは、レーザ・ビーム光の点滅を、デジタル・オブジェクトに対するクリック操作として解釈する。そして、デジタル・オブジェクトを記録しておく(ステップS53)。デジタル・オブジェクトの記録の際、必要であれば、コンピュータ間でデジタル・オブジェクトのエンティティであるデータ/ファイルの転送が行われる。
【0229】
また、図27には、レーザ・ポインタを用いて実世界上のオブジェクトをドラッグ・アンド・ドロップ操作する対話技法すなわちPick−and−Beamのうち、オブジェクトをBeamする処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0230】
まず、実世界上でデジタル・オブジェクトが存在しない場所、すなわち壁面12又はテーブル11上でデジタル・オブジェクトが投影表示されていない場所に、レーザ・ポインタのビーム光を照射する(ステップS61)。
【0231】
赤色フィルタ付きカメラ41は、テーブル11又は壁面12上でのレーザ・ビーム光の点灯位置を認識する(ステップS62)。
【0232】
環境型コンピュータは、デジタル・オブジェクトが存在しない場所におけるレーザ・ビーム光の点灯操作を、デジタル・オブジェクトの移動又はドロップ操作として解釈する。そして、Pick操作のときにあらかじめ記録されたデジタル・オブジェクト(ステップS53)を、LCDプロジェクタ13又は14を表示制御するコンピュータ・システム16又は17に対してネットワーク転送する(ステップS63)。
【0233】
デジタル・オブジェクトを受信したコンピュータ・システム16又は17は、レーザ・ビーム光の点灯位置に、デジタル・オブジェクトを投影表示する(ステップS64)(図25を参照のこと)。
【0234】
図28には、実世界上でレーザ・ポインタによって指示される位置すなわちレーザ・ビーム光の点灯位置を認識する処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0235】
赤色フィルタ付きカメラ41は、テーブル11や壁面12などの実世界を撮影している(ステップS71)。赤色フィルタ付きカメラ41は、レーザ・ポインタの出力光の波長付近のみの入射光で構成される撮像画像を供給する。
【0236】
赤色フィルタ付きカメラ41の撮像画像中で、最も高輝度の点における輝度値が所定の閾値を超えているか否かを判別する(ステップS72)。
【0237】
もし所定の閾値を超えている点があれば、その点をレーザ・ビーム光の点灯位置として認識する(ステップS73)。そして、ステップS71に復帰して、次にレーザ・ビーム光が点灯するまで待機する。
【0238】
また、赤色フィルタ付きカメラ41の撮像画像中に所定の閾値を超える点がない場合には、レーザ・ポインタは何も指示していないものとして、ステップS71に復帰して、上述と同様の処理を繰り返す。
【0239】
3−6.実世界上におけるデジタル・オブジェクト対するその他の操作
上述したように、本発明に係る情報空間1上では、物理的な実空間とコンピュータ上のデジタル空間とが深く融合し合うことによって、デジタル・オブジェクトを実世界上で操作することができる。また、実世界上でのオブジェクト操作には、コンピュータすなわちデジタル空間のGUI(Graphical User Interface)向けに開発された直接的な対話技法(direct manipulation)の概念が導入される。
【0240】
この項では、直接的な対話技法に従った実世界上でのオブジェクト操作手法に関する上記以外の例について紹介する。
【0241】
(1)レーザ・ポインタを用いた実世界上でのリンク参照
印刷されたパンフレットなどを始めとする物理オブジェクトの表面上にデジタル・オブジェクトへのリンク情報を形成したり(図12〜図14を参照のこと)、リンク情報を実世界上で参照する(図16を参照のこと)ことができることは、既に述べた通りである。
【0242】
既述した例では、実世界上でのリンク参照、すなわち物理オブジェクト表面からデジタル・オブジェクトを取り出す操作は、コンピュータに標準装備されたマウスなどの座標指示装置を用いてハイパードラッグすることによって行われる。他方、実世界上におけるデジタル・オブジェクトの操作は、レーザ・ポインタを用いて行うことができる(図24及び図25を参照のこと)。
【0243】
そこで、ここでは、レーザ・ポインタを用いたリンク参照という対話技法について紹介する。図29には、レーザ・ポインタを用いてリンク参照するための処理手順をフローチャートの形式で示している。
【0244】
まず、パンフレットの所望のページを開いてテーブル11上に置く(ステップS81)。
【0245】
パンフレットの各ページ上には、ページ識別子若しくはページ番号に相当するビジュアル・マーカーが添付されているものとする。したがって、テーブル11の上空に配設されたカメラ18/19が現在開かれているページを撮像して(ステップS82)、ビジュアル・マーカーを認識することで、ページ番号を識別することができる(ステップS83)。
【0246】
ページ番号を認識した帰結として、当該ページは情報空間1にインストールされたことになる。したがって、このページを取り囲むようなオブジェクト・オーラが投影表示される(図12を参照のこと)。
【0247】
当該ページには、リンク情報、すなわち、リンクされたデジタル・オブジェクトの名前(例えばオブジェクト識別子)と、ページ識別子(若しくはページ番号)と、リンク情報が埋め込まれた座標位置とからなるデータ・エントリが、既に幾つかデータベース登録されているものとする。このような場合には、ページが情報空間1にインストールされたことに応答して、該ページ上でリンク情報が埋め込まれた各場所には、視覚的なフィードバックとしてのオブジェクト・オーラが投影表示される(ステップS84)(図14を参照のこと)。
【0248】
ユーザは、ページ上の所望のリンク情報に該当するオブジェクト・オーラを、レーザ・ポインタの出力ビーム光で照射したまま、テーブル11上までドラッグする(ステップS85)(図30を参照のこと)。
【0249】
環境型コンピュータは、赤色フィルタ付きカメラ41による撮像画像を基に、パンフレットのページからテーブル11上に跨って行われたレーザ・ビーム光のドラッグを認識する(ステップS86)。
【0250】
そして、環境型コンピュータは、ドラッグされたリンク情報に相当するデジタル・オブジェクトを、LCDプロジェクタ13を表示制御するコンピュータ・システム16にネットワーク転送する(ステップS87)。
【0251】
デジタル・オブジェクトを受信したコンピュータ・システム16は、テーブル11上でレーザ・ビーム光をドロップした場所に、リンク情報としてのデジタル・オブジェクトを投影表示する(ステップS88)(図31を参照のこと)。
【0252】
この結果、ユーザは、ページ上の所望のオブジェクト・オーラに対してレーザ・ポインタを用いてドラッグ・アンド・ドロップ操作を適用することによって、リンク情報としてのデジタル・オブジェクトをテーブル11上に取り出して(すなわちLCDプロジェクタ13で投影表示して)、リンク情報を参照することができる訳である。
【0253】
パンフレットの特定の記事に関連する情報を記述したデジタル・オブジェクトが、ページ上の該記事が印刷された部位にあらかじめ埋め込まれていれば、より豊富な情報に容易且つ迅速にアクセスすることができる。例えば、商品の型番や写真などを印刷した場所に、その商品の3次元モデルをリンク情報として埋め込まれていれば、ページ上に印刷されている商品の写真などを直接ドラッグ・アンド・ドロップ操作するという直感的な操作によって、該商品のリアリスティックな3次元グラフィックスをテーブル11や壁面12などの拡張デスクトップ上に投影表示させることができる。すなわち、ユーザは、Webページ画面上でアンカーからリンク先のページを引き出す場合と同じような操作感で、物理オブジェクト上の所定の部位からデジタル・オブジェクトを参照することができる訳である。
【0254】
(2)デジタル空間からの3次元モデルの取り出し
既に述べたように、実世界上の空間とデジタル空間とが深く融合した情報空間1においては、デジタル空間上のGUI向けに開発された直接的な対話技法が実空間上にも拡張される。例えば、コンピュータ・ディスプレイ上で行うドラッグ・アンド・ドロップ操作を実世界上に継承するハイパードラッグ操作(図7を参照のこと)が可能である。
【0255】
ハイパードラッグの操作対象は、アプリケーションやファイルなどを象徴するいわゆる「アイコン」のような2次元的な表示オブジェクトに限定されない。例えば、ユーザ・コンピュータ上に保存された3次元モデル(あるいは、コンピュータ上で3次元グラフィックス処理により自動生成された3次元モデル)であっても、ハイパードラッグの操作対象となり得る。
【0256】
図32には、ユーザ・コンピュータ上に存在する3次元モデルを実世界上に取り出すための処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0257】
まず、ユーザは、自分の携帯型コンピュータテーブル11上に置く(ステップS91)。
【0258】
携帯型コンピュータの表面には、識別情報を表示するビジュアル・マーカーが添付されている。したがって、テーブル11の上空に配設されたカメラ18/19が携帯型コンピュータを撮像して(ステップS92)、このビジュアル・マーカーを認識することで、携帯型コンピュータを識別することができる(ステップS93)。
【0259】
ビジュアル・マーカーが持つ識別情報を認識した帰結として、当該携帯型コンピュータは情報空間1にインストールされたことになる。これに応答して、当該携帯型コンピュータを取り囲むようなオブジェクト・オーラを投影表示してもよい。
【0260】
また、ビジュアル・マーカーは、識別情報だけでなく位置や向きに関する情報も与えることができるので、ビジュアル・マーカーを基準点にして座標系を設定することができる。
【0261】
次いで、ユーザは、自分の携帯型コンピュータ上で、所望の3次元モデルを検索する(ステップS94)。あるいは、所望の3次元モデルをコンピュータ・グラフィックス処理により自動生成してもよい。
【0262】
さらに、ユーザは、ハイパードラッグのような直接的な対話技法を用いて、見つけ出された3次元モデルをテーブル11上にドラッグ・アンド・ドロップする(ステップS95)。
【0263】
テーブル11上へのドロップ操作に応答して、そのバックグラウンドでは、携帯型コンピュータから環境型コンピュータへ、3次元モデルに関する描画情報がデータ転送される(ステップS96)。
【0264】
描画情報を受信した環境型コンピュータは、LCDプロジェクタ13を駆動制御して、テーブル上のドロップされた場所に3次元モデルを投影表示する(ステップS97)。
【0265】
図33には、携帯型コンピュータ上に保存された(又は、携帯型コンピュータ上で生成した)3次元モデルを、コンピュータ・デスクトップから取り出してテーブル11上に投影表示する様子を描写している。このような3次元モデルのデジタル空間から実世界への取り出しは、例えば、「ハイパードラッグ」のような直接的な対話技法に従って行うことができる。3次元モデルを取り出すためのユーザ操作を以下に簡単に説明しておく。
【0266】
(a)ユーザは、所望の3次元モデルを、コンピュータ・スクリーン上で検索し選択する。そして、見つけ出した3次元オブジェクトをマウス・カーソルで選択し、該スクリーンの周縁に向かってドラッグする。
(b)カーソルがコンピュータ・スクリーンの周縁に到達すると、マウス・カーソルはコンピュータ・スクリーンから飛び出して、コンピュータが載置されているテーブル11へと移動する。
(c)この間、マウス・カーソルがオブジェクトを把持したままの状態であれば、ドラッグ操作そのものがテーブル11上に継承され(すなわち、「ハイパードラッグ」され)、3次元モデルがテーブル11上に投影表示される。
(d)テーブル11上にハイパードラッグされた3次元モデルと元の携帯型コンピュータとの間に、「アンカー・カーソル」を表示して、3次元モデルの源を視覚的にフィードバックするようにしてもよい。
【0267】
(3)ビジュアル・マーカーからのデジタル・オブジェクトの取り出し
本実施例に係る情報空間1では、全てのデジタル・オブジェクトは、環境型コンピュータ上に蓄積されているか、又は、ネットワーク15経由のデータ転送により環境型コンピュータが取得することができる。
【0268】
また、本実施例に係る情報空間1上では、各オブジェクト上に貼設されたビジュアル・マーカー(より具体的にはビジュアル・マーカーが持つ識別情報)によって、オブジェクトを一意に特定することができる。
【0269】
これらの応用技術として、例えば図17に示すようなID認識装置50で読み取られたビジュアル・マーカーに対応するデジタル・オブジェクトをデジタル空間上に取り出す(又は、デジタル空間上にハイパードラッグする)、という直接的な対話技法が考案される。
【0270】
図34及び図35には、ビジュアル・マーカーによって特定されるデジタル・オブジェクトをデジタル空間上にハイパードラッグする様子を描写している。
【0271】
まず、図34に示すように、ユーザは、ペン型のID認識装置50を手に持ち、操作ボタン52を押下しながら、先端部(すなわち読取部51)を所望の物理オブジェクト上に貼設されたビジュアル・マーカーに向けて、読取動作を行う。図34に示す例では、物理オブジェクトはICカードであるが、特にこれに限定されない。
【0272】
ID認識装置50内では、ビジュアル・マーカーを撮像して、ソース・オブジェクトの識別情報を認識・識別処理が行われる。識別情報は、操作ボタン52を押下している間、ID認識装置50内に保存される。
【0273】
次いで、ユーザは、操作ボタン52を押下したまま、ID認識装置50の先端部を自分の携帯型コンピュータのディスプレイ・スクリーンに向ける。さらに、ユーザが操作ボタン52を解放すると、図35に示すように、ビジュアル・マーカー(又は、元の物理オブジェクトであるICカード)に対応するデジタル・オブジェクトが、ディスプレイ・スクリーン上にハイパードラッグされる。図35に示す例では、ICカードに対応するデジタル・オブジェクトは、ICカードの正面画像オブジェクトであるが、特にこれに限定されない(例えば、ICカードに関連するICカードの所有者プロファイルなどの属性情報であってもよい)。
【0274】
図36には、ビジュアル・マーカーによって特定されるデジタル・オブジェクトをデジタル空間上にハイパードラッグするための処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0275】
まず、ユーザは、ID認識装置50の先端部(読取部51)を物理オブジェクト(図34の例では、ユーザが所有するICカード)のビジュアル・マーカー付近に向けながら、操作ボタン52を押下する(ステップS101)。
【0276】
ID認識装置50は、ソース・オブジェクトのビジュアル・マーカーを撮像して、物理オブジェクト(ICカード)の識別情報(ID)を認識・識別するとともに、その識別情報を保存しておく(ステップS102)。
【0277】
次いで、ユーザは、操作ボタン52を押下したままの状態で、ID認識装置50の先端部(読取部51)を、ユーザの携帯型コンピュータのディスプレイ・スクリーン表面付近に向ける(ステップS103)。但し、ユーザの携帯型コンピュータ自体は、所定の処理手順に従って、既に情報空間1内にインストールされているものとする。
【0278】
ユーザが操作ボタン52を解放すると(ステップS104)、ID認識装置50は、蓄積しておいた物理オブジェクト(すなわちICカード)の識別情報を、情報空間1内に設置された環境型コンピュータに対して転送する(ステップS105)。
【0279】
環境型コンピュータは、受信した識別情報を基に、ユーザが指定したデジタル・オブジェクトを特定して、これをユーザの携帯型コンピュータに転送する(ステップS106)。
【0280】
そして、携帯型コンピュータのディスプレイ・スクリーン上では、転送されてきたデジタル・オブジェクト(図35に示す例では、物理オブジェクトとしてのICカードの正面画像)が表示される(ステップS107)。
【0281】
上述したような処理手順に従えば、物理オブジェクトからデジタル空間へ、所望のデジタル・オブジェクトをハイパードラッグする、という直接的な対話技法が実現される。
【0282】
(4)実世界上のオブジェクトのデジタル空間への取り込み
コンピュータ・デスクトップ上のGUI操作向けに開発された対話技法の1つとして、いわゆる範囲指定が挙げられる。すなわち、GUI画面上において、マウス・カーソルをドラッグすることによって矩形領域を描いて、該領域中のデータ又はオブジェクトをコピー又は切り取りの対象として指定することができる。
【0283】
実世界とデジタル空間とが深く融合した情報空間1においては、テーブル11表面や壁面12など実空間上に展開された拡張ディスプレイ上においても、このようなオブジェクトの「範囲指定」操作を行うことができる。さらに、範囲指定された領域をカメラ18/19で撮像して、範囲指定された領域の画像を、ハイパードラッグなどの直接的対話技法を用いてデジタル・オブジェクトとしてデジタル空間内に取り込むことができる。
【0284】
図37〜図39には、実世界上のオブジェクトをデジタル空間へ取り込む様子を描写している。
【0285】
図37に示すように、ユーザがテーブル11上に自分の携帯型コンピュータを設置すると、カメラ18/19がこれを撮像し、環境型コンピュータは貼設されたビジュアル・マーカーを識別して携帯型コンピュータを情報空間1内にインストールする。また、携帯型コンピュータを取り囲むようなオブジェクト・オーラが投影表示される。
【0286】
ユーザは、ハイパードラッグ操作により、マウス・カーソルをディスプレイ・スクリーンを飛び越えて、テーブル上まで移動させることができる。さらに、テーブル上に置かれた所定の物理オブジェクト(図37に示す例では「名刺」)を取り囲むようにカーソルをドラッグさせる。
【0287】
一連のドラッグ操作はカメラ18/19が撮像しているので、環境型コンピュータは、ハイパードラッグによって指定された領域を認識することができる。環境型コンピュータは、認識した指定領域を取り囲むような「ラバーバンド」を投影表示させることによって、ユーザに対して視覚的なフィードバックを与えることができる。
【0288】
ラバーバンドで囲まれた領域の撮像画像は、デジタル・オブジェクトとして情報空間1内に取り込まれている。したがって、ユーザは、ラバーバンド領域内の画像をハイパードラッグすることができる(図38を参照のこと)。
【0289】
さらに、ラバーバンドで囲まれた画像をハイパードラッグして、携帯型コンピュータのディスプレイ・スクリーン上にドロップすることによって、このデジタル・オブジェクトを携帯型コンピュータ内に取り込むことができる。この結果、デジタル・オブジェクトがディスプレイ・スクリーン上に表示される(図39を参照のこと)。また、このような対話的操作のバックグラウンドでは、オブジェクト・エンティティ(この場合は、名刺のイメージや名刺に関連するその他情報など)が、環境型コンピュータから携帯型コンピュータに向かってネットワーク転送される。
【0290】
図40には、実世界上のオブジェクトをデジタル空間へ取り込むための処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0291】
まず、ユーザは、自分の携帯型コンピュータをテーブル11上に置く(ステップS111)。
【0292】
携帯型コンピュータの表面には、識別情報を表示するビジュアル・マーカーが添付されている。したがって、テーブル11の上空に配設されたカメラ18/19が携帯型コンピュータを撮像して(ステップS112)、このビジュアル・マーカーを認識することで、携帯型コンピュータを認識・識別することができる(ステップS113)。
【0293】
ビジュアル・マーカーが持つ識別情報を認識した帰結として、当該携帯型コンピュータは情報空間1にインストールされたことになる。これに応答して、当該携帯型コンピュータを取り囲むようなオブジェクト・オーラをテーブル11上に投影表示してもよい。
【0294】
また、ビジュアル・マーカーは、識別情報だけでなく位置や向きに関する情報も与えることができるので、ビジュアル・マーカーを基準点にして座標系を設定することができる。
【0295】
情報空間1にインストールされた携帯型コンピュータ上では、直接的な対話技法であるGUI操作を実世界の拡張ディスプレイ上でも行うことができる。すなわち、マウス・カーソルは、ディスプレイ・スクリーン上から飛び出して、テーブル11上などの実世界に移動することができる。携帯型コンピュータと実世界上のマウス・カーソルとの間にはアンカー・カーソルが投影表示されて、ユーザには視覚的にフィードバックが与えられる。
【0296】
ここで、ユーザは、アンカー・カーソルを用いて、所望の物理オブジェクト(図37に示す例では「名刺」)を範囲指定することができる(ステップS114)。
【0297】
テーブル11上でのユーザ操作はカメラ18/19によって追跡されており、環境型コンピュータは、アンカー・カーソルによって領域指定操作を認識することができる。そして、環境型コンピュータは、テーブル11上で範囲指定された領域(図37に示す例では「名刺」)を、ラバーバンドで囲んで、ユーザに対して視覚的なフィードバックを与える(ステップS115)。
【0298】
ラバーバンドで囲まれた領域の撮像画像は、デジタル・オブジェクトとして情報空間1内に取り込まれている。したがって、ユーザは、ラバーバンド領域内の画像、すなわちデジタル・オブジェクトをハイパードラッグすることができる(ステップS116)(図38を参照のこと)。このようなユーザ操作は、カメラ18/19が撮像しているので、環境型コンピュータが認識することができる。
【0299】
さらに、ラバーバンドで囲まれた画像をハイパードラッグして、携帯型コンピュータのディスプレイ・スクリーン上にドロップする(S117)。
【0300】
環境型コンピュータは、カメラ18/19の撮像画像を通して、このようなドロップ操作を認識すると、該当するデジタル・オブジェクトのエンティティ(この場合は、名刺のイメージや名刺に関連するその他情報など)を、携帯型コンピュータに向けて、ネットワーク15経由でデータ転送する(ステップS118)。
【0301】
デジタル・オブジェクトを受け取った携帯型コンピュータでは、ディスプレイ・スクリーン上にデジタル・オブジェクトを表示して、視覚的なフィードバックを与えることができる(ステップS119)(図40を参照のこと)。
【0302】
(5)プリント・アウト
コンピュータ・デスクトップ上における代表的なGUI操作の1つとして、オブジェクト・アイコン上にデータ・アイコンをドロップすることによって、データに対してオブジェクトが持つ処理若しくはメソッドを適用するという対話技法が広く知られている。
【0303】
例えば、デスクトップ上で、プリンタ・アイコン上にドキュメント・アイコンをドロップすることによって、当該ドキュメントのプリントジョブを発行することができる。また、ゴミ箱(又は「シュレッダ」)アイコン上にドキュメント・アイコンをドロップすることによって、ドキュメントを、ローカル・ディスクから廃棄又は消去してしまうことができる。
【0304】
実世界とデジタル空間とが深く融合した情報空間1では、本来はGUI向けに開発された直接的な対話技法を、実世界上に導入することができる。
【0305】
例えば、図41に示すように、テーブル11上には、ユーザの携帯型コンピュータの他、プリンタやゴミ箱、各種ドキュメントに相当する印刷用紙などが、物理オブジェクトとして散在している。各々の物理オブジェクトにはビジュアル・マーカーが添付されているので、テーブル11上空に設置されたカメラ18/19の撮像画像を通して環境型コンピュータによって認識・識別され、情報空間1内にインストールすることができる。
【0306】
図41上では図面の錯綜防止のため描いていないが、プリンタやゴミ箱に相当する用紙上には、ビジュアル・マーカーの他、プリンタやゴミ箱の写真や絵を印刷しておき、視覚的なフィードバックを与えるようにしてもよい。また、ドキュメントに相当する各用紙上には、ビジュアル・マーカーが貼設されているだけであっても、あるいはドキュメント本体(又はその表紙)が印刷されていてもよい。「プリンタ」や「ゴミ箱」などの印刷用紙は、処理又はメソッドを象徴する物理オブジェクトである。これに対し、各ドキュメントの印刷用紙は、処理対象となるデータを象徴する物理オブジェクトである。
【0307】
上述したように、携帯型コンピュータのユーザは、実世界上で、ハイパードラッグという直接的な対話技法を用いることで、所望のドキュメントを範囲指定することができる。図42に示す例では、テーブル上に散在するドキュメントのうち、ドキュメント#1をユーザが範囲指定している。この結果、ドキュメント#1の周囲にはラバーバンドが投影表示され、ユーザに視覚的なフィードバックが与えられる。
【0308】
ユーザは、さらに、ラバーバンドされたデジタル・オブジェクトを所望の処理又はメソッドを象徴する物理オブジェクト上にハイパードラッグすることによって、該当する処理又はメソッドを呼び出すことができる。例えば、図43に示すように、ドキュメント#1に係るデジタル・オブジェクトをハイパードラッグして、プリンタを象徴する物理オブジェクト上にドロップすることによって、ドキュメント#1のプリント・アウトという処理を呼び出すことができる。同様に、ドキュメントに係るデジタル・オブジェクトをハイパードラッグして、ゴミ箱を象徴する物理オブジェクト上にドロップすることによって、該デジタル・オブジェクトをデジタル空間上から抹消することができる。
【0309】
図44には、実世界上でデジタル・オブジェクトに処理又はメソッドを適用するための処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0310】
まず、ユーザは、自分の携帯型コンピュータを始め、各種の物理オブジェクトをテーブル11上に置く(ステップS121)。
【0311】
ここで言う物理オブジェクトには、プリンタやゴミ箱、各種ドキュメントに相当する印刷用紙である(図41を参照のこと)。プリンタやゴミ箱に相当する用紙は、処理又はメソッドを象徴する物理オブジェクトであり、プリンタやゴミ箱の写真や絵を印刷しておき、視覚的なフィードバックを与えるようにしてもよい。また、ドキュメントに相当する各用紙上は、処理対象となるデータを象徴する物理オブジェクトであり、ドキュメント本体(又はその表紙)が印刷されていてもよい。あるいは、ドキュメントは、物理オブジェクトではなく、携帯型コンピュータからハイパードラッグにより取り出された、ユーザの編集文書すなわちデジタル・オブジェクトであってもよい。
【0312】
物理オブジェクトの表面には、識別情報を表示するビジュアル・マーカーが添付されている。したがって、テーブル11の上空に配設されたカメラ18/19が携帯型コンピュータを撮像して(ステップS122)、このビジュアル・マーカーを認識することで、各物理オブジェクトを認識・識別することができる(ステップS123)。
【0313】
ビジュアル・マーカーが持つ識別情報を認識した帰結として、当該携帯型コンピュータは情報空間1にインストールされたことになる。また、ビジュアル・マーカーは、識別情報だけでなく位置や向きに関する情報も与えることができるので、ビジュアル・マーカーを基準点にして座標系を設定することができる。
【0314】
情報空間1にインストールされた携帯型コンピュータでは、直接的な対話技法であるGUI操作を実世界の拡張ディスプレイ上でも行うことができる。すなわち、マウス・カーソルは、ディスプレイ・スクリーン上から飛び出して、テーブル11上などの実世界に移動することができる。携帯型コンピュータと実世界上のマウス・カーソルとの間にはアンカー・カーソルが投影表示されて、ユーザには視覚的にフィードバックが与えられる。
【0315】
ここで、ユーザは、アンカー・カーソルを用いて、所望の物理オブジェクト(図42に示す例では「ドキュメント#1」)を範囲指定することができる(ステップS124)。
【0316】
テーブル11上でのユーザ操作はカメラ18/19によって追跡されており、環境型コンピュータは、アンカー・カーソルによって領域指定操作を認識することができる。そして、環境型コンピュータは、テーブル11上で範囲指定された領域(図42に示す例では「ドキュメント#1」)を、ラバーバンドで囲んで、ユーザに対して視覚的なフィードバックを与える(ステップS125)。
【0317】
ラバーバンドで囲まれた領域の撮像画像は、デジタル・オブジェクトとして情報空間1内に取り込まれている。したがって、ユーザは、ラバーバンド領域内の画像、すなわちデジタル・オブジェクトをテーブル11上などの実世界上でハイパードラッグすることができる(ステップS126)。このようなユーザ操作は、カメラ18/19が撮像しているので、環境型コンピュータが認識することができる。
【0318】
さらに、ラバーバンドで囲まれた画像をテーブル11上でハイパードラッグして、印刷用紙「プリンタ」の物理オブジェクト上にドロップする(S127)(図43を参照のこと)。
【0319】
前述したように、プリンタは、「ドキュメントのプリント」という処理又はメソッドを象徴する物理オブジェクトである。したがって、プリンタを象徴する物理オブジェクト上にドロップすることによって、ドキュメント#1のプリント・アウトという処理を呼び出すことができる(ステップS128)。
【0320】
また、このような対話的なユーザ操作のバックグラウンドでは、プリンタなどの指定された物理オブジェクトの実体である装置に対して、環境型コンピュータからデータ転送が行われる。
【0321】
(6)メール送信
実世界とデジタル空間とが深く融合した情報空間1では、本来はGUI向けに開発された直接的な対話技法を実世界上に導入することができる、という点は上述した通りである。
【0322】
実世界上での直接的な対話技法を導入した他の例として、「メール送信」が挙げられる。
【0323】
例えば、図45に示すように、テーブル11上には、ユーザの携帯型コンピュータの他、メール送信先に相当する1以上の「名刺」や、送信文書の本体となり得るドキュメントに関するオブジェクトなどが散在している。
【0324】
各々の物理オブジェクトにはビジュアル・マーカーが添付されているので、テーブル11上空に設置されたカメラ18/19の撮像画像を通して環境型コンピュータによって認識・識別され、情報空間1内にインストールすることができる。また、ドキュメントのオブジェクトは、印刷用紙などの物理オブジェクトであっても、携帯型コンピュータからテーブル11上にハイパードラッグされたデジタル・オブジェクト(例えば、ユーザの編集文書)のいずれであってもよい。
【0325】
上述したように、携帯型コンピュータのユーザは、実世界上で、ハイパードラッグという直接的な対話技法を用いることで、所望のドキュメントを範囲指定することができる。図46に示す例では、テーブル上に散在するドキュメントのうち、ドキュメント#1をユーザが範囲指定している。この結果、送信文書となるドキュメント#1の周囲にはラバーバンドが投影表示され、ユーザに視覚的なフィードバックが与えられる。
【0326】
ユーザは、さらに、ラバーバンドされたデジタル・オブジェクトを所望の処理又はメソッドを象徴する物理オブジェクト上にハイパードラッグすることによって、該当する処理又はメソッドを呼び出すことができる。例えば、図47に示すように、ドキュメント#1に係るデジタル・オブジェクトをハイパードラッグして、メール送信先に該当する「名刺#1」の上にドロップする。この結果、名刺の宛名に対応するメール・アドレスに対してドキュメント#1からなる送信文書をメール送信するという処理を呼び出すことができる。
【0327】
図48には、実世界上で所望のドキュメントのメール送信処理を実行するための処理手順をフローチャートの形式で示している。以下、このフローチャートの各ステップについて説明する。
【0328】
まず、ユーザは、自分の携帯型コンピュータを始め、各種の物理オブジェクトをテーブル11上に置く(ステップS131)。
【0329】
ここで言う物理オブジェクトには、メール送信先に相当する名刺や、送信文書本体となるドキュメントに相当する各種の印刷用紙などである(図45を参照のこと)。名刺は、名刺の宛名に対応するメールアドレスへの送信処理又はメソッドを象徴する物理オブジェクトであると理解されたい。また、ドキュメントに相当する各用紙上は、処理対象となるデータを象徴する物理オブジェクトであり、ドキュメント本体(又はその表紙)が印刷されていてもよい。あるいは、ドキュメントは、携帯型コンピュータからハイパードラッグにより取り出された、ユーザの編集文書すなわちデジタル・オブジェクトであってもよい。
【0330】
各物理オブジェクトの表面には、識別情報を表示するビジュアル・マーカーが添付されている。したがって、テーブル11の上空に配設されたカメラ18/19が携帯型コンピュータを撮像して(ステップS132)、このビジュアル・マーカーを認識することで、各物理オブジェクトを認識・識別することができる(ステップS133)。
【0331】
ビジュアル・マーカーが持つ識別情報を認識した帰結として、当該携帯型コンピュータは情報空間1にインストールされたことになる。また、ビジュアル・マーカーは、識別情報だけでなく位置や向きに関する情報も与えることができるので、ビジュアル・マーカーを基準点にして座標系を設定することができる。
【0332】
また、環境型コンピュータは、各名刺の識別情報とそのメール・アドレスとの組からなるデータ・エントリとして蓄積したデータベースをあらかじめ蓄積しているものとする。
【0333】
情報空間1にインストールされた携帯型コンピュータでは、直接的な対話技法であるGUI操作を実世界の拡張ディスプレイ上でも行うことができる。すなわち、マウス・カーソルは、ディスプレイ・スクリーン上から飛び出して、テーブル11上などの実世界に移動することができる。携帯型コンピュータと実世界上のマウス・カーソルとの間にはアンカー・カーソルが投影表示されて、ユーザには視覚的にフィードバックが与えられる。
【0334】
ここで、ユーザは、アンカー・カーソルを用いて、所望の物理オブジェクト(図46に示す例では「ドキュメント#1」)を範囲指定することができる(ステップS134)。
【0335】
テーブル11上でのユーザ操作はカメラ18/19によって追跡されており、環境型コンピュータは、アンカー・カーソルによって領域指定操作を認識することができる。そして、環境型コンピュータは、テーブル11上で範囲指定された領域(図46に示す例では「ドキュメント#1」)を、ラバーバンドで囲んで、ユーザに対して視覚的なフィードバックを与える(ステップS135)。
【0336】
ラバーバンドで囲まれた領域の撮像画像は、デジタル・オブジェクトとして情報空間1内に取り込まれている。したがって、ユーザは、ラバーバンド領域内の画像、すなわちデジタル・オブジェクトをテーブル11などの実世界上で自在にハイパードラッグすることができる(ステップS136)。このようなユーザ操作は、カメラ18/19が撮像しているので、環境型コンピュータが認識することができる。
【0337】
さらに、ラバーバンドで囲まれた画像をテーブル11上でハイパードラッグして、所望の宛先に相当する「名刺」上にドロップする(S137)(図47を参照のこと)。
【0338】
このような対話的なユーザ操作のバックグラウンドでは、デジタル・オブジェクトのエンティティであるドキュメント#1が、携帯型コンピュータからネットワーク15経由で環境型コンピュータへデータ転送される。
【0339】
また、環境型コンピュータは、各名刺の識別情報とそのメール・アドレスとの組からなるデータ・エントリとして蓄積したデータベースを蓄積している。デジタル・オブジェクトが名刺上にドロップされたことを認識すると、環境型コンピュータは、このデータベースを検索して、名刺に該当するメール・アドレスを取得する。そして、ドロップされたデジタル・オブジェクトすなわちドキュメントを送信文書とした送信メールを生成して、該当するメール・アドレスに向かって送信処理する(ステップS138)。
【0340】
《参考文献》
[1]:http://www.bluetooth.com
[2]:J.Rekimoto. Pick−and−Drop: A Direct Manipulation Technique for Multiple Computer Environments. In UIST ’97, pp.31−39, October 1997.
[3]:J.Rekimoto and M. Saitoh. Augmented Surface: A Spatially Continuous Workspace for Hybrid Computing Environments. In Processing of CHI ’99 Conference on Human factors in Computing Systems, pp.378−385. ACM, May 1999.
[4]:Pierre Wellner. Interacting withpaper on the DigitalDesk. Communicaion of the ACM, Vol.36, No.7, pp.87−96, August 1993.
[5]:John Underkoffler and Hiroshi Ishii. Illuminating Light: An optical design tool with a luminous−tangibleinterface. In CHI’98 Proceedings , pp.542−549, 1998.
[6]:Jun Rekimoto. Matrix: A realtimeobject identification and registration method for augmented reality. InProc. Of Asia Pacific Computer Human Interaction (APCHI’98), July 1998.(サイバーコードの詳細については、例えば、本出願人に既に譲渡されている特願平10−184350号明細書(「画像処理装置および方法、並びに提供媒体」)にも開示されている。)
[7]:Itiro Siio. InfoBinder: a pointing device for a virtualdesktop system. In 6th International Conference on Human−Computer Interactiuon (HCI International ’95), pp. 261−264, July
1995.
[8]:Brygg Ullmer, Hiroshi Ishii, andDylan Glas. MediaBlocks: Physical containers, transports, and controls for online media. In SIGGRAPH ’98 Proceedings, pp. 379−386, 1998.
[9]:Torsten Holmer Norbert A. Streitz, Jorg Geisler. Roomware for cooperative buildings: Integrated design of architectural spaces and information spaces. In Norberts A. Streitz and Shin’ichi Konomi, editors, Cooperative Buildings − Integrating Information, Organization, and Architecture, 1998.
【0341】
[追補]
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0342】
【発明の効果】
以上詳記したように、本発明によれば、コンピュータの作業空間を実世界に拡張するとともに、コンピュータに対してユーザが直感的で分かり易くコマンドを入力することができる、優れたユーザ・インターフェース環境を提供することができる。
【0343】
また、本発明によれば、物理的な実空間とコンピュータ上の論理空間(デジタル空間)とが効果的に連携された、優れたユーザ・インターフェース環境を提供することができる。
【0344】
また、本発明によれば、物理的な実空間とコンピュータ上の論理空間(デジタル空間)とが親密に連携され、実世界上の物理オブジェクトを介してデジタル・オブジェクトの操作を行うことができる、優れたユーザ・インターフェース環境を提供することができる。
【0345】
本発明によれば、物理的な実空間とコンピュータ上のデジタル空間との融合をさらに深めることによって、マウスやキーボードなどのコンピュータにネイティブのユーザ入力装置だけでなく、実世界上に散在する各種の物理オブジェクトを介してユーザ・コマンドをコンピュータに入力したり、あるいは、物理オブジェクトを介してデジタル・オブジェクトを引き出すことが可能になる。この結果、コンピュータ操作はさらに直感的で理解容易なものとなり、且つ、ユーザにとって魅力的になる。
【図面の簡単な説明】
【図1】本発明に係る情報空間1の構成例を模式的に示した図である。
【図2】固定カメラ18及びパン/チルト・カメラ19を用いてテーブル11上の変化を検出する仕組みを示した図である。
【図3】サイバーコードの構造を模式的に示した図である。
【図4】各ユーザの携帯型コンピュータが環境型コンピュータによって拡張されていく過程を示した図であり、より具体的には、ユーザが各自の携帯型コンピュータ上で作業している様子を示した図である。
【図5】各ユーザの携帯型コンピュータが環境型コンピュータによって拡張されていく過程を示した図であり、より具体的には、会議室のテーブル(infotable)や壁面(infowall)を携帯型コンピュータのデスクトップの空間的な延長として利用する様子を示した図である。
【図6】各ユーザの携帯型コンピュータが環境型コンピュータによって拡張されていく過程を示した図であり、より具体的には、複数のユーザがテーブル(infotable)や壁面(infowall)などの拡張ディスプレイ上でデジタル・オブジェクトに関する共同作業を行う様子を示した図である。
【図7】コンピュータ・デスクトップ上で行われるドラッグ・アンド・ドロップ操作をデスクトップの外の拡張ディスプレイに展開した様子を模式的に示した図である。
【図8】テーブル11上に載置された物理オブジェクト(VCRテープ)が情報空間1にインストールされた様子を示した図であり、より具体的には、該物理オブジェクトを取り囲む略楕円形(「オブジェクト・オーラ」)が表示された様子を示した図である。
【図9】デジタル・オブジェクトを物理オブジェクトに添付する様子を示した図であり、より具体的には、テーブル11上のデジタル・オブジェクトをオブジェクト・オーラに向かってハイパードラッグする様子を示した図である。
【図10】デジタル・オブジェクトを物理オブジェクトに添付する様子を示した図であり、より具体的には、テーブル11上でハイパードラッグしたデジタル・オブジェクトをオブジェクト・オーラ内にドロップする様子を示した図である。
【図11】物理オブジェクト表面上にリンク情報を登録するための処理手順を示したフローチャートである。
【図12】物理オブジェクト表面上にリンク情報を登録する処理を描写した図であり、より具体的には、パンフレット上のページが情報空間1にインストールされ、オブジェクト・オーラが投影表示されている様子を示した図である。
【図13】物理オブジェクト表面上にリンク情報を登録する処理を描写した図であり、より具体的には、パンフレット上のページにデジタル・オブジェクトをドラッグ・アンド・ドロップする様子を示した図である。
【図14】物理オブジェクト表面上にリンク情報を登録する処理を描写した図であり、より具体的には、
【図15】物理オブジェクト表面上に埋め込まれたリンク情報を実世界上に取り出すための処理手順を示したフローチャートである。
【図16】物理オブジェクト表面上に埋め込まれたリンク情報を実世界上に取り出す処理を描写した図であり、より具体的には、パンフレット上のオブジェクト・オーラに対してドラッグ・アンド・ドロップ操作を適用して、リンク情報であるデジタル・オブジェクトをテーブル11上に引き出す様子を示した図である。
【図17】ID認識装置50の外観を示した図である。
【図18】ID認識装置50を用いた場合の、実世界上におけるオブジェクトのドラッグ・アンド・ドロップの処理手順を示したフローチャートである。
【図19】カメラ模型60の外観を示した図である。
【図20】カメラ模型60がテーブル11上にレイアウトされたデジタル・オブジェクトをある所定の位置及び方向で「撮像」する様子を描写した図である。
【図21】3次元コンピュータ・グラフィックスにより生成された、カメラ模型60が撮像方向Dから撮像した画像を示した図である。
【図22】3次元コンピュータ・グラフィックスにより生成された、カメラ模型60が撮像方向D’から撮像した画像を示した図である。
【図23】仮想カメラによる撮像画像を処理する手順を示したフローチャートである。
【図24】実世界上におけるデジタル・オブジェクトをレーザ・ポインタを用いて操作する様子を描写した図であり、より具体的には、テーブル11上に投影表示されたデジタル・オブジェクトを・レーザ・ポインタにより拾い上げる(pick)する様子を示した図である。
【図25】実世界上におけるデジタル・オブジェクトをレーザ・ポインタを用いて操作する様子を描写した図であり、より具体的には、一旦拾い上げたデジタル・オブジェクトを壁面12上に移動させる(すなわちビームする)様子を示した図である。
【図26】レーザ・ポインタを用いて実世界上のオブジェクトをドラッグ・アンド・ドロップ操作するPick−and−Beamのうち、オブジェクトをPickする処理手順を示したフローチャートである。
【図27】レーザ・ポインタを用いて実世界上のオブジェクトをドラッグ・アンド・ドロップ操作するPick−and−Beamのうち、オブジェクトをBeamする処理手順を示したフローチャートである。
【図28】実世界上でレーザ・ポインタによって指示される位置すなわちレーザ・ビーム光の点灯位置を認識する処理手順を示したフローチャートである。
【図29】レーザ・ポインタを用いてリンク参照するための処理手順を示したフローチャートである。
【図30】レーザ・ポインタを用いて物理オブジェクト表面上のリンク情報を参照する様子を描写した図であり、より具体的には、ページ上の所望のリンク情報に該当するオブジェクト・オーラをレーザ・ポインタの出力ビーム光で照射したままテーブル11上までドラッグする様子を描写した図である。
【図31】レーザ・ポインタを用いて物理オブジェクト表面上のリンク情報を参照する様子を描写した図であり、より具体的には、テーブル11上でレーザ・ビーム光をドロップした場所に、リンク情報としてのデジタル・オブジェクトを投影表示する様子を示した図である。
【図32】ユーザ・コンピュータ上に存在する3次元モデルを実世界上に取り出すための処理手順を示したフローチャートである。
【図33】携帯型コンピュータから取り出された3次元モデルがテーブル11上に投影表示した様子を描写した図である。
【図34】ビジュアル・マーカーによって特定されるデジタル・オブジェクトをデジタル空間上にハイパードラッグする様子を描写した図であり、より具体的には、物理オブジェクト上のビジュアル・マーカーをID認識装置50によって認識する様子を示した図である。
【図35】ビジュアル・マーカーによって特定されるデジタル・オブジェクトをデジタル空間上にハイパードラッグする様子を描写した図であり、より具体的には、ID認識装置50によって認識された識別情報に対応するデジタル・オブジェクトを携帯型コンピュータのスクリーン上にハイパードラッグする様子を示した図である。
【図36】ビジュアル・マーカーによって特定されるデジタル・オブジェクトをデジタル空間上にハイパードラッグするための処理手順を示したフローチャートである。
【図37】実世界上のオブジェクトをデジタル空間へ取り込む様子を描写した図であり、より具体的には、テーブル11上のオブジェクトをラバーバンドで範囲指定する様子を示した図である。
【図38】実世界上のオブジェクトをデジタル空間へ取り込む様子を描写した図であり、より具体的には、ラバーバンドで範囲指定されているデジタル・オブジェクトを実世界上でハイパードラッグする様子を描写した図である。
【図39】実世界上のオブジェクトをデジタル空間へ取り込む様子を描写した図であり、より具体的には、ラバーバンドで範囲指定されているデジタル・オブジェクトをハイパードラッグして、携帯型コンピュータのディスプレイ・スクリーン上に取り込む様子を描写した図である。
【図40】実世界上のオブジェクトをデジタル空間へ取り込むための処理手順を示したフローチャートである。
【図41】実世界上でデジタル・オブジェクトに処理又はメソッドを適用する様子を描写した図であり、より具体的には、テーブル11上に各種の物理オブジェクトが散在している様子を示した図である。
【図42】実世界上でデジタル・オブジェクトに処理又はメソッドを適用する様子を描写した図であり、より具体的には、テーブル11上の所望の物理オブジェクト(ドキュメント)を範囲指定して、ラバーバンドによって視覚的なフィードバックが与えられている様子を示した図である。
【図43】実世界上でデジタル・オブジェクトに処理又はメソッドを適用する様子を描写した図であり、より具体的には、ラバーバンドによって指定されたデジタル・オブジェクトを、処理又はメソッドを象徴する物理オブジェクト上にハイパードラッグする様子を示した図である。
【図44】実世界上でデジタル・オブジェクトに処理又はメソッドを適用するための処理手順を示したフローチャートである。
【図45】実世界上で所望のドキュメントのメール送信処理を実行する様子を描写した図であり、より具体的には、メール送信するドキュメントや、メール送信先に相当する名刺などのオブジェクトがテーブル上に散在している様子を示した図である。
【図46】実世界上で所望のドキュメントのメール送信処理を実行する様子を描写した図であり、より具体的には、メール送信するドキュメントのオブジェクトをユーザが選択した様子を示した図である。
【図47】実世界上で所望のドキュメントのメール送信処理を実行する様子を描写した図であり、より具体的には、ユーザが、メール送信するドキュメントのオブジェクトの送信先を指示する名刺の上にハイパードラッグする様子を示した図である。
【図48】実世界上で所望のドキュメントのメール送信処理を実行するための処理手順を示したフローチャートである。
【図49】ID認識装置50によって、ソース・オブジェクトとしてのドキュメントに貼設されたビジュアル・マーカーを読み取る様子を描写した図である。
【図50】ID認識装置50によって、デスティネーション・オブジェクトとしてのプリンタに貼設されたビジュアル・マーカーを読み取る様子を描写した図である。
【図51】Pick−and−Drop操作を説明するための図であり、より具体的には、隣接するノートブック・コンピュータのディスプレイ・スクリーンの間でGUI操作が継承され、一方のディスプレイ上のデジタル・オブジェクトが実空間を越えて他方のディスプレイ上にドロップされる様子を描写した図である。
【図52】ハイパードラッグ操作を説明するための図であり、より具体的には、コンピュータ・スクリーンの周縁に到達したマウス・カーソルがコンピュータ・スクリーンからテーブルへと移動する様子を示した図である。
【図53】ハイパードラッグ操作を説明するための図であり、より具体的には、テーブルから壁面へとデジタル・オブジェクトのハイパードラッグが続行する様子を示した図である。
【図54】2以上のコンピュータ・スクリーン間で行われるハイパードラッグ操作を示した図である。
【符号の説明】
1…情報空間
11…テーブル(InfoTable)
12…壁面(又はホワイトボード)(InfoWall)
13,14…LCDプロジェクタ
15…ネットワーク
16,17…コンピュータ・システム(環境型コンピュータ)
18…固定カメラ
19…チルト/パン・カメラ
20…画像処理サーバ(環境型コンピュータ)
31,32…ビジュアル・マーカー
41…赤色フィルタ付きカメラ
50…ID認識装置
51…読取部
52…操作ボタン
53…送信部
Claims (28)
- コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力システムであって、
前記情報空間に配設された1以上の作業面と、
前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、
前記情報空間に固定的に設置された環境型コンピュータと、
視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトと、
を備え、
前記環境型コンピュータは、前記撮像手段による撮像画像に基づいて、
前記作業面上に載置された物理オブジェクト表面のビジュアル・マーカーから当該物理オブジェクトの識別情報及び位置情報を認識する処理と、
物理オブジェクト表面上の任意の部位にデジタル・オブジェクトがドロップされたことを認識する処理と、
該物理オブジェクト表面上のデジタル・オブジェクトがドロップされた場所の前記ビジュアル・マーカーを基準位置とする座標位置として計測し、前記座標位置に該デジタル・オブジェクトへのリンク情報を形成する処理と、
物理オブジェクト表面上でリンク情報が形成された前記座標位置においてユーザ操作が適用されたことに応答して、該ユーザ操作が適用された前記座標位置にリンクされたデジタル・オブジェクトを呼び出し又はユーザにデジタル・オブジェクトを提示する処理と、
を実行する、
ことを特徴とする情報入出力システム。 - 前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な携帯型コンピュータであり、
前記環境型コンピュータは、前記作業面上に載置された前記携帯型コンピュータ表面のビジュアル・マーカーから前記携帯型コンピュータの識別情報及び位置情報を認識し、所有者ユーザを特定するとともに、前記環境型コンピュータと前記携帯型コンピュータとのデータ転送路を確立する処理を実行する、
ことを特徴とする請求項1に記載の情報入出力システム。 - 前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な携帯型コンピュータであり、
前記環境型コンピュータは、前記携帯型コンピュータ上におけるマウス・カーソル操作を前記作業面上に拡張することを許容することを特徴とする請求項1に記載の情報入出力システム。 - 前記撮像手段は、所定波長光の照射による特定の位置を指示する光学ポインタの指示位置を識別可能であり、
ユーザは、前記情報空間内における該光学ポインタによる座標指示が許容される、
ことを特徴とする請求項1に記載の情報入出力システム。 - 前記物理オブジェクト表面上のビジュアル・マーカーを認識・識別する携行型のID認識装置をさらに備え、
前記環境型コンピュータは、
前記ID認識装置からソース・オブジェクト及びデスティネーション・オブジェクトの各々の識別情報を受信する処理と、
ソース・オブジェクト及びデスティネーション・オブジェクトのタイプの組み合わせによって特定されるアクションを適用する処理と、
を実行する、
ことを特徴とする請求項1に記載の情報入出力システム。 - 前記物理オブジェクトのうち少なくとも1つはビジュアル・マーカーが持つ位置情報によって指定される仮想の撮像方向を有する仮想カメラであり、
前記環境型コンピュータは、前記撮像手段による撮像画像に基づいて、
前記仮想カメラを認識・識別するとともに、その位置情報及び仮想の撮像方向を特定する処理と、
該位置情報及び仮想の撮像方向に従って仮想の撮像画像を生成する処理と、
該仮想の撮像画像をユーザに提示する処理と、
を実行する、
ことを特徴とする請求項1に記載の情報入出力システム。 - 前記環境型コンピュータは、前記仮想の撮像方向を視点情報として、当該視点位置及び方向から前記作業面上にドロップされたデジタル・オブジェクトを撮像したときに得られる仮想の撮像画像を生成する処理を実行する、
ことを特徴とする請求項6に記載の情報入出力システム。 - 所定波長光の照射による特定の位置を指示する光学ポインタをさらに備え、
前記撮像手段は前記光学ポインタの指示位置を識別可能であり、
前記環境型コンピュータは、前記撮像手段による撮像画像に基づいて、
前記作業面上における前記光学ポインタを用いたユーザ操作を認識する処理と、
該認識結果に従って前記表示手段によるデジタル・オブジェクトの表示を制御する処理と、
を実行する、
ことを特徴とする請求項1に記載の情報入出力システム。 - 前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能であるとともに3次元モデルの検索及び/又は3次元モデルの生成が可能な携帯型コンピュータであり、
前記環境型コンピュータは、前記携帯型コンピュータ上の3次元モデルを前記作業面上に取り出すユーザ操作が適用されたことに応答して、該3次元モデルの描画情報に基づいて前記作業面上への投影画像を生成する処理と、前記表示手段による該生成された投影画像の表示を制御する処理を実行する、
ことを特徴とする請求項1に記載の情報入出力システム。 - 前記物理オブジェクト表面上のビジュアル・マーカーを認識するとともに認識した識別情報の保留及び解除操作が可能な携行型のID認識装置をさらに備え、
前記環境型コンピュータは、
前記ID認識装置の保留操作に応答して、該保留された識別情報に対応するデジタル・オブジェクトを取得する処理と、
該ID認識装置の解除操作に応答して、該保留された識別情報に対応するデジタル・オブジェクトを付近の物理オブジェクトに転送する処理と、
を実行する、
ことを特徴とする請求項1に記載の情報入出力システム。 - 前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な携帯型コンピュータであり、
前記環境型コンピュータは、前記携帯型コンピュータ上におけるマウス・カーソル操作を前作業面上に拡張することを許容するとともに、前記作業面上における該マウス・カーソルによる範囲指定に従って視覚的フィードバックとしてのラバーバンドを前記表示手段によって表示する、
ことを特徴とする請求項1に記載の情報入出力システム。 - 前記環境型コンピュータは、ラバーバンドによる指定領域を前記撮像手段によって撮像するとともに、デジタル・オブジェクトとして前記情報空間に取り込む、ことを特徴とする請求項11に記載の情報入出力システム。
- 前記作業面上において、ラバーバンドされた元のデジタル・オブジェクトが別のオブジェクト上にドロップされたことに応答して、元のデジタル・オブジェクトに対して該別のオブジェクトが有する処理又はメソッドを適用する、
ことを特徴とする請求項11に記載の情報入出力システム。 - 該別のオブジェクトは、ドキュメントをプリントする処理又はメソッドを有する物理オブジェクトである、
ことを特徴とする請求項13に記載の情報入出力システム。 - 該別のオブジェクトは、名刺であり、その宛名に相当するメール・アドレスに対してドキュメントをメール送信する処理又はメソッドを有する、
ことを特徴とする請求項13に記載の情報入出力システム。 - コンピュータのデジタル空間が実世界に拡張されてなる情報空間上でオブジェクトに関するユーザ操作を行うための情報入出力方法であって、前記情報空間は、1以上の作業面と、前記作業面上に画像を表示する表示手段と、前記作業面上を撮像する撮像手段と、前記情報空間に固定的に設置された環境型コンピュータと、前記作業面上に載置され視覚的に識別可能なビジュアル・マーカーを表面に含んだ1以上の物理オブジェクトとを備え、
(a)前記作業面上に載置された物理オブジェクト表面のビジュアル・マーカーから当該物理オブジェクトの識別情報及び位置情報を認識するステップと、
(b)物理オブジェクト表面上の任意の部位にデジタル・オブジェクトにドロップされたことを認識するステップと、
(c)該物理オブジェクト表面上のデジタル・オブジェクトがドロップされた場所の前記ビジュアル・マーカーを基準位置とする座標位置として計測し、前記座標位置に該デジタル・オブジェクトへのリンク情報を形成するステップと、
(d)物理オブジェクト表面上でリンク情報が形成された前記座標位置においてユーザ操作が適用されたことに応答して、該ユーザ操作が適用された前記座標位置にリンクされたデジタル・オブジェクトを呼び出し又はユーザにデジタル・オブジェクトを提示するステップと、
を有することを特徴とする情報入出力方法。 - 前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な携帯型コンピュータであり、
前記ステップ(b)では、前記携帯型コンピュータ上におけるマウス・カーソル操作を前記作業面上に拡張することが許容されている、
ことを特徴とする請求項16に記載の情報入出力方法。 - 前記撮像手段は、所定波長光の照射による特定の位置を指示する光学ポインタの指示位置を識別可能であり、
前記ステップ(b)では、前記情報空間内における該光学ポインタによる座標指示が許容されている、
ことを特徴とする請求項16に記載の情報入出力方法。 - 前記情報空間は前記物理オブジェクト表面上のビジュアル・マーカーを認識・識別する携行型のID認識装置をさらに備え、
(e)前記ID認識装置からソース・オブジェクト及びデスティネーション・オブジェクトの各々の識別情報を受信するステップと、
(f)ソース・オブジェクト及びデスティネーション・オブジェクトのタイプの組み合わせによって特定されるアクションを該ソース・オブジェクトに適用するステップと、
をさらに有することを特徴とする請求項16に記載の情報入出力方法。 - 前記物理オブジェクトのうち少なくとも1つはビジュアル・マーカーが持つ位置情報によって指定される仮想の撮像方向を有する仮想カメラであり、
(g)前記仮想カメラを認識・識別するとともに、その位置情報及び仮想の撮像方向を特定するステップと、
(h)該位置情報及び仮想の撮像方向に従って仮想の撮像画像を生成するステップと、
(i)該仮想の撮像画像をユーザに提示するステップと、
をさらに有することを特徴とする請求項16に記載の情報入出力方法。 - 前記情報空間は所定波長光の照射による特定の位置を指示する光学ポインタをさらに備え、
(j)前記作業面上における前記光学ポインタを用いたユーザ操作を認識するステップと、
(k)該認識結果に従って前記表示手段によるデジタル・オブジェクトの表示を制御するステップと、
をさらに有することを特徴とする請求項16に記載の情報入出力方法。 - 前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能であるとともに3次元モデルの検索及び/又は3次元モデルの生成が可能な携帯型コンピュータであり、
(l)前記携帯型コンピュータ上の3次元モデルを前記作業面上に取り出すユーザ操作が適用されたことに応答して、該3次元モデルの描画情報に基づいて前記作業面上への投影画像を生成するステップと、
(m)前記表示手段による該生成された投影画像の表示を制御するステップと、
をさらに有することを特徴とする請求項16に記載の情報入出力方法。 - 前記情報空間は前記物理オブジェクト表面上のビジュアル・マーカーを認識するとともに認識した識別情報の保留及び解除操作が可能な携行型のID認識装置をさらに備え、
(n)前記ID認識装置の保留操作に応答して、該保留された識別情報に対応するデジタル・オブジェクトを取得するステップと、
(o)該ID認識装置の解除操作に応答して、該保留された識別情報に対応するデジタル・オブジェクトを付近の物理オブジェクトに転送するステップと、
をさらに有することを特徴とする請求項16に記載の情報入出力方法。 - 前記物理オブジェクトのうち少なくとも1つは、前記情報空間内を移動可能で且つ他のコンピュータとの間でデジタル・オブジェクトを交換可能な携帯型コンピュータであり、
(p)前記携帯型コンピュータ上におけるマウス・カーソル操作を前作業面上に拡張することを許容するステップと、
(q)前記作業面上における該マウス・カーソルによる範囲指定に従って視覚的フィードバックとしてのラバーバンドを前記表示手段によって表示するステップと、
をさらに有することを特徴とする請求項16に記載の情報入出力方法。 - (r)ラバーバンドによる指定領域を前記撮像手段によって撮像するとともに、デジタル・オブジェクトとして前記情報空間に取り込むステップ、
をさらに有することを特徴とする請求項24に記載の情報入出力システム。 - (s)前記作業面上において、ラバーバンドされた元のデジタル・オブジェクトが別のオブジェクト上にドロップされたことに応答して、元のデジタル・オブジェクトに対して該別のオブジェクトが有する処理又はメソッドを適用するステップ、
をさらに有することを特徴とする請求項24に記載の情報入出力システム。 - 該別のオブジェクトは、ドキュメントをプリントする処理又はメソッドを有する物理オブジェクトである、
ことを特徴とする請求項26に記載の情報入出力方法。 - 該別のオブジェクトは、名刺であり、その宛名に相当するメール・アドレスに対してドキュメントをメール送信する処理又はメソッドを有する、
ことを特徴とする請求項26に記載の情報入出力方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP36203899A JP4332964B2 (ja) | 1999-12-21 | 1999-12-21 | 情報入出力システム及び情報入出力方法 |
| US09/739,952 US7069516B2 (en) | 1999-12-21 | 2000-12-18 | Information input/output system and information input/output method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP36203899A JP4332964B2 (ja) | 1999-12-21 | 1999-12-21 | 情報入出力システム及び情報入出力方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2001175374A JP2001175374A (ja) | 2001-06-29 |
| JP4332964B2 true JP4332964B2 (ja) | 2009-09-16 |
Family
ID=18475707
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP36203899A Expired - Fee Related JP4332964B2 (ja) | 1999-12-21 | 1999-12-21 | 情報入出力システム及び情報入出力方法 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US7069516B2 (ja) |
| JP (1) | JP4332964B2 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014215977A (ja) * | 2013-04-30 | 2014-11-17 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
| JP2023106171A (ja) * | 2022-01-20 | 2023-08-01 | Sky株式会社 | 名刺管理システム及び名刺管理プログラム |
Families Citing this family (212)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
| US7259747B2 (en) * | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
| US8300042B2 (en) * | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
| JP4702583B2 (ja) * | 2001-07-12 | 2011-06-15 | ソニー株式会社 | リモコンシステム |
| EP1276237A1 (en) | 2001-07-12 | 2003-01-15 | Sony Corporation | Remote controller and system having the same |
| EP1302891A1 (de) * | 2001-10-12 | 2003-04-16 | Siemens Aktiengesellschaft | Vorrichtung zum Erfassen und Darstellen von Bewegungen |
| EP1315071A1 (en) * | 2001-11-27 | 2003-05-28 | BRITISH TELECOMMUNICATIONS public limited company | User interface |
| US7009663B2 (en) | 2003-12-17 | 2006-03-07 | Planar Systems, Inc. | Integrated optical light sensitive active matrix liquid crystal display |
| WO2003073159A1 (en) | 2002-02-20 | 2003-09-04 | Planar Systems, Inc. | Light sensitive display |
| US7053967B2 (en) | 2002-05-23 | 2006-05-30 | Planar Systems, Inc. | Light sensitive display |
| US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
| US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
| US7576727B2 (en) * | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
| AU2003301043A1 (en) | 2002-12-13 | 2004-07-09 | Reactrix Systems | Interactive directed light/sound system |
| US20080084374A1 (en) | 2003-02-20 | 2008-04-10 | Planar Systems, Inc. | Light sensitive display |
| JP4389450B2 (ja) * | 2003-02-24 | 2009-12-24 | 富士ゼロックス株式会社 | 作業空間形成装置 |
| US7038661B2 (en) * | 2003-06-13 | 2006-05-02 | Microsoft Corporation | Pointing device and cursor for use in intelligent computing environments |
| US8046701B2 (en) * | 2003-08-07 | 2011-10-25 | Fuji Xerox Co., Ltd. | Peer to peer gesture based modular presentation system |
| JP4099585B2 (ja) | 2003-09-03 | 2008-06-11 | ソニー株式会社 | 出力制御装置および方法、並びにプログラム |
| US7480873B2 (en) * | 2003-09-15 | 2009-01-20 | Sun Microsystems, Inc. | Method and apparatus for manipulating two-dimensional windows within a three-dimensional display model |
| EP1676442A2 (en) | 2003-10-24 | 2006-07-05 | Reactrix Systems, Inc. | Method and system for managing an interactive video display system |
| US7536032B2 (en) | 2003-10-24 | 2009-05-19 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
| DE102005001417B4 (de) * | 2004-01-29 | 2009-06-25 | Heidelberger Druckmaschinen Ag | Projektionsflächenabhängige Anzeige-/Bedienvorrichtung |
| DE602004020969D1 (de) * | 2004-03-12 | 2009-06-18 | Dassault Systemes | Verfahren zur Selektierung und Handhabung von Objekten in einem CAD-System |
| US7773139B2 (en) | 2004-04-16 | 2010-08-10 | Apple Inc. | Image sensor with photosensitive thin film transistors |
| US8281241B2 (en) | 2004-06-28 | 2012-10-02 | Nokia Corporation | Electronic device and method for providing extended user interface |
| US8560972B2 (en) * | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
| US20060072009A1 (en) * | 2004-10-01 | 2006-04-06 | International Business Machines Corporation | Flexible interaction-based computer interfacing using visible artifacts |
| US8166296B2 (en) * | 2004-10-20 | 2012-04-24 | Broadcom Corporation | User authentication system |
| US20060118634A1 (en) * | 2004-12-07 | 2006-06-08 | Blythe Michael M | Object with symbology |
| JP4244919B2 (ja) * | 2004-12-14 | 2009-03-25 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びに情報処理システム |
| US7796116B2 (en) | 2005-01-12 | 2010-09-14 | Thinkoptics, Inc. | Electronic equipment for handheld vision based absolute pointing system |
| US7876357B2 (en) | 2005-01-31 | 2011-01-25 | The Invention Science Fund I, Llc | Estimating shared image device operational capabilities or resources |
| US8902320B2 (en) * | 2005-01-31 | 2014-12-02 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
| US8606383B2 (en) | 2005-01-31 | 2013-12-10 | The Invention Science Fund I, Llc | Audio sharing |
| US7920169B2 (en) | 2005-01-31 | 2011-04-05 | Invention Science Fund I, Llc | Proximity of shared image devices |
| US20060174203A1 (en) | 2005-01-31 | 2006-08-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Viewfinder for shared image device |
| US9910341B2 (en) | 2005-01-31 | 2018-03-06 | The Invention Science Fund I, Llc | Shared image device designation |
| US9124729B2 (en) | 2005-01-31 | 2015-09-01 | The Invention Science Fund I, Llc | Shared image device synchronization or designation |
| US9082456B2 (en) | 2005-01-31 | 2015-07-14 | The Invention Science Fund I Llc | Shared image device designation |
| US20060170956A1 (en) | 2005-01-31 | 2006-08-03 | Jung Edward K | Shared image devices |
| US9489717B2 (en) | 2005-01-31 | 2016-11-08 | Invention Science Fund I, Llc | Shared image device |
| US8823636B2 (en) | 2005-03-18 | 2014-09-02 | The Invention Science Fund I, Llc | Including environmental information in a manual expression |
| US8340476B2 (en) | 2005-03-18 | 2012-12-25 | The Invention Science Fund I, Llc | Electronic acquisition of a hand formed expression and a context of the expression |
| US8787706B2 (en) | 2005-03-18 | 2014-07-22 | The Invention Science Fund I, Llc | Acquisition of a user expression and an environment of the expression |
| US7813597B2 (en) | 2005-03-18 | 2010-10-12 | The Invention Science Fund I, Llc | Information encoded in an expression |
| US8749480B2 (en) | 2005-03-18 | 2014-06-10 | The Invention Science Fund I, Llc | Article having a writing portion and preformed identifiers |
| US20060212430A1 (en) | 2005-03-18 | 2006-09-21 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Outputting a saved hand-formed expression |
| US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
| US9819490B2 (en) | 2005-05-04 | 2017-11-14 | Invention Science Fund I, Llc | Regional proximity for shared image device(s) |
| US9001215B2 (en) | 2005-06-02 | 2015-04-07 | The Invention Science Fund I, Llc | Estimating shared image device operational capabilities or resources |
| US10003762B2 (en) | 2005-04-26 | 2018-06-19 | Invention Science Fund I, Llc | Shared image devices |
| US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
| JP4991154B2 (ja) * | 2005-06-03 | 2012-08-01 | 株式会社リコー | 画像表示装置、画像表示方法及びコマンド入力方法 |
| US20060294255A1 (en) * | 2005-06-24 | 2006-12-28 | Zippy Technology Corp. | Support system for standard operation procedure |
| US20060294256A1 (en) * | 2005-06-24 | 2006-12-28 | Zippy Technology Corp. | Method for automating standard operation procedure |
| JP4742361B2 (ja) * | 2005-07-15 | 2011-08-10 | 独立行政法人産業技術総合研究所 | 情報入出力システム |
| US20070018966A1 (en) * | 2005-07-25 | 2007-01-25 | Blythe Michael M | Predicted object location |
| US20070024580A1 (en) * | 2005-07-29 | 2007-02-01 | Microsoft Corporation | Interactive display device, such as in context-aware environments |
| US20070033539A1 (en) * | 2005-08-04 | 2007-02-08 | Thielman Jeffrey L | Displaying information |
| JP4801975B2 (ja) * | 2005-11-10 | 2011-10-26 | 株式会社内田洋行 | オブジェクトに関するコンテンツ情報処理装置及びこの情報処理装置を収納した筐体 |
| US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
| JP2007172304A (ja) * | 2005-12-22 | 2007-07-05 | Sony Corp | 2次元バーコード、情報処理装置、情報処理方法、並びにプログラム |
| JP2008009572A (ja) * | 2006-06-27 | 2008-01-17 | Fuji Xerox Co Ltd | ドキュメント処理システム、ドキュメント処理方法及びプログラム |
| US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
| US8913003B2 (en) | 2006-07-17 | 2014-12-16 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer using a projection marker system |
| JP2008033844A (ja) * | 2006-07-31 | 2008-02-14 | Sharp Corp | 表示装置、制御方法およびプログラム |
| JP4804277B2 (ja) * | 2006-08-30 | 2011-11-02 | キヤノン株式会社 | 画像処理装置、携帯端末装置及び画像処理システム |
| JP4933304B2 (ja) * | 2006-10-16 | 2012-05-16 | キヤノン株式会社 | 画像処理装置、その制御方法及びプログラム |
| JP4921155B2 (ja) * | 2006-12-25 | 2012-04-25 | キヤノン株式会社 | 情報処理システム、情報処理方法、及びコンピュータプログラム |
| US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
| JP2008242367A (ja) | 2007-03-29 | 2008-10-09 | Fuji Xerox Co Ltd | 表示制御装置、表示装置、表示システム及びプログラム |
| JP5109439B2 (ja) | 2007-03-29 | 2012-12-26 | 富士ゼロックス株式会社 | 表示制御装置、及びプログラム |
| JP4899991B2 (ja) * | 2007-03-30 | 2012-03-21 | 富士ゼロックス株式会社 | 表示装置及びプログラム |
| US9176598B2 (en) | 2007-05-08 | 2015-11-03 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer with improved performance |
| CA2699628A1 (en) | 2007-09-14 | 2009-03-19 | Matthew Bell | Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones |
| US20090106667A1 (en) * | 2007-10-19 | 2009-04-23 | International Business Machines Corporation | Dividing a surface of a surface-based computing device into private, user-specific areas |
| DE102007053812A1 (de) * | 2007-11-12 | 2009-05-14 | Robert Bosch Gmbh | Konfigurationsmodul für ein Videoüberwachungssystem, Überwachungssystem mit dem Konfigurationsmodul, Verfahren zur Konfiguration eines Videoüberwachungssystems sowie Computerprogramm |
| US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
| US8386918B2 (en) * | 2007-12-06 | 2013-02-26 | International Business Machines Corporation | Rendering of real world objects and interactions into a virtual universe |
| US8136041B2 (en) * | 2007-12-22 | 2012-03-13 | Bernard Minarik | Systems and methods for playing a musical composition in an audible and visual manner |
| US8228170B2 (en) * | 2008-01-10 | 2012-07-24 | International Business Machines Corporation | Using sensors to identify objects placed on a surface |
| US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
| JP2008276219A (ja) * | 2008-04-15 | 2008-11-13 | Olympus Imaging Corp | デジタルプラットフォーム装置 |
| US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
| US8944608B2 (en) | 2008-06-17 | 2015-02-03 | The Invention Science Fund I, Llc | Systems and methods associated with projecting in response to conformation |
| US20090309826A1 (en) * | 2008-06-17 | 2009-12-17 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Systems and devices |
| US8955984B2 (en) | 2008-06-17 | 2015-02-17 | The Invention Science Fund I, Llc | Projection associated methods and systems |
| US8936367B2 (en) | 2008-06-17 | 2015-01-20 | The Invention Science Fund I, Llc | Systems and methods associated with projecting in response to conformation |
| US8427424B2 (en) | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
| KR20100048090A (ko) * | 2008-10-30 | 2010-05-11 | 삼성전자주식회사 | 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법 |
| US9160814B2 (en) * | 2008-11-10 | 2015-10-13 | Intel Corporation | Intuitive data transfer between connected devices |
| US20100146395A1 (en) * | 2008-12-08 | 2010-06-10 | Gustavo De Los Reyes | Method and System for Exploiting Interactions Via A Virtual Environment |
| US8826129B2 (en) * | 2009-01-21 | 2014-09-02 | International Business Machines Corporation | Multi-touch device having a bot with local and remote capabilities |
| US20100306825A1 (en) * | 2009-05-27 | 2010-12-02 | Lucid Ventures, Inc. | System and method for facilitating user interaction with a simulated object associated with a physical location |
| US8570281B2 (en) * | 2009-06-25 | 2013-10-29 | Ncr Corporation | Method and apparatus for multi-touch surface interaction for a financial application within a bank branch |
| KR20110028927A (ko) * | 2009-09-14 | 2011-03-22 | 삼성전자주식회사 | 영상처리장치 및 영상처리장치의 제어 방법 |
| US20110169947A1 (en) * | 2010-01-12 | 2011-07-14 | Qualcomm Incorporated | Image identification using trajectory-based location determination |
| US8315673B2 (en) * | 2010-01-12 | 2012-11-20 | Qualcomm Incorporated | Using a display to select a target object for communication |
| JP5488011B2 (ja) * | 2010-02-04 | 2014-05-14 | ソニー株式会社 | 通信制御装置、通信制御方法及びプログラム |
| US9880619B2 (en) | 2010-02-23 | 2018-01-30 | Muy Interactive Ltd. | Virtual reality system with a finger-wearable control |
| US8730309B2 (en) | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
| US20130328770A1 (en) * | 2010-02-23 | 2013-12-12 | Muv Interactive Ltd. | System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith |
| US8947349B1 (en) * | 2010-03-02 | 2015-02-03 | Rawles Llc | Projecting content onto a display medium |
| US8917905B1 (en) * | 2010-04-15 | 2014-12-23 | Don K. Dill | Vision-2-vision control system |
| US9310923B2 (en) | 2010-12-03 | 2016-04-12 | Apple Inc. | Input device for touch sensitive devices |
| US9418479B1 (en) * | 2010-12-23 | 2016-08-16 | Amazon Technologies, Inc. | Quasi-virtual objects in an augmented reality environment |
| US8965049B2 (en) * | 2011-02-01 | 2015-02-24 | Panasonic Intellectual Property Corporation Of America | Function extension device, function extension method, computer-readable recording medium, and integrated circuit |
| US9329469B2 (en) | 2011-02-17 | 2016-05-03 | Microsoft Technology Licensing, Llc | Providing an interactive experience using a 3D depth camera and a 3D projector |
| US9480907B2 (en) | 2011-03-02 | 2016-11-01 | Microsoft Technology Licensing, Llc | Immersive display with peripheral illusions |
| DE102011017305A1 (de) * | 2011-04-15 | 2012-10-18 | Abb Technology Ag | Bedien- und Beobachtungssystem für technische Anlagen |
| JP2012234382A (ja) * | 2011-05-02 | 2012-11-29 | Ricoh Co Ltd | 画像表示システムおよび画像表示方法 |
| JP2012238065A (ja) * | 2011-05-10 | 2012-12-06 | Pioneer Electronic Corp | 情報処理装置、情報処理システム、および、情報処理方法 |
| US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
| WO2012172548A1 (en) * | 2011-06-14 | 2012-12-20 | Youval Nehmadi | Method for translating a movement and an orientation of a predefined object into a computer generated data |
| JP5255674B2 (ja) * | 2011-06-14 | 2013-08-07 | シャープ株式会社 | データ送信操作機器、および、データ送信制御方法 |
| KR101423536B1 (ko) * | 2011-06-14 | 2014-08-01 | 한국전자통신연구원 | 인쇄매체 기반 혼합현실 구현 장치 및 방법 |
| US8638320B2 (en) | 2011-06-22 | 2014-01-28 | Apple Inc. | Stylus orientation detection |
| US8928635B2 (en) | 2011-06-22 | 2015-01-06 | Apple Inc. | Active stylus |
| US9329703B2 (en) | 2011-06-22 | 2016-05-03 | Apple Inc. | Intelligent stylus |
| AU2011205223C1 (en) * | 2011-08-09 | 2013-03-28 | Microsoft Technology Licensing, Llc | Physical interaction with virtual objects for DRM |
| JP5202712B2 (ja) * | 2011-10-28 | 2013-06-05 | 株式会社東芝 | 表示装置、及び情報送信方法 |
| JP2013105346A (ja) * | 2011-11-14 | 2013-05-30 | Sony Corp | 情報提示装置、情報提示方法、情報提示システム、情報登録装置、情報登録方法、情報登録システムおよびプログラム |
| JP2013114466A (ja) * | 2011-11-29 | 2013-06-10 | Nikon Corp | 表示システム、表示方法およびプログラム |
| US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
| US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
| US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
| US12260023B2 (en) | 2012-01-17 | 2025-03-25 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
| US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
| US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
| US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
| US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
| JP2013149023A (ja) * | 2012-01-18 | 2013-08-01 | Nikon Corp | 表示システム、表示プログラム、および表示方法 |
| JP6044079B2 (ja) * | 2012-02-06 | 2016-12-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| GB2499249B (en) | 2012-02-13 | 2016-09-21 | Sony Computer Entertainment Europe Ltd | System and method of image augmentation |
| JP5859373B2 (ja) * | 2012-05-09 | 2016-02-10 | Kddi株式会社 | 情報管理装置、情報管理方法、及びプログラム |
| JP2015521318A (ja) * | 2012-05-18 | 2015-07-27 | ジャンボ ビジョン インターナショナル プロプライエタリー リミテッド | 2次元、3次元、及び/又は、立体3次元仮想オブジェクトを物理的に移動させるためのアレンジメント |
| US9479549B2 (en) * | 2012-05-23 | 2016-10-25 | Haworth, Inc. | Collaboration system with whiteboard with federated display |
| US9176604B2 (en) | 2012-07-27 | 2015-11-03 | Apple Inc. | Stylus device |
| US9557845B2 (en) | 2012-07-27 | 2017-01-31 | Apple Inc. | Input device for and method of communication with capacitive devices through frequency variation |
| US9652090B2 (en) | 2012-07-27 | 2017-05-16 | Apple Inc. | Device for digital communication through capacitive coupling |
| JPWO2014027433A1 (ja) * | 2012-08-15 | 2016-07-25 | 日本電気株式会社 | 情報提供装置、情報提供方法、及び、プログラム |
| US10713846B2 (en) | 2012-10-05 | 2020-07-14 | Elwha Llc | Systems and methods for sharing augmentation data |
| US10269179B2 (en) | 2012-10-05 | 2019-04-23 | Elwha Llc | Displaying second augmentations that are based on registered first augmentations |
| US9077647B2 (en) | 2012-10-05 | 2015-07-07 | Elwha Llc | Correlating user reactions with augmentations displayed through augmented views |
| US9141188B2 (en) | 2012-10-05 | 2015-09-22 | Elwha Llc | Presenting an augmented view in response to acquisition of data inferring user activity |
| US10180715B2 (en) | 2012-10-05 | 2019-01-15 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
| KR101927150B1 (ko) | 2012-10-30 | 2018-12-10 | 삼성전자주식회사 | 3차원 디스플레이 장치 및 그의 사용자 인터페이스 방법 |
| JP6014162B2 (ja) * | 2012-11-08 | 2016-10-25 | アルプス電気株式会社 | 入力装置 |
| FR2999847A1 (fr) | 2012-12-17 | 2014-06-20 | Thomson Licensing | Procede d'activation d'un dispositif mobile dans un reseau, dispositif d'affichage et systeme associes |
| US9733713B2 (en) * | 2012-12-26 | 2017-08-15 | Futurewei Technologies, Inc. | Laser beam based gesture control interface for mobile devices |
| US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
| US10048775B2 (en) | 2013-03-14 | 2018-08-14 | Apple Inc. | Stylus detection and demodulation |
| US10109075B2 (en) * | 2013-03-15 | 2018-10-23 | Elwha Llc | Temporal element restoration in augmented reality systems |
| US9639964B2 (en) | 2013-03-15 | 2017-05-02 | Elwha Llc | Dynamically preserving scene elements in augmented reality systems |
| WO2014200589A2 (en) | 2013-03-15 | 2014-12-18 | Leap Motion, Inc. | Determining positional information for an object in space |
| US10025486B2 (en) * | 2013-03-15 | 2018-07-17 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
| JP5472509B2 (ja) * | 2013-04-11 | 2014-04-16 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びに情報記録媒体 |
| US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
| US9749395B2 (en) * | 2013-05-31 | 2017-08-29 | International Business Machines Corporation | Work environment for information sharing and collaboration |
| US10295338B2 (en) | 2013-07-12 | 2019-05-21 | Magic Leap, Inc. | Method and system for generating map data from an image |
| US9939935B2 (en) | 2013-07-31 | 2018-04-10 | Apple Inc. | Scan engine for touch controller architecture |
| US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
| US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
| KR20150026132A (ko) * | 2013-08-30 | 2015-03-11 | 삼성전자주식회사 | 전자 장치를 이용하여 오브젝트를 공유하는 방법 및 장치 |
| US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
| US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
| US9679197B1 (en) | 2014-03-13 | 2017-06-13 | Leap Motion, Inc. | Biometric aware object detection and tracking |
| US10332200B1 (en) | 2014-03-17 | 2019-06-25 | Wells Fargo Bank, N.A. | Dual-use display screen for financial services applications |
| US9965038B2 (en) * | 2014-03-21 | 2018-05-08 | Dell Products L.P. | Context adaptable projected information handling system input environment |
| US9304599B2 (en) | 2014-03-21 | 2016-04-05 | Dell Products L.P. | Gesture controlled adaptive projected information handling system input and output devices |
| US10133355B2 (en) | 2014-03-21 | 2018-11-20 | Dell Products L.P. | Interactive projected information handling system support input and output devices |
| US9299013B1 (en) * | 2014-03-27 | 2016-03-29 | Amazon Technologies, Inc. | Visual task feedback for workstations in materials handling facilities |
| US9785247B1 (en) | 2014-05-14 | 2017-10-10 | Leap Motion, Inc. | Systems and methods of tracking moving hands and recognizing gestural interactions |
| US9741169B1 (en) | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
| JP6292181B2 (ja) * | 2014-06-27 | 2018-03-14 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
| US9632686B1 (en) | 2014-07-24 | 2017-04-25 | Wells Fargo Bank, N.A. | Collaborative document creation |
| CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
| US9715865B1 (en) * | 2014-09-26 | 2017-07-25 | Amazon Technologies, Inc. | Forming a representation of an item with light |
| US10061449B2 (en) | 2014-12-04 | 2018-08-28 | Apple Inc. | Coarse scan and targeted active mode scan for touch and stylus |
| JP6512829B2 (ja) * | 2015-01-09 | 2019-05-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| US10656720B1 (en) | 2015-01-16 | 2020-05-19 | Ultrahaptics IP Two Limited | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
| US9723248B1 (en) * | 2015-02-02 | 2017-08-01 | Amazon Technologies, Inc. | Perspective-aware projected user interfaces |
| SG10201501720UA (en) * | 2015-03-06 | 2016-10-28 | Collaboration Platform Services Pte Ltd | Multi user information sharing platform |
| KR102365730B1 (ko) * | 2015-06-15 | 2022-02-22 | 한국전자통신연구원 | 인터랙티브 콘텐츠 제어 장치 및 방법 |
| WO2017184800A1 (en) * | 2016-04-20 | 2017-10-26 | Carnegie Mellon University | System and process for enabling secure, instant, and anonymous communication between physically touching devices |
| US10650591B1 (en) | 2016-05-24 | 2020-05-12 | Out of Sight Vision Systems LLC | Collision avoidance system for head mounted display utilized in room scale virtual reality system |
| US10474277B2 (en) | 2016-05-31 | 2019-11-12 | Apple Inc. | Position-based stylus communication |
| US12229895B1 (en) * | 2016-12-08 | 2025-02-18 | Out of Sight Vision Systems LLC | Virtual reality detection and projection system for use with a head mounted display |
| WO2019067482A1 (en) * | 2017-09-29 | 2019-04-04 | Zermatt Technologies Llc | DISPLAYING APPLICATIONS IN A SIMULATED REALITY ENVIRONMENT ENVIRONMENT |
| US11460911B2 (en) * | 2018-01-11 | 2022-10-04 | Steelseries Aps | Method and apparatus for virtualizing a computer accessory |
| JP6981326B2 (ja) * | 2018-03-22 | 2021-12-15 | 富士通株式会社 | 情報処理装置、表示システム及びウィンドウ配置プログラム |
| US11366514B2 (en) | 2018-09-28 | 2022-06-21 | Apple Inc. | Application placement based on head position |
| US11030822B2 (en) | 2019-05-15 | 2021-06-08 | Microsoft Technology Licensing, Llc | Content indicators in a 3D environment authoring application |
| US11287947B2 (en) | 2019-05-15 | 2022-03-29 | Microsoft Technology Licensing, Llc | Contextual input in a three-dimensional environment |
| US11039061B2 (en) * | 2019-05-15 | 2021-06-15 | Microsoft Technology Licensing, Llc | Content assistance in a three-dimensional environment |
| US11164395B2 (en) | 2019-05-15 | 2021-11-02 | Microsoft Technology Licensing, Llc | Structure switching in a three-dimensional environment |
| US11087560B2 (en) | 2019-05-15 | 2021-08-10 | Microsoft Technology Licensing, Llc | Normalization of objects for a 3D environment within an authoring application |
| JP2021018546A (ja) * | 2019-07-18 | 2021-02-15 | トヨタ自動車株式会社 | 車両用コミュニケーション装置および車両用コミュニケーションシステム |
| JP2021033454A (ja) * | 2019-08-20 | 2021-03-01 | 富士ゼロックス株式会社 | テレプレゼンス用の文書画像上に手の骨格を取得、描画するシステムと方法、計算実行方法、プログラム、および計算機システム |
| EP3928192B1 (en) | 2019-09-26 | 2023-10-18 | Apple Inc. | Wearable electronic device presenting a computer-generated reality environment |
| WO2021062278A1 (en) | 2019-09-27 | 2021-04-01 | Apple Inc. | Environment for remote communication |
| US11960651B2 (en) * | 2020-03-30 | 2024-04-16 | Snap Inc. | Gesture-based shared AR session creation |
| US12266170B2 (en) * | 2020-04-17 | 2025-04-01 | Apple Inc. | Computer-generated supplemental content for video |
| CN115989474A (zh) | 2020-06-22 | 2023-04-18 | 苹果公司 | 显示虚拟显示器 |
| TWI757824B (zh) * | 2020-08-10 | 2022-03-11 | 宏碁股份有限公司 | 擴增實境螢幕系統及擴增實境螢幕顯示方法 |
| US12153764B1 (en) | 2020-09-25 | 2024-11-26 | Apple Inc. | Stylus with receive architecture for position determination |
| US11899658B1 (en) * | 2020-10-16 | 2024-02-13 | Splunk Inc. | Codeless anchor detection for aggregate anchors |
| US11402964B1 (en) * | 2021-02-08 | 2022-08-02 | Facebook Technologies, Llc | Integrating artificial reality and other computing devices |
| US12299824B2 (en) * | 2022-05-27 | 2025-05-13 | Giraffe360 Limited | Autoplay sessions for virtual tours |
| US20240095779A1 (en) * | 2022-09-16 | 2024-03-21 | Roku, Inc. | Demand side platform identity graph enhancement through machine learning (ml) inferencing |
| TWI904632B (zh) * | 2024-04-10 | 2025-11-11 | 美商沃耶特拉海龜灘有限公司 | 具有狀態指示功能之滑鼠裝置 |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4835372A (en) * | 1985-07-19 | 1989-05-30 | Clincom Incorporated | Patient care system |
| US5334822A (en) * | 1990-05-21 | 1994-08-02 | Universal Computer Technologies Inc. | Method and system for inventoring a distributed plurality of items on a supply |
| US5297061A (en) * | 1993-05-19 | 1994-03-22 | University Of Maryland | Three dimensional pointing device monitored by computer vision |
| JPH07175587A (ja) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | 情報処理装置 |
| US5732227A (en) * | 1994-07-05 | 1998-03-24 | Hitachi, Ltd. | Interactive information processing system responsive to user manipulation of physical objects and displayed images |
| JPH08272803A (ja) * | 1995-03-29 | 1996-10-18 | Hitachi Ltd | 現実物を用いた情報処理システム |
| US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
| US5838326A (en) * | 1996-09-26 | 1998-11-17 | Xerox Corporation | System for moving document objects in a 3-D workspace |
| JPH11144024A (ja) * | 1996-11-01 | 1999-05-28 | Matsushita Electric Ind Co Ltd | 画像合成装置、画像合成方法及び媒体 |
| US6025844A (en) * | 1997-06-12 | 2000-02-15 | Netscape Communications Corporation | Method and system for creating dynamic link views |
| TW434520B (en) | 1998-06-30 | 2001-05-16 | Sony Corp | Two-dimensional code recognition processing method, device therefor and medium |
| TW548572B (en) | 1998-06-30 | 2003-08-21 | Sony Corp | Image processing apparatus, image processing method and storage medium |
| US6215498B1 (en) * | 1998-09-10 | 2001-04-10 | Lionhearth Technologies, Inc. | Virtual command post |
| US6560565B2 (en) * | 1999-04-30 | 2003-05-06 | Veritas Dgc Inc. | Satellite-based seismic mobile information and control system |
-
1999
- 1999-12-21 JP JP36203899A patent/JP4332964B2/ja not_active Expired - Fee Related
-
2000
- 2000-12-18 US US09/739,952 patent/US7069516B2/en not_active Expired - Lifetime
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014215977A (ja) * | 2013-04-30 | 2014-11-17 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
| JP2023106171A (ja) * | 2022-01-20 | 2023-08-01 | Sky株式会社 | 名刺管理システム及び名刺管理プログラム |
| JP7755501B2 (ja) | 2022-01-20 | 2025-10-16 | Sky株式会社 | 名刺管理システム及び名刺管理プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2001175374A (ja) | 2001-06-29 |
| US7069516B2 (en) | 2006-06-27 |
| US20010044858A1 (en) | 2001-11-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4332964B2 (ja) | 情報入出力システム及び情報入出力方法 | |
| JP4284855B2 (ja) | 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体 | |
| US6330976B1 (en) | Marking medium area with encoded identifier for producing action through network | |
| Rekimoto et al. | Augmented surfaces: a spatially continuous work space for hybrid computing environments | |
| EP2332024B1 (en) | Using physical objects in conjunction with an interactive surface | |
| US8884876B2 (en) | Spatially-aware projection pen interface | |
| US5917490A (en) | Interactive information processing system responsive to user manipulation of physical objects and displayed images | |
| US6266057B1 (en) | Information processing system | |
| JP2001136504A (ja) | 情報入出力システム及び情報入出力方法 | |
| US7966352B2 (en) | Context harvesting from selected content | |
| JP2001265523A (ja) | 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体 | |
| CN112947825B (zh) | 显示控制方法、装置、电子设备及介质 | |
| WO1999050787A1 (en) | Cross-network functions via linked hardcopy and electronic documents | |
| JP2005129062A (ja) | 電子付箋 | |
| CA2862431A1 (en) | Method of displaying input during a collaboration session and interactive board employing same | |
| CN102037450A (zh) | 内容管理装置和内容管理方法 | |
| Rekimoto | Multiple-computer user interfaces: " beyond the desktop" direct manipulation environments | |
| US10990344B2 (en) | Information processing apparatus, information processing system, and information processing method | |
| JP2001109570A (ja) | 情報入出力システム及び情報入出力方法 | |
| JPH0784715A (ja) | 情報処理装置 | |
| JP4053378B2 (ja) | 会議支援装置、コンピュータが読み取り可能なプログラム、及び電子会議システム | |
| JP2003111042A (ja) | 会議支援装置、情報処理装置、電子会議システムおよびプログラム | |
| CN110895440A (zh) | 信息处理装置及记录介质 | |
| JP2004272473A (ja) | 会議支援装置、電子会議システム、およびコンピュータが読取可能なプログラム | |
| JP3967234B2 (ja) | 会議支援装置、コンピュータが読み取り可能なプログラム、及び電子会議システム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060310 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081009 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081118 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090109 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090317 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090513 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090602 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090615 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130703 Year of fee payment: 4 |
|
| LAPS | Cancellation because of no payment of annual fees |
